BlockBeats 消息,2 月 28 日,人工智能公司 Anthropic 發布聲明稱:「我們曾就人工智能模型 Claude 的合法使用提出兩項例外請求:禁止對美國民眾實施大規模國內監控,以及禁止完全自主武器系統。截至目前,我們尚未收到國防部或白宮關於談判進展的直接溝通。堅持例外條款基於兩點考量:其一,現階段前沿 AI 模型尚不具備應用於全自主武器的可靠性,此類應用將危及美軍官兵與平民安全;其二,大規模國內監控構成對基本人權的侵犯。」
將 Anthropic 列為供應鏈風險屬於史無前例之舉,我們深感痛心。Anthropic 自 2024 年 6 月起持續支持美軍作戰人員,並始終致力於延續此項服務。我們認為此項認定在法律上站不住腳,更將為任何與政府談判的美國企業樹立危險先例。無論國防部施加何種威懾或懲罰,都無法改變我們對大規模國內監控及完全自主武器的立場。我們將通過法律途徑挑戰任何供應鏈風險認定。


