AI公司Anthropic首席执行官Dario Amodei表示,在美国国防部和白宫命令军工承包商停止使用Anthropic产品后作出了回应。
Amodei周六在接受CBS新闻采访时表示,Anthropic反对将其AI模型用于大规模国内监控和能够在无人控制下开火的全自动武器。
他补充称,除了监控和全自动武器平台外,Anthropic对于美国政府提出的所有AI模型使用场景均表示认可。他表示:
“这些都是对美国人来说最根本的权利:拥有不被政府监控的权利,让我们的军官亲自做出战争决策的权利,而不是完全交由机器处理。”
他补充称,国防部决定将Anthropic列为“供应链风险”——即军工承包商不得在国防合同工作中使用Anthropic产品——是“史无前例”的,也是“惩罚性”的。
Amodei随后澄清称,如果未来外国军方开始使用完全自动化武器,他并不反对相关研发,但目前AI在军事环境下尚不具备足够的自主可靠性。
Amodei表示,法律尚未跟上不断发展的AI行业,呼吁美国国会出台“护栏”立法,以防止AI被用于国内大规模监控项目。
OpenAI在美国官员将Anthropic列为供应链风险后赢得国防合同
周五,美国国防部长Pete Hegseth宣布,Anthropic是“国家安全的供应链风险”。
“即刻起,任何与美国军方有业务往来的承包商、供应商、合作伙伴,不得与Anthropic开展任何商业活动。”
数小时后,竞争对手AI公司OpenAI与美国国防部签署合同,将其AI模型部署至军用网络。
OpenAI首席执行官Sam Altman的这一合作协议宣布,在网络上引发批评。有观点认为,AI被用于大规模国内监控以及削弱个人隐私底线。
