据报道,美国军方在对伊朗发动一次重大空袭期间使用了Anthropic,仅在唐纳德·特朗普总统下令联邦机构停止使用该公司系统数小时后。
据《华尔街日报》援引知情人士消息,包括美国中东中央司令部(CENTCOM)在内的军事指挥机构使用了Anthropic的Claude AI模型来提供作战支持。该工具据称协助进行情报分析、识别潜在目标并运行战场模拟。
这一事件显示出先进人工智能系统已深度融入国防作战。即使政府决定切断与该公司的联系,Claude仍然嵌入在军事工作流程中。
周五,特朗普政府指示各机构停止与该公司合作,并要求国防部将其视作潜在安全风险。这项命令是在合同谈判破裂后发出的,Anthropic拒绝为国防官员提出的任何合法场景无限制地开放其AI的军事使用。
Anthropic的Claude AI被用于机密行动
Anthropic此前已与其他多家大型AI实验室共同获得了一份价值高达2亿美元的五角大楼多年期合同。通过与Palantir及亚马逊云服务的合作,Claude获得了机密情报及作战流程的授权。据称,该系统还参与了此前的多次行动,包括1月在委内瑞拉的任务,该行动最终导致总统尼古拉斯·马杜罗被捕。
在美国国防部长Pete Hegseth要求公司允许军方无限制使用其AI模型后,局势进一步升级。Anthropic首席执行官Dario Amodei拒绝了这一请求,称部分应用属于公司不会逾越的伦理红线,哪怕因此失去政府生意。
对此,五角大楼开始物色替代服务商,并与OpenAI达成协议,在机密军事网络上线其AI模型。
Anthropic首席执行官反对五角大楼禁令
在周六的一次采访中,Anthropic首席执行官Dario Amodei表示,公司反对将其AI模型用于大规模国内监控和完全自主武器,回应美政府将该公司定性为国防“供应链风险”并禁止承包商使用其产品的指令。
他指出,部分应用跨越了基本界限,强调军事决策应由人类掌控,而不是完全由机器接管。
