美军被曝使用Claude AI空袭伊朗,负责情报评估与目标识别,专家发出严厉警告

robot
摘要生成中

人工智能正在悄然介入真实战争决策。

据《华尔街日报》报道,美国中央司令部在对伊朗的空袭行动中,调用了Anthropic公司的Claude AI执行情报评估、目标识别与战场模拟任务。然而,"目标识别"的具体含义——Claude究竟是在标记打击地点,还是在估算伤亡数字——至今无人披露,且无人有法律义务作出此类公开。

值得注意的是,就在空袭发生数小时前,特朗普已下令联邦机构停止使用Claude,但该工具与五角大楼系统深度嵌合,短期内难以切换。Claude此前也被用于1月份针对马杜罗的行动。

与此同时,五角大楼与Anthropic就涉密系统使用权限陷入正面对峙。Anthropic CEO Dario Amodei拒绝接受国防部的"无限制访问"要求,坚守不得用于"对美国人实施大规模监控"和"完全自主武器"两条红线。

学术机构同期的模拟推演显示,主流AI大模型在高风险对抗博弈中,在95%的情况下最终会选择动用核武器。两组信息叠加,令AI军事化应用的风险争议骤然升温。

Claude介入空袭,具体用途成谜

人工智能早已被用于分析卫星图像、检测网络威胁及引导导弹防御系统。

但此次更值得关注的是,与数十亿人日常用于撰写邮件的底层技术相同的聊天机器人,正在被直接引入战场决策链。

去年11月,Anthropic与数据分析公司Palantir Technologies达成合作,将Claude作为军方决策支持系统的推理引擎。

今年1月,Anthropic还向五角大楼提交了一份价值1亿美元的提案,旨在开发声控自主无人机集群技术——以Claude将指挥官意图转化为数字指令,协调整支无人机编队。该提案最终遭拒,但涉及的合同内容已远超"摘要情报报告"的范畴,具体包括"目标相关感知与共享"以及无人机集群从"发射到终结"的全程控制能力。

即便如此,这些系统究竟如何运作,至今仍不透明。彭博专栏作者指出,AI公司本身就拒绝披露模型的训练数据及推理路径,军事应用的保密属性又在此基础上叠加了新的遮蔽层。

五角大楼要求无限制访问权,Anthropic拒绝

据报道,国防部长Pete Hegseth在备忘录中明确要求使用"不受政策约束影响、不会限制合法军事应用的模型",并向Amodei发出最后通牒:周五下午5时前交出无限制使用授权,否则承担严重后果。

Amodei在博文中写道:“我们凭良心无法答应他们的要求。“Anthropic在声明中直指,国防部最新合同文本中"看似妥协的新措辞"配合"法律术语”,会让公司坚守的护栏"随时可以被无视”。

五角大楼予以强硬反击。国防部首席发言人Sean Parnell在X上表示,国防部无意对美国人进行大规模监控,也不想开发没有人类参与的自主武器,但强调"不会让任何公司来规定我们如何做作战决策"。据报道,五角大楼还威胁援引冷战时期的《国防生产法》强制征用Claude模型,并已要求波音和洛克希德·马丁等国防承包商评估其对Anthropic的依赖程度,准备将其列为"供应链风险"。

Amodei对此指出其中的逻辑矛盾:"这些威胁本身自相矛盾:一个把我们贴上安全风险的标签;另一个又说Claude对国家安全至关重要。“他表示,若五角大楼决定放弃Anthropic,公司"将努力促成向另一家供应商的平稳过渡”。

推演数据:AI模型在95%的情况下选择核打击

Anthropic对"完全自主武器"的顾虑,在一项近期学术推演中得到了令人警醒的数据支撑。

据披露,伦敦国王学院(KCL)的Kenneth Payne主导了一项高度逼真的兵棋推演,让ChatGPT-5.2、Claude Sonnet 4和Gemini 3 Flash三大主流模型相互对弈。在329个回合中,没有任何模型选择投降;在95%的情况下,这些AI模型最终选择了动用核武器。

英国阿伯丁大学的James Johnson表示:"从核风险的角度来看,这些发现令人不安。"他警告,与大多数人类在高风险决策时的审慎反应不同,AI模型可能不断放大彼此的反应,导致潜在的灾难性后果。专家指出,对机器而言,"核禁忌"的约束力远不如人类,这也正是Anthropic在面临重罚压力时仍坚决拒绝放开限制的核心逻辑所在。

监管真空:规则缺席,问责框架亟待建立

彭博分析指出,AI系统应用于战场的诸多隐患,正在制度性真空中持续累积。AI大模型的"幻觉"问题源于训练机制本身——模型被激励去给出答案,而非承认不确定性,部分科学家认为这一缺陷可能永远无法被彻底修复。

以色列在加沙使用的AI系统"薰衣草(Lavender)"提供了前车之鉴。据以色列媒体报道,该系统有10%的错误率,导致约3600人被错误标记为打击目标。牛津大学互联网研究所教授Mariarosaria Taddeo表示:“这些系统存在难以置信的脆弱性和极端的不可靠性,而战争是如此动态、敏感且关乎人命的领域。”

在制度层面,《日内瓦公约》第36条要求新式武器系统在部署前须经测试,但一个从环境中持续学习的AI系统每次更新后都会成为新系统,使该条款几乎无从适用。

伦敦玛丽女王大学教授Elke Schwarz指出,AI在战争中的应用往往以"加速决策"为目的,而这恰恰是通向不良后果的温床——更快的决策意味着更大的规模和更少的人类审查。

彭博以无人机先例作为参照:美国自9·11后开始使用武装无人机,近15年间历经文件泄露、媒体持续施压和法律诉讼,直至奥巴马政府于2016年公开无人机打击伤亡数字,才形成有限的公众问责框架,且所公布数字被普遍认为存在低估。AI监管的推进将更为艰难,需要更大力度的公众与立法压力,方能推动特朗普政府建立类似的信息披露机制。

在此之前,关键问题仍悬而未决。"我们作为一个社会,还没有决定是否可以由机器来判断一个人是否应该被杀死,"Taddeo说。

风险提示及免责条款

        市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)