3月3日消息,据CNBC报道,OpenAI首席执行官 Sam Altman 承认,公司此前与美国国防部达成的人工智能合作协议推进过于仓促,并表示将对相关条款进行调整。这一表态出现在舆论持续发酵之际,此前OpenAI宣布与五角大楼达成合作,引发AI伦理、军事用途以及数据安全方面的广泛讨论。
据公开信息显示,这项协议是在上周五宣布的,而就在同一时间,美国政府正在推进多项与国家安全相关的决策。消息披露后,部分科技社区与用户对人工智能技术可能被用于军事用途表达担忧。Sam Altman随后在社交平台发文回应称,公司将为协议增加新的限制条款,其中包括明确规定AI系统不得被用于对美国公民或居民进行国内监控。
Sam Altman还表示,美国国防部已经确认,OpenAI的人工智能工具不会被美国国家安全局(NSA)等情报机构直接用于情报监控任务。与此同时,OpenAI计划与五角大楼共同制定额外的技术保障措施,以降低AI在敏感场景中的滥用风险。
这位CEO同时承认,公司在推进协议时判断失误。他表示,当时团队希望迅速缓和局势并避免更严重的政治冲突,但回头看这一决定显得过于草率,也容易被外界理解为投机行为。
此次争议还与另一家人工智能公司 Anthropic 有关。此前,Anthropic与美国政府围绕其AI模型 Claude 的使用边界产生分歧,并寻求明确保证其系统不会被用于国内监控或自主武器开发。据报道,双方谈判随后破裂。
与此同时,网络上出现明显的用户情绪波动。一些用户在应用平台上减少使用 ChatGPT,并转向 Claude 等竞争产品,使得AI行业的伦理争议进一步扩大。
Sam Altman在回应中还表示,他并不认为 Anthropic 应被视为供应链风险,并希望美国国防部能够给予其与OpenAI类似的合作条件。此次事件也再次凸显,在人工智能技术迅速发展的背景下,AI与国家安全、军事应用以及社会监管之间的边界问题正成为全球科技行业关注的焦点。