OpenAI与美国国防部合作引发争议,Sam Altman承认协议过于仓促并紧急修改条款

GateNews

3月3日消息,据CNBC报道,OpenAI首席执行官 Sam Altman 承认,公司此前与美国国防部达成的人工智能合作协议推进过于仓促,并表示将对相关条款进行调整。这一表态出现在舆论持续发酵之际,此前OpenAI宣布与五角大楼达成合作,引发AI伦理、军事用途以及数据安全方面的广泛讨论。

据公开信息显示,这项协议是在上周五宣布的,而就在同一时间,美国政府正在推进多项与国家安全相关的决策。消息披露后,部分科技社区与用户对人工智能技术可能被用于军事用途表达担忧。Sam Altman随后在社交平台发文回应称,公司将为协议增加新的限制条款,其中包括明确规定AI系统不得被用于对美国公民或居民进行国内监控。

Sam Altman还表示,美国国防部已经确认,OpenAI的人工智能工具不会被美国国家安全局(NSA)等情报机构直接用于情报监控任务。与此同时,OpenAI计划与五角大楼共同制定额外的技术保障措施,以降低AI在敏感场景中的滥用风险。

这位CEO同时承认,公司在推进协议时判断失误。他表示,当时团队希望迅速缓和局势并避免更严重的政治冲突,但回头看这一决定显得过于草率,也容易被外界理解为投机行为。

此次争议还与另一家人工智能公司 Anthropic 有关。此前,Anthropic与美国政府围绕其AI模型 Claude 的使用边界产生分歧,并寻求明确保证其系统不会被用于国内监控或自主武器开发。据报道,双方谈判随后破裂。

与此同时,网络上出现明显的用户情绪波动。一些用户在应用平台上减少使用 ChatGPT,并转向 Claude 等竞争产品,使得AI行业的伦理争议进一步扩大。

Sam Altman在回应中还表示,他并不认为 Anthropic 应被视为供应链风险,并希望美国国防部能够给予其与OpenAI类似的合作条件。此次事件也再次凸显,在人工智能技术迅速发展的背景下,AI与国家安全、军事应用以及社会监管之间的边界问题正成为全球科技行业关注的焦点。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)