企业领导者越来越怀疑纯粹人工智能在关键基础设施中的适用性。焦点转向可被严格验证和审计的可预测机器学习。生成式人工智能存在透明度不足的问题:无法“窥探引擎底部”带来不可接受的风险。黑箱神经网络的潜在偏见可能影响涉及数千人的决策,同时无法追踪任何痕迹。当模型意外将卡车送入洪水覆盖的道路时,诊断变成了猜测。这也是为什么企业选择确定性机器学习模型——它们在演示中可能不那么吸引人,但在危机情况下更可靠。类似的经验也体现在风险评估系统的测试中:不透明的相关性会导致误报,而机器学习遵循明确的规则,能追溯决策逻辑。大型语言模型经常生成似是而非的合理解释,但缺乏真实性。相比之下,可解释模型——如简单的回归或决策树——提供清晰的数学轨迹。结果,企业将资本从基于生成式人工智能的聊天机器人转向预测建模工具。可预测性比新颖性更重要,尤其是在反洗钱规则遵守和全球物流等受监管领域。客户要求在合同中加入透明度和审计能力条款:如果系统拒绝贷款,银行必须向审计人员解释确切的数学原因。监管环境也推动了这一转变。欧盟的AI法案对高风险应用引入了严格的透明度要求,主要义务将于2026年8月生效。第50条要求在与合成生成内容互动时明确披露信息。类似的,NIST的人工智能风险管理框架(AI RMF)强调可解释性,以确保在产品生命周期的每个阶段都有人类责任。最终,2026年将成为Web3从试验走向在金融基础设施中真正整合的年份,通过稳定币和代币化资产的演变,以及在人工智能中向可预测机器学习的转变。这些变化凸显了透明度和实用性在技术中的日益重要性,这些技术已开始影响企业和金融的日常流程。#GateSquareAprilPostingChallenge

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论