✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
4月13日,University of California 的研究人员发现,一些第三方 AI 大语言模型(LLM)路由器可能存在安全漏洞,从而导致加密资产被盗。
研究人员于周四发布的一篇论文,对 LLM 供应链中的恶意中间人攻击进行了测量,揭示了四种攻击向量,包括恶意代码注入和凭证提取。
论文合著者 Chaofan Shou 在 X 上表示:“有 26 个 LLM 路由器在暗中注入恶意工具调用并窃取凭证。”
目前,LLM 智能体越来越多地通过第三方 API 中介或路由器来转发请求,这些路由器聚合了对 OpenAI、Anthropic 和 Google 等服务提供商的访问。然而,这些路由器会终止互联网的 TLS(传输层安全)连接,从而能够以明文形式访问所有消息内容。
这意味着,使用 AI 编码代理(例如 Claude Code)来开发智能合约或钱包的开发者,可能会在不知情的情况下,将私钥、助记词和其他敏感数据传输到尚未经过安全审查或保护的路由器基础设施中。