⏰ 倒計時 2 天開啓!💥 Gate 廣場活動:#发帖赢代币TRUST 💥
展示你的創意贏取獎勵
在 Gate 廣場發布與 TRUST 或 CandyDrop 活動 相關的原創內容,就有機會瓜分 13,333 枚 TRUST 獎勵!
📅 活動時間:2025年11月6日 – 11月16日 24:00(UTC+8)
📌 活動詳情:
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47990
📌 參與方式:
1️⃣ 在 Gate 廣場發布原創內容,主題需與 TRUST 或 CandyDrop 活動相關;
2️⃣ 內容不少於 80 字;
3️⃣ 帖子添加話題:#發帖贏代幣TRUST
4️⃣ 附上任意 CandyDrop 活動參與截圖
🏆 獎勵設置(總獎池:13,333 TRUST)
🥇 一等獎(1名):3,833 TRUST / 人
🥈 二等獎(3名):1,500 TRUST / 人
🥉 三等獎(10名):500 TRUST / 人
OpenAI與Anthropic互測模型幻覺與安全性等問題
金十數據8月28日訊,OpenAI和Anthropic近日互相對對方的模型進行了評估,以期發現自身測試中可能遺漏的問題。兩家公司周三在各自的博客上表示,今年夏天,它們針對對方公開可用的AI模型進行了安全性測試,並檢驗了模型是否存在幻覺傾向,以及所謂“失準”(misalignment)的問題,即模型未按開發者預期運行。這些評估是在OpenAI推出GPT-5,以及Anthropic在8月初發布Opus 4.1之前完成的。Anthropic由前OpenAI員工創立。