Google DeepMindのAI「Co-Mathematician」がFrontierMathティア4で47.9%を記録し、GPT-5.5 Proを上回り、これまで未解決だった3つの問題を解き明かした

Google DeepMindは、マルチエージェントの数学研究アシスタントであるAIコ・マサチック者をリリースし、FrontierMath Tier 4ベンチマークで47.9%の精度を達成して、5月9日のGPT-5.5 Proのこれまでの記録である39.6%を上回りました。システムは48問中23問を解けるようになり、これまでのあらゆるモデルが解けなかった3問も含まれています。Gemini 3.1 Proをベースにしたこのアーキテクチャは、階層型の設計で、プロジェクト・コーディネーターのエージェントが、文献検索、コーディング、推論を担当するサブエージェントへタスクを配分し、投稿前に複数のレビュアー・エージェントが証明を検証する仕組みになっています。

Epoch AIはブラインドテストを実施し、DeepMindのチームが問題を見られないようにしたうえで、各質問に対して計算時間として48時間を許可しました。実運用では、数学者のMarc Lackenbyがこのシステムを使ってKourovka Notebookの未解決予想を解決し、その実践的な研究価値を示しました。システムは現在、ベータテストとして限られた数の数学者に利用可能です。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし