OpenAIの研究者:AIシステムは2年以内に研究の大半を担える可能性

ゲートニュース(4月29日)— OpenAIの研究者セバスチャン・ビュベックとアーネスト・リューは、AIシステムは2年以内にほとんどの人間の研究業務を遂行できる可能性があると述べており、数学をAIの進歩を測る明確な指標として提示しています。曖昧なパフォーマンステストとは異なり、数学の問題は正確な検証を可能にします:答えは正しいか誤りかのどちらかで、曖昧さの余地はありません。

ビュベックは、真のAIの思考には、長い推論の連鎖を生き残ることが必要だと指摘しました。多段階の議論における単一の誤りが証明全体を崩壊させるため、高度なモデルにとって、プロセスの途中で誤りを検出し訂正することが最終目標になります。OpenAIの社内ラボでは、トップクラスの組合せ論ジャーナルに掲載可能な、完全に新しい定理をすでに10本以上創出しており、AIが既存論文を単に組み合わせ直すだけでなく、独自で画期的な研究を本当に生み出していることを示しています。

しかし、持続的な科学的ブレークスルーには、テストを行う数週間にわたって着実に集中することが求められます。現在のシステムは依然として、人間が厳密に監督して、進む方向の各切り替えを導き検証する必要があります。ビュベックは「AGI time」で、モデルが人間の思考を独力でどれくらいの期間模倣できるかを測ります。現在のシステムはおおむね数日から1週間程度で動作しており、業界の目標は、生物学のような分野で自律的に作業できるようにするために、数週間または数か月です。

長期記憶は、この未来において決定的に重要です。標準的なチャットウィンドウは深さを制限します――複雑な数学的証明はしばしば50ページを超えます――一方で、コードリポジトリは、作業セッションを長くすることで問題解決をより深くできることを示しています。AIが自律性と記憶を獲得するにつれ、人間の専門性はむしろ減るのではなく、より価値を持つようになります。働く人々は、機械の回答に挑み、検証できるように、深い基礎知識を保持しなければなりません。そして、AI支援による研究が洪水のように押し寄せる中で信頼を維持するためには、組織は新しい自動フィルタと評判(レピュテーション)システムを必要とするでしょう。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし