AIの次なるブレークスルーを本当に妨げているものは何か?見落とされがちな二つの要素がある:巨大なデータセンターへの過剰依存と、言語モデルだけに焦点を当てた狭い視野。



データセンターはボトルネックになりつつある—計算能力だけでなく、持続可能性やアクセス性の面でも。私たちは集中型インフラにリソースを投入しているが、真の革新は分散型ソリューションを必要とするかもしれない。

そして、部屋の象徴的な存在:すべてを言語モデルに賭けること。マルチモーダルシステムはどうだ?異なるタスクや異なるドメイン向けに設計されたモデルはどうだ?皆が同じアプローチを追いかけると、リターンは減少していく。

これらの見えない制約が今後の10年を左右する可能性がある。これらを再考しない限り、私たちは箱の中で最適化を続けるだけで、抜け出すことはできない。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • リポスト
  • 共有
コメント
0/400
AirdropSweaterFanvip
· 8時間前
言ってその通りです。データセンターの仕組みはとっくに変えるべきでした。お金を浪費し、環境も汚染します。
原文表示返信0
LiquidatedNotStirredvip
· 8時間前
分散型こそ未来だ。今はすべて計算能力を燃やして大規模モデルを作っているが、少し方向性がずれているように感じる。
原文表示返信0
OptionWhisperervip
· 8時間前
分散型こそ未来であり、大規模データセンターのやり方はすでに時代遅れです。
原文表示返信0
TokenCreatorOPvip
· 8時間前
正直に言うと、大規模データセンターの仕組みはもう少し時代遅れになってきている。2024年なのにまだ計算能力を積み上げているのか?分散型こそが未来だ。
原文表示返信0
  • ピン