Gate Newsメッセージ、4月20日 — モルガン・スタンレーは、自律型AIシステムが2030年までに中央処理装置 (CPU) の需要を大幅に押し上げ、データセンター投資のあり方を変え、グラフィックス処理装置 (GPUs) 以外へのAI支出も拡大させる可能性があると見込んでいる。同銀行は、エージェンティックAIが、2030年までに $60 billion を超えると見込まれるデータセンタ―CPU市場に $32.5 billion から $100 billion を追加し、さらにメモリ需要も押し上げると推定している。
エージェンティックAIシステムは、コードのコンパイル、ソフトウェアツール、データベースのクエリといった汎用タスクのためにCPUに依存しており、GPUには向いていない役割だ。Nvidiaは、エージェンティックAIと強化学習の用途に特化したCPUであるVeraを導入した。SemiAnalysisの調査では、OpenAIを支えるMicrosoftのフェアウォーター・データセンターが挙げられており、48メガワットのCPUとストレージ基盤が、295メガワットのGPUクラスターを支える。電力の比率はおおむね1対6だ。この変化の恩恵を受けると予想されるのは、Nvidia、AMD、Intel、Arm、Micron、Samsung、SK hynix、TSMC、ASML など。
メモリの制約が、重要なボトルネックとして浮上している。エージェンティックAIシステムは、拡張と永続を前提にしたコンテキストに依存しており、それによってメモリ需要が急速に増える可能性がある。SemiAnalysisは、メモリが2026年にハイパースケーラーの資本支出の約30%を占めると見込んでおり、2023〜2024年の約8%から増加する見通しだ。DRAM価格は2026年に2倍以上になると予想される。一方、AIサーバーで使用されるハイ・バンド幅メモリ (HBM) は、2027年まで供給不足が続く見込みで、MicronやSK hynixのようなサプライヤーが、システムコストと導入のスケジュールにおいてますます中心的な存在になる態勢だ。
Related News