Googleは訓練不要のTurboQuant圧縮アルゴリズムを発表し、AIのメモリ需要を少なくとも6倍圧縮できると主張しています。この発表後、メモリ株は一斉に急落しましたが、アナリストの見解は分かれています。
(前提:Googleは2029年までに量子暗号の移行を完了させる予定で、政府の目標より6年前倒し。暗号産業も追随が必要です)
(補足背景:ウォール・ストリート・ジャーナルによると、トランプ大統領はザッカーバーグ、黄仁勳、エリソンをPCASTに招き、「アメリカAI国家チーム」を構築予定)
新しいアルゴリズムにより、メモリ関連株が全面的に崩壊?Google Researchは25日に正式にTurboQuant圧縮アルゴリズムを発表し、大型言語モデル(LLM)のKVキャッシュを3ビットに量子化し、モデルの精度を損なわずにメモリ使用量を少なくとも6倍圧縮できると主張しています。
この情報が出た後、メモリ大手のマイクロンは25日の取引中に一時6.1%下落し、終値は382.09ドルとなり、3週間ぶりの安値を記録しました。一方、サンディスクは3.5%、シーゲイトは2.59%、ウエスタンデジタルは1.63%下落し、メモリ株全体が崩壊しました。
アジア市場も同時に圧迫され、サムスン電子は始値から3.6%下落、SKハイニックスは4.5%下落しました。投資家の論理は単純明快です:もしAIモデルがこれまでほど多くのメモリを必要としなくなれば、最近の部品不足で支えられてきた価格決定権は揺らぐ可能性があります。
KVキャッシュ(Key-Value Cache)は、LLMが「記憶」している処理済みデータの核心メカニズムであり、過去の注意力データを保存し、各トークン生成時に再計算を避ける役割を果たします。しかし、コンテキストウィンドウの拡大に伴い、KVキャッシュはメモリの大きなボトルネックとなっています。
TurboQuantはこの問題に焦点を当てています。Googleは、従来のベクトル量子化手法ではメモリ内で各値に約1〜2ビットの追加オーバーヘッドが生じると指摘し、TurboQuantは二段階の処理によりこの負担を徹底的に排除します。
第一段階では、PolarQuant法を用いてデータベクトルを回転させ、高品質な圧縮を実現します。
第二段階では、Quantized Johnson-Lindenstraussアルゴリズムを用いて残留誤差を除去します。
NVIDIAのH100 GPUでのベンチマークでは、4ビットのTurboQuantは未量子化の32ビットのキーと比べて注意力度の計算速度を8倍に向上させ、KVキャッシュのメモリ使用量も少なくとも6倍圧縮されました。
さらに重要なのは、このアルゴリズムは訓練や微調整を必要とせず、実行時のオーバーヘッドも非常に低いため、正式な推論環境や大規模なベクトル検索システムに直接展開可能です。公式によると、関連論文は2026年4月の「ICLR」会議で正式に発表される予定です。
しかし、「メモリの終わり」という見方に全ての人が賛同しているわけではありません。
一部のアナリストはジェイムズの逆説を引用しています。技術進歩により資源のコストが下がると、資源がより容易に入手できるため、逆に全体の需要が高まるというものです。支持者は、TurboQuantがAI推論の敷居を大きく下げるなら、AIモデルの普及が加速し、結果的により大きなメモリ需要を生むと考えています。
Lynx Equity Strategiesのアナリストはレポートで次のように述べています:「Googleが詳述した方法は、今後3〜5年でメモリやフラッシュメモリの需要をほとんど減らさないでしょう。供給が依然として非常に制限されているためです。」このため、同機関はマイクロンの目標株価700ドルを維持しています。