PANews 2月27日報道、業界が新世代フラッグシップモデルDeepSeek V4に期待を寄せる中、DeepSeekチームは静かに新たな学術論文を発表した。新論文では、DualPathと呼ばれる革新的な推論システムを紹介しており、これはインテリジェントエージェントの作業負荷下における大規模モデル(LLM)の推論性能を最適化することを目的としている。双方向のKVキャッシュ(記憶キャッシュに類似)読み取り機構を導入し、ストレージネットワークの負荷を再配分することで、オフライン推論のスループットを最大1.87倍向上させ、オンラインサービスにおいてはエージェントの平均稼働数を1.96倍増加させた。論文の序論では、大規模モデルは単一の対話ロボットや独立した推論モデルから、自己計画・ツール呼び出し・多輪対話を通じて実務的なタスクを解決できるインテリジェントエージェントシステムへと急速に進化していると述べている。この応用パラダイムの変化は、大規模モデルの推論負荷に大きな変革をもたらし、従来の人間と大規模モデルの一対一のインタラクションから、人間・大規模モデル・環境の三者間のインタラクションへと進化し、対話のラウンド数は数十から数百に達することもある。