メイトゥアンがオープンソース化したLongCat-Next:3Bパラメータによる統一ビジョン理解・生成・音声

BlockBeatNews

2023年10月までのデータに基づき、以下の内容を日本語に翻訳します。

1M AI Newsの監測によると、MeituanのロンゴマチームはLongCat-Nextをオープンソース化しました。これはMoEアーキテクチャに基づき、活性化パラメータ3Bのネイティブマルチモーダルモデルであり、単一の自己回帰フレームワークの下でテキスト、ビジュアル理解、画像生成、音声理解、音声合成の五つの能力を統一しています。モデルと付属のトークナイザーはMITライセンスで公開されており、重みはHuggingFaceにアップロードされています。

LongCat-Nextのコア設計はDiNA(離散ネイティブ自己回帰)パラダイムです。各モダリティに対してペアのトークナイザーとデコーダーを設計し、視覚と音声信号を離散トークンに変換し、テキストと同じ埋め込み空間を共有します。これにより、次のトークン予測を用いてすべてのタスクを統一的に処理します。視覚側の重要なコンポーネントであるdNaViT(離散ネイティブ解像度ビジョントランスフォーマー)は、画像特徴を「ビジュアルワード」に抽出し、動的トークナイゼーションとデコーディングをサポートします。28倍の圧縮比にもかかわらず、画像生成の品質は高く、特に文字レンダリングにおいて優れた性能を示しています。

同等の活性化パラメータ量(A3B)のモデルと比較した場合、LongCat-Nextの主要なベンチマーク結果は以下の通りです。

  1. ビジュアル理解:MMMU-Pro 60.3(Qwen3-Omni 57.0、GPT5-minimal 62.7)、MathVista 83.1(Qwen3-Omni 75.9、GPT5-minimal 50.9)、MathVision 64.7(すべての比較モデルを上回る)、DocVQA 94.2
  2. 画像生成:GenEval 84.44、LongText-EN 93.15(FLUX.1-dev 60.70、Emu-3.5 97.60)
  3. プログラミング:SWE-Bench 43.0(Kimi-Linear-48B 32.8、Qwen3-Next-80B 37.6)
  4. エージェントツール呼び出し:Tau2-Retail 73.68(Qwen3-Next 57.3)、Tau2-Telecom 62.06(Qwen3-Next 13.2)

統一モデルの理解と生成の横断比較において、LongCat-NextのMMMUスコアは70.6で、2位のNEO-unify(68.9)をリードし、BAGEL(55.3)やOvis-U1(51.1)などの従来の統一モデルを大きく上回っています。SWE-Bench 43.0やTau2シリーズのツール呼び出しベンチマークの結果も、このマルチモーダル統一アーキテクチャが純粋なテキストやエージェント能力を犠牲にしていないことを示しています。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし