Google と Boston Dynamics が Spot ロボット向けに Gemini AI モデルを統合—自然言語での制御とタスク実行の実現

Gate News メッセージ、4 月 16 日 — Google と Boston Dynamics は、Gemini Robotics の具現化された推論モデルを Spot の四足歩行ロボットに統合したことを発表しました。これにより、システムは自然言語の指示を解釈し、物体を認識し、複雑なタスクを自律的に実行できるようになります。

このコラボレーションは、2025 年の社内ハッカソンにおける実験的な取り組みを土台としており、Spot が視覚入力を処理し、高度なコマンドを連携した物理的な行動へと変換できるようにします。従来のロボティクス・プログラミングが、硬直した手順ごとの論理に依存するのに対し、このシステムは、会話形式のプロンプトと、Gemini モデルと Spot の API を結びつける仲介となるソフトウェア層を使います。AI は、ナビゲーション、物体検出、画像の取得、把持、配置などの事前定義された機能から選択でき、リアルタイムのフィードバックによって、人手を介さずに適応的な振る舞いを実現します。

デモでは、システムがアイテムを整理するための一般的な指示を正常に解釈し、視覚データを分析して、ロボットを一連の行動シーケンスへ導きました。このアプローチは、ロボットの API 内で AI の能力を事前定義された境界に制限することで、運用上の安全性を維持しつつ、適応力と制御されたパフォーマンスのバランスを取ります。提携は、手作業でのコーディングを減らし、エンジニアがすべての行動シーケンスをプログラムするのではなく目的の定義に集中できるようにすることで、開発者に対する効率向上の可能性を示唆しています。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし