Gate News メッセージ、4 月 16 日 — Google と Boston Dynamics は、Gemini Robotics の具現化された推論モデルを Spot の四足歩行ロボットに統合したことを発表しました。これにより、システムは自然言語の指示を解釈し、物体を認識し、複雑なタスクを自律的に実行できるようになります。
このコラボレーションは、2025 年の社内ハッカソンにおける実験的な取り組みを土台としており、Spot が視覚入力を処理し、高度なコマンドを連携した物理的な行動へと変換できるようにします。従来のロボティクス・プログラミングが、硬直した手順ごとの論理に依存するのに対し、このシステムは、会話形式のプロンプトと、Gemini モデルと Spot の API を結びつける仲介となるソフトウェア層を使います。AI は、ナビゲーション、物体検出、画像の取得、把持、配置などの事前定義された機能から選択でき、リアルタイムのフィードバックによって、人手を介さずに適応的な振る舞いを実現します。
デモでは、システムがアイテムを整理するための一般的な指示を正常に解釈し、視覚データを分析して、ロボットを一連の行動シーケンスへ導きました。このアプローチは、ロボットの API 内で AI の能力を事前定義された境界に制限することで、運用上の安全性を維持しつつ、適応力と制御されたパフォーマンスのバランスを取ります。提携は、手作業でのコーディングを減らし、エンジニアがすべての行動シーケンスをプログラムするのではなく目的の定義に集中できるようにすることで、開発者に対する効率向上の可能性を示唆しています。
Related News