Повідомлення Gate News, 16 квітня — Google і Boston Dynamics оголосили про інтеграцію втілених моделей міркувань Gemini Robotics у чотириногого робота Spot, що дозволяє системі інтерпретувати інструкції природною мовою, розпізнавати об’єкти та виконувати складні завдання автономно.
Співпраця, спираючись на експериментальні напрацювання з внутрішнього хакатону 2025 року, дає Spot змогу обробляти вхідні візуальні дані та перетворювати високорівневі команди на скоординовані фізичні дії. На відміну від традиційного програмування роботів, яке спирається на жорстку покрокову логіку, система використовує розмовні підказки та проміжний програмний рівень, що з’єднує моделі Gemini з API Spot. ШІ може обирати з попередньо визначених можливостей, зокрема навігації, розпізнавання об’єктів, зйомки зображень, захоплення та розміщення, а отримання зворотного зв’язку в реальному часі забезпечує адаптивну поведінку без ручного втручання.
У демонстраціях система успішно інтерпретувала загальні інструкції щодо організації предметів, аналізуючи візуальні дані та спрямовуючи робота через послідовності дій. Підхід підтримує операційну безпеку, обмежуючи можливості ШІ заздалегідь визначеними межами в API робота, поєднуючи адаптивність із контрольованою продуктивністю. У партнерстві вбачають потенційні виграшні показники ефективності для розробників завдяки зменшенню обсягу ручного кодування та можливості для інженерів зосередитися на визначенні цілей, а не на програмуванні кожної послідовності дій.
Related News