Mensagem do Gate News, 16 de abril — A Google e a Boston Dynamics anunciaram uma integração de modelos de raciocínio incorporado da Gemini Robotics ao robô quadrúpede Spot, permitindo que o sistema interprete instruções em linguagem natural, reconheça objetos e execute tarefas complexas de forma autônoma.
A colaboração, construída a partir de trabalhos experimentais de um hackathon interno de 2025, permite que o Spot processe entradas visuais e converta comandos de alto nível em ações físicas coordenadas. Diferentemente da programação tradicional de robótica, que depende de lógica rígida passo a passo, o sistema utiliza prompts conversacionais e uma camada intermediária de software conectando os modelos Gemini à API do Spot. A IA pode selecionar entre recursos predefinidos, incluindo navegação, detecção de objetos, captura de imagens, agarrar e posicionar, com feedback em tempo real possibilitando um comportamento adaptativo sem intervenção manual.
Em demonstrações, o sistema interpretou com sucesso instruções gerais para organizar itens, analisando dados visuais e direcionando o robô por meio de sequências de ações. A abordagem mantém a segurança operacional restringindo as capacidades da IA a limites predefinidos dentro da API do robô, equilibrando adaptabilidade com desempenho controlado. A parceria sugere possíveis ganhos de eficiência para desenvolvedores ao reduzir a codificação manual e permitir que os engenheiros se concentrem em definir objetivos em vez de programar toda sequência de ações.
Related News