Mensagem da Gate News, 22 de abril — A Google Research lançou o ReasoningBank, um framework de memória de agente que permite que agentes baseados em modelos de linguagem aprendam continuamente após a implantação. O framework extrai estratégias universais de raciocínio tanto de experiências bem-sucedidas quanto de tarefas fracassadas, armazenando-as em um banco de memória para recuperação e execução em tarefas futuras similares. O artigo associado foi publicado no ICLR, e o código foi disponibilizado como open source no GitHub.
O ReasoningBank melhora em relação a duas abordagens existentes: Synapse, que registra trajetórias completas de ação, mas tem transferibilidade limitada devido à granularidade fina, e Agent Workflow Memory, que só aprende com casos bem-sucedidos. O ReasoningBank faz duas mudanças importantes: armazenar “padrões de raciocínio” em vez de “sequências de ação”, com cada memória contendo campos estruturados para título, descrição e conteúdo; e incorporar trajetórias de falha ao aprendizado. O framework usa um modelo para se autoavaliar trajetórias de execução, transformando experiências de falha em regras anti-armadilhas. Por exemplo, a regra “clicar no botão Carregar Mais quando for visto” evolui para “verificar primeiro o identificador da página atual, evitar loops infinitos de rolagem e depois clicar em carregar mais.”
O artigo também introduz Memory-aware Test-time Scaling (MaTTS), que aloca computação adicional durante a inferência para explorar múltiplas trajetórias e armazenar os achados no banco de memória. A expansão em paralelo executa múltiplas trajetórias distintas para a mesma tarefa, refinando estratégias mais robustas por meio de auto comparação; a expansão sequencial refina iterativamente uma única trajetória, armazenando o raciocínio intermediário na memória.
Em tarefas de navegador do WebArena e tarefas de codificação SWE-Bench-Verified usando Gemini 2.5 Flash como agente ReAct, o ReasoningBank alcançou 8,3% a mais na taxa de sucesso no WebArena e 4,6% a mais no SWE-Bench-Verified em comparação com uma linha de base sem memória, reduzindo em aproximadamente 3 o número médio de etapas por tarefa. Adicionar MaTTS com expansão em paralelo (k=5) melhorou ainda mais a taxa de sucesso no WebArena em 3 pontos percentuais e reduziu as etapas em mais 0,4.
Related News
0G integra o Alibaba Cloud Qianwen LLM e o primeiro agente de IA on-chain obtém acesso a um modelo de grande porte para uso comercial
Imagens do ChatGPT 2.0 lançadas! Acurácia na geração de texto melhora significativamente, produzindo facilmente pôsteres de marketing
Google lança o Deep Research Max: suporta MCP e pode acessar dados privados de empresas