Mensagem do Gate News, 29 de abril — Os investigadores da OpenAI, Sébastien Bubeck e Ernest Ryu, afirmam que os sistemas de IA poderiam executar a maior parte do trabalho de investigação humana no prazo de dois anos, apresentando a matemática como uma medida clara do progresso da IA. Ao contrário de testes de desempenho pouco concretos, os problemas matemáticos oferecem uma verificação precisa: as respostas são ou correctas ou incorrectas, sem espaço para ambiguidades.
Bubeck salientou que o verdadeiro raciocínio por IA exige resistir a longas cadeias de raciocínio. Um único erro num argumento multi-etapas colapsa toda a prova, tornando a detecção e correcção de erros no meio do processo o objectivo final para modelos avançados. Os laboratórios internos da OpenAI já geraram mais de dez teoremas completamente novos, publicáveis em revistas de combinatória de topo, demonstrando que a IA já produz trabalho genuinamente original e inovador, para além de simplesmente recombinar artigos existentes.
No entanto, avanços científicos sustentados exigem foco constante ao longo de semanas de testes. Os sistemas actuais ainda requerem supervisão humana rigorosa para orientar e verificar cada mudança de direcção. Bubeck usa “tempo de AGI” para medir durante quanto tempo um modelo consegue imitar autonomamente o pensamento humano; os sistemas actuais operam a cerca de dias a uma semana, com a meta da indústria a ser de semanas ou meses para permitir trabalho autónomo em áreas como a biologia.
A memória de longo prazo é crucial para este futuro. As janelas de chat padrão limitam a profundidade — as provas matemáticas complexas muitas vezes excedem 50 páginas — enquanto os repositórios de código demonstram como sessões de trabalho prolongadas permitem uma resolução mais profunda de problemas. À medida que a IA ganha independência e memória, a perícia humana torna-se mais valiosa, não menos. Os trabalhadores têm de reter o conhecimento profundo e de base para desafiar e verificar as respostas da máquina, e as organizações terão de criar novos filtros automatizados e sistemas de reputação para manter a confiança perante um dilúvio de investigação assistida por IA.
Related News
A Google assinou um acordo secreto de IA com o Pentágono, carta aberta dos funcionários contra
GPT-5.4 Pro resolve a conjectura de Erdős de 60 anos #1196
Citi ajusta a avaliação do mercado de IA para 4,2 biliões de dólares, com previsões de CapEx para 8,9 biliões