Investigadores da OpenAI: os sistemas de IA poderiam lidar com grande parte do trabalho de investigação em dois anos

Mensagem do Gate News, 29 de abril — Os investigadores da OpenAI, Sébastien Bubeck e Ernest Ryu, afirmam que os sistemas de IA poderiam executar a maior parte do trabalho de investigação humana no prazo de dois anos, apresentando a matemática como uma medida clara do progresso da IA. Ao contrário de testes de desempenho pouco concretos, os problemas matemáticos oferecem uma verificação precisa: as respostas são ou correctas ou incorrectas, sem espaço para ambiguidades.

Bubeck salientou que o verdadeiro raciocínio por IA exige resistir a longas cadeias de raciocínio. Um único erro num argumento multi-etapas colapsa toda a prova, tornando a detecção e correcção de erros no meio do processo o objectivo final para modelos avançados. Os laboratórios internos da OpenAI já geraram mais de dez teoremas completamente novos, publicáveis em revistas de combinatória de topo, demonstrando que a IA já produz trabalho genuinamente original e inovador, para além de simplesmente recombinar artigos existentes.

No entanto, avanços científicos sustentados exigem foco constante ao longo de semanas de testes. Os sistemas actuais ainda requerem supervisão humana rigorosa para orientar e verificar cada mudança de direcção. Bubeck usa “tempo de AGI” para medir durante quanto tempo um modelo consegue imitar autonomamente o pensamento humano; os sistemas actuais operam a cerca de dias a uma semana, com a meta da indústria a ser de semanas ou meses para permitir trabalho autónomo em áreas como a biologia.

A memória de longo prazo é crucial para este futuro. As janelas de chat padrão limitam a profundidade — as provas matemáticas complexas muitas vezes excedem 50 páginas — enquanto os repositórios de código demonstram como sessões de trabalho prolongadas permitem uma resolução mais profunda de problemas. À medida que a IA ganha independência e memória, a perícia humana torna-se mais valiosa, não menos. Os trabalhadores têm de reter o conhecimento profundo e de base para desafiar e verificar as respostas da máquina, e as organizações terão de criar novos filtros automatizados e sistemas de reputação para manter a confiança perante um dilúvio de investigação assistida por IA.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário