Mensagem Gate News, 22 de abril — Brockman revelou dois desenvolvimentos de produto significativos durante a sua participação no podcast Core Memory. Primeiro, o GPT-5.4 Pro foi usado por um cliente para resolver um novo problema de Erdős, que Brockman descreveu como “parecendo mesmo muito importante.”
Brockman destacou a melhoria dramática nas capacidades do modelo. Dois anos atrás, a OpenAI exigia uma equipa de 20 pessoas a trabalhar durante duas semanas com recursos computacionais substanciais para treinar um modelo que alcançasse uma medalha de bronze na Olimpíada Internacional de Matemática. Agora, observou ele, “um modelo treinado de forma muito casual” consegue obter o mesmo resultado. Ele sugeriu que as implicações podem ser profundas: “Se apontasses esta capacidade para a descoberta de fármacos, ninguém está a preço disso.”
Segundo, respondendo a uma crítica do apresentador do podcast Ashley Vance de que os modelos de linguagem grandes não têm “soul” na sua escrita, Altman reconheceu, “Não estamos onde precisamos de estar em personalização.” Brockman acrescentou que a OpenAI tem um novo modelo em desenvolvimento para colmatar esta lacuna. “Podes experimentá-lo depois de o podcast ir para o ar e dizer-nos se melhorou”, disse ele.
As declarações sublinham o foco da OpenAI em expandir as capacidades dos modelos para além do raciocínio, incluindo capacidades de escrita mais matizadas e personalizadas.
Related News
A Bharat1.ai lança o projecto $650M AI city em Bengalauru
O CEO da Ripple elogia a nova orientação da SEC, a regulamentação das criptomoedas nos EUA entra num modo de reinício
Fundador da startup de IA e energia nuclear Fermi demite-se e pede a venda da empresa: a capitalização bolsista caiu 83% em meio ano