E Andrej Karpathy, um dos investigadores de IA mais influentes do mundo, ofereceu a sua perspetiva pessoal sobre as mudanças transformadoras que estão a moldar a inteligência artificial em 2025. As suas observações iluminam não apenas o que aconteceu no ano passado, mas para onde toda a indústria está a caminhar. Entre avanços no reinforcement learning, novos paradigmas de aplicação e mudanças fundamentais na forma como os humanos interagem com a IA, o panorama evoluiu mais rapidamente do que a maioria previu.
RLVR: A Nova Fundação que Substitui o Aprendizado Supervisionado
O manual de treino de IA entrou numa nova fase quando o reinforcement learning baseado em recompensas verificáveis (RLVR) passou de experimental para mainstream. Segundo a análise de Andrej Karpathy, esta mudança alterou fundamentalmente a aparência dos modelos de linguagem de grau de produção.
Durante anos, o pipeline padrão era assim: pré-treinamento → ajuste fino supervisionado → reinforcement learning a partir de feedback humano (RLHF). Era estável, comprovado e tornou-se a espinha dorsal de grandes laboratórios de IA. Mas algo mudou em 2025.
O RLVR muda o jogo ao treinar modelos em ambientes com sinais de recompensa automaticamente verificáveis—pense em problemas matemáticos com respostas definitivas ou desafios de codificação onde o código funciona ou não. Em vez de depender do julgamento humano, estes mecanismos objetivos de feedback permitem que os modelos desenvolvam algo que se assemelha a raciocínio genuíno. Eles aprendem a decompor problemas em etapas intermédias e a descobrir múltiplos caminhos de solução através de refinamento iterativo.
O DeepSeek-R1 demonstrou este princípio primeiro, mas o o1 (final de 2024) e o o3 (início de 2025) provaram que era escalável. Como observou Andrej Karpathy, o que mais o surpreendeu não foi apenas o salto de desempenho—foi a mudança massiva de recursos computacionais. O RLVR consome muito mais computação do que o ajuste fino tradicional, redirecionando essencialmente recursos originalmente destinados ao pré-treinamento. Isto significou que os ganhos de capacidade em 2025 não vieram de treinar modelos maiores, mas de treinar modelos mais inteligentes, com fases de otimização significativamente prolongadas.
Uma inovação adicional: esta nova abordagem abriu uma dimensão de escalabilidade completamente nova—a capacidade de modular a capacidade do modelo em tempo de teste, estendendo trajetórias de inferência e permitindo mais “tempo de reflexão”. Isto desacopla a escalabilidade de capacidade do tamanho do modelo de formas anteriormente impossíveis.
Inteligência Fantasma vs. Desempenho em Linha de Serra
Andrej Karpathy introduziu um conceito que reformulou a forma como a indústria pensa sobre a cognição de IA: não estamos a evoluir animais, estamos a invocar fantasmas.
Todo o aparato de treino difere fundamentalmente—arquitetura neural, dados, algoritmos e, crucialmente, objetivos de otimização. Portanto, não é surpreendente que os grandes modelos de linguagem exibam uma inteligência radicalmente diferente do cérebro biológico. Compará-los a animais ou inteligência biológica perde completamente o sentido.
As redes neurais humanas foram moldadas pela sobrevivência em ecossistemas tribais. Os modelos de IA foram moldados para imitar texto, resolver enigmas matemáticos e conquistar a aprovação humana em benchmarks competitivos. Quando se otimiza para objetivos tão diferentes, obtém-se saídas tão diferentes.
Isto leva a uma característica de desempenho peculiar: curvas de capacidade irregulares, em forma de serra. Os modelos podem exibir conhecimento enciclopédico num momento e raciocínio elementar confuso no seguinte. Eles destacam-se em domínios verificáveis e tropeçam em contextos abertos. Este panorama de capacidade desigual não é um bug—é uma consequência direta do próprio regime de treino.
Aqui é onde o ceticismo de Andrej Karpathy se torna importante: ele desenvolveu o que chama de “indiferença geral” em relação aos benchmarks em 2025. A razão é simples—os benchmarks são ambientes verificáveis, tornando-se alvos principais para o overfitting de RLVR. As equipas inevitavelmente constroem espaços de treino próximos das embeddings dos benchmarks e saturam-nos com capacidades estreitas. “Treinar no conjunto de teste” tornou-se a norma da indústria. Vencer todos os benchmarks já não sinaliza um progresso genuíno em AGI.
Cursor: A Camada de Aplicação Surge
O crescimento explosivo do Cursor em 2025 revelou algo crucial: há uma nova camada na pilha de aplicações de IA.
Segundo Andrej Karpathy, o Cursor funciona porque resolve um problema vertical específico—geração de código em fluxos de trabalho de desenvolvimento reais—not porque é um chatbot de uso geral melhor. A arquitetura que alimenta ferramentas como o Cursor envolve três componentes integrados: engenharia de contexto (extração de informações relevantes), orquestração de múltiplas chamadas a LLMs em grafos acíclicos dirigidos cada vez mais complexos (equilibrando desempenho e custo), e interfaces de utilizador específicas de aplicação com controlo humano no ciclo.
Isto desencadeou uma conversa mais ampla: as plataformas de grandes modelos de linguagem (como a API da OpenAI) dominarão toda a camada de aplicação, ou ferramentas especializadas prosperarão? A previsão de Andrej Karpathy: as plataformas tornar-se-ão gradualmente “universidades generalistas”, produzindo outputs capazes mas não especializados. O verdadeiro valor fluirá para empresas da camada de aplicação que tomem esses modelos capazes, os ajustem com dados proprietários, integrem sensores e atuadores, e os transformem em “equipes profissionais” especializadas, implantáveis em domínios verticais específicos.
A implicação: o Cursor não é o objetivo final—é o modelo. Espere dezenas de ferramentas específicas de cada setor a seguir este mesmo manual.
Claude Code: Agentes que Vivem Localmente
A emergência do Claude Code demonstrou algo que chamou a atenção de Andrej Karpathy: agentes de IA eficazes não precisam necessariamente viver na nuvem.
Os ciclos tecnológicos passam pelo uso de ferramentas e raciocínio num ciclo, permitindo uma resolução de problemas mais persistente e complexa do que interfaces de chat simples. Mas o que realmente impressionou Andrej Karpathy foi a escolha arquitetural: o Claude Code funciona diretamente no computador do utilizador, profundamente integrado em ficheiros locais, ambientes pessoais e fluxos de trabalho individuais.
Isto representa uma divergência deliberada da direção estratégica da OpenAI. A OpenAI investiu fortemente em agentes baseados na nuvem orquestrados dentro de ambientes ChatGPT conteinerizados. Embora essa abordagem prometa a “forma definitiva de AGI”, estamos atualmente numa fase de desenvolvimento desigual com benefícios não comprovados.
Desdobrar agentes localmente—perto dos desenvolvedores, fortemente integrados no seu contexto de trabalho específico—provou ser mais rápido e prático por agora. O Claude Code acertou nesta prioridade, empacotando-a numa ferramenta de linha de comandos elegante que redefine fundamentalmente a interface de IA. Já não é apenas um website como o Google. É um pequeno sprite que vive no seu computador, colaborando diretamente com o seu fluxo de trabalho. Este é um paradigma completamente diferente de interação humano-IA.
Vibe Coding: Programar Sem Código
Até 2025, a IA cruzou um limiar crítico: podia-se descrever em inglês o que se queria e uma software funcional materializava-se, sem necessidade de compreender a implementação subjacente.
Andrej Karpathy cunhou o termo “Vibe Coding” casualmente numa reflexão no Twitter, sem esperar que se tornasse uma tendência na indústria. Mas captura perfeitamente o que aconteceu—programar tornou-se acessível a todos, não apenas a profissionais treinados.
Isto conecta-se a um padrão mais amplo que Andrej Karpathy identificou: pessoas comuns beneficiam mais de grandes modelos de linguagem do que os especialistas. Os profissionais já tinham ferramentas e conhecimento profundo. As pessoas comuns não conseguiam construir nada. Agora, podem.
Mas o Vibe Coding também beneficia os profissionais—de forma diferente. Permite aos desenvolvedores implementar funcionalidades que “nunca teriam sido escritas de outra forma”, porque de repente o código torna-se gratuito, efémero e descartável. Enquanto construía o nanochat, Andrej Karpathy usou Vibe Coding para escrever tokenizadores BPE personalizados e eficientes em Rust, sem estudar a linguagem ou depender de bibliotecas existentes. Prototipou sistemas inteiros apenas para testar a viabilidade. Escreveu aplicações pontuais só para depurar vulnerabilidades específicas.
Esta mudança económica—onde o custo de mudança de código é zero—vai remodelar o ecossistema de desenvolvimento de software e redesenhar permanentemente as fronteiras de carreira na programação.
Nano Banana: Os LLMs Finalmente Têm Interfaces de Utilizador
O avanço do Google Gemini Nano—o que Andrej Karpathy chama de “Nano Banana”—representa uma das mudanças de paradigma mais disruptivas de 2025.
Andrej Karpathy explica de forma simples: grandes modelos de linguagem representam o próximo grande paradigma de computação após a era do PC dos anos 1970-80. Portanto, devemos esperar inovações semelhantes por razões semelhantes—paralelamente à evolução do computing pessoal, microcontroladores e a própria internet.
A interação humano-computador atual ainda assemelha-se aos terminais de linha de comando dos anos 1980. O texto domina, apesar de ser primitivo para os computadores e errado para os humanos. Os humanos acham a leitura de texto lenta e dolorosa. Preferem canais visuais e espaciais—que é precisamente o motivo pelo qual as interfaces gráficas de utilizador transformaram o computing pessoal há décadas.
O mesmo princípio aplica-se à IA: os modelos devem comunicar-se através de imagens, infográficos, slides, quadros brancos, vídeos, aplicações web—essencialmente, qualquer formato que os humanos realmente prefiram. Os primeiros passos surgiram através de “decoração visual de texto” como emojis e formatação Markdown. Mas quem construirá, afinal, a camada completa de interface gráfica para a IA?
O Nano Banana é um protótipo inicial desse futuro. O seu avanço vai além da geração de imagens. O que o torna significativo é a capacidade integrada—geração de texto, geração de imagens e conhecimento do mundo incorporado através dos pesos do modelo. Esta fusão cria um paradigma de interface fundamentalmente diferente do que os modelos apenas de texto.
A Convergência: A Visão de Andrej Karpathy para o que Vem a Seguir
Estas seis mudanças não existem isoladamente. As observações de Andrej Karpathy revelam uma indústria em transição: de um foco exclusivo em escalabilidade de modelos, para métodos de treino mais inteligentes e aplicações especializadas. De uma direção de generalistas baseados na nuvem, para agentes implantados localmente e integrados nos fluxos de trabalho humanos. De interfaces centradas em texto, para comunicação visual e espacial.
2025 provou que a inteligência artificial não melhorou apenas incrementalmente. Ela reorganizou fundamentalmente a forma como treina, implanta e comunica. A próxima fase pertencerá a quem dominar primeiro estes novos paradigmas.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Seis avanços em IA que moldaram 2025: O que Andrej Karpathy acertou
E Andrej Karpathy, um dos investigadores de IA mais influentes do mundo, ofereceu a sua perspetiva pessoal sobre as mudanças transformadoras que estão a moldar a inteligência artificial em 2025. As suas observações iluminam não apenas o que aconteceu no ano passado, mas para onde toda a indústria está a caminhar. Entre avanços no reinforcement learning, novos paradigmas de aplicação e mudanças fundamentais na forma como os humanos interagem com a IA, o panorama evoluiu mais rapidamente do que a maioria previu.
RLVR: A Nova Fundação que Substitui o Aprendizado Supervisionado
O manual de treino de IA entrou numa nova fase quando o reinforcement learning baseado em recompensas verificáveis (RLVR) passou de experimental para mainstream. Segundo a análise de Andrej Karpathy, esta mudança alterou fundamentalmente a aparência dos modelos de linguagem de grau de produção.
Durante anos, o pipeline padrão era assim: pré-treinamento → ajuste fino supervisionado → reinforcement learning a partir de feedback humano (RLHF). Era estável, comprovado e tornou-se a espinha dorsal de grandes laboratórios de IA. Mas algo mudou em 2025.
O RLVR muda o jogo ao treinar modelos em ambientes com sinais de recompensa automaticamente verificáveis—pense em problemas matemáticos com respostas definitivas ou desafios de codificação onde o código funciona ou não. Em vez de depender do julgamento humano, estes mecanismos objetivos de feedback permitem que os modelos desenvolvam algo que se assemelha a raciocínio genuíno. Eles aprendem a decompor problemas em etapas intermédias e a descobrir múltiplos caminhos de solução através de refinamento iterativo.
O DeepSeek-R1 demonstrou este princípio primeiro, mas o o1 (final de 2024) e o o3 (início de 2025) provaram que era escalável. Como observou Andrej Karpathy, o que mais o surpreendeu não foi apenas o salto de desempenho—foi a mudança massiva de recursos computacionais. O RLVR consome muito mais computação do que o ajuste fino tradicional, redirecionando essencialmente recursos originalmente destinados ao pré-treinamento. Isto significou que os ganhos de capacidade em 2025 não vieram de treinar modelos maiores, mas de treinar modelos mais inteligentes, com fases de otimização significativamente prolongadas.
Uma inovação adicional: esta nova abordagem abriu uma dimensão de escalabilidade completamente nova—a capacidade de modular a capacidade do modelo em tempo de teste, estendendo trajetórias de inferência e permitindo mais “tempo de reflexão”. Isto desacopla a escalabilidade de capacidade do tamanho do modelo de formas anteriormente impossíveis.
Inteligência Fantasma vs. Desempenho em Linha de Serra
Andrej Karpathy introduziu um conceito que reformulou a forma como a indústria pensa sobre a cognição de IA: não estamos a evoluir animais, estamos a invocar fantasmas.
Todo o aparato de treino difere fundamentalmente—arquitetura neural, dados, algoritmos e, crucialmente, objetivos de otimização. Portanto, não é surpreendente que os grandes modelos de linguagem exibam uma inteligência radicalmente diferente do cérebro biológico. Compará-los a animais ou inteligência biológica perde completamente o sentido.
As redes neurais humanas foram moldadas pela sobrevivência em ecossistemas tribais. Os modelos de IA foram moldados para imitar texto, resolver enigmas matemáticos e conquistar a aprovação humana em benchmarks competitivos. Quando se otimiza para objetivos tão diferentes, obtém-se saídas tão diferentes.
Isto leva a uma característica de desempenho peculiar: curvas de capacidade irregulares, em forma de serra. Os modelos podem exibir conhecimento enciclopédico num momento e raciocínio elementar confuso no seguinte. Eles destacam-se em domínios verificáveis e tropeçam em contextos abertos. Este panorama de capacidade desigual não é um bug—é uma consequência direta do próprio regime de treino.
Aqui é onde o ceticismo de Andrej Karpathy se torna importante: ele desenvolveu o que chama de “indiferença geral” em relação aos benchmarks em 2025. A razão é simples—os benchmarks são ambientes verificáveis, tornando-se alvos principais para o overfitting de RLVR. As equipas inevitavelmente constroem espaços de treino próximos das embeddings dos benchmarks e saturam-nos com capacidades estreitas. “Treinar no conjunto de teste” tornou-se a norma da indústria. Vencer todos os benchmarks já não sinaliza um progresso genuíno em AGI.
Cursor: A Camada de Aplicação Surge
O crescimento explosivo do Cursor em 2025 revelou algo crucial: há uma nova camada na pilha de aplicações de IA.
Segundo Andrej Karpathy, o Cursor funciona porque resolve um problema vertical específico—geração de código em fluxos de trabalho de desenvolvimento reais—not porque é um chatbot de uso geral melhor. A arquitetura que alimenta ferramentas como o Cursor envolve três componentes integrados: engenharia de contexto (extração de informações relevantes), orquestração de múltiplas chamadas a LLMs em grafos acíclicos dirigidos cada vez mais complexos (equilibrando desempenho e custo), e interfaces de utilizador específicas de aplicação com controlo humano no ciclo.
Isto desencadeou uma conversa mais ampla: as plataformas de grandes modelos de linguagem (como a API da OpenAI) dominarão toda a camada de aplicação, ou ferramentas especializadas prosperarão? A previsão de Andrej Karpathy: as plataformas tornar-se-ão gradualmente “universidades generalistas”, produzindo outputs capazes mas não especializados. O verdadeiro valor fluirá para empresas da camada de aplicação que tomem esses modelos capazes, os ajustem com dados proprietários, integrem sensores e atuadores, e os transformem em “equipes profissionais” especializadas, implantáveis em domínios verticais específicos.
A implicação: o Cursor não é o objetivo final—é o modelo. Espere dezenas de ferramentas específicas de cada setor a seguir este mesmo manual.
Claude Code: Agentes que Vivem Localmente
A emergência do Claude Code demonstrou algo que chamou a atenção de Andrej Karpathy: agentes de IA eficazes não precisam necessariamente viver na nuvem.
Os ciclos tecnológicos passam pelo uso de ferramentas e raciocínio num ciclo, permitindo uma resolução de problemas mais persistente e complexa do que interfaces de chat simples. Mas o que realmente impressionou Andrej Karpathy foi a escolha arquitetural: o Claude Code funciona diretamente no computador do utilizador, profundamente integrado em ficheiros locais, ambientes pessoais e fluxos de trabalho individuais.
Isto representa uma divergência deliberada da direção estratégica da OpenAI. A OpenAI investiu fortemente em agentes baseados na nuvem orquestrados dentro de ambientes ChatGPT conteinerizados. Embora essa abordagem prometa a “forma definitiva de AGI”, estamos atualmente numa fase de desenvolvimento desigual com benefícios não comprovados.
Desdobrar agentes localmente—perto dos desenvolvedores, fortemente integrados no seu contexto de trabalho específico—provou ser mais rápido e prático por agora. O Claude Code acertou nesta prioridade, empacotando-a numa ferramenta de linha de comandos elegante que redefine fundamentalmente a interface de IA. Já não é apenas um website como o Google. É um pequeno sprite que vive no seu computador, colaborando diretamente com o seu fluxo de trabalho. Este é um paradigma completamente diferente de interação humano-IA.
Vibe Coding: Programar Sem Código
Até 2025, a IA cruzou um limiar crítico: podia-se descrever em inglês o que se queria e uma software funcional materializava-se, sem necessidade de compreender a implementação subjacente.
Andrej Karpathy cunhou o termo “Vibe Coding” casualmente numa reflexão no Twitter, sem esperar que se tornasse uma tendência na indústria. Mas captura perfeitamente o que aconteceu—programar tornou-se acessível a todos, não apenas a profissionais treinados.
Isto conecta-se a um padrão mais amplo que Andrej Karpathy identificou: pessoas comuns beneficiam mais de grandes modelos de linguagem do que os especialistas. Os profissionais já tinham ferramentas e conhecimento profundo. As pessoas comuns não conseguiam construir nada. Agora, podem.
Mas o Vibe Coding também beneficia os profissionais—de forma diferente. Permite aos desenvolvedores implementar funcionalidades que “nunca teriam sido escritas de outra forma”, porque de repente o código torna-se gratuito, efémero e descartável. Enquanto construía o nanochat, Andrej Karpathy usou Vibe Coding para escrever tokenizadores BPE personalizados e eficientes em Rust, sem estudar a linguagem ou depender de bibliotecas existentes. Prototipou sistemas inteiros apenas para testar a viabilidade. Escreveu aplicações pontuais só para depurar vulnerabilidades específicas.
Esta mudança económica—onde o custo de mudança de código é zero—vai remodelar o ecossistema de desenvolvimento de software e redesenhar permanentemente as fronteiras de carreira na programação.
Nano Banana: Os LLMs Finalmente Têm Interfaces de Utilizador
O avanço do Google Gemini Nano—o que Andrej Karpathy chama de “Nano Banana”—representa uma das mudanças de paradigma mais disruptivas de 2025.
Andrej Karpathy explica de forma simples: grandes modelos de linguagem representam o próximo grande paradigma de computação após a era do PC dos anos 1970-80. Portanto, devemos esperar inovações semelhantes por razões semelhantes—paralelamente à evolução do computing pessoal, microcontroladores e a própria internet.
A interação humano-computador atual ainda assemelha-se aos terminais de linha de comando dos anos 1980. O texto domina, apesar de ser primitivo para os computadores e errado para os humanos. Os humanos acham a leitura de texto lenta e dolorosa. Preferem canais visuais e espaciais—que é precisamente o motivo pelo qual as interfaces gráficas de utilizador transformaram o computing pessoal há décadas.
O mesmo princípio aplica-se à IA: os modelos devem comunicar-se através de imagens, infográficos, slides, quadros brancos, vídeos, aplicações web—essencialmente, qualquer formato que os humanos realmente prefiram. Os primeiros passos surgiram através de “decoração visual de texto” como emojis e formatação Markdown. Mas quem construirá, afinal, a camada completa de interface gráfica para a IA?
O Nano Banana é um protótipo inicial desse futuro. O seu avanço vai além da geração de imagens. O que o torna significativo é a capacidade integrada—geração de texto, geração de imagens e conhecimento do mundo incorporado através dos pesos do modelo. Esta fusão cria um paradigma de interface fundamentalmente diferente do que os modelos apenas de texto.
A Convergência: A Visão de Andrej Karpathy para o que Vem a Seguir
Estas seis mudanças não existem isoladamente. As observações de Andrej Karpathy revelam uma indústria em transição: de um foco exclusivo em escalabilidade de modelos, para métodos de treino mais inteligentes e aplicações especializadas. De uma direção de generalistas baseados na nuvem, para agentes implantados localmente e integrados nos fluxos de trabalho humanos. De interfaces centradas em texto, para comunicação visual e espacial.
2025 provou que a inteligência artificial não melhorou apenas incrementalmente. Ela reorganizou fundamentalmente a forma como treina, implanta e comunica. A próxima fase pertencerá a quem dominar primeiro estes novos paradigmas.