Seis avances en IA que transformaron 2025: Lo que Andrej Karpathy acertó

Y Andrej Karpathy, uno de los investigadores de IA más influyentes del mundo, ofreció su opinión personal sobre los cambios transformadores que están remodelando la inteligencia artificial en 2025. Sus observaciones iluminan no solo lo que ocurrió el año pasado, sino hacia dónde se dirige toda la industria. Entre avances en aprendizaje por refuerzo, nuevos paradigmas de aplicación y cambios fundamentales en la interacción humana con la IA, el panorama se movió más rápido de lo que la mayoría predijo.

RLVR: La Nueva Base que Reemplaza el Aprendizaje Supervisado

El manual de entrenamiento de IA entró en un nuevo capítulo cuando el aprendizaje por refuerzo basado en recompensas verificables (RLVR) pasó de experimental a mainstream. Según el análisis de Andrej Karpathy, este cambio alteró fundamentalmente cómo lucen los modelos de lenguaje de grado producción.

Durante años, el proceso estándar se veía así: preentrenamiento → ajuste fino supervisado → aprendizaje por refuerzo a partir de retroalimentación humana (RLHF). Era estable, probado y se convirtió en la columna vertebral de los principales laboratorios de IA. Pero algo cambió en 2025.

RLVR cambia las reglas del juego entrenando modelos en entornos con señales de recompensa verificables automáticamente—piensa en problemas matemáticos con respuestas definitivas o desafíos de codificación donde el código funciona o no. En lugar de depender del juicio humano, estos mecanismos de retroalimentación objetivos permiten que los modelos desarrollen algo que se asemeja a un razonamiento genuino. Aprenden a descomponer problemas en pasos intermedios y a descubrir múltiples vías de solución mediante refinamiento iterativo.

DeepSeek-R1 demostró primero este principio, pero o1 (finales de 2024) y o3 (principios de 2025) de OpenAI demostraron que era escalable. Como señaló Andrej Karpathy, lo que más le sorprendió no fue solo el salto en rendimiento, sino el cambio masivo en el uso de recursos computacionales. RLVR consume mucho más cómputo que el ajuste fino tradicional, redirigiendo esencialmente recursos originalmente destinados al preentrenamiento. Esto significó que las ganancias en capacidades en 2025 no provinieron de entrenar modelos más grandes, sino de entrenar modelos más inteligentes, con fases de optimización significativamente extendidas.

Un avance adicional: este nuevo enfoque abrió una dimensión de escalado completamente nueva—la capacidad de modular la capacidad del modelo en el momento de la prueba extendiendo las trayectorias de inferencia y permitiendo más “tiempo de pensamiento”. Esto desacopla la escalabilidad de capacidades del tamaño del modelo de maneras antes imposibles.

Inteligencia Fantasma vs. Rendimiento en Forma de Sierra

Andrej Karpathy introdujo un concepto que replanteó cómo la industria piensa sobre la cognición de la IA: no estamos evolucionando animales, estamos invocando fantasmas.

Todo el aparato de entrenamiento difiere fundamentalmente—arquitectura neuronal, datos, algoritmos y, crucialmente, objetivos de optimización. Por eso no es sorprendente que los grandes modelos de lenguaje exhiban una inteligencia radicalmente diferente a los cerebros biológicos. Compararlos con animales o inteligencia biológica pierde completamente el sentido.

Las redes neuronales humanas fueron moldeadas por la supervivencia en ecosistemas tribales. Los modelos de IA fueron diseñados para imitar texto, resolver rompecabezas matemáticos y ganar la aprobación humana en benchmarks competitivos. Cuando optimizas por objetivos tan diferentes, obtienes resultados tan diferentes.

Esto conduce a una característica peculiar de rendimiento: curvas de capacidad irregulares, en forma de sierra. Los modelos pueden mostrar conocimientos enciclopédicos en un momento y razonamiento elemental confuso al siguiente. Sobresalen en dominios verificables y tropiezan en contextos abiertos. Este paisaje de capacidades desigual no es un error—es una consecuencia directa del régimen de entrenamiento mismo.

Aquí es donde la escepticismo de Andrej Karpathy se vuelve importante: desarrolló lo que llama “indiferencia general” hacia los benchmarks en 2025. La razón es sencilla—los benchmarks son entornos verificables, lo que los convierte en objetivos principales para el sobreajuste en RLVR. Los equipos inevitablemente construyen espacios de entrenamiento cercanos a las incrustaciones de los benchmarks y los saturan con capacidades estrechas. “Entrenar en el conjunto de prueba” se convirtió en la norma de la industria. Barrer todos los benchmarks ya no indica un progreso genuino hacia la AGI.

Cursor: La Capa de Aplicación Surge

El crecimiento explosivo de Cursor en 2025 reveló algo crucial: hay un nivel completamente nuevo en la pila de aplicaciones de IA.

Según Andrej Karpathy, Cursor funciona porque resuelve un problema vertical específico—generación de código en flujos de trabajo de desarrollo reales—no porque sea un chatbot de propósito general mejor. La arquitectura que impulsa herramientas como Cursor involucra tres componentes integrados: ingeniería de contexto (extracción de información relevante), orquestación de múltiples llamadas a LLM en grafos acíclicos dirigidos cada vez más complejos (equilibrando rendimiento y costo), y interfaces de usuario específicas de la aplicación con control humano en el ciclo.

Esto generó una conversación más amplia: ¿dominarán las plataformas de modelos de lenguaje grande (como la API de OpenAI) toda la capa de aplicaciones, o prosperarán herramientas especializadas? La predicción de Andrej Karpathy: las plataformas se convertirán gradualmente en “universidades generalistas”, produciendo salidas capaces pero no especializadas. El valor real fluirá hacia las empresas de capa de aplicación que tomen esos modelos capaces, los ajusten con datos propietarios, integren sensores y actuadores, y los transformen en “equipos profesionales” especializados desplegables en dominios verticales específicos.

La implicación: Cursor no es el fin del juego—es la plantilla. Espera docenas de herramientas verticales específicas siguiendo este mismo manual.

Claude Code: Agentes que Viven Localmente

La aparición de Claude Code demostró algo que llamó la atención de Andrej Karpathy: los agentes de IA efectivos no necesariamente necesitan vivir en la nube.

La tecnología pasa por un ciclo de uso de herramientas y razonamiento en un bucle, permitiendo una resolución de problemas más persistente y compleja que las simples interfaces de chat. Pero lo que realmente impresionó a Andrej Karpathy fue la elección arquitectónica: Claude Code se ejecuta directamente en la computadora del usuario, profundamente integrado en archivos locales, entornos personales y flujos de trabajo individuales.

Esto representa una divergencia deliberada de la dirección estratégica de OpenAI. OpenAI invirtió mucho en agentes en la nube orquestados dentro de entornos ChatGPT en contenedores. Aunque ese enfoque promete la “forma definitiva de la AGI”, actualmente estamos en una fase de desarrollo desigual con beneficios no probados.

Desplegar agentes localmente—cerca de los desarrolladores, estrechamente integrados con su contexto de trabajo específico—resultó ser más rápido y práctico por ahora. Claude Code logró esto, empaquetándolo en una herramienta de línea de comandos elegante que redefine fundamentalmente la interfaz de la IA. Ya no es solo un sitio web como Google. Es un pequeño sprite que vive en tu computadora, colaborando directamente con tu flujo de trabajo. Ese es un paradigma completamente diferente para la interacción humano-IA.

Vibe Coding: Programar Sin Código

Para 2025, la IA cruzó un umbral crítico: podías describir en inglés lo que querías y hacer que el software funcional se materializara, sin necesidad de entender la implementación subyacente.

Andrej Karpathy acuñó el término “Vibe Coding” de manera casual en un pensamiento en Twitter, sin esperar que se convirtiera en una tendencia de la industria. Sin embargo, captura perfectamente lo que ocurrió—la programación se volvió accesible para todos, no solo para profesionales entrenados.

Esto se conecta con un patrón más amplio que Andrej Karpathy identificó: las personas comunes se benefician más de los modelos de lenguaje grande que los expertos. Los profesionales ya tenían herramientas y conocimientos profundos. Las personas comunes no podían construir nada. Ahora, sí.

Pero Vibe Coding también beneficia a los profesionales—de manera diferente. Permite a los desarrolladores implementar funciones que “nunca habrían sido escritas de otra forma”, porque de repente el código se vuelve gratuito, efímero y desechable. Mientras construía nanochat, Andrej Karpathy usó Vibe Coding para escribir tokenizadores BPE personalizados y eficientes en Rust sin estudiar el lenguaje ni depender de bibliotecas existentes. Prototipó sistemas enteros solo para probar la viabilidad. Escribió aplicaciones puntuales solo para depurar vulnerabilidades específicas.

Este cambio económico—donde el código no tiene costo de cambio—redefinirá el ecosistema de desarrollo de software y redibujará permanentemente las fronteras profesionales en los campos de programación.

Nano Banana: Los LLMs Finalmente Tienen Interfaces de Usuario

El avance de Google Gemini Nano—lo que Andrej Karpathy llama “Nano Banana”—representa uno de los cambios de paradigma más disruptivos de 2025.

Andrej Karpathy lo explica claramente: los modelos de lenguaje grande representan el próximo gran paradigma informático tras la era del PC de los 70-80. Por eso, deberíamos esperar innovaciones similares por razones similares—paralelamente a la evolución de la computación personal, los microcontroladores y la propia internet.

La interacción humano-computadora actual todavía se asemeja a los terminales de línea de comandos de los 80. Predomina el texto, aunque es primitivo para las computadoras y el formato equivocado para los humanos. Los humanos encuentran que leer texto es lento y doloroso. Prefieren canales visuales y espaciales—que es precisamente por qué las interfaces gráficas de usuario transformaron la computación personal hace décadas.

El mismo principio se aplica a la IA: los modelos deberían comunicarse mediante imágenes, infografías, diapositivas, pizarras, videos, aplicaciones web—esencialmente, cualquier formato que los humanos realmente prefieran. Los primeros pasos surgieron a través de “decoración visual de texto” como emojis y formato Markdown. Pero, ¿quién construirá finalmente la capa completa de interfaz gráfica para la IA?

Nano Banana es un prototipo temprano de ese futuro. Su avance va más allá de la generación de imágenes. Lo que lo hace significativo es la capacidad integrada—generación de texto, generación de imágenes y conocimiento del mundo incorporado, todo entrelazado en los pesos del modelo. Esta fusión crea un paradigma de interfaz fundamentalmente diferente al de los modelos solo de texto.

La Convergencia: La Visión de Andrej Karpathy para lo que Viene

Estos seis cambios no existen de forma aislada. Las observaciones de Andrej Karpathy revelan una industria en transición: de la simple escalabilidad de modelos, hacia métodos de entrenamiento más inteligentes y aplicaciones especializadas. De los generalistas en la nube, hacia agentes desplegados localmente integrados con los flujos de trabajo humanos. De interfaces centradas en texto, hacia comunicación visual y espacial.

2025 demostró que la inteligencia artificial no solo mejoró de manera incremental. Reorganizó fundamentalmente cómo entrena, despliega y comunica. La próxima fase pertenecerá a quien domine primero estos nuevos paradigmas.

SIX1,23%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)