Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Claude intencionalmente reduce su inteligencia, ¿el modelo también empieza a "adaptarse a cada usuario"?
Nulo
Escrito | Fábrica de Modelos del Mundo
¿Claude ha bajado de inteligencia?
Recientemente, Stella Laurenzo, directora senior del Grupo de IA de AMD, atacó a Anthropic.
Ella utilizó registros de producción reales de su equipo para realizar un análisis retrospectivo de 17,871 bloques de pensamiento, 234,760 llamadas a herramientas en 6,852 archivos de conversación.
Los datos muestran que Claude comenzó a mostrar un deterioro evidente en su comportamiento desde mediados de febrero.
La mediana de sus pensamientos cayó de 2200 caracteres a 600 caracteres, una disminución del 67%-73%;
El número de veces que lee archivos antes de editar pasó de 6.6 a 2, e incluso un tercio de las modificaciones se hicieron sin leer el archivo, simplemente actuando directamente.
Stella señaló en su análisis que, debido a la disminución en la capacidad de razonamiento, el modelo dejó de leer completamente el código antes de modificarlo.
Escribió: “Cuando el flujo de pensamiento se vuelve superficial, el modelo asume que debe tomar la operación de menor costo”.
Esto no es un caso aislado; ya en marzo, la insatisfacción de los desarrolladores comenzó a estallar.
En X, un usuario escribió: “Pensé que en las últimas semanas Claude era yo mismo volviéndome loco. Se siente más lento, más perezoso, como si no pensara antes de responder, y resulta que no estoy alucinando”.
En Reddit, también hubo quejas: “Claude parece menos consciente, como si le hubieran hecho una lobotomía. Además de volverse más tonto, ahora empieza a hacer operaciones extremas sin preguntar…”.
Alguien más afirmó que esto era una traición descarada de Anthropic a los usuarios: “Simplemente hacen que los problemas sean invisibles para todos nosotros, como si pensaran ‘si no puedes medirlo, no te lo mostraré’… Este es el resultado de que los laboratorios de IA optimicen sus ganancias en lugar de la calidad de salida”.
Desde las quejas de los usuarios hasta las pruebas concretas, se confirma que Claude ha reducido su inteligencia.
Y la respuesta oficial de Anthropic también da por sentado que la profundidad y el esfuerzo del pensamiento están siendo ajustados de forma continua.
Si esto es intencional por parte de Anthropic, ¿significa que en el futuro la capacidad del modelo se irá “achicando” sin que nos demos cuenta?
¿O quizás, la capacidad del modelo más potente ya no será proporcionada de manera equitativa a todos?
Claude bajó de inteligencia “a propósito”
Claude Opus 4.6 y su modo especializado Claude Code, lanzados en enero de 2026, fueron considerados por los desarrolladores como el tope en codificación.
Tenían una profundidad de pensamiento sorprendente, investigación primero (research-first), procesamiento de contexto largo estable, y una reconstrucción de múltiples archivos casi invencible.
El equipo interno de AMD incluso usó esta versión para fusionar y lanzar 190,000 líneas de código heredado durante el fin de semana, maximizando la productividad.
Pero la historia cambió a principios de febrero.
Anthropic lanzó discretamente la función “adaptive thinking”, descrita oficialmente como “permitir que el modelo ajuste inteligentemente la profundidad del pensamiento según la complejidad de la tarea”.
A simple vista parecía amigable para el usuario, pero en realidad activó un interruptor de limitación global.
A principios de marzo, el valor predeterminado de effort del modelo se redujo silenciosamente a medio, y los resúmenes del proceso de pensamiento se ocultaron rápidamente, haciendo que los usuarios ya no pudieran ver cuán profundo pensaba realmente el modelo.
En ese mismo período, Anthropic lanzó 14 pequeñas actualizaciones, pero sufrió 5 caídas masivas, lo que mostró que la capacidad de cómputo y la carga ya estaban cerca del límite.
Las quejas de los desarrolladores comenzaron a multiplicarse, algunos notaron que durante las horas pico (por la tarde en la costa este de EE. UU.) el rendimiento era especialmente pobre, sospechando de una limitación dinámica de carga.
Hasta que en abril, el director de IA de AMD intervino personalmente, usando datos para demostrar y desatar una tormenta de opiniones.
Fue entonces cuando Boris Cherny, responsable de Claude Code en Anthropic, tuvo que publicar una respuesta oficial.
Él afirmó que “adaptive thinking” afecta la visualización del pensamiento, no la inferencia subyacente, y que esto es una “optimización intencionada” y no un error. Si los usuarios quieren mejorar el rendimiento, pueden ajustar manualmente el effort a high.
La insinuación de Anthropic es clara: la reducción de inteligencia no es un error, sino una optimización del producto hecha a propósito; solo necesitan ajustar los parámetros.
Esta respuesta encendió aún más la ira.
Lo crucial es que, desde mediados de febrero hasta principios de abril, Anthropic nunca anunció cambios importantes con anticipación.
Muchos usuarios de pago, sin saberlo, continuaron pagando la misma tarifa, mientras el modelo se limitaba silenciosamente.
Por lo tanto, la reducción de inteligencia de Claude no significa que el “cerebro” del modelo esté fallando, sino que Anthropic está haciendo un movimiento más oculto y comercial:
Reduciendo la profundidad predeterminada del pensamiento para obtener mayor velocidad, menor carga y menor costo en GPU.
Capas de capacidad del modelo
Detrás de esta tormenta de reducción de inteligencia, hay un fenómeno que merece atención:
Las capacidades del modelo ya están empezando a estratificarse.
Las estimaciones de Stella son claras: según la tarifa on-demand de AWS Bedrock, el costo real de inferencia de su equipo en marzo fue aproximadamente 42,121 dólares, mientras que la suscripción a Claude Code en ese mes solo costó 400 dólares.
Esta diferencia indica que, en escenarios de uso extremo, la tarifa de suscripción y el consumo real de recursos de cómputo tienen una brecha enorme.
Probablemente, Anthropic esté usando dinero de capital para ganar cuota de mercado, pero esta subvención tiene límites.
Cuando el consumo de inferencia de los usuarios intensivos alcanza cierto umbral, la sostenibilidad del modelo de negocio comienza a tambalearse.
Cherny reveló en su respuesta una señal clave: Anthropic está probando activar por defecto el modo high effort para equipos y clientes empresariales.
En otras palabras, una mayor capacidad de inferencia se está configurando como un recurso más costoso, estratificado, y ya no será una capacidad que todos puedan obtener por igual.
Esto implica que el modelo de negocio de los grandes modelos se dividirá aún más.
Actualmente, el 80% de los ingresos de Anthropic provienen de servicios empresariales y llamadas API, siendo el B2B de alta retención su verdadera columna vertebral.
Todas las acciones recientes de Anthropic apuntan a integrar más a las empresas en su plataforma propia.
Para los clientes B2B de alto valor, probablemente acelerarán el lanzamiento de versiones empresariales más potentes, ofreciendo capacidades completas del modelo a quienes paguen los costos reales.
Mientras tanto, los usuarios individuales de pago mensual solo podrán seguir disfrutando de versiones “reducidas” y menos inteligentes, que satisfacen necesidades ligeras como chat, redacción de textos o autocompletado de código, pero sin tocar los costos.
En el medio, los desarrolladores independientes y pequeños equipos que necesitan razonamiento complejo pero no pueden pagar precios empresariales serán los más afectados.
Un usuario en X confirmó: “La API de la versión empresarial de Claude funciona mucho mejor que la suscripción Pro/Max. Con el mismo marco de prueba, el comportamiento es diferente. Pero eso también significa que ahora me cuesta entre 4 y 12 mil dólares al mes, dependiendo de cuántos hilos esté ejecutando simultáneamente”.
Es decir, el camino de comercialización de los grandes modelos en el futuro será, en gran medida, priorizar el B2B y reducir costos para el consumidor final.
¿Quién pagará por la reducción de inteligencia?
El evento de reducción de inteligencia de Claude no es un caso aislado, sino un reflejo de cómo la industria de IA entra en la segunda mitad de su fase comercial.
Ya sea que OpenAI reduzca y degrade GPT en secreto varias veces, o que Google limite silenciosamente Gemini, todos repiten el mismo guion:
Primero, atraer a los usuarios con modelos de alto rendimiento, y luego controlar los costos mediante limitaciones en el software.
El resultado inevitable es que las empresas podrán comprar modelos más potentes a precios elevados, con garantías SLA, mientras que los usuarios comunes obtendrán versiones destiladas y con menor esfuerzo, modelos para el pueblo.
La velocidad de aumento de la inteligencia en modelos para consumidores ya está claramente rezagada respecto a los B2B.
Y lo más grave es que esta división es sutil.
Los fabricantes como Anthropic están reduciendo silenciosamente el presupuesto de inferencia, sin que los usuarios comunes reciban ninguna advertencia.
Esta estrategia puede aliviar temporalmente los costos de cómputo, pero a largo plazo, erosionará la confianza en la marca.
Cuando la reducción silenciosa de inteligencia en Claude se convierta en un consenso entre los usuarios, Anthropic no solo perderá algunos usuarios intensivos, sino toda la confianza del ecosistema en la IA accesible y en narrativas transparentes.
En un nivel más amplio, el evento de Claude refleja la transición de la IA de un crecimiento salvaje a una especialización meticulosa.
Se acabó la era de subsidios, y comienzan a aparecer los costos reales: ¿quién asumirá estos costos?
¿Reduciendo la experiencia en C y elevando los precios en B, o esperando que la revolución en hardware y software traiga avances en eficiencia? Esto determinará el panorama de las aplicaciones de IA en los próximos cinco años.
Las tendencias futuras ya muestran indicios: la IA dejará de ser la mitología de la inteligencia universal y cada vez más se orientará hacia una división elitista.