Según el CEO de Abacus.AI, Bindu Reddy, Google planea presentar Gemini 3.2 Flash durante su conferencia I/O el 20 de mayo, con un rendimiento que alcanza el 92% de GPT-5.5 en tareas de codificación y razonamiento, mientras reduce los costos de inferencia a solo una quinta a una veinteava parte de los de este último. La mayoría de las consultas tendrá una latencia inferior a 200 milisegundos. Reddy atribuyó el avance a las técnicas de destilación y esparsidad de Google, que comprimen un modelo de frontera en el nivel Flash sin el típico “bache” de rendimiento que suele verse en la optimización de modelos.
Related News
Los expertos dicen que las pruebas zk dan a las DePIN una ventaja a medida que aumenta la demanda de confianza en la IA
Google lanza su primer portátil “AI”: Googlebook integra profundamente Gemini como el mejor socio de colaboración
Google: Los modelos de lenguaje de gran escala se utilizan para ataques reales; la IA puede eludir los mecanismos de seguridad de doble autenticación