Huang Renxun: Nvidia Beyond Moore's Law, chip performance increased 1000 times in 10 years.

Fuente: AI范儿

El CEO de Nvidia, Huang Renxun, dijo que el rendimiento de los chips de inteligencia artificial de la empresa ha superado la ley de Moore, que solía dominar el desarrollo de la tecnología informática durante décadas.

Al día siguiente de dar una conferencia principal ante 10,000 asistentes en el CES de Las Vegas, Huang Renxun dijo en una entrevista: “El ritmo de desarrollo de nuestro sistema supera con creces la ley de Moore.”

La ley de Moore fue propuesta por Gordon Moore, cofundador de Intel, en 1965, y predice que el número de transistores en un chip se duplicará aproximadamente cada año, lo que duplicará el rendimiento del chip. Esta predicción se ha cumplido en gran medida en las décadas siguientes, impulsando un rápido aumento en la capacidad de cálculo y una gran reducción de costos.

Aunque el impulso del desarrollo de la Ley de Moore se ha desacelerado en los últimos años, Huang Renxun dijo que los chips de IA de Nvidia están desarrollándose a una velocidad aún mayor. La compañía afirma que su último chip supercomputador para centros de datos ha mejorado más de 30 veces en rendimiento de inferencia de IA en comparación con la generación anterior.

Hwang In-hyun explained that by innovating at various levels such as architecture, chips, systems, libraries, and algorithms, it is possible to break through the limitations of Moore’s Law.

Cuando muchos cuestionan si el desarrollo de la IA se ha estancado, el CEO de Nvidia ha hecho esta audaz afirmación. Laboratorios de IA de primer nivel como Google, OpenAI y Anthropic utilizan los chips de IA de Nvidia para entrenar y ejecutar sus modelos, y es probable que el aumento del rendimiento del chip conduzca a avances adicionales en la capacidad de la IA.

Esta no es la primera vez que Huang Renxun ha expresado que Nvidia está superando la ley de Moore. Ya mencionó en un podcast de noviembre que el campo de la IA está experimentando un desarrollo similar a la “superley de Moore”.

Refutó la afirmación de que el progreso de la IA se está desacelerando y señaló que existen tres leyes de desarrollo de la IA: pre-entrenamiento (aprendizaje de patrones a partir de datos masivos), post-entrenamiento (ajuste fino a través de retroalimentación humana, etc.) y cálculo durante las pruebas (dar más tiempo de “pensamiento” a la IA).

Huang Renxun dijo que al igual que la Ley de Moore impulsa el desarrollo de la tecnología de cálculo al reducir los costos de cálculo, mejorar el rendimiento de inferencia de IA también reducirá su costo de uso.

Aunque el H100 de Nvidia solía ser el chip preferido de las empresas tecnológicas para entrenar modelos de IA, a medida que estas empresas se centran en la etapa de inferencia, algunas personas comienzan a cuestionar si los costosos chips de Nvidia pueden seguir manteniendo su ventaja.

Actualmente, el costo de ejecución de los modelos de IA calculados durante las pruebas es muy alto. Tomemos el modelo o3 de OpenAI como ejemplo, logra un rendimiento a nivel humano en las pruebas de inteligencia general, pero cada tarea cuesta casi 20 dólares, mientras que la suscripción a ChatGPT Plus cuesta 20 dólares al mes.

En el discurso principal del lunes, Huang Renxun presentó el último chip de súper centro de datos GB200 NVL72. Este chip mejora el rendimiento de la inferencia de IA en 30-40 veces en comparación con el H100, que era el más vendido anteriormente. Dijo que este salto de rendimiento reducirá el costo de uso de modelos como OpenAI o3, que requieren una gran cantidad de cálculos de inferencia.

Huang Renxun emphasized that their focus is on improving chip performance, because in the long run, stronger performance means lower prices.

Él dijo que mejorar la capacidad de cálculo es la solución directa a los problemas de rendimiento y coste en las pruebas. A largo plazo, los modelos de inferencia de IA también pueden proporcionar mejores datos para las etapas de pre-entrenamiento y post-entrenamiento.

En el último año, gracias a avances en computación de empresas como Nvidia, el precio de los modelos de IA ha bajado considerablemente. A pesar del alto precio del nuevo modelo de razonamiento presentado por OpenAI, Hwang In-hyun espera que esta tendencia a la baja continúe.

También señaló que el rendimiento de los chips de IA de Nvidia ha aumentado mil veces en comparación con hace 10 años, lo que supera con creces la velocidad de desarrollo de la ley de Moore, y este rápido impulso aún no muestra signos de detenerse.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)