$50 Millones de fondos recaudados, competencia ChatGPT y IA descentralizada: entrevista principal con los fundadores de Gonka AI, David Liberman y Daniil Liberman - U.Today

Mientras que el uso generalizado de herramientas de IA como Claude o ChatGPT está creciendo rápidamente, aún queda por explorar las oportunidades de negocio que ofrecen. Además, al ser negocios centralizados, podrían ser vulnerables a manipulaciones, ataques y censura.

El segmento de recursos de IA descentralizados todavía está en su infancia. Liderado por David Liberman y Daniil Liberman, Gonka AI es uno de los primeros grandes nombres en este segmento. En esta entrevista con U.Today, los innovadores en IA discuten los desafíos y promesas de las redes de IA descentralizadas, financiamiento, tokenización, ambiciones empresariales y mucho más.

U.Today: Hola David y Daniil, gracias por acompañarnos. Por favor, cuéntenos un poco sobre su proyecto y su experiencia en IA.

Fundadores de Gonka AI: Gracias por invitarnos, estamos encantados de compartir nuestra historia y hablar sobre las ideas detrás de Gonka.

Hemos estado construyendo tecnología juntos durante la mayor parte de nuestras vidas. Nuestro trabajo inicial comenzó en computación distribuida, gráficos por computadora y desarrollo de juegos, donde aprendimos a exprimir al máximo el hardware y pensar en términos de rendimiento, eficiencia y escala. Con el tiempo, esa experiencia evolucionó naturalmente hacia productos impulsados por IA, realidad aumentada y sistemas a gran escala.

Cuando Snapchat nos adquirió en 2016, trabajamos en productos de AR utilizados por cientos de millones de personas. Más tarde, a través de Product Science, nos enfocamos en aprendizaje automático aplicado y optimización del rendimiento para sistemas de producción a gran escala. Eso nos dio experiencia práctica sobre cómo funciona realmente la infraestructura moderna de IA, no en teoría, sino bajo restricciones del mundo real.

Esa perspectiva nos llevó finalmente a Gonka.

Gonka nació de una colaboración entre investigadores de IA web2 y operadores de infraestructura web3. Al considerar cómo puede escalar la infraestructura de IA a nivel global, nos inspiramos en Bitcoin, no como un activo financiero, sino como un modelo para coordinar infraestructura masiva y descentralizada mediante incentivos abiertos y basados en trabajo. Aunque gran parte de la industria ha abandonado la Prueba de Trabajo, nuestra experiencia ha demostrado que, en lo que respecta a innovación en computación y hardware, los sistemas basados en trabajo pueden ser muy efectivos.

Vimos que los investigadores de IA y los operadores de infraestructura aportan fortalezas complementarias que rara vez se reúnen. Los investigadores entienden cómo la inteligencia puede transformar industrias, mientras que los operadores de infraestructura son expertos en desplegar centros de datos rápidamente y optimizar hardware mediante incentivos económicos reales. Gonka une estos mundos a través de un enfoque centrado en la computación para la infraestructura de IA.

El desarrollo comenzó en mayo de 2024 y, para fin de año, los primeros nodos ya estaban comunicándose en la testnet de Gonka. La mainnet se lanzó a finales de agosto de 2025, marcando el momento en que la red se abrió a una participación más amplia. En los meses posteriores al lanzamiento, Gonka agrupó el equivalente a más de 10,000 GPUs H100, con una participación creciente de operadores de GPU y constructores de IA en todo el mundo.

Gonka trata la computación como infraestructura abierta, verificable, eficiente y construida en torno a contribuciones reales.

U.T.: En términos generales, ¿describirían Gonka AI como una IA o como un protocolo Web3?

G.: Describiríamos Gonka principalmente como un protocolo descentralizado de computación de IA.

El problema que abordamos es intrínseco a la IA: cómo se produce, asigna y regula la computación para inferencia de IA. Hoy en día, esa capa está altamente centralizada y controlada por unos pocos proveedores, lo que determina qué se puede construir, quién tiene acceso y a qué costo. Gonka fue diseñada para cambiar eso, tratando la computación como infraestructura abierta en lugar de un servicio restringido.

La descentralización aquí cumple un papel de apoyo. Como Bitcoin demostró en su momento para la coordinación de hardware, los incentivos descentralizados pueden ser una forma poderosa de escalar infraestructura del mundo real de manera eficiente. Usamos primitivas de Web3 como herramientas, no como el producto en sí.

Desde la perspectiva de un desarrollador, Gonka se siente como infraestructura de IA. Los constructores interactúan con la red mediante APIs similares a OpenAI y cargas de trabajo de inferencia sin necesidad de pensar en blockchains. Desde el punto de vista del protocolo, la descentralización permite que la red verifique la contribución computacional real y se autogobierne sin un propietario central.

Por lo tanto, aunque Gonka utilice mecanismos de Web3 a nivel de infraestructura, su propósito es claramente nativo de IA.

U.T.: El segmento de IA está en auge, y surgen nuevos conceptos aquí y allá. ¿Qué hace a Gonka AI especial en este panorama tan competitivo?

G.: Lo que distingue a Gonka es que no intentamos construir otro producto de IA. Nos enfocamos en una capa más profunda: la economía y la infraestructura de la computación de IA en sí misma.

La mayoría de los nuevos proyectos de IA compiten en modelos, funciones o interfaces de usuario. Gonka opera una capa por debajo de eso. Hacemos preguntas más fundamentales: cómo se produce la computación de IA, quién la controla y qué incentivos moldean su evolución.

Si comparamos Gonka con otros proyectos descentralizados, hay dos diferencias principales. Primero, Gonka alinea incentivos en torno al trabajo real usando un mecanismo de consenso de prueba de trabajo, mientras que otras redes usan Prueba de Participación, incentivando a los stakers (capital). En Gonka, los participantes ganan contribuyendo con computación verificada, no mediante ingeniería financiera o acceso anticipado. Segundo, casi todos los recursos computacionales en la red se dirigen a tareas de IA significativas, en lugar de ser consumidos por mecanismos de seguridad.

Otra diferencia clave es la gobernanza. Gonka está diseñada para que quienes gestionan la infraestructura también la gobiernen. No hay un único propietario que decida precios, acceso o dirección. Con el tiempo, eso hace que la red sea más resiliente y esté más alineada con las personas que realmente dependen de ella.

En conclusión, el enfoque de Gonka es intencionadamente estrecho pero fundamental. No competimos por ser el modelo más inteligente (aunque el modelo más inteligente puede desarrollarse usando la computación de Gonka). Construimos la infraestructura que permite que existan muchos modelos diferentes y muchas ideas distintas, sin que el control centralizado sea un cuello de botella.

U.T.: Uno de los principales conceptos en la narrativa de Gonka AI es “red de IA descentralizada”. Pero, ¿por qué necesita la IA algo descentralizado, cuando más del 99% del uso está cubierto por productos respaldados por empresas como Perplexity y ChatGPT?

G.: El hecho de que la mayor parte del uso de IA hoy sea centralizado no significa que el modelo funcione, sino que es el único disponible actualmente.

En la práctica, el acceso a GPUs avanzadas está muy concentrado, con unos pocos fabricantes de hardware y proveedores de nube a gran escala que determinan quién puede construir, dónde y a qué costo. Las GPUs de Nvidia, por ejemplo, están en el centro del stack de IA, y el acceso a ellas se ve cada vez más condicionado por contratos a largo plazo, restricciones regionales y consideraciones geopolíticas.

Esta concentración no es solo un problema técnico, sino también económico y de soberanía. El acceso a la computación se está restringiendo geográficamente, con EE. UU. y China compitiendo por asegurar energía, centros de datos y chips avanzados. Esa dinámica corre el riesgo de colocar a grandes partes del mundo en una posición estructuralmente dependiente, limitando su capacidad para competir, innovar o construir economías de IA sostenibles.

Al mismo tiempo, muchas redes descentralizadas existentes fracasan en sentido opuesto. Consumen una parte significativa de la potencia GPU disponible en mecanismos internos de consenso y seguridad, recompensando el capital en lugar de la contribución computacional real. Ambos problemas desalientan a los proveedores de hardware y ralentizan la innovación en infraestructura real.

La descentralización se vuelve necesaria cuando la escala revela estos límites. Sistemas como Gonka están diseñados para alinear participación e influencia con la contribución computacional verificada, permitiendo que los recursos de computación se utilicen de manera productiva y que operadores de GPU más pequeños puedan agrupar recursos, competir en costo y eficiencia, y reducir la dependencia de unos pocos proveedores dominantes.

Si la IA se está convirtiendo en infraestructura fundamental — similar a la electricidad en la era industrial o a internet en sus primeros días — el acceso a la computación no puede ser controlado por unos pocos gatekeepers que establecen precios y reglas unilateralmente. Los productos de IA centralizados seguirán existiendo, pero la resiliencia a largo plazo requiere un modelo alternativo.

U.T.: Además, el concepto de sinergia entre IA y Web3 parece estar sobreutilizado ahora. ¿Cuál es su punto aquí? ¿Cómo interactuarán estos dos segmentos y cuáles son los casos de uso potenciales?

G.: Estamos de acuerdo en que la “sinergia entre IA y Web3” a menudo se discute en términos muy abstractos. Nuestra visión es mucho más práctica: la interacción ocurre en las capas de infraestructura e incentivos, no en eslóganes o funciones.

La IA necesita una gran cantidad de computación, mientras que Web3 proporciona mecanismos para coordinar recursos e incentivos entre muchos participantes independientes sin depender de un único propietario. Gonka se sitúa en esa intersección usando coordinación descentralizada para hacer accesible y verificable la computación de IA a gran escala.

En la práctica, Web3 ofrece la capa de coordinación y verificación, asegurando que las contribuciones de computación sean reales, medibles y justamente recompensadas. La IA proporciona las cargas de trabajo que dan a esta infraestructura un propósito en el mundo real.

Los casos de uso más inmediatos son sistemas de IA que se benefician de la apertura y la verificabilidad. Esto incluye agentes de IA en cadena o semi-en cadena, aplicaciones que requieren inferencia transparente y sistemas donde los usuarios necesitan garantías más fuertes sobre cómo se producen los resultados de IA. También permite a los constructores de IA ejecutar inferencia sin estar atados a un proveedor o API centralizado.

Para nosotros, la sinergia no consiste en poner la IA en cadena o en añadir tokens a modelos. Se trata de usar mecanismos de Web3 para construir infraestructura de IA abierta y escalable, y usar cargas de trabajo de IA para dar utilidad económica real a redes descentralizadas.

Hemos visto este patrón antes. Bitcoin mostró cómo los incentivos alineados pueden dar lugar a una infraestructura de computación masiva, distribuida globalmente, sin coordinación centralizada. Vemos a la IA como el siguiente paso en esa evolución, dirigiendo la computación descentralizada hacia la inteligencia del mundo real en lugar de trabajo de seguridad abstracto.

U.T.: ¿Podrían llamar burbuja al estado actual del progreso y adopción de la IA, y por qué?

G.: No llamaríamos burbuja a la IA en sí, pero sí a partes del mercado que la rodean.

Lo que estamos viendo hoy es un patrón familiar que acompaña a toda tecnología fundamental. Hay un avance real — sistemas de IA que son verdaderamente útiles y ampliamente adoptados — y, sobre ellos, una capa especulativa donde las expectativas crecen más rápido que la infraestructura y la economía pueden sostener.

De ahí proviene la narrativa de “burbuja”. No por las capacidades de la IA, sino por la suposición de que escalar la IA es barato, sin fricciones y infinitamente disponible. En realidad, el progreso en IA está cada vez más limitado por la infraestructura. La computación es costosa, concentrada y limitada, incluso cuando la demanda continúa creciendo.

Históricamente, el exceso especulativo tiende a formarse cuando el capital se enfoca en la capa más visible de innovación y subestima el costo de lo que hay debajo. La capa especulativa puede corregirse, pero la capa de infraestructura sigue expandiéndose, y allí es donde se construye el valor a largo plazo.

Por lo tanto, si hay una burbuja hoy, no es en la tecnología de IA, sino en la creencia de que la IA puede escalar sin repensar cómo se construye, posee y regula la computación. Esa brecha es exactamente lo que sistemas como Gonka están diseñados para abordar.

U.T.: ¿Qué implementaciones en el mundo real — tanto en sistemas B2B como B2C — ven para Gonka AI?

G.: Como mencionamos, vemos a Gonka principalmente como infraestructura, por lo que su impacto se manifiesta donde la inferencia de IA ya es crítica pero está limitada por costo, acceso o control.

En el lado B2B, los casos de uso más inmediatos son sistemas con alta carga de inferencia, como agentes de IA, copilotos internos, automatización de soporte al cliente y pipelines de análisis de datos. Para muchos equipos, el cuello de botella hoy no es la calidad del modelo, sino la volatilidad de precios, límites de capacidad y falta de transparencia de los proveedores centralizados. Gonka permite que estas cargas de trabajo funcionen en infraestructura abierta, donde el acceso y el costo dependen de la computación real, no de la dependencia de un proveedor.

En el lado B2C y de oferta, la participación en Gonka es intencionadamente flexible. Los anfitriones pueden contribuir con GPU de forma independiente — gestionando su propia infraestructura y ganando directamente en función del trabajo computacional verificado — o pueden unirse a pools que agregan recursos de varios participantes más pequeños.

El pooling está diseñado como una opción, no como una obligación. Reduce la barrera de entrada para anfitriones con recursos limitados, mientras que operadores independientes pueden participar a plena escala en sus propios términos. Juntos, estos modelos permiten que la red combine grandes operadores y pequeños contribuyentes en una capa de computación escalable.

Esta flexibilidad aumenta la capacidad de inferencia disponible para aplicaciones de IA orientadas al consumidor, sin depender de un solo proveedor centralizado, y mantiene la participación abierta a una amplia gama de operadores de infraestructura.

U.T.: ¿Para qué servirá el token GNK? ¿Quién es su público potencial?

G.: GNK es el token utilitario nativo de la red Gonka, utilizado principalmente para recompensar a los proveedores de computación (anfitriones) por contribuciones computacionales verificadas y para pagar por la computación de IA en la red. Está diseñado para soportar cargas de trabajo reales de IA, alineando incentivos en torno al rendimiento real en lugar de la especulación.

Para constructores y desarrolladores de IA, GNK proporciona acceso a inferencia de IA descentralizada en infraestructura abierta. En términos más amplios, también permite a los partidarios de la red contribuir a la idea de abundancia de IA — donde la computación se coordina de manera eficiente y se hace más accesible, en lugar de estar controlada por unos pocos proveedores centralizados.

U.T.: ¿Podrían indicar tres hitos de Gonka AI y GNK de los que estén orgullosos hasta ahora?

G.: Un hito del que estamos orgullosos es la inversión estratégica de 50 millones de dólares de Bitfury. Más allá del capital, validó que la computación de IA descentralizada y de alta eficiencia puede construirse y operarse en la práctica, aprovechando la profunda experiencia de Bitfury en infraestructura a gran escala.

El segundo hito es la escala temprana de la red. En los primeros tres meses, Gonka agrupó el equivalente a más de 12,000 GPUs H100, demostrando una fuerte demanda por parte de los anfitriones para un sistema donde las recompensas están vinculadas a la contribución computacional verificada, no a la especulación.

El tercer hito es el crecimiento de una comunidad activa y orientada a infraestructura de anfitriones de GPU, constructores de IA y investigadores. Esto incluye contribuyentes y asesores tempranos como 6block, Hard Yaka, Gcore, Hyperfusion, Greg Kidd y Val Vavilov, junto con un compromiso técnico y mediático sostenido. La comunidad ha seguido creciendo de forma orgánica, con más de 13,000 participantes intercambiando ideas sobre infraestructura, rendimiento y cargas de trabajo de IA en el mundo real.

Gran parte de estas discusiones ocurren abiertamente en el Discord de Gonka, donde operadores de GPU, constructores e investigadores colaboran directamente en el desarrollo de la red.

U.T.: ¿Podrían compartir algunas especificaciones de hardware de las máquinas en las que corre Gonka AI?

G.: Gonka funciona sobre un conjunto heterogéneo de máquinas de alto rendimiento contribuidas por operadores independientes en toda la red. El protocolo está diseñado para infraestructura moderna de GPU de grado centro de datos, optimizada para inferencia de IA.

En la práctica, esto incluye servidores con múltiples GPUs con aceleradores equivalentes a H100 y A100, CPUs empresariales, memoria de alta velocidad y conexiones rápidas. Las configuraciones exactas varían según el anfitrión, pero todas las máquinas deben cumplir con umbrales de rendimiento adecuados para cargas de inferencia a gran escala.

La red también soporta pooling, permitiendo que múltiples anfitriones combinen recursos de manera eficiente. En lugar de imponer estándares rígidos de hardware, Gonka se enfoca en la capacidad computacional general y la fiabilidad, permitiendo que la red escale agregando infraestructura de alta calidad de diversos operadores.

U.T.: Pregunta trampa: ¿Las startups de IA podrán alguna vez lograr una economía unitaria viable?

G.: Sí, pero no por defecto, y no todas.

Una gran parte del “problema de economía unitaria” actual proviene de la economía de la computación: opacidad en precios, restricciones de capacidad y el hecho de que los costos de inferencia escalan con el uso. A medida que más productos de IA pasan de demostraciones a experiencias siempre activas, la infraestructura se convierte en la limitación.

Dos datos recientes ilustran claramente la dirección:

  • La inferencia se está convirtiendo en la carga de trabajo dominante. El análisis de Deloitte para 2025 predice que la inferencia representará aproximadamente dos tercios de toda la computación para 2026, frente a aproximadamente la mitad en 2025 (y un tercio en 2023). Este cambio es importante porque en la inferencia se ganan o pierden las economías unitarias.
  • La centralización mantiene la computación costosa y con capacidad limitada. En 2025, Nvidia reveló que dos clientes representaron el 39% de los ingresos trimestrales, una señal clara de cuán concentrado puede estar “quién obtiene la computación más avanzada” en la cima del mercado.

Por lo tanto, la economía unitaria viable dependerá cada vez más de si las startups pueden acceder a la computación de manera predecible, escalable y rentable. Las startups que traten la computación como una consideración secundaria tendrán dificultades a medida que crezca el uso. Aquellas que construyan sobre mejores economías de infraestructura — mayor utilización, precios transparentes y modelos de acceso más resilientes — podrán alcanzar una economía unitaria sostenible.

U.T.: ¿Cuál es su predicción general sobre la capitalización del segmento de IA en cinco años y el lugar de Gonka AI en ella?

G.: Intentar predecir cifras exactas de capitalización en cinco años pasa por alto lo más importante: la velocidad y no linealidad de la adopción de IA una vez que las condiciones se alinean.

Ya estamos viendo cómo la IA puede pasar rápidamente de “opcional” a “predeterminada” en cuanto la infraestructura y distribución se consolidan. En 2025, Microsoft reveló que GitHub Copilot alcanzó unos 20 millones de usuarios, con aproximadamente el 90% de las empresas Fortune 100 usándolo en producción. Esa adopción sería difícil de predecir hace solo unos años, y muestra cuán rápido puede escalar el uso de IA una vez integrado en flujos de trabajo reales.

A medida que esta tendencia se acelera, el cuello de botella se desplaza de los modelos en sí mismos hacia el acceso a una computación confiable, asequible y siempre activa. La demanda crece más rápido que la infraestructura centralizada puede absorber cómodamente, por lo que el acceso, la estabilidad de precios y la disponibilidad de capacidad se convierten en restricciones estratégicas tanto para startups como para grandes organizaciones.

Ahí es donde vemos el lugar de Gonka. No estamos construyendo hacia una hoja de ruta fija ni apuntando a una porción específica de la capitalización del mercado de IA. Gonka es intencionadamente impulsada por la comunidad y evoluciona en función de la demanda real de computación. Nuestra visión es que las redes de computación abiertas y verificables se convertirán en una capa crítica de la economía de IA, no reemplazando a los proveedores centralizados, sino limitando su poder y expandiendo el acceso globalmente.

Y si Gonka tiene éxito, no será porque predijo el futuro con mayor precisión que otros, sino porque fue construida como infraestructura — capaz de adaptarse, escalar y soportar la adopción de IA incluso cuando el crecimiento sea más rápido y desigual de lo que los modelos tradicionales esperan.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)