A la velocidad actual del desarrollo de la IA, ¿creéis que en el futuro la IA necesitará un DNI?
En Internet tradicional, los usuarios casi nunca pueden saber quién es el modelo, dónde se ejecuta o si se ha modificado la versión de forma fraudulenta.
Proof of Inference de @inference_labs es como darle un "DNI" a cada modelo, escribiendo su identidad, entorno de ejecución y registros de llamadas en una prueba verificable, permitiendo que los contratos en la cadena y diversas DeFi/Agentes distingan entre los "oficiales" y las "versiones black box imitadas".
Además, también están construyendo un "sistema de crédito" para la IA. Utilizan DSperse para dividir la inferencia en fragmentos verificables de forma distribuida, y luego JSTprove para generar pruebas de conocimiento cero, permitiendo que el rendimiento de cada inferencia real se acumule como reputación: los modelos estables y fiables reciben más tráfico e incentivos, mientras que los que engañan a los usuarios o manipulan parámetros quedan marginados por el consenso de la red.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
A la velocidad actual del desarrollo de la IA, ¿creéis que en el futuro la IA necesitará un DNI?
En Internet tradicional, los usuarios casi nunca pueden saber quién es el modelo, dónde se ejecuta o si se ha modificado la versión de forma fraudulenta.
Proof of Inference de @inference_labs es como darle un "DNI" a cada modelo, escribiendo su identidad, entorno de ejecución y registros de llamadas en una prueba verificable, permitiendo que los contratos en la cadena y diversas DeFi/Agentes distingan entre los "oficiales" y las "versiones black box imitadas".
Además, también están construyendo un "sistema de crédito" para la IA. Utilizan DSperse para dividir la inferencia en fragmentos verificables de forma distribuida, y luego JSTprove para generar pruebas de conocimiento cero, permitiendo que el rendimiento de cada inferencia real se acumule como reputación: los modelos estables y fiables reciben más tráfico e incentivos, mientras que los que engañan a los usuarios o manipulan parámetros quedan marginados por el consenso de la red.