À la vitesse actuelle de développement de l’IA, pensez-vous qu’à l’avenir l’IA aura besoin d’une carte d’identité ?
Dans l’internet traditionnel, il est presque impossible pour les utilisateurs de savoir quel est le modèle utilisé, où il fonctionne, et s’il a été modifié de manière frauduleuse.
Proof of Inference, développé par @inference_labs, agit comme une “carte d’identité” pour chaque modèle : l’identité, l’environnement d’exécution et l’historique des appels sont inscrits dans une preuve vérifiable, permettant ainsi aux contrats on-chain et à divers DeFi/Agents de distinguer les “acteurs officiels” des “versions boîte noire ou contrefaites”.
En outre, ils construisent également un “système de crédit” pour l’IA. Grâce à DSperse, l’inférence est divisée en fragments pouvant être vérifiés de manière distribuée, puis JSTprove génère des preuves à connaissance nulle, transformant ainsi la performance réelle de chaque inférence en réputation : les modèles fiables et stables bénéficient de plus de trafic et d’incitations, tandis que ceux qui trompent les utilisateurs ou modifient les paramètres de façon désordonnée sont marginalisés par le consensus du réseau.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
À la vitesse actuelle de développement de l’IA, pensez-vous qu’à l’avenir l’IA aura besoin d’une carte d’identité ?
Dans l’internet traditionnel, il est presque impossible pour les utilisateurs de savoir quel est le modèle utilisé, où il fonctionne, et s’il a été modifié de manière frauduleuse.
Proof of Inference, développé par @inference_labs, agit comme une “carte d’identité” pour chaque modèle : l’identité, l’environnement d’exécution et l’historique des appels sont inscrits dans une preuve vérifiable, permettant ainsi aux contrats on-chain et à divers DeFi/Agents de distinguer les “acteurs officiels” des “versions boîte noire ou contrefaites”.
En outre, ils construisent également un “système de crédit” pour l’IA. Grâce à DSperse, l’inférence est divisée en fragments pouvant être vérifiés de manière distribuée, puis JSTprove génère des preuves à connaissance nulle, transformant ainsi la performance réelle de chaque inférence en réputation : les modèles fiables et stables bénéficient de plus de trafic et d’incitations, tandis que ceux qui trompent les utilisateurs ou modifient les paramètres de façon désordonnée sont marginalisés par le consensus du réseau.