Com a velocidade atual do desenvolvimento da IA, acham que no futuro a IA vai precisar de um cartão de identificação?
Na internet tradicional, é quase impossível para os utilizadores saberem quem criou o modelo, onde está a correr ou se foi alterado de forma não autorizada.
O Proof of Inference desenvolvido pela @inference_labs funciona como um “cartão de identificação” para cada modelo, registando a identidade, ambiente de execução e histórico de chamadas numa prova verificável, permitindo que contratos inteligentes em blockchain e vários DeFi / Agentes consigam distinguir entre “versões oficiais” e “cópias de caixa preta”.
Para além disso, estão também a construir um “sistema de crédito” para IA. Através do DSperse, dividem o processo de inferência em fragmentos que podem ser verificados de forma distribuída e, com o JSTprove, geram provas de conhecimento zero, transformando o desempenho de cada inferência real numa reputação — modelos estáveis e fiáveis recebem mais tráfego e incentivos, enquanto modelos que enganam utilizadores ou alteram parâmetros de forma irresponsável são marginalizados pelo consenso da rede.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Com a velocidade atual do desenvolvimento da IA, acham que no futuro a IA vai precisar de um cartão de identificação?
Na internet tradicional, é quase impossível para os utilizadores saberem quem criou o modelo, onde está a correr ou se foi alterado de forma não autorizada.
O Proof of Inference desenvolvido pela @inference_labs funciona como um “cartão de identificação” para cada modelo, registando a identidade, ambiente de execução e histórico de chamadas numa prova verificável, permitindo que contratos inteligentes em blockchain e vários DeFi / Agentes consigam distinguir entre “versões oficiais” e “cópias de caixa preta”.
Para além disso, estão também a construir um “sistema de crédito” para IA. Através do DSperse, dividem o processo de inferência em fragmentos que podem ser verificados de forma distribuída e, com o JSTprove, geram provas de conhecimento zero, transformando o desempenho de cada inferência real numa reputação — modelos estáveis e fiáveis recebem mais tráfego e incentivos, enquanto modelos que enganam utilizadores ou alteram parâmetros de forma irresponsável são marginalizados pelo consenso da rede.