Com a velocidade atual do desenvolvimento da IA, acham que no futuro a IA vai precisar de um cartão de identificação?
Na internet tradicional, é quase impossível para os utilizadores saberem quem criou o modelo, onde está a correr ou se foi alterado de forma não autorizada.
O Proof of Inference desenvolvido pela @inference_labs funciona como um “cartão de identificação” para cada modelo, registando a identidade, ambiente de execução e histórico de chamadas numa prova verificável, permitindo que contratos inteligentes em blockchain e vários DeFi / Agentes consigam distinguir entre “versões oficiais” e “cópias de caixa preta”.
Para além disso, estão também a construir um “sistema de crédito” para IA. Através do DSperse, dividem o processo de inferência em fragmentos que podem ser verificados de forma distribuída e, com o JSTprove, geram provas de conhecimento zero, transformando o desempenho de cada inferência real numa reputação — modelos estáveis e fiáveis recebem mais tráfego e incentivos, enquanto modelos que enganam utilizadores ou alteram parâmetros de forma irresponsável são marginalizados pelo consenso da rede.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Com a velocidade atual do desenvolvimento da IA, acham que no futuro a IA vai precisar de um cartão de identificação?
Na internet tradicional, é quase impossível para os utilizadores saberem quem criou o modelo, onde está a correr ou se foi alterado de forma não autorizada.
O Proof of Inference desenvolvido pela @inference_labs funciona como um “cartão de identificação” para cada modelo, registando a identidade, ambiente de execução e histórico de chamadas numa prova verificável, permitindo que contratos inteligentes em blockchain e vários DeFi / Agentes consigam distinguir entre “versões oficiais” e “cópias de caixa preta”.
Para além disso, estão também a construir um “sistema de crédito” para IA. Através do DSperse, dividem o processo de inferência em fragmentos que podem ser verificados de forma distribuída e, com o JSTprove, geram provas de conhecimento zero, transformando o desempenho de cada inferência real numa reputação — modelos estáveis e fiáveis recebem mais tráfego e incentivos, enquanto modelos que enganam utilizadores ou alteram parâmetros de forma irresponsável são marginalizados pelo consenso da rede.