
O responsável pela IA na Ethereum Foundation, Davide Crapis, e o cofundador do Ethereum, Vitalik Buterin, propuseram o uso de provas de conhecimento zero para garantir a privacidade na interação dos utilizadores com modelos de linguagem de grande escala, ao mesmo tempo que previnem spam e abusos. Cada mensagem enviada pelos utilizadores ao chatbot aciona uma chamada à API. Eles afirmam que os principais desafios enfrentados pelos utilizadores e fornecedores são privacidade, segurança e eficiência.

(Fonte: Davide Crapis)
Sempre que um utilizador envia uma mensagem a uma aplicação de software (como um chatbot de IA), uma chamada à API é acionada. Crapis e Buterin, num artigo de blog na quarta-feira, destacaram que os principais desafios enfrentados pelos utilizadores e fornecedores são privacidade, segurança e eficiência. Eles afirmam: «Precisamos de um sistema onde o utilizador possa depositar fundos uma única vez e fazer milhares de chamadas à API de forma anónima, segura e eficiente.» Acrescentam: «Deve garantir-se que o fornecedor recebe o pagamento e está protegido contra spam, ao mesmo tempo que as solicitações dos utilizadores não podem ser relacionadas com a sua identidade ou com outros utilizadores.»
Com a crescente utilização de chatbots de IA, a preocupação com a fuga de dados de LLMs (modelos de linguagem de grande escala) aumenta. Os chatbots normalmente lidam com dados altamente sensíveis, e relacionar o uso com a identidade pode acarretar riscos graves de privacidade, legais e de segurança. Os registos de conversas podem até ser usados como provas em processos judiciais. Estes riscos não são teóricos, já existem casos concretos.
Por exemplo, alguém que pergunte no ChatGPT «como evitar impostos legalmente» ou «como resolver disputas de propriedade com ex-parceiro», esses registos podem ser usados contra essa pessoa em processos de divórcio ou investigações fiscais. Em casos mais extremos, se alguém perguntar sobre tópicos políticos sensíveis ou conteúdo considerado ilegal em regimes autoritários, esses registos podem levar a perseguições políticas. Os serviços de IA atuais geralmente guardam os registos de conversa dos utilizadores, embora afirmem que estes estão encriptados e anonimizados, essa proteção pode ser invalidada perante uma intimação governamental ou ataque de hackers.
Risco de privacidade: fornecedores sabem quem perguntou o quê, podendo divulgar ou ser forçados a entregar essa informação
Rastreabilidade: acessos baseados em identidade, com email ou cartão de crédito, revelando a verdadeira identidade
Ineficácia e custos elevados: pagamento por pedido na blockchain, lento, caro e rastreável
Crapis e Buterin afirmam que atualmente os fornecedores são forçados a escolher entre duas «caminhos subótimos»: um baseado na identidade, onde o utilizador é obrigado a fornecer informações sensíveis como email ou cartão de crédito, criando riscos de privacidade; ou um baseado em pagamentos na blockchain por pedido, que é lento, caro e rastreável. Nenhum deles realmente protege a privacidade do utilizador.
Crapis e Buterin propuseram um sistema onde o utilizador deposita fundos num contrato inteligente, podendo fazer chamadas à API sem revelar identidade ou ligação às solicitações, usando provas de conhecimento zero e limitadores de taxa para pagamento e combate ao spam. Eles dizem: «O utilizador deposita 100 USDC no contrato inteligente e faz 500 consultas a um LLM hospedado. O fornecedor recebe 500 pedidos válidos e pagos, sem poder relacioná-los ao mesmo depositante ou entre si, mantendo a privacidade do utilizador.»
A lógica técnica é a seguinte: o utilizador deposita 100 USDC (ou outra criptomoeda) num contrato inteligente, que gera um conjunto de credenciais anónimas (baseadas em provas de conhecimento zero). Cada vez que o utilizador faz uma consulta, apresenta uma prova anónima de «já paguei, mas não digo quem sou». O serviço de IA verifica a validade da prova e fornece o serviço, sem saber de quem vem a solicitação, nem relacionar múltiplas solicitações ao mesmo utilizador.
«Este modelo força o utilizador a provar que o seu gasto total (representado por um índice de bilheteira atual) permanece estritamente dentro do limite do depósito inicial e do histórico de reembolsos verificados.» Assim, evita-se o duplo gasto. O utilizador não pode fazer mais de 500 consultas com um depósito de 100 USDC (supondo cada uma a 0,2 USDC), e a prova de conhecimento zero garante que o gasto não excede o depósito, sem revelar quem está a gastar.
Para impedir fraudes, conteúdo ilegal, tentativas de jailbreak e outros incumprimentos, Crapis e Buterin propuseram um sistema de duplo depósito. Se um utilizador for apanhado a tentar fazer duplo gasto, o seu depósito pode ser confiscado por qualquer pessoa (incluindo o servidor). Mas, se violar os termos de serviço, o depósito será enviado para um endereço de queima, e esse evento será registado na blockchain.
Eles explicam: «Por exemplo, um utilizador pode submeter uma solicitação para gerar instruções para fabricar armas ou ajudar a contornar controles de segurança, o que viola muitas políticas de uso. Embora a identidade do utilizador permaneça oculta, a comunidade pode auditar a frequência com que o servidor queima depósitos e as provas publicadas dessas ações.»
Este mecanismo equilibra privacidade e responsabilidade. Os utilizadores mantêm anonimato completo, mas, se abusarem do serviço (como gerar conteúdo ilegal ou tentar jailbreak), perdem o depósito como punição. Embora essa penalização económica não possa impedir totalmente abusos, aumenta o custo de má conduta. O processo mantém o anonimato, permitindo que o fornecedor e a comunidade vejam «alguém punido por violar regras», sem identificar quem.
Este conceito de «anonimato com responsabilização» pode tornar-se um novo paradigma na proteção de privacidade. Demonstra que privacidade e segurança não são opostos absolutos, e que, através de inovações criptográficas, ambos podem ser alcançados simultaneamente. Se empresas como OpenAI, Anthropic adotarem essa abordagem, ela poderá revolucionar o modelo de privacidade na IA.
Para o utilizador, essa solução pode significar: depositar 100 USDC numa carteira uma única vez e usar o serviço de IA de forma anónima durante meses ou anos (dependendo do uso), sem precisar de login ou ligação de cartão de crédito. Se cometer uma infração, perde apenas o depósito, mantendo a privacidade. Este modelo de «comprar anonimato com dinheiro» pode atrair muitos utilizadores profissionais e organizações preocupadas com privacidade.
Para os fornecedores de IA, essa solução também é atrativa. Resolve o dilema «se quero privacidade, perco receita; se quero receita, perco privacidade». Com contratos inteligentes a automatizar pagamentos, elimina taxas de cartão de crédito e custos de resolução de disputas. A privacidade garantida por provas de conhecimento zero reduz riscos legais de fuga de dados (pois não recolhemos informações pessoais). E o mecanismo de penalização por depósito oferece uma forma mais eficaz de combater abusos do que a simples suspensão de contas.
Related Articles
Gate Research Institute: Fluxo de fundos de novos investidores em Bitcoin torna-se negativo|Zerohash integra Monad e USDC
Gate Research Institute: A capitalização total do mercado de criptomoedas continua a diminuir|A taxa de staking do Ethereum atinge um novo recorde histórico
Hackathon alimentado por USDC permite que agentes de IA construam, julguem e votem
Zerohash avalia-se em 1 mil milhões de dólares, tornando-se um unicórnio! Integração do Monad para expandir o ecossistema de pagamentos USDC
Uma nova carteira depositou 5,1 milhões de USDC na Hyperliquid e abriu uma posição de venda de GOLD através do trade.xyz