No ano passado, mais de US$ 6 milhões foram negociados em contratos de mercado de previsões sobre o resultado da eleição presidencial da Venezuela. Mas, quando os votos foram contabilizados, o mercado se viu diante de um impasse: o governo declarou Nicolás Maduro vencedor; já a oposição e observadores internacionais apontaram fraude. A resolução dos contratos deveria seguir as “informações oficiais” (Maduro vence) ou o “consenso de fontes confiáveis” (oposição vence)?
No caso das eleições venezuelanas, observadores denunciaram desde o descumprimento das regras e participantes com “dinheiro roubado” até a descrição do protocolo de resolução de contratos contestados como “juiz, júri e executor” em um drama político de alto risco, além de alegações de que o sistema foi “severamente manipulado“”
Esse não é um caso isolado. É sintoma do que considero um dos maiores gargalos para mercados de previsões em expansão: a resolução dos contratos.
Os riscos são elevados. Se a resolução é feita corretamente, o mercado conquista confiança, atrai negociadores e os preços passam a sinalizar informações relevantes para a sociedade. Se a resolução falha, negociar se torna frustrante e imprevisível. Os participantes podem abandonar o mercado, a liquidez secar e os preços deixam de refletir previsões confiáveis sobre o alvo. Em vez disso, passam a refletir uma mistura nebulosa entre a probabilidade real do resultado e as expectativas dos negociadores sobre como o mecanismo de resolução distorcido irá decidir.
A disputa na Venezuela foi de grande repercussão, mas falhas mais sutis acontecem com frequência em várias plataformas:
Neste artigo, exploro como LLMs e cripto, combinados estrategicamente, podem criar mecanismos de resolução de mercados de previsões em escala, difíceis de manipular, precisos, transparentes e neutros.
Problemas semelhantes também afetam mercados financeiros. A International Swaps and Derivatives Association (ISDA) passou anos enfrentando desafios de resolução no mercado de credit default swaps — contratos que pagam quando uma empresa ou país entra em default — e seu relatório de 2024 é surpreendentemente transparente sobre as dificuldades. Os comitês de Determinação, formados por grandes participantes do mercado, votam para decidir se eventos de crédito ocorreram. Mas o processo é criticado por falta de transparência, potenciais conflitos de interesse e resultados inconsistentes, como ocorre no processo do UMA.
O problema de fundo é o mesmo: quando grandes valores dependem da definição do que ocorreu em situações ambíguas, todo mecanismo de resolução vira alvo de manipulação e toda ambiguidade se transforma em ponto de conflito.
Então, como seria um bom mecanismo de resolução?
Qualquer solução viável precisa atender a requisitos essenciais simultaneamente
Resistência à manipulação. Se adversários conseguem influenciar a resolução — editando a Wikipédia, plantando notícias falsas, subornando oráculos ou explorando brechas procedimentais — o mercado vira um jogo de quem manipula melhor, não de quem prevê melhor.
Precisão razoável. O mecanismo deve acertar a maioria das resoluções, na maior parte do tempo. Precisão perfeita é impossível diante de ambiguidades reais, mas erros sistemáticos ou evidentes destroem a credibilidade.
Transparência ex ante. Os negociadores precisam entender exatamente como será feita a resolução antes de apostar. Alterar regras durante o processo viola o acordo básico entre plataforma e participante.
Neutralidade credível. Os participantes precisam acreditar que o mecanismo não favorece nenhum negociador ou resultado específico. Por isso, permitir que grandes detentores de UMA resolvam contratos nos quais apostaram é tão problemático: mesmo agindo de forma justa, a simples aparência de conflito mina a confiança.
Comitês humanos podem atender parte desses requisitos, mas têm dificuldades especialmente em escala, quanto à resistência à manipulação e neutralidade credível. Sistemas de votação baseados em tokens, como o UMA, apresentam problemas conhecidos de dominação por grandes players e conflitos de interesse.
É nesse contexto que a IA entra em cena.
Eis uma proposta que vem ganhando força nos mercados de previsões: usar grandes modelos de linguagem como juízes de resolução, com o modelo e o prompt específicos registrados na blockchain no momento da criação do contrato.
A arquitetura básica funcionaria assim. Na criação do contrato, o criador do mercado especifica não apenas os critérios de resolução em linguagem natural, mas o LLM exato (identificado por versão e data) e o prompt preciso a ser usado para determinar o resultado.
Essa especificação é registrada criptograficamente na blockchain. Quando as negociações começam, os participantes podem inspecionar todo o mecanismo de resolução — sabem exatamente qual modelo de IA julgará o resultado, qual prompt será usado e quais fontes de informação estarão acessíveis.
Se não gostarem da configuração, não negociam.
No momento da resolução, o LLM registrado é executado com o prompt definido, acessa as fontes de informação especificadas e produz um julgamento. O resultado determina quem recebe o pagamento.
Essa abordagem atende simultaneamente a várias restrições fundamentais:
Resiste fortemente à manipulação (embora não totalmente). Diferente de uma página da Wikipédia ou de um site menor, não é fácil editar as respostas de um LLM relevante. Os parâmetros do modelo são fixados no momento do registro. Para manipular a resolução, um adversário precisaria corromper as fontes de informação ou envenenar os dados de treinamento do modelo com grande antecedência — ataques muito mais caros e incertos do que subornar um oráculo ou editar um mapa.
Garante precisão. Com modelos de raciocínio evoluindo rapidamente e capazes de lidar com uma ampla variedade de tarefas intelectuais, especialmente quando navegam na web e buscam novas informações, juízes LLM devem ser capazes de resolver muitos mercados com precisão — e experimentos para avaliar essa precisão estão em andamento.
Incorpora transparência. Todo o mecanismo de resolução é visível e auditável antes de qualquer aposta. Não há mudanças de regras durante o processo, nem julgamentos discricionários, nem negociações nos bastidores. Você sabe exatamente no que está apostando.
Melhora significativamente a neutralidade credível. O LLM não tem interesse financeiro no resultado. Não pode ser subornado. Não possui tokens UMA. Seus vieses, quaisquer que sejam, são características do próprio modelo — não de partes interessadas tomando decisões ad hoc.
Naturalmente, juízes LLM apresentam limitações, que detalho a seguir.
Modelos cometem erros. Um LLM pode interpretar mal uma notícia, inventar fatos ou aplicar critérios de resolução de forma inconsistente. Mas, desde que os negociadores saibam com qual modelo estão apostando, podem precificar suas idiossincrasias. Se determinado modelo tem uma tendência conhecida de resolver casos ambíguos de certa forma, negociadores experientes vão considerar isso. O modelo não precisa ser perfeito; precisa ser previsível.
A manipulação não é impossível, apenas mais difícil. Se o prompt especifica fontes de notícias específicas, adversários podem tentar plantar histórias nessas fontes. Esse ataque é caro contra grandes veículos, mas pode ser viável contra menores — o problema da edição de mapas sob outra forma. O design do prompt é essencial: mecanismos de resolução que dependem de fontes diversas e redundantes são mais robustos do que aqueles baseados em um único ponto de falha.
Ataques de envenenamento são teoricamente possíveis. Um adversário com recursos suficientes poderia tentar influenciar os dados de treinamento de um LLM para enviesar seus julgamentos futuros. Mas isso exige ação muito antecipada, com retorno incerto e custos elevados — um obstáculo bem maior do que subornar um membro de comitê.
A proliferação de juízes LLM gera desafios de coordenação. Se diferentes criadores de mercado registram LLMs diferentes com prompts distintos, a liquidez se fragmenta. Os negociadores não conseguem comparar contratos ou agregar informações entre mercados facilmente. Há valor na padronização — e também em permitir que o mercado descubra quais combinações de LLM e prompt funcionam melhor. O ideal é combinar ambos: permitir experimentação, mas criar mecanismos para que a comunidade converja para padrões bem testados ao longo do tempo.
Resumindo: a resolução baseada em IA troca um conjunto de problemas (viés humano, conflitos de interesse, opacidade) por outro (limitações do modelo, desafios de engenharia de prompt, vulnerabilidades nas fontes de informação) que pode ser mais administrável. Como avançar? As plataformas devem:
Experimentar, testando a resolução por LLM em contratos de menor risco para construir um histórico. Quais modelos apresentam melhor desempenho? Quais estruturas de prompt são mais robustas? Quais falhas surgem na prática?
Padronizar. À medida que boas práticas surgem, a comunidade deve buscar combinações de LLM e prompt padronizadas, que possam servir como padrão. Isso não impede inovação, mas ajuda a concentrar liquidez em mercados bem compreendidos.
Criar ferramentas de transparência, como interfaces que facilitem a inspeção do mecanismo de resolução completo — modelo, prompt e fontes de informação — antes da negociação. A resolução não deve ficar escondida em letras miúdas.
Realizar governança contínua. Mesmo com juízes IA, humanos precisarão tomar decisões em nível meta: quais modelos confiar, como lidar com casos em que modelos apresentam respostas claramente erradas, quando atualizar padrões. O objetivo não é remover totalmente os humanos do processo, mas transferi-los do julgamento pontual e subjetivo para a definição sistemática de regras.
Os mercados de previsões têm potencial extraordinário para nos ajudar a entender um mundo barulhento e complexo. Mas esse potencial depende de confiança, e a confiança depende de uma resolução justa dos contratos. Já vimos o que acontece quando mecanismos de resolução falham: confusão, frustração e negociadores abandonando o mercado. Vi pessoas desistirem completamente de mercados de previsões após se sentirem enganadas por um resultado que contraria o espírito da aposta — abandonando plataformas que antes admiravam. Isso representa uma oportunidade perdida para desbloquear os benefícios e aplicações mais amplas dos mercados de previsões.
Juízes LLM não são perfeitos. Mas, quando combinados à tecnologia cripto, são transparentes, neutros e resistentes aos tipos de manipulação que afetam sistemas baseados em humanos. Em um cenário em que os mercados de previsões escalam mais rápido que nossos mecanismos de governança, isso pode ser exatamente o que precisamos.





