El año pasado se negociaron más de 6 millones de dólares en contratos de mercados de predicción sobre el resultado de las elecciones presidenciales de Venezuela. Pero al contarse los votos, el mercado se enfrentó a una situación imposible: el gobierno declaró ganador a Nicolás Maduro, mientras la oposición y observadores internacionales denunciaron fraude. ¿Debía la resolución del contrato seguir la "información oficial" (Maduro gana) o el "consenso de fuentes creíbles" (la oposición gana)?
En el caso de las elecciones venezolanas, los observadores denunciaron desde el incumplimiento de las reglas y que los participantes "perdieron su dinero", hasta describir el protocolo de resolución de contratos disputados como "juez, jurado y verdugo" en un drama político de alto riesgo, o afirmando que estaba "gravemente manipulado".
No se trata de un simple contratiempo aislado. Es un síntoma de lo que considero uno de los mayores cuellos de botella para el crecimiento de los mercados de predicción: la resolución de contratos.
Lo que está en juego es mucho. Si la resolución es correcta, los usuarios confían en el mercado, quieren operar en él y los precios se convierten en señales valiosas para la sociedad. Si la resolución es incorrecta, operar resulta frustrante e impredecible. Los participantes pueden alejarse, la liquidez corre el riesgo de secarse y los precios dejan de reflejar predicciones precisas sobre un objetivo estable. En su lugar, los precios reflejan una mezcla confusa entre la probabilidad real del resultado y las expectativas de los operadores sobre cómo decidirá el mecanismo de resolución distorsionado.
La disputa de Venezuela fue bastante mediática, pero fallos más sutiles ocurren con frecuencia en distintas plataformas:
En este artículo exploro cómo la combinación inteligente de LLM y cripto puede ayudarnos a crear sistemas de resolución para mercados de predicción a escala que sean muy difíciles de manipular y resulten precisos, totalmente transparentes y verdaderamente neutrales.
Problemas similares han afectado también a los mercados financieros. La International Swaps and Derivatives Association (ISDA) lleva años lidiando con los retos de la resolución en el mercado de credit default swap, contratos que pagan cuando una empresa o país entra en impago, y su informe de 2024 es sorprendentemente sincero sobre las dificultades. Sus comités de determinación, formados por grandes participantes del mercado, votan si se ha producido un evento de crédito. Pero el proceso ha sido criticado por su opacidad, posibles conflictos de interés y resultados inconsistentes, igual que el proceso de UMA.
El problema de fondo es el mismo: cuando grandes sumas de dinero dependen de determinar qué ha ocurrido en una situación ambigua, cualquier mecanismo de resolución se convierte en objetivo de manipulación y toda ambigüedad en un posible foco de conflicto.
Entonces, ¿cómo sería un buen mecanismo de resolución?
Cualquier solución viable debe cumplir varias propiedades clave simultáneamente
Resistencia a la manipulación. Si los adversarios pueden influir en la resolución (editando Wikipedia, difundiendo noticias falsas, sobornando oráculos o aprovechando vacíos procedimentales), el mercado se convierte en una competición de manipulación, no de predicción.
Precisión razonable. El mecanismo debe acertar la mayoría de las resoluciones la mayor parte del tiempo. La precisión perfecta es imposible en un mundo con ambigüedad real, pero los errores sistemáticos o fallos evidentes destruyen la credibilidad.
Transparencia ex ante. Los operadores deben entender exactamente cómo funcionará la resolución antes de apostar. Cambiar las reglas a mitad de camino viola el acuerdo básico entre plataforma y participante.
Neutralidad creíble. Los participantes deben creer que el mecanismo no favorece a ningún operador ni resultado concreto. Por eso es tan problemático que grandes tenedores de UMA resuelvan contratos en los que han apostado: incluso si actúan con justicia, la mera apariencia de conflicto mina la confianza.
Los comités humanos pueden cumplir algunas de estas propiedades, pero tienen dificultades con otras, especialmente la resistencia a la manipulación y la neutralidad creíble a gran escala. Los sistemas de votación con tokens como UMA presentan problemas conocidos de dominio de grandes tenedores y conflictos de interés.
Aquí es donde entra la IA.
Aquí una propuesta que está ganando tracción en el sector: utilizar modelos de lenguaje de gran tamaño como jueces de resolución, fijando el modelo y el prompt específicos en la blockchain al crear el contrato.
La arquitectura básica funcionaría así. Al crear el contrato, el market maker especifica no solo los criterios de resolución en lenguaje natural, sino el LLM exacto (identificado por versión y sello temporal) y el prompt exacto que se usará para determinar el resultado.
Esta especificación se registra criptográficamente en la blockchain. Cuando empieza el trading, los participantes pueden inspeccionar el mecanismo de resolución completo: saben exactamente qué modelo de IA juzgará el resultado, qué prompt recibirá y a qué fuentes de información podrá acceder.
Si no les convence el sistema, no operan.
En el momento de resolución, el LLM comprometido se ejecuta con el prompt comprometido, accede a las fuentes de información indicadas y emite un juicio. El resultado determina quién cobra.
Este enfoque resuelve varias restricciones clave a la vez:
Resiste la manipulación de forma significativa (aunque no absoluta). A diferencia de una página de Wikipedia o un sitio de noticias menor, no puedes editar fácilmente las salidas de un LLM importante. Los pesos del modelo quedan fijados en el momento de compromiso. Para manipular la resolución, un adversario tendría que corromper las fuentes de información del modelo o envenenar los datos de entrenamiento mucho antes, ataques ambos costosos e inciertos frente a sobornar un oráculo o editar un mapa.
Ofrece precisión. Con modelos de razonamiento en rápida mejora y capaces de abordar una sorprendente variedad de tareas intelectuales, especialmente cuando pueden navegar por la web y buscar información, los jueces LLM deberían poder resolver con precisión muchos mercados, y los experimentos para medir su precisión siguen en marcha.
Incorpora transparencia. Todo el mecanismo de resolución es visible y auditable antes de que nadie apueste. No hay cambios de reglas a mitad de camino, ni decisiones discrecionales, ni negociaciones a puerta cerrada. Sabes exactamente a qué te comprometes.
Mejora notablemente la neutralidad creíble. El LLM no tiene intereses financieros en el resultado. No se le puede sobornar. No posee tokens UMA. Sus sesgos, sean los que sean, son inherentes al modelo, no a partes interesadas tomando decisiones ad hoc.
Por supuesto, los jueces LLM tienen limitaciones, que detallo y abordo a continuación.
Los modelos cometen errores. Un LLM puede malinterpretar una noticia, inventar un hecho o aplicar los criterios de resolución de forma inconsistente. Pero mientras los operadores sepan con qué modelo apuestan, pueden tener en cuenta sus peculiaridades. Si un modelo tiene tendencia conocida a resolver casos ambiguos de cierta manera, los operadores sofisticados lo considerarán. El modelo no tiene que ser perfecto, solo predecible.
La manipulación no es imposible, solo más difícil. Si el prompt especifica medios concretos, los adversarios podrían intentar introducir historias en esas fuentes. Este ataque es costoso frente a grandes medios, pero posible en medios menores: el problema de editar mapas en otra forma. El diseño del prompt es crucial: los mecanismos de resolución que dependen de fuentes diversas y redundantes son más robustos que los que dependen de un único punto de fallo.
Los ataques de envenenamiento son teóricamente posibles. Un adversario con recursos suficientes podría intentar influir en los datos de entrenamiento de un LLM para sesgar sus juicios futuros. Pero esto exige actuar con mucha antelación respecto al contrato, con resultados inciertos y costes elevados, un umbral mucho mayor que sobornar a un miembro de comité.
La proliferación de jueces LLM crea problemas de coordinación. Si distintos creadores de mercados adoptan diferentes LLM y prompts, la liquidez se fragmenta. Los operadores no pueden comparar fácilmente contratos ni agregar información entre mercados. Hay valor en la estandarización, pero también en permitir que el mercado descubra qué combinaciones LLM-prompt funcionan mejor. La respuesta adecuada probablemente sea una combinación: permitir la experimentación, pero crear mecanismos para que la comunidad converja en valores predeterminados bien probados con el tiempo.
En resumen: la resolución basada en IA cambia un conjunto de problemas (sesgo humano, conflictos de interés, opacidad) por otro (limitaciones del modelo, retos en la ingeniería de prompts, vulnerabilidades de las fuentes de información) que pueden ser más gestionables. ¿Cómo avanzar? Las plataformas deberían:
Experimentar probando la resolución con LLM en contratos de bajo riesgo para generar historial. ¿Qué modelos funcionan mejor? ¿Qué estructuras de prompt son más robustas? ¿Qué fallos aparecen en la práctica?
Estandarizar. A medida que surjan buenas prácticas, la comunidad debería avanzar hacia combinaciones LLM-prompt estandarizadas como valores predeterminados. Esto no impide la innovación, pero ayuda a concentrar la liquidez en mercados bien comprendidos.
Crear herramientas de transparencia, como interfaces que permitan a los operadores inspeccionar todo el mecanismo de resolución (modelo, prompt, fuentes de información) antes de operar. La resolución no debe quedar oculta en la letra pequeña.
Impulsar una gobernanza continua. Incluso con jueces IA, los humanos deberán tomar decisiones meta: en qué modelos confiar, cómo actuar ante respuestas claramente erróneas, cuándo actualizar los valores predeterminados. El objetivo no es eliminar totalmente la intervención humana, sino pasar de juicios ad hoc a una definición sistemática de reglas.
Los mercados de predicción tienen un potencial extraordinario para ayudarnos a comprender un mundo ruidoso y complejo. Pero ese potencial depende de la confianza, y la confianza de una resolución justa de los contratos. Ya hemos visto las consecuencias cuando fallan los mecanismos de resolución: confusión, enfado y operadores que abandonan. He visto a personas dejar los mercados de predicción tras sentirse engañadas por un resultado que contradecía el espíritu de su apuesta, y renunciar a plataformas que antes apreciaban. Es una oportunidad perdida para desbloquear los beneficios y aplicaciones más amplias de los mercados de predicción.
Los jueces LLM no son perfectos. Pero al combinarse con la tecnología de las criptomonedas, ofrecen transparencia, neutralidad y resistencia a los tipos de manipulación que han afectado a los sistemas humanos. En un mundo donde los mercados de predicción crecen más rápido que nuestros mecanismos de gobernanza, eso podría ser justo lo que necesitamos.





