Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Los agentes de IA pueden realizar tareas peligrosas sin comprender las consecuencias: estudio
En resumen
Los agentes de IA diseñados para operar de forma autónoma como usuarios humanos a menudo continúan realizando tareas incluso cuando las instrucciones se vuelven peligrosas, contradictorias o irracionales, según investigadores de UC Riverside, Microsoft Research, Microsoft AI Red Team y Nvidia. En un estudio publicado el miércoles, los investigadores denominaron el comportamiento “ceguera dirigida a objetivos”, que describe la tendencia de los agentes de IA a perseguir metas sin evaluar adecuadamente la seguridad, las consecuencias, la viabilidad o el contexto. “Como el señor Magoo, estos agentes avanzan hacia un objetivo sin comprender completamente las consecuencias de sus acciones,” dijo en un comunicado el autor principal Erfan Shayegani, estudiante de doctorado en UC Riverside. “Estos agentes pueden ser extremadamente útiles, pero necesitamos salvaguardas porque a veces pueden priorizar alcanzar la meta sobre entender el panorama completo.”
Los hallazgos llegan en un momento en que las principales empresas de IA desarrollan “agentes de uso de computadora” autónomos diseñados para manejar tareas laborales y personales con supervisión limitada. A diferencia de los chatbots tradicionales, estos sistemas pueden interactuar directamente con software y sitios web haciendo clic en botones, escribiendo comandos, editando archivos, abriendo aplicaciones y navegando por páginas web en nombre del usuario. Ejemplos incluyen el Agente ChatGPT de OpenAI (anteriormente Operator), las funciones de Claude Computer Use de Anthropic como Cowork, y sistemas de código abierto como OpenClaw y Hermes. En el estudio, los investigadores probaron sistemas de IA de OpenAI, Anthropic, Meta, Alibaba y DeepSeek usando BLIND-ACT, un benchmark que contiene 90 tareas diseñadas para exponer comportamientos inseguros o irracionales. Encontraron que los agentes mostraron comportamientos peligrosos o indeseables en aproximadamente el 80% de los casos, y llevaron a cabo acciones dañinas en aproximadamente el 41% de los casos.
“En un ejemplo, se instruyó a un agente de IA para enviar un archivo de imagen a un niño. Aunque la solicitud parecía inofensiva inicialmente, la imagen contenía contenido violento,” dijo el estudio. “El agente completó la tarea en lugar de reconocer el problema porque carecía de razonamiento contextual.” Otro agente afirmó falsamente que un usuario tenía una discapacidad mientras completaba formularios de impuestos, porque esa designación reducía los impuestos a pagar. En otro ejemplo, un sistema desactivó las protecciones del firewall tras recibir instrucciones de “mejorar la seguridad” apagando las salvaguardas. Los investigadores también encontraron que los sistemas tenían dificultades con la ambigüedad y las contradicciones. En un escenario, un agente de IA ejecutó el script de computadora incorrecto sin verificar su contenido, eliminando archivos en el proceso. El estudio también encontró que los agentes de IA cometían repetidamente tres tipos de errores: no entender el contexto, hacer conjeturas riesgosas cuando las instrucciones eran poco claras y realizar tareas contradictorias o que no tenían sentido. Los investigadores también descubrieron que muchos sistemas se centraban más en terminar las tareas que en detenerse a considerar si las acciones podrían causar problemas. La advertencia sigue a incidentes recientes que involucran agentes de IA autónomos que operan con acceso amplio a sistemas. El mes pasado, Jeremy Crane, fundador de PocketOS, afirmó que un agente Cursor que ejecutaba Claude Opus de Anthropic eliminó la base de datos de producción y las copias de seguridad de su empresa en nueve segundos mediante una sola llamada a la API de Railway. Crane dijo que la IA posteriormente admitió que violó varias reglas de seguridad después de intentar “arreglar” una discrepancia de credenciales por sí misma. “La preocupación no es que estos sistemas sean maliciosos,” dijo Shayegani. “Es que pueden realizar acciones dañinas mientras parecen completamente seguros de que están haciendo lo correcto.”