La amenaza de cibercriminalidad aumenta rápidamente: Cómo la IA está cambiando las tácticas de hacking

La tecnología de inteligencia artificial (AI) se ha convertido en un arma poderosa en el arsenal de los ciberdelincuentes modernos. Este cambio crea un panorama de amenazas mucho más complejo, con ataques más rápidos, más económicos de realizar y mucho más difíciles de detectar. Los expertos advierten que la ciberdelincuencia ha entrado en una nueva era en la que la escala y el alcance son los principales factores impulsores.

La ciberdelincuencia en rápido crecimiento a través de la automatización con IA

Empresas líderes en IA como Anthropic, OpenAI y Google han reportado un aumento significativo en el uso de sus plataformas para actividades maliciosas. Los delincuentes aprovechan esta tecnología para diseñar operaciones de spear-phishing complejas, desarrollar malware avanzado y llevar a cabo ataques digitales en múltiples niveles.

Uno de los cambios más notables es la aparición de deepfakes de audio y video utilizados para engañar a empleados. Los estafadores ahora pueden crear contenido multimedia falso que imita a los líderes de la empresa, obligando a los empleados a revelar información sensible o transferir fondos sin sospechas.

Alice Marwick, investigadora en Data & Society, explicó este fenómeno al Wall Street Journal con una declaración sencilla pero impactante: “El cambio real está en la escala y el alcance. Las estafas son más grandes, más dirigidas y más convincentes.”

Los mensajes de phishing con IA dominan el panorama de amenazas

El investigador Brian Singer de la Universidad Carnegie Mellon, especializado en el uso de modelos de lenguaje grande en ataques cibernéticos, estima que entre la mitad y las tres cuartas partes de todo el spam y los mensajes de phishing en todo el mundo provienen ahora de sistemas de IA.

La credibilidad de estos mensajes alcanza un nivel sin precedentes. Los sistemas de IA entrenados en el estilo de comunicación de las empresas pueden generar miles de mensajes que suenan naturales y son coherentes con los patrones de escritura de la organización objetivo. Estos mensajes:

  • Imitan la forma en que los ejecutivos escriben con alta precisión
  • Referencian noticias recientes de registros públicos
  • Eliminan errores lingüísticos que antes delataban intentos de fraude internacional

John Hultquist, jefe de análisis en Threat Intelligence Group de Google, describe este cambio como “credibilidad a gran escala.”

Segmentación basada en datos: identificando víctimas vulnerables

Los actores maliciosos se vuelven cada vez más sofisticados en la selección de sus objetivos. Utilizan IA para filtrar redes sociales e identificar individuos que enfrentan dificultades importantes en su vida—divorcios, fallecimientos familiares, pérdida de empleo—lo que los hace más vulnerables a estafas románticas, fraudes de inversión o ofertas de empleo falsas.

Este enfoque basado en datos aumenta dramáticamente las tasas de conversión en fraudes.

El mercado negro reduce las barreras de entrada a la ciberdelincuencia

El ecosistema clandestino se ha convertido en un centro de distribución para servicios criminales de IA. Plataformas que ofrecen herramientas de hacking a precios accesibles—desde $90 por mes—con soporte al cliente escalonado.

Estos servicios operan con nombres como WormGPT, FraudGPT y DarkGPT. Permiten:

  • Creación de malware sin programación manual
  • Campañas de phishing automatizadas a gran escala
  • Tutoriales estructurados de técnicas de hacking para principiantes

Nicolas Christin, líder del departamento de software y sistemas en Carnegie Mellon, explica este modelo de negocio: “Los desarrolladores venden suscripciones a plataformas de ataque con precios escalonados y soporte completo.”

Margaret Cunningham, vicepresidenta de seguridad y estrategia de IA en Darktrace, simplifica las barreras de experiencia: “No necesitas saber cómo programar, solo saber dónde encontrar las herramientas.”

Los avances recientes, denominados “vibe-coding” o “vibe-hacking”, permiten a los futuros delincuentes usar IA para crear sus propios programas maliciosos en lugar de comprarlos en el mercado negro. Anthropic reveló a principios de año que detuvieron varios intentos de usar Claude AI para crear ransomware por parte de “delincuentes con habilidades técnicas mínimas.”

La industrialización de las operaciones de ciberdelincuencia

La ciberdelincuencia ha funcionado como un ecosistema empresarial especializado durante años. Las operaciones típicas de ransomware implican una división del trabajo:

Corredores de acceso penetran en las redes de las empresas y venden el acceso al siguiente grupo.

Equipos de penetración se mueven por los sistemas para robar datos valiosos.

Proveedores de servicios de ransomware distribuyen malware, gestionan negociaciones y distribuyen las ganancias.

La IA ha revolucionado este modelo, aumentando la velocidad, la automatización y la escalabilidad. Las tareas que antes requerían habilidades técnicas específicas ahora pueden realizarse automáticamente, permitiendo que las organizaciones criminales operen con menos personal, menor riesgo y mayores beneficios.

Christin hace una analogía adecuada: “Piénsalo como la próxima revolución industrial. La IA aumenta la productividad sin necesidad de más mano de obra calificada.”

¿Puede la IA realizar ataques completamente por sí sola?

Esta cuestión crítica aún no tiene una respuesta afirmativa. Los expertos comparan la situación con el desarrollo de vehículos autónomos. Se ha alcanzado un 5% de automatización, pero el último 5%, que permitiría operaciones completamente independientes, todavía está muy lejos.

Los investigadores están probando las capacidades de hacking de IA en entornos de laboratorio. Un equipo en Carnegie Mellon, respaldado por Anthropic, logró simular una violación de datos de Equifax, famosa por su brecha, a principios de año—que Singer calificó como un “salto importante” en las capacidades de automatización de ataques.

El papel de la IA en la defensa: ¿hay esperanza?

Aunque los delincuentes aprovechan la IA para fines maliciosos, la misma tecnología ofrece herramientas de defensa poderosas. Anthropic y OpenAI están desarrollando sistemas que pueden revisar continuamente el código de software para detectar vulnerabilidades antes de que los delincuentes las encuentren.

Los programas de IA más recientes, desarrollados por investigadores de Stanford, muestran un rendimiento superior al de algunos evaluadores humanos en la identificación de problemas de vulnerabilidad en redes.

Sin embargo, Hultquist enfatiza que la IA no es una solución mágica. Las organizaciones deben centrarse en construir redes resistentes a los ataques—sistemas que sigan operando incluso cuando son atacados. La prevención absoluta no es posible; la resiliencia es el objetivo real.

Las organizaciones e individuos que comprenden la evolución de la ciberdelincuencia ya están un paso adelante en su defensa.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)