Generación de noticias falsas con IA cuesta solo 13 won, 4 segundos: conferencia de seguridad de Corea

CryptoFrontier

El 16 de abril de 2026, Ko Woo-young, investigador sénior del Instituto de Tecnología de Seguridad Nacional de Corea del Sur (NSTI), presentó hallazgos en la 32.ª Conferencia de Seguridad de la Red de Información y Comunicación (NetSec-KR 2026) en Seúl, revelando que las noticias falsas generadas por IA pueden producirse a un costo y velocidad notablemente bajos. Según la presentación de Ko, crear noticias falsas usando IA generativa cuesta en promedio 13 won y tarda 4 segundos, y con 12 noticias falsas se requieren 155 won y 46 segundos en promedio. Ko subrayó que la proliferación de desinformación generada por IA y comentarios maliciosos diseñados para manipular la opinión pública se ha convertido en una amenaza crítica para la sociedad.

Desinformación generada por IA e impacto social

Ko destacó que, a medida que las capacidades de la IA generativa se usan cada vez más de forma indebida, la táctica principal de abuso implica la manipulación de la opinión y de la información. Señaló que, dado que el costo y el volumen de noticias falsas y comentarios falsos se han vuelto tan bajos y abundantes, la sociedad ha llegado a un punto en el que distinguir la verdad de la falsedad es extremadamente difícil.

Según el análisis de Ko, cuando la información falsa se vuelve ubicua, los miembros de la sociedad se cansan de la desinformación y comienzan a perder interés en la realidad. Este fenómeno lleva a las personas a cuestionar incluso la información auténtica. Ko señaló que “castigar las noticias falsas es legalmente difícil de hacer cumplir a menos que resulte en una ganancia financiera”, y enfatizó que “la tecnología de IA generativa está evolucionando demasiado rápido y se necesitan mejoras institucionales”.

Ko Woo-young presentando los riesgos de las noticias falsas generadas por IA en NetSec-KR 2026

Análisis y detección de malware basado en IA

Choi Seok-woo, director del NSTI, presentó sobre “Tecnología de análisis de malware basada en IA” en la misma sesión. Según los hallazgos de Choi, a medida que la IA empieza a usarse para generar malware, se crean aproximadamente 450,000 nuevas muestras de malware cada día. El total acumulado de malware ha superado los 1 mil millones de instancias.

En respuesta a esta amenaza en aumento, Choi abogó por el desarrollo de soluciones impulsadas por IA, incluyendo sistemas de soporte analítico basados en IA, agentes de análisis autónomos basados en modelos de lenguaje grandes (LLM) y herramientas automatizadas de desofuscación.

Choi Seok-woo presentando la necesidad de la tecnología de análisis de malware basada en IA

Detección de vulnerabilidades basada en LLM: limitaciones actuales

Ji Hyun-seok, investigador sénior del NSTI, presentó sobre “La era de la detección de vulnerabilidades de seguridad de software basada en LLM”. La investigación de Ji examinó cómo los LLM detectan vulnerabilidades de seguridad y encontró limitaciones significativas en las capacidades actuales.

Ji afirmó: “En casos recientes, aunque la IA ha identificado numerosas vulnerabilidades, los resultados del análisis muestran que esto no es realmente el caso. La detección efectiva de vulnerabilidades solo fue posible cuando los modelos LLM y de IA se proporcionaron con herramientas dedicadas a la detección de vulnerabilidades”. Según Ji, los LLM actualmente enfrentan varias limitaciones, incluyendo restricciones para manejar grandes repositorios de código, problemas de dependencia de datos y razonamiento poco fiable.

Ji proyectó que la sinergia se maximizaría cuando analistas de seguridad capacitados que pudieran identificar vulnerabilidades directamente aprovecharan herramientas de LLM. Sin embargo, Ji enfatizó que “la detección de vulnerabilidades con LLM aún no está completa. Deben explorarse mejores métodos para encontrar vulnerabilidades”. La presentación subrayó que, por el momento, la detección de vulnerabilidades basada en LLM no puede realizarse de manera efectiva solo con IA, y la experiencia humana sigue siendo esencial para un análisis de seguridad confiable.

Ji Hyun-seok presentando la investigación sobre detección de vulnerabilidades basada en LLM

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios