2026年4月16日,韩国国家安全技术研究所 (NSTI) 的资深研究员高禹英在首尔举行的第32届信息与通信网络安全会议 (NetSec-KR 2026) 上公布研究结果,揭示可在极低成本与极快速度下生成AI虚假新闻。据高禹英的报告,使用生成式AI制作虚假新闻的平均成本为13韩元,耗时4秒;而制作12条虚假新闻条目平均需要155韩元、平均耗时46秒。高禹英强调,AI生成的虚假信息以及旨在操纵公众舆论的恶意评论的蔓延,已成为社会面临的关键威胁。
高禹英指出,随着生成式AI能力被越来越多地滥用,主要的滥用手段涉及舆论与信息操纵。他强调,当虚假新闻与虚假评论的成本低到几乎可以忽略、数量又变得如此充足时,社会已经到了一个阶段:区分真相与谎言变得极其困难。
根据高禹英的分析,当虚假信息变得无处不在时,社会成员会对虚假信息感到疲惫,并开始对现实失去兴趣。这种现象会导致人们甚至对真实信息产生质疑。高禹英提到:“在法律层面,除非虚假新闻带来经济收益,否则很难依法加以执行惩罚”,并强调:“生成式AI技术进展得太快,必须进行制度层面的改进。”
高禹英在NetSec-KR 2026上展示由AI生成的虚假新闻的风险
NSTI主任崔硕佑在同一场次中就“基于AI的恶意软件分析技术”发表了报告。据崔硕佑的研究结果,随着AI开始被用于生成恶意软件,平均每天会产生约450,000个新的恶意软件样本。恶意软件的累计总量已超过10亿个实例。
为应对这一不断升级的威胁,崔硕佑主张开发由AI驱动的解决方案,包括基于AI的分析支持系统、基于大语言模型 (LLM) 的自主分析代理,以及自动化去混淆工具。
崔硕佑阐述有必要推进基于AI的恶意软件分析技术
NSTI资深研究员池铉石就“基于LLM的软件安全漏洞检测的时代”发表了报告。池的研究考察了LLM如何检测安全漏洞,并发现当前能力存在显著局限。
池表示:“在近期案例中,尽管AI识别出了许多漏洞,但分析结果显示这实际上并非如此。只有当LLM和AI模型被提供了专门的漏洞检测工具时,才能实现有效的漏洞检测。”据池介绍,LLM目前面临多项限制,包括处理大型代码库的能力受限、数据依赖问题以及推理不可靠。
池预测,当能够直接识别漏洞的专业安全分析师借助LLM工具时,协同效应将达到最大化。然而,池强调:“LLM漏洞检测尚未完成。必须探索更好的漏洞查找方法。”报告强调,目前仍无法仅依靠AI有效地开展基于LLM的漏洞检测,而要进行可靠的安全分析,人类专业知识仍然至关重要。
池铉石就基于LLM的漏洞检测研究发表报告