AI虚假新闻生成成本仅13韩元,4秒:韩国安全会议

Crypto Frontier

2026年4月16日,韩国国家安全技术研究所 (NSTI) 的资深研究员高禹英在首尔举行的第32届信息与通信网络安全会议 (NetSec-KR 2026) 上公布研究结果,揭示可在极低成本与极快速度下生成AI虚假新闻。据高禹英的报告,使用生成式AI制作虚假新闻的平均成本为13韩元,耗时4秒;而制作12条虚假新闻条目平均需要155韩元、平均耗时46秒。高禹英强调,AI生成的虚假信息以及旨在操纵公众舆论的恶意评论的蔓延,已成为社会面临的关键威胁。

由AI生成的虚假信息及其社会影响

高禹英指出,随着生成式AI能力被越来越多地滥用,主要的滥用手段涉及舆论与信息操纵。他强调,当虚假新闻与虚假评论的成本低到几乎可以忽略、数量又变得如此充足时,社会已经到了一个阶段:区分真相与谎言变得极其困难。

根据高禹英的分析,当虚假信息变得无处不在时,社会成员会对虚假信息感到疲惫,并开始对现实失去兴趣。这种现象会导致人们甚至对真实信息产生质疑。高禹英提到:“在法律层面,除非虚假新闻带来经济收益,否则很难依法加以执行惩罚”,并强调:“生成式AI技术进展得太快,必须进行制度层面的改进。”

高禹英在NetSec-KR 2026上展示由AI生成的虚假新闻的风险

基于AI的恶意软件分析与检测

NSTI主任崔硕佑在同一场次中就“基于AI的恶意软件分析技术”发表了报告。据崔硕佑的研究结果,随着AI开始被用于生成恶意软件,平均每天会产生约450,000个新的恶意软件样本。恶意软件的累计总量已超过10亿个实例。

为应对这一不断升级的威胁,崔硕佑主张开发由AI驱动的解决方案,包括基于AI的分析支持系统、基于大语言模型 (LLM) 的自主分析代理,以及自动化去混淆工具。

崔硕佑阐述有必要推进基于AI的恶意软件分析技术

基于LLM的漏洞检测:当前局限

NSTI资深研究员池铉石就“基于LLM的软件安全漏洞检测的时代”发表了报告。池的研究考察了LLM如何检测安全漏洞,并发现当前能力存在显著局限。

池表示:“在近期案例中,尽管AI识别出了许多漏洞,但分析结果显示这实际上并非如此。只有当LLM和AI模型被提供了专门的漏洞检测工具时,才能实现有效的漏洞检测。”据池介绍,LLM目前面临多项限制,包括处理大型代码库的能力受限、数据依赖问题以及推理不可靠。

池预测,当能够直接识别漏洞的专业安全分析师借助LLM工具时,协同效应将达到最大化。然而,池强调:“LLM漏洞检测尚未完成。必须探索更好的漏洞查找方法。”报告强调,目前仍无法仅依靠AI有效地开展基于LLM的漏洞检测,而要进行可靠的安全分析,人类专业知识仍然至关重要。

池铉石就基于LLM的漏洞检测研究发表报告

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论