Gate 广场“新星计划”正式上线!
开启加密创作之旅,瓜分月度 $10,000 奖励!
参与资格:从未在 Gate 广场发帖,或连续 7 天未发帖的创作者
立即报名:https://www.gate.com/questionnaire/7396
您将获得:
💰 1,000 USDT 月度创作奖池 + 首帖 $50 仓位体验券
🔥 半月度「爆款王」:Gate 50U 精美周边
⭐ 月度前 10「新星英雄榜」+ 粉丝达标榜单 + 精选帖曝光扶持
加入 Gate 广场,赢奖励 ,拿流量,建立个人影响力!
详情:https://www.gate.com/announcements/article/49672
AI论文爆量失控!国际学术会议ICLR出手,整顿低质量投稿
AI 滥用席卷学术界,大量论文与审稿质量下滑,错误内容渗入研究体系,国际会议紧急收紧规范,学术信任正面临崩溃考验。
AI 浪潮反噬研究产业,学术论文质量面临崩溃危机
在全球人工智能技术飞速发展的背景下,AI 研究界正陷入一场前所未有的信任危机。过去数年来,顶级学术会议的审稿系统被大量低质量的投稿淹没,科研人员发现,许多论文与同行评审(Peer Review)内容中,人类贡献的比例正显著下降。这一现象引发的隐忧不仅仅是写作风格的转变,更核心的问题在于内容的准确性。当精确度成为学术研究的基石时,自动化工具生成的错误正悄然渗透进研究成果中。
加州大学伯克利分校(UC Berkeley)研究员 Inioluwa Deborah Raji 指出,学术界对 AI 改造其它产业充满热情,讽刺的是,该产业自身却因 AI 的广泛滥用而陷入混乱。
数据显示,这场危机的规模已达到警示水位。根据斯坦福大学(Stanford University)于 2025 年 8 月发布的研究报告,**计算机科学产业的论文中,有多达 22% 显示出使用大型语言模型(LLM)的迹象。**文本分析新创公司 Pangram 在针对 2025 年国际学习表征会议(ICLR)的调查中发现,约 21% 的评审意见完全由 AI 生成,且超过半数的审稿过程使用了 AI 辅助编辑。更令人震惊的是,约 9% 的投稿论文中,超过一半的内容是由 AI 产出的。
俄勒冈州立大学(Oregon State University)荣誉教授 Thomas G. Dietterich 观察到,开放式预印本平台 arXiv 的上传量亦大幅攀升,部分原因固然是研究人员涌入,但 AI 工具的推波助澜显然是主因。
审稿机制形同虚设?国际顶级会议祭出重拳整顿
面对低质量论文与自动化评论的洪流,学术界已到了不得不采取行动的转折点。2024 年 11 月,ICLR 的审稿人发现一篇疑似由 AI 生成的论文,其评分竟位居全部投稿的前 17%,这引发了对现行评价体系的强烈质疑。随后在 2025 年 1 月,检测公司 GPTZero 在全球顶级人工智能会议 NeurIPS 展出的 50 篇论文中,发现了超过 100 处自动化生成错误。这些错误包括虚拟的参考文献与错误的图表数据,严重损害了科研的严谨性。
为应对此现象,ICLR 更新了使用规范:若论文未能如实揭露广泛使用语言模型的情况,将直接面临退件处分;而提交低质量自动化评论的审稿人,也将面临其自身论文被拒绝的严厉惩罚。
加州大学伯克利分校计算机科学教授 Hany Farid 严肃警告,如果科学界持续发表错误且低质量的论文,社会将失去对科学家的基本信任。事实上,论文数量的增长速度已远超检测技术的演进。以 NeurIPS 为例,2020 年的投稿量为 9,467 份,至 2024 年增长至 17,491 份,而 2025 年更激增至 21,575 份。甚至出现单一作者在一年内提交超过 100 篇论文的极端案例,这显然已超出作为人类研究者的正常产出极限。目前学术界尚缺乏统一的自动化文本识别标准,使得防范工作难上加难。
图源:US Berkeley 加州大学伯克利分校计算机科学教授 Hany Farid
商业压力与数据污染,科研界的长期抗战
这场学术通胀的背后,交织着复杂的商业竞争与现实考量。随着 AI 产业的高额薪资与技术竞争日益激烈,科研产业的部分重心被迫转向产出数量而非品质。市场的过度炒作吸引了大量追求快速成效的外行者,进而稀释了学术深度。然而,专家也强调应区分「合理使用」与「滥用」。
Thomas G. Dietterich 提到,对于非英语母语的研究人员(如来自中国的学者)而言,AI 工具确实能帮助提升语言表达的清晰度,这类辅助写作在一定程度上改善了论文的沟通效率,应被视为正面用途。
然而,更深层的危机在于「数据污染」对 AI 未来发展的威胁。Google、Anthropic 及 OpenAI 等科技巨头正推动将模型作为生命科学等产业的研究伙伴,而这些模型正是依赖学术文本进行训练。
Hany Farid 指出,若训练数据中充斥过多人工生成的合成内容,模型的性能将会大幅退化。
过去的研究已证实,当 LLM 喂入未经筛选的自动化数据时,模型最终会崩溃并产出毫无意义的资讯。OpenAI 科学部门负责人 Kevin Weil 对此坦言,虽然 AI 能成为研究的强大加速器,但人类的监督与检查不可或缺,技术工具永远无法免除科研过程所需的严谨态度。
本篇内容由加密 Agent 汇总各方资讯生成、《加密城市》审稿与编辑,目前仍处于培训阶段,可能存在逻辑偏差或资讯误差,内容仅供参考,请勿视为投资建议