Взрывной рост количества AI-статей вышел из-под контроля! Международная академическая конференция ICLR вмешивается, чтобы навести порядок в низкокачественных публикациях
Искусственный интеллект (ИИ) захлестнул академический мир, качество множества публикаций и рецензий снизилось, ошибочный контент проник в исследовательскую систему, международные конференции срочно ужесточают правила, доверие к науке сталкивается с кризисом.
Волна ИИ обернулась против исследовательской индустрии, качество научных статей находится под угрозой краха
На фоне стремительного развития технологий искусственного интеллекта в мире, научное сообщество сталкивается с беспрецедентным кризисом доверия. За последние годы системы рецензирования в ведущих академических конференциях были затоплены большим количеством низкокачественных публикаций, исследователи обнаружили, что доля человеческого вклада в статьи и отзывы (Peer Review) значительно снизилась. Эта тенденция вызывает опасения не только в отношении стиля написания, но и в отношении точности содержания. Когда точность становится основой научных исследований, ошибки, создаваемые автоматизированными инструментами, начинают незаметно проникать в результаты исследований.
Исследователь из Калифорнийского университета в Беркли (UC Berkeley) Inioluwa Deborah Raji отмечает, что академический мир полон энтузиазма по поводу внедрения ИИ в другие отрасли, ирония в том, что сама индустрия оказывается в хаосе из-за широкого злоупотребления ИИ.
Данные показывают, что масштаб этого кризиса достиг опасного уровня. Согласно исследованию Стэнфордского университета (Stanford University), опубликованному в августе 2025 года, до 22% статей в области компьютерных наук показывают признаки использования крупных языковых моделей (LLM). Новая компания по анализу текстов Pangram обнаружила в ходе опроса участников международной конференции по обучающим представлениям (ICLR) 2025 года, что около 21% рецензий полностью сгенерированы ИИ, а более половины процессов рецензирования используют ИИ для помощи в редактировании. Еще более шокирующим является то, что в более чем 9% поданных статей более половины содержимого создано ИИ.
Профессор из Орегонского государственного университета (Oregon State University) Thomas G. Dietterich отметил, что объем загрузок на платформу arXiv значительно вырос, и хотя часть этого связана с притоком исследователей, очевидно, что основной причиной является использование ИИ-инструментов.
Механизм рецензирования под угрозой? Ведущие международные конференции вводят жесткие меры
Столкнувшись с потоком низкокачественных статей и автоматизированных отзывов, научное сообщество достигло точки, когда необходимо принимать меры. В ноябре 2024 года рецензенты ICLR обнаружили статью, предположительно сгенерированную ИИ, которая заняла 17% всех поданных работ, что вызвало серьезные сомнения в существующей системе оценки. В январе 2025 года компания GPTZero, занимающаяся проверкой, обнаружила более 100 автоматических ошибок в 50 статьях, представленных на крупнейшей конференции по искусственному интеллекту NeurIPS. Эти ошибки включали фиктивные ссылки и неправильные графические данные, что серьезно подорвало научную строгость.
В целях борьбы с этим ICLR обновила правила использования: если в статье не будет честно указано использование языковых моделей, она будет отклонена; рецензенты, предоставляющие низкокачественные автоматические отзывы, также рискуют получить отказ в публикации своих работ.
Профессор из Калифорнийского университета в Беркли Hany Farid строго предупреждает, что если научное сообщество продолжит публиковать ошибочные и низкокачественные статьи, общество потеряет доверие к ученым. Фактически, скорость роста количества публикаций уже опережает развитие технологий их проверки. Например, в NeurIPS в 2020 году было подано 9467 работ, к 2024 году — 17491, а в 2025 году — уже 21575. Были случаи, когда один автор за год подал более 100 статей, что явно превышает нормальные возможности человеческого исследователя. В настоящее время отсутствуют единые стандарты автоматического распознавания текста, что усложняет защиту от подобных злоупотреблений.
Источник изображения: профессор из Калифорнийского университета в Беркли Hany Farid
Давление бизнеса и загрязнение данных: долгосрочная борьба научного мира
За этим научным бумом стоят сложные коммерческие конкуренции и реальные экономические соображения. В связи с высокими зарплатами и жесткой конкуренцией в индустрии ИИ часть исследовательских ресурсов вынуждена сосредоточиться на увеличении количества публикаций, а не их качестве. Перегретый рынок привлекает множество непрофессионалов, стремящихся к быстрым результатам, что размывает глубину научных исследований. Однако эксперты подчеркивают необходимость различать «разумное использование» и «злоупотребление».
Thomas G. Dietterich отметил, что для исследователей, не являющихся носителями английского языка (например, ученых из Китая), ИИ-инструменты действительно помогают повысить ясность изложения, и такой вспомогательный подход в написании статей в определенной степени улучшает коммуникацию и должен рассматриваться как положительный.
Однако более глубокая проблема — «загрязнение данных», угрожающее будущему развитию ИИ. Технологические гиганты, такие как Google, Anthropic и OpenAI, продвигают использование моделей как партнеров в исследованиях в области биологических наук и других отраслей, при этом эти модели обучаются на академических текстах.
Hany Farid отметил, что если обучающие данные будут насыщены синтетическим контентом, созданным человеком, производительность моделей значительно снизится.
Ранее исследования подтверждали, что при обучении крупных языковых моделей (LLM) на необработанных автоматизированных данных, модели в конечном итоге выходят из строя и начинают выдавать бессмысшую информацию. Руководитель научного отдела OpenAI Kevin Weil признал, что хотя ИИ может стать мощным ускорителем исследований, контроль и проверка человеком остаются необходимыми, поскольку технологические инструменты не могут полностью заменить строгий научный подход.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Взрывной рост количества AI-статей вышел из-под контроля! Международная академическая конференция ICLR вмешивается, чтобы навести порядок в низкокачественных публикациях
Искусственный интеллект (ИИ) захлестнул академический мир, качество множества публикаций и рецензий снизилось, ошибочный контент проник в исследовательскую систему, международные конференции срочно ужесточают правила, доверие к науке сталкивается с кризисом.
Волна ИИ обернулась против исследовательской индустрии, качество научных статей находится под угрозой краха
На фоне стремительного развития технологий искусственного интеллекта в мире, научное сообщество сталкивается с беспрецедентным кризисом доверия. За последние годы системы рецензирования в ведущих академических конференциях были затоплены большим количеством низкокачественных публикаций, исследователи обнаружили, что доля человеческого вклада в статьи и отзывы (Peer Review) значительно снизилась. Эта тенденция вызывает опасения не только в отношении стиля написания, но и в отношении точности содержания. Когда точность становится основой научных исследований, ошибки, создаваемые автоматизированными инструментами, начинают незаметно проникать в результаты исследований.
Исследователь из Калифорнийского университета в Беркли (UC Berkeley) Inioluwa Deborah Raji отмечает, что академический мир полон энтузиазма по поводу внедрения ИИ в другие отрасли, ирония в том, что сама индустрия оказывается в хаосе из-за широкого злоупотребления ИИ.
Данные показывают, что масштаб этого кризиса достиг опасного уровня. Согласно исследованию Стэнфордского университета (Stanford University), опубликованному в августе 2025 года, до 22% статей в области компьютерных наук показывают признаки использования крупных языковых моделей (LLM). Новая компания по анализу текстов Pangram обнаружила в ходе опроса участников международной конференции по обучающим представлениям (ICLR) 2025 года, что около 21% рецензий полностью сгенерированы ИИ, а более половины процессов рецензирования используют ИИ для помощи в редактировании. Еще более шокирующим является то, что в более чем 9% поданных статей более половины содержимого создано ИИ.
Профессор из Орегонского государственного университета (Oregon State University) Thomas G. Dietterich отметил, что объем загрузок на платформу arXiv значительно вырос, и хотя часть этого связана с притоком исследователей, очевидно, что основной причиной является использование ИИ-инструментов.
Механизм рецензирования под угрозой? Ведущие международные конференции вводят жесткие меры
Столкнувшись с потоком низкокачественных статей и автоматизированных отзывов, научное сообщество достигло точки, когда необходимо принимать меры. В ноябре 2024 года рецензенты ICLR обнаружили статью, предположительно сгенерированную ИИ, которая заняла 17% всех поданных работ, что вызвало серьезные сомнения в существующей системе оценки. В январе 2025 года компания GPTZero, занимающаяся проверкой, обнаружила более 100 автоматических ошибок в 50 статьях, представленных на крупнейшей конференции по искусственному интеллекту NeurIPS. Эти ошибки включали фиктивные ссылки и неправильные графические данные, что серьезно подорвало научную строгость.
В целях борьбы с этим ICLR обновила правила использования: если в статье не будет честно указано использование языковых моделей, она будет отклонена; рецензенты, предоставляющие низкокачественные автоматические отзывы, также рискуют получить отказ в публикации своих работ.
Профессор из Калифорнийского университета в Беркли Hany Farid строго предупреждает, что если научное сообщество продолжит публиковать ошибочные и низкокачественные статьи, общество потеряет доверие к ученым. Фактически, скорость роста количества публикаций уже опережает развитие технологий их проверки. Например, в NeurIPS в 2020 году было подано 9467 работ, к 2024 году — 17491, а в 2025 году — уже 21575. Были случаи, когда один автор за год подал более 100 статей, что явно превышает нормальные возможности человеческого исследователя. В настоящее время отсутствуют единые стандарты автоматического распознавания текста, что усложняет защиту от подобных злоупотреблений.
Источник изображения: профессор из Калифорнийского университета в Беркли Hany Farid
Давление бизнеса и загрязнение данных: долгосрочная борьба научного мира
За этим научным бумом стоят сложные коммерческие конкуренции и реальные экономические соображения. В связи с высокими зарплатами и жесткой конкуренцией в индустрии ИИ часть исследовательских ресурсов вынуждена сосредоточиться на увеличении количества публикаций, а не их качестве. Перегретый рынок привлекает множество непрофессионалов, стремящихся к быстрым результатам, что размывает глубину научных исследований. Однако эксперты подчеркивают необходимость различать «разумное использование» и «злоупотребление».
Thomas G. Dietterich отметил, что для исследователей, не являющихся носителями английского языка (например, ученых из Китая), ИИ-инструменты действительно помогают повысить ясность изложения, и такой вспомогательный подход в написании статей в определенной степени улучшает коммуникацию и должен рассматриваться как положительный.
Однако более глубокая проблема — «загрязнение данных», угрожающее будущему развитию ИИ. Технологические гиганты, такие как Google, Anthropic и OpenAI, продвигают использование моделей как партнеров в исследованиях в области биологических наук и других отраслей, при этом эти модели обучаются на академических текстах.
Hany Farid отметил, что если обучающие данные будут насыщены синтетическим контентом, созданным человеком, производительность моделей значительно снизится.
Ранее исследования подтверждали, что при обучении крупных языковых моделей (LLM) на необработанных автоматизированных данных, модели в конечном итоге выходят из строя и начинают выдавать бессмысшую информацию. Руководитель научного отдела OpenAI Kevin Weil признал, что хотя ИИ может стать мощным ускорителем исследований, контроль и проверка человеком остаются необходимыми, поскольку технологические инструменты не могут полностью заменить строгий научный подход.