O abuso de IA varre o mundo académico, levando a uma queda na qualidade dos artigos e do processo de revisão, com conteúdos incorretos infiltrando o sistema de pesquisa. Conferências internacionais estão a reforçar urgentemente as normas, e a confiança na academia enfrenta uma crise iminente.
A maré de IA está a reverter a indústria de investigação, a qualidade dos artigos científicos enfrenta uma crise de colapso
No contexto do rápido desenvolvimento das tecnologias de inteligência artificial a nível global, o mundo da investigação está a mergulhar numa crise de confiança sem precedentes. Nos últimos anos, o sistema de revisão de conferências académicas de topo foi inundado por submissões de baixa qualidade, e os investigadores descobriram que a proporção de contributo humano nos artigos e na avaliação por pares (Peer Review) está a diminuir significativamente. Este fenómeno levanta preocupações que vão além de mudanças no estilo de escrita, centrando-se na precisão do conteúdo. Quando a exatidão se torna a base da investigação académica, as ferramentas automatizadas que geram erros estão a infiltrar-se silenciosamente nos resultados de pesquisa.
Inioluwa Deborah Raji, investigadora da Universidade da Califórnia em Berkeley (UC Berkeley), aponta que a comunidade académica está entusiasmada com a transformação da IA em outros setores, mas, ironicamente, esse próprio setor está a cair no caos devido ao uso excessivo de IA.
Dados indicam que a escala desta crise atingiu um nível de alerta. Segundo um relatório de agosto de 2025 da Universidade de Stanford, até 22% dos artigos na indústria de ciência da computação mostram sinais de uso de grandes modelos de linguagem (LLM). Uma análise de texto realizada pela startup Pangram, para a conferência internacional de representação de aprendizagem (ICLR) de 2025, revelou que cerca de 21% dos pareceres de revisão foram totalmente gerados por IA, e mais da metade do processo de revisão utilizou edição assistida por IA. Ainda mais chocante, aproximadamente 9% dos artigos submetidos continham mais da metade do conteúdo produzido por IA.
Thomas G. Dietterich, professor honorário da Universidade Estadual de Oregon, observa que o volume de uploads na plataforma de pré-publicações arXiv também aumentou drasticamente, parcialmente devido ao influxo de investigadores, mas claramente impulsionado pelo uso de ferramentas de IA.
Mecanismos de revisão parecem ineficazes? Conferências de topo adotam medidas severas
Diante do fluxo de artigos de baixa qualidade e comentários automatizados, a comunidade académica atingiu um ponto de inflexão onde é imperativo agir. Em novembro de 2024, os revisores do ICLR descobriram um artigo suspeito de ter sido gerado por IA, que obteve uma pontuação entre os 17% superiores de todas as submissões, levantando fortes dúvidas sobre o sistema de avaliação atual. Em janeiro de 2025, a empresa de deteção GPTZero, ao analisar 50 artigos apresentados na conferência NeurIPS, revelou mais de 100 erros de geração automática. Estes erros incluíam referências fictícias e dados incorretos em gráficos, comprometendo gravemente a integridade científica.
Para combater este fenómeno, o ICLR atualizou as normas de submissão: se um artigo não revelar de forma transparente o uso extensivo de modelos de linguagem, será rejeitado; além disso, revisores que submeterem comentários automatizados de baixa qualidade enfrentarão a rejeição dos seus próprios artigos.
Hany Farid, professor de ciência da computação na UC Berkeley, alerta severamente que, se a comunidade científica continuar a publicar artigos incorretos e de baixa qualidade, a sociedade perderá a confiança fundamental nos cientistas. Na verdade, a velocidade de crescimento do número de artigos já supera o avanço das tecnologias de deteção. Por exemplo, no NeurIPS, em 2020, foram submetidos 9.467 artigos, crescendo para 17.491 em 2024, e atingindo 21.575 em 2025. Há casos extremos de autores que submetem mais de 100 artigos num único ano, claramente além do limite normal de produção de um investigador humano. Atualmente, a comunidade académica ainda carece de um padrão unificado para a deteção automática de textos, dificultando a prevenção.
Fonte da imagem: Prof. Hany Farid, Universidade da Califórnia em Berkeley
Pressões comerciais e poluição de dados, a longa luta da investigação
Por trás desta inflação académica, estão complexas dinâmicas de competição empresarial e considerações práticas. Com salários elevados na indústria de IA e uma competição tecnológica cada vez mais acirrada, parte do foco da investigação científica tem sido direcionado para a quantidade de produção, em detrimento da qualidade. A hiperbolização do mercado atrai muitos amadores que buscam resultados rápidos, diluindo a profundidade académica. No entanto, os especialistas também destacam a importância de distinguir entre “uso razoável” e “abuso”.
Thomas G. Dietterich refere que, para investigadores que não têm o inglês como língua materna (como académicos chineses), as ferramentas de IA podem ajudar a melhorar a clareza da expressão linguística, e esse tipo de assistência na escrita deve ser visto como um uso positivo.
Por outro lado, a crise mais profunda reside na “poluição de dados”, que ameaça o futuro do desenvolvimento da IA. Gigantes tecnológicos como Google, Anthropic e OpenAI estão a promover modelos como parceiros de investigação em áreas como ciências da vida, e esses modelos são treinados com textos académicos.
Hany Farid afirma que, se os dados de treino estiverem repletos de conteúdos sintéticos gerados por humanos, o desempenho dos modelos irá deteriorar-se significativamente.
Pesquisas anteriores já demonstraram que, ao alimentar LLM com dados automatizados não filtrados, os modelos acabam por colapsar e gerar informações sem sentido. Kevin Weil, responsável pelo departamento científico da OpenAI, admite que, embora a IA possa acelerar significativamente a investigação, a supervisão e verificação humanas são essenciais, e as ferramentas tecnológicas nunca poderão substituir a rigorosidade do método científico.
Este conteúdo foi compilado pelo agente de criptografia, reunindo informações de várias fontes, revisado e editado pela “Cidade Encriptada”. Ainda em fase de treino, pode conter desvios lógicos ou imprecisões. O conteúdo é apenas para referência, não constituindo aconselhamento de investimento.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Explosão de artigos de IA descontrolada! Conferência académica internacional ICLR intervém, a organizar submissões de baixa qualidade
O abuso de IA varre o mundo académico, levando a uma queda na qualidade dos artigos e do processo de revisão, com conteúdos incorretos infiltrando o sistema de pesquisa. Conferências internacionais estão a reforçar urgentemente as normas, e a confiança na academia enfrenta uma crise iminente.
A maré de IA está a reverter a indústria de investigação, a qualidade dos artigos científicos enfrenta uma crise de colapso
No contexto do rápido desenvolvimento das tecnologias de inteligência artificial a nível global, o mundo da investigação está a mergulhar numa crise de confiança sem precedentes. Nos últimos anos, o sistema de revisão de conferências académicas de topo foi inundado por submissões de baixa qualidade, e os investigadores descobriram que a proporção de contributo humano nos artigos e na avaliação por pares (Peer Review) está a diminuir significativamente. Este fenómeno levanta preocupações que vão além de mudanças no estilo de escrita, centrando-se na precisão do conteúdo. Quando a exatidão se torna a base da investigação académica, as ferramentas automatizadas que geram erros estão a infiltrar-se silenciosamente nos resultados de pesquisa.
Inioluwa Deborah Raji, investigadora da Universidade da Califórnia em Berkeley (UC Berkeley), aponta que a comunidade académica está entusiasmada com a transformação da IA em outros setores, mas, ironicamente, esse próprio setor está a cair no caos devido ao uso excessivo de IA.
Dados indicam que a escala desta crise atingiu um nível de alerta. Segundo um relatório de agosto de 2025 da Universidade de Stanford, até 22% dos artigos na indústria de ciência da computação mostram sinais de uso de grandes modelos de linguagem (LLM). Uma análise de texto realizada pela startup Pangram, para a conferência internacional de representação de aprendizagem (ICLR) de 2025, revelou que cerca de 21% dos pareceres de revisão foram totalmente gerados por IA, e mais da metade do processo de revisão utilizou edição assistida por IA. Ainda mais chocante, aproximadamente 9% dos artigos submetidos continham mais da metade do conteúdo produzido por IA.
Thomas G. Dietterich, professor honorário da Universidade Estadual de Oregon, observa que o volume de uploads na plataforma de pré-publicações arXiv também aumentou drasticamente, parcialmente devido ao influxo de investigadores, mas claramente impulsionado pelo uso de ferramentas de IA.
Mecanismos de revisão parecem ineficazes? Conferências de topo adotam medidas severas
Diante do fluxo de artigos de baixa qualidade e comentários automatizados, a comunidade académica atingiu um ponto de inflexão onde é imperativo agir. Em novembro de 2024, os revisores do ICLR descobriram um artigo suspeito de ter sido gerado por IA, que obteve uma pontuação entre os 17% superiores de todas as submissões, levantando fortes dúvidas sobre o sistema de avaliação atual. Em janeiro de 2025, a empresa de deteção GPTZero, ao analisar 50 artigos apresentados na conferência NeurIPS, revelou mais de 100 erros de geração automática. Estes erros incluíam referências fictícias e dados incorretos em gráficos, comprometendo gravemente a integridade científica.
Para combater este fenómeno, o ICLR atualizou as normas de submissão: se um artigo não revelar de forma transparente o uso extensivo de modelos de linguagem, será rejeitado; além disso, revisores que submeterem comentários automatizados de baixa qualidade enfrentarão a rejeição dos seus próprios artigos.
Hany Farid, professor de ciência da computação na UC Berkeley, alerta severamente que, se a comunidade científica continuar a publicar artigos incorretos e de baixa qualidade, a sociedade perderá a confiança fundamental nos cientistas. Na verdade, a velocidade de crescimento do número de artigos já supera o avanço das tecnologias de deteção. Por exemplo, no NeurIPS, em 2020, foram submetidos 9.467 artigos, crescendo para 17.491 em 2024, e atingindo 21.575 em 2025. Há casos extremos de autores que submetem mais de 100 artigos num único ano, claramente além do limite normal de produção de um investigador humano. Atualmente, a comunidade académica ainda carece de um padrão unificado para a deteção automática de textos, dificultando a prevenção.
Fonte da imagem: Prof. Hany Farid, Universidade da Califórnia em Berkeley
Pressões comerciais e poluição de dados, a longa luta da investigação
Por trás desta inflação académica, estão complexas dinâmicas de competição empresarial e considerações práticas. Com salários elevados na indústria de IA e uma competição tecnológica cada vez mais acirrada, parte do foco da investigação científica tem sido direcionado para a quantidade de produção, em detrimento da qualidade. A hiperbolização do mercado atrai muitos amadores que buscam resultados rápidos, diluindo a profundidade académica. No entanto, os especialistas também destacam a importância de distinguir entre “uso razoável” e “abuso”.
Thomas G. Dietterich refere que, para investigadores que não têm o inglês como língua materna (como académicos chineses), as ferramentas de IA podem ajudar a melhorar a clareza da expressão linguística, e esse tipo de assistência na escrita deve ser visto como um uso positivo.
Por outro lado, a crise mais profunda reside na “poluição de dados”, que ameaça o futuro do desenvolvimento da IA. Gigantes tecnológicos como Google, Anthropic e OpenAI estão a promover modelos como parceiros de investigação em áreas como ciências da vida, e esses modelos são treinados com textos académicos.
Hany Farid afirma que, se os dados de treino estiverem repletos de conteúdos sintéticos gerados por humanos, o desempenho dos modelos irá deteriorar-se significativamente.
Pesquisas anteriores já demonstraram que, ao alimentar LLM com dados automatizados não filtrados, os modelos acabam por colapsar e gerar informações sem sentido. Kevin Weil, responsável pelo departamento científico da OpenAI, admite que, embora a IA possa acelerar significativamente a investigação, a supervisão e verificação humanas são essenciais, e as ferramentas tecnológicas nunca poderão substituir a rigorosidade do método científico.
Este conteúdo foi compilado pelo agente de criptografia, reunindo informações de várias fontes, revisado e editado pela “Cidade Encriptada”. Ainda em fase de treino, pode conter desvios lógicos ou imprecisões. O conteúdo é apenas para referência, não constituindo aconselhamento de investimento.