De acordo com o editorial do departamento editorial da revista científica de topo em gestão Organization Science (da INFORMS) para 2026, intitulado 《More Versus Better: Artificial Intelligence, Incentives, and the Emerging Crisis in Peer Review》, desde que o ChatGPT foi lançado no final de 2022, a submissão de artigos para a revista aumentou 42%, obrigando os Deputy editors a expandirem de 6 para 11 e os active senior editors de cerca de 30 para cerca de 60. Ethan Mollick, professor da Wharton, citou a peça em 27/4 e comentou: “Os sistemas científicos concebidos para seres humanos estão a ficar tensos por causa da IA. A IA pode ser usada para fazer ciência melhor, ou pode ser usada apenas para ‘fazer mais coisas’. O perigo é que ‘mais’ esteja a vencer.”
Submissões disparam 42%, equipa editorial duplica para responder
Os dados da Organization Science mostram a pressão concreta que o sistema de peer review (revisão por pares) enfrenta na era da IA:
Submissões: aumento de 42% após o lançamento do ChatGPT
Deputy editors: 6 → 11 (aumento de 83%)
active senior editors: cerca de 30 → cerca de 60 (duplicar)
A maior parte das submissões continua a ser rejeitada, e muitas ainda são eliminadas já na fase inicial de triagem pelo deputy editor, mas a “carga da triagem inicial” continua a ser grande
O editorial assinala claramente que o problema não é “a IA substituir os investigadores”, mas sim “a IA fazer entrar, em avalancha, submissões de baixa qualidade”. Os volunteer editors e reviewers (na sua maioria outros académicos a assumir a tarefa de forma voluntária) são os primeiros a serem atingidos: têm de despender mais tempo a selecionar artigos montados com IA, e o tempo que deveria ser dedicado à investigação verdadeiramente de alta qualidade acaba por ser comprimido.
Mollick: “A IA pode fazer ciência melhor, ou pode fazer mais coisas”
Quando partilhou este editorial no X, Ethan Mollick, professor da Wharton e pioneiro no ensino de IA generativa, comentou e isso tocou no cerne da controvérsia:
“Very cool analysis of the submissions to a major management journal that shows how much the system of science, built for humans, is under strain as a result of AI. AI can be used to do better science or it can be used to just do more stuff. The danger is that ‘more’ is winning.”
Numas publicações posteriores, ele acrescentou: “The problem is that the incentives push for ‘more’ over ‘better’”. Esta frase aponta diretamente para o problema estrutural na academia — a pressão profissional do publish or perish faz com que os académicos prefiram produzir em massa em vez de se dedicarem em profundidade.
Significado inverso para a indústria das ferramentas de IA
A observação da Organization Science levanta desafios concretos para a indústria de ferramentas de IA:
Em primeiro lugar, poderão ferramentas de escrita/programação por agentes como OpenAI Codex, Claude Code, Gemini, etc., ser desenhadas com mecanismos de “garantia de qualidade”? Por exemplo, citar automaticamente artigos verdadeiros, detetar hallucinations evidentes, distinguir se um artigo é uma “reorganização montada”? Atualmente, a maioria das ferramentas de IA compete principalmente em velocidade e conveniência; ninguém vende o argumento de venda “recusar produzir conteúdo de baixa qualidade”.
Em segundo lugar, o mercado de ferramentas de contramedida na indústria da publicação académica está a emergir. Ferramentas como Originality.ai, Turnitin AI Detection e GPTZero, embora tentem detetar escrita gerada por IA, dificilmente ganham a longo prazo uma “corrida” contra o próprio LLM. A solução mais provável é “a rastreabilidade da investigação humana” — por exemplo, provar o processo de investigação com o histórico de commits do GitHub, registos experimentais originais, apontamentos em tempo real, em vez de apenas entregar um produto final.
A academia não é um caso isolado: que indústrias também serão esmagadas pela avalanche de “mais”?
A revisão por pares académica é apenas o primeiro sistema “concebido por humanos” e “dependente de avaliadores voluntários” a ser atingido. Também são igualmente frágeis:
Comunidades de código open source: revisão de PR no GitHub, maintainer de projetos open source já foram inundados por PRs de baixa qualidade submetidos por IA
Submissões jornalísticas e edição mediática: aumento explosivo de submissões de autores independentes, e editores de notícias com dificuldade em distinguir conteúdos gerados por IA
Revisão de documentos jurídicos: produção em massa de documentos contratuais e de litígios por IA, com aumento acentuado do tempo de revisão para advogados
Trabalhos dos alunos e admissão universitária: o número de candidaturas e trabalhos de sala de aula está muito acima da capacidade da estrutura docente
Em comum: todos os sistemas que dependem de uma “revisão obrigatória por especialistas humanos”, quando a IA reduz o custo marginal da produção para perto de zero, acabam por sofrer uma “colapso do lado da revisão”. A solução da Organization Science é expandir o pessoal (de 6 deputy para 11), mas isso apenas adia o problema, não o resolve.
Conclusão: “melhor” exige novos mecanismos sociais
As palavras finais do editorial têm um significado profundo — “o julgamento de especialistas humanos continua a limitar o impacto negativo da IA no conteúdo publicado, mas o preço é o aumento substancial dos esforços.” Em outras palavras: a qualidade académica não entrou imediatamente em colapso, mas o tempo gasto por cada editor/revisor duplica; o “equilíbrio de energia” do sistema foi quebrado.
O desafio da próxima fase: como fazer com que as próprias ferramentas de IA assumam uma responsabilidade de design orientada para a “qualidade” (e não para a “quantidade”), como fazer com que os mecanismos de incentivos voltem a recompensar “profundidade”, e como tornar os custos da revisão por especialistas humanos devidamente compensados. Tudo isto não é um problema técnico, é um problema social e institucional — e a IA acelera estes problemas de “serem tratados lentamente no futuro” para “agora ter de ser encarados”.
Este artigo: após a aparição do ChatGPT, a submissão de artigos em revistas de gestão aumentou 42%: a IA empurra a academia para o “mais” e não para o “melhor”. Apareceu pela primeira vez em 鏈新聞 ABMedia.
Related News
A ChatGPT da OpenAI não atingiu a meta de receitas; o diretor financeiro admitiu que as despesas com capacidade de computação podem não ser pagas
A OpenAI não atingiu vários objectivos de vendas, e o CFO questiona se a preparação para a listagem no final do ano é insuficiente
Arthur Hayes: As despesas com a guerra estão a injectar grandes quantias de capital no mercado, e o Bitcoin atinge 125.000 dólares até ao final do ano
A Bitmine reforçou a sua posição com mais de 100.000 ETH na semana passada, elevando o total de participações para mais de 5 milhões de ETH
Estudo: Os 3% de traders experientes da Polymarket impulsionam a precisão, não as multidões