
Por Renato
Pernambucano
Editor, The Epoch
Times Brasil
A ascensão da inteligência artificial (IA) está transformando a produção científica — mas também a está corrompendo. Especialistas alertam para uma nova onda de fraudes acadêmicas: artigos fabricados com IA estão passando por verificadores de plágio e sendo publicados em periódicos científicos de renome.
O fenômeno, que já levou à retração de mais de 10 mil estudos em 2023, ameaça a credibilidade da pesquisa global e agrava o antigo problema das “paper mills” — empresas que vendem estudos e autorias falsas.
O avanço das falsificações acadêmicas com IA
Pesquisadores e analistas identificaram um aumento explosivo de artigos gerados por modelos de linguagem como ChatGPT, Gemini e Claude. Essas ferramentas produzem textos plausíveis e de aparência científica, mas sem base empírica. Um levantamento do Nature Portfolio mostrou que muitas dessas publicações passam por verificações tradicionais de plágio sem serem detectadas.
Um caso emblemático foi o do professor Diomidis Spinellis, da Universidade de Atenas, que descobriu seu nome usado indevidamente em artigos falsos. Após analisar 53 textos do Global International Journal of Innovative Research, ele concluiu que 48 haviam sido inteiramente gerados por IA.
Na Suécia, pesquisadores da Universidade de Borås identificaram mais de 100 artigos suspeitos no Google Scholar — uma plataforma que, segundo os autores, está se tornando um vetor de desinformação científica.
Impactos na confiança e na integridade científica
O principal risco, segundo especialistas, é a erosão da confiança pública e institucional na ciência. O pesquisador Michal Prywata comparou o fenômeno a um “ataque de negação de serviço”: os revisores são sobrecarregados, as citações se poluem e os estudos autênticos se perdem em meio ao ruído.
Nishanshi Shukla, especialista em ética da IA, alerta que a automação total da pesquisa leva à “homogeneização do conhecimento”, eliminando a diversidade metodológica e o pensamento crítico.
Nathan Wenzler, diretor de segurança da Optiv, acrescenta que o problema extrapola o campo acadêmico — ciberataques estatais agora podem usar IA para roubar pesquisas, modificá-las e republicá-las com pequenas alterações, comprometendo a propriedade intelectual e os investimentos científicos.
A consequência mais ampla, segundo Wenzler, é a perda de credibilidade social e o impacto financeiro em instituições dependentes de bolsas e fundos públicos.
Efeitos colaterais sociais e crise de confiança
A proliferação de estudos falsos ocorre em um contexto de desconfiança crescente na ciência e na IA. Uma pesquisa do Pew Research Center (2024) mostrou que apenas 26% dos norte-americanos confiam “muito” em cientistas — uma queda drástica em relação aos 87% de 2020.
Simultaneamente, um estudo do Brookings Institution revelou que informações sobre avanços em IA geram desconfiança mesmo em áreas não relacionadas, como medicina e linguística. Para Prywata, isso cria um ciclo perigoso: “as pessoas agora têm provas de que o sistema pode ser manipulado em larga escala — e isso é perigoso para a sociedade”.
As causas estruturais: a pressão para publicar
Shukla atribui a explosão de fraudes ao modelo de incentivo acadêmico, que valoriza quantidade sobre qualidade. O International Science Council confirma que rankings universitários e progressão de carreira são fortemente baseados no número de publicações, o que encoraja o uso de IA como atalho.
“Quando a produção científica é medida por volume, a IA fabricada vira o caminho mais rápido para o sucesso”, disse Shukla. Ela defende reduzir a pressão por publicação e adotar novos critérios de avaliação.
Caminhos e soluções possíveis
Os especialistas convergem em um ponto: a resposta não está em detectores de IA, mas em reformas profundas no sistema de publicação científica.
Prywata propõe responsabilizar financeiramente instituições e autores que divulgarem conteúdo falso e redirecionar o financiamento com base em impacto e qualidade de citação, não em volume.
Wenzler defende reforço na revisão por pares, com maior transparência e remuneração adequada — inclusive com revisões ao vivo e identificação pública dos revisores.
Ambos alertam que sem mudanças estruturais, o ciclo de retroalimentação continuará: artigos falsos treinam novas IAs, que por sua vez geram mais desinformação científica.
Conclusão
A fraude científica impulsionada por IA não é apenas um problema técnico, mas sistêmico. Ela expõe as fragilidades de um modelo acadêmico que privilegia produtividade sobre veracidade e revela os riscos de confiar cegamente em ferramentas automatizadas.
Caso não ocorram reformas estruturais e uma reconstrução da confiança entre ciência, tecnologia e sociedade, o conhecimento humano corre o risco de se transformar em um espelho de suas próprias ilusões — perfeitamente convincente, mas fundamentalmente falso.
Fonte: The Epoch
Times Brasil
