Actualités
Science artificielle

Des articles scientifiques fabriqués par GPT trouvés sur Google Scholar par des chercheurs en désinformation

L'école de politique publique de Harvard publie une revue sur la désinformation pour des articles universitaires évalués par des pairs promettant « des recherches fiables et impartiales sur la prévalence, la diffusion et l'impact de la désinformation dans le monde ».

Cette semaine, elle a rapporté que « les revues universitaires, les archives et les référentiels voient un nombre croissant d'articles de recherche douteux produits clairement à l'aide de l'IA générative (opens in a new tab) ».

Ils sont souvent créés avec des applications d'IA à usage général largement disponibles, très probablement ChatGPT, et imitent l'écriture scientifique. Google Scholar identifie et démasque facilement ces articles douteux par rapport aux recherches réputées et contrôlées en termes de qualité. Notre analyse d'une sélection d'articles scientifiques suspectés d'avoir été fabriqués par GPT et trouvés dans Google Scholar montre que beaucoup portent sur des sujets actuels, souvent controversés, susceptibles d'être désinformés : l'environnement, la santé et l'informatique.

Le risque accru de manipulation malveillante des informations qui sont à la base de la société, notamment dans les domaines politiquement conflictuels, est une préoccupation croissante... L'abondance d'« études » fabriquées qui s'infiltrent dans tous les domaines de la recherche menace de submerger le système de communication scientifique et de mettre en péril l'intégrité des archives scientifiques. Un deuxième risque réside dans la possibilité accrue que des contenus d'apparence scientifique et sérieuse aient en fait été créés de manière trompeuse à l'aide d'outils d'IA et soient également optimisés pour être récupérés par des moteurs de recherche universitaires accessibles au public, en particulier Google Scholar. Aussi minime soit-elle, cette possibilité et la prise de conscience de celle-ci risquent de saper les fondements de la confiance dans les connaissances scientifiques et posent de graves risques sociétaux.

« Notre analyse montre que des articles douteux et potentiellement manipulateurs fabriqués par GPT imprègnent l'infrastructure de recherche et sont susceptibles de devenir un phénomène répandu... » souligne l'article.

« La position centrale de Google Scholar dans l'infrastructure de communication scientifique accessible au public, ainsi que son manque de normes, de transparence et de responsabilité en termes de critères d'inclusion, ont des implications potentiellement graves pour la confiance du public dans la science. Cela risque d'exacerber le potentiel déjà connu d'exploitation de Google Scholar pour le piratage de preuves... »