ChatGPT génère un faux article scientifique… plutôt convaincant

Le texte produit par l’intelligence artificielle contenait 1992 mots et 17 citations. Quelle est la qualité du résultat final?






Par Johanna Amselem


L'ensemble du processus de creation d'article a pris environ une heure, sans aucune formation particuliere de l'utilisateur humain.
L’ensemble du processus de création d’article a pris environ une heure, sans aucune formation particulière de l’utilisateur humain.
© Martin ROCHE / OUEST-FRANCE / MAXPPP / PHOTOPQR/OUEST FRANCE/MAXPPP

LIntelligence artificielle est omniprésente, la boîte de Pandore a été ouverte. Dans le domaine médical, elle peut être d’une grande aide pour les praticiens. Par exemple, une récente étude a révélé comment elle permet de prédire les risques de propagation d’un cancer du sein agressif. Une autre avancée consiste en l’utilisation d’un modèle d’intelligence artificielle en complément de l’échocardiographie, ce qui permet un meilleur diagnostic des cardiopathies valvulaires.

Des reportages, des œuvres d’art, des recettes, etc. De nombreux contenus ont déjà été créés grâce à ChatGPT. Le Journal of Medical Internet Research a publié une étude récente montrant qu’il est également possible de créer de toutes pièces des articles scientifiques frauduleux qui ressemblent beaucoup à des articles authentiques.

À LIRE AUSSIPuce dans le cerveau : quand la réalité se joue de la fiction

En République tchèque, le docteur Martin Májovský et ses collègues ont étudié les capacités de l’intelligence artificielle à créer des articles médicaux de haute qualité dans le domaine de la neurochirurgie. Tout au long de la rédaction, les questions ont été affinées pour améliorer la qualité du résultat. « L’article généré par l’IA comprenait des sections standard telles que l’introduction, le matériel et les méthodes, les résultats et la discussion, ainsi qu’une fiche technique. Il contenait 1992 mots et 17 citations, et tout le processus de création d’article a duré environ une heure, sans aucune formation spécifique de l’utilisateur humain », indique l’étude.

Des inexactitudes et des erreurs sémantiques

Bien que l’article semble convaincant à première vue, certaines faiblesses sont apparues lors d’un examen plus approfondi du texte. En effet, des experts ont souligné la présence de certaines inexactitudes sémantiques et d’erreurs dans les références (informations incorrectes ou manquantes). « Certaines préoccupations et erreurs spécifiques ont été identifiées dans l’article généré, notamment dans les références. L’étude met en évidence le potentiel des modèles de langage d’IA actuels pour générer entièrement de faux articles scientifiques. Bien que les articles semblent sophistiqués et apparemment sans défaut, les lecteurs experts peuvent identifier des inexactitudes et des erreurs sémantiques lors d’une inspection plus approfondie », précisent les auteurs.

À LIRE AUSSIElon Musk : « L’intelligence artificielle peut nous manipuler »

Par conséquent, les chercheurs soulignent l’importance d’une vigilance accrue et de meilleures méthodes de détection pour lutter contre l’utilisation potentiellement abusive de l’intelligence artificielle dans la recherche scientifique. Il est donc nécessaire de combiner les connaissances et les performances de l’intelligence artificielle. « Dans le même temps, il est important de reconnaître les avantages potentiels de l’utilisation de modèles de langage d’IA dans la rédaction et la recherche scientifique authentique, comme la préparation de manuscrits et l’édition linguistique », concluent les auteurs.


Source : lepoint.fr

➡️ Accéder à CHAT GPT 4 en cliquant dessus

Veuillez vous connecter pour laisser un commentaire.