Quand l’esprit s’égare : 80 % des utilisateurs croient aveuglément ChatGPT
L’Intelligence Artificielle et ses Impacts : Un Regard sur ChatGPT
Une Étude Éclairante
Que se passe-t-il lorsqu’on insère des erreurs dans les réponses données par ChatGPT sans que les utilisateurs ne soient prévenus ? Une étude menée sur 1 372 participants révèle que la majorité suit aveuglément les conseils de l’intelligence artificielle et se sent même plus confiante dans ses décisions après des erreurs.
La Transition vers une Pensée Artificielle
Traditionnellement, la psychologie cognitive distingue entre deux modes de pensée : la pensée intuitive (Système 1) et la pensée analytique (Système 2). Cependant, les chercheurs à la Wharton School, Steven Shaw et Gideon Nave, introduisent un nouveau concept : le Système 3, qui représente la cognition artificielle que l’on mobilise selon les besoins.
Les participants ont dû résoudre des problèmes de raisonnement tout en utilisant ou non un chatbot IA. Les résultats obtenus étaient façonnés de façon à tromper les utilisateurs par l’insertion d’erreurs dans les réponses fournies par l’IA.
Les Dangers de l’Acceptation Inconditionnelle
Les résultats de l’étude sont alarmants. Lorsqu’une réponse fournie par ChatGPT était incorrecte, près de 80 % des participants suivaient cette réponse. Leur précision chutait de 46 % sans l’IA à seulement 31 % avec une IA fautive. À l’inverse, une IA fiable permettait d’atteindre 71 % de précision. Étonnamment, même face à des réponses erronées, la confiance déclarée des participants augmentait.
Les utilisateurs n’utilisaient pas seulement le Système 3 pour aider leur raisonnement : ils ont souvent abandonné leur propre jugement en faveur des résultats de l’IA.
La Reddition Cognitive : Un Phénomène Inquiétant
Les chercheurs distinguent la reddition cognitive, un phénomène où les individus abandonnent leur propre jugement, de simples décisions où l’on délègue une tâche à une machine. Cela soulève des questions sur nos méthodes de raisonnement, particulièrement lorsque l’IA est impliquée.
Ajustements et Garde-fous
Les chercheurs ont essayé d’introduire des garde-fous en imposant des limites de temps pour exiger une réflexion plus rapide. Pourtant, cela n’a fait qu’aggraver le phénomène de capitulation. Malgré des tentatives de rémunération pour les bonnes réponses et d’indication immédiate des erreurs, il reste une nette différence entre les performances avec une IA fiable et celle avec une IA fautive.
Une Stratégie à Repenser
Il est crucial de noter que le problème ne réside pas uniquement dans l’IA, mais dans la manière dont elle nous influence. Tant que les interfaces continueront à favoriser une interaction fluide, notre réflexion critique, désignée par le Système 2, restera inactive. La solution passera probablement par l’introduction de plus de friction dans nos échanges avec l’IA.
Source : www.lesnumeriques.com