Les risques de l’intelligence artificielle générative pour les entreprises
Une étude menée par la société de conseil en logiciels GetApp (groupe Gartner) auprès d’utilisateurs français de ChatGPT révèle que 53 % d’entre eux n’examinent pas soigneusement chaque réponse générée par cette IA avant de l’utiliser. Les risques de dépendance excessive et de déshumanisation de la communication sont également soulignés.
« Les résultats de notre étude montrent que, malgré les avantages évidents, la plupart des employés estime que l’utilisation de ChatGPT et d’autres outils d’IA générative présente des inconvénients, notamment des problèmes éthiques majeurs », déclare GetApp.
Les principales inquiétudes éthiques relevées par l’étude sont les suivantes : 44 % des utilisateurs français de ChatGPT redoutent un risque de remplacement d’emploi, 38 % craignent une dépendance excessive, 37 % sont préoccupés par le respect de leur vie privée et de la confidentialité de leurs données, 32 % soulignent un usage abusif du contenu généré et 32 % pointent du doigt un manque de transparence dans l’utilisation des données.
Face à ces problèmes, GetApp recommande aux entreprises de mettre en place des réglementations internes, de former leurs équipes aux évolutions de l’IA, de vérifier systématiquement le contenu généré, de le corriger, de le personnaliser et de le considérer comme un complément à la réflexion plutôt qu’un substitut.
L’enquête révèle également que les utilisateurs français de ChatGPT sont préoccupés par les conséquences de son utilisation au travail. Ainsi, 36 % d’entre eux évoquent une dépendance excessive, 31 % craignent une automatisation et une déshumanisation des modes de communication, 30 % suspectent un possible piratage de ChatGPT, tandis que 26 % redoutent des informations potentiellement biaisées et non-objectives.
Les dangers pour une entreprise en cas de non-vérification du contenu généré par ChatGPT
Seulement 47 % des utilisateurs français de ChatGPT indiquent qu’ils relisent et vérifient attentivement chaque réponse générée par l’IA générative d’OpenAI. 48 % ne le font pas pour toutes les réponses et 5 % ne le font pas du tout ou seulement de manière ponctuelle. Cette négligence peut avoir des conséquences préjudiciables pour l’entreprise.
« Si le contenu généré par ChatGPT n’est pas soigneusement vérifié, une entreprise peut partager des écrits douteux à la fois en interne et en externe. Cela peut non seulement nuire à sa crédibilité, mais aussi l’amener à prendre de mauvaises décisions », met en garde GetApp.
Les risques encourus sont multiples : utilisation de données obsolètes, absence de sources, manque de cohérence, erreurs et superficialité.