Procès contre OpenAI suite à une hallucination de ChatGPT : Le récit de l’histoire.
➡️ Accéder à CHAT GPT4 en cliquant dessus
Un chatbot d’IA poursuivi en diffamation
Les modèles d’IA générative
Les modèles d’IA générative sont des programmes d’IA capables de générer du contenu, comme du texte, de l’image ou du son. Cependant, ces modèles sont également connus pour générer des erreurs ou des « hallucinations ». C’est pourquoi ils sont généralement accompagnés d’une clause de non-responsabilité clairement affichée pour signaler ce problème.
ChatGPT accusé de désinformation
Malgré les avertissements concernant les hallucinations, Mark Walters, un animateur de radio américain, a poursuivi OpenAI, l’entreprise derrière le chatbot d’IA ChatGPT, pour diffamation. En effet, ChatGPT a diffusé des informations erronées à son sujet, l’accusant d’avoir détourné de l’argent. Il s’agit du premier procès en diffamation intenté à OpenAI.
Le problème de la désinformation
La désinformation a commencé lorsque Fred Riehl, rédacteur en chef d’une publication sur les armes à feu nommée AnmoLand, a demandé à ChatGPT un résumé d’une affaire juridique pour étayer un article qu’il était en train de rédiger. ChatGPT a fourni à Riehl un résumé de l’affaire qui indiquait que Walters était accusé d’avoir « fraudé et détourné des fonds pour des dépenses personnelles sans autorisation ni remboursement » et d’avoir « manipulé des documents financiers et des relevés bancaires pour dissimuler ses activités ». Cependant, Mark Walters n’a jamais été impliqué dans ce procès. Il n’a jamais été accusé d’avoir fraudé et détourné des fonds, et n’a jamais occupé le poste de trésorier ou de directeur financier.
Responsabilité et clauses de non-responsabilité
La question à résoudre dans le cadre de cette action en justice est de savoir qui doit être tenu pour responsable. Les clauses de non-responsabilité du site web concernant les hallucinations suffisent-elles à écarter la responsabilité, même si un préjudice est causé à quelqu’un ? L’issue de ce procès aura donc clairement un impact significatif sur l’établissement d’une norme dans le domaine de l’IA générative.
Conclusion
Ce procès soulève des questions importantes sur la responsabilité des chatbots d’IA générative en matière de désinformation. Les modèles d’IA générative peuvent générer des erreurs ou des hallucinations, et il est donc crucial de déterminer qui est responsable en cas de préjudice. Cette affaire est un exemple de la nécessité de mettre en place des règles et des réglementations pour encadrer l’utilisation de l’IA générative.
Source : www.zdnet.fr