Procès contre OpenAI suite à une hallucination de ChatGPT : Le récit de l’histoire.

➡️ Accéder à CHAT GPT4 en cliquant dessus


Un chatbot d’IA poursuivi en diffamation

Les modèles d’IA générative

Les modèles d’IA générative sont des programmes d’IA capables de générer du contenu, comme du texte, de l’image ou du son. Cependant, ces modèles sont également connus pour générer des erreurs ou des « hallucinations ». C’est pourquoi ils sont généralement accompagnés d’une clause de non-responsabilité clairement affichée pour signaler ce problème.

ChatGPT accusé de désinformation

Malgré les avertissements concernant les hallucinations, Mark Walters, un animateur de radio américain, a poursuivi OpenAI, l’entreprise derrière le chatbot d’IA ChatGPT, pour diffamation. En effet, ChatGPT a diffusé des informations erronées à son sujet, l’accusant d’avoir détourné de l’argent. Il s’agit du premier procès en diffamation intenté à OpenAI.

Le problème de la désinformation

La désinformation a commencé lorsque Fred Riehl, rédacteur en chef d’une publication sur les armes à feu nommée AnmoLand, a demandé à ChatGPT un résumé d’une affaire juridique pour étayer un article qu’il était en train de rédiger. ChatGPT a fourni à Riehl un résumé de l’affaire qui indiquait que Walters était accusé d’avoir « fraudé et détourné des fonds pour des dépenses personnelles sans autorisation ni remboursement » et d’avoir « manipulé des documents financiers et des relevés bancaires pour dissimuler ses activités ». Cependant, Mark Walters n’a jamais été impliqué dans ce procès. Il n’a jamais été accusé d’avoir fraudé et détourné des fonds, et n’a jamais occupé le poste de trésorier ou de directeur financier.

Responsabilité et clauses de non-responsabilité

La question à résoudre dans le cadre de cette action en justice est de savoir qui doit être tenu pour responsable. Les clauses de non-responsabilité du site web concernant les hallucinations suffisent-elles à écarter la responsabilité, même si un préjudice est causé à quelqu’un ? L’issue de ce procès aura donc clairement un impact significatif sur l’établissement d’une norme dans le domaine de l’IA générative.

Conclusion

Ce procès soulève des questions importantes sur la responsabilité des chatbots d’IA générative en matière de désinformation. Les modèles d’IA générative peuvent générer des erreurs ou des hallucinations, et il est donc crucial de déterminer qui est responsable en cas de préjudice. Cette affaire est un exemple de la nécessité de mettre en place des règles et des réglementations pour encadrer l’utilisation de l’IA générative.

Source : www.zdnet.fr

➡️ Accéder à CHAT GPT 4 en cliquant dessus

Veuillez vous connecter pour laisser un commentaire.