Un Norvégien défie l’IA : quand ChatGPT devient l’accusé

La plainte d’Arve Hjalmar Holmen contre OpenAI : une affaire de désinformation par l’IA
Arve Hjalmar Holmen, un citoyen norvégien, a récemment déposé une plainte contre OpenAI, la société à l’origine de ChatGPT, après que ce dernier ait produit des informations mensongères et préjudiciables à son sujet. L’affaire, qui soulève des questions sérieuses sur la responsabilité des intelligences artificielles dans la diffusion d’informations, met en lumière un phénomène déjà connu sous le nom d’« hallucination » des IA.
Le 20 mars, Holmen a révélé ses craintes concernant la capacité de l’IA à engendrer des récits fictifs qui pourraient être pris pour réels. En effet, lorsqu’il a demandé à ChatGPT des informations le concernant, le chatbot a prétendu, de manière totalement fallacieuse, qu’il avait été condamné pour l’assassinat de ses deux enfants et pour avoir tenté de tuer son troisième fils. Ce récit terrifiant contenait pourtant des éléments vrais sur la vie de Holmen, tels que le nombre et le sexe de ses enfants, ainsi que le nom de son lieu de résidence.
Une grave contravention au RGPD
Selon l’association de défense de la vie privée en ligne, noyb, qui a pris en charge le dossier, il s’agit sans conteste d’une atteinte aux lois sur la protection des données, notamment le règlement général sur la protection des données (RGPD). Ce dernier impose aux entreprises de garantir l’exactitude des données personnelles qu’elles traitent.
Depuis cette incident, OpenAI a toutefois modifié son modèle d’intelligence artificielle. En effet, ChatGPT a récemment eu la capacité d’effectuer des recherches en ligne pour obtenir des informations sur les individus, ce qui lui permettrait de ne plus associer Holmen à des actes criminels. Néanmoins, comme le souligne noyb, il est difficile de s’assurer que toutes les fausses informations ont été complètement supprimées des ensembles de données que le système continue de traiter.
Il est important de rappeler que les dérives de ChatGPT en matière de désinformation ne sont pas isolées. En 2023, le député Eric Bothorel a également déposé une plainte après que le chatbot ait généré des contenus inexacts à son sujet. Cela soulève des questions fondamentales sur la manière dont ces systèmes d’IA sont formés et sur leur capacité à traiter des informations sensibles de manière éthique.
Dans sa plainte, noyb demande à l’autorité norvégienne de protection des données d’imposer une amende à OpenAI afin de prévenir d’éventuelles récidives de violations similaires dans le futur. Cette situation illustre l’importance d’une régulation et d’une surveillance accrues dans le domaine de l’intelligence artificielle, pour protéger les individus contre les effets néfastes que des informations erronées peuvent engendrer.
Source : www.bfmtv.com