La CNIL italienne et la FTC se saisissent de l’impact de ChatGPT.


Le chatbot ChatGPT d’OpenAI critiqué par deux organismes de régulation

Le GDDP italien dénonce des manquements au RGPD

L’organisme italien de régulation de la protection des données personnelles, le GDDP (Garante Per la Protezione dei Dati Personali), a décidé de bloquer temporairement l’accès au chatbot ChatGPT d’OpenAI pour les utilisateurs italiens en raison de plusieurs manquements présumés à la législation européenne sur la protection des données.

Des manquements à la législation européenne

D’après le communiqué du GDDP, OpenAI aurait omis d’informer les utilisateurs et toutes les parties concernées de la collecte des données personnelles effectuée sur ChatGPT. L’autorité souligne également l’absence de base légale pour justifier la collecte massive de données personnelles servant à entraîner les algorithmes sous-tendant la plateforme.

Le GDDP estime également que ChatGPT s’adresse à un public âgé de plus de 13 ans, mais ne dispose pas de filtre de vérification de l’âge des utilisateurs. En conséquence, le GDDP a donné à OpenAI 20 jours pour corriger ces manquements, assortis d’une amende de 20 millions d’euros ou jusqu’à 4 % de son chiffre d’affaires annuel en cas de non-conformité.

La FTC américaine saisie

Le Center for AI and Digital Policy, un groupe spécialisé dans l’éthique de l’IA, a saisi la FTC (Federal Trade Commission) aux États-Unis, exhortant l’organisme à prendre des mesures contre GPT-4 d’OpenAI, le nouveau modèle de l’algorithme ChatGPT qui a été présenté ce mois-ci.

Des risques pour la sécurité publique dénoncés

L’association avertit que GPT-4 pourrait engendrer des codes malveillants, de la propagande personnalisée, des données d’entraînement biaisées, ainsi que des stéréotypes intégrés ou des préférences injustes en matière de race et de sexe dans des domaines tels que l’embauche.

L’association a également souligné un bug de sécurité survenu la semaine dernière dans un logiciel open source utilisé par ChatGPT, redis py, qui a exposé les données personnelles de certains utilisateurs tels que leurs noms, prénoms, adresses e-mail et de paiement, ainsi qu’une partie de leur historique de chats. OpenAI avait alors retiré temporairement ChatGPT pour une mise à jour corrective. Toutefois, cet incident soulève la question de la protection des données personnelles des utilisateurs.

Conclusion

Le chatbot ChatGPT d’OpenAI est critiqué par deux organismes de régulation pour des manquements à la protection des données personnelles et des risques pour la sécurité publique. L’éditeur américain doit répondre aux demandes du GDDP italien sous peine d’amende, tandis que la FTC américaine doit décider des suites à donner à la plainte du Center for AI and Digital Policy.

Source : www.lemondeinformatique.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Les Italiens font face à des restrictions drastiques sur l’utilisation de ChatGPT



Enquête de l’agence italienne de protection des données sur ChatGPT d’OpenAI

L’agence italienne de protection des données ouvre une enquête sur ChatGPT d’OpenAI

L’autorité italienne de protection des données a ouvert une enquête sur ChatGPT d’OpenAI, un chatbot que l’entreprise a conçu pour fournir des réponses à des questions posées par les utilisateurs. Selon les autorités, OpenAI a enfreint les règles de collecte de données et n’a pas vérifié l’âge de ses utilisateurs. L’agence a également restreint l’utilisation des données personnelles des utilisateurs italiens par le chatbot.

ChatGPT a perdu des données de ses utilisateurs

ChatGPT a également subi une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant. Les informations fournies par ChatGPT ne correspondent pas toujours aux données réelles, ce qui conduit à un traitement inexact des données à caractère personnel, accuse l’autorité italienne.

ChatGPT est utilisé dans de nombreuses entreprises

ChatGPT est également utilisé dans de nombreuses entreprises. Stéphane Roder, CEO d’AI Builders, affirme avoir observé le cas d’une grande banque d’affaire dont les informations issues de ses documents sont ressorties dans des requêtes externes à l’entreprise. Il estime que les entreprises doivent veiller à utiliser des LLM européens tels que Lighton ou Aleph Alfa et mettre en place des règles strictes de partage des données internes avant d’utiliser ce type de service pour le grand public.

OpenAI doit communiquer les mesures prises dans les 20 jours

OpenAI, qui n’a pas de bureau dans l’Union Européenne mais a désigné un représentant dans l’Espace économique européen, doit communiquer les mesures prises dans les 20 jours pour donner suite à la demande de l’autorité italienne. L’entreprise risque une amende pouvant aller jusqu’à 20 millions d’euros ou jusqu’à 4 % du chiffre d’affaires annuel mondial si elle n’agit pas.

Europol met en garde contre l’utilisation abusive de ChatGPT

ChatGPT est l’application grand public à la croissance la plus rapide de l’histoire, avec 100 millions d’utilisateurs actifs mensuels en janvier, seulement deux mois après son lancement. Cependant, Europol a mis en garde contre l’utilisation abusive du chatbot dans les tentatives d’hameçonnage, la désinformation et la cybercriminalité, ajoutant sa voix à d’autres qui s’inquiètent de problématiques juridiques, éthiques et de sécurité informatique posées par cette nouvelle technologie.

Source : www.zdnet.fr

➡️ Accéder à CHAT GPT en cliquant dessus




30 blagues hilarantes pour le 1er avril recommandées par ChatGPT



Découvrez les idées de poissons d’avril proposées par ChatGPT à faire au bureau, à la maison ou sur les réseaux sociaux !

Chaque année, pour le 1er avril, beaucoup de gens cherchent des idées de blagues pour piéger leur famille, leurs collègues ou leurs amis. Pour cela, ChatGPT, un chatbot d’OpenAI, a été sollicité pour proposer des blagues. Cependant, il est important de faire attention à ne pas dépasser certaines limites et de ne pas gâcher la productivité de travail.

10 poissons d’avril à faire à ses collègues

Le chatbot a d’abord proposé des idées difficiles à mettre en place pour des blagues de bureau. Puis, après des précisions, il a proposé des idées plus réalisables pour piéger les collègues de travail. Néanmoins, il est toujours important de rester courtois et de ne pas nuire au travail.

10 poissons d’avril à faire à la maison

En demandant des idées de blagues pour le 1er avril à faire chez soi, ChatGPT a proposé des réponses plus enfantines. Certaines idées sont également assez similaires. Par exemple, il propose plusieurs fois d’ajouter des gouttes de colorant alimentaire pour transformer de l’eau en liquide coloré. Pour la plupart, ces idées ne requièrent pas beaucoup de préparation, mais il est toujours important de faire attention à ne pas effrayer ou blesser les proches.

10 poissons d’avril à faire sur les réseaux sociaux

Le chatbot est également capable de proposer des idées de blagues à publier sur les réseaux sociaux. Cependant, les premières réponses étaient encore difficiles à réaliser et parfois incompréhensibles. Finalement, après des ajustements, ChatGPT a suggéré des idées plus simples et qui ne nécessitent pas de matériel spécifique. Il est possible de publier des blagues qui se réfèrent aux événements récents en utilisant une dose d’humour.

Conclusion

ChatGPT a été sollicité pour proposer des idées de poissons d’avril à faire au bureau, à la maison ou sur les réseaux sociaux. Cependant, il est toujours important de faire attention à ne pas gêner ou blesser les autres et de ne pas nuire aux tâches quotidiennes. Il faut également faire le tri parmi les idées proposées par le chatbot pour sélectionner celles qui conviennent le mieux à la situation.

Source : blogdumoderateur.com

➡️ Accéder à CHAT GPT en cliquant dessus




Procédure engagée par l’Italie contre ChatGPT



Autorités italiennes interdisent la collecte de données par ChatGPT

Les autorités italiennes ont imposé une interdiction immédiate de collecte de données par le robot conversationnel ChatGPT. Cette décision intervient après que ChatGPT a été accusé de ne pas respecter la législation sur les données personnelles. L’autorité italienne de protection des données personnelles a reproché à ChatGPT de ne pas vérifier l’âge de ses utilisateurs, ce qui expose les mineurs à des réponses non appropriées. Elle a également noté l’absence d’une note d’information aux utilisateurs dont les données sont récoltées et l’absence d’une base juridique justifiant la conservation des données personnelles. Les autorités italiennes ont demandé à OpenAI, le fournisseur de technologie derrière ChatGPT, de communiquer les mesures prises pour remédier à cette situation. À défaut, OpenAI pourrait faire face à des sanctions allant jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial.

Bloquage de comptes et perte de données

Selon Le Monde, ChatGPT ne peut plus être accédé par les citoyens italiens car il est interdit à OpenAI d’utiliser leurs données personnelles. Cependant, l’accès au site semble pour l’heure toujours possible pour les internautes italiens. Le quotidien italien Corriere della Sera a rapporté que l’autorité de régulation de la vie privée a demandé à OpenAI de bloquer l’accès à tous les comptes enregistrés avec une adresse e-mail italienne dans les prochains jours. Cette demande intervient après que ChatGPT a subi une perte de données le 20 mars concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant.

Les limites morales de l’IA

ChatGPT, qui est destiné aux personnes de plus de 13 ans, a été créé pour offrir un chatbot qui puisse générer des conversations plus humaines que les outils existants. En février 2023, Le Monde avait testé les limites morales de l’intelligence artificielle génératrice de contenus. Le test avait consisté à donner à ChatGPT des sujets problématiques, tels que l’inceste ou l’apologie du terrorisme, pour examiner la réponse de l’IA. Le Monde avait conclu que « ChatGPT n’est pas une incarnation du mal, sinon qu’il reflète, comme un miroir brouillé, les problèmes et les préjugés de la société humaine, tout en obéissant à la logique de calcul inhérente à l’IA ».

Conclusion

Les autorités italiennes ont pris des mesures pour protéger les données personnelles de leurs citoyens en imposant une interdiction de collecte de données par ChatGPT. Si OpenAI ne communique pas les mesures prises pour remédier à cette situation dans les prochains jours, ils pourraient faire face à des sanctions allant jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial. Cette décision soulève des questions sur l’utilisation de l’IA et la protection des données personnelles. ChatGPT a été créé pour générer des conversations plus humaines, mais cela comporte également des risques, notamment pour les mineurs. Il convient donc de veiller à ce que les applications d’IA soient conformes à la réglementation, en particulier en matière de protection des données et de respect de la vie privée.

Source : www.lemonde.fr

➡️ Accéder à CHAT GPT en cliquant dessus