La réglementation de l’intelligence artificielle dans l’Union européenne : Reconnaissance faciale, “deepfakes”, ChatGPT
➡️ Accéder à CHAT GPT4 en cliquant dessus
Titre HTML 1: Le Parlement européen approuve un règlement pour encadrer l’intelligence artificielle dans l’UE
Titre HTML 2: Classification des intelligences artificielles et interdictions strictes de la reconnaissance faciale
Titre HTML 3: Contrôles pour les technologies à “haut risque” et garanties pour les citoyens
Titre HTML 4: Règles de transparence pour les intelligences artificielles à “risque limité”
Titre HTML 5: Exigences spécifiques pour les intelligences artificielles génératives
Le Parlement européen approuve un règlement pour encadrer l’intelligence artificielle dans l’UE
Mercredi, le Parlement européen a approuvé un texte visant à réguler le secteur de l’intelligence artificielle (IA) dans l’Union européenne. Cette décision marque la volonté de l’UE de poser le premier cadre juridique au monde contre les dérives de l’IA. La proposition de règlement, appelée “Artificial Intelligence Act”, a été présentée par la Commission européenne en avril 2021. Le texte adopté par le Parlement européen inclut de nouvelles interdictions, telles que l’utilisation de la reconnaissance faciale dans les lieux publics par des systèmes dédiés. Cependant, le règlement nécessite encore des négociations entre les différentes institutions pour parvenir à un accord final. Le commissaire Thierry Breton, qui a porté le texte avec sa collègue Margrethe Vestager, a appelé à conclure le processus dans les prochains mois. Il a souligné l’importance d’agir rapidement et de prendre ses responsabilités face aux questions sociales, éthiques et économiques soulevées par l’IA. Cependant, le règlement n’entrera en vigueur qu’en 2026, au mieux.
Classification des intelligences artificielles et interdictions strictes de la reconnaissance faciale
Le projet européen repose sur une classification des intelligences artificielles en fonction du niveau de risque qu’elles présentent. L’UE prévoit d’interdire les systèmes qui posent un “risque inacceptable” et constituent une menace pour les personnes. Cela inclut notamment les “systèmes d’identification biométrique en temps réel et à distance”, tels que la reconnaissance faciale dans les lieux publics. Cependant, le projet de règlement prévoit des exceptions pour permettre aux forces de l’ordre d’accéder à ces dispositifs d’identification, sous réserve d’une autorisation judiciaire ou administrative, dans le but de prévenir une attaque terroriste, de rechercher des enfants disparus ou une personne visée par un mandat européen après un “crime grave”. Les eurodéputés ont amendé ces exceptions en ne permettant l’utilisation de systèmes d’identification qu'”a posteriori” et uniquement pour la poursuite d’infractions graves après autorisation judiciaire. En plus de cela, l’UE prévoit d’interdire les systèmes de notations sociales, qui classent les individus en fonction de leur comportement ou de leur statut socio-économique. Les technologies manipulant des personnes vulnérables, telles que les enfants ou les personnes handicapées, sont également ciblées par le règlement.
Contrôles pour les technologies à “haut risque” et garanties pour les citoyens
L’UE souhaite également imposer des règles aux intelligences artificielles considérées comme “à haut risque”. Cela inclut les systèmes utilisés dans des domaines sensibles tels que la gestion et l’exploitation des infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre et la gestion des migrations et du contrôle des frontières. Les eurodéputés ont ajouté à cette liste les systèmes utilisés pour influencer les électeurs lors de campagnes politiques et les dispositifs des systèmes de recommandations utilisés par les plateformes de médias sociaux. Ces technologies seront soumises à plusieurs obligations, notamment la nécessité de prévoir un contrôle humain ou un système de gestion des risques. Le respect de ces règles sera contrôlé par des autorités de surveillance désignées dans chaque pays membre. Les eurodéputés souhaitent également soutenir le droit des citoyens à porter plainte contre des systèmes d’IA et à recevoir des explications concernant les décisions prises sur la base de technologies classées à “haut risque”.
Règles de transparence pour les intelligences artificielles à “risque limité”
Dans les secteurs où les risques sont considérés comme “limités”, la Commission et le Parlement européen plaident en faveur de règles de “transparence minimale”. Les utilisateurs devront être informés qu’ils sont en présence d’une IA. Cela concerne notamment les applications qui génèrent ou manipulent des contenus audiovisuels tels que les “deepfakes”. Cependant, ces technologies ne seront pas soumises à une évaluation préalable avant leur mise sur le marché. Les exploitants pourront utiliser leur système immédiatement, mais seront tenus de fournir des explications sur son fonctionnement.
Exigences spécifiques pour les intelligences artificielles génératives
Le projet de règlement vise également à mieux prendre en compte les intelligences artificielles génératives, telles que ChatGPT ou Midjourney, en leur imposant des règles de transparence. En plus d’informer clairement les utilisateurs qu’ils interagissent avec une machine, les applications devront spécifier si un contenu (image, son, texte) a été créé artificiellement. Il sera également indiqué que ces technologies ne peuvent pas être utilisées de manière abusive pour tromper la réalité ou les observateurs. Les eurodéputés souhaitent également que les entreprises derrière ces systèmes soient tenues de concevoir des modèles pour empêcher la génération de contenus illégaux. De plus, ces entreprises devront publier les données protégées par des droits d’auteur utilisées pour développer leurs algorithmes.
Source : www.francetvinfo.fr