L’intelligence artificielle révolutionne le monde de la publicité



Révolution de l’intelligence artificielle dans le monde de la publicité

Un étudiant en panne d’inspiration

Le récit commence dans un musée rempli de toiles de maîtres. Un étudiant en quête d’inspiration se trouve face à une feuille blanche, sous le regard déçu de son professeur. Rien de très excitant à première vue. Cependant, grâce à une gorgée de Coca-Cola et à l’utilisation de l’intelligence artificielle (IA), l’étudiant va retrouver l’inspiration.

Un spot époustouflant

La bouteille de Coca-Cola glisse de tableau en tableau, passant du “Large Coca-Cola” d’Andy Warhol à l’artiste Wonder Buhle et son tableau “You Can’t Curse Me”, puis à Vermeer avec sa “Jeune Fille à la perle” et enfin à Munch avec “Le Cri”. La bouteille change de texture en fonction des œuvres qu’elle traverse, grâce à l’utilisation de différentes techniques d’intelligence artificielle.

La campagne “Masterpiece” et l’IA génératrice Stable Diffusion

Cette campagne publicitaire globale, appelée “Masterpiece”, n’aurait pas été possible sans l’IA génératrice Stable Diffusion et la start-up londonienne Stability AI. En février, Coca-Cola avait déjà signé un partenariat avec Open AI, société propriétaire des logiciels générateurs de texte ChatGPT et d’images Midjourney et Dall-E. Ce partenariat avec Open AI et le groupe de conseil Bain a été perçu comme un symbole fort des bouleversements à venir. Coca-Cola est la première marque à signer un contrat avec Open AI.

L’engouement des grands acteurs de la communication

Cet événement a attiré l’attention des grands acteurs de la communication. Publicis, le leader mondial du marché en termes de capitalisation boursière, a été le premier à se lancer. En octobre 2022, Publicis a conclu un accord exclusif avec Open AI, suivi d’un accord avec son actionnaire de référence Microsoft. En 2017, sa plateforme d’IA Marcel avait déjà signé un partenariat avec Microsoft, utilisant abondamment Open AI.

Omnicom et WPP rejoignent la course

En avril 2023, John Wren, le patron d’Omnicom, le troisième acteur du secteur, a également conclu un accord avec Open AI, lui offrant un accès direct à ses algorithmes. Cependant, il ne peut pas concevoir de campagne publicitaire à partir des données de l’IA. Enfin, le 29 mai, WPP, le deuxième acteur mondial du marché, a signé une alliance avec le géant des puces Nvidia. Ainsi, la guerre de l’IA générative est officiellement déclarée.

La nécessité de produire toujours plus de contenus

Cette révolution de l’IA dans le domaine de la publicité est motivée par la nécessité de produire un nombre croissant de contenus personnalisés pour les réseaux sociaux. Les marques cherchent à réduire les coûts de production, tandis que les publicitaires doivent produire ces contenus de manière quasi industrielle. Dans le passé, les agences se concentraient sur la conception de produits spécifiques pour les cinq grands médias (télévision, radio, presse, affichage et cinéma). Aujourd’hui, elles doivent produire jusqu’à 300 contenus différents, diffusés dans divers formats, langues et packagings. L’utilisation de l’IA permet d’atteindre des gains de productivité allant jusqu’à 30%.

Conclusion

L’intelligence artificielle ouvre de nouvelles perspectives dans le domaine de la publicité. Les marques cherchent à exploiter cette technologie pour créer des campagnes publicitaires innovantes et personnalisées, tout en réduisant les coûts de production. Les grands acteurs de la communication se lancent dans la course à l’IA générative, signant des partenariats avec des sociétés spécialisées telles que Open AI. La guerre de l’IA générative est désormais bien engagée, laissant présager un avenir où l’IA jouera un rôle de plus en plus important dans la création publicitaire.

Source : lemonde.fr

➡️ Accéder à CHAT GPT en cliquant dessus




La réglementation de l’intelligence artificielle dans l’Union européenne : Reconnaissance faciale, “deepfakes”, ChatGPT



Titre HTML 1: Le Parlement européen approuve un règlement pour encadrer l’intelligence artificielle dans l’UE
Titre HTML 2: Classification des intelligences artificielles et interdictions strictes de la reconnaissance faciale
Titre HTML 3: Contrôles pour les technologies à “haut risque” et garanties pour les citoyens
Titre HTML 4: Règles de transparence pour les intelligences artificielles à “risque limité”
Titre HTML 5: Exigences spécifiques pour les intelligences artificielles génératives

Le Parlement européen approuve un règlement pour encadrer l’intelligence artificielle dans l’UE

Mercredi, le Parlement européen a approuvé un texte visant à réguler le secteur de l’intelligence artificielle (IA) dans l’Union européenne. Cette décision marque la volonté de l’UE de poser le premier cadre juridique au monde contre les dérives de l’IA. La proposition de règlement, appelée “Artificial Intelligence Act”, a été présentée par la Commission européenne en avril 2021. Le texte adopté par le Parlement européen inclut de nouvelles interdictions, telles que l’utilisation de la reconnaissance faciale dans les lieux publics par des systèmes dédiés. Cependant, le règlement nécessite encore des négociations entre les différentes institutions pour parvenir à un accord final. Le commissaire Thierry Breton, qui a porté le texte avec sa collègue Margrethe Vestager, a appelé à conclure le processus dans les prochains mois. Il a souligné l’importance d’agir rapidement et de prendre ses responsabilités face aux questions sociales, éthiques et économiques soulevées par l’IA. Cependant, le règlement n’entrera en vigueur qu’en 2026, au mieux.

Classification des intelligences artificielles et interdictions strictes de la reconnaissance faciale

Le projet européen repose sur une classification des intelligences artificielles en fonction du niveau de risque qu’elles présentent. L’UE prévoit d’interdire les systèmes qui posent un “risque inacceptable” et constituent une menace pour les personnes. Cela inclut notamment les “systèmes d’identification biométrique en temps réel et à distance”, tels que la reconnaissance faciale dans les lieux publics. Cependant, le projet de règlement prévoit des exceptions pour permettre aux forces de l’ordre d’accéder à ces dispositifs d’identification, sous réserve d’une autorisation judiciaire ou administrative, dans le but de prévenir une attaque terroriste, de rechercher des enfants disparus ou une personne visée par un mandat européen après un “crime grave”. Les eurodéputés ont amendé ces exceptions en ne permettant l’utilisation de systèmes d’identification qu'”a posteriori” et uniquement pour la poursuite d’infractions graves après autorisation judiciaire. En plus de cela, l’UE prévoit d’interdire les systèmes de notations sociales, qui classent les individus en fonction de leur comportement ou de leur statut socio-économique. Les technologies manipulant des personnes vulnérables, telles que les enfants ou les personnes handicapées, sont également ciblées par le règlement.

Contrôles pour les technologies à “haut risque” et garanties pour les citoyens

L’UE souhaite également imposer des règles aux intelligences artificielles considérées comme “à haut risque”. Cela inclut les systèmes utilisés dans des domaines sensibles tels que la gestion et l’exploitation des infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre et la gestion des migrations et du contrôle des frontières. Les eurodéputés ont ajouté à cette liste les systèmes utilisés pour influencer les électeurs lors de campagnes politiques et les dispositifs des systèmes de recommandations utilisés par les plateformes de médias sociaux. Ces technologies seront soumises à plusieurs obligations, notamment la nécessité de prévoir un contrôle humain ou un système de gestion des risques. Le respect de ces règles sera contrôlé par des autorités de surveillance désignées dans chaque pays membre. Les eurodéputés souhaitent également soutenir le droit des citoyens à porter plainte contre des systèmes d’IA et à recevoir des explications concernant les décisions prises sur la base de technologies classées à “haut risque”.

Règles de transparence pour les intelligences artificielles à “risque limité”

Dans les secteurs où les risques sont considérés comme “limités”, la Commission et le Parlement européen plaident en faveur de règles de “transparence minimale”. Les utilisateurs devront être informés qu’ils sont en présence d’une IA. Cela concerne notamment les applications qui génèrent ou manipulent des contenus audiovisuels tels que les “deepfakes”. Cependant, ces technologies ne seront pas soumises à une évaluation préalable avant leur mise sur le marché. Les exploitants pourront utiliser leur système immédiatement, mais seront tenus de fournir des explications sur son fonctionnement.

Exigences spécifiques pour les intelligences artificielles génératives

Le projet de règlement vise également à mieux prendre en compte les intelligences artificielles génératives, telles que ChatGPT ou Midjourney, en leur imposant des règles de transparence. En plus d’informer clairement les utilisateurs qu’ils interagissent avec une machine, les applications devront spécifier si un contenu (image, son, texte) a été créé artificiellement. Il sera également indiqué que ces technologies ne peuvent pas être utilisées de manière abusive pour tromper la réalité ou les observateurs. Les eurodéputés souhaitent également que les entreprises derrière ces systèmes soient tenues de concevoir des modèles pour empêcher la génération de contenus illégaux. De plus, ces entreprises devront publier les données protégées par des droits d’auteur utilisées pour développer leurs algorithmes.

Source : www.francetvinfo.fr

➡️ Accéder à CHAT GPT en cliquant dessus




L’épreuve de philosophie passée par ChatGPT : l’intelligence artificielle pourrait être pénalisée



Titre : L’intelligence artificielle et le Bac de philosophie 2023

Introduction
Dans cet article, nous aborderons le sujet de l’utilisation d’un logiciel d’intelligence artificielle pour répondre aux sujets de philosophie du Bac 2023. Le robot conversationnel, appelé ChatGPT, a été interrogé sur les sujets de dissertation du Bac. Bien que ses réponses puissent être utilisées pour rédiger un devoir, elles ne sont toutefois pas suffisantes pour obtenir une bonne note. Les réponses de ChatGPT sont basées sur un plan thèse – antithèse – synthèse, ce qui est très courant chez les élèves mais pas obligatoire. Cependant, l’intelligence artificielle n’est pas capable de fournir des exemples, des définitions ou des arguments basés sur l’expérience ou l’actualité.

Le bonheur est-il affaire de raison ?
Pour le premier sujet “Le bonheur est-il affaire de raison ?”, ChatGPT offre une réponse en trois parties, mais celle-ci est considérée comme légère et insuffisante pour un devoir de philosophie. En effet, il énonce des pistes de réflexion sans les approfondir ni les étayer. Cédric Enjalbert, rédacteur en chef adjoint de “Philosophie Magazine”, souligne que les étudiants ne doivent pas simplement répondre “oui, mais non, il y a des opinions divergentes”, mais plutôt prendre le sujet à bras-le-corps et offrir une réelle réflexion personnelle.

Transformer la nature est-ce gagner en liberté ?
Pour le sujet “Transformer la nature est-ce gagner en liberté ?”, ChatGPT propose une réponse similaire : il mentionne les différents points de vue mais ne définit pas les termes clés tels que “gain” et “transformer”, ce qui limite la clarté et la profondeur de la réponse. Enjalbert souligne l’importance de la définition des termes dans une introduction, car c’est en jouant avec les mots et en explorant leur ambiguïté que l’on peut développer un raisonnement solide en philosophie.

Limitations de ChatGPT
Bien qu’il soit possible d’obtenir des définitions et des exemples supplémentaires en demandant à ChatGPT, cela ne suffirait pas à rendre un devoir complet. L’intelligence artificielle est principalement un outil qui agrège des données et les présente, souvent en prédisant ce que nous voulons entendre. Cependant, cela n’est pas suffisant pour les élèves qui passent leur épreuve de philosophie, car cette matière a pour objectif de les pousser à réfléchir par eux-mêmes, à affronter des textes et à développer leur propre raisonnement.

Le sens de l’épreuve de philosophie
L’épreuve de philosophie demandée aux lycéens lors du Bac représente bien plus qu’une simple question à laquelle on ne pense pas au quotidien. C’est un temps pour prendre du recul, se confronter à la réflexion et à l’introspection. C’est une occasion pour réfléchir par eux-mêmes, pour eux-mêmes et sur des questions qui vont au-delà du simple cadre scolaire. En cela, l’intelligence artificielle ne peut pas remplacer le véritable sens de l’épreuve de philosophie.

Conclusion
En conclusion, l’intelligence artificielle, représentée ici par ChatGPT, n’est pas un très bon élève lorsqu’il s’agit de répondre aux sujets de philosophie du Bac 2023. Bien que ses réponses puissent servir à rédiger un devoir, elles manquent de profondeur et de définitions claires. L’épreuve de philosophie du Bac a pour objectif de pousser les étudiants à réfléchir et à développer leur propre raisonnement. Cela ne peut être remplacé par une intelligence artificielle.

Source : www.francetvinfo.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Nouvelle stratégie d’OpenAI : Une transformation des « devoirs à domicile »


ChatGPT: la révolution de l’enseignement grâce à l’IA

ChatGPT, un chatbot qui complique la tâche des enseignants

ChatGPT est un chatbot d’OpenAI, une intelligence artificielle générative capable de rédiger des dissertations, résoudre des problèmes ou encore traduire des textes. Massivement utilisé par les étudiants, il est parfois difficile de déterminer si un devoir a bien été rédigé par un élève ou par ChatGPT. Face à ces défis, OpenAI a lancé un outil permettant de déterminer si un texte a bien été généré par ChatGPT ou par un être humain.

Embrasser la révolution de l’IA plutôt que lutter contre elle

Conscient des défis posés par l’IA aux professeurs, OpenAI encourage plutôt les pédagogues à embrasser la révolution de l’IA, en s’adaptant aux possibilités offertes par cette technologie plutôt que de nager à contre-courant en prohibant son utilisation. Selon Sam Altman, PDG et cofondateur d’OpenAI, l’IA est en mesure de révolutionner le fonctionnement de l’éducation. Il compare l’IA à un outil déjà présent dans la plupart des salles de classe, la calculatrice, et estime que les manières d’enseigner et d’évaluer les étudiants vont donc devoir changer.

Les avantages et les inévitables abus de ChatGPT

ChatGPT est un formidable outil d’apprentissage, capable d’adapter ses réponses à chaque niveau de compréhension. Bill Gates, a également exprimé son avis favorable quant à l’utilisation de l’IA dans l’enseignement. Cependant, il existe des inévitables abus de l’usage de ChatGPT, qui peut être utilisé pour faire le travail à la place des élèves. De nombreuses écoles ont donc décidé de l’interdire sur leur campus, menaçant même d’exclure les étudiants qui s’appuient sur ChatGPT.

Impact de l’IA sur l’emploi

Sam Altman a également évoqué l’impact de l’IA sur l’emploi. Selon lui, “Je ne pense pas que cela aura l’impact sur l’emploi auquel les gens s’attendent. Presque toutes les prédictions sont fausses”. Bien que certains emplois disparaîtront inévitablement, de nouvelles catégories de métiers verront le jour dans son sillage, tel que listé par OpenAI.

Source : 01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Mistral AI, la startup française qui ambitionne de concurrencer ChatGPT, réunit plus de 100 millions d’euros de financement


Mistral AI, une start-up française de l’IA prépare une grosse levée de fonds

Introduction

Mistral AI, une nouvelle start-up française d’intelligence artificielle créée par des chercheurs de pointe, a finalisé une levée de fonds de 105 millions d’euros, un record pour une start-up d’IA française. La société souhaite proposer des modèles de langage en open source aux entreprises, dont les premiers seront accessibles début 2024. Le tour de table est mené par Lightspeed Venture, aux côtés de Xavier Niel et Rodophe Saadé, entre autres.

Mistral AI cofondée par des pointures de l’IA passées par les Gafa américains

Mistral AI a été cofondée par trois chercheurs français de l’IA passés par les Gafa américains, ce qui explique son succès auprès d’investisseurs en période de gel des levées de fonds pour la plupart des start-up. Son PDG, Arthur Mensch, expert des modèles de langage, vient de passer près de trois ans au sein de DeepMind, le laboratoire d’IA de Google. Les deux autres cofondateurs viennent de Meta (Facebook) : Guillaume Lample est l’un des créateurs du modèle de langage LLaMA dévoilé par Meta en février et Timothée Lacroix était lui aussi chercheur chez Meta. La société développe et entraine des grands modèles de langages en open source à destination des entreprises, pour leur permettre d’utiliser l’intelligence artificielle générative dans leur infrastructure en gardant le contrôle de leurs données et de leur propriété intellectuelle.

Une levée de fonds de 105 millions d’euros pour Mistral AI

Cette levée de fonds, qui valorise Mistral 240 millions d’euros, doit servir à financer l’entrainement des modèles, coûteux en puissance de calcul, a précisé la société. L’équipe fondatrice pourra également s’appuyer sur les expertises d’autres entrepreneurs tels que Jean-Charles Samuelian et Charles Gorintin, cofondateurs du néo-assureur Alan, et de Cédric O, ancien secrétaire d’Etat au Numérique. L’Elysée et le gouvernement sont visiblement au chevet de ce nouvel acteur, alors que l’Europe est largement dépassée par les Etats-Unis dans la course à l’IA. Emmanuel Macron, qui inaugure VivaTech mercredi, s’exprimera sur scène aux côtés d’Arthur Mensch, et le ministre délégué au Numérique Jean-Noël Barrot a tweeté mardi soir pour féliciter la jeune société.

Conclusion

Ces montants restent néanmoins très inférieurs aux milliards de dollars dépensés par les géants américains pour leurs IA, que ce soient Google, Microsoft ou Meta. Mistral AI, avec son équipe de pointe, et grâce à cette levée de fonds record pour une start-up française d’IA, a cependant des chances de changer la donne et devenir un acteur majeur de l’IA en Europe.

Source : www.bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT : Un instrument à double tranchant pour les partis politiques.



Titre HTML: L’utilisation de ChatGPT par des personnalités politiques

Les partis politiques français se lancent dans la course à l’intelligence artificielle, stimulés par la droite nationaliste. Ils s’emparent notamment de ChatGPT, un robot conversationnel pour apporter des solutions innovantes. Cependant, certaines personnalités politiques ont commencé à utiliser ChatGPT pour en démontrer les limites.

La course à l’intelligence artificielle dans les partis politiques

Les partis politiques français célèbrent l’arrivée de l’intelligence artificielle et mesurent leur capacité à innover. Toutefois, le risque est grand de se perdre dans les méandres de cette technologie, voire de tomber dans ses pièges. ChatGPT, un robot conversationnel qui répond à des questions, est l’une de ces technologies convoitées.

L’utilisation de ChatGPT par certaines personnalités politiques

Certains politiques ont commencé à utiliser ChatGPT pour démontrer les limites de cette technologie. Le célèbre spécialiste en IA, Vincent Boucher, a souhaité tester la performance et la fiabilité de ChatGPT. Il a posé plusieurs questions à ChatGPT qui n’ont pas été comprises ou ont conduit à des réponses inadéquates, illustrant les limites de l’outil.

Les limites de ChatGPT pour les politiques

ChatGPT est un système qui ne répond pas toujours de manière cohérente aux questions posées. Les réponses de ChatGPT sont souvent confuses ou sans rapport avec la question posée. De plus, il est facile de jouer sur les biais de ce robot conversationnel en lui posant des questions tendancieuses. Il est donc à la fois risqué et difficile de se reposer uniquement sur ChatGPT, sans réflexion préalable.

La nécessité de repenser l’utilisation de l’IA en politique

Il est impératif de repenser l’utilisation de l’IA en politique afin qu’elle soit utilisée à bon escient. Les politiques devraient s’appuyer sur l’IA pour augmenter leur capacité de réflexion et non pour se substituer à elle. De même, il est essentiel de sensibiliser et de former les politiques à l’utilisation de ces technologies afin qu’ils puissent en retirer les meilleurs avantages.

Conclusion

L’utilisation de ChatGPT est encore à ses balbutiements en politique. Les limites de cette technologie doivent être bien comprises pour éviter les pièges de l’IA. Les politiques doivent utiliser l’IA comme un outil pour compléter leur réflexion et non pour la remplacer. Enfin, il est nécessaire de former les politiques à l’utilisation de l’IA pour qu’ils en tirent les meilleurs avantages.

Source : www.lefigaro.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Voici l’opinion de Tim Cook après avoir essayé ChatGPT


Tim Cook considère que les intelligences artificielles mal développées peuvent constituer une menace existentielle

Apple reste en retrait sur le développement de ses propres IA

Lors de la présentation du masque Vision Pro et des mises à jour Apple, la marque ne s’est pas exprimée sur ses intentions concernant le développement de ses propres intelligences artificielles (IA). Apple a seulement évoqué l’apprentissage automatique pour ses produits. Le lendemain, le PDG d’Apple, Tim Cook, a abordé cette question dans une interview avec Good Morning America.

Le potentiel énorme des chatbots

Tim Cook a testé ChatGPT et trouve que le potentiel du chatbot est énorme. Il a également affirmé que l’entreprise examinait de près l’évolution de la technologie. Le PDG d’Apple considère également, tout comme de nombreux experts, que les IA peuvent constituer une menace si elles ne sont pas développées correctement.

Les IA peuvent aggraver les problèmes de désinformation

Tim Cook pense que ces outils peuvent notamment aggraver les problèmes de désinformation. Il s’inquiète de l’inertie de la mise en place de réglementations, car elles arriveront forcément trop tardivement par rapport à des IA qui progressent très vite.

Les IA, une menace comparable aux pandémies et aux armes nucléaires

Le PDG d’Apple considère que les IA mal développées peuvent constituer une menace existentielle comparable aux pandémies et aux armes nucléaires. Il appelle à une réglementation rapide et efficace pour éviter les conséquences désastreuses d’une technologie qui progresse très vite.

Conclusion

Le PDG d’Apple, Tim Cook, considère que les intelligences artificielles peuvent constituer une menace si elles ne sont pas développées correctement. Il estime que les IA peuvent aggraver les problèmes de désinformation et appelle à une réglementation rapide et efficace pour éviter les conséquences désastreuses d’une technologie qui progresse très vite. Bien qu’Apple reste en retrait sur le développement de ses propres IA, l’entreprise examine de près l’évolution de la technologie.

Source : futura-sciences.com

➡️ Accéder à CHAT GPT en cliquant dessus




Mirakl s’associe à ChatGPT pour renforcer ses activités, à l’instar de Carrefour



La start-up française Mirakl, qui fournit des services de vente en ligne pour de grandes marques telles que Carrefour, Darty ou Go Sport, s’est associée avec OpenAI pour déployer l’intelligence artificielle générative sur ses places de marché. Cette technologie permettra d’enrichir les fiches produits des marques tierces de façon automatisée, de traduire des données dans diverses langues et de réécrire des fiches de produits en changeant les tons pour générer plus de conversions. L’utilisation de l’IA permettra à la start-up de gagner du temps, tout en améliorant les renseignements des fiches produits et en augmentant les ventes. Mirakl ne prévoit pas d’utiliser les données des entreprises en dehors de ce cadre. Cyril Combe, Head of Data chez la start-up, a déclaré que l’utilisation de l’IA chez OpenAI permettra à Mirakl d’accéder à des outils dont la puissance était réservée à des entreprises telles que Google, Microsoft ou Meta. Pour Philippe Corrot, PDG de Mirakl, l’utilisation de l’IA permettra à la start-up de porter davantage sa croissance sur les nouveaux métiers du groupe, tels que la personnalisation de sites e-commerce, la monétisation des espaces publicitaires sur ces sites ou le paiement. Selon Antoine de Lasteyrie, cette utilisation de l’IA par les acteurs du monde du commerce tels que Carrefour ou Mirakl permet une nouvelle façon d’interagir avec les consommateurs et de simplifier leurs parcours en ligne. Depuis sa création, Mirakl a levé 850 millions de dollars, sa dernière valorisation avoisinant les 3,5 milliards de dollars et a connu une croissance importante générant 135 millions d’euros de revenus annuels.

Source : www.lefigaro.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Le cofondateur de DeepMind prédit que l’IA individuelle deviendra incontournable



Les assistants personnalisés IA vont révolutionner le marché

Le cofondateur du célèbre laboratoire DeepMind, Mustafa Suleyman, prédit une révolution dans le domaine de l’intelligence artificielle. Selon lui, l’avenir de l’IA réside dans les assistants personnalisés, capables de défendre, négocier et faire de bonnes affaires pour les utilisateurs. Tout le monde voudra sa propre IA, tant les entreprises que les particuliers, estime-t-il.

Pi, un chatbot créé par la startup Inflection AI, dirigée par Mustafa Suleyman, est un exemple de cette tendance. Pensé comme un assistant personnel offrant du soutien émotionnel, Pi est destiné à aider les utilisateurs à devenir meilleurs dans tout ce qu’ils entreprennent.

Selon Mustafa Suleyman, à l’avenir, les IA parleront entre elles pour trouver les meilleures solutions pour leurs utilisateurs. Le modèle d’IA créé par Inflection AI devrait aider les utilisateurs à devenir plus performants dans leur vie professionnelle ou personnelle.

Cependant, ces avancées technologiques auront également des répercussions sociales. Mustafa Suleyman a déjà averti des effets potentiels des IA sur le marché de l’emploi, déclarant qu’un grand nombre de tâches seront modifiées au cours des cinq à dix prochaines années. Il prévoit qu’il y aura de nombreux perdants qui seront très mécontents et inquiets.

En conclusion, l’arrivée des assistants personnalisés IA est un tournant majeur dans le développement de l’intelligence artificielle. Si ces outils peuvent aider les utilisateurs dans leur vie professionnelle et personnelle, il faut également se préparer aux changements sociaux qu’impliquent ces avancées technologiques.

Source : bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




Procès contre OpenAI suite à une hallucination de ChatGPT : Le récit de l’histoire.


Un chatbot d’IA poursuivi en diffamation

Les modèles d’IA générative

Les modèles d’IA générative sont des programmes d’IA capables de générer du contenu, comme du texte, de l’image ou du son. Cependant, ces modèles sont également connus pour générer des erreurs ou des “hallucinations”. C’est pourquoi ils sont généralement accompagnés d’une clause de non-responsabilité clairement affichée pour signaler ce problème.

ChatGPT accusé de désinformation

Malgré les avertissements concernant les hallucinations, Mark Walters, un animateur de radio américain, a poursuivi OpenAI, l’entreprise derrière le chatbot d’IA ChatGPT, pour diffamation. En effet, ChatGPT a diffusé des informations erronées à son sujet, l’accusant d’avoir détourné de l’argent. Il s’agit du premier procès en diffamation intenté à OpenAI.

Le problème de la désinformation

La désinformation a commencé lorsque Fred Riehl, rédacteur en chef d’une publication sur les armes à feu nommée AnmoLand, a demandé à ChatGPT un résumé d’une affaire juridique pour étayer un article qu’il était en train de rédiger. ChatGPT a fourni à Riehl un résumé de l’affaire qui indiquait que Walters était accusé d’avoir “fraudé et détourné des fonds pour des dépenses personnelles sans autorisation ni remboursement” et d’avoir “manipulé des documents financiers et des relevés bancaires pour dissimuler ses activités”. Cependant, Mark Walters n’a jamais été impliqué dans ce procès. Il n’a jamais été accusé d’avoir fraudé et détourné des fonds, et n’a jamais occupé le poste de trésorier ou de directeur financier.

Responsabilité et clauses de non-responsabilité

La question à résoudre dans le cadre de cette action en justice est de savoir qui doit être tenu pour responsable. Les clauses de non-responsabilité du site web concernant les hallucinations suffisent-elles à écarter la responsabilité, même si un préjudice est causé à quelqu’un ? L’issue de ce procès aura donc clairement un impact significatif sur l’établissement d’une norme dans le domaine de l’IA générative.

Conclusion

Ce procès soulève des questions importantes sur la responsabilité des chatbots d’IA générative en matière de désinformation. Les modèles d’IA générative peuvent générer des erreurs ou des hallucinations, et il est donc crucial de déterminer qui est responsable en cas de préjudice. Cette affaire est un exemple de la nécessité de mettre en place des règles et des réglementations pour encadrer l’utilisation de l’IA générative.

Source : www.zdnet.fr

➡️ Accéder à CHAT GPT en cliquant dessus