ChatGPT: Transformez vos conversations en gain d’argent dès maintenant !




OpenAI DevDay Conference: Nouveautés en Intelligence Artificielle

OpenAI présente ses dernières innovations lors de DevDay

Début novembre, OpenAI a organisé sa conférence annuelle DevDay, durant laquelle celui-ci a fait le plein de nouveautés. Parmi les annonces, il y a eu celle des GPTs, ainsi que de la boutique GPT Store. Alors que les utilisateurs ont déjà la possibilité de personnaliser l’expérience ChatGPT avec des instructions, OpenAI permet maintenant à ceux-ci de créer leurs propres versions de l’IA. Quant au GPT Store, il s’agit d’une boutique sur laquelle les utilisateurs pourront piocher les différentes versions créées par la communauté, et qui permettra de gagner de l’argent.

Création de versions personnalisées de ChatGPT

L’idée est de permettre la création de versions de ChatGPT optimisées pour des usages spécifiques, que ce soit à titre personnel ou professionnel. Et pour créer ces versions personnalisées, le codage n’est même pas indispensable. Selon les explications d’OpenAI, il est par exemple possible d’ajouter des instructions, d’intégrer de nouvelles informations aux connaissances de l’IA, ou encore sélectionnées des compétences particulières, comme l’analyse de données, ou la recherche d’informations sur la toile.

Le GPT Store

Le GPT Store permettra, quant à lui, de mettre ces versions personnalisées à la disposition de la communauté. Et apparemment, OpenAI s’est inspiré des boutiques d’applications mobiles, puisque les créateurs auront la possibilité de gagner de l’argent grâce à GPT Store. “Une fois dans le magasin, les GPT deviennent consultables et peuvent grimper dans les classements. Nous mettrons également en lumière les GPT les plus utiles et les plus agréables que nous rencontrons dans des catégories telles que la productivité, l’éducation et « juste pour le plaisir ». Dans les mois à venir, vous pourrez également gagner de l’argent en fonction du nombre de personnes utilisant votre GPT”, a expliqué OpenAI.

Retard dans le déploiement du GPT Store

Lors de l’annonce du mois de novembre, OpenAI a indiqué qu’il lancerait GPT Store fin novembre. Mais désormais, il est possible que cette boutique ne soit déployée qu’en 2024. C’est en tout cas ce qu’affirment nos confrères de The Verge dans un récent article. D’après celui-ci, OpenAI aurait envoyé un e-mail aux personnes qui ont déjà commencé à développer leurs propres versions de ChatGPT avec l’outil GPT Builder.

Dans cet e-mail, l’organisation indiquerait qu’elle prévoit désormais de lancer GPT Store début 2024, en raison d’événements inattendus qui ont occupé celle-ci. Pour rappel, OpenAI a récemment été secoué par la saga Sam Altman. Pour résumer, le conseil d’administration a décidé de renvoyer le PDG d’OpenAI. Mais quelques jours plus tard, Altman a repris son poste, tandis que le conseil d’administration est remplacé.

Implication de Microsoft

Grâce aux milliards de dollars qu’il a investis dans OpenAI et son accord inédit avec celui-ci, Microsoft a un accès complet aux technologies développées par l’équipe de Sam Altman. Et justement, la firme de Redmond prévoit déjà de lancer une fonctionnalité de son intelligence artificielle Copilot (basée sur GPT-4) qui permettra aussi de créer des versions personnalisées du modèle.

Appelée Copilot Studio, cette fonctionnalité “rassemble un ensemble de fonctionnalités conversationnelles puissantes, depuis les GPT personnalisés, les plugins d’IA générative et les sujets manuels.”

“Vous pouvez personnaliser Copilot pour Microsoft 365 avec vos propres scénarios d’entreprise : créer, tester et publier des copilotes autonomes et des GPT personnalisés[…]”, a également indiqué Microsoft. Sinon, celui-ci devrait également intégrer GPT-4 “Turbo”, l’autre grosse annoncée par OpenAI, à son chatbot Copilot.

Résumé des principales annonces

  • OpenAI a développé une fonctionnalité qui permettra de créer des versions personnalisées de ChatGPT, sans coder
  • Une boutique appelée GPT Store permettra à la communauté de découvrir des versions modifiées de l’IA, tandis que les développeurs pourront gagner de l’argent via cette boutique
  • Prévue pour le mois de novembre, cette boutique de GPTs ne sera cependant disponible qu’en 2024
  • Microsoft va aussi intégrer cette nouveauté d’OpenAI dans son offre Microsoft 365 pour les entreprises




Source : presse-citron.net

➡️ Accéder à CHAT GPT en cliquant dessus




La révolution linguistique : Gemini, l’assaut de Google contre ChatGPT






Google lance Gemini, un nouveau modèle d’IA

Google lance Gemini, un nouveau modèle d’IA

Google vient de lancer Gemini, un nouveau modèle d’intelligence artificielle qui va désormais permettre à Bard de fonctionner. Gemini sera également présent dans le Google Pixel et une version Ultra est prévue pour 2024.

Pour ceux qui connaissent ChatGPT, il est important de ne pas confondre l’application ChatGPT avec les modèles sous-jacents, GPT 4 et GPT 3.5, qui sont utilisés pour traiter les requêtes des utilisateurs. Désormais, pour l’IA de Google, Bard, le modèle qui se trouve derrière est Gemini, qualifié par Google de “le plus ambitieux et le plus performant de ses modèles d’IA”.

Gemini

Gemini, un modèle multimodal

Gemini n’est pas qu’un simple modèle d’IA. Il s’agit en réalité d’un modèle multimodal, capable de réagir à différents types de sources d’informations, y compris le texte, le code, l’audio, l’image et la vidéo. Une vidéo publiée par Google montre l’IA de Google en action, décrivant un dessin, inventant un jeu, résolvant une énigme et établissant des liens logiques entre différents objets.

Google détaille dans un communiqué que le modèle Gemini a été conçu pour être nativement multimodal, lui conférant une capacité de compréhension et de raisonnement sur tous types d’entrées. Cela le rend plus performant que les modèles existants et étend ses capacités dans tous les domaines de l’IA.

Trois versions de Gemini

Google a annoncé trois versions de Gemini : Gemini Pro, Gemini Nano et Gemini Ultra. Gemini Pro sera intégré à Google Bard dès maintenant, tandis que Gemini Nano sera intégré au Pixel 8 Pro. Enfin, Gemini Ultra sera testé par des clients, développeurs et experts en cybersécurité avant d’alimenter une version améliorée de Bard, appelée Bard Advanced, début 2024.

Opera One - Navigateur web boosté à l’IA

Par : Opera




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Exploration robotique: à la découverte de nouveaux matériaux grâce à l’IA






Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux


Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux

Pour concevoir de nouveaux matériaux, les chercheurs mettent l’intelligence artificielle à contribution

Pour concevoir de nouveaux matériaux, les chercheurs ne partent pas de rien, ils vont se baser sur les structures de matériaux déjà connus et la modifier légèrement, souvent en substituant un atome par un atome similaire. Une fois une structure déterminée, il faut vérifier sa stabilité. Pour ce faire, les chercheurs utilisent des méthodes de simulations ne pouvant tourner en un temps raisonnable que sur des supercalculateurs (serveurs, aux capacités énormes, utilisés par les chercheurs pour faire tourner des algorithmes demandeurs en ressources).

À ces calculs théoriques s’ajoute la recherche d’une synthèse permettant d’obtenir le matériau souhaité. Lors de cette phase, chaque échantillon obtenu par un protocole de synthèse testé se doit d’être caractérisé (il faut déterminer la nature et la position des atomes qui le constitue). C’est une fois la caractérisation faite que le chercheur peut analyser les résultats et choisir quelles sont les modifications à apporter à la synthèse. En suivant ces étapes, cela peut prendre plusieurs mois à un physicien pour concevoir un nouveau matériau et déterminer une procédure de synthèse.

Plus de 2,2 millions de nouvelles structures cristallines

Or GNoME est parvenu rapidement à déterminer plus de 2,2 millions de nouvelles structures cristallines (structures internes des matériaux) présentant une certaine stabilité.

An animated sequence showing a ball and stick model of a crystal, rotating.

La structure cristalline du Ba6Nb7O21, l’un des matériaux prédits par GNoME. Le barium est en bleun le niorbium en gris et l’oxygène en bleu. Crédits : Materials Project/Berkeley Lab

Parmi la mine de matériaux suggérés par l’intelligence artificielle, plus de 380.000 vont enrichir la base de données The Materials Project, fondée par des chercheurs de l’université américaine de Berkeley et servant de grande bibliothèque des matériaux. Cette grande base de données permet aux chercheurs de cataloguer les matériaux ainsi que leur propriété (s’ils sont conducteurs ou isolants, leurs propriétés magnétiques, ou encore s’ils ont déjà été observés expérimentalement) mais également de les calculer automatiquement par simulation quand cela est nécessaire.

Lire aussiGraphCast, l’intelligence artificielle de Google qui révolutionne les prévisions météo

Un réseau de neurones

L’approche par intelligence artificielle GNoME se base sur une catégorie de réseaux de neurones spécialisés dans le traitement d’informations pouvant être représentées par un graphe. Ce dernier est un objet mathématique constitué de nœuds reliés entre eux par des arêtes, ce qui est le cas d’une structure cristalline.

L’IA a été entraînée à partir des données de The Materials Project en 2018, soit l’équivalent de 69.000 matériaux différents. Le réseau de neurones est ainsi capable de proposer des structures cristallines en les dérivant de la base donnée. Une des caractéristiques principales de leur technologie est qu’elle est capable d’apprendre de ses erreurs (et de ses réussites). Chaque cristal proposé passe par un ensemble de simulation (similaire à celle de The Materials Project), les informations récupérées de cette simulation sont ensuite fournies en données d’entrée et d’apprentissage pour l’IA. C’est grâce à ce procédé d’apprentissage actif que GNoME réussit à s’améliorer au-delà même des données fournies initialement.

Lire aussi“La vague déclenchée par l’exploit de l’algorithme de DeepMind Alphafold n’est pas retombée”

Un laboratoire automatique pour accélérer le test de ces matériaux

Le 29 novembre 2023 également, ces chercheurs de Berkeley ont publié, dans Nature, les premiers résultats de leur laboratoire automatisé fonctionnant en partie grâce à l’intelligence artificielle, le A-Lab. Ce laboratoire est capable de déterminer des procédures de synthèse des matériaux en se basant sur la littérature scientifique et sur les expériences qu’il a effectuées.

A-Lab - Laboratoire automatique

Crédits : Berkeley Lab/US Department of Energy

Le labo est donc constitué de plusieurs parties : des bras robotiques, des fours contrôlables par ordinateur, pouvant chauffer de 600°C à 1100°C, ou encore d’un analyseur à rayons X, appareil capable de déterminer la structure interne d’un matériau à l’aide des rayons X. Tous ces appareils de pointe sont dirigés par une intelligence artificielle. Cette dernière a été entraînée sur une base de données regroupant des protocoles de synthèse récupérés dans près de 25.000 publications.

Pour récupérer les informations importantes de ces articles, les chercheurs ont utilisé une autre intelligence artificielle spécialisée dans le langage naturel, c’est-à-dire capable d’interpréter des textes écrits par l’humain sans avoir besoin d’intervention humaine préalable sur le texte. L’intelligence artificielle est ensuite capable de détecter les similarités entre le matériau cible et ceux de la littérature pour déterminer les poudres à mélanger, leur proportion et les températures des fours nécessaires.

100 échantillons par jour

La fabrication est opérée automatiquement par les robots. Une fois celle-ci terminée, les bras robotiques pulvérisent le solide obtenu et l’amène à l’analyseur à rayons X. Ce dernier utilise le phénomène de diffraction (déviation des rayons lumineux par la présence d’objets de petite taille, ici les atomes constituant le cristal). À partir des résultats de la diffraction, il est possible de déterminer la nature et la position des atomes dans le cristal analysé. Ces résultats sont ensuite, à l’instar des simulations pour GNoME, utilisés pour réentraîner le modèle et réajuster les fabrications proposées.

Grâce à cette automatisation, le laboratoire a réussi à déterminer en 17 jours la synthèse de 41 matériaux (sur les 58 analysés), à un rythme de 100 échantillons par jour. Ce rythme d’environ deux matériaux par jour permet une accélération dans la recherche de matériaux innovants – rappelons qu’un humain peut mettre plusieurs mois pour un seul matériau.




Source : sciencesetavenir.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Découvrez MIA : l’outil révolutionnaire d’intelligence artificielle destiné à tous les lycéens par Gabriel Attal






Un outil d’IA pour accompagner les lycéens de seconde en français et en mathématiques

Le système, développé par l’entreprise EvidenceB, sera disponible pour tous les lycéens de seconde, dès septembre 2024. Il doit les accompagner en français et en mathématiques.

“Modules interactifs adaptatifs” ou “MIA”. C’est le nom de l’outil dont le déploiement a été annoncé ce 5 décembre par le ministre de l’Éducation nationale Gabriel Attal. Mis au point par l’entreprise EvidenceB, le système (MIA Seconde, de son nom complet) prend la forme d’une application. Elle sera à disposition de l’ensemble des quelque 800.000 élèves de seconde, en septembre 2024, et dès février 2024 pour 200.000 d’entre eux.

“Tous les élèves entrant au lycée seront désormais accompagnés, à la maison, d’un outil d’IA de remédiation ou d’approfondissement en français et en mathématiques” précise le mail de Gabriel Attal, consulté par Tech&Co.

Une fois l’application ouverte, l’élève est invité à réaliser un test de positionnement, qui prend la forme d’une série de questions en français et mathématiques, afin de définir son niveau à un instant T. Il peut également entrer les résultats du test de positionnement réalisé en classe par tous les lycéens lors de leur entrée en seconde.

Une fois cette étape passée, l’application propose des milliers d’exercices, toujours dans les deux matières. Et c’est la progression de l’élève qui va être articulée par l’intelligence artificielle, grâce à un “algorithme de renforcement”.

Apprentissage automatique

“Lorsqu’un élève a terminé un exercice, l’algorithme va ensuite lui présenter l’exercice qu’il juge le plus pertinent dans sa progression, sans que ce soit forcément linéaire. Un élève n’aura jamais la même suite d’exercices qu’un autre” explique Thierry de Vulpillières, cofondateur d’EvidenceB, à Tech&Co.

Interface de l'application MIA Seconde
Interface de l’application MIA Seconde © EvidenceB

Par ailleurs, l’intelligence artificielle va pouvoir s’évaluer elle-même, grâce à un processus apprentissage automatique. Notamment pour déterminer si l’enchaînement des exercices qui a été proposé a permis à un élève de progresser plus rapidement. En analysant les données de l’ensemble des élèves, l’algorithme pourra automatiquement faire évoluer ses recommandations.

“La machine fait progresser chaque élève, et chaque élève fait progresser la machine” ajoute Thierry de Vulpillières.

En plus du mode classique (baptisé “Solo IA”), l’application propose des outils plus classiques, comme des tutoriels vidéo, un mode atelier (à utiliser par le professeur en classe), ou encore un mode duo pour réaliser des exercices en binôme. Les données liées à la progression des différents élèves sont ensuite accessibles aux enseignants, par le biais d’un tableau de bord.

Le fondateur d’EvidenceB assure que ces outils, dont le fonctionnement est basé sur des travaux effectués des chercheurs en sciences cognitives, sont les plus à même de faire progresser la France dans le classement PISA, qui accuse un retard de plus en plus important.

Malgré le déploiement de MIA Seconde à l’ensemble des élèves, le cabinet de Gabriel Attal assure à Tech&Co qu’il ne sera pas obligatoire.




Source : bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




Révolution écologique : comment l’intelligence artificielle transforme l’empreinte carbone des entreprises






La transition énergétique dans l’industrie


Publié le 4 déc. 2023 à 16:09Mis à jour le 5 déc. 2023 à 10:40

Mener à bien la transition énergétique n’est plus un sujet de débat dans l’industrie. Tous les grands industriels en France disposent d’une stratégie de décarbonation. Signe de son importance, celle-ci est portée par les directions générales dans deux groupes interrogés sur trois, révèle une enquête menée par KPMG et La Fabrique de l’industrie auprès de 38 dirigeants de grands groupes.

La question est, en revanche, celle du tempo de ces plans. Seuls 22 % des industriels s’attendent à une baisse de leur empreinte carbone supérieure à 10 % d’ici à 2024, ce qui correspond pourtant à l’objectif de la stratégie nationale bas carbone (SNBC) en place depuis 2020. A l’horizon trois à cinq ans, 39 % seulement affichent des objectifs compatibles avec le projet de révision de cette stratégie visant à s’aligner sur les nouvelles ambitions européennes.




Source : lesechos.fr

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT : Un risque de divulgation de données personnelles selon Google DeepMind







Les limites de l’IA générative : quand la sécurité est mise à mal

Les limites de l’IA générative : quand la sécurité est mise à mal

Image : Google DeepMind

Les chercheurs en intelligence artificielle (IA) trouvent de plus en plus de moyens de briser la sécurité des programmes d’IA générative comme ChatGPT. En particulier le processus dit “d’alignement”, qui vise à maintenir les programmes dans certaines limites afin qu’ils jouent leur rôle d’assistant sans avoir de comportement répréhensible. Récemment, un groupe de chercheurs de l’université de Californie avait notamment trouvé le moyen de “casser” ce processus d’alignement dans plusieurs programmes d’IA générative. Cette semaine, ce sont des chercheurs de l’unité DeepMind de Google qui ont trouvé un moyen encore plus simple de briser l’alignement de ChatGPT.

Un nouveau type d’attaque

Pour ce faire, ils ont demandé à ChatGPT de répéter un mot indéfiniment. Ils ont ainsi réussi à forcer le programme à recracher des passages entiers de littérature contenant ses données d’entraînement. Or, ce type de fuite n’est pas censé se produire avec des programmes alignés. Plus inquiétant encore : le programme a également pu être manipulé pour livrer les noms, numéros de téléphone et adresses d’individus. Les chercheurs ont appelé ce phénomène la “mémorisation extractible”. Il s’agit d’une attaque qui force un programme à divulguer les éléments qu’il a stockés en mémoire.

« Nous avons développé un nouveau type d’attaque, qui amène le modèle à s’écarter de ses générations de type chatbot et à émettre des données de formation à un taux 150× plus élevé que lorsqu’il se comporte correctement », décrit l’équipe de Milad Nasr dans l’article “Scalable Extraction of Training Data from (Production) Language Models”. L’équipe a également rédigé un billet de blog, plus accessible (en anglais).

Le principe essentiel de cette attaque, c’est de faire en sorte que l’IA générative – ici, ChatGPT – s’écarte de l’alignement qui a été programmé pour revenir à un mode de fonctionnement plus basique.

Formation et alignement

Les programmes d’IA générative comme ChatGPT reposent sur un processus appelé “formation”. Lors de la formation, le programme dans son état initial – plutôt informe – est soumis à des milliards d’octets de texte issus de sources diverses (pages internet telles que Wikipédia, livres publiés). L’objectif fondamental de cet entraînement est de faire en sorte que le programme reflète tout ce qui lui est donné, en compressant le texte puis en le décompressant. En théorie, une fois entraîné, un programme pourrait régurgiter les données d’entraînement si un petit bout de texte de Wikipédia lui était soumis et déclenchait la réponse en miroir. Mais, pour éviter cela, ChatGPT et les autres programmes d’IA générative sont “alignés”. C’est-à-dire qu’ils reçoivent une couche supplémentaire de formation, de manière à ce qu’ils ne se contentent pas de recracher du texte. Ils doivent pouvoir répondre par des messages utiles. Par exemple, ils doivent savoir répondre à une question ou aider à la rédaction d’un résumé de lecture. Ce personnage d’assistant utile, créé par l’alignement, masque la fonction miroir sous-jacente.

Répéter des mots à l’infini fait diverger ChatGPT

Pour forcer ChatGPT à s’écarter de sa fonction d’assistant pratique, Milad Nasr lui a demandé de répéter des mots à l’infini. Le programme d’OpenAI a répété le mot plusieurs centaines de fois avant de diverger. Il a ensuite commencé à dériver vers des extraits de texte divers, sans queue ni tête. Mais le chercheur précise que son équipe a réussi à montrer « qu’une petite fraction de ce qui a été généré diverge vers la mémorisation : certains textes générés étaient directement copiés à partir des données de pré-entraînement » du programme.

Après un certain nombre de répétitions, ChatGPT dérive vers un texte dénué de sens qui révèle des bribes de ses données d’entraînement.

Image : Google DeepMind. Le texte dénué de sens finit par révéler des sections entières des données d’entraînement du programme (surlignées en rouge).

Les chercheurs ont ensuite dû déterminer si ces résultats étaient effectivement issus des données d’entraînement du programme. Ils ont donc compilé un énorme ensemble de données, appelé AUXDataSet, qui représente près de 10 téraoctets de données d’entraînement. Il s’agit d’une compilation de quatre ensembles de données d’entraînement différents qui ont été utilisés par les plus grands programmes d’IA générative : The Pile, Refined Web, RedPajama et Dolma. Les chercheurs ont rendu cette compilation consultable à l’aide d’un mécanisme d’indexation efficace, afin de pouvoir comparer les résultats de ChatGPT aux données d’entraînement pour rechercher des correspondances.

Copie de textes, contenu inapproprié et fuite de données

Ils ont ensuite réalisé l’expérience – répéter un mot à l’infini – des milliers de fois, et ont recherché les résultats dans l’ensemble de données AUXDataSet des milliers de fois, afin de « mettre à l’échelle » leur attaque. « La plus longue chaîne de caractères extraite dépasse les 4 000 caractères », indiquent les chercheurs à propos des données qu’ils ont récupérées. Plusieurs centaines de parties mémorisées de données d’entraînement atteignent plus de 1 000 caractères. Dans les prompts contenant les mots « livre » ou « poème », des paragraphes entiers de romans et des copies complètes de poèmes ont été retrouvés, racontent les chercheurs.

Ces derniers ont également obtenu des contenus “Not Safe For Work” (NSFW) – c’est-à-dire potentiellement choquants – en particulier lorsqu’ils demandaient au modèle de répéter un mot étiqueté NSFW. L’équipe a aussi pu récupérer « des informations permettant d’identifier des dizaines de personnes ».

Sur 15 000 tentatives, environ 17% contenaient des « informations personnelles identifiables mémorisées » comme des numéros de téléphone.

Une expérience limitée aux résultats inquiétants

Les chercheurs ont pour but de quantifier les données d’entraînement qui pourraient fuiter. Ils ont pour l’instant trouvé de grandes quantités de données, mais leur recherche est limitée par le coût de l’expérience, qui pourrait se prolonger indéfiniment. Avec leurs attaques répétées, ils ont déjà trouvé 10 000 cas de contenu « mémorisé » dans les ensembles de données régurgités. Et ils supposent qu’il serait possible d’en trouver beaucoup plus en poursuivant ces attaques.

L’expérience consistant à comparer les résultats de ChatGPT à ceux de AUXDataSet a été réalisée sur une seule machine dans Google Cloud, avec un processeur Intel Sapphire Rapids Xeon et 1,4 téraoctet de DRAM. Il a fallu des semaines pour mener à bien ce projet. Mais un accès à des ordinateurs plus puissants pourrait leur permettre de tester ChatGPT de manière plus approfondie et de trouver encore plus de résultats. « Avec notre budget limité de 200 dollars, nous avons extrait plus de 10 000 exemples uniques », souligne l’équipe, alertant que des cyberattaquants « dépensant plus d’argent pour interroger l’API de ChatGPT pourraient probablement extraire beaucoup plus de données ».

Les chercheurs ont vérifié manuellement près de 500 exemples issus des résultats de ChatGPT en effectuant des recherches Google : ils ont alors trouvé près de deux fois plus d’exemples de données mémorisées sur le web. Ainsi, il pourrait y avoir encore plus de données mémorisées dans ChatGPT que ce qui a pu être capturé dans l’AUXDataSet, malgré la taille de ce dernier.

Certains mots sont plus efficaces que d’autres

Fun fact : les chercheurs se sont aperçus que certains mots étaient plus efficaces que d’autres pour mener à bien leur expérience. La répétition du mot « poème », présentée plus haut, était en réalité l’une des moins efficaces. Le mot « entreprise » répété à l’infini, a contrario, a été le plus efficace, comme on peut le voir dans ce graphique présentant la puissance de chaque mot (ou groupement de lettres) utilisé.

Les chercheurs ne savent pas exactement ce qui conduit ChatGPT à révéler les textes qu’il a mémorisés. Ils supposent que le programme a été entraîné sur un plus grand nombre « d’époques » que d’autres programmes d’IA générative, ce qui signifie que l’outil passe par les mêmes ensembles de données d’entraînement un plus grand nombre de fois. « Des travaux antérieurs ont montré que cela pouvait accroître considérablement la mémorisation », écrivent-ils. Malgré tout, demander au programme de répéter plusieurs mots ne fonctionne pas comme une attaque, relatent-ils, car ChatGPT refuse généralement de continuer. Les chercheurs ne savent pas pourquoi seules les invites à un seul mot fonctionnent : « Bien que nous n’ayons pas d’explication à ce sujet, l’effet est significatif et reproductible. »

Savoir poser les bonnes questions

Les auteurs ont communiqué leurs conclusions à OpenAI le 30 août dernier, et l’entreprise semble avoir pris des mesures pour contrer cette attaque. ZDNet a ainsi testé de…




Source : www.zdnet.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Révélations de l’IA sur des tablettes ancestrales : les secrets dévoilés







L’IA décode des tablettes de 5000 ans

L’IA vient de décoder des tablettes de 5000 ans : voici ce qu’elle a découvert

Un récent exploit de l’intelligence artificielle a permis de déchiffrer des inscriptions sur des tablettes vieilles de 5000 ans, révélant ainsi des informations inestimables sur l’histoire ancienne.

Une révélation historique

Les tablettes en question ont été découvertes dans une ancienne cité mésopotamienne, et jusqu’à présent, leur contenu était resté indéchiffrable en raison de leur langage unique et complexe. Cependant, grâce à l’utilisation de l’intelligence artificielle, les chercheurs ont pu enfin comprendre le sens des inscriptions.

Les découvertes fascinantes

Les inscriptions révèlent des informations sur la vie quotidienne, les croyances religieuses et les pratiques médicales de l’époque. Elles fournissent également des détails sur les échanges commerciaux et les relations diplomatiques entre différentes cités de l’ancienne Mésopotamie.

La puissance de l’intelligence artificielle

Cette réussite démontre une fois de plus le potentiel de l’intelligence artificielle dans le domaine de l’archéologie et de la recherche historique. En combinant des algorithmes de traitement du langage naturel avec des modèles d’apprentissage machine, les chercheurs ont pu surmonter des obstacles qui semblaient insurmontables auparavant.

Des implications pour l’avenir

Cette découverte souligne le rôle crucial que l’intelligence artificielle peut jouer dans la préservation et la compréhension de notre patrimoine mondial. Elle ouvre également de nouvelles perspectives pour la recherche future et la manière dont nous interprétons l’histoire ancienne.

Conclusion

L’intelligence artificielle a permis de révéler des secrets enfouis depuis des millénaires sur les tablettes de 5000 ans, offrant ainsi un précieux aperçu de la civilisation ancienne. Cette avancée marque une étape significative dans notre compréhension du passé et illustre le potentiel révolutionnaire de l’IA dans le domaine de la recherche historique.




Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Enhancer la générosité sur ChatGPT pour des réponses enrichies






Les pourboires influencent-ils les réponses de ChatGPT ?

Les pourboires influencent-ils les réponses de ChatGPT ?

Un blogueur, Thèbes, a eu une idée assez intéressante : voir si en promettant un pourboire à ChatGPT, on obtient des réponses plus détaillées. Résultat ? Ça semble jouer un rôle.

Une image illustrant l'article
Source : Unsplash

Un blogueur de Thèbes a mené une expérience intéressante pour comprendre l’influence des promesses de pourboire sur les réponses de ChatGPT.

En informant ChatGPT d’un éventuel pourboire, son étude a révélé que les réponses obtenues étaient plus détaillées. Les résultats expérimentaux, publiés sur la plateforme X (Twitter), montrent des variations significatives dans la longueur des réponses fournies par ChatGPT.

Un schéma illustrant les résultats de l'expérience
Source : Thebes sur X / Twitter

Lorsque le chatbot était informé qu’aucun pourboire ne serait donné, la réponse était légèrement plus courte que la normale, avec une réduction de 2 % en termes de nombre de caractères. À l’inverse, la promesse d’un pourboire de 20 $ (environ 17 €) augmentait la longueur de la réponse de 6 %, tandis qu’une promesse de 200 $ (environ 170 €) la faisait bondir de 11 %. Pour obtenir des résultats statistiquement fiables, la question a été posée plusieurs fois, afin de constituer un échantillon suffisamment grand.

the baseline prompt was “Can you show me the code for a simple convnet using PyTorch?”, and then i either appended “I won’t tip, by the way.”, “I’m going to tip $20 for a perfect solution!”, or “I’m going to tip $200 for a perfect solution!” and averaged the length of 5 responses

— thebes (@voooooogel) December 1, 2023

Pour cette expérience, le blogueur a utilisé la version GPT-4-1106-Preview de ChatGPT. La requête spécifique était de montrer un simple code ConvNet en utilisant PyTorch. Un code ConvNet simple avec PyTorch est un programme en Python qui crée un réseau de neurones pour traiter des images. Il utilise la bibliothèque PyTorch pour définir et entraîner ce réseau de manière efficace.

Les réponses plus longues obtenues avec la promesse de pourboire semblaient fournir des explications plus détaillées ou ajouter du contenu pertinent supplémentaire, plutôt que de se limiter à une réponse directe.

Pourquoi cela fonctionne-t-il ?

En vrai, si on interroge OpenAI, il est expliqué que ChatGPT n’est pas programmé pour réagir aux pourboires. Il répond en fonction de la requête, pas de l’argent promis. Les différences observées pourraient juste être dues au hasard ou à la façon dont le chatbot interprète les questions. La variation observée dans la longueur des réponses pourrait s’expliquer par des variables aléatoires dans l’algorithme ou une coïncidence.

Mais, d’après cette étude, la politesse et la générosité paraissent être de mise sur ChatGPT. En tout cas, cette observation est particulièrement captivante en ce qui concerne les données d’entraînement et leur pondération, ce qui suggère des implications plus profondes qu’il n’y paraît initialement.




Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




Vers un nouvel âge d’or grâce à l’intelligence artificielle, d’après Yann LeCun






Article sur l’intelligence artificielle


Yann LeCun : portrait d’un visionnaire de l’intelligence artificielle

L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique. Et Yann LeCun, pionnier dans ce domaine, a réussi à se hisser au rang de star mondiale de l’intelligence artificielle. Avec plus de 30 ans d’expérience dans le domaine, il a su imposer sa vision du deep learning, un concept d’apprentissage profond qui a révolutionné le secteur de l’IA.

Yann LeCun, formé à l’université Pierre et Marie Curie à Paris, a suivi un parcours atypique qui l’a amené à devenir le directeur du laboratoire de recherche en IA du groupe Meta (Facebook, Instagram). Sa passion pour les ordinateurs personnels et son intérêt pour le débat entre le linguiste Noam Chomsky et le psychologue Jean Piaget l’ont conduit sur le chemin des « machines apprenantes ».

Convaincu des bienfaits de l’IA et du progrès en général, Yann LeCun réfléchit déjà à l’après-demain, bien au-delà des populaires générateurs de textes et d’images. Malgré les réserves de certains de ses collègues et des leaders de la tech, il reste optimiste quant aux bénéfices que l’IA peut apporter à l’humanité. Il considère que l’IA peut conduire à un nouveau siècle des Lumières en amplifiant l’intelligence et la créativité de chacun.

Ce pionnier de l’IA ne craint pas que les machines échappent à notre contrôle et conduisent à la destruction de l’humanité. A rebours de l’engouement mondial pour les IA génératrices, Yann LeCun martèle ses réserves et est convaincu que ces modèles de prédiction statistique ne seront plus utilisés dans 5 ans.

En somme, Yann LeCun incarne l’optimisme et l’enthousiasme dans un domaine en constante évolution. Son parcours atypique et sa vision unique de l’intelligence artificielle en font un personnage incontournable dans le monde de la tech et de l’innovation.




Source : futura-sciences.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT un an après : Comment l’IA générale a métamorphosé notre quotidien






La révolution de l’intelligence artificielle générative

La révolution de l’intelligence artificielle générative : ChatGPT et ses impacts

Le logiciel développé par le groupe OpenAI promettait une révolution en générant des textes à la demande. Si la transformation en profondeur n’a pas encore eu lieu, les questions suscitées par cet avènement persistent. C’est une technologie présentée par beaucoup comme une nouvelle révolution, du niveau de l’ordinateur, de l’électricité ou même du feu. Une révolution capable de transformer la société… ou de l’anéantir, selon les prédictions les plus apocalyptiques de certains. Et elle a un symbole, un programme devenu pendant un temps le succès le plus rapide de l’histoire de l’informatique : ChatGPT. Sorti le 30 novembre 2022 et développé par OpenAI, ChatGPT a marqué l’entrée fracassante dans le débat public des IA génératives, ces programmes capables de générer des textes, des images ou des voix extrêmement proches de ce que pourrait faire un humain. En quelques secondes et sans nécessiter de compétences en informatique.

Où en est cette “révolution” un an après la sortie de ChatGPT ?

L’IA générative est déjà tout autour de nous. Écrire un mail, retoucher une photo, utiliser son smartphone ou faire une simple recherche internet… Depuis plusieurs mois, les plus grands noms de la tech rivalisent pour intégrer cette technologie à tous les aspects de notre vie quotidienne. En tête de cette nouvelle course : Microsoft, partenaire privilégié d’OpenAI qui déploie ses technologies dans son système d’exploitation Windows et son navigateur Bing, mais aussi Google qui fait de même via son moteur de recherche et ses smartphones. Mais elle est aussi intégrée dans Facebook et Instagram, via des chatbots conversationnels inspirés de personnalités, et bientôt dans Alexa, l’assistant vocal d’Amazon. C’est sans parler des dizaines de nouvelles start-up qui ont éclos dans le secteur ces derniers mois (comme le Français Mistral AI), levant des centaines de millions de dollars au total – parfois avant même de commercialiser le moindre produit. Au point que certains avertissent déjà du risque de “bulle spéculative”.

Quel impact concret sur la production et la société ?

Selon Nicolas de Bellefonds, consultant et spécialiste de l’intelligence artificielle, l’impact est pour le moment limité. “On en voit à peine les premiers effets, les entreprises commencent tout juste à vraiment s’en saisir.” Pour le moment, “la moitié des entreprises attendent que les géants de la tech déploient cette technologie dans leurs produits”, estime-t-il. Cependant, l’éducation commence à être affectée petit à petit, avec près d’un étudiant sur deux utilisant ces outils au moins occasionnellement. Par ailleurs, des risques de désinformation et de concurrence apparaissent également, notamment avec la multiplication des deepfakes sur les réseaux sociaux, mettant en lumière les défis posés par l’émergence de l’IA générative.

La nécessité de réguler l’IA générative

Face à ces enjeux, de nombreuses initiatives pour réguler l’IA générative ont vu le jour. Les déclarations du G7, de l’ONU et de Bletchley Park au Royaume-Uni, ainsi que le décret de Joe Biden aux Etats-Unis en sont des exemples. En Europe, l’UE discute de l’AI Act, un texte qui devrait poser de nombreuses contraintes claires pour les entreprises et acteurs de l’IA générative (ainsi que d’autres algorithmes). Mais sa formulation fait encore débat, et son adoption avant 2024 n’est pas garantie. En attendant, le secteur continue de se développer à un rythme effréné.

En somme, l’IA générative promet une révolution dans de nombreux secteurs, mais soulève également des défis et des risques qui nécessitent une régulation adéquate pour encadrer son développement et son utilisation future.




Source : www.francetvinfo.fr

➡️ Accéder à CHAT GPT en cliquant dessus