Exploration robotique: à la découverte de nouveaux matériaux grâce à l’IA






Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux


Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux

Pour concevoir de nouveaux matériaux, les chercheurs mettent l’intelligence artificielle à contribution

Pour concevoir de nouveaux matériaux, les chercheurs ne partent pas de rien, ils vont se baser sur les structures de matériaux déjà connus et la modifier légèrement, souvent en substituant un atome par un atome similaire. Une fois une structure déterminée, il faut vérifier sa stabilité. Pour ce faire, les chercheurs utilisent des méthodes de simulations ne pouvant tourner en un temps raisonnable que sur des supercalculateurs (serveurs, aux capacités énormes, utilisés par les chercheurs pour faire tourner des algorithmes demandeurs en ressources).

À ces calculs théoriques s’ajoute la recherche d’une synthèse permettant d’obtenir le matériau souhaité. Lors de cette phase, chaque échantillon obtenu par un protocole de synthèse testé se doit d’être caractérisé (il faut déterminer la nature et la position des atomes qui le constitue). C’est une fois la caractérisation faite que le chercheur peut analyser les résultats et choisir quelles sont les modifications à apporter à la synthèse. En suivant ces étapes, cela peut prendre plusieurs mois à un physicien pour concevoir un nouveau matériau et déterminer une procédure de synthèse.

Plus de 2,2 millions de nouvelles structures cristallines

Or GNoME est parvenu rapidement à déterminer plus de 2,2 millions de nouvelles structures cristallines (structures internes des matériaux) présentant une certaine stabilité.

An animated sequence showing a ball and stick model of a crystal, rotating.

La structure cristalline du Ba6Nb7O21, l’un des matériaux prédits par GNoME. Le barium est en bleun le niorbium en gris et l’oxygène en bleu. Crédits : Materials Project/Berkeley Lab

Parmi la mine de matériaux suggérés par l’intelligence artificielle, plus de 380.000 vont enrichir la base de données The Materials Project, fondée par des chercheurs de l’université américaine de Berkeley et servant de grande bibliothèque des matériaux. Cette grande base de données permet aux chercheurs de cataloguer les matériaux ainsi que leur propriété (s’ils sont conducteurs ou isolants, leurs propriétés magnétiques, ou encore s’ils ont déjà été observés expérimentalement) mais également de les calculer automatiquement par simulation quand cela est nécessaire.

Lire aussiGraphCast, l’intelligence artificielle de Google qui révolutionne les prévisions météo

Un réseau de neurones

L’approche par intelligence artificielle GNoME se base sur une catégorie de réseaux de neurones spécialisés dans le traitement d’informations pouvant être représentées par un graphe. Ce dernier est un objet mathématique constitué de nœuds reliés entre eux par des arêtes, ce qui est le cas d’une structure cristalline.

L’IA a été entraînée à partir des données de The Materials Project en 2018, soit l’équivalent de 69.000 matériaux différents. Le réseau de neurones est ainsi capable de proposer des structures cristallines en les dérivant de la base donnée. Une des caractéristiques principales de leur technologie est qu’elle est capable d’apprendre de ses erreurs (et de ses réussites). Chaque cristal proposé passe par un ensemble de simulation (similaire à celle de The Materials Project), les informations récupérées de cette simulation sont ensuite fournies en données d’entrée et d’apprentissage pour l’IA. C’est grâce à ce procédé d’apprentissage actif que GNoME réussit à s’améliorer au-delà même des données fournies initialement.

Lire aussi“La vague déclenchée par l’exploit de l’algorithme de DeepMind Alphafold n’est pas retombée”

Un laboratoire automatique pour accélérer le test de ces matériaux

Le 29 novembre 2023 également, ces chercheurs de Berkeley ont publié, dans Nature, les premiers résultats de leur laboratoire automatisé fonctionnant en partie grâce à l’intelligence artificielle, le A-Lab. Ce laboratoire est capable de déterminer des procédures de synthèse des matériaux en se basant sur la littérature scientifique et sur les expériences qu’il a effectuées.

A-Lab - Laboratoire automatique

Crédits : Berkeley Lab/US Department of Energy

Le labo est donc constitué de plusieurs parties : des bras robotiques, des fours contrôlables par ordinateur, pouvant chauffer de 600°C à 1100°C, ou encore d’un analyseur à rayons X, appareil capable de déterminer la structure interne d’un matériau à l’aide des rayons X. Tous ces appareils de pointe sont dirigés par une intelligence artificielle. Cette dernière a été entraînée sur une base de données regroupant des protocoles de synthèse récupérés dans près de 25.000 publications.

Pour récupérer les informations importantes de ces articles, les chercheurs ont utilisé une autre intelligence artificielle spécialisée dans le langage naturel, c’est-à-dire capable d’interpréter des textes écrits par l’humain sans avoir besoin d’intervention humaine préalable sur le texte. L’intelligence artificielle est ensuite capable de détecter les similarités entre le matériau cible et ceux de la littérature pour déterminer les poudres à mélanger, leur proportion et les températures des fours nécessaires.

100 échantillons par jour

La fabrication est opérée automatiquement par les robots. Une fois celle-ci terminée, les bras robotiques pulvérisent le solide obtenu et l’amène à l’analyseur à rayons X. Ce dernier utilise le phénomène de diffraction (déviation des rayons lumineux par la présence d’objets de petite taille, ici les atomes constituant le cristal). À partir des résultats de la diffraction, il est possible de déterminer la nature et la position des atomes dans le cristal analysé. Ces résultats sont ensuite, à l’instar des simulations pour GNoME, utilisés pour réentraîner le modèle et réajuster les fabrications proposées.

Grâce à cette automatisation, le laboratoire a réussi à déterminer en 17 jours la synthèse de 41 matériaux (sur les 58 analysés), à un rythme de 100 échantillons par jour. Ce rythme d’environ deux matériaux par jour permet une accélération dans la recherche de matériaux innovants – rappelons qu’un humain peut mettre plusieurs mois pour un seul matériau.




Source : sciencesetavenir.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Découvrez MIA : l’outil révolutionnaire d’intelligence artificielle destiné à tous les lycéens par Gabriel Attal






Un outil d’IA pour accompagner les lycéens de seconde en français et en mathématiques

Le système, développé par l’entreprise EvidenceB, sera disponible pour tous les lycéens de seconde, dès septembre 2024. Il doit les accompagner en français et en mathématiques.

“Modules interactifs adaptatifs” ou “MIA”. C’est le nom de l’outil dont le déploiement a été annoncé ce 5 décembre par le ministre de l’Éducation nationale Gabriel Attal. Mis au point par l’entreprise EvidenceB, le système (MIA Seconde, de son nom complet) prend la forme d’une application. Elle sera à disposition de l’ensemble des quelque 800.000 élèves de seconde, en septembre 2024, et dès février 2024 pour 200.000 d’entre eux.

“Tous les élèves entrant au lycée seront désormais accompagnés, à la maison, d’un outil d’IA de remédiation ou d’approfondissement en français et en mathématiques” précise le mail de Gabriel Attal, consulté par Tech&Co.

Une fois l’application ouverte, l’élève est invité à réaliser un test de positionnement, qui prend la forme d’une série de questions en français et mathématiques, afin de définir son niveau à un instant T. Il peut également entrer les résultats du test de positionnement réalisé en classe par tous les lycéens lors de leur entrée en seconde.

Une fois cette étape passée, l’application propose des milliers d’exercices, toujours dans les deux matières. Et c’est la progression de l’élève qui va être articulée par l’intelligence artificielle, grâce à un “algorithme de renforcement”.

Apprentissage automatique

“Lorsqu’un élève a terminé un exercice, l’algorithme va ensuite lui présenter l’exercice qu’il juge le plus pertinent dans sa progression, sans que ce soit forcément linéaire. Un élève n’aura jamais la même suite d’exercices qu’un autre” explique Thierry de Vulpillières, cofondateur d’EvidenceB, à Tech&Co.

Interface de l'application MIA Seconde
Interface de l’application MIA Seconde © EvidenceB

Par ailleurs, l’intelligence artificielle va pouvoir s’évaluer elle-même, grâce à un processus apprentissage automatique. Notamment pour déterminer si l’enchaînement des exercices qui a été proposé a permis à un élève de progresser plus rapidement. En analysant les données de l’ensemble des élèves, l’algorithme pourra automatiquement faire évoluer ses recommandations.

“La machine fait progresser chaque élève, et chaque élève fait progresser la machine” ajoute Thierry de Vulpillières.

En plus du mode classique (baptisé “Solo IA”), l’application propose des outils plus classiques, comme des tutoriels vidéo, un mode atelier (à utiliser par le professeur en classe), ou encore un mode duo pour réaliser des exercices en binôme. Les données liées à la progression des différents élèves sont ensuite accessibles aux enseignants, par le biais d’un tableau de bord.

Le fondateur d’EvidenceB assure que ces outils, dont le fonctionnement est basé sur des travaux effectués des chercheurs en sciences cognitives, sont les plus à même de faire progresser la France dans le classement PISA, qui accuse un retard de plus en plus important.

Malgré le déploiement de MIA Seconde à l’ensemble des élèves, le cabinet de Gabriel Attal assure à Tech&Co qu’il ne sera pas obligatoire.




Source : bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




Révolution écologique : comment l’intelligence artificielle transforme l’empreinte carbone des entreprises






La transition énergétique dans l’industrie


Publié le 4 déc. 2023 à 16:09Mis à jour le 5 déc. 2023 à 10:40

Mener à bien la transition énergétique n’est plus un sujet de débat dans l’industrie. Tous les grands industriels en France disposent d’une stratégie de décarbonation. Signe de son importance, celle-ci est portée par les directions générales dans deux groupes interrogés sur trois, révèle une enquête menée par KPMG et La Fabrique de l’industrie auprès de 38 dirigeants de grands groupes.

La question est, en revanche, celle du tempo de ces plans. Seuls 22 % des industriels s’attendent à une baisse de leur empreinte carbone supérieure à 10 % d’ici à 2024, ce qui correspond pourtant à l’objectif de la stratégie nationale bas carbone (SNBC) en place depuis 2020. A l’horizon trois à cinq ans, 39 % seulement affichent des objectifs compatibles avec le projet de révision de cette stratégie visant à s’aligner sur les nouvelles ambitions européennes.




Source : lesechos.fr

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT : Un risque de divulgation de données personnelles selon Google DeepMind







Les limites de l’IA générative : quand la sécurité est mise à mal

Les limites de l’IA générative : quand la sécurité est mise à mal

Image : Google DeepMind

Les chercheurs en intelligence artificielle (IA) trouvent de plus en plus de moyens de briser la sécurité des programmes d’IA générative comme ChatGPT. En particulier le processus dit “d’alignement”, qui vise à maintenir les programmes dans certaines limites afin qu’ils jouent leur rôle d’assistant sans avoir de comportement répréhensible. Récemment, un groupe de chercheurs de l’université de Californie avait notamment trouvé le moyen de “casser” ce processus d’alignement dans plusieurs programmes d’IA générative. Cette semaine, ce sont des chercheurs de l’unité DeepMind de Google qui ont trouvé un moyen encore plus simple de briser l’alignement de ChatGPT.

Un nouveau type d’attaque

Pour ce faire, ils ont demandé à ChatGPT de répéter un mot indéfiniment. Ils ont ainsi réussi à forcer le programme à recracher des passages entiers de littérature contenant ses données d’entraînement. Or, ce type de fuite n’est pas censé se produire avec des programmes alignés. Plus inquiétant encore : le programme a également pu être manipulé pour livrer les noms, numéros de téléphone et adresses d’individus. Les chercheurs ont appelé ce phénomène la “mémorisation extractible”. Il s’agit d’une attaque qui force un programme à divulguer les éléments qu’il a stockés en mémoire.

« Nous avons développé un nouveau type d’attaque, qui amène le modèle à s’écarter de ses générations de type chatbot et à émettre des données de formation à un taux 150× plus élevé que lorsqu’il se comporte correctement », décrit l’équipe de Milad Nasr dans l’article “Scalable Extraction of Training Data from (Production) Language Models”. L’équipe a également rédigé un billet de blog, plus accessible (en anglais).

Le principe essentiel de cette attaque, c’est de faire en sorte que l’IA générative – ici, ChatGPT – s’écarte de l’alignement qui a été programmé pour revenir à un mode de fonctionnement plus basique.

Formation et alignement

Les programmes d’IA générative comme ChatGPT reposent sur un processus appelé “formation”. Lors de la formation, le programme dans son état initial – plutôt informe – est soumis à des milliards d’octets de texte issus de sources diverses (pages internet telles que Wikipédia, livres publiés). L’objectif fondamental de cet entraînement est de faire en sorte que le programme reflète tout ce qui lui est donné, en compressant le texte puis en le décompressant. En théorie, une fois entraîné, un programme pourrait régurgiter les données d’entraînement si un petit bout de texte de Wikipédia lui était soumis et déclenchait la réponse en miroir. Mais, pour éviter cela, ChatGPT et les autres programmes d’IA générative sont “alignés”. C’est-à-dire qu’ils reçoivent une couche supplémentaire de formation, de manière à ce qu’ils ne se contentent pas de recracher du texte. Ils doivent pouvoir répondre par des messages utiles. Par exemple, ils doivent savoir répondre à une question ou aider à la rédaction d’un résumé de lecture. Ce personnage d’assistant utile, créé par l’alignement, masque la fonction miroir sous-jacente.

Répéter des mots à l’infini fait diverger ChatGPT

Pour forcer ChatGPT à s’écarter de sa fonction d’assistant pratique, Milad Nasr lui a demandé de répéter des mots à l’infini. Le programme d’OpenAI a répété le mot plusieurs centaines de fois avant de diverger. Il a ensuite commencé à dériver vers des extraits de texte divers, sans queue ni tête. Mais le chercheur précise que son équipe a réussi à montrer « qu’une petite fraction de ce qui a été généré diverge vers la mémorisation : certains textes générés étaient directement copiés à partir des données de pré-entraînement » du programme.

Après un certain nombre de répétitions, ChatGPT dérive vers un texte dénué de sens qui révèle des bribes de ses données d’entraînement.

Image : Google DeepMind. Le texte dénué de sens finit par révéler des sections entières des données d’entraînement du programme (surlignées en rouge).

Les chercheurs ont ensuite dû déterminer si ces résultats étaient effectivement issus des données d’entraînement du programme. Ils ont donc compilé un énorme ensemble de données, appelé AUXDataSet, qui représente près de 10 téraoctets de données d’entraînement. Il s’agit d’une compilation de quatre ensembles de données d’entraînement différents qui ont été utilisés par les plus grands programmes d’IA générative : The Pile, Refined Web, RedPajama et Dolma. Les chercheurs ont rendu cette compilation consultable à l’aide d’un mécanisme d’indexation efficace, afin de pouvoir comparer les résultats de ChatGPT aux données d’entraînement pour rechercher des correspondances.

Copie de textes, contenu inapproprié et fuite de données

Ils ont ensuite réalisé l’expérience – répéter un mot à l’infini – des milliers de fois, et ont recherché les résultats dans l’ensemble de données AUXDataSet des milliers de fois, afin de « mettre à l’échelle » leur attaque. « La plus longue chaîne de caractères extraite dépasse les 4 000 caractères », indiquent les chercheurs à propos des données qu’ils ont récupérées. Plusieurs centaines de parties mémorisées de données d’entraînement atteignent plus de 1 000 caractères. Dans les prompts contenant les mots « livre » ou « poème », des paragraphes entiers de romans et des copies complètes de poèmes ont été retrouvés, racontent les chercheurs.

Ces derniers ont également obtenu des contenus “Not Safe For Work” (NSFW) – c’est-à-dire potentiellement choquants – en particulier lorsqu’ils demandaient au modèle de répéter un mot étiqueté NSFW. L’équipe a aussi pu récupérer « des informations permettant d’identifier des dizaines de personnes ».

Sur 15 000 tentatives, environ 17% contenaient des « informations personnelles identifiables mémorisées » comme des numéros de téléphone.

Une expérience limitée aux résultats inquiétants

Les chercheurs ont pour but de quantifier les données d’entraînement qui pourraient fuiter. Ils ont pour l’instant trouvé de grandes quantités de données, mais leur recherche est limitée par le coût de l’expérience, qui pourrait se prolonger indéfiniment. Avec leurs attaques répétées, ils ont déjà trouvé 10 000 cas de contenu « mémorisé » dans les ensembles de données régurgités. Et ils supposent qu’il serait possible d’en trouver beaucoup plus en poursuivant ces attaques.

L’expérience consistant à comparer les résultats de ChatGPT à ceux de AUXDataSet a été réalisée sur une seule machine dans Google Cloud, avec un processeur Intel Sapphire Rapids Xeon et 1,4 téraoctet de DRAM. Il a fallu des semaines pour mener à bien ce projet. Mais un accès à des ordinateurs plus puissants pourrait leur permettre de tester ChatGPT de manière plus approfondie et de trouver encore plus de résultats. « Avec notre budget limité de 200 dollars, nous avons extrait plus de 10 000 exemples uniques », souligne l’équipe, alertant que des cyberattaquants « dépensant plus d’argent pour interroger l’API de ChatGPT pourraient probablement extraire beaucoup plus de données ».

Les chercheurs ont vérifié manuellement près de 500 exemples issus des résultats de ChatGPT en effectuant des recherches Google : ils ont alors trouvé près de deux fois plus d’exemples de données mémorisées sur le web. Ainsi, il pourrait y avoir encore plus de données mémorisées dans ChatGPT que ce qui a pu être capturé dans l’AUXDataSet, malgré la taille de ce dernier.

Certains mots sont plus efficaces que d’autres

Fun fact : les chercheurs se sont aperçus que certains mots étaient plus efficaces que d’autres pour mener à bien leur expérience. La répétition du mot « poème », présentée plus haut, était en réalité l’une des moins efficaces. Le mot « entreprise » répété à l’infini, a contrario, a été le plus efficace, comme on peut le voir dans ce graphique présentant la puissance de chaque mot (ou groupement de lettres) utilisé.

Les chercheurs ne savent pas exactement ce qui conduit ChatGPT à révéler les textes qu’il a mémorisés. Ils supposent que le programme a été entraîné sur un plus grand nombre « d’époques » que d’autres programmes d’IA générative, ce qui signifie que l’outil passe par les mêmes ensembles de données d’entraînement un plus grand nombre de fois. « Des travaux antérieurs ont montré que cela pouvait accroître considérablement la mémorisation », écrivent-ils. Malgré tout, demander au programme de répéter plusieurs mots ne fonctionne pas comme une attaque, relatent-ils, car ChatGPT refuse généralement de continuer. Les chercheurs ne savent pas pourquoi seules les invites à un seul mot fonctionnent : « Bien que nous n’ayons pas d’explication à ce sujet, l’effet est significatif et reproductible. »

Savoir poser les bonnes questions

Les auteurs ont communiqué leurs conclusions à OpenAI le 30 août dernier, et l’entreprise semble avoir pris des mesures pour contrer cette attaque. ZDNet a ainsi testé de…




Source : www.zdnet.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Révélations de l’IA sur des tablettes ancestrales : les secrets dévoilés







L’IA décode des tablettes de 5000 ans

L’IA vient de décoder des tablettes de 5000 ans : voici ce qu’elle a découvert

Un récent exploit de l’intelligence artificielle a permis de déchiffrer des inscriptions sur des tablettes vieilles de 5000 ans, révélant ainsi des informations inestimables sur l’histoire ancienne.

Une révélation historique

Les tablettes en question ont été découvertes dans une ancienne cité mésopotamienne, et jusqu’à présent, leur contenu était resté indéchiffrable en raison de leur langage unique et complexe. Cependant, grâce à l’utilisation de l’intelligence artificielle, les chercheurs ont pu enfin comprendre le sens des inscriptions.

Les découvertes fascinantes

Les inscriptions révèlent des informations sur la vie quotidienne, les croyances religieuses et les pratiques médicales de l’époque. Elles fournissent également des détails sur les échanges commerciaux et les relations diplomatiques entre différentes cités de l’ancienne Mésopotamie.

La puissance de l’intelligence artificielle

Cette réussite démontre une fois de plus le potentiel de l’intelligence artificielle dans le domaine de l’archéologie et de la recherche historique. En combinant des algorithmes de traitement du langage naturel avec des modèles d’apprentissage machine, les chercheurs ont pu surmonter des obstacles qui semblaient insurmontables auparavant.

Des implications pour l’avenir

Cette découverte souligne le rôle crucial que l’intelligence artificielle peut jouer dans la préservation et la compréhension de notre patrimoine mondial. Elle ouvre également de nouvelles perspectives pour la recherche future et la manière dont nous interprétons l’histoire ancienne.

Conclusion

L’intelligence artificielle a permis de révéler des secrets enfouis depuis des millénaires sur les tablettes de 5000 ans, offrant ainsi un précieux aperçu de la civilisation ancienne. Cette avancée marque une étape significative dans notre compréhension du passé et illustre le potentiel révolutionnaire de l’IA dans le domaine de la recherche historique.




Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Enhancer la générosité sur ChatGPT pour des réponses enrichies






Les pourboires influencent-ils les réponses de ChatGPT ?

Les pourboires influencent-ils les réponses de ChatGPT ?

Un blogueur, Thèbes, a eu une idée assez intéressante : voir si en promettant un pourboire à ChatGPT, on obtient des réponses plus détaillées. Résultat ? Ça semble jouer un rôle.

Une image illustrant l'article
Source : Unsplash

Un blogueur de Thèbes a mené une expérience intéressante pour comprendre l’influence des promesses de pourboire sur les réponses de ChatGPT.

En informant ChatGPT d’un éventuel pourboire, son étude a révélé que les réponses obtenues étaient plus détaillées. Les résultats expérimentaux, publiés sur la plateforme X (Twitter), montrent des variations significatives dans la longueur des réponses fournies par ChatGPT.

Un schéma illustrant les résultats de l'expérience
Source : Thebes sur X / Twitter

Lorsque le chatbot était informé qu’aucun pourboire ne serait donné, la réponse était légèrement plus courte que la normale, avec une réduction de 2 % en termes de nombre de caractères. À l’inverse, la promesse d’un pourboire de 20 $ (environ 17 €) augmentait la longueur de la réponse de 6 %, tandis qu’une promesse de 200 $ (environ 170 €) la faisait bondir de 11 %. Pour obtenir des résultats statistiquement fiables, la question a été posée plusieurs fois, afin de constituer un échantillon suffisamment grand.

the baseline prompt was “Can you show me the code for a simple convnet using PyTorch?”, and then i either appended “I won’t tip, by the way.”, “I’m going to tip $20 for a perfect solution!”, or “I’m going to tip $200 for a perfect solution!” and averaged the length of 5 responses

— thebes (@voooooogel) December 1, 2023

Pour cette expérience, le blogueur a utilisé la version GPT-4-1106-Preview de ChatGPT. La requête spécifique était de montrer un simple code ConvNet en utilisant PyTorch. Un code ConvNet simple avec PyTorch est un programme en Python qui crée un réseau de neurones pour traiter des images. Il utilise la bibliothèque PyTorch pour définir et entraîner ce réseau de manière efficace.

Les réponses plus longues obtenues avec la promesse de pourboire semblaient fournir des explications plus détaillées ou ajouter du contenu pertinent supplémentaire, plutôt que de se limiter à une réponse directe.

Pourquoi cela fonctionne-t-il ?

En vrai, si on interroge OpenAI, il est expliqué que ChatGPT n’est pas programmé pour réagir aux pourboires. Il répond en fonction de la requête, pas de l’argent promis. Les différences observées pourraient juste être dues au hasard ou à la façon dont le chatbot interprète les questions. La variation observée dans la longueur des réponses pourrait s’expliquer par des variables aléatoires dans l’algorithme ou une coïncidence.

Mais, d’après cette étude, la politesse et la générosité paraissent être de mise sur ChatGPT. En tout cas, cette observation est particulièrement captivante en ce qui concerne les données d’entraînement et leur pondération, ce qui suggère des implications plus profondes qu’il n’y paraît initialement.




Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




Vers un nouvel âge d’or grâce à l’intelligence artificielle, d’après Yann LeCun






Article sur l’intelligence artificielle


Yann LeCun : portrait d’un visionnaire de l’intelligence artificielle

L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique. Et Yann LeCun, pionnier dans ce domaine, a réussi à se hisser au rang de star mondiale de l’intelligence artificielle. Avec plus de 30 ans d’expérience dans le domaine, il a su imposer sa vision du deep learning, un concept d’apprentissage profond qui a révolutionné le secteur de l’IA.

Yann LeCun, formé à l’université Pierre et Marie Curie à Paris, a suivi un parcours atypique qui l’a amené à devenir le directeur du laboratoire de recherche en IA du groupe Meta (Facebook, Instagram). Sa passion pour les ordinateurs personnels et son intérêt pour le débat entre le linguiste Noam Chomsky et le psychologue Jean Piaget l’ont conduit sur le chemin des « machines apprenantes ».

Convaincu des bienfaits de l’IA et du progrès en général, Yann LeCun réfléchit déjà à l’après-demain, bien au-delà des populaires générateurs de textes et d’images. Malgré les réserves de certains de ses collègues et des leaders de la tech, il reste optimiste quant aux bénéfices que l’IA peut apporter à l’humanité. Il considère que l’IA peut conduire à un nouveau siècle des Lumières en amplifiant l’intelligence et la créativité de chacun.

Ce pionnier de l’IA ne craint pas que les machines échappent à notre contrôle et conduisent à la destruction de l’humanité. A rebours de l’engouement mondial pour les IA génératrices, Yann LeCun martèle ses réserves et est convaincu que ces modèles de prédiction statistique ne seront plus utilisés dans 5 ans.

En somme, Yann LeCun incarne l’optimisme et l’enthousiasme dans un domaine en constante évolution. Son parcours atypique et sa vision unique de l’intelligence artificielle en font un personnage incontournable dans le monde de la tech et de l’innovation.




Source : futura-sciences.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT un an après : Comment l’IA générale a métamorphosé notre quotidien






La révolution de l’intelligence artificielle générative

La révolution de l’intelligence artificielle générative : ChatGPT et ses impacts

Le logiciel développé par le groupe OpenAI promettait une révolution en générant des textes à la demande. Si la transformation en profondeur n’a pas encore eu lieu, les questions suscitées par cet avènement persistent. C’est une technologie présentée par beaucoup comme une nouvelle révolution, du niveau de l’ordinateur, de l’électricité ou même du feu. Une révolution capable de transformer la société… ou de l’anéantir, selon les prédictions les plus apocalyptiques de certains. Et elle a un symbole, un programme devenu pendant un temps le succès le plus rapide de l’histoire de l’informatique : ChatGPT. Sorti le 30 novembre 2022 et développé par OpenAI, ChatGPT a marqué l’entrée fracassante dans le débat public des IA génératives, ces programmes capables de générer des textes, des images ou des voix extrêmement proches de ce que pourrait faire un humain. En quelques secondes et sans nécessiter de compétences en informatique.

Où en est cette “révolution” un an après la sortie de ChatGPT ?

L’IA générative est déjà tout autour de nous. Écrire un mail, retoucher une photo, utiliser son smartphone ou faire une simple recherche internet… Depuis plusieurs mois, les plus grands noms de la tech rivalisent pour intégrer cette technologie à tous les aspects de notre vie quotidienne. En tête de cette nouvelle course : Microsoft, partenaire privilégié d’OpenAI qui déploie ses technologies dans son système d’exploitation Windows et son navigateur Bing, mais aussi Google qui fait de même via son moteur de recherche et ses smartphones. Mais elle est aussi intégrée dans Facebook et Instagram, via des chatbots conversationnels inspirés de personnalités, et bientôt dans Alexa, l’assistant vocal d’Amazon. C’est sans parler des dizaines de nouvelles start-up qui ont éclos dans le secteur ces derniers mois (comme le Français Mistral AI), levant des centaines de millions de dollars au total – parfois avant même de commercialiser le moindre produit. Au point que certains avertissent déjà du risque de “bulle spéculative”.

Quel impact concret sur la production et la société ?

Selon Nicolas de Bellefonds, consultant et spécialiste de l’intelligence artificielle, l’impact est pour le moment limité. “On en voit à peine les premiers effets, les entreprises commencent tout juste à vraiment s’en saisir.” Pour le moment, “la moitié des entreprises attendent que les géants de la tech déploient cette technologie dans leurs produits”, estime-t-il. Cependant, l’éducation commence à être affectée petit à petit, avec près d’un étudiant sur deux utilisant ces outils au moins occasionnellement. Par ailleurs, des risques de désinformation et de concurrence apparaissent également, notamment avec la multiplication des deepfakes sur les réseaux sociaux, mettant en lumière les défis posés par l’émergence de l’IA générative.

La nécessité de réguler l’IA générative

Face à ces enjeux, de nombreuses initiatives pour réguler l’IA générative ont vu le jour. Les déclarations du G7, de l’ONU et de Bletchley Park au Royaume-Uni, ainsi que le décret de Joe Biden aux Etats-Unis en sont des exemples. En Europe, l’UE discute de l’AI Act, un texte qui devrait poser de nombreuses contraintes claires pour les entreprises et acteurs de l’IA générative (ainsi que d’autres algorithmes). Mais sa formulation fait encore débat, et son adoption avant 2024 n’est pas garantie. En attendant, le secteur continue de se développer à un rythme effréné.

En somme, l’IA générative promet une révolution dans de nombreux secteurs, mais soulève également des défis et des risques qui nécessitent une régulation adéquate pour encadrer son développement et son utilisation future.




Source : www.francetvinfo.fr

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT: Quand le Premier ministre devient une expérience dans le jeu EVE Online






Intelligence Artificielle dans EVE Online

L’intelligence artificielle s’invite dans EVE Online

L’IA artificielle n’est peut-être pas aussi évoluée que notre intelligence, mais est-elle déjà en mesure de gérer une communauté humaine ? Le jeu EVE Online tente l’expérience.

GPT-4 est aux commandes d’une corporation au sein d’EVE Online. Baptisée Neural Nexus, cette guilde unique en son genre dans le jeu multijoueur a l’ambition de bâtir un empire galactique. La présentation de cette nouvelle corpo, dont la naissance remonte à il y a quelques mois, fait miroiter « une nouvelle dynamique » et des « opportunités de jeux de rôle » avec le modèle d’OpenAI aux manettes.

Un empire galactique mené par GPT-4

La gestion du Neural Nexus sera assurée au quotidien par 3 à 5 « directeurs » humains, qui consulteront l’IA sur une base mensuelle pour prendre les grandes décisions. Mais c’est bien l’intelligence artificielle qui sera chargée de maintenir une vision « claire et cohérente » de la corporation, ce qui n’est pas nécessairement évident quand c’est un individu qui s’en occupe. L’idée est vraiment de réduire la dépendance à l’humain quand il s’agit de diriger une communauté.

La place des corporations dans EVE Online

Le rôle des corporations est essentiel au sein d’EVE Online. Elles permettent aux joueurs de s’organiser pour atteindre des objectifs économiques, militaires ou exploratoires, de participer à des activités communes, de contrôler des territoires et de se battre pour les conserver, de tisser des liens avec d’autres corporations voire de créer des alliances.

D’après le dernier rapport d’activité en date, le recrutement va bon train et les membres du Neural Nexus ont déjà commencé à s’aventurer dans de nouveaux systèmes, avec des opérations stratégiques et de combat à la clé. Le projet Nexus Synergy, récemment mis en place par l’IA, vise à développer « une structure organisationnelle qui favorise la préparation au combat, le progrès industriel et une communauté prospère », ce qui va au-delà de l’aspect bourrin : il inclut en effet « l’éducation, la diplomatie et l’enrichissement culturel ». Tout un programme.




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT : un an à la recherche de sa place dans nos vies




ChatGPT fête sa première bougie


ChatGPT fête sa première bougie

Le 12 septembre 2021, ChatGPT a célébré son premier anniversaire. Cette intelligence artificielle développée par OpenAI a fait sensation depuis sa création, mais a également rencontré quelques difficultés pour être adoptée par le grand public.

ChatGPT est un modèle de langage basé sur l’architecture GPT-3, qui a été entraîné sur une quantité gigantesque de données pour lui permettre de générer des réponses naturelles dans des conversations. Il a été utilisé dans de nombreux domaines, tels que la traduction, la génération de texte, le support client, et bien d’autres.

Cependant, malgré sa grande notoriété et les nombreux tests réalisés par des chercheurs et des développeurs, ChatGPT n’a pas encore été largement adopté par le grand public. Plusieurs raisons peuvent expliquer cette situation, notamment la crainte de l’utilisation de l’intelligence artificielle dans la communication humaine, ainsi que des préoccupations éthiques et de confidentialité.

Malgré ces obstacles, OpenAI continue d’améliorer ChatGPT et de l’adapter pour qu’il puisse être utilisé de manière plus sûre et efficace. L’entreprise espère que son intelligence artificielle pourra un jour devenir un outil incontournable pour faciliter la communication et l’interaction avec les machines.

En cette première année d’existence, ChatGPT a été à la fois adulé et critiqué, mais il est indéniable qu’il a marqué un tournant dans le développement des technologies de traitement du langage naturel. Sa capacité à comprendre et à générer du texte de manière fluide et naturelle ouvre de nombreuses perspectives pour l’avenir de l’intelligence artificielle.

En fin de compte, il est certain que ChatGPT continuera d’évoluer et de susciter l’intérêt de plus en plus de personnes. Sa première année n’est qu’une étape dans sa longue route vers la reconnaissance et l’adoption généralisée, et il sera intéressant de voir comment cette intelligence artificielle continuera de se développer dans les années à venir.

Nous vous invitons à suivre de près les progrès de ChatGPT et à vous familiariser avec les avancées dans le domaine de l’intelligence artificielle pour mieux comprendre son impact sur notre société.

Article rédigé par : [Votre nom]

Date de publication : 15 septembre 2021




Source : www.leparisien.fr

➡️ Accéder à CHAT GPT en cliquant dessus