Les ambitions de Google Bard pour surpasser ChatGPT avec Gemini






Google Bard veut détrôner ChatGPT grâce à Gemini

Google Bard veut détrôner ChatGPT grâce à Gemini

Image : NurPhoto/Getty Images.

Google a dévoilé Bard, son chatbot alimenté par l’intelligence artificielle, en février dernier. Avec l’objectif de devenir un redoutable concurrent pour ChatGPT, Bard a été alimenté depuis sa sortie par deux grands modèles de langage (LLM) différents. Et aujourd’hui, il bénéficie de la mise à jour la plus importante de son LLM : Gemini.

Qu’est-ce que Gemini Pro ?

Ce mercredi, Google a publié Gemini, le modèle de langage le plus performant et le plus avancé à ce jour. Il avait été annoncé pour la première fois en mai dernier, à l’occasion de Google I/O. Parallèlement à la sortie du nouveau LLM, Google a annoncé une version spécialement optimisée de Gemini Pro dans Google Bard pour les anglophones.

Gemini existe en trois tailles différentes : Gemini Ultra, Gemini Pro et Gemini Nano – chaque modèle étant spécialisé sur des tâches différentes. Par exemple, Gemini Nano est le plus efficace pour effectuer des tâches sur des appareils. Gemini Pro est le plus large : il est capable de réaliser de nombreuses tâches diverses. Gemini Ultra, quant à lui, est le plus avancé. Il est donc le plus adapté aux tâches complexes.

Grâce à Gemini Pro, Google Bard devrait avoir des capacités de raisonnement, de planification et de compréhension plus avancées.

Pas encore disponible en France

Pour démontrer l’efficacité de Gemini Pro, Google l’a testé par rapport à un certain nombre de critères de référence standard de l’industrie. Ses résultats ont montré que dans six des huit points de référence, Gemini Pro surpasse GPT-3.5, le LLM d’OpenAI qui alimente la version gratuite de ChatGPT.

Image : Google.

Google poursuit en indiquant le résultat des évaluations à l’aveugle qu’elle a menées : Bard avec Gemini Pro a été désigné comme le chatbot gratuit favori des personnes ayant participé.

Bard avec Gemini Pro est d’ores et déjà disponible gratuitement dans 170 pays – mais pas encore en France – et uniquement en anglais pour l’instant. Néanmoins, Google prévoit de l’étendre prochainement à d’autres langues et dans d’autres régions du monde. Pour le tester, il suffit d’utiliser le chatbot de Google comme vous le feriez habituellement.

En attendant Bard Advanced

Bard ne s’arrêtera pas à cette mise à jour. Au début de l’année prochaine, Google prévoit d’introduire Bard Advanced, qui sera alimenté par la version la plus avancée de Gemini – Gemini Ultra. Le géant du web précise que cette version est capable de comprendre et d’agir rapidement sur des entrées multimodales – texte, images, audio, vidéo et code notamment.

Avant de lancer Bard Advanced, Google va d’abord procéder à des vérifications de sécurité approfondies et lancer un programme de testeurs de confiance.

Lors de son lancement, avant Gemini, Bard était alimenté par une version allégée du modèle de langage pour les applications de dialogue (LaMDA) de Google. Puis LaMDA a été remplacé en mai dernier par PaLM 2, une version plus avancée de PaLM censée améliorer considérablement l’expérience du chatbot. Cependant, les améliorations ont été jusque là plutôt minimes. La nouvelle mise à jour, puis la prochaine prévue au programme, permettront-elles à Google de s’affirmer face à OpenAI ? L’avenir nous le dira.

Source : ZDNet.com




Source : www.zdnet.fr

➡️ Accéder à CHAT GPT en cliquant dessus




6 façons dont ChatGPT peut AMÉLIORER instantanément votre vie



Un utilisateur de l’intelligence artificielle (IA) partage son expérience avec l’utilisation quotidienne de ChatGPT comme assistant personnel. Il explique que même s’il a eu une assistante humaine pendant des années en tant que propriétaire d’une entreprise prospère, ChatGPT peut presque remplacer cette aide. Il mentionne que ChatGPT peut aider à rédiger des e-mails et des messages de manière plus efficace en suggérant des mots et des phrases en fonction du contexte du message. Il montre un exemple d’e-mail généré par ChatGPT pour refuser une demande de parrainage, montrant ainsi la précision et l’utilité de l’outil. Il explique également comment ChatGPT peut être utilisé pour planifier des vacances, en demandant des recommandations sur des hôtels ou des activités pour une destination donnée. Enfin, il mentionne l’aspect financier de ChatGPT, ainsi que leur sponsoring pour la vidéo.
Source : Brian Jung | Date : 2023-04-22 16:00:15 | Durée : 00:14:06

➡️ Accéder à CHAT GPT en cliquant dessus




Google dévoile Gemini, son dernier bijou en matière d’intelligence artificielle pour défier ChatGPT






Google déploie son nouveau modèle d’intelligence artificielle Gemini

Google va commencer mercredi à déployer Gemini, son nouveau modèle d’intelligence artificielle (IA) censé lui permettre de mieux rivaliser avec OpenAI (le créateur de ChatGPT) et Microsoft, des applications pour le grand public aux capacités informatiques pour les entreprises. “C’est notre modèle d’IA le plus conséquent, le plus doué et aussi le plus général”, a assuré Eli Collins, un vice-président de Google DeepMind, le laboratoire de recherche en IA du groupe californien, lors d’une présentation à la presse.

Gemini peut “voir”

Il a ensuite diffusé une vidéo où un utilisateur montre des objets, des dessins et des vidéos à Gemini. Le système d’IA commente à l’oral ce qu’il “voit”, identifie les objets, joue de la musique et répond à des questions requérant un certain degré d’analyse, en justifiant son “raisonnement”. Le nouveau modèle est “multimédia dès sa création, il a des capacités de raisonnement sophistiquées et il peut coder à un niveau avancé”, a détaillé Eli Collins.

Depuis le lancement de ChatGPT il y a un an, les géants de la Silicon Valley se livrent une course effrénée à l’IA dite générative, qui permet d’obtenir des textes, images ou lignes de code d’un niveau équivalent à ceux produits par des humains, sur simple requête en langage courant. Google, leader de l’IA mais pris de court par le succès phénoménal de ChatGPT, a répondu notamment avec son propre chatbot, Bard. Cependant, tout se joue au niveau des modèles, les systèmes informatiques qui sous-tendent ces applications. Gemini, “c’est une étape de plus vers notre vision : vous amener le meilleur collaborateur d’IA au monde”, a de son côté souligné mercredi Sissie Hsiao, vice-présidente de Google chargée de Bard.

Bard doit gagner en capacités dès mercredi

Bard doit gagner en capacités dès mercredi, mais toujours avec des requêtes rédigées, et seulement en anglais. Il faudra attendre 2024 pour les autres fonctions et formats, comme l’aide avancée à la résolution de problèmes de maths. Moins connu que ChatGPT, Bard a l’occasion d’essayer de regagner du terrain sur son rival, victime de son succès : mi-novembre, débordé par la demande, OpenAI a en effet mis sur pause les abonnements à la version payante.

Google va aussi donner accès le 13 décembre à une première version de Gemini à ses clients dans le cloud (informatique à distance). Sur ce terrain, le géant d’internet est en concurrence directe avec Microsoft, principal investisseur d’OpenAI et numéro 2 mondial du cloud, derrière Amazon. Les deux groupes américains ont passé l’année à ajouter des outils d’IA générative à leurs logiciels respectifs (moteur de recherche, logiciels de bureautique et productivité, plateforme de cloud, etc.).




Source :
www.europe1.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Découvrez le mystère des LLM : les moteurs de ChatGPT, Google Bard et autres révélés !

Derrière ChatGPT, Google Bard, Meta AI et autres, il y a ce qu’on appelle les LLM, pour « large language models », ou grands modèles de langage en français. Ce sont en fait les moteurs des chatbots textuels d’IA, ceux qui apprennent et qui « comprennent » ce qu’on leur dit.

Bonjour chers débutants en intelligence artificielle! Nous allons aujourd’hui plonger dans le mystérieux monde des grands modèles de langage (LLM) qui se cachent derrière des noms tels que ChatGPT, Google Bard ou Meta AI. Comment fonctionnent-ils? Qu’est-ce qui les rend si puissants? Pas de panique, nous allons tout vous expliquer.

Qu’est-ce que ça veut dire « LLM »?

LLM est l’acronyme de l’expression anglaise « Large Language Model ». En français, on pourrait la traduire par « grand modèle de langage ». Il s’agit de modèles de langage qui possèdent généralement au moins un milliard de paramètres. En français, on peut aussi les nommer « modèles massifs de langage » et les désigner avec l’acronyme « MML ». Mais comment fonctionnent-ils exactement? C’est ce que nous allons voir.

Comment fonctionnent les LLM, les moteurs des intelligences artificielles?

Un LLM, c’est en réalité un réseau de neurones artificiels profonds. Chaque neurone informatique possède des entrées ainsi qu’une sortie. À l’aide de règles précises qu’on lui indique, le neurone formel peut transformer une entrée en une sortie. Ces neurones artificiels sont associés en réseaux selon différents types de connexions. La force de ce système de réseau de neurones, c’est qu’il peut « apprendre » de lui-même: c’est le machine learning. Pour faire apprendre à un LLM, il faut lui donner du texte, beaucoup de texte. On peut simplement prendre Wikipédia par exemple. La qualité de l’apprentissage dépend aussi de ce qu’on appelle l’étiquetage des données, qui consiste à donner la réponse à une tâche demandée à partir de données déterminées.

Ce qu’a changé l’architecture Transformer au deep learning

C’est en 2017 qu’un changement technologique va bouleverser le monde de l’intelligence artificielle : la création de l’architecture Transformer. Elle résulte d’une longue combinaison de procédés techniques, avec des travaux datant de nombreuses années. Un « transformeur » est un modèle d’apprentissage profond, principalement taillé pour le traitement automatique des langues. Là où les réseaux neuronaux traditionnels traitent une requête en entrée de manière séquentielle, le transformeur peut paralléliser cette entrée, afin de considérablement réduire les temps d’entraînement.

Les premiers « vrais » modèles de langage : GPT et BERT

Deux LLM, qu’on peut considérer comme des pionniers, ont été publiés en 2018 à quelques semaines d’écart. Le premier, c’est GPT, pour Generative Pre-Trained Transformer d’OpenAI. Le second, c’est BERT de DeepMind (qui appartient à Google). Grâce à l’architecture Transformer, ils se sont révélés être des révolutions dans les LLM. Ils sont très bons en compréhension du langage naturel ainsi qu’en génération de texte. Ils peuvent réaliser des tâches simplement en leur demandant de manière textuelle.

À quoi servent les large language models?

La grande force des LLM, c’est précisément qu’ils n’ont pas d’usage précis, puisqu’ils n’ont pas été entraînés sur une tâche particulière. Leur fonctionnement neuronal fait qu’ils sont entraînés à la prédiction d’une suite probable en fonction d’une entrée donnée. Si vous demandez à ChatGPT de vous raconter une histoire, il va probablement démarrer par « Il était une fois », puisque c’est très classique.

Voilà, en espérant que cet article ait pu éclairer certains aspects du fonctionnement des intelligences artificielles génératives textuelles. Nous avons effleuré des notions complexes, mais indispensables pour comprendre l’IA de demain, alors n’hésitez pas à fouiller davantage dans ce passionnant domaine!

Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT: Transformez vos conversations en gain d’argent dès maintenant !




OpenAI DevDay Conference: Nouveautés en Intelligence Artificielle

OpenAI présente ses dernières innovations lors de DevDay

Début novembre, OpenAI a organisé sa conférence annuelle DevDay, durant laquelle celui-ci a fait le plein de nouveautés. Parmi les annonces, il y a eu celle des GPTs, ainsi que de la boutique GPT Store. Alors que les utilisateurs ont déjà la possibilité de personnaliser l’expérience ChatGPT avec des instructions, OpenAI permet maintenant à ceux-ci de créer leurs propres versions de l’IA. Quant au GPT Store, il s’agit d’une boutique sur laquelle les utilisateurs pourront piocher les différentes versions créées par la communauté, et qui permettra de gagner de l’argent.

Création de versions personnalisées de ChatGPT

L’idée est de permettre la création de versions de ChatGPT optimisées pour des usages spécifiques, que ce soit à titre personnel ou professionnel. Et pour créer ces versions personnalisées, le codage n’est même pas indispensable. Selon les explications d’OpenAI, il est par exemple possible d’ajouter des instructions, d’intégrer de nouvelles informations aux connaissances de l’IA, ou encore sélectionnées des compétences particulières, comme l’analyse de données, ou la recherche d’informations sur la toile.

Le GPT Store

Le GPT Store permettra, quant à lui, de mettre ces versions personnalisées à la disposition de la communauté. Et apparemment, OpenAI s’est inspiré des boutiques d’applications mobiles, puisque les créateurs auront la possibilité de gagner de l’argent grâce à GPT Store. “Une fois dans le magasin, les GPT deviennent consultables et peuvent grimper dans les classements. Nous mettrons également en lumière les GPT les plus utiles et les plus agréables que nous rencontrons dans des catégories telles que la productivité, l’éducation et « juste pour le plaisir ». Dans les mois à venir, vous pourrez également gagner de l’argent en fonction du nombre de personnes utilisant votre GPT”, a expliqué OpenAI.

Retard dans le déploiement du GPT Store

Lors de l’annonce du mois de novembre, OpenAI a indiqué qu’il lancerait GPT Store fin novembre. Mais désormais, il est possible que cette boutique ne soit déployée qu’en 2024. C’est en tout cas ce qu’affirment nos confrères de The Verge dans un récent article. D’après celui-ci, OpenAI aurait envoyé un e-mail aux personnes qui ont déjà commencé à développer leurs propres versions de ChatGPT avec l’outil GPT Builder.

Dans cet e-mail, l’organisation indiquerait qu’elle prévoit désormais de lancer GPT Store début 2024, en raison d’événements inattendus qui ont occupé celle-ci. Pour rappel, OpenAI a récemment été secoué par la saga Sam Altman. Pour résumer, le conseil d’administration a décidé de renvoyer le PDG d’OpenAI. Mais quelques jours plus tard, Altman a repris son poste, tandis que le conseil d’administration est remplacé.

Implication de Microsoft

Grâce aux milliards de dollars qu’il a investis dans OpenAI et son accord inédit avec celui-ci, Microsoft a un accès complet aux technologies développées par l’équipe de Sam Altman. Et justement, la firme de Redmond prévoit déjà de lancer une fonctionnalité de son intelligence artificielle Copilot (basée sur GPT-4) qui permettra aussi de créer des versions personnalisées du modèle.

Appelée Copilot Studio, cette fonctionnalité “rassemble un ensemble de fonctionnalités conversationnelles puissantes, depuis les GPT personnalisés, les plugins d’IA générative et les sujets manuels.”

“Vous pouvez personnaliser Copilot pour Microsoft 365 avec vos propres scénarios d’entreprise : créer, tester et publier des copilotes autonomes et des GPT personnalisés[…]”, a également indiqué Microsoft. Sinon, celui-ci devrait également intégrer GPT-4 “Turbo”, l’autre grosse annoncée par OpenAI, à son chatbot Copilot.

Résumé des principales annonces

  • OpenAI a développé une fonctionnalité qui permettra de créer des versions personnalisées de ChatGPT, sans coder
  • Une boutique appelée GPT Store permettra à la communauté de découvrir des versions modifiées de l’IA, tandis que les développeurs pourront gagner de l’argent via cette boutique
  • Prévue pour le mois de novembre, cette boutique de GPTs ne sera cependant disponible qu’en 2024
  • Microsoft va aussi intégrer cette nouveauté d’OpenAI dans son offre Microsoft 365 pour les entreprises




Source : presse-citron.net

➡️ Accéder à CHAT GPT en cliquant dessus




La révolution linguistique : Gemini, l’assaut de Google contre ChatGPT






Google lance Gemini, un nouveau modèle d’IA

Google lance Gemini, un nouveau modèle d’IA

Google vient de lancer Gemini, un nouveau modèle d’intelligence artificielle qui va désormais permettre à Bard de fonctionner. Gemini sera également présent dans le Google Pixel et une version Ultra est prévue pour 2024.

Pour ceux qui connaissent ChatGPT, il est important de ne pas confondre l’application ChatGPT avec les modèles sous-jacents, GPT 4 et GPT 3.5, qui sont utilisés pour traiter les requêtes des utilisateurs. Désormais, pour l’IA de Google, Bard, le modèle qui se trouve derrière est Gemini, qualifié par Google de “le plus ambitieux et le plus performant de ses modèles d’IA”.

Gemini

Gemini, un modèle multimodal

Gemini n’est pas qu’un simple modèle d’IA. Il s’agit en réalité d’un modèle multimodal, capable de réagir à différents types de sources d’informations, y compris le texte, le code, l’audio, l’image et la vidéo. Une vidéo publiée par Google montre l’IA de Google en action, décrivant un dessin, inventant un jeu, résolvant une énigme et établissant des liens logiques entre différents objets.

Google détaille dans un communiqué que le modèle Gemini a été conçu pour être nativement multimodal, lui conférant une capacité de compréhension et de raisonnement sur tous types d’entrées. Cela le rend plus performant que les modèles existants et étend ses capacités dans tous les domaines de l’IA.

Trois versions de Gemini

Google a annoncé trois versions de Gemini : Gemini Pro, Gemini Nano et Gemini Ultra. Gemini Pro sera intégré à Google Bard dès maintenant, tandis que Gemini Nano sera intégré au Pixel 8 Pro. Enfin, Gemini Ultra sera testé par des clients, développeurs et experts en cybersécurité avant d’alimenter une version améliorée de Bard, appelée Bard Advanced, début 2024.

Opera One - Navigateur web boosté à l’IA

Par : Opera




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Exploration robotique: à la découverte de nouveaux matériaux grâce à l’IA






Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux


Découvrez comment l’intelligence artificielle révolutionne la conception de nouveaux matériaux

Pour concevoir de nouveaux matériaux, les chercheurs mettent l’intelligence artificielle à contribution

Pour concevoir de nouveaux matériaux, les chercheurs ne partent pas de rien, ils vont se baser sur les structures de matériaux déjà connus et la modifier légèrement, souvent en substituant un atome par un atome similaire. Une fois une structure déterminée, il faut vérifier sa stabilité. Pour ce faire, les chercheurs utilisent des méthodes de simulations ne pouvant tourner en un temps raisonnable que sur des supercalculateurs (serveurs, aux capacités énormes, utilisés par les chercheurs pour faire tourner des algorithmes demandeurs en ressources).

À ces calculs théoriques s’ajoute la recherche d’une synthèse permettant d’obtenir le matériau souhaité. Lors de cette phase, chaque échantillon obtenu par un protocole de synthèse testé se doit d’être caractérisé (il faut déterminer la nature et la position des atomes qui le constitue). C’est une fois la caractérisation faite que le chercheur peut analyser les résultats et choisir quelles sont les modifications à apporter à la synthèse. En suivant ces étapes, cela peut prendre plusieurs mois à un physicien pour concevoir un nouveau matériau et déterminer une procédure de synthèse.

Plus de 2,2 millions de nouvelles structures cristallines

Or GNoME est parvenu rapidement à déterminer plus de 2,2 millions de nouvelles structures cristallines (structures internes des matériaux) présentant une certaine stabilité.

An animated sequence showing a ball and stick model of a crystal, rotating.

La structure cristalline du Ba6Nb7O21, l’un des matériaux prédits par GNoME. Le barium est en bleun le niorbium en gris et l’oxygène en bleu. Crédits : Materials Project/Berkeley Lab

Parmi la mine de matériaux suggérés par l’intelligence artificielle, plus de 380.000 vont enrichir la base de données The Materials Project, fondée par des chercheurs de l’université américaine de Berkeley et servant de grande bibliothèque des matériaux. Cette grande base de données permet aux chercheurs de cataloguer les matériaux ainsi que leur propriété (s’ils sont conducteurs ou isolants, leurs propriétés magnétiques, ou encore s’ils ont déjà été observés expérimentalement) mais également de les calculer automatiquement par simulation quand cela est nécessaire.

Lire aussiGraphCast, l’intelligence artificielle de Google qui révolutionne les prévisions météo

Un réseau de neurones

L’approche par intelligence artificielle GNoME se base sur une catégorie de réseaux de neurones spécialisés dans le traitement d’informations pouvant être représentées par un graphe. Ce dernier est un objet mathématique constitué de nœuds reliés entre eux par des arêtes, ce qui est le cas d’une structure cristalline.

L’IA a été entraînée à partir des données de The Materials Project en 2018, soit l’équivalent de 69.000 matériaux différents. Le réseau de neurones est ainsi capable de proposer des structures cristallines en les dérivant de la base donnée. Une des caractéristiques principales de leur technologie est qu’elle est capable d’apprendre de ses erreurs (et de ses réussites). Chaque cristal proposé passe par un ensemble de simulation (similaire à celle de The Materials Project), les informations récupérées de cette simulation sont ensuite fournies en données d’entrée et d’apprentissage pour l’IA. C’est grâce à ce procédé d’apprentissage actif que GNoME réussit à s’améliorer au-delà même des données fournies initialement.

Lire aussi“La vague déclenchée par l’exploit de l’algorithme de DeepMind Alphafold n’est pas retombée”

Un laboratoire automatique pour accélérer le test de ces matériaux

Le 29 novembre 2023 également, ces chercheurs de Berkeley ont publié, dans Nature, les premiers résultats de leur laboratoire automatisé fonctionnant en partie grâce à l’intelligence artificielle, le A-Lab. Ce laboratoire est capable de déterminer des procédures de synthèse des matériaux en se basant sur la littérature scientifique et sur les expériences qu’il a effectuées.

A-Lab - Laboratoire automatique

Crédits : Berkeley Lab/US Department of Energy

Le labo est donc constitué de plusieurs parties : des bras robotiques, des fours contrôlables par ordinateur, pouvant chauffer de 600°C à 1100°C, ou encore d’un analyseur à rayons X, appareil capable de déterminer la structure interne d’un matériau à l’aide des rayons X. Tous ces appareils de pointe sont dirigés par une intelligence artificielle. Cette dernière a été entraînée sur une base de données regroupant des protocoles de synthèse récupérés dans près de 25.000 publications.

Pour récupérer les informations importantes de ces articles, les chercheurs ont utilisé une autre intelligence artificielle spécialisée dans le langage naturel, c’est-à-dire capable d’interpréter des textes écrits par l’humain sans avoir besoin d’intervention humaine préalable sur le texte. L’intelligence artificielle est ensuite capable de détecter les similarités entre le matériau cible et ceux de la littérature pour déterminer les poudres à mélanger, leur proportion et les températures des fours nécessaires.

100 échantillons par jour

La fabrication est opérée automatiquement par les robots. Une fois celle-ci terminée, les bras robotiques pulvérisent le solide obtenu et l’amène à l’analyseur à rayons X. Ce dernier utilise le phénomène de diffraction (déviation des rayons lumineux par la présence d’objets de petite taille, ici les atomes constituant le cristal). À partir des résultats de la diffraction, il est possible de déterminer la nature et la position des atomes dans le cristal analysé. Ces résultats sont ensuite, à l’instar des simulations pour GNoME, utilisés pour réentraîner le modèle et réajuster les fabrications proposées.

Grâce à cette automatisation, le laboratoire a réussi à déterminer en 17 jours la synthèse de 41 matériaux (sur les 58 analysés), à un rythme de 100 échantillons par jour. Ce rythme d’environ deux matériaux par jour permet une accélération dans la recherche de matériaux innovants – rappelons qu’un humain peut mettre plusieurs mois pour un seul matériau.




Source : sciencesetavenir.fr

➡️ Accéder à CHAT GPT en cliquant dessus




L’intelligence artificielle CRÉE les JEUX que je demande (ChatGPT)



Un joueur demande à une intelligence artificielle de coder plusieurs jeux (tic-tac-toe, snake, Tetris et un prototype de Super Mario) et de les faire fonctionner sans que lui-même n’ait à faire quoi que ce soit. Au départ, l’IA crée des fichiers HTML, CSS et JavaScript pour le tic-tac-toe, mais ne mentionne pas la partie qui les relie. Le joueur doit donc pénétrer dans le code pour faire les modifications nécessaires. Pour le snake, l’IA fournit un code fonctionnel, mais avec des fonctionnalités manquantes, et le joueur demande à l’IA comment y remédier. Après deux erreurs de programmation de l’IA, le jeu est finalement terminé par le joueur. Pour le Tetris, l’IA fournit un code avec de nombreuses lacunes, ce qui requiert beaucoup de modifications par le joueur pour le faire fonctionner. La conclusion est que l’IA est une puissante aide, mais qu’elle nécessite encore une certaine surveillance et intervention de la part des développeurs.
Source : Guinxu | Date : 2022-12-23 23:18:46 | Durée : 00:09:37

➡️ Accéder à CHAT GPT en cliquant dessus




Découvrez MIA : l’outil révolutionnaire d’intelligence artificielle destiné à tous les lycéens par Gabriel Attal






Un outil d’IA pour accompagner les lycéens de seconde en français et en mathématiques

Le système, développé par l’entreprise EvidenceB, sera disponible pour tous les lycéens de seconde, dès septembre 2024. Il doit les accompagner en français et en mathématiques.

“Modules interactifs adaptatifs” ou “MIA”. C’est le nom de l’outil dont le déploiement a été annoncé ce 5 décembre par le ministre de l’Éducation nationale Gabriel Attal. Mis au point par l’entreprise EvidenceB, le système (MIA Seconde, de son nom complet) prend la forme d’une application. Elle sera à disposition de l’ensemble des quelque 800.000 élèves de seconde, en septembre 2024, et dès février 2024 pour 200.000 d’entre eux.

“Tous les élèves entrant au lycée seront désormais accompagnés, à la maison, d’un outil d’IA de remédiation ou d’approfondissement en français et en mathématiques” précise le mail de Gabriel Attal, consulté par Tech&Co.

Une fois l’application ouverte, l’élève est invité à réaliser un test de positionnement, qui prend la forme d’une série de questions en français et mathématiques, afin de définir son niveau à un instant T. Il peut également entrer les résultats du test de positionnement réalisé en classe par tous les lycéens lors de leur entrée en seconde.

Une fois cette étape passée, l’application propose des milliers d’exercices, toujours dans les deux matières. Et c’est la progression de l’élève qui va être articulée par l’intelligence artificielle, grâce à un “algorithme de renforcement”.

Apprentissage automatique

“Lorsqu’un élève a terminé un exercice, l’algorithme va ensuite lui présenter l’exercice qu’il juge le plus pertinent dans sa progression, sans que ce soit forcément linéaire. Un élève n’aura jamais la même suite d’exercices qu’un autre” explique Thierry de Vulpillières, cofondateur d’EvidenceB, à Tech&Co.

Interface de l'application MIA Seconde
Interface de l’application MIA Seconde © EvidenceB

Par ailleurs, l’intelligence artificielle va pouvoir s’évaluer elle-même, grâce à un processus apprentissage automatique. Notamment pour déterminer si l’enchaînement des exercices qui a été proposé a permis à un élève de progresser plus rapidement. En analysant les données de l’ensemble des élèves, l’algorithme pourra automatiquement faire évoluer ses recommandations.

“La machine fait progresser chaque élève, et chaque élève fait progresser la machine” ajoute Thierry de Vulpillières.

En plus du mode classique (baptisé “Solo IA”), l’application propose des outils plus classiques, comme des tutoriels vidéo, un mode atelier (à utiliser par le professeur en classe), ou encore un mode duo pour réaliser des exercices en binôme. Les données liées à la progression des différents élèves sont ensuite accessibles aux enseignants, par le biais d’un tableau de bord.

Le fondateur d’EvidenceB assure que ces outils, dont le fonctionnement est basé sur des travaux effectués des chercheurs en sciences cognitives, sont les plus à même de faire progresser la France dans le classement PISA, qui accuse un retard de plus en plus important.

Malgré le déploiement de MIA Seconde à l’ensemble des élèves, le cabinet de Gabriel Attal assure à Tech&Co qu’il ne sera pas obligatoire.




Source : bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




Révolution écologique : comment l’intelligence artificielle transforme l’empreinte carbone des entreprises






La transition énergétique dans l’industrie


Publié le 4 déc. 2023 à 16:09Mis à jour le 5 déc. 2023 à 10:40

Mener à bien la transition énergétique n’est plus un sujet de débat dans l’industrie. Tous les grands industriels en France disposent d’une stratégie de décarbonation. Signe de son importance, celle-ci est portée par les directions générales dans deux groupes interrogés sur trois, révèle une enquête menée par KPMG et La Fabrique de l’industrie auprès de 38 dirigeants de grands groupes.

La question est, en revanche, celle du tempo de ces plans. Seuls 22 % des industriels s’attendent à une baisse de leur empreinte carbone supérieure à 10 % d’ici à 2024, ce qui correspond pourtant à l’objectif de la stratégie nationale bas carbone (SNBC) en place depuis 2020. A l’horizon trois à cinq ans, 39 % seulement affichent des objectifs compatibles avec le projet de révision de cette stratégie visant à s’aligner sur les nouvelles ambitions européennes.




Source : lesechos.fr

➡️ Accéder à CHAT GPT en cliquant dessus