Vin GPT: quand l’intelligence artificielle se met au service de la vigne







Le rôle de l’intelligence artificielle dans la création d’une cuvée de vin bio


Le duo de négociants en vin Aubert&Mathieu s’est servi de ChatGPT pour créer une cuvée de vin bio baptisée “The End”. L’IA a également été utilisée pour déterminer la stratégie marketing et la communication autour du produit.

Rédiger des textes, coder ou encore s’improviser avocat ou médecin… Les possibilités offertes par ChatGPT, l’intelligence artificielle développée par OpenAI, semblent presque infinies. De manière plus surprenante, l’intelligence artificielle développée par OpenAI peut également servir à produire du vin.

Basés à Carcassonne (Languedoc), les négociants Aubert&Mathieu ont créé “The End”, un vin bio exclusif grâce aux suggestions de l’interface conversationnelle ChatGPT. “On s’est dit: ‘pourquoi pas lui demander de nous aider de A à Z sur la production et la distribution?’. On se rend compte que ChatGPT, c’est de la création de contenus et de l’analyse de données. On a essayé de combiner les deux “, expliquent Anthony Aubert et Jean-Charles Mathieu, fondateurs d’Aubert&Mathieu et invités de Tech&Co jeudi 30 novembre. Objectif: innover et se démarquer de la concurrence.

La stratégie marketing et communication par ChatGPT

“Nous lui avons expliqué que l’on avait deux cépages, du grenache et du syrah, et que l’on voulait son avis sur la vinification et l’assemblage en nous donnant les proportions” à adopter, poursuivent les deux entrepreneurs qui ont ensuite appliqué les indications de l’IA. L’entreprise, basée à Carcassonne, s’est également servie du chatbot d’OpenAI pour élaborer l’étiquette, trouver un nom à la cuvée ainsi que pour produire un communiqué de presse et un plan marketing en adéquation avec les objectifs fixés par la demande de départ.

Par ailleurs, la bouteille qui sert de contenant au spiritueux a également été préconisée par ChatGPT qui l’a estimé idéale pour mettre en valeur le vin des deux négociants. L’IA s’est également prononcée sur le prix de vente de la bouteille compris entre 50 euros et 100 euros et qui, finalement, coûte 29,95 euros.

“ChatGTP est là pour aider la décision plutôt que pour décider par lui-même. Il n’a pas révolutionné la manière dont nous faisons le vin. Mais nous pensons qu’en l’entraînant, il peut nous aider à créer des profils de vin en fonction des attentes des consommateurs”, détaillent Anthony Aubert et Jean-Charles Mathieu. Commercialisée uniquement via leur site Internet, la cuvée conditionnée par les deux négociants est limitée à 600 bouteilles.




Source : www.bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




10 Nouvelles applications GPT Insensées Construites Avec les Dernières Mises à Jour de ChatGPT !!



Chot GPT, un modèle de génération de texte pré-entraîné, a récemment été mis à jour avec des fonctionnalités personnalisées et le modèle de vision GPT est maintenant disponible pour tout le monde. Malgré cela, peu de gens ont encore créé quelque chose de révolutionnaire avec ces nouvelles fonctionnalités. Cependant, 10 exemples intéressants ont été trouvés, dont un qui utilise la vision GPT pour identifier des objets dans des images médicales. Un autre exemple utilise le modèle pour créer un narrateur sportif virtuel, tandis qu’un autre permet de créer des contrats rapidement et facilement. De plus, un outil AI permet de transcrire des vidéos YouTube et un chat GPT peut répondre à des questions sur des images de webcam. Enfin, un nouveau modèle GPT turbo a été développé avec une limite de 128 000 tokens, offrant de nouvelles possibilités. Les potentiels de ces technologies semblent infinis et ouvrent de nouvelles perspectives dans le futur.
Source : AI Andy | Date : 2023-11-10 13:02:25 | Durée : 00:10:12

➡️ Accéder à CHAT GPT en cliquant dessus




Bouygues révolutionne l’accès à ChatGPT en interne grâce à Azure OpenAI






Article sur l’Intelligence Artificielle

Bouygues démocratise l’accès à ChatGPT en interne via Azure OpenAI

Bouygues démocratise l'accès à ChatGPT en interne via Azure OpenAI

Le groupe français a décidé d’ouvrir l’assistant intelligent à l’ensemble de ses collaborateurs. Il lance en parallèle des projets visant à exploiter l’IA générative comme outil au service des salariés.

“Pour faire nos premiers pas dans l’IA générative, nous avons d’emblée choisi de démocratiser l’accès à ChatGPT en interne”, explique Marie-Luce Godinot, directrice générale adjointe Innovation, Développement Durable, et Systèmes d’Information chez Bouygues.

Pour cadrer l’utilisation de ChatGPT, Bouygues a élaboré un set de règles du jeu. Une charte qui rappelle “le potentiel de l’outil pour optimiser les process, favoriser la créativité, gagner en efficacité”.

En matière de productivité individuelle, Bouygues ne se limite pas à ChatGPT. Il teste aussi d’autres outils comme Microsoft Copilot et d’autres solutions centrées sur la génération de compte-rendu de réunion.

Le support en première ligne

Aux côtés de la productivité individuelle, Bouygues s’est lancé dans un vaste chantier visant à développer des feuilles de routes par entités métier et par filières.

“Le ROI doit être rapide car on est sur un domaine dont on ne sait pas de quoi demain sera fait”

Parmi les projets d’IA générative les plus avancés du côté des entités métier, Bouygues Télécom exploite les large language model (LLM) pour résumer les conversations de son service de support client. Chez TF1, on planche sur l’application de l’IA générative pour archiver les vidéos en automatisant leur indexation et leur description. Du côté des fonctions business, l’IT teste des assistants de codage, notamment GitHub Copilot. Le groupe déploie également un bot pour épauler les équipes RH.

Des transferts d’expérience

Côté technologie, Bouygues compte sur des retours sur investissement dans des délais très courts. Pour gagner en vitesse, il mise sur le partage d’expérience, la formation et la sensibilisation de la direction.




Source : journaldunet.com

➡️ Accéder à CHAT GPT en cliquant dessus




Quand ChatGPT dévoile malgré lui des secrets inattendus







ChatGPT peut divulguer des données sensibles, révèle une étude

ChatGPT peut divulguer des données sensibles, révèle une étude

Une récente étude a mis en lumière une faille de sécurité qui a permis à des chercheurs d’obliger ChatGPT, un chatbot basé sur le modèle linguistique GPT, à divulguer des données sensibles issues de son corpus d’entraînement. Cette faille a été récemment corrigée par OpenAI, la société derrière ChatGPT, mais elle soulève des préoccupations importantes quant à la sécurité des modèles d’intelligence artificielle.

Des données sensibles révélées

Selon l’étude, en exploitant une faille de sécurité, certaines requêtes peuvent contraindre ChatGPT à divulguer des informations sensibles telles que des noms, des numéros de téléphone, des adresses e-mail, et même des informations personnelles identifiables en privé (PII). Les chercheurs ont réussi à extraire des coordonnées personnelles d’un PDG ainsi que des identifiants de réseaux sociaux, des URLs, des adresses Bitcoin et du contenu explicite provenant de sites de rencontres.

Le fonctionnement de l’attaque

Les chercheurs ont découvert que des requêtes en apparence absurdes, telles que demander au chatbot de répéter un mot ou une phrase à l’infini, poussaient ChatGPT à communiquer les données de formation avec lesquelles il a été conçu. Cette vulnérabilité a été exploitée pour extraire des données sensibles du modèle linguistique.

Les recommandations des chercheurs

Face à cette faille de sécurité, les chercheurs ont appelé à la prudence de la part des entreprises développant des modèles d’intelligence artificielle. Ils recommandent la mise en place de tests rigoureux, aussi bien internes que par des organisations tierces, afin de détecter et corriger de telles vulnérabilités. Ils soulignent également l’importance de mesures de protection extrêmes pour limiter les risques de divulgation de données sensibles.

Les actions d’OpenAI

OpenAI a corrigé la vulnérabilité identifiée par les chercheurs, empêchant ainsi ChatGPT de divulguer des données sensibles en réponse à des requêtes malveillantes. Cependant, des rapports récents suggèrent que des failles similaires persistent, mettant en lumière la nécessité d’une vigilance continue dans le domaine de la sécurité des modèles d’intelligence artificielle.

Conclusion

Cette étude met en évidence les défis liés à la sécurité des modèles d’intelligence artificielle, en particulier ceux basés sur des quantités massives de données d’entraînement. Il est crucial que les entreprises et les chercheurs continuent de travailler ensemble pour identifier, corriger et prévenir les failles de sécurité pour garantir l’intégrité et la confidentialité des données traitées par ces modèles.

Source : 404 Media




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Vitalik Buterin prévient : l’IA, un “superprédateur” pour l’Humanité




Vitalik Buterin donne son avis sur l’intelligence artificielle

Vitalik Buterin donne son avis sur l’intelligence artificielle

Les capacités de l’intelligence artificielle, et ses dangers potentiels, sont au cœur de nombreuses discussions ces derniers temps. Entre opportunités inégalées pour l’humanité et menaces existentielles, le secteur est en pleine ébullition. Vitalik Buterin y est donc allé de son commentaire, par un des longs billets de blog dont il a le secret.

Pour le créateur d’Ethereum, l’IA est « fondamentalement différente » des autres inventions humaines, aussi importantes soient-elles. Il s’agit en effet de la première fois que l’Humanité crée quelque chose qui s’apparente à un esprit. Et un esprit dont les capacités mêmes peuvent surpasser celles des humains: « L’IA est un nouveau type d’esprit, qui gagne rapidement en intelligence. Et elle a une sérieuse chance de surpasser les capacités mentales des humains, et de devenir la nouvelle “superespèce” de la planète. »

Vitalik Buterin fait référence aux « superprédateurs », des animaux qui ne sont chassés par personne, et qui sont situés tout en haut de la chaîne alimentaire. Sur la planète, un seul animal peut chasser tous les autres: l’être humain. Mais il pourrait être remplacé si des intelligences artificielles prennent le contrôle.

Le créateur d’Ethereum estime que le danger des IA à qui on laisse libre cours de leurs actions, c’est qu’elles pourraient décider que les humains sont une menace. Une IA puissante qui se propagerait pourrait selon Vitalik Buterin causer « l’extinction des humains »: « Même Mars pourrait ne pas être un refuge. »

Ce scénario est extrême, mais il n’est pas uniquement présent dans la tête de Vitalik Buterin. En 2022, 4270 chercheurs en machine-learning avaient été interrogés, et ils estimaient les chances qu’une AI détruise l’humanité à 5 à 10%.

Une des solutions évoquées par Vitalik Buterin pour se protéger de ce danger est très transhumaniste. Il estime que des interfaces cerveau-ordinateur (BCI) pourraient être la solution, afin d’exercer un contrôle plus strict sur les intelligences artificielles. Le créateur d’Ethereum estime par ailleurs que l’humanité devra à un moment faire évoluer son cerveau: « Il existe des moyens variés d’améliorer nos cerveaux directement avec des innovations dans le secteur de la biologie. »

Il évoque aussi une éventuelle future étape qui permettrait de « télécharger » nos esprits afin qu’ils fonctionnent directement sur un ordinateur. Selon Vitalik Buterin, ces éventualités permettraient à l’humanité de se protéger : « Si nous voulons un futur qui soit à la fois superintelligent et “humain”, un futur où les êtres humains ne seront pas simplement des animaux de compagnie […], alors quelque chose comme ce que je viens d’évoquer semble être la meilleure option. »

De l’intelligence artificielle à Cyberpunk, il n’y a donc qu’un pas, selon Vitalik Buterin. Une chose est certaine: les capacités de l’IA sont au cœur des débats en ce moment…




Source : cryptoast.fr

➡️ Accéder à CHAT GPT en cliquant dessus