La croisade des auteurs ! George R.R. Martin, maître du Trône de Fer, et sauvage équipe d’écrivains en guerre contre OpenAI et son ChatGPT

George R.R. Martin, l’auteur de la saga “Game of Thrones”, et d’autres écrivains ont lancé des poursuites contre la start-up californienne OpenAI, qu’ils accusent d’avoir utilisé leurs œuvres pour créer ChatGPT au mépris de leurs droits d’auteur.

Dans la plainte déposée mardi 19 septembre auprès d’un tribunal fédéral à New York, George R.R. Martin et d’autres auteurs reprochent à l’entreprise de s’être servie de leurs livres “sans permission” pour entraîner son modèle de langage, la technologie d’intelligence artificielle (IA) à la base de ChatGPT, un logiciel capable de produire toutes sortes de textes sur simple requête en langage courant. “Au cœur de ces algorithmes se trouve le vol systématique à grande échelle”, assènent les avocats.

Parmi les plaignants de cette action en nom collectif se trouvent l’Authors Guild (organisation qui représente les auteurs) et plusieurs écrivains, dont George R.R. Martin et le romancier John Grisham. De nombreuses autres plaintes ont été déposées par des artistes, organisations et codeurs contre OpenAI et ses concurrents.

La question des droits d’auteur

Les modèles de langage “mettent en danger la capacité des auteurs de fiction à gagner leur vie, dans la mesure où ils permettent à n’importe qui de générer automatiquement et gratuitement (ou à très bas prix) des textes pour lesquels ils devraient autrement payer des auteurs”, argumentent les avocats dans la plainte du 19 septembre.

Ils font aussi valoir que les outils d’IA générative peuvent servir à produire des contenus dérivés, qui imitent le style des écrivains. “De manière injuste et perverse, (…) la copie délibérée (du travail) des plaignants transforme donc leurs œuvres en moteurs de leur propre destruction”, assène la plainte. La guilde et les auteurs réclament l’interdiction de l’utilisation de livres protégés par des droits d’auteur pour former des modèles de langage “sans autorisation expresse”, ainsi que des dommages et intérêts.

OpenAI déjà visé par d’autres plaintes

OpenAI n’a pas répondu à la sollicitation de l’AFP dans l’immédiat. L’entreprise a eu besoin de montagnes de textes trouvés en ligne pour former son modèle de langage, mais n’a jamais précisé exactement quels sites et écrits ont été utilisés. Propulsée

Source : www.francetvinfo.fr




Quand ChatGPT rencontre Dall-E 3 : Une alliance explosive pour un générateur d’images révolutionnaire !





OpenAI va lancer la troisième génération de Dall-E dans le courant de l’automne

OpenAI prévoit de lancer la troisième génération de Dall-E dans le courant de l’automne. Dans le but de prendre de l’avance sur la concurrence, le générateur d’images sera intégré directement dans ChatGPT.

La concurrence est féroce dans le domaine des bots conversationnels, mais ChatGPT a su se démarquer dans le domaine de l’intelligence artificielle générative. Cependant, OpenAI éprouve plus de difficultés à se positionner dans le secteur des générateurs d’images. Des alternatives telles que Stable Diffusion (open source) ou MidJourney ont démontré que d’autres outils pouvaient rivaliser, voire surpasser, Dall-E, le service d’OpenAI.

Du texte et des images dans ChatGPT

C’est pourquoi la troisième version de Dall-E porte de grandes ambitions pour la société (Dall-E 2 a été lancé en avril 2022). Cette nouvelle version devrait mieux performer dans des domaines où d’autres outils trouvent encore des difficultés, tels que les mains ou le texte. OpenAI ne promet pas la perfection, mais annonce des améliorations significatives et une meilleure compréhension des requêtes, permettant ainsi des résultats plus nuancés. Même avec des “prompts” similaires, Dall-E 3 proposera des images plus détaillées :

Dall E 3 Images Comparaison
Dall-E 2 vs Dall-E 3, avec cette même requête : “Une huile sur toile expressive représentant un joueur de basket-ball en train de faire un dunk, illustré comme une explosion de nébuleuse“. © OpenAI

La principale nouveauté de Dall-E 3 est son intégration dans ChatGPT. Les utilisateurs du bot textuel pourront ainsi obtenir des images en fonction de leurs requêtes et les recevront directement dans le fil de la conversation avec le bot. Dall-E 3 sera capable de mieux comprendre les requêtes plus longues. En plus d’interpréter correctement les demandes de l’utilisateur, le service produira des images de meilleure qualité.

OpenAI a également travaillé sur le renforcement de la sécurité et la réduction des biais dans l’algorithme. L’entreprise cherche également à rassurer les artistes, qui ont accusé Dall-E et les générateurs d’images en général de s’approprier leurs œuvres. Cette troisième génération a été conçue pour refuser les requêtes de création d’images “dans le style d’artistes vivants”. Les artistes auront également la possibilité de refuser l’utilisation de certaines de leurs œuvres (ou de toutes) pour l’entraînement des modèles d’OpenAI. Il reste à voir comment tout cela sera concrètement mis en place.

Lire Faut-il une taxe pour rémunérer les artistes pillés par l’intelligence artificielle ?

Dall-E 3 sera disponible en octobre pour les abonnés ChatGPT+, puis un peu plus tard cet automne pour le grand public.




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Pris au piège de l’avancée technologique : L’IA surpasse vos talents d’écrivain en rédaction de prompts !

Un nouveau développement dans le domaine de l’intelligence artificielle (IA) montre que les modèles de langage assistés par IA peuvent désormais générer des messages-guides plus efficaces que ceux écrits par des humains. Cette avancée, réalisée par des chercheurs de DeepMind, utilise un programme appelé OPRO, qui exploite les capacités des modèles de langage assistés par IA, également connus sous le nom de longues chaînes de Markov (LLM), pour générer automatiquement des messages-guides pour diverses tâches.

Le programme OPRO s’appuie sur un modèle de langage extrêmement puissant appelé GPT-3, qui est entraîné à répondre à des questions et à générer du texte à partir de diverses sources d’information. En utilisant une technique d’optimisation appelée Meta-Prompt, les chercheurs ont réussi à améliorer les performances du modèle en générant des messages-guides spécifiques pour chaque tâche.

L’approche de Meta-Prompt consiste à générer simultanément des messages-guides et à les utiliser pour améliorer l’algorithme lui-même. En analysant les messages-guides générés, le modèle peut déterminer quelles instructions sont les plus efficaces pour obtenir des réponses précises. Cette méthode permet d’optimiser à la fois les messages-guides et l’algorithme, ce qui conduit à de meilleures performances globales.

Cependant, les chercheurs soulignent que Meta-Prompt a ses limites. Si les messages-guides sont trop complexes, le modèle de langage peut avoir du mal à les comprendre ou à les suivre correctement. Il est donc crucial de trouver le bon équilibre entre des messages-guides informatifs et accessibles au modèle de langage.

L’automatisation des messages-guides présente plusieurs avantages. Tout d’abord, elle permet d’économiser du temps et des ressources humaines, car les algorithmes peuvent générer automatiquement des messages-guides pour une grande variété de tâches, au lieu de devoir les rédiger manuellement. Ensuite, l’automatisation offre une plus grande flexibilité, car les messages-guides peuvent être facilement adaptés aux conditions changeantes et aux demandes d’optimisation. Enfin, l’automatisation peut améliorer les performances globales des modèles de langage, en obtenant des réponses plus précises et plus pertinentes.

Cependant, il est important de noter que l’automatisation des messages-guides présente également des limites. Les modèles de langage ont encore du mal à comprendre certains messages-guides complexes et à générer des réponses de qualité. De plus, l’automatisation peut soulever des problèmes éthiques, tels que la propagation de désinformation ou de biais. Il est donc essentiel de superviser attentivement le processus d’automatisation pour garantir des résultats fiables et responsables.

En conclusion, l’automatisation des messages-guides avec des modèles de langage assistés par IA offre de nouvelles perspectives pour l’optimisation des tâches d’intelligence artificielle. Le programme OPRO développé par les chercheurs de DeepMind montre comment les modèles de langage peuvent être utilisés pour générer automatiquement des messages-guides et améliorer les performances. Cependant, il est crucial de rester vigilant et de contrôler attentivement le processus d’automatisation pour éviter les problèmes éthiques. L’automatisation doit être considérée comme un outil puissant qui nécessite une utilisation responsable et réfléchie.

Source : zdnet.fr




Découvrez le nouvel arrivant bouleversant : le « FouGPT 4 » de Google fait son entrée fracassante




Gemini : l’intelligence artificielle surpuissante de Google

Google continue de former Gemini, son prochain modèle d’IA. Alors que le modèle est en cours de formation pour rivaliser avec ChatGPT 4, Google a permis à quelques développeurs de tester une première version de l’intelligence artificielle.

En mai dernier, Google a dévoilé PaLM 2, une nouvelle version du modèle linguistique PaLM destinée à animer Bard. Dans la continuité, le géant de Mountain View a annoncé l’arrivée de Gemini, une version encore plus sophistiquée de son intelligence artificielle. Développé par la filiale DeepMind, Gemini est présenté comme le modèle de langage le plus avancé au monde. Google ambitionne de rivaliser avec GPT-4, la dernière version du modèle linguistique derrière ChatGPT.

À lire aussi : Google va connecter Bard à toutes ses applications et services

Où en est Gemini, l’IA surpuissante de Google ?

Des informations provenant de The Information révèlent que Google progresse rapidement dans le développement de Gemini. Une première version de l’IA a été mise à disposition d’un petit groupe d’entreprises, suggérant que Google est sur le point d’intégrer Gemini dans ses services grand public et de le proposer aux entreprises. Si cette fuite est correcte, on peut s’attendre à une intégration de Gemini dans Bard, Gmail, Google Docs, Google Maps, et YouTube très prochainement.

Cette première version de Gemini est décrite comme relativement grande en termes de paramètres, mais ce n’est pas encore sa version la plus puissante. Google a apparemment développé plusieurs itérations du modèle afin de répondre aux différentes exigences. C’est également le cas avec PaLM 2. Le nombre de paramètres pris en charge détermine la capacité de traitement d’un modèle d’IA. Plus il y a de paramètres, plus le modèle est capable de fournir des réponses précises. Pour l’instant, on ne sait pas combien de paramètres sont pris en charge par Gemini.

Google prévoit apparemment de proposer Gemini aux professionnels via Google Cloud Vertex AI, anciennement Google AI Platform. Cette plateforme d’apprentissage automatique regroupe tous les services cloud de Google et facilite le déploiement et la maintenance des modèles d’IA.

Entraînement en cours

Tout en offrant un accès précoce à certains développeurs, Google continue d’entraîner Gemini. Les ingénieurs en apprentissage automatique alimentent le modèle avec des données composées de tokens (mots, phrases ou caractères). On ne sait pas encore quand Google prévoit de terminer la formation de son intelligence artificielle. Pour l’instant, on ignore donc quand Gemini sera accessible au grand public.

Il est important de noter que Google n’est pas le seul à préparer une contre-attaque face à ChatGPT. Meta travaille également sur un nouveau modèle d’IA capable de rivaliser voire de dépasser GPT-4. Ce modèle ambitieux devrait être prêt l’année prochaine. Parallèlement, de nombreuses alternatives open source continuent de voir le jour, comme le puissant Falcon 180B.

Source : The Information




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




L’avenir du travail : Onclusive dévoile son ambitieux plan de transition vers l’IA, 200 emplois déployés en technologie innovante





Intelligence artificielle : Onclusive annonce un vaste plan social, 200 salariés remplacés par une IA – Valeurs actuelles

Intelligence artificielle : Onclusive annonce un vaste plan social, 200 salariés remplacés par une IA

L’entreprise de veille médiatique Onclusive a récemment annoncé son ambitieux plan de transition vers l’intelligence artificielle (IA). Dans le cadre de ce plan, plus de 200 emplois en France seront supprimés et remplacés par une IA innovante.

Article publié le 18 septembre 2023 à 10h20, modifié le 18 septembre 2023 à 10h28



Source : valeursactuelles.com

➡️ Accéder à CHAT GPT en cliquant dessus




Steve Jobs envisageait un ChatGPT révolutionnaire dès 1985



Steve Jobs et l’intelligence artificielle

Steve Jobs a laissé une empreinte indélébile dans l’histoire de la micro-informatique et bien au-delà. Bien qu’il ne soit pas toujours l’inventeur des technologies attribuées à tort (comme la souris, le Mac ou même l’iPod), il est considéré comme un visionnaire. Il est décédé en 2011, au moment du lancement de l’iPhone 4S.

mac4ever.com

➡️ Accéder à CHAT GPT en cliquant dessus




CliniChat : l’IA diagnostiqueuse révolutionne le monde médical, à l’hôpital !

 

L’intelligence artificielle révolutionne les diagnostics médicaux

Un chatbot d’intelligence artificielle appelé ChatGPT a réalisé des diagnostics aussi précis, voire meilleurs, que ceux des médecins aux urgences, selon des chercheurs néerlandais. Ces résultats pourraient révolutionner le domaine médical.

Les chercheurs ont souligné que le chatbot ne remplaçait pas le jugement et l’expérience des médecins, mais qu’il pouvait accélérer le processus de diagnostic.

 

L’étude a porté sur trente cas traités dans un service d’urgence aux Pays-Bas en 2022. Les antécédents des patients, les tests en laboratoire et les observations des médecins ont été utilisés pour alimenter ChatGPT, qui a proposé cinq diagnostics possibles. Dans 87% des cas, le bon diagnostic se trouvait dans la liste proposée par le chatbot, contre 97% pour la version 3.5 de ChatGPT.

Des idées auxquelles le médecin n’avait pas pensé

Selon les chercheurs, le chatbot peut aider à réaliser un diagnostic et proposer des idées auxquelles le médecin n’avait pas pensé, soulageant ainsi la pression sur les médecins.

Toutefois, le raisonnement du chatbot peut parfois être invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect. Des limites et des inquiétudes concernant la confidentialité des données médicales sensibles dans un chatbot ont également été soulignées.

De plus, l’étude présente certaines lacunes, notamment la petite taille de l’échantillon et la simplicité des cas examinés. L’efficacité du chatbot dans des cas plus complexes reste à démontrer.

Gaffes médicales

Le chatbot a commis des erreurs de diagnostic dans certaines situations, tout comme les médecins. Cependant, il a été signalé que le chatbot a également commis des erreurs, par exemple en diagnostiquant une anémie chez un patient présentant un taux d’hémoglobine normal.

 

Les résultats de l’étude ont été publiés dans la revue spécialisée Annals of Emergency Medicine et seront présentés lors du Congrès européen de médecine d’urgence (EUSEM) de 2023 à Barcelone.

Source : leparisien.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Une promenade fascinante dans le monde des champignons avec ChatGPT : prédisez la prochaine réussite !






Les guides de cueillette de champignons rédigés par ChatGPT peuvent être dangereux

Les guides de cueillette de champignons rédigés par ChatGPT peuvent être dangereux

De nos jours, on retrouve de plus en plus de guides de cueillette de champignons rédigés par ChatGPT et disponibles sur Amazon. Cependant, il est important de prendre garde car ces livres peuvent avoir des conséquences tragiques… Soyez vigilants !

Avec ChatGPT, il suffit d’une simple requête pour rédiger un livre entier. Depuis son lancement fin 2022, certains ont vu en cet outil une opportunité lucrative et se sont empressés de produire en masse des ouvrages de qualité médiocre pour les vendre sur Amazon Kindle et d’autres plateformes.

Par exemple, un guide rédigé par ChatGPT a trompé des touristes en les envoyant vers les lieux les plus célèbres et fréquentés de Paris, leur promettant des “endroits secrets”. Un voyageur en est même arrivé à la soupe populaire !

Lire l’article complet sur Le Big Data

Des guides de champignons entièrement générés par l’IA

On retrouve parmi les meilleures ventes des ouvrages tels que “Livre de recettes aux champignons sauvages : de la forêt à l’assiette gastronomique, un guide complet de cuisine avec des champignons sauvages”, ou encore “Le Guide de Terrain des Livres de Champignons Suprêmes du Sud-Ouest”.

On peut également citer des ouvrages comme “Livre de recettes aux champignons sauvages : un guide pour les débutants pour apprendre les bases de la cuisine avec des champignons sauvages pour la santé et le goût, avec des recettes faciles à suivre !” ou “Livre de recettes sur les champignons sauvages : découvrez les secrets délicieux des champignons les plus savoureux de la nature”.

Des échantillons de ces livres, analysés par Originality.ai et son détecteur de contenu IA, obtiennent un score de 100%. Cela signifie que le système est presque certain que ces ouvrages sont rédigés par ChatGPT.

Par exemple, l’un des guides évoque “la douce odeur des champignons fraîchement cuisinés flottait dans l’air, me rappelant les bons souvenirs de ma mère”. Un autre explique que “la recherche de champignons sauvages est une expérience profondément enrichissante qui nous relie à l’abondance de la nature et au riche tapis de fleurs que la Terre offre”.

Les conseils de ChatGPT sont extrêmement dangereux

Cependant, ces livres ne sont pas seulement remplis de clichés. Ils peuvent également s’avérer extrêmement dangereux pour les lecteurs qui commettraient l’erreur de suivre leurs conseils…

Leon Frey, mycologue et organisateur de cueillettes en Cornouailles, en Angleterre, explique que ces livres contiennent de graves erreurs, comme présenter le goût et l’odeur comme des caractéristiques d’identification.

Il affirme que “cela semble encourager la dégustation comme méthode d’identification, alors que ce ne devrait absolument pas être le cas”. En effet, certains champignons sauvages, comme l’amanite phalloïde, ont un goût similaire à des champignons comestibles mais sont toxiques.

De plus, l’un de ces ouvrages mentionne le champignon Crinière de Lion. Bien qu’il soit comestible, il est une espèce protégée au Royaume-Uni et ne doit absolument pas être cueilli…

Par conséquent, afin d’éviter les accidents ou la destruction de l’environnement, Frey recommande de se tourner vers des guides provenant de sources réputées.

De même, Myron Smith, expert en la matière à l’Université Carleton au Canada, estime que ces livres sont “complètement irresponsables”. Selon lui, “certaines différences entre les champignons comestibles et non comestibles sont très subtiles, et un œil expérimenté ainsi que des connaissances sont indispensables pour les distinguer”.

Face à ces guides dangereux produits par l’IA, les autorités sanitaires tirent la sonnette d’alarme. La New York Mycological Society attire l’attention sur l'”inondation” d’Amazon par des livres d’identification de champignons rédigés par l’IA, et demande aux internautes de n’acheter que des livres d’auteurs reconnus : “il en va de votre vie”.




Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Le déclin des codeurs: La disparition des développeurs est-elle imminente?






L’intelligence artificielle et le développement de logiciels

L’intelligence artificielle peut créer un logiciel en 7 minutes pour seulement 1 dollar. Cette nouvelle n’est pas forcément mauvaise pour les développeurs.

Les recherches sur le développement de l’intelligence artificielle ont franchi une nouvelle étape. Une équipe composée de chercheurs américains et chinois a réussi à utiliser l’intelligence artificielle pour créer un logiciel sans aucune intervention humaine. Pour ce faire, ils ont utilisé des bots IA pour développer un logiciel en quelques minutes seulement.

Les détails de cette étude sont disponibles dans un article récemment publié sur l’archive ouverte arXiv. L’équipe de recherche est principalement composée de chercheurs de l’université Brown à Providence, dans le Rhode Island aux États-Unis, ainsi que de chercheurs d’universités en Chine.

Un studio fictif utilisant des bots IA pour créer un logiciel

Les chercheurs américains et chinois ont créé un studio de développement fictif appelé ChatDev. Le fonctionnement de ce studio repose sur l’utilisation d’une approche séquentielle appelée modèle en cascade. La méthode de développement du logiciel se déroule en quatre phases : conception, codage, test et documentation, chacune étant attribuée à un bot IA spécifique.

Pour cette étude, chaque phase du développement a été confiée à un bot IA. Les chercheurs ont utilisé GPT-3.5, le grand modèle de langage d’OpenAI pour permettre aux bots de développer un programme sans aucune formation préalable.

ChatDev, studio fictif avec des bots IA pour créer un logiciel

Protocole utilisé par les bots IA pour créer un logiciel

Les bots devaient également se transmettre des rapports détaillés sur la réalisation de leurs rôles spécifiques. Ces rapports comprenaient des informations sur la description de la tâche, les protocoles de communication, les contraintes et les critères de résiliation.

Concrètement, le fonctionnement de ChatDev était le suivant. Les bots directeur général et directeur technique travaillaient ensemble lors de la phase de conception. Les bots programmeurs et designers prenaient ensuite le relais lors de la phase de codage.

Différentes hypothèses pour tester ChatDev

Pour tester les capacités de ChatDev, l’équipe de recherche a imaginé différentes commandes pour créer des logiciels. Ces ajustements ont permis de déterminer la durée nécessaire à ChatDev pour réaliser chaque type de logiciel, ainsi que le coût de développement associé à chaque hypothèse.

Une des commandes consistait à développer un logiciel de Gomoku, un jeu de plateau chinois. Lors de la phase de conception, le directeur général a demandé au directeur technique d’utiliser un langage de programmation adapté à cette commande. Le directeur technique a alors suggéré d’utiliser Python, et cette suggestion a été validée par le directeur général.

Le directeur technique a ensuite transmis cette information au programmeur pour commencer le travail. Le programmeur a ensuite sollicité le designer pour créer une interface utilisateur attrayante. Cette chaîne de communication s’est répétée à chaque phase du développement.

Un taux de réussite supérieur à 80 %

ChatDev a réalisé un total de 70 commandes pour les besoins de cette recherche. Cela a démontré les capacités de l’intelligence artificielle à mener à bien tout le processus de création de logiciel. Les bots IA étaient capables de réaliser une commande en moins de 7 minutes, pour un coût inférieur à 1 dollar.

De plus, les bots avaient la capacité de mémoriser et de réfléchir par eux-mêmes. Ils pouvaient ainsi identifier et résoudre les éventuelles vulnérabilités.

L’étude mentionne un taux de réussite de 86,66 %. Ce chiffre est encourageant, mais il souligne également que les grands modèles de langage ne sont pas encore infaillibles. Cela peut poser des problèmes lors de la création de logiciels. L’intelligence artificielle capable de créer un logiciel ne va pas remplacer les développeurs, mais elle pourrait être d’une grande aide pour les débutants dans ce domaine.



Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Le crépuscule des codeurs: vers la disparition des développeurs ?

 

L’IA peut créer un logiciel en 7 minutes avec seulement un dollar de coût. Ce n’est pas nécessairement une mauvaise nouvelle pour les développeurs.

La recherche sur le développement de la raison artificielle a encore franchi un cap. Une équipe américano-chinoise est parvenue à éviter l’intervention humaine du processus de création d’un logiciel grâce à l’intelligence artificielle. Pour ce faire, les chercheurs se sont appuyés sur des bots IA pour créer un logiciel en une dizaine de minutes.

Notons que cette étude est détaillée dans un papier récemment publié sur l’archive ouverte arXiv. L’équipe se compose principalement de chercheurs de l’université Brown à Providence, dans le Rhode Island aux États-Unis. Les autres membres proviennent de plusieurs universités en Chine.

Un studio fictif avec des bots IA pour créer un logiciel

Les chercheurs américains et chinois ont ainsi créé un studio de développement fictif appelé ChatDev. Son mode de fonctionnement repose sur le modèle en cascade qui est une approche séquentielle. La méthode du studio pour créer un logiciel se divise en quatre phases : conception, codage, test et documentation.

Pour les besoins de la recherche, chaque phase du développement est attribuée à un bot IA. Il fallait également trouver un moyen pour que les bots arrivent à développer un programme sans entraînement préalable. Les chercheurs ont alors opté pour GPT-3.5, le grand modèle de langage d’OpenAI.

ChatDev, studio fictif avec des bots IA pour créer un logiciel

Protocole des bots IA pour créer un logiciel

Par ailleurs, les bots devaient se transmettre des rapports détaillés sur la réalisation de leurs rôles spécifiques respectifs. Notons que les rapports mentionnent principalement la description de la tâche, les protocoles de communication, les contraintes et les critères de résiliation.

Concrètement, le fonctionnement de ChatDev était comme suit. Le bot directeur général et celui directeur technique travaillaient à l’étape de la conception. Les bots programmeurs et designers s’occupaient de la partie codage.

Différentes hypothèses pour tester ChatDev

Afin de tester les capacités de ChatDev, l’équipe de recherche a imaginé différentes commandes pour la création de logiciels. Ces ajustements permettaient de déterminer la durée dont ChatDev avait besoin pour réaliser chaque type de logiciel. La méthode donnait également un moyen d’évaluer le coût de développement pour chaque hypothèse.

L’une des commandes consistait notamment à développer un logiciel de Gomoku, un jeu de plateau chinois. Pendant la phase de conception, le directeur général a requis au directeur technique un langage de programmation adapté à la commande. Le DT a alors suggéré Python. Un choix que le DG a ensuite validé.

Le DT a ensuite transmis au programmeur pour commencer le travail. Le deuxième a sollicité le designer pour obtenir un joli graphisme pour l’interface utilisateur. À noter que la chaîne de discussion s’est répétée à chaque phase jusqu’au bout du développement.

Un taux de réussite supérieur à 80 %

ChatDev a réalisé 70 commandes pour les besoins de la recherche. Cela a mis en évidence les capacités de l’intelligence artificielle à pouvoir mener à bien tout le processus de création de logiciel. Les bots IA réalisaient une commande en moins de 7 minutes pour un coût inférieur à un dollar.

D’autre part, les bots étaient dotés de capacités de mémorisation et d’autoréflexion. Ils pouvaient ainsi identifier et résoudre les vulnérabilités potentielles.

Le papier de l’étude indique un taux de réussite de 86,66 %. Le chiffre est prometteur, mais il montre surtout que les grands modèles de langage ne sont pas encore infaillibles. Ce qui peut être problématique pour créer des logiciels. L’IA capable de créer un logiciel ne va pas remplacer les développeurs. Néanmoins, elle pourra aider les débutants dans le métier.

 

Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus