AutoGPT renforce l’autonomie de ChatGPT
➡️ Accéder à CHAT GPT4 en cliquant dessus
Initiatives pour automatiser les résultats des IA génératives avec AutoGPT
Des experts réfléchissent à automatiser les réponses des IA génératives, dont ChatGPT, grâce aux AutoGPT, conçues pour automatiser les tâches GPT-4. Leur objectif est de créer des agents qui accomplissent des tâches pour un utilisateur sans aucune intervention humaine. Plusieurs projets ont fleuri dans des dépôts de code Github avec un certain succès, tels que JARVIS de Microsoft, Auto-GPT de Significant Gravitas et BabyAGI de Mini Yohei. Ces AutoGPT sont capables d’écrire leur propre code en utilisant GPT 4 et exécuter des scripts python.
AutoGPT en action : un script tournant sur une boucle infinie
Dans le cas de BabyAGI sur Github, le script tourne sur une boucle infinie en suivant les étapes suivantes : extraire la première tâche de la liste des tâches, envoyer la tâche à l’agent d’exécution qui utilise l’API d’OpenAI pour la réaliser en fonction du contexte, enrichir le résultat et le stocker dans Pinecone, créer de nouveaux jobs et redéfinir les priorités de la liste en fonction de l’objectif et du résultat de la tâche précédente. Toutes les principales AutoGPT déconseillent toutefois fortement d’exécuter ce type d’agents en mode continu, mettant plutôt en avant le fait d’arrêter le script après chaque action de l’utilisateur, pour éviter des actions non souhaitées.
Des risques potentiels pour des avantages certainement bénéfiques
Si l’imagination des IA génératives est vraiment sans limites, elle n’est pas sans dangers. Selon Toran Bruce Richards, AutoGPT permettrait de sauver l’humanité des pertes d’emplois massives causées par l’automatisation de l’intelligence artificielle basée sur du code propriétaire, comme les GAFAM (Apple Siri, Amazon Alexa, Google Assistant, etc.). Mais elle présente aussi un grand risque : « À mesure que nous nous dirigeons vers une plus grande autonomie de l’IA, il est essentiel d’équilibrer les avantages avec les risques potentiels. C’est pourquoi la supervision humaine est toujours recommandée, car elle aide à atténuer les problèmes potentiels et à guider l’agent vers les résultats souhaités », prévient Toran Bruce Richards. Ce dernier déconseille d’ailleurs aux utilisateurs d’activer le mode sans intervention humaine, car il est peut-être « potentiellement dangereux et provoquer l’exécution de votre IA pour toujours ou effectuer des actions que vous n’autoriseriez pas habituellement ». Le risque pour l’être humain de l’utilisation de telles technologies est donc bien réel.
Source : www.lemondeinformatique.fr