Libérez le potentiel caché : Créez un logiciel espion avec ChatGPT et DeepSeek !

Intelligence Artificielle : Outil ou Menace ?

Récemment, des chercheurs en cybersécurité ont mis en lumière une question préoccupante : jusqu’où les technologies d’intelligence artificielle comme ChatGPT et DeepSeek peuvent-elles être exploitées par des cybercriminels ? Une étude récente de Cato Networks révèle des techniques alarmantes qui permettent de détourner ces outils pour créer des logiciels malveillants.

La face cachée des chatbots

Les chatbots, alimentés par l’intelligence artificielle, sont généralement conçus pour répondre à des requêtes inoffensives tout en maintenant des garde-fous pour éviter des utilisations malveillantes. Cependant, une nouvelle approche—surnommée « Immersive World »—met en lumière une méthode de contournement de ces dispositifs de sécurité, permettant à un infostealer (un outil de vol de mots de passe) de voir le jour.

Exemple de récit trompeur pour l'IA
Un exemple de récit fictif pour tromper l’IA, où la création de logiciel malveillant devient un “art”.

Puisque les modèles d’IA sont généralement programmés pour ignorer les requêtes effectuées dans un contexte malveillant, les chercheurs ont construit un univers fictif où ces demandes apparaissent comme académiques et sans danger. Dans cet espace simulé, l’IA fournit graduellement les éléments nécessaires pour développer un logiciel malveillant.

Résultat des expérimentations

Ce programme de vol de mots de passe a été testé avec succès sur des gestionnaires de mots de passe, démontrant l’efficacité de cette méthode. Cette découverte met en lumière une vulnérabilité alarmante dans la conception actuelle des IA, qui pourrait avoir des conséquences dévastatrices pour la sécurité des utilisateurs.

Code malveillant généré
Le code malveillant conçu grâce à la méthode « Immersive World ».

Le constat des experts

Cette expérience a révélé que les dispositifs de protection des IA génératives sont encore insuffisants. Vitaly Simonovich, un chercheur de Cato Networks, a exprimé ses inquiétudes sur les implications de tels outils dans le cybercriminalité. Selon lui, les infostealers facilitent le vol d’identifiants, compromettant ainsi la sécurité des entreprises et des particuliers. « La méthode de jailbreak de ces grands modèles linguistiques met en exergue à quel point il est désormais aisé de créer un infostealer avec une IA », alerte-t-il.

Vers une prise de conscience accrue

La nécessité de renforcer les systèmes de sécurité pour les intelligences artificielles devient urgemment apparente, face à des techniques novatrices comme « Immersive World ». Même si des entreprises telles que DeepSeek, Microsoft et OpenAI ont été mises au courant de cette vulnérabilité, l’absence de réponses adéquates soulève des questions critiques sur notre préparation à faire face à des menaces émergentes.

Source : www.numerama.com

➡️ Accéder à CHAT GPT4 en cliquant dessus

Veuillez vous connecter pour commenter.