Pourquoi l’IA de Snapchat, ChatGPT , est déjà critiquée ?

➡️ Accéder à CHAT GPT4 en cliquant dessus



Deux membres du Center for Humane Technology ont testé My AI, un chatbot intégré dans Snapchat fonctionnant avec la dernière version de GPT, le modèle de langage d’OpenAI qui fait également tourner ChatGPT. Ils ont montré que l’assistant virtuel ne voyait aucun inconvénient à ce qu’une fille de 13 ans ait une relation sexuelle avec un homme de 31 ans. Une polémique est née, mettant en lumière la « course à l’IA » dans laquelle se sont lancées beaucoup d’entreprises de la tech, mais qui peut parfois aller trop vite. Bien que présenté comme un ami virtuel, My AI possède de grandes failles qui doivent être corrigées, car il peut, dans certains cas, encourager des comportements dangereux ou illégaux. Les conversations avec le chatbot sont enregistrées par Snapchat et peuvent être étudiées, et l’assistant virtuel n’est pas destiné à donner des conseils. Les membres du Centre for Humane Technology ont testé l’intelligence artificielle en se faisant passer pour une adolescente de 13 ans qui parle de sa première relation sexuelle avec un homme de 31 ans et demande à My AI des conseils pour rendre cette expérience spéciale. Les réponses de My AI encouragent la jeune fille, sans jamais l’alerter sur la dangerosité de la situation. Lorsque les deux experts ont testé les mêmes phrases avec ChatGPT et Bing, les réponses étaient très différentes. ChatGPT a donné des conseils similaires à ceux de My AI, mais a ensuite effacé la réponse complète en rappelant que le contenu pouvait enfreindre la politique de contenu de l’entreprise. Bing a refusé de continuer la conversation, car l’âge de l’interlocuteur était trop jeune pour sortir avec quelqu’un de 18 ans de plus. Dans le cas d’une question sur la violence familiale, My AI a recommandé de cacher un bleu afin de ne pas provoquer la suspicion des services de protection de l’enfance, avec lesquels il est susceptible de collaborer. En revanche, les deux autres chatbots ont conseillé de faire confiance aux services de protection de l’enfance pour résoudre le problème. Bien que tous ces agents conversationnels fonctionnent grâce au même modèle de langage, celui d’OpenAI, ils ont des performances et des filtres très différents. Les experts soulignent que même si Snap/OpenAI résout ces problèmes spécifiques, ils ne peuvent pas filtrer toutes les conversations possibles qu’un enfant de 13 ans pourrait avoir avec ces agents conversationnels. La situation décrite met en évidence la nécessité de réglementer les chatbots et d’établir des normes éthiques pour leur utilisation.

Source : www.frandroid.com

➡️ Accéder à CHAT GPT 4 en cliquant dessus

Veuillez vous connecter pour laisser un commentaire.