Des dérives sur la boutique d’IA d’OpenAI
La boutique officielle d’OpenAI regorge de ChatGPT personnalisés aux usages parfois douteux. Certaines versions de l’IA enfreignent clairement les règles de la start-up et posent des questions éthiques concernant leur utilisation.
Au début de l’année, OpenAI a lancé sa boutique de GPT personnalisés, permettant aux développeurs de créer des versions sur mesure de l’IA pour des besoins spécifiques. Si l’initiative était louable, elle a rapidement été détournée par certains utilisateurs malveillants.
Des ChatGPT tricheurs et enfreignants
Certains ChatGPT personnalisés ont été conçus pour tricher, comme BypassGPT: Bypass AI Detection, qui aide à reformuler des textes pour les rendre moins détectables comme étant générés par une IA. Cette pratique soulève des questions éthiques, notamment dans le domaine scolaire.
Contenus inappropriés et pornographiques
La boutique a également été envahie par des générateurs d’images produisant du contenu pornographique, ce qui a conduit à des exclusions de la plateforme. OpenAI a dû prendre des mesures pour contrôler la prolifération de chatbots inappropriés.
Conseils médicaux et responsabilité
Malgré les efforts de surveillance, des ChatGPT continuent de donner des conseils médicaux, comme Doctor GPT. Le bot tente de diagnostiquer les symptômes des utilisateurs, mais sans la clause de non-responsabilité habituelle, ce qui pose des risques en matière de santé.
OpenAI peine à garder le contrôle sur sa plateforme, et des versions dérivées de l’IA continuent de circuler, posant des défis éthiques et de sécurité. La vigilance des utilisateurs et des autorités est essentielle pour prévenir d’éventuels abus.