L’attachement sentimental aux tonalités de ChatGPT, l’avertissement d’OpenAI
OpenAI, le laboratoire technologique, est proche de l’arrivée de nouvelles tonalités plus authentiques que jamais pour ChatGPT. Ces compétences vocales inédites, accessibles aux utilisateurs payants dès la prochaine saison automnale, ont suscité l’enthousiasme de nombreux adeptes. En effet, certaines tonalités ont été si persuasives que même l’actrice Scarlett Johansson a cru reconnaître sa propre voix, contraignant OpenAI à suspendre temporairement la tonalité en question, surnommée « Sky ».
Cependant, ce progrès technologique soulève également des enjeux éthiques et des inquiétudes quant à l’influence de la « personnalisation » des chatbots. En effet, dans un récent rapport émis par OpenAI concernant les dangers liés au GPT-40, la nouvelle version du système de langage de l’entreprise, il est mentionné que les tonalités anthropomorphes pourraient générer un lien émotionnel entre l’utilisateur et le chatbot. Cette anthropomorphisation peut s’avérer bénéfique pour les individus solitaires à la recherche d’interactions sociales, mais elle peut également conduire à des relations artificielles et à l’isolement des personnes les plus réservées.
Parmi les autres dangers relevés par OpenAI figurent l’accentuation des partialités sociales, la propagation de fausses informations et même la possibilité de contribuer à l’élaboration d’armes chimiques. Des essais ont été réalisés pour contrer ces menaces potentielles en empêchant les modèles d’IA de prendre le contrôle et de planifier des catastrophes à la manière de Skynet.
Cette sensibilisation aux risques potentiels par OpenAI a pour objectif de tranquilliser les détracteurs et de prouver que l’entreprise prend au sérieux sa responsabilité de développer une intelligence artificielle éthique et fiable. Il est primordial de demeurer vigilant face aux avancées technologiques et de superviser leur évolution de manière éthique et responsable.
Pour plus de détails sur ce sujet, vous pouvez consulter l’article initial sur Wired.
Source : www.01net.com