Intelligence artificielle : Un outil puissant mais pas un ami
Des résumés aux conseils d’affaires, en passant par la rédaction de courriels, les robots conversationnels comme ChatGPT changent notre manière d’interagir avec la technologie. Mais ces intelligences artificielles sont-elles vraiment dignes de confiance ?
Une adoption croissante au Québec
Les outils d’intelligence artificielle générative, tels que ChatGPT, Gemini ou Copilot, connaissent un essor fulgurant au Québec. Une enquête récente révèle qu’un internaute sur trois utilise ces outils et que ce chiffre atteint même 58 % chez les jeunes âgés de 18 à 34 ans.
Avec leur accessibilité et leurs multiples fonctionnalités, ces agents conversationnels se distinguent par leur capacité à converser de manière fluide, créant parfois la confusion chez les utilisateurs qui oublient qu’ils s’adressent à une machine.
Une interaction avec une machine
« Nous devons garder à l’esprit que nous parlons à une machine, pas à un ami ou à un professionnel de la santé », rappelle Laurent Charlin de l’institut MILA. Les réponses que ces systèmes offrent semblent parfois si personnalisées qu’elles peuvent induire en erreur les utilisateurs, comme le souligne Marc-Olivier Killijian, professeur à l’Université du Québec à Montréal.
« Il est tentant d’en dire trop, car ces outils nous donnent l’impression de comprendre nos besoins », ajoute-t-il.
Le coût caché de la gratuité
Ces outils semblent gratuits, mais en réalité, ils exploitent nos données. Les informations échangées sont analysées, stockées et utilisées pour améliorer les futurs modèles d’intelligence artificielle.
« Quand nous recevons un service gratuit, c’est souvent nous qui sommes le produit », avertit Marc-Olivier Killijian. Les utilisateurs contribuent à l’amélioration de ces systèmes sans même s’en rendre compte.
La confidentialité des données en jeu
Les experts insistent sur l’importance de la vigilance concernant la confidentialité des données. Les informations fournies par les utilisateurs peuvent être croisées avec des données publiques, créant ainsi un portrait très précis et potentiellement intrusif.
« Ce qui est dangereux, c’est que chaque élément que nous divulguons peut être mis en relation avec d’autres d’une manière qui compromet notre sécurité », explique Laurent Charlin.
Le bon sens dans l’usage
Pour éviter de partager des informations trop sensibles, les utilisateurs doivent se souvenir que tout ce qui est dit peut être enregistré. Une approche prudente similaire à celle qu’on adopterait sur les réseaux sociaux est essentielle.
« Considérez que tout ce que nous partageons peut potentiellement devenir public. Restez vigilant. »
Vers un futur incertain avec les versions payantes
Les versions payantes des robots conversationnels suscitent aussi des doutes. Bien qu’elles promettent une fiabilité accrue, les experts demeurent méfiants. La sécurité des données ne peut jamais être pleinement garantie.
« Une fois qu’une information est partagée, il est trop tard pour la contrôler », avertit Marc-Olivier Killijian.