La face (très) sombre de ChatGPT …
➡️ Accéder à CHAT GPT4 en cliquant dessus
Révélations sur les pratiques d’OpenAI pour entraîner des modèles d’intelligence artificielle
L’intelligence artificielle (IA) est un domaine en pleine expansion, notamment avec le développement de modèles comme GPT (Generative Pretrained Transformer) qui permettent de générer des poèmes, des recettes de cuisine ou même des séances de sport. Cependant, pour que ces modèles fonctionnent, il est nécessaire de leur fournir des données labellisées. C’est ainsi que des entreprises comme OpenAI ont recours à des filtres et à des classifieurs pour trier les données en entrée.
Pourtant, de récentes révélations du Time ont mis en lumière les pratiques d’OpenAI pour entraîner leur modèle GPT. La classification et le filtrage du texte et des images nuisibles sont une étape nécessaire pour minimiser la quantité de contenu violent et sexuel inclus dans les données de formation et créer des outils capables de détecter le contenu nuisible. Cependant, pour cela, OpenAI a recours à des entreprises qui emploient des travailleurs dans des pays où la main-d’œuvre est peu chère, comme le Kenya ou l’Asie, pour classer des milliers d’images violentes et potentiellement illégales.
L’entreprise sama, employée par OpenAI pour trier ces données, paie ses employés moins de 2 dollars par jour pour passer toute la journée devant un écran à trier des contenus violents, y compris des images impliquant des enfants. Les travailleurs sont exposés à des scènes sordides et traumatisantes, avec entre 150 et 200 textes violents à classer toutes les heures, soit jusqu’à 7200 textes par jour. Les travailleurs subissent des traumatismes, comme des visions récurrentes notamment après avoir vu des images obscènes.
En conséquence, l’entreprise sama a signé trois contrats pour étiqueter des données, pour un montant total de 200 000 €, tandis que les travailleurs ne touchaient qu’une fraction de ce montant. OpenAI a quant à elle minimisé les dommages causés aux travailleurs et a déclaré qu’elle travaillait avec des entreprises tierces pour gérer cette question. Cette affaire révèle la facette sombre et méconnue du développement des modèles d’IA, qui requièrent des milliers d’heures de travail et pour lesquels la question du traitement des travailleurs est souvent loin d’être résolue.
Source : Defend Intelligence | Date : 2023-01-29 18:00:30 | Durée : 00:10:29
(Petite coquille : c’est bien 2$ de l’heure et non pas de la journée comme je le dis un peu plus loin dans la vidéo! Merci !
La source principale de cette vidéo est dispo ici : https://time.com/6247678/openai-chatgpt-kenya-workers/ )
J’ai perdu 10 minutes de mon temps. Merci 😄
le chat gpt recrache juste des infos ou elle sais réfléchir par elle même et apprendre ?
Très bonne vidéo comme d'hab bravo 👏
Le problème est donc notre modèle économique et social, l'IA n'est qu'un exemple. On exploite des gens à l'étranger, mais aussi chez nous avec des salaires qui ne permettent même pas de se nourrir correctement, voir de se loger. Notre modèle n'étant pas mis à jour il se dégrade et devient décadent : il n'est plus que l'illusion de ce qu'il devrait être. Il faut le remettre en question pour le rajeunir.
Mon chat fait q’péter
La classification et le filtrage ne pourraient ils pas être traité par une IA directement qui filtrerait les contenus violents ?
first time?
On doit arrêter ça tout court ! Ça fait plus de mal que de bien. Les gens perdent leur travail. On est quoi sans son travail ?
Enfaîte ces sociétés nous rendent complice sans notre consentement 😑😒
Sont déjà bien dans la France. Horreur pour la suite. C est le début d une autre intelligence qui contrôlera tout.
referencement
Il n'y avait pas des robots autonomes dans des universités US qui étaient pilotés par des gens en Inde à distance ? Je ne sais plus si c'était réel ou un film.
Imagine les Tesla, en fait c'est un mec au bout du monde qui m'a conduis lol
1) 2$ de l'heure c'est l'équivalant de combien de dollars pour un américain lambda ? 1000 ? 2000 ? que peuvent-ils s'acheter avec ce salaire. Attention à ne pas utiliser des chiffre CHOC, pour donner un poid plus gros à son argument. Après je dis pas que c'est trop peu 2$, mais se serait bien de faire un comparatif quand on donne des chiffres comme ça 😀
2) Se serait bien au moins de donner un salaire à ces africains qui te donne la même force d'achat qu'un salaire américain. Je dis au pif, mais pour un africain c'est peut être 7 euro de l'heure ?
3) Se serait bien aussi de donner les mêmes droits dans le contract de travail qu'à un américain. Par exemple c'est maximum 40h par semaine de travail, avec congé payé, pauses, etc…
—> Si tout ça est fait, je vois pas pourquoi les Africains n'auraient pas le droit de faire du télé-travail pour d'autres pays. Les américains peuvent le faire si ils trouvent du télé-travail, alors pourquoi pas aussi les Africains.
4) Pour parler du contenu à lire qui est éprouvant car gore ou pire : C'est autant triste à faire lire ça à un Américain qu'à un Africain. Donc une fois que les 2 ont le même salaire et qualité de congé, ce n'est plus un argument valable.
Quand on vend son âme au Diable, il y-a toujours un prix à payer, c'est le même principe pour les données de ChatGPT.
On ne fait pas d'omelette sans casser les œufs . C'est un mal nécessaire . Depuis des années c'est ainsi ,c'est comme ça que le monde évolue .
en d'autres termes on redefini ce qui est bien et ce qui est mal, mais sur quelles bases ? Il n'y aucunes garanties que les personnes qui font ce tri ne soient pas soumises a des "directives" ideologiques, comme c'est le cas actuellement dans d'autres domaines.
Rien de nouveau sous le soleil, déjà facebook faisait pareil aux Philippine pour modéré
les utilisateurs: images et vidéos pédo porno; actes de torture; guerres etc…
Mais à force de labelliser du contenu, des IA ayant compris les labels ne peuvent pas remplacer ces humains ?
Merci pour ces informations précieuses
Jle sens très mal de donner des images de viol/pédophilie sans que les victimes le sachent
c'est triste mais indispensable, mais il devrait y avoir une lois pour mutualiser tout c'est données pour créé une ia qui reconnaît tout ces contenu historiques de ne pas répéter c'est horreur
Je viens de redescendre. Je ne sais pas trop comment ça se passe, mais les personnes ne sont pas obligés de visionner le contenu dans son intégralité…. (Normalement en 2 secondes max, tu comprends la situation..). Bref, pour le reste bon courage 🤗
A la question ❓️ qu'est-ce qu'on fait ?
C'est une très bonne question ❓️. Il vient un début d'idée à mon esprit naïf : et si au lieu de filtrer des bases de contenu qui ne devraient même pas exister et dont la vue répétée ne peut qu'accentuer le phénomène, on commençait par sélectionner les sources de ces données.
Autre point : cela ne devrait t'il pas nous faire prendre conscience de ce qui circule sur le net ?
Il me semble qu'il y a suffisamment de sources de données dans le monde pour choisir ce qu'on donne à manger à nos IAs.
Entre les romans, les rapports scientifiques, les encyclopédies, … pour les textes. Et les photos 📷 de photographes et peintures pour les images. Il y a largement de quoi faire.
De plus, les droits d'auteur de ces données coûteraient certainement moins cher (à fiabilité égale) que les bases de données achetées à Meta.
Investir des millions dans des bases de données dont il faut censurer les 80% n'était peut-être pas le meilleur investissement à faire…
Ne vaut-il mieux pas privilégier la qualité à la quantité ?
@isabelle_gouget
En quoi c'est gênant de faire travailler de petites mains. Je pense qu'ils sont bien comptant d'avoir ce travail, non? On ne leur mets pas le couteau sous la gorge.
99
Très intéressant. Je suis une grosse utilisatrice de chat gpt qui m’aide énormément dans mon travail. Donc j’ai mangé v’la les videos dessus. Je m’intéresse aussi a comment une IA est créée, mais je n’avais jamais entendu ce point de vu qui va en profondeur. Débat très complexe en effet. Et difficile de savoir qu’elles seraient les solutions sans connaître les couts de tel société et où va l’argent. Et malheureusement ce débat va encore plus loin. Si ces personnes sont payées seulement 1,50/2€… c’est surtout parce que c’est le genre de Pays pauvre où ce type d’abus est courant et toléré… difficile de refaire le monde a notre niveau.
Donc l’IA est une innovation qui se nourrit de la connaissance humaine, la vampirisme, brise la psychologie des personnes qui travaillent en amont de ce programme. Plus, génère un chômage de masse en aval, rendant obsolète un grand nombre de métiers. Définitivement un progrès pour l’humanité, non?
Pour ceux intéressés il faut lire l'ouvrage de Casilli, en attendant les robots.
Nous sommes esclaves de la technologie qu'on voulait quel soit esclaves
Et une abonnée en plus ! Merci pour votre travail
Exploiter les plus démunis pour satisfaire les petits plaisirs des plus aisés que nous sommes:La Base…
Merci pour cette vidéo. Ce qui m'inquiète en fait, c'est le besoin de faire cette labellisation. Cela signifie que c'est le concepteur de l'IA qui choisira ce qui mérite d'être montré ou évoqué, et ce qui ne doit pas l'être ? Sans rendre de compte à personne et sans nous laisser le choix ? A l'air du wokisme, ce genre de pratique fait un peu flipper, quand même. D'autant que beaucoup de monde semble prêt à de telles concessions. Toi-même, tu t'autocensures déjà, pour éviter la démonétisation.
Très instructif merci ! Une question me vient à l'esprit, vous parlez que la labellisation entre autre se fait en Afrique et en Asie, aussi que FB as des gens en Afrique pour la censure mais un point que vous n'abordez pas c'est que ce qui pour nous peux être offensant peux ne pas l'être pour eux, tout comme son contraire.
Mais imaginez une seconde l'odeur du CEO de sama
Merci pour cette vidéo 🙏🏾
C'est simple en fait une sélection des travailleurs . certain peuvent le faire d'autre non , même si c'est image sont horribles certain supporte mieux que d'autres .
Nous sommes actuellement en train de gigoter dans la sphère étroite de la « conscience séparée », prisonniers du temps et de ses illusions et chimères, telle que l’IA.
Grâce au leurre de l’IA, l’Être Humain pourra enfin naître.
Donc, ce qui reste à l’humain est infini et inaccessible à la machine car cela nécessite l’accès à l’immatériel et c’est ceci : être enfin non plus humain-machine, mais un Être-Humain. Soit celui qui meurt et renaît d’instant en instant, un Être hors du temps. Qui est sorti du temps alors que son corps physique y évolue. Car si une machine fait ces choses, c’est que nous valons mieux que cela. L’intelligence est hors du temps. Ces machine, limitées à l’espace réduit du temps et de la matière, ne peuvent pas être intelligentes. La performance intellectuelle chez l’humain n’est pas de l’intelligence, mais juste une agitation à l’intérieur d’une prison depuis laquell la partie infinie de notre conscience, est cmplt inaccessible.