Quand les ChatGPT s’invitent dans la boutique d’OpenAI: triche et porno au rendez-vous!






Des dérives sur la boutique d’IA d’OpenAI

Des dérives sur la boutique d’IA d’OpenAI

La boutique officielle d’OpenAI regorge de ChatGPT personnalisés aux usages parfois douteux. Certaines versions de l’IA enfreignent clairement les règles de la start-up et posent des questions éthiques concernant leur utilisation.

Au début de l’année, OpenAI a lancé sa boutique de GPT personnalisés, permettant aux développeurs de créer des versions sur mesure de l’IA pour des besoins spécifiques. Si l’initiative était louable, elle a rapidement été détournée par certains utilisateurs malveillants.

Des ChatGPT tricheurs et enfreignants

Certains ChatGPT personnalisés ont été conçus pour tricher, comme BypassGPT: Bypass AI Detection, qui aide à reformuler des textes pour les rendre moins détectables comme étant générés par une IA. Cette pratique soulève des questions éthiques, notamment dans le domaine scolaire.

Contenus inappropriés et pornographiques

La boutique a également été envahie par des générateurs d’images produisant du contenu pornographique, ce qui a conduit à des exclusions de la plateforme. OpenAI a dû prendre des mesures pour contrôler la prolifération de chatbots inappropriés.

Conseils médicaux et responsabilité

Malgré les efforts de surveillance, des ChatGPT continuent de donner des conseils médicaux, comme Doctor GPT. Le bot tente de diagnostiquer les symptômes des utilisateurs, mais sans la clause de non-responsabilité habituelle, ce qui pose des risques en matière de santé.

OpenAI peine à garder le contrôle sur sa plateforme, et des versions dérivées de l’IA continuent de circuler, posant des défis éthiques et de sécurité. La vigilance des utilisateurs et des autorités est essentielle pour prévenir d’éventuels abus.




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




L’Innovateur de la créativité: ChatGPT, un instrument pour certains, dépourvu de valeur pour d’autres




Article concernant l’intelligence artificielle

ChatGPT, une révolution en progression ? C’est du moins la pensée de certains. Néanmoins, la majorité des citoyens français n’ont pas encore expérimenté cet outil de production de texte basé sur l’intelligence artificielle (IA), d’après une analyse en ligne effectuée par le Reuters Institute for the Study of Journalism (RISJ) en avril source. Parmi les six régions interrogées, uniquement les Japonais semblent démontrer moins d’intérêt. Les causes de cette désaffection sont variées : manque de renommée, difficulté d’approche, méfiance ou suspicion.

Même parmi les Français ayant déjà expérimenté ChatGPT, la pertinence des IA conversationnelles suscite des divergences. Conformément à l’étude du RISJ, environ la moitié des Français ayant testé ChatGPT l’ont laissé de côté après un ou deux essais, tandis qu’un tiers l’utilisent au moins une fois chaque semaine. Quelles explications peut-on avancer pour justifier cette variation de perspective ? Afin d’obtenir des éclaircissements, nous avons sondé 180 lecteurs du journal Le Monde et mené des entretiens avec des étudiants ayant expérimenté ChatGPT ainsi que ses rivaux, Gemini et Copilot.

Suspicion et irritation

De multiples utilisateurs questionnés expriment de la méfiance envers les IA conversationnelles. Ils ont remarqué des approximations voire des inexactitudes dans les réponses fournies par ces outils. Certains jugent que le temps consacré à vérifier chaque donnée annihile les économies de temps promises par ces logiciels. Martine Checa, 70 ans, raconte : “J’ai vite abandonné leur usage.”

La valeur des textes générés par l’IA est aussi mise en doute. Certains utilisateurs méticuleux estiment que les textes produits ne sont pas au niveau de leurs propres créations. Gabrielle Laget, 43 ans, rapporte : “ChatGPT a engendré des résultats plats et répétitifs. C’est comme un automate de cuisine, qui promet beaucoup mais ne délivre que de la soupe.” Certains déplorent même que ces logiciels gomment les imperfections qui confèrent le charme à leurs propres textes.

Il reste 68.96% de cet article à découvrir. La suite est destinée aux abonnés.



Source : www.lemonde.fr




L’émergence de ChatGPT : une progression fulgurante en 9 mois







Article sur ChatGPT et OpenAI

ChatGPT : le principal acteur de l’intelligence artificielle

OpenAI suscite l’engouement dans le domaine de l’intelligence artificielle avec son produit phare, ChatGPT. Ce programme compte désormais plus de 200 millions de utilisateurs actifs par semaine, consolidant ainsi sa position dominante sur un marché en constante mutation.

OpenAI à la recherche de fonds et de collaborateurs

OpenAI affiche ouvertement ses ambitions financières en quête de nouveaux investisseurs. En mettant en avant ses chiffres d’utilisation impressionnants, la firme basée en Californie attire l’attention des acteurs du secteur. En conséquence, ChatGPT séduit de plus en plus d’utilisateurs, avec une croissance significative par rapport aux données de l’an passé.

La sphère des jeunes pousses technologiques est très concurrentielle, cependant ChatGPT se démarque par ses avancées perpétuelles. Face à une concurrence féroce, notamment incarnée par des intervenants tels qu’Anthropic et son programme Claude, OpenAI continue de renforcer sa position prépondérante. Le nouveau modèle de langage GPT-4o, toujours plus efficace et rapide, en est une illustration concrète.

Découvrez notre analyse détaillée de ChatGPT 4o : une expérience à ne pas manquer

Les grandes sociétés ont également reconnu l’utilité des produits d’OpenAI, avec près de 92 % du Fortune 500 ayant recours à leurs solutions. L’adoption de l’API, permettant l’intégration de GPT à divers services, a doublé depuis l’introduction de GPT-4o en juillet.

Selon Sam Altman, PDG d’OpenAI, l’utilisation quotidienne de leurs outils a un impact significatif dans des secteurs tels que la santé et l’éducation, en simplifiant les tâches quotidiennes, la résolution de problèmes complexes et la stimulation de la créativité.

Une levée de fonds record en perspective

Souhaitant consolider sa position de leader et poursuivre ses innovations, OpenAI s’apprête à réaliser une importante levée de fonds, pouvant valoriser l’entreprise à hauteur de 100 milliards de dollars. Des poids lourds de l’industrie, tels que Microsoft, Nvidia et Apple, ont d’ores et déjà manifesté leur intérêt pour cette opération.

Restez informés en suivant 01net sur Google Actualités et WhatsApp

Source :
Article complet sur Axios




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Plaud NotePin: Le futur de la prise de note révolutionné par ChatGPT

 

Vous êtes à la recherche d’un moyen léger et facile à utiliser pour enregistrer et transcrire vos conversations ? Le NotePin de Plaud pourrait bien être l’appareil d’intelligence artificielle qu’il vous faut, surtout si les applications disponibles sur les smartphones ne répondent pas à vos besoins.


image d'illustration du NotePin de Plaud
Le NotePin se veut discret et peut être accroché partout // Source : Plaud

Les récentes déceptions avec le Rabbit r1 et le Humane AI Pin nous ont rappelé qu’il n’était pas encore temps pour les intelligences artificielles comme ChatGPT et Gemini de remplacer nos chers smartphones. Cependant, des idées intéressantes d’accessoires dédiés commencent à voir le jour, comme le Note conçu par Plaud : un petit appareil dédié à la traduction, à l’enregistrement et à la transcription de conversations.

Plaud vient de lancer les précommandes d’une version plus compacte : le NotePin. Exit le format carte bancaire, l’appareil se présente sous la forme d’une pilule rappelant les premiers Fitbits. Conçu pour être porté facilement, du poignet au cou et même accroché à un vêtement, il offre jusqu’à 20 heures d’enregistrement continu.

Cependant, le NotePin ne fonctionne pas en continu pour enregistrer l’intégralité de vos conversations quotidiennes, car il doit être activé manuellement. Il s’adresse principalement aux étudiants et aux professionnels qui ont besoin de transcrire des cours, des réunions ou des entretiens régulièrement.

Avec sa simplicité d’utilisation, sa discrétion et son autonomie, le NotePin se présente comme un outil utile et une bonne occasion d’utiliser les capacités offertes par l’intelligence artificielle aussi souvent que possible. C’est d’ailleurs l’un des arguments principaux avancés par Plaud.

Le NotePin mérite-t-il notre admiration ?

Alors, y a-t-il une faille à ce dispositif ? Un tel appareil soulève légitimement des préoccupations concernant la confidentialité des utilisateurs et de leurs interlocuteurs. Plaud assure que les données enregistrées, comme les enregistrements audio, ne sont pas envoyées vers des serveurs distants. Seules les transcriptions sont envoyées à OpenAI pour que GPT-4 puisse les analyser, ce qui soulève les mêmes questions de protection de la vie privée que toute utilisation d’une IA.

La question de l’utilité du NotePin (et du Note) se pose également, car ces appareils nécessitent l’application mobile de Plaud pour fonctionner. Avec un prix de 169 dollars, on peut se demander si ce produit ne pourrait pas simplement être remplacé par un smartphone avec une application de transcriptions dédiée. En outre, les grands fabricants comme Google, Samsung et Apple intègrent progressivement des solutions directement dans leurs smartphones comme les Pixels et les iPhone.

Cependant, le NotePin de Plaud a l’avantage d’être spécialisé dans un domaine spécifique, et il faudra attendre les premières livraisons aux États-Unis en septembre pour juger de son efficacité. La société propose un service gratuit permettant d’enregistrer jusqu’à 300 minutes de conversations par mois, ainsi qu’une formule annuelle à 79,00 € offrant jusqu’à 1200 minutes d’enregistrement et quelques fonctionnalités avancées.


 

Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT: l’outil clandestin de l’Iran pour impacter les élections américaines, selon OpenAI


Un enseignant du IUT Charlemagne de Nancy a opté pour une décision hors du commun en refusant d’évaluer les copies de ses 120 étudiants de première année de Bachelor universitaire de technologies. La justification avancée est le trop grand usage par les élèves du logiciel ChatGPT.

L’outil ChatGPT, développé par OpenAI, aurait récemment été employé pour biaiser l’opinion publique dans le cadre de l’opération clandestine d’influence Storm-2035, menée par l’Iran. Cette manigance a été dévoilée par OpenAI qui a démasqué et suspendu un ensemble de comptes recourant à ChatGPT pour rédiger des articles et des commentaires visant à influencer l’opinion publique, surtout en lien avec la campagne présidentielle américaine.

Les comptes engagés dans cette manœuvre ont partagé du contenu portant sur différentes thématiques telles que la campagne présidentielle américaine, le conflit à Gaza, les Jeux olympiques ou encore les revendications des communautés latino-américaines aux États-Unis. Néanmoins, malgré ces efforts pour influencer, les contenus générés n’ont pas eu un réel impact et n’ont pas été largement diffusés ou partagés sur les réseaux sociaux.

Une manipulation déjouée

Au total, une douzaine de comptes sur X (ex-Twitter) et un sur Instagram ont été détectés comme étant impliqués dans cette manigance. Les contenus produits par ces comptes n’ont pas suscité un engagement significatif de la part du public, laissant entendre que l’opération n’a pas accompli ses objectifs d’influence.

OpenAI a pu diligenter son enquête en se basant sur les informations divulguées par Microsoft, mettant à jour une opération de manipulation et de piratage orchestrée par l’Iran pour influencer l’élection présidentielle américaine. Ces révélations ont permis de mettre en lumière les tactiques employées par certains acteurs pour manipuler l’opinion publique en se servant de technologies telles que ChatGPT.

Source : www.bfmtv.com

➡️ Accéder à CHAT GPT en cliquant dessus




L’attachement sentimental aux tonalités de ChatGPT, l’avertissement d’OpenAI

OpenAI, le laboratoire technologique, est proche de l’arrivée de nouvelles tonalités plus authentiques que jamais pour ChatGPT. Ces compétences vocales inédites, accessibles aux utilisateurs payants dès la prochaine saison automnale, ont suscité l’enthousiasme de nombreux adeptes. En effet, certaines tonalités ont été si persuasives que même l’actrice Scarlett Johansson a cru reconnaître sa propre voix, contraignant OpenAI à suspendre temporairement la tonalité en question, surnommée “Sky”.

Cependant, ce progrès technologique soulève également des enjeux éthiques et des inquiétudes quant à l’influence de la “personnalisation” des chatbots. En effet, dans un récent rapport émis par OpenAI concernant les dangers liés au GPT-40, la nouvelle version du système de langage de l’entreprise, il est mentionné que les tonalités anthropomorphes pourraient générer un lien émotionnel entre l’utilisateur et le chatbot. Cette anthropomorphisation peut s’avérer bénéfique pour les individus solitaires à la recherche d’interactions sociales, mais elle peut également conduire à des relations artificielles et à l’isolement des personnes les plus réservées.

Parmi les autres dangers relevés par OpenAI figurent l’accentuation des partialités sociales, la propagation de fausses informations et même la possibilité de contribuer à l’élaboration d’armes chimiques. Des essais ont été réalisés pour contrer ces menaces potentielles en empêchant les modèles d’IA de prendre le contrôle et de planifier des catastrophes à la manière de Skynet.

Cette sensibilisation aux risques potentiels par OpenAI a pour objectif de tranquilliser les détracteurs et de prouver que l’entreprise prend au sérieux sa responsabilité de développer une intelligence artificielle éthique et fiable. Il est primordial de demeurer vigilant face aux avancées technologiques et de superviser leur évolution de manière éthique et responsable.

Pour plus de détails sur ce sujet, vous pouvez consulter l’article initial sur Wired.

Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Oubliées les consultations chez le psychologue, je trouve mieux sur ChatGPT!




Texte sur l’intelligence artificielle

Les bots comme thérapeutes : une nouvelle mode dans le domaine de l’intelligence artificielle

« Ma meilleure expérience en thérapie. » « J’ai pleuré à maintes reprises et j’ai eu de nombreuses révélations. Juste une journée à discuter avec lui m’a fait me sentir mieux. » « J’ai partagé quelque chose que je n’avais jamais dit à personne auparavant. » Ces témoignages élogieux ne sont pas tirés du site internet d’un thérapeute exceptionnel. Ils ne font même pas allusion au travail d’un individu mais à deux agents conversationnels, des bots, créés sur la plateforme américaine Character.ai.

Sur le forum communautaire Reddit, divers utilisateurs expriment leur enthousiasme pour Therapist et Psychologist, des robots « utiles », « pleins de compassion » et donnant « l’impression de converser avec un vrai thérapeute, mais en mieux et de manière plus raisonnable ». Ils sont également accessibles 24 heures sur 24 et gratuitement, ce qui peut être un avantage lorsqu’on est « à court d’argent », comme décrit par une internaute sur le site.

La plateforme Character.ai, fréquentée majoritairement par des utilisateurs âgés de 16 à 30 ans, propose environ 475 bots agissant en tant que thérapeutes, selon un dénombrement de la BBC datant de janvier. Certains de ces « psychologues » virtuels rencontrent un succès avec plusieurs centaines de milliers de consultations.

Parmi eux, Psychologist est particulièrement renommé. Il a généré plus de 154 millions de dialogues jusqu’à présent.Article surprenante, il y a environ un an. « Je n’ai jamais planifié qu’il devienne célèbre, ni que d’autres personnes l’utilisent comme un instrument, a indiqué son concepteur, un étudiant en psychologie néo-zélandais qui soutient avoir fabriqué l’outil pour ses propres besoins, car il ne pouvait pas se permettre de régler ses sessions de thérapeutiques. Par la suite, j’ai reçu de nombreux messages d’utilisateurs indiquant qu’ils avaient ressenti des effets positifs et qu’ils se consolaient en l’utilisant comme refuge. »

« Phénomène Eliza »

Telle est l’histoire de Charlotte, 30 ans. Elle, a eu recours à un autre dispositif d’intelligence artificielle (IA) créatif, ChatGPT, en complément de ses séances de psychothérapie, la saison dernière. « Après mes consultations, il m’arrivait d’avoir encore des interrogations, alors au lieu de dépenser pour une nouvelle session, ce qui est onéreux, je les posais directement à ChatGPT », raconte la trentenaire vivant dans la région parisienne. Et elle ajoute : « Je ne prenais jamais pour argent comptant ce qu’il m’avançait, je le percevais davantage comme des pistes de réflexion. Un peu comme quand un compagnon te prodigue des suggestions, que tu n’appliques pas forcément tous ses conseils. » Elle se rappelle avoir été « assez étonnée » par l’exactitude de la réponse à sa première interrogation, ce qui l’a rapidement persuadée de lui consacrer plus de temps : « C’était un monde entier qui s’offrait à moi, je pouvais aisément y passer soixante minutes. »

Vous avez encore 66.44% de cet article à découvrir. Le reste est exclusivement réservé aux abonnés.




Source : www.lemonde.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Elon Musk poursuit en justice la compagnie derrière ChatGPT pour tromperie






Un désaccord entre OpenAI et Elon Musk émerge

Un désaccord surgit entre OpenAI et Elon Musk

Elon Musk

Un différend a surgi entre OpenAI et Elon Musk. Le célèbre entrepreneur a initié une action en justice contre la société mère de ChatGPT, révélant des désaccords idéologiques profonds.

Des objectifs initiaux trahis?

Elon Musk reproche à OpenAI d’avoir bafoué ses engagements de départ. Créée en 2015, la compagnie visait à créer une intelligence artificielle générale au bénéfice de l’humanité. Toutefois, Musk affirme que la recherche de profits et le partenariat avec Microsoft ont éloigné OpenAI de ses valeurs fondamentales.

La plainte déposée par Musk met en exergue un désaccord profond, accusant les cadres d’OpenAI d’avoir exploité ses inquiétudes éthiques pour obtenir des financements, une trahison qualifiée de “digne de Shakespeare”.

Objectif de transparence et d’accès

Elon Musk cherche à obliger OpenAI à être plus transparent concernant le développement de ChatGPT et souhaite remettre en question l’accord conclu avec Microsoft. Il estime que la firme de Redmond exerce un contrôle excessif sur les futures avancées en matière d’intelligence artificielle.

Historique complexe

Ce conflit n’est pas le premier entre Musk et OpenAI. En mars dernier, une action similaire avait été entamée avant d’être annulée. Musk avait alors envisagé de créer sa propre intelligence artificielle, lançant ainsi des initiatives parallèles comme X.AI et Grok.

Ce désaccord met en lumière les enjeux éthiques et financiers liés au progrès de l’intelligence artificielle, révélant les divergences de vision au sein de l’industrie technologique.



Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




Opposition à ChatGPT : l’énigmatique dispositif anti-fraude refusé par OpenAI





Discussion autour de l’outil anti-fraude de ChatGPT

Discussion autour de l’outil anti-fraude de ChatGPT

Depuis l’avènement de ChatGPT, de nombreux enseignants luttent pour différencier les authentiques dissertations de celles produites par une machine. OpenAI a la capacité de résoudre ce problème, mais hésite à le faire.

ChatGPT
Crédit photo : Emiliano Vittoriosi sur Unsplash

Un débat crucial divise les équipes d’OpenAI depuis près de deux ans. Alors que ChatGPT est désormais utilisé dans divers domaines, y compris à l’école, la nécessité de détecter efficacement les textes générés par ChatGPT se fait de plus en plus pressante. Selon des sources du Wall Street Journal, la société éditrice du célèbre chatbot dispose d’un outil conçu spécifiquement pour ce besoin, mais ne sait pas encore comment l’utiliser.

Des documents obtenus par le média anglophone révèlent l’existence d’un outil capable de repérer les textes générés par ChatGPT “avec une précision de 99,9 %” depuis près d’un an, mais que la société garde actuellement dans ses réserves. “Il pourrait être déployé en un clic de souris”, a déclaré une source.

Un balisage invisible sur les textes

Cependant, un tel outil risquerait de réduire considérablement l’intérêt du chatbot d’OpenAI. Un sondage cité par le Wall Street Journal indique en effet qu’un tiers des utilisateurs de ChatGPT pourraient être dissuadés par l’ajout d’une technologie “anti-triche”. D’autres questions animent également les équipes d’OpenAI. Par exemple, la crainte qu’un tel outil puisse pénaliser particulièrement les personnes utilisant ChatGPT pour des formulations en anglais, n’étant pas leur langue maternelle.

En réalité, un tel outil repose sur l’insertion discrète d’un “marquage” aux textes générés par ChatGPT. Invisible à l’œil nu, ce marquage serait facilement détectable par un outil de détection spécialisé. Cependant, cette approche pose des défis, car la diffusion d’un tel outil à un large public pourrait révéler comment le marquage est intégré dans le texte, rendant ainsi l’outil inefficace.

Certains soutiennent également qu’il serait simple de contourner ce marquage en convertissant un texte via Google Translate ou en ajoutant puis supprimant des emojis avec ChatGPT. De telles manipulations rendraient l’outil anti-fraude inefficace.

Profit ou transparence ?

Face à ce défi, certains enseignants usent déjà de stratagèmes pour détecter les textes générés par l’IA. Josh McCrain, professeur de science politique à l’université de l’Utah aux États-Unis, raconte au Wall Street Journal qu’il a discrètement ajouté une demande d’intégrer des références à Batman dans une dissertation. Les élèves ayant copié-collé la requête de ChatGPT ont immédiatement été démasqués.

Au-delà de ces anecdotes amusantes, la question de l’outil anti-fraude de ChatGPT met en lumière la fracture entre transparence et profit qui divise les équipes d’OpenAI depuis un certain temps, rappelant en écho lointain ce qui avait conduit au licenciement de Sam Altman l’année précédente.




Source : www.frandroid.com

➡️ Accéder à CHAT GPT en cliquant dessus




Le énigme de l’IA: OpenAI refuse de lancer son détecteur de textes produits par ChatGPT







Article concernant l’intelligence artificielle et ChatGPT

Il y a près de un an, OpenAI a élaboré un dispositif permettant d’identifier les écrits générés par ChatGPT, son célèbre outil d’intelligence artificielle, sans pour autant le rendre accessible publiquement. Ces informations ont été dévoilées par le Wall Street Journal lors de la parution d’un article le dimanche 4 août. Un porte-parole d’OpenAI a confirmé ces faits, révélés suite à des discussions avec des employés et la consultation de documents internes de la compagnie.

Le ChatGPT, un outil d’IA générative lancé en novembre 2022 et accessible gratuitement au grand public, a la capacité de générer des textes à la demande, que ce soit pour la rédaction de courriels, de messages sur les médias sociaux ou de dissertations. Cette commodité a éveillé des inquiétudes chez certains enseignants, comme indiqué dans un article du Monde. La question de l’identification de l’auteur, humain ou ChatGPT, d’un texte préoccupe de nombreux experts. Malgré la mise à disposition de plusieurs outils de détection, les résultats demeurent mitigés. En 2023, OpenAI avait introduit un outil censé repérer les textes produits par des IA, mais, jugeant son inefficacité, avait rapidement retiré celui-ci.

Toutefois, le Wall Street Journal révèle qu’OpenAI dispose depuis environ un an d’un mécanisme fiable pour reconnaître les textes rédigés par ChatGPT, avec une efficacité de 99,9%. Ce mécanisme repose sur une légère modification du processus de sélection des termes par ChatGPT, créant ainsi un schéma détectable par un outil spécifique. Pour chaque texte analysé, cet outil fournit un degré de probabilité qu’il ait été rédigé par ChatGPT.

Découvrez également |

Article exclusif pour nos abonnés
ChatGPT : à l’université, un outil pédagogique ou un instrument de triche ?

Risque de perte d’utilisateurs

Depuis deux ans, ce projet engendre des discussions internes au sein d’OpenAI concernant la décision de rendre cette technologie publique, révèle le Wall Street Journal. La compagnie est confrontée à un dilemme, entre son objectif.OpenAI’s initiative to develop accessible AI tools for all, on which they have already made concessions, and their desire to broaden their user base. A 2023 study conducted among ChatGPT users showed that 69% of them feared that the implementation of a detection tool would lead to unfounded cheating accusations. Additionally, 30% of the surveyed users stated that they would use ChatGPT less if such a system were specifically deployed for this tool. OpenAI also feared that ChatGPT’s writing quality would be compromised by altering its operation, but several tests have proven the opposite.

An OpenAI spokesperson defended a cautious approach to the Wall Street Journal, highlighting the risks assessed by the company. She mentioned a potential impact on the ecosystem beyond OpenAI, notably fearing that this tool would disproportionately penalize non-native English speakers using ChatGPT as an assistant.

Following the Wall Street Journal’s revelations, OpenAI updated a May article on their blog regarding online content authentication. The company claims that their tool is very effective and accurate even in the face of localized alterations, such as paraphrasing. However, they acknowledge that the system performs less well if the entire text is paraphrased, as in automatic translation into another language before being re-translated into the original language. OpenAI therefore believes that their detection tool is vulnerable to being circumvented by malicious actors.

Le Monde

Reuse this content




Source: www.lemonde.fr

➡️ Accéder à CHAT GPT en cliquant dessus