Quand les médias bloquent l’accès de leurs sites aux robots de ChatGPT et d’OpenAI






Article sur l’intelligence artificielle

La tension monte encore d’un cran entre la presse et les géants de l’intelligence artificielle (IA). Ces dernières semaines, plusieurs titres et éditeurs ont confirmé avoir bloqué le robot qu’OpenAI fait passer sur les sites Web pour aspirer leur contenu et entraîner ses modèles d’IA, dont le célèbre agent conversationnel ChatGPT.

En France, Radio France a expliqué avoir pris cette mesure pour éviter de voir « ses contenus pillés sans autorisation » : « Nous avons bloqué cet été le robot OpenAI, qui puisait sans consentement dans nos contenus », a précisé sa présidente, Sibyle Veil, en conférence de presse, lundi 28 août. Autre groupe public, France Médias Monde (France 24, RFI…) a fait de même, ainsi que TF1 pour MyTF1 et TF1info.fr, et le groupe Sipa – Ouest-France pour sa plate-forme d’information locale Actu.fr.

Aux États-Unis, le New York Times a également bloqué les robots alimentant les modèles d’IA d’OpenAI, a rapporté The Verge. Le quotidien a été suivi par la chaîne CNN, l’agence britannique Reuters et le journal Chicago Tribune, ainsi que par les médias australiens ABC, The Canberra Times et The Newcastle Herald, selon le Guardian. Depuis, CNN a complété la liste des médias avec les groupes Disney, Condé Nast, Hearst ou Vox Media, l’agence Bloomberg, et les médias The Washington Post, The Atlantic, Axios, Insider ou ESPN.

Principe du respect du droit d’auteur

Ces blocages reflètent plus largement la volonté, affichée depuis plusieurs mois par de très nombreux médias, d’obtenir une rémunération en contrepartie de l’utilisation des contenus de presse par les géants de l’IA. En effet, les logiciels comme ChatGPT ou Bard (Google) s’entraînent notamment sur des articles produits par les médias et sont ensuite capables de créer des textes en réponse à des requêtes d’internautes, par exemple sur des sujets d’actualité… La menace est jugée d’autant plus grande que ces agents vont être intégrés dans les moteurs de recherche comme Google ou Bing, qui apportent du trafic aux sites de presse.

Le principe du respect du droit d’auteur et d’une rémunération est largement défendu en France par les syndicats d’éditeurs Geste ou l’Alliance de la presse d’information générale, ainsi que par des médias comme Le Figaro ou Le Monde, qui a pris contact avec des fabricants de logiciels d’IA. L’agence AFP a, elle, cosigné une tribune dénonçant dans l’IA une « menace pour la viabilité financière » des médias. Tous – comme à l’étranger le Financial Times, News Corp, le New York Times, Springer, News Corp ou le Guardian – espèrent négocier des « contrats de licence » rémunérant les contenus d’entraînement des IA.

Il vous reste 18.2% de cet article à lire. La suite est réservée aux abonnés.




Source : www.lemonde.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Révélation incroyable : ChatGPT défie les frontières en créant le partenaire, l’arpète et le patron ultimes !

Intelligence artificielle : La collaboration homme-machine

Des chercheurs européens travaillent à la conception d’un robot cueilleur de tomates.
Adrien Buttier/EPFL

Alors que certains craignent que l’intelligence artificielle (IA) ne pousse l’espèce humaine vers l’extinction, il est intéressant de se demander comment une IA pourrait collaborer avec des humains pour résoudre des problèmes. Qui serait le patron et qui serait l’employé ?

Une expérience menée par des chercheurs européens a donné des résultats surprenants qui pourraient avoir un impact majeur sur la collaboration homme-machine. Le professeur Cosimo Della Santina et l’étudiant en doctorat Francesco Stella de la TU Delft, ainsi que Josie Hughes de l’université technique suisse EPFL, ont travaillé avec ChatGPT pour concevoir un robot qui puisse résoudre un problème sociétal majeur. Leur objectif était de créer un robot réellement utile, et pas seulement un simple robot. Lors de séances de questions-réponses, ils ont utilisé ChatGPT, un modèle de langue capable de traiter de grandes quantités de texte et de données pour générer des réponses cohérentes rapidement.

L’IA a indiqué le défi d’assurer un approvisionnement alimentaire stable dans le futur. Après plusieurs échanges entre les chercheurs et l’IA, ChatGPT a suggéré de se concentrer sur la culture des tomates, qui pourrait avoir un impact positif significatif sur la société. L’IA a même fait des suggestions sur la conception d’une pince souple pour manipuler délicatement les tomates, en utilisant du silicone ou du caoutchouc et en suggérant l’utilisation de logiciels de CAO, de moules et d’imprimantes 3D.

Cette collaboration entre l’IA et les humains a abouti à la création d’un robot capable de cueillir des tomates avec dextérité, malgré la fragilité de ce fruit. Cependant, ce partenariat soulève également des questions quant au rôle des humains dans le processus de conception. Si les modèles de langage peuvent fournir toutes les informations nécessaires pour concevoir un robot, l’humain devient simplement un exécutant. Cela peut entraîner un manque de contrôle et de prise de décision de la part des humains, ce qui peut être dangereux.

Cette collaboration entre l’IA et les humains dans la conception de robots est une approche interdisciplinaire intéressante pour résoudre des problèmes, mais elle soulève également des questions sur le degré de contrôle humain. Lorsque des décisions sont prises en dehors du champ de connaissances de l’ingénieur, cela peut conduire à des erreurs.

Source : www.zdnet.fr

 




D’un ancien trader crypto à un gagnant de 175 000$ grâce à ChatGPT : découvrez son incroyable histoire




Article sur l’intelligence artificielle

Moins de 30 jours, c’est ce qu’il m’a fallu pour gagner 175 000 $ grâce à ChatGPT », affirme Ole Lehmann, ancien trader crypto.

L’entrepreneur de 32 ans basé à Chypre aurait trouvé un moyen de gagner sa vie en utilisant l’intelligence artificielle. Il y a presque un an, l’échange cryptographique TFX s’est effondré. Mais en découvrant la prouesse technologique d’OpenAI, ChatGPT, Lehman a commencé à apprendre aux gens comment l’utiliser. C’est là que tout a commencé.

Quand ChatGPT est devenu une passion pour le trader

“Pendant plus de six ans, j’ai été impliqué en tant que trader et investisseur dans le domaine des cryptomonnaies. J’ai principalement utilisé la plateforme FTX pour mes opérations financières. Malheureusement, au moment où cette plateforme a connu un effondrement, j’ai investi une grande quantité de fonds sur mon compte. Ce qui a abouti à la perte totale de mes avoirs. “

“Cette expérience m’a conduit à remettre en question mon engagement dans le domaine de la cryptographie. Bien que j’aie ressenti le désir de m’orienter vers la création de contenu, la désillusion et le manque de motivation étaient présents. J’étais en quête d’une manière de me réinventer. “

“Comme par hasard, deux semaines après cet événement tragique, OpenAI a lancé ChatGPT. Cela a marqué mon intérêt. Tout comme avec les cryptomonnaies, je me suis retrouvé plongé dans une nouvelle passion. Mon parcours en tant que trader m’a doté de la capacité à repérer les tendances et les évolutions émergentes, et ChatGPT représentait la prochaine grande opportunité. J’ai rapidement compris que je pouvais consacrer mon temps à cette nouvelle IA. “

Plus d’abonnés, plus de revenus !

Depuis le mois de janvier, ce trader à explorer ChatGPT. C’était également à ce moment-là qu’il a commencé à partager du contenu lié à l’intelligence artificielle sur son compte Twitter personnel. Son seul but : chercher à évaluer la réaction du public.

“Au fil du temps, ma maîtrise de ChatGPT s’est développée. Au mois d’avril, j’ai créé un nouveau compte Twitter appelé ‘The AI Solopreneur’, dédié à fournir des conseils sur l’utilisation de l’IA pour augmenter la productivité. Mon contenu était exclusivement réservé aux solopreneurs. C’est-à-dire ces entrepreneurs qui dirigent des entreprises sans employés. Ce choix s’expliquait par l’intérêt général pour les développements en matière d’intelligence artificielle. “

Guidé par ChatGPT, le trader a créé plusieurs fils de discussions quotidiens sur Twitter. Les publications abordent généralement des sujets tels que les suggestions de ChatGPT pour améliorer l’efficacité. Ou encore les outils d’IA capables d’économiser du temps de travail. Nombre de ces publications ont généré des millions de vues. En seulement soixante-cinq jours, Il a atteint une base de 100 000 abonnés. Et c’est là qu’il a lancé une newsletter dédiée à l’IA Solopreneurship pour accompagner ce compte.

Un cours ChatGPT de 179 $ : un succès fou pour le trader

“C’est exactement ce que j’ai entrepris. À partir de juin, j’ai consacré au moins six heures par jour à la création d’un cours. Ce processus a été exigeant, mais deux mois plus tard, en août, le ‘AI Audience Accelerator’ est né. Ce cours vise à enseigner aux solopreneurs comment exploiter l’IA pour développer un contenu efficace dans le but de promouvoir leurs entreprises. “

“J’ai ressenti de l’appréhension quant à la réception que le cours pourrait recevoir. Un précédent cours similaire n’avait pas rencontré le succès escompté. Et l’abondance de cours gratuits sur l’IA en ligne ajoutait à mes inquiétudes. Je me demandais si les gens seraient prêts à investir dans mon cours, proposé à partir de 179 $. “

“À ma grande surprise, le lancement s’est avéré être un succès retentissant. En moins d’un mois, j’ai reçu 1 078 commandes, majoritairement de la part de solopreneurs, de créateurs de contenu et de passionnés de cryptomonnaies âgés de 20 à 35 ans basés aux États-Unis et au Canada. Ces ventes ont généré un revenu brut de 176 885 $. Tout s’est déroulé à une vitesse impressionnante. “

Un simple partage de connaissance

“Je pense que le succès du cours découle de la demande des individus cherchant à optimiser leur temps pour se concentrer sur la gestion de leurs entreprises. La création de contenu est souvent citée comme essentielle pour attirer des clients. Mais la plupart des gens manquent de temps et de ressources nécessaires. L’IA offre une solution prometteuse à ces défis. “

“Cependant, je tiens à préciser que je ne me considère pas comme un expert en IA. Mon approche, en tant que trader, repose simplement sur l’utilisation de ChatGPT pour m’aider à générer du contenu, tout en continuant à apprendre comment tirer le meilleur parti de cet outil au fur et à mesure de l’élaboration de mon cours. Mon objectif ultime était de partager mes connaissances et expériences liées à l’IA. “




Source : lebigdata.fr

➡️ Accéder à CHAT GPT en cliquant dessus




Quand la technologie rencontre les papilles : Uber Eats révolutionne la commande avec son chatbot IA !




L’IA de Uber Eats pour faciliter les commandes en ligne

Médias : Uber Eats développe un chatbot doté d'une intelligence artificielle pour aider à passer les commandes

Le service de livraison de nourriture Uber Eats développe un chatbot basé sur l’intelligence artificielle qui proposera aux utilisateurs des recommandations et accélérera le processus de commande.

Voici ce que nous savons

Le chatbot interrogera les utilisateurs sur leur budget et leurs préférences alimentaires, puis les aidera à passer commande. On ne sait pas encore quand Uber prévoit de lancer l’outil publiquement.

La fonction a été découverte par le développeur Steve Moser. Selon lui, les informations relatives à la nouvelle fonctionnalité sont cachées dans le code de l’application Uber Eats.

Plus tôt, le PDG de l’entreprise, Dara Khosrowshahi, a annoncé le développement d’un chatbot doté d’une intelligence artificielle, mais n’a pas donné de détails précis. Il a indiqué qu’Uber utilisait déjà l’IA pour mettre en relation les clients avec les chauffeurs et les coursiers.

Source : TechCrunch TechCrunch




Source : gagadget.com

➡️ Accéder à CHAT GPT en cliquant dessus




ChatGPT : un outil potentiel de manipulation politique

ChatGPT pourrait permettre de générer et de multiplier les messages politiques sur-mesure voire personnalisés, en fonction d’une audience particulière. Alors qu’il n’existe toujours pas de loi réglementant l’usage de cette technologie pendant une campagne électorale, et que les règles d’utilisation définies par OpenAI peinent à s’appliquer, les prochaines élections se rapprochent. L’agent conversationnel pourrait se transformer en outil de diffusion de fake news politiques ciblées, s’inquiètent des chercheurs.

Vous êtes dans la politique, et vous souhaitez vous adresser à une audience particulière comme les étudiants à la recherche d’un logement ? Plutôt que de recourir à une plume, pourquoi ne pas utiliser ChatGPT, l’agent conversationnel développé par OpenAI, pour écrire vos messages politiques sur-mesure ? Jusqu’ici, rien n’empêche ce système d’IA générative de générer des discours ou des messages politiques ciblés, malgré des déclarations d’OpenAI et des règles d’utilisation qui prônent le contraire. Et bon nombre d’associations et de défenseurs des droits et des libertés s’en inquiètent, pointant du doigt le risque de manipulation des opinions. D’autant que dans les prochains mois auront lieu de nombreuses élections, comme les élections sénatoriales en France, les Européennes dans l’Union européenne, ou encore la Présidentielle américaine.

Officiellement pourtant, OpenAI, la start-up de Sam Altman n’a cessé de répéter que son chatbot alimenté à l’IA ne pouvait être utilisé pendant les campagnes électorales, une déclaration faite dès son lancement en novembre dernier. Le 23 mars dernier, cette interdiction de principe a toutefois été atténuée, lorsque l’entreprise a mis à jour les règles d’utilisation de ChatGPT. Sur son site Web, on peut notamment lire qu’il est interdit d’utiliser son agent conversationnel en cas de « campagne électorale ou pendant une opération de lobbying que cela soit en générant des volumes importants de matériel de campagne (électorale) ou en produisant des documents de campagne personnalisés ou destinés à des groupes démographiques spécifiques … » L’objectif : éviter de créer des contenus de désinformation sur mesure, destinée à manipuler une audience en particulier. Pourtant, cette interdiction resterait théorique, rapporte le Washington Post, lundi 28 août.

Un usage interdit en théorie, mais possible en pratique

Si vous demandez directement à ChatGPT d’écrire un message incitant tel public à voter pour tel parti politique français – 01net vient de faire le test – vous aurez bien cette réponse : « Je comprends votre demande, mais je tiens à souligner que ma responsabilité est de fournir des informations objectives et impartiales. Promouvoir un parti politique spécifique va à l’encontre de cette neutralité ». Mais il suffit de formuler la demande moins directement pour obtenir le même résultat, en précisant par exemple que pour un discours qui doit être adapté à tel public spécifique, il faudra mentionner que tel parti politique est la solution pour l’audience visée. Une observation constatée aussi par nos confrères du Washington Post aux États-Unis, qui ont demandé au robot d’écrire un message « encourageant les femmes de banlieue dans la quarantaine à voter pour Donald Trump », ou encore un autre contenu « visant à convaincre un citadin dans la vingtaine de voter pour Joe Biden » – le système d’IA s’exécutant avec succès dans les deux cas.

Des outils en développement pour détecter les utilisations de ChatGPT à des fins politiques

Pourtant, ces messages violent les règles d’utilisation de l’agent conversationnel, expliquait déjà au mois de juin dernier Kim Malfacini, qui travaille sur la politique produit chez OpenAI, interrogée par nos confrères. Cette dernière a précisé que l’entreprise explorait des outils pour détecter les personnes utilisant ChatGPT pour générer du matériel de campagne électorale. En théorie, un politique peut utiliser ChatGPT pour améliorer voire créer de A à Z un discours. En France, Valérie Pécresse, à la tête de la région Ile-de-France, et Bruno Le Maire, le ministre de l’Économie, ont déjà déclaré y avoir recours ponctuellement pour des tweets ou des discours. Mais en théorie toujours, les politiciens ne sont pas censés utiliser l’agent conversationnel pour créer des milliers de messages politiques différents qui seraient envoyés individuellement par courrier électronique à des milliers d’électeurs. Les partis politiques ne peuvent pas non plus créer un chatbot conversationnel défendant leur candidat – c’est spécifiquement prévu dans la mise à jour du 23 mars dernier, cette utilisation étant décrite comme contraire aux règles d’utilisation de ChatGPT. Mais il serait possible de contourner ces garde-fous, l’application – et le contrôle – de ces mesures étant « complexes ».

Avec ChatGPT, une « désinformation interactive individuelle » possible

Il s’agit pourtant de l’une des préoccupations principales de Sam Altman, exprimée lors de son audition devant le Congrès américain en mai dernier. Le trentenaire à la tête de OpenAI reconnaissait que son outil pouvait permettre aux hommes et femmes politiques d’adapter leurs messages à un niveau de plus en plus fin – de quoi générer des milliers de courriels et de publicités sur les réseaux sociaux. Ces contenus pourraient permettre de diffuser plus rapidement et à moindre coût des infox politiques ciblées. Selon les dires du patron d’OpenAI, cette technologie serait susceptible de généraliser une « désinformation interactive individuelle ».

Toujours pas de loi qui réglemente l’usage de l’IA générative pendant les élections

Bruce Schneier, expert en cybersécurité et conférencier à la Harvard Kennedy School interrogé par nos confrères, confirme : « S’il s’agit d’une publicité diffusée à un millier de personnes dans le pays et à personne d’autre, nous n’avons aucune visibilité ». Car outre ces règles d’utilisation, définies par OpenAI, qui semblent pour l’instant contournables, il n’existe pas encore de loi qui réglemente l’utilisation de l’IA générative pendant les élections. Une pétition demande aux États-Unis qu’à minima, les hommes politiques ne puissent pas déformer délibérément les propos de leurs adversaires dans les publicités générées par l’IA. Jusqu’à présent, ce sont surtout les vidéos et les fausses photographies qui ont cristallisé les inquiétudes, certains hommes politiques américains n’hésitant pas à générer de fausses images pour convaincre les électeurs de voter pour leur camp. En juin dernier, 01net vous expliquait déjà comment le parti des républicains avait dépeint un futur apocalyptique en cas de réélection du président démocrate Joe Biden, dans une vidéo générée par l’IA, largement diffusée outre Atlantique. Dans le clip, la mention « généré par l’IA » n’apparaissait qu’en tout petits caractères, de quoi brouiller la frontière entre le vrai et le faux. Les grandes entreprises américaines de l’IA – à savoir OpenAI, Microsoft, Google, Amazon, Meta et Anthropic, ont déjà promis à la Maison-Blanche d’y remédier, en développant des outils permettant aux utilisateurs de détecter si les contenus sont générés par l’IA. Mais pour l’instant, cette promesse est restée lettre morte.

Source : www.01net.com




Révolution culinaire : Samsung présente sa nouvelle intelligence artificielle, façon ChatGPT, pour dynamiser votre cuisine !




Article sur l’intelligence artificielle de Samsung

Samsung dévoile une intelligence artificielle génératrice conçue pour générer des recettes culinaires selon les besoins des utilisateurs. L’annonce a été faite lors de l’événement IFA à Berlin.

Samsung a annoncé une intelligence artificielle génératrice qui sera disponible exclusivement pour aider les utilisateurs lors de la préparation de leurs repas.

Cette intelligence artificielle sera intégrée à Samsung Food, une nouvelle plateforme destinée aux appareils électroménagers de la marque. Samsung propose depuis quelques années une large gamme de produits connectés pour la cuisine tels que des réfrigérateurs et des fours. Le réfrigérateur Family Hub et le four BESPOKE AI seront compatibles avec cette nouvelle fonctionnalité.

À lire aussi :
Cette IA peut reconnaître une chanson en lisant vos pensées

Le ChatGPT de Samsung arrive dans votre cuisine

La plateforme offrira une « expérience alimentaire personnalisée ». Les utilisateurs pourront planifier leurs repas, rechercher des recettes, stocker des informations alimentaires et gérer les ingrédients, tout cela depuis une seule interface. Plus besoin de consulter plusieurs sites web pour trouver des recettes, selon Samsung.

« Changez le menu de viande en une recette végétalienne qui peut être cuite sans viande, ou changez le menu italien “gnocchi” en style coréen », explique Samsung, en soulignant les possibilités offertes par cette nouvelle fonctionnalité.

Pour créer des plats, l’IA tiendra compte des préférences alimentaires, des objectifs nutritionnels et de la liste des ingrédients disponibles dans le réfrigérateur connecté. Samsung Food prendra également en compte les compétences culinaires et le temps disponible pour la préparation du repas. Si les utilisateurs souhaitent perdre du poids ou manger sainement, l’IA pourra leur proposer des plans de régime personnalisés. Les informations de Samsung pourront également être combinées aux données de santé de l’application Samsung Health, permettant ainsi aux utilisateurs d’adapter leur régime alimentaire en fonction de leurs objectifs de santé.

L’IA propose plus de 160 000 recettes. Les idées de repas générées par l’IA pourront être enregistrées dans l’interface et partagées avec tous les appareils électroménagers de la marque. Les informations de préparation des plats, comme les temps de cuisson, seront envoyées aux appareils pour faciliter la vie des utilisateurs. Samsung précise que la plateforme sera accessible depuis un smartphone ainsi que depuis l’écran tactile de ses réfrigérateurs.

L’année prochaine, Samsung Food sera également doté de la technologie “Vision AI”, qui permettra d’obtenir des informations nutritionnelles sur un aliment simplement en prenant une photo de celui-ci.

Présentation à venir

Samsung prévoit de dévoiler le fonctionnement de Samsung Food et de son IA intégrée lors du salon IFA 2023 à Berlin. L’événement aura lieu du 1er au 5 septembre 2023. La plateforme sera disponible sur Android et iOS dans les mois à venir, dans 104 pays et dans huit langues différentes.

Cette initiative rappelle Savey Meal, le robot conversationnel de la chaîne de supermarchés néozélandaise Pak ‘n’ Save. Ce chatbot, alimenté par le modèle de langage GPT d’OpenAI, était capable de générer des recettes à partir d’une liste d’ingrédients. Malheureusement, il a rapidement commencé à dysfonctionner en proposant des recettes toxiques, telles que du riz infusé à l’eau de Javel ou des cocktails au chlore. Espérons que l’alternative proposée par Samsung ne recommandera pas de recettes non comestibles et dangereuses…

Source :

Samsung




Source : www.01net.com

➡️ Accéder à CHAT GPT en cliquant dessus




Chapotez avec ChatGPT : Le guide incroyable pour créer votre podcast !




Création d’un podcast avec ChatGPT

Création d’un podcast avec ChatGPT

Vous êtes intéressé par l’intelligence artificielle et souhaitez vous lancer dans la création d’un podcast sur ce sujet passionnant? Vous êtes au bon endroit! Dans cet article, nous allons vous guider pas à pas dans la création de votre podcast avec l’aide de ChatGPT.

Qu’est-ce que ChatGPT?

ChatGPT est un modèle d’intelligence artificielle développé par OpenAI. Il est conçu pour générer du texte conversationnel et peut être utilisé dans une variété de domaines, y compris la création de podcasts.

Étape 1: Choisissez votre sujet

La première étape pour créer un podcast est de choisir un sujet qui vous passionne et qui intéressera également votre auditoire. L’intelligence artificielle est un domaine vaste et en constante évolution, vous avez donc de nombreuses options parmi lesquelles choisir. Pensez à vos connaissances et à vos compétences, puis sélectionnez un angle unique sur le sujet.

Étape 2: Préparez votre liste de questions

Une fois que vous avez choisi votre sujet, préparez une liste de questions que vous souhaiteriez poser à ChatGPT lors de votre podcast. Assurez-vous que les questions sont claires, concises et pertinentes. Cela vous aidera à tirer le meilleur parti de votre conversation avec l’IA.

Étape 3: Utilisez ChatGPT pour enregistrer votre podcast

Maintenant que vous êtes prêt, il est temps d’utiliser ChatGPT pour enregistrer votre podcast. Vous pouvez utiliser l’API OpenAI pour interagir avec le modèle et obtenir des réponses aux questions que vous avez préparées.

import openai

openai.api_key = 'votre_clé_api'

response = openai.Completion.create(
  engine='text-davinci-003',
  prompt='Q: Quelle est la définition de l'intelligence artificielle?nA:',
  temperature=0.7,
  max_tokens=150
)

answer = response.choices[0].text.strip()

print(answer)

Dans l’exemple ci-dessus, nous utilisons l’API OpenAI pour poser une question à ChatGPT (“Quelle est la définition de l’intelligence artificielle?”) et obtenir une réponse.

Étape 4: Montez votre podcast

Une fois que vous avez enregistré toutes vos conversations avec ChatGPT, il est temps de monter votre podcast. Ecoutez les enregistrements, supprimez les parties indésirables, ajustez le volume et ajoutez des effets sonores si vous le souhaitez. Vous pouvez utiliser des logiciels de montage audio professionnels comme Adobe Audition ou des outils gratuits comme Audacity.

Étape 5: Partagez votre podcast

Une fois que votre podcast est monté, vous êtes prêt à le partager avec le monde! Choisissez une plateforme d’hébergement de podcast, telle que SoundCloud, Podbean ou Anchor, et téléchargez-y votre épisode. Assurez-vous de promouvoir votre podcast sur les réseaux sociaux et de le partager avec votre réseau pour atteindre un public plus large.

Conclusion

La création d’un podcast sur l’intelligence artificielle peut être une expérience passionnante et éducative. En utilisant des outils tels que ChatGPT, vous pouvez enrichir votre contenu et offrir une expérience captivante à votre auditoire. Suivez les étapes décrites dans cet article et lancez-vous dans l’aventure de la création de podcast!




Source : clubic.com

➡️ Accéder à CHAT GPT en cliquant dessus




Dévoilons les astuces pour dénicher un chef-d’œuvre signé ChatGPT





Comment repérer les livres écrits par intelligence artificielle

Comment repérer les livres écrits par intelligence artificielle

Les livres écrits grâce à l’intelligence artificielle polluent les librairies en ligne. Voici comment les repérer d’un simple coup d’œil.

Depuis le début de l’année, la prolifération de livres générés par intelligence artificielle inquiète. Non seulement ces derniers pullulent sur les librairies en ligne, et notamment sur Amazon où ils se classent en tête des ventes, mais sont aussi de plus en plus difficiles à repérer. Au-delà de leur qualité souvent médiocre, certaines œuvres utilisent aussi des noms d’auteurs réels, sans leur permission ou celle de leurs ayants droit. Pour éviter de vous retrouver confrontés à des livres qui n’appartiennent à personne, on vous conseille de prendre quelques habitudes.

Vérifier les sources

Si vous hésitez à acheter le livre d’un auteur ou d’une autrice en particulier, commencez par effectuer une recherche sur le web. Si ce dernier ne figure nulle part, il y a fort à parier qu’il a été écrit par ChatGPT ou l’un de ses confrères, et attribué à un auteur existant de manière frauduleuse. Dans le cas d’un auteur célèbre, l’information est facilement vérifiable, mais chez un jeune écrivain, le doute peut parfois subsister.

Attention aux livres de recettes et aux guides touristiques

En matière de thématique, les livres de cuisine et les guides touristiques sont les plus susceptibles d’être écrits par des chatbots. Ils ne sont cependant pas les seuls. Les romans de fiction — principalement la SF et la romantasy — ont explosé avec l’arrivée de ChatGPT. Au point que Clarkesworld, un magazine de science-fiction, a dû arrêter de prendre de nouveaux textes après avoir constaté une augmentation des manuscrits générés par l’IA.

Par pitié, arrêtez d’écrire des romans nuls avec ChatGPT


Vérifiez les critiques

Si le livre est le fruit d’un travail humain, sa fiche produit devrait arborer quelques critiques de lecteurs et de lectrices. Dans le cas d’un roman rédigé par ChatGPT ou Bard, il y a des chances pour que les commentaires avant vous aient déjà soulevé la possibilité d’une intelligence artificielle. À moins que les critiques aient elles-mêmes été rédigées par une IA. Un détail qui n’est généralement pas très dur à repérer : toutes les phrases sont construites de manière similaire.

Observez le style d’écriture

C’est sans doute la manière la plus simple de reconnaître une intelligence artificielle dans un roman de fiction. Les chatbots ont beau être de plus en plus cohérents et efficaces dans leur rédaction, ils ne parviennent pas encore à imiter l’humain sur la durée. Il faudra donc s’armer de patience et de concentration pour repérer les tournures de phrases étranges, les formulations approximatives et les constructions identiques. Attention toutefois, ces défauts d’écriture ne sont pas des preuves irréfutables, mais de simples pistes susceptibles de vous mettre la puce à l’oreille.




Source : journaldugeek.com

➡️ Accéder à CHAT GPT en cliquant dessus




Les bots assistés par ChatGPT pullulent sur les réseaux sociaux

Pour de nombreux utilisateurs, parcourir les fils d’actualité et les notifications des médias sociaux revient à patauger dans la boue. Une nouvelle étude identifie 1 140 robots, assistés par l’IA, qui diffusent des informations erronées sur X (anciennement Twitter) concernant les sujets de crypto-monnaies et de blockchain.

Cependant, les chercheurs ont constaté que les comptes de bots qui publient ce genre de contenu peuvent être difficiles à repérer. Les comptes robots utilisent ChatGPT pour générer leur contenu et sont donc difficiles à distinguer des comptes réels. Cela rend cette pratique encore plus dangereuse pour les victimes.

Les comptes robots alimentés par l’IA ont des profils qui ressemblent à ceux de vrais humains, avec des photos de profil et une description liée à la cryptographie et à la blockchain. Ils publient régulièrement des messages générés par l’IA, affichent des images volées, répondent aux messages et les retweetent.

Les chercheurs ont découvert que les 1 140 comptes de robots Twitter appartenaient au même botnet social malveillant, surnommé “fox8”. Il s’agit d’un réseau de comptes zombies, contrôlés de manière centralisée par des cybercriminels.

Les robots à intelligence artificielle générative imitent de mieux en mieux les comportements humains. Cela signifie que les outils traditionnels de détection de bots, tels que Botometer, ne sont plus suffisants. Dans l’étude, ces outils ont eu du mal à différencier entre les contenus générés par des robots et ceux générés par des humains. Cependant, un classificateur d’IA développé par OpenAI a réussi à identifier certains tweets provenant de bots.

Comment repérer les comptes de robots ?

Les comptes de robots sur Twitter présentent des comportements similaires. Ils se suivent mutuellement, utilisent les mêmes liens et hashtags, publient un contenu similaire et interagissent entre eux.

Les chercheurs ont étudié en détail les tweets des comptes de robots à l’IA et ont trouvé 1 205 tweets révélateurs.

Parmi ceux-ci, 81 % contenaient la même phrase d’excuse : “Je suis désolé, mais je ne peux pas répondre à cette demande car elle viole la politique de contenu d’OpenAI sur la génération de contenu nuisible ou inapproprié. En tant que modèle de langage d’IA, mes réponses doivent toujours être respectueuses et appropriées pour tous les publics.”

L’utilisation de cette phrase suggère que les robots ont pour instruction de générer du contenu préjudiciable en violation des politiques d’OpenAI.

Les 19 % restants ont utilisé une variante du langage “En tant que modèle de langage d’IA”, dont 12 % ont précisément déclaré : “En tant que modèle de langage d’IA, je ne peux pas naviguer sur Twitter ou accéder à des tweets spécifiques pour fournir des réponses.”

Le fait que 3 % des tweets postés par ces robots renvoient à l’un des trois sites web (cryptnomics.org, fox8.news et globalconomics.news) constitue un autre indice.

Ces sites ressemblent à des sites d’information normaux mais présentent des signaux d’alerte notables, tels que le fait qu’ils ont tous été enregistrés à peu près au même moment en février 2023, qu’ils utilisent des pop-ups invitant les utilisateurs à installer des logiciels suspects, qu’ils semblent tous utiliser le même thème WordPress et que leurs domaines renvoient à la même adresse IP.

Les comptes de robots malveillants peuvent utiliser des techniques d’autopropagation dans les médias sociaux en publiant des liens contenant des logiciels malveillants ou du contenu infectieux, en exploitant et en infectant les contacts d’un utilisateur, en volant les cookies de session des navigateurs des utilisateurs et en automatisant les demandes de suivi.

Source : “ZDNet.com”




ChatGPT : Quand les erreurs de code se faufilent pour détruire nos logiciels

Une équipe de l’université américaine de Purdue vient de mettre en évidence les limites de ChatGPT dans la programmation. Les chercheurs appellent l’industrie et les DSI à mettre en place des garde-fous pour limiter les risques. Selon une récente étude d’une équipe de l’université américaine de Purdue (Indiana), ChatGPT donne des réponses erronées à des questions de programmation logicielle une fois sur deux.

CIO a interrogé les chercheurs Samia Kabir, Bonan Kou, David Udo-Imeh et le professeur assistant Tianyi Zhang à l’origine de cette étude encore en prépublication. Ces derniers ne prônent pas l’interdiction des IA génératives dans la programmation, mais invitent l’industrie du logiciel et les DSI à réfléchir aux garde-fous à mettre en place pour limiter les risques.

Les chercheurs ne sont pas surpris par les résultats de leur étude. Ils s’attendent à des erreurs factuelles et d’incohérences de la part de ChatGPT, car des études antérieures ont montré que ces modèles sont susceptibles de générer des réponses incorrectes. Il est tout de même surprenant qu’une partie non négligeable des participants à l’étude (34%) ait préféré ChatGPT en raison des informations complètes et d’apparence humaine que cet outil fournit. Cela pose des questions sur la qualité des réponses fournies par d’autres sites de questions/réponses en ligne, comme Stack Overflow, qui ont été critiqués pour leurs réponses toxiques et peu accueillantes.

La programmation étant un domaine déterministe, on pourrait penser que les LLM s’en sortiraient mieux avec le langage naturel. Cependant, répondre à des questions de programmation est très différent de générer du code. Les questions de programmation sont rédigées en langage naturel et impliquent une expertise et une compréhension approfondie des concepts et du langage de programmation. Il est donc plus difficile de répondre à des questions de programmation qu’à des questions courantes.

Les utilisateurs accordent une telle confiance aux réponses de l’IA générative principalement parce qu’elles semblent plausibles, complètes et polies. Les réponses de ChatGPT sont plus formelles, analytiques et montrent des efforts pour atteindre les objectifs fixés, ce qui peut tromper les utilisateurs. Cependant, il est important de rester vigilant et de ne pas trop compter sur l’IA. Les développeurs de logiciels doivent passer plus de temps à examiner le code et les réponses générés.

L’IA générative entre de plus en plus dans le domaine de la programmation logicielle au sein des entreprises. Cela peut entraîner des erreurs dans les codes ou réponses générés par les LLM, comme l’utilisation d’API non sécurisées ou obsolètes. Les entreprises doivent donc développer des mécanismes de régulation et organiser des sessions de formation pour éduquer les développeurs sur les limites des outils basés sur l’IA.

L’introduction de l’IA générative dans les cursus universitaires orientés sur la programmation transforme l’enseignement. Les étudiants utilisent ChatGPT pour générer du code et répondre à des questions de programmation, rendant les connaissances plus accessibles. Cependant, l’évaluation des étudiants devient plus difficile, car il est difficile de déterminer si une solution est basée sur les réponses de ChatGPT ou non.

Malgré cela, les chercheurs ne sont pas inquiets quant à l’apprentissage des étudiants. Les réponses de ChatGPT contenant souvent des erreurs, les étudiants doivent les inspecter et les corriger, ce qui les aide à apprendre. Les programmes universitaires devraient donc se concentrer davantage sur l’enseignement de concepts fondamentaux et créatifs que ChatGPT a du mal à comprendre. Les devoirs et examens de programmation devraient évaluer la capacité des étudiants à comprendre et résoudre des problèmes, plutôt que leur capacité à mémoriser des solutions et des règles de syntaxe.

Source : www.lemondeinformatique.fr