ChatGPT : Un miroir pour explorer le savoir universel.

➡️ Accéder à CHAT GPT4 en cliquant dessus


ChatGPT et l’intelligence artificielle : la satisfaction et l’inquiétude

L’accès de tous au système ChatGPT a relancé le débat sur les dangers de l’intelligence artificielle (IA). Les observateurs, entreprises et enseignants s’inquiètent de voir le système élaborer des synthèses professionnelles ou des devoirs académiques perçus comme « satisfaisants ». Mais cette satisfaction devrait plutôt nous inciter à interroger l’IA.

L’IA et le savoir technique

A ses débuts, l’IA visait la captation des savoirs techniques et spécialisés. Les systèmes experts des années 1980 fournissent des diagnostics médicaux, aident les réparateurs de machines ou à la conduite des robots. La reconnaissance faciale est emblématique de cette approche. L’IA peut alors apprendre à imiter un style littéraire ou musical et à générer des formes complexes à partir de millions d’exemples.

Un parfait rhéteur

Il n’a pas fallu longtemps aux usagers perspicaces de ChatGPT pour se rendre compte que le système raisonne et calcule mal. De même qu’il se révèle, par exemple, un piètre joueur d’échecs. Pourtant, il peut aisément disserter sur la théorie de la relativité générale d’Einstein, donner les règles d’une société civile immobilière ou aborder avec pondération un dilemme moral.

ChatGPT agit donc comme un parfait rhéteur, qui, sans comprendre ce dont il parle, cherche dans sa mémoire – bien supérieure à celle d’un humain – les phrases les plus établies, donc les lieux communs, qu’il agencera ensuite en une réponse convaincante.

La rarefaction du travail et l’avenir des retraites

La satisfaction que ChatGPT nous impose devrait nous inciter à interroger la rarefaction du travail et l’avenir des retraites. Les manageurs en attente de rapports et les professeurs correcteurs de dissertations se retrouvent devant un miroir inquiétant : doivent-ils encore se satisfaire de synthèses humaines, si elles répètent, comme ChatGPT, ce que disent les textes ?

Mais s’ils doivent solliciter, au contraire, des propositions originales, seront-ils capables de les reconnaître et d’y répondre eux-mêmes ? Une recherche expérimentale récente montre que pour qu’un leader ou un professeur puisse accueillir des propositions innovantes ou surprenantes, il faut qu’il soit lui-même capable de détecter les biais de son propre savoir et les limites de son processus créatif.

Source : www.lemonde.fr

➡️ Accéder à CHAT GPT 4 en cliquant dessus

Veuillez vous connecter pour laisser un commentaire.