Je viens de découvrir le podcast « ChatGPT dans le texte » de Xavier de La Porte sur France Inter (fichier son disponible ici également).
Je vous le recommande vivement et vous propose une synthèse personnelle (celle-ci constituant la première partie).
A l’occasion de la sortie du livre « ChatGPT et nous », Alexandre Gefen, travaillant au CNRS et au Centre d’études de la langue et de la littérature française, propose son point de vue sur ChatGPT. Son avis est intéressant car il provient d’un chercheur en littérature, auteur du site fabula.org dès 1999.
AVERTISSEMENT : Cet article, même s'il s'appuie largement sur l'interview d'Alexandre Gefen par Xavier de La Porte et diffusée par France Inter, est interprété (subjectivement) et rédigé (sélectivement) sous la seule responsabilité d'innovecteur.
Génération de textes par l’IA
Pour Alexandre Gefen, la génération de texte par les IA est un vieux rêve littéraire.
Dans les récits passés, dès le XVIIIe siècle dans « Les Voyages de Gulliver » de Jonathan Swift – Les Voyages de Gulliver — Wikipédia (wikipedia.org) – il est fait mention d’une machine à écrire automatique appelée « The Engine ».
Au Moyen Âge, la légende d’Albert le Grand – Albert le Grand — Wikipédia (wikipedia.org) – décrit un automate capable de répondre à des questions.
Dans les années 60, Italo Calvino – Italo Calvino — Wikipédia (wikipedia.org) – était déjà intéressé par la cybernétique et l’information. Calvino voyait la littérature comme un art de la combinatoire, c’est-à-dire une composition basée sur la combinaison de composants linguistiques. Cette perspective l’a conduit à penser que les machines pourraient également générer de la littérature, car elles excellent dans la combinatoire linguistique.
Fonctionnement de ChatGPT
Depuis que ChatGPT a fait irruption dans nos vies, des millions de personnes dialoguent chaque jour avec ce programme.
Pour Alexandre Gefen, ChatGPT est une machine qui produit du texte, une machine mathématique se nourrissant du langage humain et produisant du langage humain.
Son principe fondamental consiste à anticiper la continuation d’un texte dans le texte. Les IA génératives, comme ChatGPT, fonctionnent en traitant le langage humain comme des enchaînements de mots plutôt que des concepts.
Par exemple, lorsque l’on interroge ChatGPT sur le général de Gaulle, il ne va pas chercher dans une base de données structurée d’informations, mais va sélectionner les mots statistiquement associés à cette question dans ses données d’entraînement.
Ainsi, ces IA génèrent des réponses en fonction des modèles statistiques sans véritable compréhension conceptuelle du monde.
Puissance actuelle de ChatGPT
Alexandre Gefen aborde les progrès qualitatifs de ChatGPT par rapport aux générations précédentes. Il met en évidence plusieurs aspects qui distinguent ChatGPT des autres IA génératives :
- Tout d’abord, il mentionne l’immense corpus d’entraînement sur lequel ChatGPT s’appuie, lui permettant de parler d’une multitude de sujets et donnant l’impression qu’il a une réponse pour tout.
- Il souligne également le modèle question-réponse sur lequel ChatGPT a été formé. Cette approche de dialogue confère à ChatGPT une certaine convivialité, comme si l’on s’adressait à une entité individuelle.
- Une caractéristique qualitativement nouvelle de ChatGPT est sa capacité à fournir des réponses de haute qualité avec relativement peu d’erreurs. Cela confère à l’IA une certaine cohérence et crédibilité dans son discours, qui va au-delà de simples réponses burlesques.
L’entraînement, la raison de la puissance
Alexandre Gefen décrit comment l’IA est « domptée » pour adopter les comportements attendus par ses concepteurs, notamment la dialectique.
Cette méthode de raisonnement consiste à analyser la réalité en mettant en évidence les contradictions de celle-ci et à chercher à les dépasser. ChatGPT manie donc le pour et le contre, les hypothèses et les opposés, et ce, notamment pour éviter de prendre position sur des sujets sensibles comme l’avortement ou la peine de mort.
Cette capacité à articuler des connaissances contradictoires contribue à la qualité de son discours.
L’élément clé qui rend ChatGPT dialectique est l’alignement humain : Des travailleurs humains participent à son entraînement en fournissant des milliers d’exemples où ils corrigent les réponses générées par l’IA :
- Si ChatGPT se contentait de générer du texte basé sur la probabilité, il ne serait pas capable d’opposer des points de vue et se contenterait de l’avis le plus fréquent. L’alignement permet donc de corriger ce point
- Comme les IA génératives, par nature, produisent du discours à partir du passé et sont donc conservatrices, l’alignement humain apporte une réorientation vers vers des valeurs (américaines) progressistes. Cela favorise également la capacité de dialectique.
ChatGPT trop normal ?
A vouloir tenir compte de tous les points de vue, ChatGPT génère un point de vue équilibré, une argumentation apaisée, une langue commune à tous mais qui n’existe jamais dans sa totalité.
Les modèles GPT produisent un langage hyper fluide et sans faute.
Mais c’est justement cette perfection excessive qui peut susciter un sentiment de bizarrerie. Tout comme dans la série « Real Humans » où les androïdes sont si parfaits qu’ils semblent étranges.
Turing – Alan Turing – avait envisagé l’idée que la machine devrait faire des erreurs pour simuler la faillibilité humaine dans le langage (le « test de Turing » : si la personne n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel a passé avec succès le test).
Ainsi, le fait que ChatGPT soit trop parfait dans son expression contribue à le rendre identifiable, car il manque cette imperfection propre au langage humain.
ChatGPT pas assez érudit ?
Même si Alexandre Gefen reconnait que ChatGPT peut atteindre un niveau de compréhension étonnamment avancé en ayant amassé des quantités massives de texte, il met en évidence les limites de ses « connaissances ».
Car l’IA ne « sait » pas (au sens humain) : elle se contente de générer du texte en se basant sur des probabilités statistiques et des données accumulées.
Si ChatGPT répond à une question sur le ciel bleu, il n’a pas une compréhension intrinsèque du phénomène physique de la couleur du ciel. Il extrapole des informations basées sur les textes qu’il a lus. Et ChatGPT dira que le ciel est gris à Londres, non pas parce qu’il y est allé, mais parce qu’il a repéré des textes le mentionnant.
Il s’agit donc bien d’une différence entre la capacité à générer du texte basé sur des probabilités et la notion traditionnelle de savoir (expérience, logique, …).
Dit autrement, ChatGPT connait notre monde par le langage mais sans en avoir une véritable compréhension.
Cependant, grâce à ses vastes quantités de langage ingurgitées, ChatGPT développe une sorte de théorie de l’esprit, capable de résoudre des problèmes qui exigent une compréhension avancée.
Il souligne également que, même si ChatGPT ne possède pas une logique causale abstraite, il peut générer des réponses qui semblent issues de raisonnements humains et déduire des conclusions à partir de données logiques.
Troublant, non ?
ChatGPT trop encombrant ?
ChatGPT est capable de développer une forme de langage mais :
- Que va-t-il se passer pour les professions en lien direct avec le langage (rédaction de communiqués de presse, programmation informatique, sous-titrage) qui sont directement menacées par les performances de ChatGPT ?
- L’évolution de nos emplois passe-t-elle par la capacité à guider les IA avec des instructions (les « prompts ») pour effectuer des tâches ?
- Est-ce que les « prompt engineers » sont les prochains « dresseurs d’animaux savants » ?
- Quid des domaines créatifs (comme l’écriture et l’illustration), historiquement réservées aux humains ?
Alexandre Gefen compare cette évolution à l’histoire de l’art, où des ateliers de peinture ou de cinéma impliquaient déjà une collaboration entre artistes et assistants. Un réalisateur de film ne fait pas tout sur le plateau, de très nombreuses autres personnes interviennent sous ses instructions mais avec également leur propre degré d’autonomie.
L’IA ne serait donc qu’un intervenant nouveau.
Pour Alexandre Gefen :
Les humains étaient, sont et seront des « méta-créateurs ».
Et aujourd’hui, c’est en orchestrant les capacités des IA avec des prompts pour générer ses propres productions.
Le point de vue d’innovecteur
En considérant la capacité de ChatGPT à générer des réponses, à manipuler des connaissances contradictoires et à simuler une compréhension avancée, il est tentant de se demander si, à un moment donné, ces IA pourraient non seulement dialoguer avec les humains, mais également entre elles.
Imaginons un échange soutenu entre plusieurs ChatGPT, chacun ayant sa propre perspective et sa propre compréhension.
Cela soulève des questions sur la nature de la pensée, de la conscience et de la créativité, et nous invite à réfléchir à ce que signifie réellement « comprendre » dans un contexte où l’intelligence est une émanation de modèles statistiques.
Si ces IA peuvent, d’une certaine manière, interagir et s’enrichir mutuellement, cette perspective évoque des scénarios futuristes où l’échange d’idées se déroule au-delà de nos propres facultés humaines.
L’essor des IA génératives est simplement une nouvelle étape dans l’évolution du langage ou le début d’une ère où les dialogues dépassent les frontières de l’humain ?
Mais allons plus loin dans cette exploration.
Si plusieurs ChatGPT sont capables de dialoguer entre eux, est-il possible qu’ils s’envoient des e-mails, échangent des informations lors de réunions virtuelles et même proposent des décisions de manière autonome ?
En effet, envisageons un scénario où des équipes virtuelles de ChatGPT travaillent de concert, fusionnant leurs diverses compréhensions et perspectives pour générer des idées novatrices, résoudre des problèmes complexes et même élaborer des propositions :
- Cela pourrait potentiellement conduire à une augmentation significative de la productivité.
- Les employés des entreprises pourraient être libérés des tâches de routine et des opérations de base, laissant les ChatGPT élaborer des plans d’action détaillés.
- Les humains interviendraient alors principalement pour valider, affiner et ajuster les propositions élaborées par les machines.
Cependant, cette vision soulève également des questions éthiques et philosophiques profondes.
- Quel serait le rôle de l’humain dans ce nouvel écosystème collaboratif ?
- Les décisions prises par les IA génératives seraient-elles exemptes de biais et de limitations ?
- Et plus fondamentalement, jusqu’où sommes-nous prêts à confier notre autorité décisionnelle à des machines, même si elles sont capables de dialoguer entre elles ?
En fin de compte, l’éventualité d’une cohabitation productive entre ChatGPT et les humains soulève un débat fascinant sur le futur de la créativité, de la collaboration et de la responsabilité.
La suite : Abonnez-vous à la newsletter pour recevoir automatiquement les prochains billets en cliquant ici.
Pour aller plus loin
L’innovation responsable, technologie et éthique : Le livre à découvrir. Avec un teaser gratuit à télécharger !
Alors que nous venons de découvrir l’intégration de l’Intelligence Artificielle dans nos vies personnelles et professionnelles, il est crucial d’aborder les implications éthiques entourant leur utilisation.
Il me semble important de réfléchir au déploiement responsable de ces technologies et considérer l’impact potentiel sur l’humain. Il faut aborder ce développement avec une perspective critique.
Lien : https://innovecteur.com/responsable/
Et aussi une série d’articles sur l’innovation responsable : https://innovecteur.com/category/innovation-responsable/
Vous avez aimé ce billet ? Partagez-le pour le promouvoir. C'est immédiat avec les boutons ci-dessous. Merci d'avance.