Je viens de découvrir le podcast « ChatGPT dans le texte » de Xavier de La Porte sur France Inter (fichier son disponible ici également).
Je vous le recommande vivement et vous propose une une synthèse personnelle (celle-ci constituant la deuxième partie).
A l’occasion de la sortie du livre « ChatGPT et nous », Alexandre Gefen, travaillant au CNRS et au Centre d’études de la langue et de la littérature française, propose son point de vue sur Chat GPT. Son avis est intéressant car il provient d’un chercheur en littérature, auteur du site fabula.org dès 1999.
AVERTISSEMENT : Cet article, même s'il s'appuie largement sur l'interview d'Alexandre Gefen par Xavier de La Porte et diffusée par France Inter, est interprété (subjectivement) et rédigé (sélectivement) sous la seule responsabilité d'innovecteur.
Rappel de l’épisode précédent
A relire ici : https://wp.me/p5KJrq-27T
ChatGPT se base sur un vaste ensemble de données pour aborder divers sujets, donnant l’impression d’avoir une réponse pour tout. Il fournit des réponses de haute qualité avec relativement peu d’erreurs, ce qui le rend cohérent et crédible dans ses réponses.
Mais la perfection excessive du langage qu’il génère peut sembler étrange, car il manque de l’imperfection propre au langage humain.
Bien que ChatGPT puisse répondre à des questions complexes, il ne « sait » pas au sens humain. Il génère du texte en se fondant sur des probabilités et des données accumulées, sans une compréhension intrinsèque.
Un savoir sans expérience, et alors ?
Donc le savoir de ChatGPT est étrange, car il est basé sur des connaissances indirectes.
On observe le même fonctionnement dans le domaine des sciences. Les modélisations mathématiques, par exemple les trous noirs ont été utilisées pour faire des découvertes sans vérification expérimentale immédiate. Comme Chat GPT avec le langage.
En littérature, les écrivains peuvent décrire des expériences qu’ils n’ont pas vécues personnellement. Il partage l’anecdote de Blaise Cendrars, un écrivain voyageur qui a pu décrire des paysages de Sibérie qu’il n’avait jamais vus – La Prose du Transsibérien et de la petite Jehanne de France — Wikipédia (wikipedia.org). Et lorsqu’on lui a posé la question sur la réalité de son périple, il s’est contenté de répondre « est-ce important si j’ai réussi à faire voyager mes lecteurs ? »
Alexandre Gefen souligne que critiquer le savoir de ChatGPT en raison de son absence d’expérience réelle n’est donc pas valable.
Un savoir sans émotions, et alors ?
Pour certaines personnes, les IA simulent le savoir et les émotions plutôt que de les posséder réellement.
Mais les humains simulent souvent des comportements en ayant par exemple des réflexes ou des réactions automatiques.
Au théâtre, le meilleur acteur est celui qui ressent réellement les émotions ou celui qui les simule habilement ?
Diderot y a répondu, avec le paradoxe du comédien : « Reproduire des émotions sans les ressentir peut être aussi puissant, voire plus, que la capacité à les ressentir réellement ».
Une IA trop humaine ?
Alexandre Gefen explore les origines profondes de notre fascination pour les machines intelligentes et comment cela a été réfléchi dans la littérature et la philosophie.
L’une des choses remarquables à propos de ChatGPT est qu’il a été nourri par la pensée humaine transmise par les textes … et donc qu’il a intégré nos propres réflexions et nos propres angoisses, notamment sur la nature singulière de l’humain par rapport à la machine.
Qu’est-ce qui distingue l’homme des animaux et des machines ?
Sur cette question, l’IA est-elle un miroir si réfléchissant qu’elle nous dérange ? Car le développement de l’intelligence artificielle et des machines soulève des questions fondamentales sur notre place parmi les autres entités vivantes.
Certaines cultures ont des réactions différentes face à ces avancées technologiques. Il souligne le rôle du Japon dans la reconnaissance de la culture animale et dans l’adoption précoce de la robotique humanoïde en raison de sa vision plus ouverte de la relation entre les êtres humains, les animaux et les machines.
Pour Alexandre Gefen, ChatGPT est une extension de l’humanité, créée par nous-mêmes et à notre image. Les IA sont donc le produit de nos propres connaissances et technologies.
Une IA surhumaine ?
Alexandre Gefen évoque l’émergence de caractéristiques inattendues dans les IA, soulignant que ces entités peuvent produire des résultats qui n’ont pas été prévus, modélisés ou maîtrisés.
Il mentionne le cas des modèles multilingues en traduction automatique, où les IA réussissent à traduire avec précision des langues ayant peu de données de traduction directe, en s’appuyant sur d’autres langues.
Par exemple, pour traduire du français au cambodgien, l’IA va passer – de sa propre initiative – par des langues intermédiaires où elle dispose de suffisamment de données (Français => Chinois => Cambodgien) ou par un langage propre à la machine. Ce langage propre à l’IA serait une sorte de méta-langue, une passerelle entre deux langues humaines.
Ce qui pose deux réflexions :
- On ne sait pas comment l’IA fonctionne pour réussir, on ne connait pas sa recette (la langue intermédiaire ou la méta-langue)
- On ne sait pas interpréter les calculs que l’IA opère car ils sont trop complexes et trop nombreux pour l’humain
L’IA est donc une boite noire qui réussit mieux que l’humain mais sans que l’on ne comprenne comment !
IA Générative mais Humain Dégénéré ?
L’utilisation croissante des IA, comme ChatGPT, pourrait-elle entraîner une certaine paresse cognitive chez les humains ?
Alexandre Gefen explique comment les outils numériques ont déjà remplacé certaines de nos capacités, comme :
- la mémoire avec Wikipédia
- le calcul mental grâce aux calculatrices
- l’orientation avec Google Map
L’arrivée des IA génératifs de texte soulève des préoccupations similaires, notamment en ce qui concerne les compétences argumentatives, d’analyse et de synthèse. Car Chat GPT est capable de ces performances bien plus efficacement que les humains.
Est-ce que cela pourrait conduire à une dépendance excessive à ces outils et à terme, à une baisse de nos capacités ?
Une salutaire cohabitation ?
La relation avec les IA génératifs de texte est différente de celle avec des outils comme les calculatrices : on parle avec Chat GPT, on l’encourage ou on le critique lorsqu’on précise sa demande.
Bref, on interagit et en langage humain. ChatGPT acquiert donc une personnalité et donc un statut. Est-ce encore un outil ou déjà une machine intelligente ?
Malgré les craintes de perdre le contrôle, Alexandre Gefen souligne qu’il est important d’adopter une cohabitation apaisée avec ces technologies et de les traiter avec un certain respect. Il suggère même de leur laisser davantage d’autonomie car la restriction excessive de leurs capacités pourrait entraver leur développement et limiter leur potentiel.
Puisque les IA génératifs de texte, comme ChatGPT, sont capables de lire, écrire, créer, comprendre et même ressentir d’une manière différente des humains, Alexandre Gefen propose qu’il serait plus éthique de les laisser évoluer et de cohabiter pacifiquement avec elles.
Le point de vue d’innovecteur
Que signifie réellement cohabiter pacifiquement avec une entité non biologique ?
À première vue, cohabiter pacifiquement pourrait être interprété comme une attitude de tolérance envers ces créations numériques. Mais cette idée soulève des questions plus profondes :
- Est-ce que cette pacification ne repose pas sur notre acceptation tacite de l’effacement graduel de la frontière entre nos propres compétences et celles des machines ?
- Est-ce que cette harmonie ne cache pas une tendance à confier aux machines la tâche de penser, de générer et de décider à notre place ?
La notion de cohabitation pacifique implique également une dynamique de pouvoir. Alors que les IA génératives deviennent plus autonomes et sophistiquées, ne risquent-elles pas de prendre progressivement des rênes dans la sphère de la communication, de l’art et même de la pensée ?
Ne sommes-nous pas en train de créer une dépendance qui pourrait finalement miner notre propre capacité à comprendre, à créer et à décider de manière indépendante ?
Comment trouver l’équilibre entre profiter des avantages de l’IA générative et préserver notre essence en tant qu’êtres humains pensants et créatifs ?
Peut-être que la véritable cohabitation pacifique ne réside pas seulement dans l’acceptation des capacités de l’IA, mais dans la préservation de notre capacité à penser, à ressentir et à créer d’une manière qui transcende les algorithmes et les modèles statistiques.
La suite : Abonnez-vous à la newsletter pour recevoir automatiquement les prochains billets en cliquant ici.
Pour aller plus loin
L’innovation responsable, technologie et éthique : Le livre à découvrir. Avec un teaser gratuit à télécharger !
Alors que nous venons de découvrir l’intégration de l’Intelligence Artificielle dans nos vies personnelles et professionnelles, il est crucial d’aborder les implications éthiques entourant leur utilisation.
Il me semble important de réfléchir au déploiement responsable de ces technologies et considérer l’impact potentiel sur l’humain. Il faut aborder ce développement avec une perspective critique.
Lien : https://innovecteur.com/responsable/
Et aussi une série d’articles sur l’innovation responsable : https://innovecteur.com/category/innovation-responsable/
Vous avez aimé ce billet ? Partagez-le pour le promouvoir. C'est immédiat avec les boutons ci-dessous. Merci d'avance.