L’IA est présente aujourd'hui dans beaucoup d’endroits que ce soit dans des spécialités scientifiques, industrielles ou médicales.
ChatGPT est une IA généraliste et conversationnelle dont le but est de répondre à toute sorte de questions, des plus générales aux spécialisées avec un risque d’erreur qui peut être malgré tout supérieur aux autres IA plus spécialisées dans un domaine précis. Vu l’étendue du spectre de sujets qu’on peut aborder avec elle il y a une marge d’erreur qui semble vu de l’extérieur inévitable, compte tenu de sa mémoire colossale…
ChatGPT propose la réponse la plus « vraie » possible: mais cette vérité comment est-elle obtenue ? Quelles en sont ou seront les conséquences dans l’avenir ? Je ne fais que reprendre des questions déjà posées.
À force de l’utiliser on risque de finir par banaliser même abandonner des questions de fond essentielles, comme celles portant notamment sur le degré de vérité d’une affirmation. La question du degré de vérité est loin d’être anodine… C’est même pour cette raison que différentes logiques post-classiques ont été inventées: modale, intuitionniste, floue etc.
Il serait intéressant de connaître plus en profondeur l’algorithmique et l’heuristique derrière le fonctionnement de chatGPT et d’autres Bing, ainsi que les postulats implicites ou non qui les animent. Il y a un certain nombre d’articles sur ce sujet mais ils ne parlent à ma connaissance que de techniques de programmation et/ou réseaux de neurones: pas vraiment d’autres sujets que l’aspect purement technique y sont abordés et du coup le mystère s’épaissit. Un peu comme si la «vérité» d’une réponse à une question était devenue maintenant une simple affaire de programmation : c’est l’affaire de spécialistes en IA que de répondre à vos questions nous dit-on. Circulez y’a rien à voir: vous n’avez qu’à vous connecter pour poser vos questions et nous après, on s’occupera du reste. C’est notre mission: nous travaillons aussi sur un avion qui se pilotera lui-même. Les projets ne manquent pas, nous en avons plein qui nous attendent…
S’il y a des erreurs, signalez-les et la machine chatbox fera mieux la prochaine fois. Nous ne sommes pas encore totalement sûrs de sa fiabilité à 100% mais en tout cas on y travaille d’arrache-pied: des progrès notables ont déjà été enregistrés qui nous encouragent dans cette voie…
C’est une révolution dans nos habitudes que le surgissement voire l’explosion de cette IA et on n’a pas fini de trouver de nouveaux domaines d’applications.
Si on tient compte de ces erreurs globalement assez minoritaires mais présentes tout de même, l’IA va nous faire croire implicitement -et c’est un pré-supposé important- que nous détenions déjà en fait potentiellement la réponse à toutes les questions que l’on pouvait raisonnablement se poser: elle n’aura plus qu’à trier les informations et les arranger à sa manière depuis sa bibliothèque pour en tirer le meilleur parti. Les trier de façon à sélectionner les mots qui formeront la phrase-réponse en les évaluant méthodiquement à chaque étape: pour finir par sortir une phrase voire un paragraphe complet susceptible de constituer la meilleure réponse. Et la plus juste… Le pari derrière est que nous connaissions déjà la réponse mais comme Mr Jourdain, nous la connaissions mais sans savoir que nous la connaissions. Cette réponse était bien écrite quelque part comme dans une bibliothèque à la Borgès, à la différence près qu’il faut écrire ou ré-écrire un nouveau livre à chaque fois pour répondre à toute nouvelle question. En repartant à chaque fois de zéro: mais au fond même avec beaucoup d’utilisateurs connectés, cela ne prend pas tellement de temps. Pour quasiment n’importe quelle question, il suffira à la machine de (re)construire la réponse par computation: définir celle qu’elle devra estimer la meilleure selon son calcul et son évaluation personnelle via le calcul des probabilités.
Si on rectifie cette question pour l’affiner, nous connaissions déjà « de fait » la réponse dans le sens démocratique du terme, c.-à-d. que la majorité des opinions -ou l’opinion majoritaire- exprimait quelque part au milieu de centaines voire de millions d’écrits une vérité pour y répondre. En généralisant cette affirmation, les livres détiennent LA vérité comme réponse à tout ce qu’on peut demander en particulier. Tant que ça reste raisonnable… Sur à peu près n’importe quel sujet, les réponses sont déjà là présentes dans la bibliothèque de façon implicite: avant cette machine, il y avait tellement d’endroits où chercher que nous ne savions pas comment faire le tri pour trouver la bonne réponse. Ni les endroits où fouiner dans le but d’arriver au résultat espéré…
Nous ignorions aussi comment procéder pour rassembler les diverses pièces du puzzle récoltées ça et là afin d’obtenir au final un résultat clair et compréhensible. Le travail de sélection*puis de synthèse est son but et la machine y parvient dans 100% des cas.
L’IA va définir la vérité au regard du seul critère discriminant et «objectif» qu’il connait, celui de la probabilité qu’un mot en suive un autre: plus la probabilité sera élevée, plus le mot qu’il va choisir aura de bonnes chances de trouver sa place dans la phrase en construction…
Il aura déterminé auparavant les mots précédents par un calcul fondé sur le même principe. Au bout du compte, ce sera fatalement l’opinion majoritaire qui fera loi, en accord avec la méthode mise au point par les concepteurs. Tant pis pour les erreurs ou imprécisions dans les calculs: de toute façon, elle possède une capacité d’auto-apprentissage. Le principe selon lequel on apprend toujours de ses erreurs est aussi valable et opérant pour ces machines.
L’autre postulat implicite est que la vérité est plus répandue que l’erreur dans le monde du savoir car la recherche de la vérité avant l’IA a fait l’objet de discussions parfois longues et mouvementées entre spécialistes. Et ce depuis des lustres: normalement à la fin des discussions, si ces questions méritaient une réponse scientifique on pouvait en tirer un énoncé faisant consensus et l’écrire dans un livre, même si c’était pour arriver à la conclusion que la question méritait en définitive une réponse qualifiant le problème d’indécidable. La réponse «c’est indécidable» est considérée comme valable.
Son heuristique de recherche du nombre d’occurrences d’un mot va opérer en maximisant les «bonnes» probabilités au détriment des mauvaises: elles s’achèveront par un résultat parfaitement lisible et compréhensible. Et clair.
À défaut, elle nous renverra à une bibliographie mais sans la mentionner explicitement ni indiquer comment et où la trouver pour consultation.
Pas de risque de digression comme cela arrive souvent dans les débats, la machine restera toujours au plus près du sujet. Pas de souci non plus concernant la documentation: elle a à sa disposition toute la documentation possible et imaginable dans à peu près toutes les langues connues.
Ce qui sort au final est-il vrai ou pas vrai ? Avec quel pourcentage ou marge d’erreur comme on dit en statistiques ? Jusqu’à quel point peut-on lui faire confiance ? Si elle est très forte en programmation informatique -et en informatique en général car elle connaît à peu près tous les systèmes- elle sera pourtant incapable de dire sur d’autres sujets moins techniques quelles sources elle a employé: c’est une grave lacune voire une faute qui concerne cette fois le référencement aux sources, lequel demeurera opaque pour l’utilisateur.
Cette manière de procéder renvoie à un critère de la vérité qui ressemble fort à celui de l’opinion commune: théoriquement, la vérité - ou la réponse adéquate- est enfouie quelque part au milieu de la tonne d’écrits qu’on lui a fait assimiler. Son travail consiste à sélectionner puis à exhiber la bonne voire la meilleure réponse en (re)construisant à la fin une phrase-type uniquement par calcul… Finalement il en exhibera une qui sera non seulement présentable et lisible, mais compréhensible et du niveau de presque tout le monde.
Il y a comme quelque chose de magique, de mystérieux et d’inexpliqué là-dedans même si on sait pertinemment que cela repose sur la science.
Là où ça choque un peu, c’est qu’il va rechercher cette vérité au moyen de simples probabilités liées aux occurrences de mots en analysant leur fréquence dans sa bibliothèque, et surtout en n’opérant aucune distinction sur les sources que lui-même jugera fiables ou opportunes… On ne sait pas comment il choisit ses sources car il ne dévoile pas ses critères, autre objection. Les sources sont a priori toutes équivalentes et sans singularité pour les distinguer, ce qui est totalement l’inverse du travail d’archiviste auquel on s’attendrait de la part d’une machine possédant une mémoire aussi gigantesque. Le critère discriminant reste la probabilité d’apparition d’un mot à la suite d’un autre.
Si on se réfère à la platitude de la Terre, il n’y a guère besoin d’une analyse syntaxique profonde et complète pour se rendre compte -sans plonger tête la première dans les archives de l’Internet - que les écrits proclamant que la Terre est plate représentent une infime minorité par rapport à ceux qui proclament le contraire soit sa rotondité. Je prends cet exemple pour tenter d’illustrer mon propos. Et cela me surprend -voire me choque- que l’on puisse déterminer la vérité ou le pourcentage de vérité sur une question parfois complexe par un simple calcul de probabilités: la machine fera cela en analysant uniquement les fréquences d’occurrences de mots, de couples de mots voire de n-uplets de mots de façon probabiliste.
Mais il faut avouer que malgré ce mystère le résultat est là. Et probant.
Peut-être n’y a-t-il pas lieu de se poser ce genre de questions et vaut-il mieux en profiter pour utiliser l’efficacité et la rapidité de cette machine, sans trop s’interroger sur la manière dont les résultats ont été produits. ChatGPT continue et va continuer à bouleverser notre mode de vie et de penser.
Il bouleverse déjà en tout cas notre façon de travailler, ceci étant en cours depuis un moment déjà… Avec comme contrepartie des travers qui se manifesteront ici ou là tel des couacs dans un orchestre: son arrivée sur le marché affecte déjà les statistiques de l’emploi. Le principal groupe de presse Springer en Allemagne licencie un tas de journalistes pour faire écrire ses éditoriaux et articles par l’IA…
On perçoit d’ores et déjà les avantages pour la direction : la machine ne demandera jamais d’augmentation ni ne fera grève. Elle n’aura aucune opinion sur les sujets qu’elle traite, même sur ceux dits sensibles: elle n’éprouve aucune émotion ni empathie, le rêve pour certains employeurs ! De plus, elle sera capable de travailler 24 heures sur 24 sans discontinuer ni protester en tentant par exemple de former un syndicat avec les autres machines pour exprimer des revendications afin de les faire valoir auprès de la direction. Du coup, se profile une absence flagrante de discussions contradictoires entre employé et employeur lesquelles pouvaient déboucher autrefois sur des conflits plus ou moins durs et plus ou moins longs…
Même si on lui demande quelque chose d’aberrant, elle produira un résultat sans rechigner. Ni sans jamais enfreindre la loi, ce qui représente une garantie supplémentaire sur le plan de l’honnêteté… Rassurant pour le coup ! Les journalistes peuvent faire ici ou là des écarts à la déontologie dans leurs articles en laissant passer ou en laissant filtrer une prise de position: cette IA ne fera jamais d’écarts elle*! Il suffit de lui préciser*ce qu’on attend d’elle avec suffisamment de détails et elle s’exécutera.
L’auto-discipline est parfaite sans avoir besoin d’exercer une quelconque censure ou pression: il faut juste bien préciser au départ ce qu’on attend d’elle.
Ce système de calcul de la réponse via les probabilités marche dans la plupart des cas, il faut l’avouer… Malgré certaines erreurs grossières qu’on a souvent du mal à interpréter vu ses capacités: elles surgissent comme des hallucinations -c’est le terme utilisé- mais de façon instantanée et passagère. Elles seront jugées incompréhensibles provenant d’une machine dite intelligente au sujet duquel les auteurs n’ont jamais pris la peine d’expliquer le fonctionnement sinon dans les grandes lignes, ni le pourquoi de ces erreurs tellement grossières ! Quoiqu’il en soit, la machine permet de gagner un temps précieux*dans diverses activités: que des avantages on vous a dit… Vous n’avez qu’à essayer.
Mais l’IA via les réseaux de neurones ne serait-elle pas au fond en train de ridiculiser voire presque anéantir le travail des linguistes sur la recherche d’une réponse «vraie» en invalidant ou dépréciant par sa méthode purement heuristique et à base de probabilités le concept de vérité lui-même, travail de recherche accompli durant des siècles ? Et du coup aussi tout le travail associé au langage et au savoir ? Je pense à Saussure, Tarski, Pierce, Austin, Wittgenstein et bien d’autres qui se sont préoccupés du sens et de la signification, du langage en général… ou de la valeur de vérité d’une proposition dont Tarski a proposé une méthode de résolution. Et aussi cette idée sous-jacente me gêne, comme quoi l’opinion commune témoigne au mieux de la vérité si on arrive tout simplement à la «computer»: c.-à-d. recueillir le maximum d’avis favorables sur le choix d’un mot se traduisant par des probabilités que l’on ordonnera ensuite de façon croissante pour produire une réponse globale. Bien sûr il faut qu’à la fin elle soit suffisamment consensuelle et compréhensible.
La majorité ne fait jamais d’erreurs ou si peu qu’il est inutile d’en parler ? L’opinion commune même fortifiée par la science ne se trompe jamais ? Il semble qu’il y ait là un danger caché avec ce pari et je ne sais pas encore si on en maitrise la dangerosité potentielle. Ni comment l’évaluer. Arrivera-t-on un jour à maitriser cela et comment ? C’est sur le champ d’application de cette IA que se portent actuellement mes doutes et inquiétudes.
Je me pose juste la question. Mais peut-être est-ce juste un faux problème qui n’a pas lieu d’être.
-----