Cette question revient de façon quasi-obsessionnelle un peu partout: la SF nous laisse croire que ce serait une possibilité envisageable avec les Terminator et autres Skynet...
Vu la vitesse à laquelle l'IA progresse on est en droit de se poser cette question.
Si on connaît Roland Barthes, il dit que la mythologie et plus particulièrement les mythes sont une façon de se prémunir de ce qui pourrait arriver... et la SF est une grande productrice et consommatrice de mythes.
La limite -contrairement à ce que des cognitivistes "durs" comme Stanislas Dehaene voudrait nous faire croire- est que la machine n'a pas et n'aura jamais de conscience: une démonstration simple ? Déjà ce terme fait l'objet de débats compliqués depuis l'Antiquité jusqu'aux phénoménologues tel Husserl et Bergson entre autre. Il n'y a pas de définition évidente ni consensuelle de la conscience, du style de celles qu'on pourrait traduire en langage informatique par un programme...
Le corps -soit le corps organique- participe à la conscience de façon cruciale comme pour tous les animaux dotés d'un système sensoriel, auquel il faut rajouter les affects, les émotions etc. Or un affect n'est pas ou ne sera jamais simulable de façon informatique même si des films comme Her nous laisse imaginer que c'est possible: l'IA générative ou conversationnelle fonctionnent sur une modélisation du neurone en le réduisant à une porte NAND et en pariant au départ qu'avec les réseaux de neurones -soit une architecture ressemblant à celle du cerveau- on simulera l'intelligence: et ça marche!! Et comme les processeurs sont de + en + rapides et la mémoire de plus en plus petite en taille, on arrive à des résultats bluffants en matière de connaissances. Mais c'est tout: une machine ne ressent pas et ne réfléchit pas. Elle ne sait faire que ce qu'on lui a appris, c.-à-d. calculer par des algorithmes et des heuristiques et elle le fait très vite et tellement bien qu'elle dépasse les capacités humaines en ce domaine. Mais pour créer il faut ressentir et avoir une conscience, aussi une imagination comme entendre à sa façon les gouttes de pluie tomber dans un jardin! Et pouvoir les entendre comme seul Debussy pouvait et traduire puis retranscrire cela en musique.
Et aussi bien, de façon impressionniste...
Tant mieux pour nous qu'une machine ne sache pas faire cela car c'est déjà un progrès incroyable dans le domaine de l'informatique et de l'IA que toutes ces capacités. Et on ne demande à l'IA que d'être un outil, pas d'égaler voire surpasser Chopin ou Oscar Peterson.
P.S. Ça éclaire et vérifie du moins partiellement une chose notable que déjà Leibniz avait prédite en disant que la pensée c'était du calcul sur des symboles: l'intelligence humaine -et par extension animale- fonctionne avec un hardware de nature mathématique puisque probabiliste. À l'apprentissage et la reconnaissance, les deux mamelles de la cognition, correspondent une affectation mathématique à chacun des neurones du cerveau.
L'IA ne réfléchit pas comme Raphaël Enthoven l'a dit dans une émission à la télé: il a donné le sujet du bac philo à chatGPT et a mélangé le résultat avec d'autres copies pour les soumettre au correcteur. ChatGPT a obtenu la note de 11 ce qui selon ce philosophe est une note très médiocre. L'IA a compilé tout ce qu'on lui avait fait ingurgité et l'a ressorti mais sans aucune imagination, sans problématique autour du thème du bonheur et de la raison le sujet du bac : la production de problématique est ce qui est ou doit constituer selon lui le propre du philosophe.
Mais ChatGPT avait plein de références! Toutes celles qu'on voulait puisqu'on lui avait fait ingurgiter tout ce que les philosophes ont produit depuis le début et sur tous les continents sur ces questions éminemment complexes...
Ça ne suffit pas selon Enthoven pour produire quelque chose de pensé, de réfléchi ou une nouvelle manière d'aborder un problème de philo.
-----