On en revient à ce que je disais : le mot "intelligence" est un attrape-tout, imprécis et dont il existe des centaines de définitions.
C'est pour cela que considérer que la discipline cherche à reproduire nos fonctions cognitives est intéressant.
Par exemple, faire de la reconnaissance de texte ou d'images ne fonctionne pas bien algorithmiquement mais par contre, le deep-learning sait le faire aussi bien que nous.
On peut considérer que "savoir lire" n'est pas de l'intelligence mais en même temps, c'est une caractéristique cognitive réservée aux humains.
Un autre exemple du caractère totalement imprécis et évolutif du concept d'intelligence : il y a 1 siècle et avant, quelqu'un qui n'était pas capable d'apprendre à compter et calculer aurait été considéré comme "peu intelligent".
Pourtant, n'importe quel ordinateur ou téléphone aujourd'hui est capable de compter mieux et des milliards de fois plus vite qu'un humain.
Donc, est ce que cette capacité qui est en fait mécanique n'a rien à voir avec "l'intelligence" ou bien est ce qu'on a fait ce que je disais plus haut : changé la définition dès qu'on a eu un contre-exemple.
Autre exemple : un LLM aujourd'hui est très loin d'avoir toutes les capacités d'un humain. Il n'apprend pas de lui même, il n'a pas de représentation du monde, il n'est pas très bon en raisonnement rigoureux, etc.
Pourtant si on lui pose une question, qu'on lui demande de rédiger un texte ou même de faire un exo de maths simples, on a une réponse qui est meilleure que 99% de ce qu'on lit en ligne, plus argumentée, basée sur des données factuelles, etc.
Là aussi, j'ai du mal à voir comment le concept attrape-tout d'intelligence s'applique.
Il est plus cohérent de considérer que nous avons un jeu de capacités cognitives, que nos machines sont capable d'en reproduire certaines, pas encore toutes mais qu'on progresse. Et qu'on ne sait pas encore jusqu'où on ira ni à quelle vitesse.
-----