Oui
Non
L'essentiel de ce que je dis est dans la partie en gras. La machine ne fera jamais que ce que nous avons imaginé et conçu pour qu'elle le fasse. Elle vit dans un monde "inclus" dans le notre, le contraire n'est pas vrai.
Certes, mais ils ont été sélectionnés par la réalité dans laquelle nous nous mouvons, mais pas conçus par une intelligence extérieure : c'est cela, et cela seulement, qui assure notre adaptation "naturelle" au monde. Nous ne sommes pas assez intelligents pour savoir comment une machine faite de silicium et d'acier POURRAIT etre adapté à la réalité de façon à y survivre, et en fait nous ne savons même pas si une solution existe...seul le darwinisme biologique est capable de réussir ça. Et pas par un programme d'IA "a la Turing".Ce sont ses attitudes réflexes qui assurent notre survie, sans elles pas d'instinct de survie. Je ne vois ce qui empêche de mettre en place ces mécanismes dans une IA.
Cordialement
Gilles
Pas forcément, cf les réseaux de neurones évolutifs
Nous n'avons pas forcément besoin de tout prévoir, si nous faisons évoluer la machine dans un environnement virtuel conçu de la même manière, l'environnement (proies, prédateurs, flore etc..) finira par évoluer indépendamment de ce qui était prévu au départ, deviendra autonome et certains individus adopteront des comportements imprévisibles voir même incompréhensibles pour leur concepteur. Pourtant il est tout à fait possible que ces comportements aient leur logique propre, également indépendemment du programmeur.Certes, mais ils ont été sélectionnés par la réalité dans laquelle nous nous mouvons, mais pas conçus par une intelligence extérieure : c'est cela, et cela seulement, qui assure notre adaptation "naturelle" au monde. Nous ne sommes pas assez intelligents pour savoir comment une machine faite de silicium et d'acier POURRAIT etre adapté à la réalité de façon à y survivre, et en fait nous ne savons même pas si une solution existe...seul le darwinisme biologique est capable de réussir ça. Et pas par un programme d'IA "a la Turing".
Cordialement
Gilles
Peu importe l'intelligence initiale qui les a conçu, il n'y a théoriquement aucune raison pour qu'ils ne deviennent pas, à force d'évoluer, plus "intelligent" que nous.
Oui, mais l'intelligence, au sens du dictionnaire, c'est surtout "trouver des liens entre des éléments disparates" et la compréhension, c'est "appréhender l'ensemble (du contexte)". Autrement dit, ça consiste surtout à trouver qu'il y a un problème, et non seulement à le résoudre.Les machines sont déjà intelligentes, tout comme de nombreux animaux, car elles parviennent à résoudre un grand nombre de problèmes qui nécessitent un traitement intelligent de l'information. Comme il reste cependant des problèmes qu'elles ne savent pas résoudre alors que nous le pouvons (par exemple nous sommes bien meilleurs que les machines pour reconnaître grâce à la vision un objet partiellement caché), leur intelligence reste limitée. Mais cette limite est d'ordre pratique, et non théorique, c'est pourquoi il me parait vain d'essayer de démontrer qu'une machine ne parviendra jamais à effectuer un certain traitement intelligent de l'information.
Cordialement,
Argyre
C'est à dire:
- sélectionner des informations intéressantes au milieu du bruit ambiant
- les relier entre elles pour y deviner un nouveau "problème"
- évaluer le problème: urgence, importance
- décider d'y consacrer (sacrifier?) des ressources ...
En fait, survivre au milieu de problèmes insolubles - donc sans jamais en "résoudre" un seul! - c'est déjà une forme d'intelligence, dont tous les animaux sont capables - mais pas un ordinateur.
L'ordinateur ne sait pas qu'il joue aux échecs, ne comprend pas que le jeu est une activité vitale pour certains animaux, ignore l'intérêt des jeux de stratégie pour les humains... donc ne comprend rien au contexte.
Pire: il y a peu de chance pour qu'on le laisse accéder à cette compréhension: parce qu' un ordinateur qui sait pourquoi il joue aux échecs, c'est comme un convertisseur Francs-Euros qui comprend tout du traité de Maastricht: on ne voit pas bien à quoi ça sert, mais on devine que ce sera cher!
A quand un ordinateur qui, ayant compris pourquoi nous jouons aux échecs, invente un nouveau jeu génial, nous en communique les règles et arrive à nous convaincre de faire une partie avec lui?
La barre est placée haut, mais décidément, oui: l'intelligence, c'est d'inventer le jeu d'échecs, plus que de le résoudre...
Un algorithme génétique qui implémente de la sélection et de la mutation ne le ferait pas ? Qu'est ce que tu ajouterais à ces deux ingrédients pour parler de darwinisme "biologique" ?
Le darwinisme n'explique pas pourquoi les individus cherchent à perdurer dans le temps. Il admet que c'est le cas, et donc que l'évolution s'explique par les principes de mutation/selection.
Pour l'expliquer, il faut aller un cran au dessus et comme Dawkins, avancer l'hypothèse du gène égoiste i.e. un principe de persistence de l'information génétique. Mais il est à placer au mettre titre que le second principe de la thermo ou de la conservation de l'énergie.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Bonsoir,
J'imaginais une machine complexe, performante, intelligente, capable de s'adapter à son environnement, d'être autonome.
Est-il possible d'arriver au résultat d'une intelligence comparable à l'espèce vivante supérieure ( en l'occurence, nous) sachant que la machine ne perçoit d'elle-même aucune contrainte si celle-ci n'est pas antérieurement programmée.
Je prend la contrainte comme élement clef ( dire non, c'est avancer) de l'intelligence : si la machine se trouve dans un milieu contrôlé ou non et qu'elle est face à un obstacle, elle ne pourra que le contourner que si elle a été programmée.
Cela montre qu'une machine ne peut avoir de caractère reflexes, base du developpement de la dite intelligence, avant d'avoir décodé les gènes de l'adn..
Il y en a pour quelques temps du coup.
C'est un peu comme l'histoire de la poule qui face à un aliment reperé obstrué par un obstacle fera des va-et-vient pendant des heures, jusqu'à épuisement parfois.
La machine fera de même dans le cas de la non-programmation. Il lui sera impossible donc d'être intelligente face à la nouveauté d'une contrainte.
( hormis si celle-ci présente des similitudes avec une autre, mais là encore il faut que la machine possède un "cortex" mnésique ... cela semble vraiment complexe en tout cas).
voilà ce que j'en dis.
Ce ne sera pas le cas si par exemple, tu introduis des mutations aléatoires dans le programme de la machine. Elle fera des essais successifs mais tous différents, et l'une des transformations permettra peut être à la machine de passer l'obstacle.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Seulement lorsque, par des efforts acharnés, on contraint la machine a avoir un comportement défini à l'avance. Dans le cas général, il n'est pas possible de prédire le comportement d'un algorithme. Dans les cas particulier où on veut de "l'intelligence" il faut de l'apprentissage. Plusieurs méthodes existent d'ors et déjà, dont celles déjà mentionnées.
Bonjour,
C'était juste pour vérifier que pour toi "but" implique une "personne".
Une quantité énorme de phrases en biologie sont téléologiques sans qu'il y ait une "personne" sous-entendue.
Je ne vois pas en quoi cela contredit l'idée que la seule limite absolue est celle imposée par les capteurs. La limite posée par le programme est plus "étroite" que la limite posée par les capteurs, mais je ne vois pas ce qui oppose l'idée que la limite posée par le programme peut s'approcher autant que voulue de la limite posée par les capteurs.selon moi, la limite est implicitement posée par le simple fait qu'il y ait eu un programmeur, ce qui limite de facto les possibilités, et qui n'assure aucunement son autonomie.
Il n'est pas question dans cette discussion de créer un être vivant.La néguentropie associée à un être vivant est telle qu'on n'a aucune chance d'en créer un par cette méthode.
Cordialement
Hors sujet, mais a) les organismes vivants ne cherchent pas à durer, il cherchent à avoir une descendance b) le darwinisme ne peut, par son principe même, qu'amener des organismes cherchant à voir une descendance: d'une certaine manière le darwinisme l'explique...
Bof...Pour l'expliquer, il faut aller un cran au dessus et comme Dawkins, avancer l'hypothèse du gène égoiste i.e. un principe de persistence de l'information génétique. Mais il est à placer au mettre titre que le second principe de la thermo ou de la conservation de l'énergie.
Cordialement,
Bonjour
oui un algorithme génétique fait du darwinisme (pour toi et Jiav, pas la peine de me répéter qu'il existe des algorithmes autoapprentisseurs, je le sais ). Ce que je veux dire c'est que cet algorithme s'effectue (et donc l'algorithme se déroule) dans un espace prédéfini par le programmeur. Il est tout à fait possible d'apprendre à un robot à aller chercher du courant dans une prise, il est impossible qu'il l'utilise pour inventer une nouvelle manière de faire de l'électricité.
Imaginer la difficulté d'écrire un algorithme destiné à découvrir des lois physiques que nous ne connaissons pas encore. Et pourtant c'est bien ce que nous sommes censés faire , et c'est bien ce qui caractérise notre "intelligence" non?
Bonjour,
On ne "trouve pas un problème" pour le plaisir de trouver un problème. Il y a une fonction de choix qui amène à s'intéresser à un problème plutôt qu'un autre.Oui, mais l'intelligence, au sens du dictionnaire, c'est surtout "trouver des liens entre des éléments disparates" et la compréhension, c'est "appréhender l'ensemble (du contexte)". Autrement dit, ça consiste surtout à trouver qu'il y a un problème, et non seulement à le résoudre.
Les animaux, nous inclus, n'inventent pas de problème. Les problèmes à résoudre sont posés à la base. C'est, en un mot, faire survivre quelque chose. L'analyse de l'environnement, les actes, les décisions, concourent plus ou moins directement à résoudre ce problème. L'analyse cherche les menaces, ou les opportunités. Menaces sur soi-même, sa descendance, ses proches, etc. Opportunités de ressources, de reproduction.En fait, survivre au milieu de problèmes insolubles - donc sans jamais en "résoudre" un seul! - c'est déjà une forme d'intelligence, dont tous les animaux sont capables - mais pas un ordinateur.
Ce que l'on invente, et c'est àmha plutôt là qu'il faut chercher l'intelligence, ce sont des sous-problèmes. Inventer des buts intermédiaires.
Les animaux savent-ils pourquoi ils vivent, pourquoi ils se reproduisent?L'ordinateur ne sait pas qu'il joue aux échecs, ne comprend pas que le jeu est une activité vitale pour certains animaux, ignore l'intérêt des jeux de stratégie pour les humains... donc ne comprend rien au contexte.
Pire: il y a peu de chance pour qu'on le laisse accéder à cette compréhension: parce qu' un ordinateur qui sait pourquoi il joue aux échecs, c'est comme un convertisseur Francs-Euros qui comprend tout du traité de Maastricht: on ne voit pas bien à quoi ça sert, mais on devine que ce sera cher!
Les humains savent-ils pourquoi ils vivent, pourquoi ils se reproduisent?
C'est un exemple parmi beaucoup du sophisme qui consiste à dire:A quand un ordinateur qui, ayant compris pourquoi nous jouons aux échecs, invente un nouveau jeu génial, nous en communique les règles et arrive à nous convaincre de faire une partie avec lui?
Les êtres humains sont intelligents
Un être humain peuvent faire la tâche A
Alors
ne pas pouvoir avoir faire la tâche A => ne pas être intelligent
Si on explicite la logique modale, et sachant que rares sont les humains qui ont inventé un nouveau jeu génial et convaincu un autre humain de jouer avec lui, on peut arriver à un paradoxe amusant:
Tous les êtres humains sont intelligentsIl n'y a alors pas beaucoup d'humains intelligents, ce qui contredit la première phrase.
il existe un être humain ayant fait la tâche A
Alors
ne pas pouvoir avoir faire la tâche A => ne pas être intelligent
Au delà du petit jeu sur la logique, l'idée est claire: on choisit une tâche particulière remplie par un humain particulier pour appliquer un sophisme dont le seul but est, comme tous les sophismes, d'asséner le résultat, à savoir les ordinateurs ne peuvent pas être intelligents.
Cordialement,
Je suis totalement d'accord. Mais une machine serait différente d'un être humainJe ne vois pas en quoi cela contredit l'idée que la seule limite absolue est celle imposée par les capteurs. La limite posée par le programme est plus "étroite" que la limite posée par les capteurs, mais je ne vois pas ce qui oppose l'idée que la limite posée par le programme peut s'approcher autant que voulue de la limite posée par les capteurs.
1) parce que les capteurs (et toute sa structure physique) ne viennent pas d'une évolution, et n'ont donc strictement aucune raison d'être adaptés à la survie : ils ne sont adaptés qu'aux buts humains que nous leur avons prédéfinis.
2) parce que le système d'exploitation qui gère ses programmes, même évolutifs,ne peut par définition pas être modifié. Il n'existe pas de tel programme pour un être humain, les choses "conservées" ne sont que les lois physiques qui gèrent aussi le monde réel. Au contraire une machine se déplace dans un "sous-monde" limité par son système même de fonctionnement. Toucher au système d'exploitation d'un ordinateur serait aussi catastrophique pour lui que si nous pouvions transformer les lois biochimiques qui font fonctionner nos neurones, modifier les vitesses de réaction etc.... : cela provoquerait notre mort immédiate.
Je ne nie pas qu'il y ait une analogie entre les programmes auto apprentisseurs et l'intelligence biologique, mais ils ne fonctionnent pas dans le même monde, et ne peuvent donc pas communiquer : ce que nous appelons l'intelligence est justement la capacité à se représenter le monde réel, et nous n'avons pas la moindre idée du début de comment faire qu'une machine se "représente" le monde réel !
effectivement, c'est un sophisme, mais le sophisme à base de ce qu'on appelle l'IA estLes êtres humains sont intelligents
Les êtres humains peuvent faire la tâche A
Alors
pouvoir faire la tâche A => être intelligent
Cdt
Gilles
On parle d'intelligence, pas de survie.
Si les humains cherchaient à faire un robot apte à la survie, ils l'équiperaient des capteurs idoines. Ou encore, qu'est-ce qui empêche que les "buts humains prédifinis" incluent la notion de survie?
Quelle définition? Et pourquoi un quelconque des programmes d'une machine ne serait-il pas auto-modifiable? Il n'y a pas de raison de fond que je connaisse. Il y a des raisons pratiques (c'est risqué). Mais le risque peut être compensé par la multiplication des entités (c'est exactement ce que fait le vivant, dans lequel aucune partie du génome n'est immunisée contre des modifications).2) parce que le système d'exploitation qui gère ses programmes, même évolutifs,ne peut par définition pas être modifié.
Certainement, pour la simple raison qu'il n'existe pas de programme du tout. Mais s'il n'y a pas d'équivalent dans le vivant, c'est peut-être bien parce qu'il n'y a pas de nécessité qu'il y ait un noyau non modifiable, aussi bien pour le vivant que pour l'artificiel!Il n'existe pas de tel programme pour un être humain,
Non. Certaines modifications (de l'OS) entraîneraient la "mort immédiate, aucune raison que toutes entraînent etc. C'est la même chose pour la partie centrale d'une cellule: certaines modifications des composants (i.e., ribosomes, ou les protéines qui codent le code génétique) sont immédiatement létales, mais pas toutes.Au contraire une machine se déplace dans un "sous-monde" limité par son système même de fonctionnement. Toucher au système d'exploitation d'un ordinateur serait aussi catastrophique pour lui que si nous pouvions transformer les lois biochimiques qui font fonctionner nos neurones, modifier les vitesses de réaction etc.... : cela provoquerait notre mort immédiate.
Encore une fois, tu évoques des limitations loco-actuelles, mais aucun argument ne "sonne" comme étant intrinsèque aux techniques artificielles.
"Ne peuvent pas communiquer" On ne doit pas avoir le même sens pour le mot "communiquer"...Je ne nie pas qu'il y ait une analogie entre les programmes auto apprentisseurs et l'intelligence biologique, mais ils ne fonctionnent pas dans le même monde, et ne peuvent donc pas communiquer
Les humains ne se représentent pas le monde "réel". Nous avons une représentation du monde qui organise ce que nos capteurs nous informent du monde. Je ne vois pas de différence fondamentale pour une machine.: ce que nous appelons l'intelligence est justement la capacité à se représenter le monde réel, et nous n'avons pas la moindre idée du début de comment faire qu'une machine se "représente" le monde réel !
Ou encore, n'avons pas la moindre idée du début de comment un humain pourrait bien se "représenter" le monde réel. Par contre, il me semble qu'il y a pas mal d'idée du début de comment une machine peut se réprésenter le monde perçu à travers ses capteurs. Ce n'est qu'un début, mais comment démontrer qu'il existe une limite intrinsèque?
Cordialement,
Bien d'accord. La vraie question est comment sortir de ces deux sophismes, finalement assez similaires? (En commun est le fait que les humains sont la référence obligatoire , et en commun aussi un flou "modal" sur la notion de tâche, i.e., quelles tâches? une? toutes? certaines? mais alors quel critère les distinguent-elles des autres?)
Alors que toutes les discussions (sur ce forum et ailleurs) semblent avoir ces deux approches sophistiques comme attracteurs étranges, des sortes d'ornières intellectuelles...
Cordialement,
selon moi, ce que nous appelons intuitivement "l'intelligence" (sans d'ailleurs très bien savoir la définir) n'a de sens que sur une base biologique adaptée à la survie. C'est au fond ce que dit Laborit (et je suis d'accord) quand il dit que le cerveau sert d'abord à agir avant de penser. La pensée intelligente n'est qu'une superstructure améliorant la capacité de survie, mais vouloir concevoir un système "intelligent" dans notre sens qui ne serait pas d'abord un système biologiquement stable dans son environnement (et biologique ne veut pas dire forcément à base de carbone, mais un système organisé utilisant l'énergie du monde extérieur pour se maintenir au moins le temps de se reproduire), est amha une impasse.
En théorie, on pourrait: sauf que notre propre complexité est bien trop réduite pour inventer un système capable de survivre de façon autonome, et de se représenter le monde. Nous ne sommes capables que d'inventer des programmes qui font des tâches extrêmement réduites que NOUS pouvons concevoir. Nous ne sommes pas capables de savoir quel programme serait capable d'évoluer "from scratch" pour donner une pensée intelligente, simplement parce que nous n'avons aucune information réelle sur la façon dont fonctionne une pensée intelligente, et même si nous le savions, nous serions incapables de savoir quelles conditions initiales sont nécessaires pour y arriver par une évolution naturelle.Si les humains cherchaient à faire un robot apte à la survie, ils l'équiperaient des capteurs idoines. Ou encore, qu'est-ce qui empêche que les "buts humains prédifinis" incluent la notion de survie?
La partie constante n'est pas le genome pour les etres vivants : ce sont les lois physiques qui font que l'ADN se transcrit et se réplique toujours par les mêmes lois, même si son contenu change. Si tu changeais la conformation d'un ribosome, par exemple, plus rien ne marcherait. Or les programmes d'une machine ne peuvent s'executer que si le système d'exploitation (les "instructions machines" ) sont rigoureusement conservées : le monde dans lequel une machine évolue est donc bien plus restrictif que celui dans lequel nous évoluons.Quelle définition? Et pourquoi un quelconque des programmes d'une machine ne serait-il pas auto-modifiable? Il n'y a pas de raison de fond que je connaisse. Il y a des raisons pratiques (c'est risqué). Mais le risque peut être compensé par la multiplication des entités (c'est exactement ce que fait le vivant, dans lequel aucune partie du génome n'est immunisée contre des modifications).
Bien sur que si , c'est indispensable : encore une fois pour nous ce "noyau non modifiable" n'est PAS de nature informatique, mais physique : c'est la permanence des lois physico chimiques qui est la condition sine qua non que nous puissions subsister dans le temps.Certainement, pour la simple raison qu'il n'existe pas de programme du tout. Mais s'il n'y a pas d'équivalent dans le vivant, c'est peut-être bien parce qu'il n'y a pas de nécessité qu'il y ait un noyau non modifiable, aussi bien pour le vivant que pour l'artificiel!
Bien evidemment , une machine est aussi soumise à la permanence des lois physicochimques : si les lois de l'électricité se transformaient, elle ne fonctionnerait plus du tout non plus. Mais cela ne suffit pas , elle est beaucoup plus restreinte : elle nécessite AUSSI que sa structure informatique "de base" reste intacte. Un "programme auto apprentisseur" n'a de sens QUE dans cette structure.
Oui mais il s'agit d'un autre niveau de bug : un programme peut bugger parce qu'il est mal écrit, alors que le système d'exploitation fonctionne tres bien. Un bug du système d'exploitation est irrémédiable.Non. Certaines modifications (de l'OS) entraîneraient la "mort immédiate, aucune raison que toutes entraînent etc. C'est la même chose pour la partie centrale d'une cellule: certaines modifications des composants (i.e., ribosomes, ou les protéines qui codent le code génétique) sont immédiatement létales, mais pas toutes.
Encore une fois, je suis tout à fait d'accord pour dire que les machines ont une forme de représentation du monde, et une forme de communication. Ce que je dis c'est que leur monde est "emboité" de manière stricte dans le notre, et que leur représentation et leur communication ne peut concerner que des choses très simples par rapport à notre représentation, tout betement parce que c'est nous qui les construisons et les concevons. Un peu comme on ne pourra jamais coder tous les réels par un ensemble dénombrable, le principe même de l'IA construite par l'homme la limite, selon moi, a des fonctionnements que nous n'avons pas envie d'appeler "intelligent", justement parce que nous réservons ce mot à notre propre type de fonctionnement, qui n'est pas le même "hiérarchiquement".Encore une fois, tu évoques des limitations loco-actuelles, mais aucun argument ne "sonne" comme étant intrinsèque aux techniques artificielles.
Les humains ne se représentent pas le monde "réel". Nous avons une représentation du monde qui organise ce que nos capteurs nous informent du monde. Je ne vois pas de différence fondamentale pour une machine.
Ou encore, n'avons pas la moindre idée du début de comment un humain pourrait bien se "représenter" le monde réel. Par contre, il me semble qu'il y a pas mal d'idée du début de comment une machine peut se réprésenter le monde perçu à travers ses capteurs. Ce n'est qu'un début, mais comment démontrer qu'il existe une limite intrinsèque?
Cordialement,
Bien sur on peut tres bien adapter le mot "intelligence" à des taches accomplies actuellement par des ordinateurs, et donc par définition ils seraient deja intelligents. Mais c'est comme pour le libre arbitre, on ne change pas la réalité en adaptant la définition .
Cordialement
Gilles
Ce n'est pas le point discutable. Ce qui est discutable, c'est ta comparison OS <-> lois physiques. Ce qui est constant pour les machines comme le vivant ce sont les lois physiques. L'OS n'est pas les lois physiques. Ta comparaison fait un saut notionnel entre les deux cas, créant un handicap pour les machines, et aboutissant au résultat prévisible.
Soit on compare limites physiques dans les deux cas, soit on compare des "noyaux" dans les deux cas, et le plus proche que je vois comme noyau dans le vivant est le système bouclé par les protéines du code génétique (les 20 protéines qui "incarnent" le code, plus le minimum nécessaire pour créer ces protéines à partir de leur description encodée dans l'ADN).
Autrement dit, je désagrée sur la comparaison déloyale que tu proposes, et j'en proposais une autre, qui me semblait plus objective...
Cordialement,
Je ne vois pas la seconde phrase entraînant la première! Pour moi, tout système de traitement de l'information n'a pour but que l'action, au sens d'une influence sur son extérieur. Mais un ordinateur agit, ne serait-ce qu'en allumant sélectivement des points sur un écran.selon moi, ce que nous appelons intuitivement "l'intelligence" (sans d'ailleurs très bien savoir la définir) n'a de sens que sur une base biologique adaptée à la survie. C'est au fond ce que dit Laborit (et je suis d'accord) quand il dit que le cerveau sert d'abord à agir avant de penser.
L'action est bien une condition essentielle de l'intelligence, mais la restriction de la notion d'action aux actions liées à la survie ne me semble pas justifiée (autrement que par la volonté de restreindre l'intelligence au vivant!).
Ca c'est une description de comment l'intelligence est apparue dans le vivant. Elle n'est pas acceptable comme une définition générique de la notion d'intelligence. D'ailleurs elle ne permet pas de traiter correctement l'apparition ontogénique de l'intelligence, à savoir son apparition quelque part entre la cellule oeuf et l'organisme adulte.La pensée intelligente n'est qu'une superstructure améliorant la capacité de survie,
En science, et en particulier dans ce type de domaine spéculatif, l'impasse ne sera reconnue comme telle qu'une fois parcourue. Et on est très loin d'en avoir parcouru une portion significative...mais vouloir concevoir un système "intelligent" dans notre sens qui ne serait pas d'abord un système biologiquement stable dans son environnement (et biologique ne veut pas dire forcément à base de carbone, mais un système organisé utilisant l'énergie du monde extérieur pour se maintenir au moins le temps de se reproduire), est amha une impasse.
Qui savait faire des avions ou des fusées il y a 500 ans?En théorie, on pourrait: sauf que notre propre complexité est bien trop réduite pour inventer un système capable de survivre de façon autonome, et de se représenter le monde. Nous ne sommes capables que d'inventer des programmes qui font des tâches extrêmement réduites que NOUS pouvons concevoir. Nous ne sommes pas capables de savoir quel programme serait capable d'évoluer "from scratch" pour donner une pensée intelligente, simplement parce que nous n'avons aucune information réelle sur la façon dont fonctionne une pensée intelligente, et même si nous le savions, nous serions incapables de savoir quelles conditions initiales sont nécessaires pour y arriver par une évolution naturelle.
Minimiser les capacités des systèmes techniques conçus par les humains est tout autant une erreur que de l'imaginer sans bornes. Je ne peux pas être d'accord sur une telle affirmation portant sur un domaine technique dont les humains ne font que commencer l'exploration.
Encore une fois, ce n'est pas une limitation intrinsèque; l'analyse de corrélations dans l'environnement tel que perça par les capteurs permet d'obtenir des représentations qui vont au-delà de celles incorporées "en dur" par le programmeur. Se baser sur une représentation "préparée" est la pratique courante, parce que ça nous suffit, ça suffit pour ce qu'on attend en pratique des machines. Mais on ne peut pas en déduire que c'est une limite.leur représentation et leur communication ne peut concerner que des choses très simples par rapport à notre représentation, tout betement parce que c'est nous qui les construisons et les concevons.
Le cerveau humain contiendrait potentiellement un ensemble de représentations dont le cardinal a la puissance du continu alors que les machines seraient limitées au dénombrable? C'est ça?Un peu comme on ne pourra jamais coder tous les réels par un ensemble dénombrable,
Bien d'accord. Il s'agit bien d'enviele principe même de l'IA construite par l'homme la limite, selon moi, a des fonctionnements que nous n'avons pas envie d'appeler "intelligent", justement parce que nous réservons ce mot à notre propre type de fonctionnement, (...)
Cordialement,
Michel
Pourrait-on se mettre d'accord sur une définition de l'intelligence ?
"Capacité à produire un comportement original adaptatif."
pourtant je maintiens ce que je dis Il est absolument essentiel que l'OS soit maintenu pour qu'un programme fonctionne (bien sur on peut imaginer des changements de l'OS non critiques, mais ce n'est pas le point : le point est qu'il existe une couche intermédiaire entre le programme et la réalité physique qui pose des conditions strictes pour que le programme continue de fonctionner : le programme ne prend de sens qu'a l'intérieur d'un noyau qui "donne le sens" des instructions informatiques, sans lequel elles ne seraient qu'une suite de 0 et de 1 sans signification).Ce n'est pas le point discutable. Ce qui est discutable, c'est ta comparison OS <-> lois physiques. Ce qui est constant pour les machines comme le vivant ce sont les lois physiques. L'OS n'est pas les lois physiques. Ta comparaison fait un saut notionnel entre les deux cas, créant un handicap pour les machines, et aboutissant au résultat prévisible.
Cette couche n'existe pas pour un etre humain. Il n'y a pas de couche logicielle entre le fonctionnement d'un neurone et l'interprétation de ce fonctionnement en terme d'action physique, parce qu'un neurone est directement une gestion de l'information physique. Et d'ailleurs le fonctionnement des neurones n'est PAS traduisibles en terme de 0 et de 1 non plus. Pour moi c'est bien une différence essentielle qui fait qu'un programme tournant à l'intérieur d'un OS ne sera jamais comparable à un cerveau biologique...
je désagrée a mon tour, le code génétique n'est pas une suite d'instructions comparable à un OS qui "donnerait son sens" à un programme executé par les neurones. c'est une simple traduction d'un stockage d'information, on pourrait à la rigueur le comparer à un lecteur de disque dur, mais il ne contient aucune "information" sur le sens de ce que font les proteines. Certes sa stabilité est importante mais pas essentielle au fonctionnement du cerveau.Soit on compare limites physiques dans les deux cas, soit on compare des "noyaux" dans les deux cas, et le plus proche que je vois comme noyau dans le vivant est le système bouclé par les protéines du code génétique (les 20 protéines qui "incarnent" le code, plus le minimum nécessaire pour créer ces protéines à partir de leur description encodée dans l'ADN).
Cordialement
Gilels
On est bien d'accord, ce que je veux dire c'est que l'action d'un ordinateur n'ayant pas grand chose de commun avec les notres, la structure formelle qui la sous-tend n'est pas ce que nous avons "envie" d'appeler l'intelligence.
Je répète volontairement le mot "envie" : il n'y a pas de notion formelle stricte de l'intelligence (et on a le même genre de débat qu'avec le libre arbitre): il n'y a qu'une notion intuitive, subjective, que nous avons "envie" d'appeler intelligence (ou libre arbitre). Je m'adapte donc à ce que je "pressens" etre le sens du mot "intelligence" dans la question initiale (en gros la même que dans le test de Turing). On peut en changer, et comme je disais on peut décréter que les ordinateurs actuels sont DEJA intelligents. mais ça change la réponse uniquement parce que ça change la question .
Ce que je veux dire, c'est que ce que nous avons envie d'appeler l'intelligence est a mon avis contradictoire avec le principe même qui sous-tend la façon dont nous construisons nos ordinateurs. Ce n'est ni une question de temps, ni de complexité, ni d'argent, ni de progrès technique, mais de principe même de ce que nous appelons un programme.
Nous ne savons pas écrire un programme qui, lancé au départ dans une machine , lui fasse faire quelque chose du genre "rends toi compte du monde dans lequel tu vis et fais des trucs intelligents". Il n'y a rien de tel qui puisse exister en informatique, pas le moindre commencement du début.
Nous pouvons tenter de faire des programmes très complexes (eventuellement auto apprentisseurs) faits pour répondre à une tache précise (jouer aux echecs, traduire une langue, reconnaitre une image, se déplacer dans une pièce) mais à condition d'avoir parfaitement identifié, défini, et donc par nature limité cette capacité. Il n'y a aucune chance que la machine se mette à faire des choses pour lesquelles elle n'etait pas prévue, rigoureusement aucune. *Or c'est exactement cela qu'on appelle l'intelligence
Mais bon comme je répète toujours les mêmes choses, je vais arrêter je pense . Pour finir, disons ma conviction est tellement ancrée que c'est la genre de pari pour lequel je suis prêt à parier n'importe quoi, sans crainte de perdre (je n'aurais jamais parié en revanche sur le fait qu'un ordinateur ne battrait jamais un champion d'échec : je pense que les ordinateurs sont susceptibles d'atteindre n'importe quel but de nature algorithmisable, prévu à l'avance : mais ils ne sont capables que de ça !)
Cordialement
Gilles
HS
Si on suit ton raisonnement, il faudrait croire qu'un OS implémenté en dur pourrait avoir des comportements différents d'un OS virtuel. En gros pour reprendre une analogie de mmy tu es en train de dire que la simulation d'un calcul n'est pas un calcul. C'est mal calculer àmha
Bonjour jiav
2 réponses différentes :
a) oui ce n'est pas la même chose phsyiquement, parce que l'OS virtuel repose sur la stabilité du système (supérieur) qui l'émule, il y a une couche en plus.
b) si , malgré cela, ils sont quand même équivalents, parce que d'après la thèse de Church ils peuvent etre rendus équivalents à une même machine de Turing (il est possible "d'oublier" la couche logicielle supplémentaire).
Mais ce n'est vrai que parce que , par construction, ils sont chacun équivalents à un algorithme type Turing, parce que ce sont justement des ordinateurs.
Comme ce n'est pas le cas du cerveau (jusqu'a preuve du contraire), cette équivalence formelle n'a pas lieu d'etre. SI le cerveau etait équivalent à une machine de Turing, alors oui, on pourrait concevoir une machine l'émulant de façon équivalente (c'est la postulat du computationalisme). Mais si on n'admet pas cette hypothèse, alors on n'a plus aucun argument pour le soutenir. Et cette hypothèse n'est a ma connaissance pas prouvée .
Ok laissons cela (we agree to disagree ) et revenons à la question de base. Je ne comprends toujours pas ce que tu appelles intelligence. "faire des choses pour lesquelles elle n'etait pas prévue" est trivialement réalisée pour n'importe quel bug à la con. "optimiser un comportement à des conditions imprévues" est réalisé par un grand nombre d'algorithme d'apprentissage. "inventer de nouveaux comportements adaptatifs" est réalisée depuis quelques années par les algorithmes génétiques. So que reste-t-il?
C'st peut-etre la bonne façon de voir le problème: quels sont les comportements qu'une machine ne saurait avoir?
pourtant tu n'as pas raison de ne pas etre d'accord . La thèse de Church est démontré dans le cas d'un système dont l'état peut etre défini par un nombre fini de variables dont l'évolution exacte peut etre donné par des règles algorithmiques. On ne peut l'appliquer que si on a démontré auparavant qu'un système est de ce type, ça me parait assez simple à admettre ! .
Pour ce qui est de la définition de l'intelligence, personnellement je ne prétends pas en avoir une. Je me mets plutot a la place de celui qui pose la question pour "essayer d'intuiter" ce qu'il veut dire LUI par ce mot, et je suppose qu'il l'entend un peu dans le sens du test de Turing ("pouvoir avoir une conversation qui donne l'impression d'avoir affaire à un etre humain"). Il n'y a probablement pas de définition plus satisfaisante, bien qu'elle ne le soit pas vraiment..
Cordialement
Gilles
Ah non c'est toi qui n'a aucune raison d'être en désaccord. Aucun système connu ne nécessite des propriétés non algorithmiques (excepté le hasard, et encore): c'est donc à toi de montrer que le son du galop vient d'une licorne plutôt que d'un cheval. hiiii
Je ne prétend nullement que l'atmosphère soit connu exactement. Je prétend qu'aucun théorie scientifique ne nécessite l'existence de propriétés non-algorithmique (mon erreur: "système" induisait en confusion).
certes mais j'insiste : la thèse de Church n'est valable que pour des systèmes physiques dont l'état peut réellement etre décrit par des variables discrètes dont l'évolution est déterministe. Il ne suffit pas qu'il y ait une équation continue approximable par des équations discrètes : si elle est chaotique, les évolutions de deux systèmes, décrits par le même ensemble de variables discrétisées au départ, seront exponentiellement divergentes, et donc les deux systèmes ne seront absolument pas équivalents....