Personnellement je n'en ai aucune idee. Mais le niveau de detail ne change rien a part en termes de capacite de calcul. Je comprends la division que tu fais (au tout debut de la discussion) par rapport aux modeles ultra realistes qui ne sont pas "connectes" a la realite, et les modeles beaucoup plus simples appliques a des robots pour obtenir certains comportements. Actuellement l'optique des premiers modeles est de mieux comprendre la dynamique d'assemblees de neurones, sans pour autant s'interesser a leur capacite a traiter de l'information venant de capteurs et donc a resulter en un certain comportement. Neanmois cela n'exclu pas de se servir de ces modeles plus detailles de la meme maniere que l'on se sert des modeles simplifies (modulo la puissance de calcul).
Je pense etre plus ou moins d'accord avec ca, mais l'un des postulats de ces recherches est que des groupements complexes de reseaux de neurones artificiels peuvent mener a des resultats qualitativement similaires a ceux obtenus par des reseaux de neurones biologiques. Evidemment il n'en seront pas une equivalence formelle, mais ce n'est pas le but poursuivi. L'interet est plutot de montrer que les proprietes en terme d'apprentissage, de traitement de l'information d'une maniere generale, sont des proprietes "emergentes" de ce type de reseau. Bien evidemment des details d'implementation differents donneront des resultats differents, mais qualitativement equivalents.Il s'agit d'une *analogie et non d'une équivalence formelle, au sens de deux algorithmes qui donnent exactement le même résultat quand on calcule les décimales de pi par exemple. C'est ce que je veux dire par "non algorithmique" : l'impossibilité de trouver un algorithme formellement équivalent. Ca n'empeche pas de trouver des choses similaires, comme une chauve souris est similaire à un oiseau, une baleine à un poisson ou les dunes aux vagues de l'océan : c'est justement une propriétés des systèmes analogiques de pouvoir présenter des analogies .
alors là, on est d'accord : on peut trouver des analogies dans les comportements des robots et ceux des etres vivants. Ca ne me pose pas de problème.Je pense etre plus ou moins d'accord avec ca, mais l'un des postulats de ces recherches est que des groupements complexes de reseaux de neurones artificiels peuvent mener a des resultats qualitativement similaires a ceux obtenus par des reseaux de neurones biologiques. Evidemment il n'en seront pas une equivalence formelle, mais ce n'est pas le but poursuivi. L'interet est plutot de montrer que les proprietes en terme d'apprentissage, de traitement de l'information d'une maniere generale, sont des proprietes "emergentes" de ce type de reseau. Bien evidemment des details d'implementation differents donneront des resultats differents, mais qualitativement equivalents.
Ce qui me pose problème, c'est de penser qu'il n'y a pas de limite de principe a ces analogies, c'est à dire que l'espace de tous les comportements possibles des robots inclut celui de tous les etres vivants. Dans la mesure ou justement il n'y a pas d'algorithme clair identifié au cerveau humain, je ne vois pas comment un algorithme pourrait traiter des notions humaines, en particulier celles véhiculées dans le langage.
faites une expérience : prenez un dictionnaire, ouvrez le au hasard et choisisser un mot en posant un doigt les yeux fermés.
Interrogez vous ensuite sur les expériences sensorielles réelles qui font que vous donnez du sens à ce mot : par quelles expériences concrètes dans votre vie, que vous avez vraiment vécue, avez vous rencontré cet objet, ce concept....
essayez ensuite de vous demander par quelles expériences un robot pourrait lui donner le même sens !
Pourtant, cette définition est proche du test de Turing, qui semble être ta référence:
Dans les deux cas, c'est l'être humain qui est le juge final. Il compare avec ce qu'il connait, et décide si l'être auquel il a affaire est ou non intelligent.
Les humains étant les seuls êtres (connus) à avoir créé le terme "intelligence", c'est donc à eux de consacrer un être "intelligent".
Si tu veux appliquer le test de Turing à la définition que je viens de donner à l'intelligence alors tu obtiendras ceci:
Sera considéré comme intelligent un être qui, dans la résolution d'un problème accessible à son entendement, n'aura pas un cheminement distinguable de celui d'un être humain.
En termes plus concrets:
- Un pool de X humains de référence (éventuellement choisis parmi un ensemble de cas "particuliers", afin de prendre un échantillon vaste de l'intelligence: aveugle, sourd/muet, enfant, senior, etc...)
- 1 (ou plus) être "à tester"
- Un pool de Y humains "juges"
- Une interface écran et un formatage de réponse (pour éviter la reconnaissance par un moyen purement syntaxique) est proposé pour diffuser les réponses.
Un problème compréhensible et résolvable à l'aide d'une réflexion "intelligente" est soumis à l'être. Ce problème doit être choisi de manière à éliminer toute référence à la culture humaine.
Les "juges" reçoivent les réponses des cobayes et cherchent à déterminer qui est humain et qui ne l'est pas.
A noter que, comme le test de Turing, ce test ne permet d'obtenir qu'une réponse positive ou neutre. Il ne peut pas infirmer l'intelligence de l'être cobaye.
Toujours aussi peu satisfait de ce protocole ? Si oui, en quoi, qu'elles en sont les failles ? Sinon, peut-être voudras-tu répondre à la question posée dans quelques-uns de mes derniers posts ?
Gillesh, il te manque de l'empathie pour pouvoir comprendre un robot "intelligent".Interrogez vous ensuite sur les expériences sensorielles réelles qui font que vous donnez du sens à ce mot : par quelles expériences concrètes dans votre vie, que vous avez vraiment vécue, avez vous rencontré cet objet, ce concept....
essayez ensuite de vous demander par quelles expériences un robot pourrait lui donner le même sens !
Tu pars d'un point de vue parfaitement anthropocentrique (utilisant les mots des hommes, les sensations des hommes, les souvenir des hommes et la culture des hommes). Et tu exiges de voir la même chose chez un être avant de pouvoir le caractériser d'"intelligent".
Si tu t'intéresses vraiment à savoir si un être est intelligent, mets-toi à son niveau, imagines toi avoir les mêmes capacités physiques, utilise ton empathie et trouve un test adapté à cet être plutôt que de rester centrer sur l'homme.
Je ne donne déjà pas exactement le même sens aux mots que toi. Aucun être humain ne donne réellement et précisément exactement le même sens à tous les mots. Et pourtant nous sommes d'accord pour nous reconnaitre doté d'une intelligence analogue. Mais j'ai compris par tes remarques pourquoi tu considère qu'un algorithme ne peut déboucher sur un comportement intelligent. D'une part tu ne vois d'autre intelligence que l'intelligence humaine, d'autre part ce que tu appelles algorithme ne regroupe que la sous catégorie des automatismes, c'est à dire des programmes écrits une fois pour toute. Or nécessairement, un algorithme exhibant un comportement intelligent se modifie lui même progressivement avec le temps et DEVIENT dépendant de son hardware et de l'environnement dans lequel il a évolué.
ce n'est pas vraiment moi qui réserve le mot "intelligence" à un comportement de type humain
Comme j'ai deja dit, on peut tres bien étendre la notion d'intelligence à toute sorte de traitement de l'information, et dire que les ordinateurs actuels sont intelligents. Simplement, ce n'est pas la notion habituelle, et habituellement on attend de quelqu'un d'intelligent qu'on puisse interagir avec lui.Dans les deux cas, c'est l'être humain qui est le juge final. Il compare avec ce qu'il connait, et décide si l'être auquel il a affaire est ou non intelligent.
Les humains étant les seuls êtres (connus) à avoir créé le terme "intelligence", c'est donc à eux de consacrer un être "intelligent".
Si tu veux appliquer le test de Turing à la définition que je viens de donner à l'intelligence alors tu obtiendras ceci:
Sera considéré comme intelligent un être qui, dans la résolution d'un problème accessible à son entendement, n'aura pas un cheminement distinguable de celui d'un être humain.
Le fait que deux humains n'aient pas tout à fait la même conception des choses prouve bien qu'il n'y a pas d'algorithme de l'intelligence transposable sur n'importe quelle plateforme, comme deux ordinateurs de la même série parfaitement identique !
C'est donc parfaitement en accord avec ce que je dis : il n'y a pas d'algorithme de l'intelligence humaine qui serait transposable sur une autre plateforme. Contrairement à ce que dit Pi-r2, je n'ai pas dit qu'il n'y a que l'intelligence humaine : je dis que ce que nous appelons intelligence est dépendant de son support physique, et donc que ce n'est pas une notion algorithmisable (puisque un algorithme n'en dépend pas lui).
Qui d'autre ?
De mieux en mieux... Tu en arrives maintenant à dire qu'il y a une intelligence différente pour chaque être humain...Le fait que deux humains n'aient pas tout à fait la même conception des choses prouve bien qu'il n'y a pas d'algorithme de l'intelligence transposable sur n'importe quelle plateforme, comme deux ordinateurs de la même série parfaitement identique !
On va pas aller loin comme ça.
Tu utilises ce donc à tord et à travers. On t'a expliqué que le hardware joue un rôle essentiel, ne serait-ce que pour délimiter les interaction possibles d'un ordinateur avec le monde.je dis que ce que nous appelons intelligence est dépendant de son support physique, et donc que ce n'est pas une notion algorithmisable (puisque un algorithme n'en dépend pas lui).
Mais reste avec tes certitudes sur un domaine que tu maîtrises encore moins que nous (je parle de l'informatique). C'est visiblement désespéré.
Bye.
Le raisonnement de Gillesh est le suivant:
La séparation hardware - software, est complètement artificielle dans le cas du cerveau. Sur ce point, je le suis complètement : c'est effectivement une façon de voir très séduisante pour un occidental car elle exprime l'idée de l'esprit incarné mais évidemment, il est très naif de s'imaginer que l'on puisse les appliquer directement aux systèmes biologiques. Accepter cette idée de séparation software-hardware revient à adopter un point de vu spiritualiste qui n'a pas grand chose à faire en science. Non pas que ce ne soit pas respectable, mais ce n'est pas le sujet d'une étude scientifique.
L'attitude de Gillesh va un peu plus loin que le matérialisme usuel. Je la qualifierais hypermatérialisme dans le sens où il rejette l'idée même que l'on puisse suffisament abstraire le comportement du cerveau pour pouvoir en reproduire le comportement sur un autre support. Si effectivement suivant Gillesh, tu admets que ce n'est pas possible, la notion d'algorithme étant indépendante de toute implémentation ou support, le cerveau ne pourrait pas fonctionner de façon algorithmique.
Mais pourquoi, ne pourrait - on pas abstraire-modéliser le comportement du cerveau ?
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Ca ne prouve rien. La seule chose que ça montre, c'est que leurs réprésentations du monde sont différentes.
Ce que tu dis peut très bien s'analyser de la façon suivante :
Un même algorithme donne des résultats différents si les données en entrée ne sont pas les mêmes. Les données dans le cas des êtres humains, ce sont les croyances.
Dernière modification par spi100 ; 19/05/2007 à 18h25.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
et ces croyances viennent in fine de l'histoire personnelle, de la culture, de ta famille, et du hasard dont tes capacités génétiques particulières te dotent. C'est ça qui fait que chaque individu est particulier.Ca ne prouve rien. La seule chose que ça montre, c'est que leurs réprésentations du monde sont différentes.
Ce que tu dis peut très bien s'analyser de la façon suivante :
Un même algorithme donne des résultats différents si les données en entrée ne sont pas les mêmes. Les données dans le cas des êtres humains, ce sont les croyances.
Mais que serait un ordinateur qui implementerait l'algorithme supposé exister ? comment pourrait-il avoir une histoire humaine, et sans histoire humaine, comment pourrait-il avoir des représentations humaines?
un simple exemple : quel langage saurait-il parler (et comprendre) et par quel mécanisme l'aurait-il appris ?
désolé de t'avoir vexé, ce n'etait pas mon intention. Mais si tu reconnais que le hardware joue un role essentiel, alors ça rend très probable que l'ordinateur et l'humain seront toujours essentiellement différent non?Qui d'autre ?
De mieux en mieux... Tu en arrives maintenant à dire qu'il y a une intelligence différente pour chaque être humain...
On va pas aller loin comme ça.
Tu utilises ce donc à tord et à travers. On t'a expliqué que le hardware joue un rôle essentiel, ne serait-ce que pour délimiter les interaction possibles d'un ordinateur avec le monde.
Mais reste avec tes certitudes sur un domaine que tu maîtrises encore moins que nous (je parle de l'informatique). C'est visiblement désespéré.
Bye.
ca ne te parait pas difficile , d'une part d'éliminer toute référence à la culture humaine (du fait deja que le langage EST la base de la culture humaine), ensuite, au cas ou on y arriverait, de déterminer qui est humain sur cette base?Si tu veux appliquer le test de Turing à la définition que je viens de donner à l'intelligence alors tu obtiendras ceci:
Sera considéré comme intelligent un être qui, dans la résolution d'un problème accessible à son entendement, n'aura pas un cheminement distinguable de celui d'un être humain.
En termes plus concrets:
- Un pool de X humains de référence (éventuellement choisis parmi un ensemble de cas "particuliers", afin de prendre un échantillon vaste de l'intelligence: aveugle, sourd/muet, enfant, senior, etc...)
- 1 (ou plus) être "à tester"
- Un pool de Y humains "juges"
- Une interface écran et un formatage de réponse (pour éviter la reconnaissance par un moyen purement syntaxique) est proposé pour diffuser les réponses.
Un problème compréhensible et résolvable à l'aide d'une réflexion "intelligente" est soumis à l'être. Ce problème doit être choisi de manière à éliminer toute référence à la culture humaine.
Les "juges" reçoivent les réponses des cobayes et cherchent à déterminer qui est humain et qui ne l'est pas.
Mais qu'est ce qui t'empêche de donner une histoire à un système ?et ces croyances viennent in fine de l'histoire personnelle, de la culture, de ta famille, et du hasard dont tes capacités génétiques particulières te dotent. C'est ça qui fait que chaque individu est particulier.
Mais que serait un ordinateur qui implementerait l'algorithme supposé exister ? comment pourrait-il avoir une histoire humaine, et sans histoire humaine, comment pourrait-il avoir des représentations humaines?
un simple exemple : quel langage saurait-il parler (et comprendre) et par quel mécanisme l'aurait-il appris ?
Tu confonds la difficulté de collecter la masse de données suffisante, et de les organiser de façon cohérente avec l'algorithme utilisé pour les traiter.
L'IA actuelle ne manque pas d'algorithmes efficaces, elles butent sur la difficulté de collecter les données pour faire tourner les algo.
On peut utiliser des opérateurs humains pour entrer les données, mais ensuite il faut être capable de les maintenir sans créer d'incohérence. Le challenge actuel est plutot de construire ces ensembles structurés de données, de façon automatique, et pour cela il faut que l'on fasse de très gros progrès pour comprendre ce qu'est l'apprentissage.
Si un agent conversationnel ne te répond pas correctement, c'est parce qu'il n'a pas les données suffisantes pour te comprendre ou te répondre. Mais la situation est la même pour un être humain qui ne sait pas ou qui ne te comprend pas.
Dernière modification par spi100 ; 19/05/2007 à 20h12.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Je te propose pour répondre à ta question de parcourir cette thèse
http://www.csl.sony.fr/downloads/pap...plan-these.pdf
Elle traite le language comme une propriété émergente dans un groupe d'individus en interaction. C'est un travail que j'apprécie car il est sous-tendu par des algorithmes simples et de nombreuses expériences numériques. C'est facile à suivre, ça ne prétend pas expliquer comme cela se passe chez les êtres humains, mais ça montre clairement un mécanisme possible d'émergence linguistique.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
mais non la situation n'est pas du tout la meme amha. Personne ne "t'entre" les données : elles viennent des informations de la réalité, et c'est d'ailleurs absolument indispensable pour que ton esprit soit adapté à comprendre cette réalité. Tu ne peux pas dissocier les capteurs sensoriels de la programmation : ce sont les informations que tu reçois en permanence qui te structurent, et tu vérifies en permanence la cohérence des informations que tu reçois du monde extérieur avec celles que tu as reçues dans le passé. Si quelque chose de bizarre se passait (par exemple un objet inconnu dans ton champ visuel) tu reagirais immédiatement.L'IA actuelle ne manque pas d'algorithmes efficaces, elles butent sur la difficulté de collecter les données pour faire tourner les algo.
On peut utiliser des opérateurs humains pour entrer les données, mais ensuite il faut être capable de les maintenir sans créer d'incohérence. Le challenge actuel est plutot de construire ces ensembles structurés de données, de façon automatique, et pour cela il faut que l'on fasse de très gros progrès pour comprendre ce qu'est l'apprentissage.
Si un agent conversationnel ne te répond pas correctement, c'est parce qu'il n'a pas les données suffisantes pour te comprendre ou te répondre. Mais la situation est la même pour un être humain qui ne sait pas ou qui ne te comprend pas.
Mais bien sur il faut que tu aies au départ les capacités pour transformer ces sensations en structure neuronale qui constituent ta mémoire. La question est : est ce que cette capacité à intégrer les informations est un "programme", un algorithme auto apprentisseur comme les algorithmes auto apprentisseurs des réseaux de neurones?
si on pouvait identifier cet algorithme, on pourrait l'implémenter sur un réseau de neurones, et le réseau de neurones "apprendrait" de la même façon qu'un homme. Sauf qu'il y a deux GROS problème :
a) il est absolument impossible d'identifier un algorithme dans la structure biochimique qui acquiert l'information : ce sont des réactions biochimiques analogiques qui interviennent.
b) de toutes façons les réactions biochimiques qui permettent aux neurones d'apprendre ne sont cohérentes qu'avec un vrai corps humain, puisque le cerveau est un organe en interaction permanente avec le reste de ton corps. Il n'y a donc aucune chance que cet algorithme fournisse des résultats dans une structure faite de métal et de silicium !
ce qui explique, encore une fois, qu'en pratique les systèmes d'IA "qui marchent" ne cherchent absolument pas à modéliser de façon précise les neurones humains, comme le proposait Goel dans son tout premier post (qui donne le sujet du fil je le rappelle).
Cordialement
Gilles
il y avait un science et vie qui contenait tout un dossier la dessus, eux aussi disait que einstein avait 2 fois plus de matiere gliale (pas sur de l'orthographe^^) qu'un humain normal. ça doit dater d'au moin un ansça tient un peu de la légende urbaine... laissons donc son cerveau tranquille -surtout vu la manière dont il a été conservé.
Je suis bien d'accord sur le fait que l'ordinateur et l'humain resteront différents. Je ne suis pas d'accord sur le fait que cette différence de structure induise une différence de capacité en ce qui concerne l'intelligence.
Nous ne sommes pas d'accord sur le niveau de complexité qui correspond au programme. Chez l'homme, les capteurs sensoriels et la programmation initiale sont générés par le même programme (et de manière heureusement compatible...), c'est à dire l'ADN de départ (et la bonne composition de l'environnement de départ). C'est CE programme là qui génère in fine l'intelligence de l'homme, indépendamment des données futures reçues. Bien sur, en fonction de l'histoire de cet homme, il pourra développer une intelligence plus ou moins performante et acquérir des connaissances plus ou moins fines qui permettront alors de mesurer l'intelligence résultante. Le programme de l'intelligence machine doit être demême niveau que l'ADN, c'est à dire très primaire, assez simple et laissant un grand nombre de degré de liberté quand aux capteurs, aux données utilisables et traitables.
Tu ne fais que reformuler ce à quoi tu répondsmais non la situation n'est pas du tout la meme amha. Personne ne "t'entre" les données : elles viennent des informations de la réalité, et c'est d'ailleurs absolument indispensable pour que ton esprit soit adapté à comprendre cette réalité. Tu ne peux pas dissocier les capteurs sensoriels de la programmation : ce sont les informations que tu reçois en permanence qui te structurent, et tu vérifies en permanence la cohérence des informations que tu reçois du monde extérieur avec celles que tu as reçues dans le passé. Si quelque chose de bizarre se passait (par exemple un objet inconnu dans ton champ visuel) tu reagirais immédiatement.
Gilles
Relie ce que j'ai écris, je le met en verbatim ci-dessous
Jette un oeil à la thèse que je cite. Pour le moment, on tourne en rond. Tu refuses de prendre en compte les travaux qui modélisent l'apprentissage comme un processus émergent et néanmoins tu invoques systématiquement le fait que l'IA ne le fait pas. Pourtant les travaux sur l'apprentissage automatique abondent dans ton sens, et ont le vent en poupe depuis que l'on dispose de l'énorme masse de données que représente le Web.On peut utiliser des opérateurs humains pour entrer les données, mais ensuite il faut être capable de les maintenir sans créer d'incohérence. Le challenge actuel est plutot de construire ces ensembles structurés de données, de façon automatique, et pour cela il faut que l'on fasse de très gros progrès pour comprendre ce qu'est l'apprentissage.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Il n'y a pas de programme. L'ADN n'est pas un programme, il ne contient aucun algorithme, ni initial, ni final. Pareil pour l'environnement. Un corps humain n'execute pas plus de programme que la biosphère ou une société humaine : elle produit des structures organisées émergentes, ce qui n'est pas la même chose.Nous ne sommes pas d'accord sur le niveau de complexité qui correspond au programme. Chez l'homme, les capteurs sensoriels et la programmation initiale sont générés par le même programme (et de manière heureusement compatible...), c'est à dire l'ADN de départ (et la bonne composition de l'environnement de départ).
l'intelligence n'est certainement pas indépendantes des données reçues. D'autre part un programme "de même niveau" que l'ADN (ça veut dire quoi au juste????à n'a strictement aucune chance d'engendrer quelque chose de comprehensible pour l'etre humain : le même code ADN gère aussi bien les mouches que les lombrics, avec lesquels tu admettras qu'une communication intelligente est difficile.C'est CE programme là qui génère in fine l'intelligence de l'homme, indépendamment des données futures reçues. Bien sur, en fonction de l'histoire de cet homme, il pourra développer une intelligence plus ou moins performante et acquérir des connaissances plus ou moins fines qui permettront alors de mesurer l'intelligence résultante. Le programme de l'intelligence machine doit être demême niveau que l'ADN, c'est à dire très primaire, assez simple et laissant un grand nombre de degré de liberté quand aux capteurs, aux données utilisables et traitables.
oui, je ne fais que le redire mais pour compléter que selon moi, ce n'est pas du à une insuffisance quantitative , mais au fait que dès le départ le processus d'apprentissage est totalement différent.
ou ai-je nié cela?Jette un oeil à la thèse que je cite. Pour le moment, on tourne en rond. Tu refuses de prendre en compte les travaux qui modélisent l'apprentissage comme un processus émergent et néanmoins tu invoques systématiquement le fait que l'IA ne le fait pas.
je ne nie pas que l'apprentissage soit un processus émergent, ni que les robots sont capables d'un certain apprentissage. Bien qu'etant nul en informatique, je me tiens un peu au courant des résultats . La thèse est très interessante comme modélisation générale, mais ça ne répond absolument pas au problème initial : ses simulations ne cherchent absolument pas à reproduire la réalité biologique des neurones humains ! c'est un modèle comme un modèle de climat, c'est tout : tres interessant pour comprendre des caractéristiques générales, mais rien à voir avec le fait de produire de l'intelligence.
Pas d'accord sur ta définition de programme. un programme n'est pas un algorithme mais une séquence d'instruction et en ce sens l'ADN est un programme, le programme de construction des protéines (plus un certain nombre de choses, mais restons simples).
Non, mais le fait d'être intelligent, si. Un humain sauvage restera un humain et même élevé dans un groupe de singe, il se distinguera de ses compatriotes par une plus grande intelligence.De même niveau de complexité, c'est à dire un programme qui génère une structure capable de supporter un programme intelligent.Ce n'est justement pas le même code, c'est un code écrit dans le même langage. Et ton argument plaide justement bien pour dire que ce qui fait que l'humain est intelligent et pas la mouche est justement très petit et très subtil, très simple.
NB, ceci dit, je suis de ton avis au moins sur le fait que reproduire les neurones humains et / ou la structure du cerveau humain, n'est pas la voie le plus efficace pour approcher de l'intelligence.
Dans cette discussion, on a proposé des systèmes capable d'apprentissage, d'auto-apprentissage, de généralisation, et pour toi l'intelligence en est absente.ou ai-je nié cela?
je ne nie pas que l'apprentissage soit un processus émergent, ni que les robots sont capables d'un certain apprentissage. Bien qu'etant nul en informatique, je me tiens un peu au courant des résultats . La thèse est très interessante comme modélisation générale, mais ça ne répond absolument pas au problème initial : ses simulations ne cherchent absolument pas à reproduire la réalité biologique des neurones humains ! c'est un modèle comme un modèle de climat, c'est tout : tres interessant pour comprendre des caractéristiques générales, mais rien à voir avec le fait de produire de l'intelligence.
Admet le, il n'y a pas de mal à cela, mais tu places l'intelligence au delà du champ de l'étude scientifique et quelque soit les arguments scientifiques, qu'il proviennent de gens qui bossent en IA ou en biologie, tu répondras que ce n'est pas de l'intelligence.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
non, il n'y a pas de séquences d'instruction dans l'ADN, pas plus que dans la construction spontanée d'un cristal ordonné. Tu peux donner la liste des codons de l'ADN et leur traduction en acides aminés, mais pas une suite d'instruction de leur expression qui serait effectuée de manière algorithmique. L'expression est due à des équilibres chimiques complexes qui ne sont pas en eux mêmes algorithmiques.
Je suis bien d'accord, mais ce n'est pas du à un programme déterminé, mais aux potentialités physico-chimques de la structure de son ADN : encore une fois ce n'est pas un programme. Par exemple, tu n'arriveras pas en comparant un ADN humain d'un ADN de singe a isoler des "instructions" supplémentaires, ou mieux écrites, au sens ou tu pourrais améliorer le programme d'un robot en rajoutant des subroutines. Les deux ADN codent des milliers de proteines qui sont indiscernables du point de vue de l'information, et qui ne contiennent aucune "instruction" particulière.Non, mais le fait d'être intelligent, si. Un humain sauvage restera un humain et même élevé dans un groupe de singe, il se distinguera de ses compatriotes par une plus grande intelligence.
pas du tout, tu as mal lu mes posts (c'est vrai qu'il y en a beaucoup ). J'ai dit plusieurs fois que ça ne me genait pas d'admettre que les robots actuels ou meme Deep Blue sont intelligents, et que dans ce cas la question est réglée, c'est une question de définition. Ce que je dis, c'est que ce n'est pas la définition habituellement admise , et que la plupart des gens refusent d'accorder de l'intelligence aux ordinateurs. Je cite la thèse que tu m'as obligeamment indiquée :Dans cette discussion, on a proposé des systèmes capable d'apprentissage, d'auto-apprentissage, de généralisation, et pour toi l'intelligence en est absente.
Admet le, il n'y a pas de mal à cela, mais tu places l'intelligence au delà du champ de l'étude scientifique et quelque soit les arguments scientifiques, qu'il proviennent de gens qui bossent en IA ou en biologie, tu répondras que ce n'est pas de l'intelligence.
J'ajouterais : un rêve parce qu'une représentation mythologique au même sens que l'anthropomorphisation de la Nature par les mythologies traditionnelles .Mais contrairement à Descartes, Turing est optimiste :
il prédit qu’un système que l’on doterait de capacités d’apprentissage, passerait ce test avec succès avant la fin de ce siècle [Turing, 1950].
Nous ne pouvons que constater que ses prédictions ne se sont pas réalisées.
Presqu’aussi ancienne que l’ordinateur lui-même, l’intelligence artificielle a permis des avancées là où un siècle plus tôt peu auraient prédit que l’ingénierie oserait s’aventurer. L’ordinateur expertise, l’ordinateur apprend, l’ordinateur généralise, l’ordinateur perçoit et reconnaît mais l’ordinateur ne "parle" pas au sens où Descartes l’entendait et nous ne pouvons pas plus parler avec lui. Au sein de l’intelligence artificielle, le traitement du langage naturel n’est finalement qu’un ensemble de projets hétéroclites, certains fructueux, d’autres avortés et il reste difficile aujourd’hui d’entrevoir les prémisses d’une solution générale au problème de la production et de la compréhension du langage humain.
...
Après plusieurs siècles de recherches, la machine qui parle et qui comprend n’est encore qu’un rêve d’ingénieur.
L'éxécution d'un programme dans un ordinateur est due à la circulation de courants électriques qui ne sont pas algorithmiques. Si les séquences d'ADN sont des séquences d'instructions qui pour la partie codage des protéines peuvent s'interpréter de cette manière:non, il n'y a pas de séquences d'instruction dans l'ADN, pas plus que dans la construction spontanée d'un cristal ordonné. Tu peux donner la liste des codons de l'ADN et leur traduction en acides aminés, mais pas une suite d'instruction de leur expression qui serait effectuée de manière algorithmique. L'expression est due à des équilibres chimiques complexes qui ne sont pas en eux mêmes algorithmiques.
prendre l'acide aminé numéro XX et le rajouter à la chaine en cours. à CE niveau d'interprétation, c'est bien une instruction. Les équilibres chimiques sous jacents n'ont aucune importance car leur aléatoire et leur caractère non algorithmique sont masqués par la loi des grands nombres.
Si, on pourrait, mais ce n'est certainement pas la démarche la plus efficace ni la plus facile, c'est comme comparer deux exe en binaire pour essayer d'en améliorer un...
si, ils sont algorithmiques dans un sens précis : c'est que tu peux les représenter de manière discrète grâce à l'existence de seuils, de façon à ce qu'ils reproduisent le traitement de bits, ce qui permet justement de les programmer de manière exacte.
En revanche, tu ne peux pas représenter le contexte biochimique dans lequel baigne l'ADN de manière discrète, et tu ne peux pas le traduire par une suite d'instructions de type machine de Turing.
mais non, cette instruction n'est écrite nulle part. C'est un phénomène qui se produit certes, mais il ne résulte pas de la lecture d'une information stockée quelque part (je ne parle pas du codon lui même mais de l'instruction qui fait qu'il s'exprime).Si les séquences d'ADN sont des séquences d'instructions qui pour la partie codage des protéines peuvent s'interpréter de cette manière:
prendre l'acide aminé numéro XX et le rajouter à la chaine en cours. à CE niveau d'interprétation, c'est bien une instruction.
Par exemple si tu affiches un texte sur ton écran, il y a l'information sur le caractère ascii qui est dans ton fichier texte, mais il y a aussi quelque part dans ton ordinateur une suite discrete de bits qui assure que le processeur va lire cette valeur, et va en déduire qu'il faut allumer tel ou tel ensemble de pixels de ton ecran. Si à la rigueur l'ADN peut etre comparé aux caractères ascii , en revanche il n'y a nulle part aucune molécule qui contient quelque chose de comparable à tes instructions processeurs. Les mécanismes qui assurent l'expression de l'ADN ne sont stockés nulle part, d'ailleurs tu ne peux absolument pas les changer en quoi que ce soit contrairement aux instructions processeurs ! tu ne peux changer que l'ADN, mais avec des conséquences totalement imprévisibles. L'ADN n'est pas programmable a volonté.
ben non, tout ce que tu vas trouver, c'est quelques changements ici et là sur quelques % d'acides aminés, il n'y a rien qui ressemble à des instructions supplémentaires, et l'ensemble des processus se produisant lors de l'expression de l'ADN n'est pas plus compliqué chez l'homme que chez le singe...rien qu'en regardant l'ADN tu serais absolument incapable de dire lequel est celui d'un homme et lequel est celui d'un singe !
tu serais d'ailleurs absolument incapable de distinguer celui d'un homme de celui de la levure de bière .
Bonsoir,
D'où viennent ces seuils en question ?