Ton argument de départ:
L'implant est bien un capteur extérieur. Les neurones réels arrivent bien à s'y connecté et à "lire" les informations, non ?puisque bien sur les neurones biologiques ne savent pas "lire" un CCD
bien sur, mais ce n'est pas un ccd, mais un capteur adapté au neurone réel.
Le probleme maintenant est de supposer que tu réalises une simulation numérique de neurones biologiques. Comment concrètement peux tu interfacer un capteur réel avec des neurones simulés?
Réfléchis concrètement , c'est impossible, parce qu'il y a un hiatus entre la simulation du neurone biologique et le monde réel. Les solutions cohérentes (réseaux de neurones + capteurs) ne simulent pas vraiment des neurones biologiques, et les simulations "fideles" de neurones biologiques ne peuvent pas etre connectées à des capteurs de façon cohérente.
Cordialement
Gilles
C'est surtout les neurones qui s'adaptent.
SI tu as une simulation fiable de neurones, alors ces neurones simulés ont le même "input" que les neurones réels. Cet input, c'est l'output du capteur. Capteur parfaitement connu et reproductible.Comment concrètement peux tu interfacer un capteur réel avec des neurones simulés?
A partir de là, je ne vois pas le problème (en supposant toujours que tu as des simulations de neurone fiables) de récupérer l'output du capteur et de l'envoyer sur l'input des neurones.
Où est le problème ? (Problème à expliciter clairement et pas simplement dire "Réfléchis concrètement , c'est impossible, parce qu'il y a un hiatus" qui n'explique rien)
C'est vrai. C'est pour le moment hors de notre portée.Les solutions cohérentes (réseaux de neurones + capteurs) ne simulent pas vraiment des neurones biologiques
Bonjour Gilles,Effectivement, pour la catégorie b) (à laquelle appartiennent tous les systèmes d'IA actuels "fonctionnels", ie qui servent à quelque chose de concret !) on peut les interfacer avec un capteur pour qu'ils interagissent avec le monde. Mais comme je le disais ils sont incapables de traiter les caractéristiques biochimiques du cerveau humain. On ne peut pas mettre de neuromédiateurs, de drogues, etc...
Je te rappelle qu'il te faut montrer l'indispensabilité de ces neuromédiateurs, drogues etc.
Si on ne prend pas de drogue, on est toujours capable de penser, non ?
Et si on nous enlève quelques neurones, on ne tombe pas en panne de résolution de problème, non ?
Il semble donc évident que le traitement de l'information effectué par le cerveau est très robuste et qu'il n'y a pas besoin de modéliser un cerveau au neuromédiateur près pour obtenir le même traitement de l'information.
Et quand je parle de traitement de l'information, je veux dire que l'ordinateur est une sorte de boite noire reliée à des capteurs et des effecteurs qui fonctionnent en première approximation comme les capteurs et les effecteurs d'un corps humain. Car là encore une approximation grossière est suffisante, car nous savons bien qu'il y a des gens qui voient mal ou qui n'ont pas toute leur facultés motrices, mais qui sont tout de même des humains !
Cordialement,
Argyre
En lisant la news de Jiav, je comprend qu'il s'agit juste d'une preuve de faisabilité technique montrant que l'on peut à présent mettre un grand nombre de processeurs en parallèle, pour implémenter un réseau de neurones artificiels.merci, je sais à peu près cela. Je dis justement que ça n'a rien à voir avec la simulation de souris dont nous parlait Jiav, qui elle au contraire s'attachait à simuler le comportement physique de neurones, mais qui n'a justement par la moindre heuristique en elle, puisqu'il n'y a aucune information "réelle" du monde extérieur dedans.
Le fait que l'article n'aborde pas le comment et ce qui est appris, est à mon avis essentiellement dû au fait que ce n'est pas le sujet de ce travail.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Excusez moi, en deplacement quelques jours, je n'ai pas pu répondre, mais ce n'est pas faute d'argument .
eh ben non... parce que les capteurs bioniques sont analogiques et pas numériques. Le neurone ne lit pas d'information numérique.
Au contraire, l'ordinateur qui simule le neurone le simule numériquement. C'est justement totalement différent. L'ordinateur ne peut rien faire avec le capteur bionique analogique. Le neurone *réel interagit avec un capteur réel alors que le neurone simulé interagit avec un capteur simulé. Mais ce capteur simulé ne peut pas plus interagir avec la réalité !
(Je parle bien sur de neurones biologiques réels et pas de réseaux de neurones artificiels qui sont en fait eux pour la plupart numériques).
le problème est dans ce que tu appelles "récupérer l'output", et simuler la façon dont un neurone biologique réel interagit avec ton capteur.A partir de là, je ne vois pas le problème (en supposant toujours que tu as des simulations de neurone fiables) de récupérer l'output du capteur et de l'envoyer sur l'input des neurones.
Où est le problème ? (Problème à expliciter clairement et pas simplement dire "Réfléchis concrètement , c'est impossible, parce qu'il y a un hiatus" qui n'explique rien)
Si je te dis que c'est impossible, c'est parce que ce n'est jamais réalisé, dans aucun système d'IA.
Soit on cherche à construire un système interfacé avec le réel mais avec un système qui ne cherche pas à simuler précisément des neurones biologiques, autrement que par vagues similitudes (type réseaux de neurones).
Soit on cherche à simuler des neurones biologiques sans chercher à interfacer la simulation avec le réel, juste pour essayer de comprendre comment ils marchent.
Et contrairement à ce que dit Spi100, ce n'est pas parce que "ce n'est pas le sujet du travail" : c'est tout bonnement parce que c'est impossible.
les drogues n'agissent que parce qu'elles se substituent aux neuromédiateurs. C'est parce qu'elles empechent l'accès aux sites normaux de reconnaissance des neuromédiateurs qu'elles ont un effet : ça montre bien que les neuromédiateurs normaux sont indispensables au bon fonctionnement de la pensée. Tu les bloques : tu meurs.Envoyé par ArgyreBonjour Gilles,
Je te rappelle qu'il te faut montrer l'indispensabilité de ces neuromédiateurs, drogues etc.
Si on ne prend pas de drogue, on est toujours capable de penser, non ?
Et si on nous enlève quelques neurones, on ne tombe pas en panne de résolution de problème, non ?
Ca c'est de la méchante réthorique J'espère qu'il était clair que je répondais au fait que tu disais que ce n'était pas développé dans le papier cité par Jiav.
Tourné comme tu le dis, on dirait que j'ai dit que c'était possible parce que ce n'était pas le sujet du travail en question
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Les arguments de Penrose sont décrits la http://www.quantumconsciousness.org/...mputation.html il s'agit selon les auteurs d'un phénomène quantique essentiel au fonctionnent des neurones
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Bonjour,
Certes, mais ce n'est pas la question ! Il te faut prouver que chaque neuromédiateur est indispensable. Or, si on en enlève quelques milliers, on a toujours un fonctionnement normal du cerveau.les drogues n'agissent que parce qu'elles se substituent aux neuromédiateurs. C'est parce qu'elles empechent l'accès aux sites normaux de reconnaissance des neuromédiateurs qu'elles ont un effet : ça montre bien que les neuromédiateurs normaux sont indispensables au bon fonctionnement de la pensée. Tu les bloques : tu meurs.
Encore une fois, le cerveau est robuste et son "bon" état de fonctionnement ne dépend pas de quelques milliers de neuromédiateurs ni même de quelques milliers de neurones. Exemple : de nombreux patient atteints d'une épilepsie sévère ou d'une tumeur au cerveau subissent une opération au niveau d'une petite zone de celui-ci afin d'éliminer plusieurs millions de neurones. Et en général, ils ne perdent aucune de leur faculté intellectuelle.
Cordialement,
Argyre
Bonjour,
Je ne crois pas que Penrose ait publié quoi que ce soit dans une revue spécialisée dans le domaine des neurosciences, avec approbation par un comité de relecture. C'est un mathématicien très connu qui a publié de nombreux livres de vulgarisation, qui ont suscité notamment une polémique sur l'interprétation du théorème de Gödel et sur les limites de la calculabilité.Les arguments de Penrose sont décrits la http://www.quantumconsciousness.org/...mputation.html il s'agit selon les auteurs d'un phénomène quantique essentiel au fonctionnent des neurones
Mais les neurosciences semblent bien loin de sa spécialité et cette nouvelle polémique n'apporte AMHA rien d'autre qu'un peu plus de confusion ...
Ca, c'était sur le fond.
Sur le contenu, les modèles actuels de neurones (Hodgkin Huxley par exemple, mais il y en a de plus précis qui tiennent compte du 3D) rendent compte de la propagation de l'influx nerveux de façon très correcte et on est bien loin des informations quantiques ...
Bref, je pense qu'on est tout près de pouvoir remplacer un neurone naturel par un neurone artificiel (certains types de neurones naturels au moins). Le plus compliqué, ça doit être de positionner tout ça à l'échelle requise. Je vais essayer de me renseigner auprès d'un collègue spécialiste pour avoir plus d'infos.
Cordialement,
Argyre
Bonjour,
Je ne crois pas que Penrose ait publié quoi que ce soit dans une revue spécialisée dans le domaine des neurosciences, avec approbation par un comité de relecture. C'est un mathématicien très connu qui a publié de nombreux livres de vulgarisation, qui ont suscité notamment une polémique sur l'interprétation du théorème de Gödel et sur les limites de la calculabilité.
Mais les neurosciences semblent bien loin de sa spécialité et cette nouvelle polémique n'apporte AMHA rien d'autre qu'un peu plus de confusion ...
Ca, c'était sur le fond.
Sur le contenu, les modèles actuels de neurones (Hodgkin Huxley par exemple, mais il y en a de plus précis qui tiennent compte du 3D) rendent compte de la propagation de l'influx nerveux de façon très correcte et on est bien loin des informations quantiques ...
Bref, je pense qu'on est tout près de pouvoir remplacer un neurone naturel par un neurone artificiel (certains types de neurones naturels au moins). Le plus compliqué, ça doit être de positionner tout ça à l'échelle requise. Je vais essayer de me renseigner auprès d'un collègue spécialiste pour avoir plus d'infos.
Cordialement,
Argyre
J'ai regardé les publis du biologiste avec qui il a travaillé, la liste est là http://www.quantumconsciousness.org/publications.html
Effectivement, il n'y a pas de revue de neuro-biologie.
Ils ont placé un article dans PRE, c'est une revue sérieuse mais qui ne demande qu'un seul referee. Le sujet du papier est de montrer que les micro-tubules peuvent protéger de la décohérence quantique pendant 10-13 s. C'est une revue de physique spécialisé dans les domaines frontières à la physique. Le referee a surement vérifié la cohérence du raisonnement physique mais probablement pas du point de vu de la neuro-biologie.
Bien sûr tout ça est à prendre avec des pincettes, mais c'est tout de même intéressant car c'est l'un des seuls travail sérieux sur le sujet.
Dernière modification par spi100 ; 14/05/2007 à 13h05.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Bonjour Argyre
tu veux dire si on enleve quelques milliers de molécules?
si tu enlèves quelques milliers de molécules d'oxygene tu ne vas t'arreter de respirer non plus ! tu en conclus qu'on peut vivre sans oxygène?
Tu ne peux pas penser sans neurotransmetteurs, leur variation en petite quantité va profondément influencer ta pensée. Par exemple si un post t'énerves, tu vas secréter de l'adrénaline et cela changera completement ce que tu vas écrire.
Il n'y a pas de pensée humaine "neutre", indépendantes des émotions, et ces émotions sont très largement sous le controle de secrétions d'hormones. Ce n'est pas un facteur de nature algorithmique!
Cordialement
Gilles
Qu'est ce qu'une hormone, si ce n'est une quantité discrète que l'on peut rajouter comme variable fonctionelle dans une simulation de réseau neurones à spike...Il n'y a pas de pensée humaine "neutre", indépendantes des émotions, et ces émotions sont très largement sous le controle de secrétions d'hormones. Ce n'est pas un facteur de nature algorithmique!
Où se trouve le caractère non algorithmique?
d'abord ce n'est absolument pas une quantité discrète, mais une substance chimique en concentration variable spatialement et temporellement continuement.
D'autre part, meme si on la discrétise numériquement, cela n'a de sens que si on adopte la démarche a) : la simulation de neurones réels. Ce que je dis c'est qu'on ne peut absolument pas le faire dans une simulation qui résout le problème de l'IA de manière très différente des neurones humains, c'est à dire en pratique l'ensemble de tous les systèmes d'IA fonctionnels (type robots, joueurs d'echecs, traducteurs automatiques). Il n'y a aucun moyen de simuler l'action de l'adrénaline sur Deep Blue : contrairement à un joueur d'échecs humains, il n'a aucune possibilité de jouer de manière "calme", ou "énervée", ça n'a aucun sens.
Je repete en esperant que ça ne tourne pas en rond : inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav), mais dans ce genre de simulation, l'interfaçage avec le monde réel extérieur est strictement impossible. Les robots "qui marchent" n'ont strictement rien à voir avec la simulation de neurones humains, et sont donc limités dans leur comparaison avec eux.
Cordialement
Gilles
Sauf si on parle de nombre de molécules et de position de molécules. Ca devient alors une quantité discrète.
Il me semble (d'après mes vieux cours de bio) que les capteurs sur les neurones captent les molécules une par une et que c'est la fréquence d'arrivée combinée au nombre de médiateur capté qui joue un rôle dans la réponse.
Rien d'inaccessible à un algorithme là dedans.
Deep-Blue n'a pas, de ce que j'ai pu lire, de neurone ou de réseau de neurones...Il n'y a aucun moyen de simuler l'action de l'adrénaline sur Deep Blue : contrairement à un joueur d'échecs humains, il n'a aucune possibilité de jouer de manière "calme", ou "énervée", ça n'a aucun sens.
Pourquoi ? Donne-nous des raisons précises, s'il te plait.Je repete en esperant que ça ne tourne pas en rond : inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav),
bon, je ne vais pas engager le débat sur le fait que la position n'est pas une quantité discrète, que d'ailleurs au niveau moléculaire on ne peut plus avoir d'images classique de position, que les interactions entre molécules et récepteurs sont quantiques, et que la description en termes de fonctions d'onde pose des problemes insurmontables en termes de description de la réalité à cause des problèmes de la théorie de la mesure, et donc qu'il est fondamentalement impossible pour le moment de décrire un système quantique de façon complètement algorithmique, parce que ce n'est pas le point essentiel que je soulève ici (bien que ce soit effectivemet un autre probleme important !!!).Sauf si on parle de nombre de molécules et de position de molécules. Ca devient alors une quantité discrète.
Il me semble (d'après mes vieux cours de bio) que les capteurs sur les neurones captent les molécules une par une et que c'est la fréquence d'arrivée combinée au nombre de médiateur capté qui joue un rôle dans la réponse.
Rien d'inaccessible à un algorithme là dedans.
bien pour la raison que tu reconnais toi même : Deep blue n'ayant aucun neurone et ne fonctionnant pas comme uun réseau de neurone, ça n'a aucun sens d'essayer d'y inclure des actions de neuromédiateurs."Je repete en esperant que ça ne tourne pas en rond : inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav),"
Pourquoi ? Donne-nous des raisons précises, s'il te plait.
Ca n'aurait de sens que si on cherche à faire des simulations de neurones humains, tu ne crois pas ?
Gilles
Non, il est tout à fait possible de lier une simulation de neurones biologique (spiking neurons) avec une interface réelle. Voir par exemple : ce papierJe repete en esperant que ça ne tourne pas en rond : inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav), mais dans ce genre de simulation, l'interfaçage avec le monde réel extérieur est strictement impossible. Les robots "qui marchent" n'ont strictement rien à voir avec la simulation de neurones humains, et sont donc limités dans leur comparaison avec eux.
Cordialement
Gilles
Alors, tu veux dire que quand une molécule A arrive sur le récepteur A d'un neurone, il ne se produit pas toujours la même réaction ?
Je ne connais pas la réponse, mais il me semblait que si (ou qu'un modèle probabiliste décrit suffisemment bien le processus).
Mais Deep-Blue n'est qu'un exemple (que tu as choisi toi même) et qui n'est même pas à placer dans les machines a vocation intelligente. C'est juste une brute de calcul.bien pour la raison que tu reconnais toi même : Deep blue n'ayant aucun neurone et ne fonctionnant pas comme uun réseau de neurone, ça n'a aucun sens d'essayer d'y inclure des actions de neuromédiateurs.
Tu ne peux tirer aucune conclusion de cet exemple précis (surtout que tu as choisi toi même). Ce que Deep-Blue ne peut pas faire, une autre machine le pourra peut-être.
As-tu donc une justification précise te permettant d'affirmer que "inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav),"
Sachant que pour une machine, ce seraient probablement des neuromédiateurs simulés.
Qu'est-ce qu'un neuromédiateur ? Une molécule permettant à deux neurones de communiquer, non ?Ca n'aurait de sens que si on cherche à faire des simulations de neurones humains, tu ne crois pas ?
Si oui, alors pas besoin de simuler parfaitement un neurone pour avoir besoin de la notion de neuromediateur-simulé.
De plus, il faudrait arrêter de mettre le mot "humain" après neurone: nous avons les mêmes neurones que pas mal d'animaux, me semble-t-il.
de ce que je comprends de ce papier, il s'agit d'un réseau de neurones "ressemblant" à des neurones biologiques, et pas de la simulation de neurones biologiques effectuée par les ordinateurs Tflops cité par Jiav. Il y a incompatibilité entre chercher à simuler le plus précisément possible les neurones biologiques avec un ordinateur et à construire un système qui puisse etre interfacé avec le monde réel.Non, il est tout à fait possible de lier une simulation de neurones biologique (spiking neurons) avec une interface réelle. Voir par exemple : ce papier
il n'est pas simple de dire qu'une molécule A "arrive" sur un récepteur si on en prend la description quantique. en fait on ne peut pas du tout simuler un système macroscopique commele cerveau avec des équations quantiques, on est obligé de faire intervenir des projections de paquet d'onde pour lesquels il n'existe aucune prescription algorithmique. Personne ne fait ça de toute façon.
il faudrait me dire quelle machine est intelligente selon toi alors !Mais Deep-Blue n'est qu'un exemple (que tu as choisi toi même) et qui n'est même pas à placer dans les machines a vocation intelligente. C'est juste une brute de calcul.
Tu ne peux tirer aucune conclusion de cet exemple précis (surtout que tu as choisi toi même). Ce que Deep-Blue ne peut pas faire, une autre machine le pourra peut-être.
As-tu donc une justification précise te permettant d'affirmer que "inclure l'action de neuromédiateurs n'a de sens que dans une simulation de neurones physiques (type du premier message ou de la "souris" de Jiav),"
le neuromédiateur n'agit que parce qu'il a une réaction biochimique particulière avec un récepteur. Ca me parait évident qu'il n'y a aucun moyen de décrire son action si on ne décrit pas le récepteur. Une clé ne sert à rien si tu n'as pas la serrure. Je ne connais strictement aucun système d'IA se préoccupant en quoi que ce soit d'inclure explicitement les effets des 40 et quelques neuromédiateurs dans un réseau de neurones ! (d'accord je ne suis pas du tout spécialiste mais si quelqu'un en connait un je suis interessé !)
je ne sais pas ce que tu veux dire par "parfaitement", mais quand on simule des réseaux de neurones avec des constantes de couplage, on se fiche éperdument de la structure des neuromédiateurs et des capteurs biologiques il me semble. Du coup je ne vois absolument pas comment on peut espérer décrire leurs effets.Qu'est-ce qu'un neuromédiateur ? Une molécule permettant à deux neurones de communiquer, non ?
Si oui, alors pas besoin de simuler parfaitement un neurone pour avoir besoin de la notion de neuromediateur-simulé.
.
Scusez un rush de boulôt et cette discussion me prennait trop de neurone-équivalents... So quelques retours avant fossilisation:
J'entend bien. Je te fais simplement remarquer qu'aucune des deux approches que tu expliques ne correspond aux recherches dont tu parles.Envoyé par gillesh38Jiav, je vais faire une comparaison. Imagine qu'un ordinateur fasse une addition, et que tu veuilles faire la même chose à la main. Tu peux le faire de deux façons très différentes.
J'entend bien. Je te fais simplement remarquer qu'aucune des deux approches que tu expliques ne correspond aux recherches dont tu parles.Envoyé par gillesh38Je maintiens : les démarches sont essentiellement différentes à la base.
J'ai demandé à Jiav et il m'a confirme n'avoir pas cité de simulation de neurones biologiques.Envoyé par gillesh38il s'agit d'un réseau de neurones "ressemblant" à des neurones biologiques, et pas de la simulation de neurones biologiques effectuée par les ordinateurs Tflops cité par Jiav.
...je vais éviter d'être lourd et de faire la liste exhaustive de toutes les remarques où j'aurais envie de répondre quelque chose comme ça, mais le fait est que tu ne sembles pas saisir le but de ces recherches, qui comme je l'expliquais plus haut visent en essence à comprendre l'émergence d'un comportement à partir de règles de bases: comment un ordre émerge d'un gros réseau de neurones à spike, comment un ordre émerge d'une collectivité de blatte.
Il est frappant que tu imagines qu'il faille ajuster très précisément les rêgles de base pour obtenir le comportement émergeant voulu:
c'est, contre l'intuition, souvent faux! Ainsi quand tu programmes une règle d'apprentissage genre Hebb (si le neurone décharge, alors les entrées qui viennent d'être actives augmentent leur efficacité future) tu as des comportements émergeant (vitesse d'apprentissage en sigmoïde, robustesse impressionnante après apprentissage) qui arrivent peu importe la façon dont cette règle de Hebb est programmée. Pour optimiser ça prend beaucoup de finesse, mais pour voir qualitativement ce comportement n'importe quelle implémentation fait l'affaire, aussi mal fagotée soit-elle. En fait ça m'est déjà arrivé de me rendre compte à posteriori qu'une de mes règles était Hebb-like à cause des propriétés d'apprentissage du réseau!Envoyé par gillesh38amha, ce n'est pas vrai du tout pour le robot blatte, ce que tu dis : l'algorithme a été tres soigneusement optimisé pour faire exactement ce qu'on voulaitEnvoyé par JiavAllons plus loin: les chercheurs en question seraient plus que probablement en désaccord, non seulement sur les approches que tu leur attribues, mais aussi sur l'idée que leurs recherches différent profondément: dans les deux cas le but est de comprendre comment des comportements intéressants émergent d'une collectivité d'algorithmes simples en interaction, algorithmes apparemment bébêtes en eux-mêmes mais choisit pour leur proximité avec les règles biologiques identifiées.
Je conteste: les deux méthodes sont équivalentes non seulement parce qu'il s'agit d'un GH-calcul, mais surtout parce que le résultat est calculable (au sens habituel, c'est-à-dire approchable d'aussi près qu'on veut): cela suffit pour que les deux méthodes soient équivalentes.Envoyé par gillesh38Imagine qu'un ordinateur fasse une addition, et que tu veuilles faire la même chose à la main. (...) les deux méthodes fournissent finalement le même résultat, donc elles sont équivalentes. Certes mais c'est uniquement parce que le système simulé (l'ordinateur) est algorithmique au sens ou je l'ai défini sur l'autre fil,
Exemple dont je ne me lasse pas: Pi est calculable au sens propre et incalculable au "sens Gilles". Autrement dit Pi est approchable par de nombreuses méthodes qui ne donnent pas exactement les mêmes décimales (sauf à l'infini, c'est-à-dire jamais en pratique). Ces méthodes sont pourtant reconnue équivalentes par un certain nombre de mathématiciens -genre tous.
Je ne comprends absolument pas comment tu peux croire cette assertion. Une simulation obéi à ce qu'on lui impose, y compris des potentiels d'action triggé sur un signal extérieur à la sim... "information du monde réel" me laisse encore plus perplexe: quelle différence peut-il bien y avoir entre "information du monde réel" et information tout court?Envoyé par gillesh38bien sur que non !Envoyé par JiavCela revient à dire qu'il est impossible de donner des capteurs à un ordinateur. Est-ce vraiment ce que tu veux dire?
ça veut dire qu'une simulation de type a) ne peut absolument pas etre interfacée avec un capteur. Justement parce qu'elle "simule" un neurone, mais qu'elle "n'est pas " un neurone, elle ne peut etre interfacée qu'avec une simulation de capteur ce qui est tres très différent d'un capteur. D'ailleurs cette simulation de capteur ne peut etre elle-même interfacée qu'avec une simulation de réalité comme dans Matrix. Une simulation de type a) ne peut pas par construction traiter de l'information du monde réel.
Je te confirme que je ne connais aucun ouvrage de référence, publication, ou obscur opuscule qui démontre que les neurotransmetteurs, ou quoi que ce soit d'autre du monde physique, présente des caractéristiques non algorithmiques. De même je ne connais aucun ouvrage de référence, publication, ou obscur opuscule qui démontre que des caractéristiques non algorithmiques sont "indispensables au fonctionnement du système [nerveux]".Envoyé par gillesh38je ne savais pas que les neurotransmetteurs n'etaient traités que dans des obscurs opuscules !Envoyé par jiavIl va falloir que tu nous expliques dans quelle ouvrage de référence, publication, ou obscur opuscule on peut trouver la mise en évidence des "caractéristiques non algorithmiques du système neuronal", ainsi que la mise en évidence que celles-ci sont "indispensables au fonctionnement du système".
Et toi non plus
L'effet est approchable? Alors c'est algorithmique. L'effet n'est pas approchable? Prouve le! Comme le dit Faith, ça voudrait dire que, à un moment où un autre il y a une action non déterministe. En réalité c'est encore pire: il faudrait une action non déterministe ET différente du hasard.Envoyé par gillesh38il n'y a pas de pensée humaine "neutre", indépendantes des émotions, et ces émotions sont très largement sous le controle de secrétions d'hormones. Ce n'est pas un facteur de nature algorithmique!
Encore plus direct: des réseaux de neurones qui font une interface entre les neurones réels et un bras robotisé: cf Chapin et Nicolelis.Envoyé par Faithil me semble bien que les premiers implants "bioniques" on déjà vu le jour. Pour l'oeil et l'oreille, mais aussi pour le toucher.Envoyé par gillesh38J'insiste que c'est très différent de l'interfaçage avec *la simulation de neurones par un ordinateur, qui elle n'est pas possible.
Les neurones biologiques savent donc bien être connectés à un système artificiel, et lui donner du sens.
Bon point, effectivement moi aussi j'ai m'impression qu'IBM cherche plus une démonstration de performance qu'autre chose. Le seul objectif neuroscience indiqué est de voir la stabilité, et j'avoue que que je vois pas très bien comment ils espèrent avoir une information là-dessus avec aussi peu de temps de simulation. Mais bon avec peu de chance c'est juste que le gars de la com a décidé de pas embêter les gens avec des détails obscursEnvoyé par Spi100Le fait que l'article n'aborde pas le comment et ce qui est appris, est à mon avis essentiellement dû au fait que ce n'est pas le sujet de ce travail.
Il est clair que dans ce domaine il n'a fait qu'émettre des hypothèses non étayées. Néanmoins l'envergure du personnage en impose. C'est un peu comme Crick et l'hypothèse 40 HZ -que ce soit vrai ou non le fait que Mr ADN le pense popularise immédiatement l'idée.Envoyé par ArgyreJe ne crois pas que Penrose ait publié quoi que ce soit dans une revue spécialisée dans le domaine des neurosciences, avec approbation par un comité de relecture. C'est un mathématicien très connu qui a publié de nombreux livres de vulgarisatio
Néanmoins les idées de Penrose sont un peu HS dans cette discussion, car même s'il avait raison (i.e. que le cerveau ai accès à des calculs quantiques) alors en fait ça ne changerait rien à la question de la calculabilité! En effet un calcul quantique est plus rapide qu'un calcul traditionnel mais le type de calcul possible est strictement équivalent.
[HS: et personnellement je ne vois pas très bien pourquoi on aurait autant de neurones: si chaque microtubule était un Qbit alors les quelques milliers qui sont présent dans chaque neurone suffiraient plus que largement. ]
PS: merci pour le papier virtual_creature
Jiav
je suis gené de discuter avec un spécialiste comme toi, que j'estime en plus, et continuer à etre autant en désaccord, ou en tout cas avoir le sentiment d'être aussi mal compris !
ma remarque initiale venait de ce que tu disais :...je vais éviter d'être lourd et de faire la liste exhaustive de toutes les remarques où j'aurais envie de répondre quelque chose comme ça, mais le fait est que tu ne sembles pas saisir le but de ces recherches, qui comme je l'expliquais plus haut visent en essence à comprendre l'émergence d'un comportement à partir de règles de bases: comment un ordre émerge d'un gros réseau de neurones à spike, comment un ordre émerge d'une collectivité de blatte.
doncEncore plus: si on avait de meilleurs connaissances, alors les capacités de calcul impliquées dans cette recherche seraient probablement suffisantes pour émuler une souris, dont le comportement serait dans l'idéal indifférenciable des souris biologiques. A quand un test de Turing pour les souris? On a déjà un genre de test comme ça avec des blattes, mais avec une souris ce serait un poil plus convainquant
a) tu as bien dit que le but de ces recherches etait de simuler une souris réelle (maintenant tu dis que c'est juste pour illustrer l'émergence de comportements collectifs dans un réseau de neurones à spike, et là je suis tout à fait d'accord).
b) tu as fait explicitement le parallèle avec la blatte, un lecteur rapide pouvant en conclure que le calcul des neurones "souris" est juste une extrapolation de la technique employée pour les "robots-blattes".
Ce que je dis moi c'est
a) que le calcul dit "souris" ne contient strictement aucune sémantique associée aux informations traitées par la souris, ne peut en aucune façon etre utilisé pour être interfacé avec le monde réel, et n'a aucune chance d'être utilisé pour émuler une souris. Comme tu le dis toi-même, il ne sert qu'à comprendre comment de façon générale des comportements collectifs émergent de comportements individuels, mais on est pour le moment totalement incapables de relier les comportements réels d'une souris aux propriétés de ce genre de neurones.
b) et donc fort logiquement, les systèmes qui semblent effectivement "marcher" comme la blatte repose sur des systèmes très différents du système nerveux de la blatte, ou en tout cas ne cherchent absolument pas à l'émuler précisément. Ils se contentent d'essayer d'obtenir des résultats concrets, ce qui n'est deja pas mal. Et ils ne peuvent pas etre améliorés en améliorant la précision avec laquelle ils simulent le neurone de blatte, puisqu'en fait ils ne cherchent pas du tout à le simuler.
Ces deux approches ne sont donc pas complémentaires , elles sont *orthogonales.
c'est parce que le problème n'est pas de "calculer Pi" , mais de "calculer les N premières décimales de Pi", qui définit un nombre décimal, donc parfaitement codable sur un ordinateur, et donc parfaitement algorithmqiue : ce n'est pas Pi que les algorithmes calculent, c'est Et bien évidemment les différentes méthodes donnent strictement la même valeur au bout de N décimales, sinon il y en a une qui est fausse.Je conteste: les deux méthodes sont équivalentes non seulement parce qu'il s'agit d'un GH-calcul, mais surtout parce que le résultat est calculable (au sens habituel, c'est-à-dire approchable d'aussi près qu'on veut): cela suffit pour que les deux méthodes soient équivalentes.
Exemple dont je ne me lasse pas: Pi est calculable au sens propre et incalculable au "sens Gilles". Autrement dit Pi est approchable par de nombreuses méthodes qui ne donnent pas exactement les mêmes décimales (sauf à l'infini, c'est-à-dire jamais en pratique). Ces méthodes sont pourtant reconnue équivalentes par un certain nombre de mathématiciens -genre tous.
mais il n'y a tout aussi bien évidemment aucun nombre de N décimales dont la valeur code exactement le comportement humain, ou d'une souris, ou d'une blatte : ce n'est pas un problème algorithmique.
Bon soyons concret : quel système concret proposes-tu d'interfacer avec la simulation du genre "neurones de souris"? (je parle d'un détecteur défini *matériellement pas de "un capteur" sans précision.)Je ne comprends absolument pas comment tu peux croire cette assertion. Une simulation obéi à ce qu'on lui impose, y compris des potentiels d'action triggé sur un signal extérieur à la sim... "information du monde réel" me laisse encore plus perplexe: quelle différence peut-il bien y avoir entre "information du monde réel" et information tout court?
Cordialement
Gilles
c'est parce que tu persistes à recouvrir sous le même vocable : modélisable et algorithmique. Pour toi, c'est équivalent. Pas pour moi. Le calcul des N premières décimales de pi est un nombre défini précisément. l'état de l'atmosphère à l'instant actuel ne l'est pas, simplement parce que ce qu'on appelle "l'état" est une chose très vague ! Le premier est calculable, le second est modélisable.Je te confirme que je ne connais aucun ouvrage de référence, publication, ou obscur opuscule qui démontre que les neurotransmetteurs, ou quoi que ce soit d'autre du monde physique, présente des caractéristiques non algorithmiques. De même je ne connais aucun ouvrage de référence, publication, ou obscur opuscule qui démontre que des caractéristiques non algorithmiques sont "indispensables au fonctionnement du système [nerveux]".
...
L'effet est approchable? Alors c'est algorithmique. L'effet n'est pas approchable? Prouve le! Comme le dit Faith, ça voudrait dire que, à un moment où un autre il y a une action non déterministe. En réalité c'est encore pire: il faudrait une action non déterministe ET différente du hasard.
Bonjour,
Non, j'en conclus que le nombre exact de neurotransmetteurs n'est pas important pour faire fonctionner le cerveau et que dans une simulation, une approximation de la fonction des neurotransmetteurs doit suffire pour faire fonctionner la simulation du cerveau de manière analogue à un cerveau réel. Et quand je dis analogue, ça ne veut pas dire "exactement comme le cerveau de Monsieur X", ça veut dire qu'en première approximation, les commandes opérées par ce cerveau seront probablement aussi intelligentes que les commandes opérées par un cerveau réel.
On s'en fiche. Encore une fois, si on ne sécrète pas d'adrénaline, la commande du cerveau reste "intelligente". L'adrénaline n'est pas indispensable au fonctionnement du cerveau. D'ailleurs, si un être humain a un problème de sécrétion d'adrénaline, son comportement restera intelligent, non ?
Permets moi de te faire remarquer que c'est le 3ème post que je conclus de la même manière : tu dois montrer qu'il existe quelque chose de non algorithmique indispensable au cerveau pour qu'il y ait production de commandes intelligentes. Et à chaque fois, tu ramènes le problème à la présence de quelque chose qui influe sur le comportement général mais qui n'est pas indispensable à la production de commandes intelligentes.
Pour reprendre ton analogie avec le climat, on a le même quiproquo. On pourrait faire un simulateur de climat qui soit à 100% algorithmique. Alors bien sûr, on ne parviendra jamais à simuler le climat réel, mais si on fournit 2 ensembles de données :
1) les données de température, pression, nuages etc en sortie du simulateur
2) les mêmes données mais réelles obtenues à partir des capteurs
à un observateur extérieur qui vit sur une autre planète, il sera incapable de dire quelles sont les données réelles et les données simulées, même s'il dispose de données historiques antérieures.
Bon, pour le climat, un simulateur ne fournit pas d'air chaud ou froid, ce qui limite l'analogie. En revanche, le cerveau reçoit et fournit essentiellement de l'information, comme un ordinateur. C'est pour cela que dans ce cas, le terme de simulation est à prendre avec des pincettes. On ne simule pas un traitement de l'information mais on le reproduit, avec plus ou moins d'exactitude.
Cordialement
Argyre
L'argument de Penrose ne repose pas sur l'hypothèse d'un calcul quantique: comme tu le dis, qu'un algorithme soit quantique ou classique, il n'en reste pas moins un algorithme.Néanmoins les idées de Penrose sont un peu HS dans cette discussion, car même s'il avait raison (i.e. que le cerveau ai accès à des calculs quantiques) alors en fait ça ne changerait rien à la question de la calculabilité! En effet un calcul quantique est plus rapide qu'un calcul traditionnel mais le type de calcul possible est strictement équivalent.
Son hypothèse initiale est que la mesure quantique, n'est pas un phénomène algorithmique. Si le comportement quantique s'avère indispensable à la description du cerveau, alors la réduction du paquet d'onde y joue un rôle essentiel et donc le comportement du cerveau n'est pas algorithmique.
C'est pour ça que Penrose cherche un phénomène où la description quantique est indispensable. Il reste qu'il y a quand même pas mal de choses à admettre pour suivre Penrose :
1/ La mesure quantique est un phénomène non - algorithmique : peut être (même sûrement AMHA), mais pour le moment rien ne le prouve.
2/ Le comportement des micro-tubules nécessitent une description quantique.
3/ Si comportement quantique de ces micro-tubules, il reste à montrer que l'ordre de grandeur du phénomène est suffisant pour justifier son importance dans le fonctionnement du cerveau.
Dernière modification par spi100 ; 16/05/2007 à 10h58.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Pour ma part, je soulèverai juste une question qui peut paraitre anodine mais je n'en suis pas si sûr
Si on arrive à créer de véritables ordinateurs fonctionnant en partie grâce à des neurones, car c'est bien là le fond du problème, "quid des risques d'infections bactériologiques/virales purement biologiques en sus des risques viraux logiciels ?"
De toutes façons, je pense qu'en ce qui concerne l'IA, la véritable révolution à attendre viendra des ordinateurs quantiques, qui eux ne fonctionneront pas en termes de "oui OU non", mais "peut-être" ou encore "oui ET non"
Je te laisse relire le passage que tu cites en faisant attention à l'eploi du conditionnel: il ne s'agissait pas de la description des recherches d'IBM, mais de ce qu'on pourrait imaginer faire si on avait de meilleurs connaissances + la grosse bécane d'IBM.
Par contre tu peux me reprocher la légèreté du raccourci "la souris s'en vient".
Donc encore une fois non pour la première partie, oui pour le contenu de la parenthèse. En passant modéliser l'émergence ne correspond pas à ce que tu décris comme l'approche a -je ne vois donc pas très bien pourquoi tu serais d'accord.
Pas que je sache (les neurones à spikes ne sont pas très pratiques donc je ne penserais pas qu'ils soient employés pour les robots-blattes), même si ce serait probablement faisable.
C'est ce que j'aurais tendance à appeler ton argument mystère. Non seulement je suis profondément en désaccord avec, mais en réalité je n'arrive même pas à comprendre comment tu peux être toi-même en accord avec ce que tu écris là-dessus.
Dans la même veine
N'importe quel capteur, sans nécessiter de préciser... mais puisque tu insistes: des caméras, des spectromètres, des potentiomètres, des micros, des thermocepteurs... entre autres. Je ne vois vraiment pas l'intérêt de la question en fait. Où veux-tu en venir?
Tu fais erreur: c'est bien Pi at large qui est calculable. Gilles... on va pas rester 1000 ans là-dessus: c'est une définition! Pourquoi ne pas demander à un mathématicien de Joseph Fourrier si tu ne me crois pas ?
Je persiste en effet. Par contre je suis surpris: es-tu en train d'accepter que le comportement humain est modélisable?c'est parce que tu persistes à recouvrir sous le même vocable : modélisable et algorithmique. Pour toi, c'est équivalent. Pas pour moi. Le calcul des N premières décimales de pi est un nombre défini précisément. l'état de l'atmosphère à l'instant actuel ne l'est pas, simplement parce que ce qu'on appelle "l'état" est une chose très vague ! Le premier est calculable, le second est modélisable.
Tu m'ôtes les mots du clavierPermets moi de te faire remarquer que c'est le 3ème post que je conclus de la même manière : tu dois montrer qu'il existe quelque chose de non algorithmique indispensable au cerveau pour qu'il y ait production de commandes intelligentes. Et à chaque fois, tu ramènes le problème à la présence de quelque chose qui influe sur le comportement général mais qui n'est pas indispensable à la production de commandes intelligentes.
Pour reprendre ton analogie avec le climat, on a le même quiproquo. On pourrait faire un simulateur de climat qui soit à 100% algorithmique. Alors bien sûr, on ne parviendra jamais à simuler le climat réel, mais si on fournit 2 ensembles de données :
1) les données de température, pression, nuages etc en sortie du simulateur
2) les mêmes données mais réelles obtenues à partir des capteurs
à un observateur extérieur qui vit sur une autre planète, il sera incapable de dire quelles sont les données réelles et les données simulées, même s'il dispose de données historiques antérieures.
Merci pour ces clarifications
a mon avis, bien sûr que si, et je demande confirmation a Jiav ! si je ne m'abuse, des troubles dans la dopamine conduisent au Parkinson, et si tu enleves tous les neuromédiateurs, ton cerveau ne marche plus du tout; c'est comme si tu disais que l'électricité n'est pas indispensable à un ordinateur. Sauf qu'à la différence d'un ordinateur, le comportement du cerveau dépend de manière analogique de la concentration de neuromédiateurs. Pour continuer la comparaison, c'est comme si, lorsque tu changeais la tension d'alimentation ou la fréquence du courant alternatif, ton ordinateur continuait à marcher mais en faisant des choses différentes, par exemple se mette à te faire des blagues, ou a cacher des fichiers, ou a augmenter ou diminuer le nombre de possibilités dans un menu.Bonjour,
Non, j'en conclus que le nombre exact de neurotransmetteurs n'est pas important pour faire fonctionner le cerveau et que dans une simulation, une approximation de la fonction des neurotransmetteurs doit suffire pour faire fonctionner la simulation du cerveau de manière analogue à un cerveau réel. Et quand je dis analogue, ça ne veut pas dire "exactement comme le cerveau de Monsieur X", ça veut dire qu'en première approximation, les commandes opérées par ce cerveau seront probablement aussi intelligentes que les commandes opérées par un cerveau réel.
On s'en fiche. Encore une fois, si on ne sécrète pas d'adrénaline, la commande du cerveau reste "intelligente". L'adrénaline n'est pas indispensable au fonctionnement du cerveau.
A ma connaissance, c'est strictement impossible avec un système digital....
mais tu compares deux jeux de données numériques, alors que moi je compare une donnée numérique à la réalité.Pour reprendre ton analogie avec le climat, on a le même quiproquo. On pourrait faire un simulateur de climat qui soit à 100% algorithmique. Alors bien sûr, on ne parviendra jamais à simuler le climat réel, mais si on fournit 2 ensembles de données :
1) les données de température, pression, nuages etc en sortie du simulateur
2) les mêmes données mais réelles obtenues à partir des capteurs
à un observateur extérieur qui vit sur une autre planète, il sera incapable de dire quelles sont les données réelles et les données simulées, même s'il dispose de données historiques antérieures.
Bon, pour le climat, un simulateur ne fournit pas d'air chaud ou froid, ce qui limite l'analogie. En revanche, le cerveau reçoit et fournit essentiellement de l'information, comme un ordinateur. C'est pour cela que dans ce cas, le terme de simulation est à prendre avec des pincettes. On ne simule pas un traitement de l'information mais on le reproduit, avec plus ou moins d'exactitude.
Or *le cerveau ne réalise pas une simulation numérique du cerveau, il ne contient aucune information sur l'état de ses neurones, tu ne sais pas quels neurones sont actifs, comment ils sont interconnectés, etc....
Les processus effectués par l'ordinateur qui calcule le cerveau, et le cerveau lui-même, sont radicalement différents : l'ordinateur contient l'information sur les neurones, alors que le cerveau contient l'information sur le monde extérieur; et chacun n'a aucune information sur ce qu'a l'autre. L'ordinateur calcule l'évolution des neurones, alors que les neurones traitent l'information du monde extérieur.
Il n'y aurait équivalence entre la réalité et la simulation de la réalité que si les caractéristiques du cerveau etaient entierement décrites par un jeu fini de variables, ce qui n'est pas le cas. C'est ça qui casse l'équivalence entre système réel et simulation du système réel. Tu ne te chauffes pas avec la simulation du Soleil !
Jiav, c'est exactement pour cela que je suis intervenu : ma position est qu'il est impossible d'extrapoler ce travail pour l'utiliser pour créer un robot souris réel. Il n'y a pas de route qui conduise à cela, c'est une impasse.
pas très "pratique"? pourtant c'est bien ce que la sélection darwinienne a sélectionné dans la nature et c'est bien ce qui a conduit finalement à l'intelligence, c'est pas mal comme résultat pour un système "pas pratique" !Pas que je sache (les neurones à spikes ne sont pas très pratiques donc je ne penserais pas qu'ils soient employés pour les robots-blattes), même si ce serait probablement faisable.
Amha ils ne sont pas " pas très pratiques", ils sont simplement inutilisables en pratique dans un système non biologique. Il ne marchent que si ils sont interfacés avec des capteurs biologiques réels qui leur sont physiquement associés, et avec lequel ils soient adaptés. Mais alors, ils sont imbattables !
je veux en venir que ça ne te parait pas poser de probleme, alors que c'est réellement strictement impossible.N'importe quel capteur, sans nécessiter de préciser... mais puisque tu insistes: des caméras, des spectromètres, des potentiomètres, des micros, des thermocepteurs... entre autres. Je ne vois vraiment pas l'intérêt de la question en fait. Où veux-tu en venir?
Une simulation de neurone du type de ce qu'à fait IBM ne peut aucunement "lire" un capteur.
Premièrement parce que si elle simule des neurones de souris, ces neurones sont incapables de lire les capteurs dont tu parles : ils sont faits pour lire des nerfs tactiles, auditifs ou optiques, c'est tout. Tu peux mettre tes doigts sur un chip CCD, tu ne verras bien sur rien, ou te mettre le cable d'un micro dans l'oreille, tu n'entendras bien sur rien.
D'autre part parce qu'ils vivent dans des "mondes" différents : pour etre interfacé avec un capteur, il faut un protocole et en particulier une synchronisation. Or le monde dans lequel vit la simulation n'est en rien synchronisé avec le monde réel : d'ailleurs il a fallu 168 secondes pour simuler une seconde. Qu'est ce que la simulation aurait fait avec 168 secondes d'information lui parvenant sur un capteur pendant que les neurones ne marchaient qu'une seconde? et même si on pouvait régler le processeurs par un facteur 168/5, ce nombre n'est bien evidemment pas constant et il est impossible d'éviter la désynchronisation.
ce que je veux dire, c'est que "calculable" est défini comme : on peut de manière algorithmique calculer le nombre de décimales qu'on veut de manière *exacte. Si tu abandonnes "exact" pour "approché" ou "de manière statistique", alors tous les nombres transcendants sont calculables, ils contiennent 10 % de zéro, 10% de 1, 10 % de 2....Tu fais erreur: c'est bien Pi at large qui est calculable. Gilles... on va pas rester 1000 ans là-dessus: c'est une définition! Pourquoi ne pas demander à un mathématicien de Joseph Fourrier si tu ne me crois pas ?
Le probleme est qu'il n'existe simplement pas de nombre qui code l'état du cerveau, et donc que la définition n'a aucun sens pour le cerveau. Il n'y a pas de manière de calculer de manière exact un nombre qui n'existe pas. Donc il est modélisable, pas calculable.
Mais bien évidemment, il est modélisable comme tout système physique ! je suis tout à fait d'accord que la simulation d'IBM est une modélisation d'un système de neurones, ça ne me pose strictement aucun problème. Ce que je dis c'est que cette modélisation ne remplira absolument pas la fonction du cerveau, qui est l'interfaçage avec le monde extérieur Pas plus que la modélisation du Soleil ne résout nos problèmes énergétqiues.Je persiste en effet. Par contre je suis surpris: es-tu en train d'accepter que le comportement humain est modélisable?
La base de ma position, que vous persistez à refuser, est qu'il n'y a équivalence entre un système physique et la simulation d'un système physique que si l'information qu'on veut extraire est codée de façon numérique exacte dans le système physique. Ce qui est réalisé dans, mais QUE dans les ordinateurs.
Je vais d'ailleurs prendre l'argument inverse en contre plongée : si selon vous il n'y a aucune différence fondamentale entre système numérique et système analogique, pourquoi ne cherche-t-on à reproduire le comportement humain QUE avec des ordinateurs , et pas avec des arbres, des sculptures sur bois, ou des nuages?
la réponse est bien évidemment que les ordinateurs sont *radicalement differents de la plupart des systèmes analogiques parce qu'ils sont programmables algorithmiquement. Alors pourquoi cela ne vous pose aucun problème d'admettre que certaines choses ne peuvent etre faites QUE par des ordinateurs, a cause de leurs caractéristiques, et qu'il n'en est pas de même pour les êtres humains, pour d'autres choses?
Cordialement
Gilles
Si je résume ton argument principal : il ne faut pas confondre le modèle avec l'objet modélisé ou encore, la simulation n'est pas le phénomène.Il n'y aurait équivalence entre la réalité et la simulation de la réalité que si les caractéristiques du cerveau etaient entierement décrites par un jeu fini de variables, ce qui n'est pas le cas. C'est ça qui casse l'équivalence entre système réel et simulation du système réel. Tu ne te chauffes pas avec la simulation du Soleil !
Argument vrai pour toutes les activités scientifiques. Tu peux appliquer cet argument aussi bien à la physique que la biologie ou la chimie. Néanmoins cela n'empêche pas ces sciences d'avancer, la météo permet de prédire et de simuler certains aspects du climat, etc.
Nier l'IA, et la possibilité de fabriquer des modèles du cerveau de plus en plus efficaces, revient à dire qu'il n'est pas possible d'appliquer une démarche scientifique pour décrire le cerveau, ou du moins que cette démarche ne peut pas aboutir.
Tu fais un peu comme si le rôle de l'IA était de produire un cerveau et tu conclus que bien évidemment c'est impossible. Je suis tout à fait d'accord avec toi, et il est impossible de te réfuter là dessus. Pour continuer avec l'analogie sur la météo, ça reviendrait à dire que le but des météorologues est vain, car ultimement ils devraient reproduire une planète avec un climat.
L'object de l'IA, du moins celui que je constate dans mon activité, est de remplacer l'homme pour des activités cognitives plus ou moins simples. La difficulté des activités cognitives traitées ne cesse pas de croître depuis 1950.
En résumé l'IA, la psychologie, la neurologie, sont des sciences comme les autres. Les critiques que tu peux leur appliquer, sont les critiques valables pour toutes démarches scientifiques. Ca fait pas mal de temps que tu argumentes sur le sujet et je ne vois toujours pas pourquoi tu fais un traitement particulier à l'IA.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++