Sinon les multiples tentatives pour "prouver" des algorithmes auraient eu plus de succès !!Envoyé par mmy
Cordialement,
-----
Sinon les multiples tentatives pour "prouver" des algorithmes auraient eu plus de succès !!Envoyé par mmy...
Le point que je cherchais à faire est qu'il est impossible de décrire un algorithme en tant que classe, autrement qu'en en présentant une instance!...
Cordialement,
Cordialement,
Bonjour,Envoyé par ArgyrePour moi, au contraire, cela change tout. Es-tu d'accord sur le fait que dans un traitement de l'information, selon la théorie de la calculabilité, Pi ou racine de 2 (par exemples) existe en tant que symbole, mais pas en tant que suite infinie de chiffres qu'il faut calculer ?
La discussion est intéressante, parce que cela me fait prendre conscience d'une différence fondamentale entre traitement analogique et traitement symbolique. Mais peut-être me gourre-je.
Répondons à ta question: à la lueur de mes dernières réflexion intra-cérébrales, ma réponse est non, je ne suis pas d'accord.
On peut fabriquer une machine analogique qui calcule pi en fabriquant des sinusoïdes, en en prenant le carré et en intégrant. Le résultat est sous forme de deux quantités physiques dont le rapport est pi.
Selon mes définitions, c'est bien un traitement de l'information (traitement de signal ), et ça calcule pi avec une certaine approximation. Et ce n'est certainement pas un calcul symbolique.
Un calcul symbolique peut simuler la méthode, mais ce ne peut pas être considéré comme équivalent.
D'où cela vient? Simplement parce que les calculs analogiques ne symbolisent pas leurs entrées, entrées qui sont des grandeurs physiques, "réelles" à mon sens. Ils les "analogisent", les transforment en d'autres grandeurs réelles qui interviennent dans des traitements.
Cette opération n'a aucun pendant dans l'approche par calcul symbolique. L'étape correspondante, conceptuellement totalement différente, est, comme tu le dis, de traduire les grandeurs physiques réelles d'entrée en symboles.
Cette petite réflexion va très loin, il me semble. Si les calculs symboliques peuvent être aisément munis d'une notion de classe d'équivalence, et sont transportables d'une implémentation à l'autre sans aucune perte, ce qui donne un sens fort, objectif et opérationnel à l'appartenance à la classe, il n'en est pas de même d'un calcul analogique. Un calcul analogique donné est une instance physique unique, non répétable en toute précision, et comparable à d'autres uniquement selon certains critères arbitraires.
J'ai l'impression que cela ressemble fichtrement aux arguments de Gilles, mais ici je les généralisent à toute une classe de traitements de l'information, ce qui me satisfait bien plus que de voir cela comme une caractéristique du cerveau humain...
Cordialement,
Michel
Dernière modification par invité576543 ; 26/06/2006 à 11h47.
Que c'est émouvant d'assister à la conversion d'un hérétique
Bonjour,Envoyé par mmy...Personnellement, je pense qu'Argyre ne devrait pas employer le mot "information", mais parler de "monde relationnel", d'un monde où tout ce qui se passe peut être ramené aux relations entre "choses" dans ce monde. Il y a une relation (!) entre information et relation, que j'ai du mal à développer. Une décision est basée sur une information, parce que cette information est en relation avec l'objectif de la décision (c'est insuffisant et pas clair, je sais... ). Dans un monde entièrement relationnel, ce à quoi réfère l'information, une relation, est la seule chose qui "est"...
il me semble que pour Gilles l'information est "ce qui informe une conscience", elle est donc par définition indissociable d'une conscience.
Une autre définition est celle que tu décris grâce au monde relationnel : information = relation (au sens "lien physique").
J'aurais même tendance à dire information = énergie (ce qui s'échange).
Bonne après-midi,
Gilles
Bonjour,
Encore un problème de signification du mot "information"!
Petit Robert:
"Élément ou système pouvant être transmis par un signal ou une combinaison de signaux (Þ message), appartenant à un répertoire fini; ce qui est transmis (objet de connaissance, de mémoire)".
Prière de ne pas affubler ce terme de toutes sortes de significations abusives, simplement par convenance personnelle!
Amicalement paulb.
Ce n'est pas la référence ultime le P.R.!Envoyé par paulbBonjour,
Encore un problème de signification du mot "information"!
Petit Robert:
"Élément ou système pouvant être transmis par un signal ou une combinaison de signaux (Þ message), appartenant à un répertoire fini; ce qui est transmis (objet de connaissance, de mémoire)".
Prière de ne pas affubler ce terme de toutes sortes de significations abusives, simplement par convenance personnelle!
Si tu vois des "significations abusives", pointe-les, et on prendras les précautions nécessaires.
Modifier les connotations d'un par convenance personnelle est, à mon avis, acceptable du moment que c'est expliqué. L'alternative est l'invention de nouveaux mots, ou l'usage de paraphrases longues et lourdes.
Sinon, la définition citée semble limitative. Pas d'information dans un disque vynil par exemple, ça n'appartient pas à un répertoire fini...
Cordialement,
Je n'avais pas tilté sur le "fini" (discutable en effet), et du coup j'allais répondre que les interprétations du mot "information" dont j'ai parlé collaient avec la définition du PR.Envoyé par mmy...Sinon, la définition citée semble limitative. Pas d'information dans un disque vynil par exemple, ça n'appartient pas à un répertoire fini...
Je crois que la on est d'accord, quoique je n'ai jamais prétendu que l'information analogique etait restreinte au cerveau humain . J'ai dit que le fait que le cerveau humain ne soit pas réductible à une manipulation de symboles discrets le rendait non transportable sur un autre système physique.Envoyé par mmy
J'ai l'impression que cela ressemble fichtrement aux arguments de Gilles, mais ici je les généralisent à toute une classe de traitements de l'information, ce qui me satisfait bien plus que de voir cela comme une caractéristique du cerveau humain...
Cordialement,
Michel
Autrement dit, ce n'est pas le fait de traiter de l'information analogique qui est une caractéristique du cerveau humain, mais le fait de traiter une information HUMAINE (ce qui est une sorte de truisme, mais qui sous -entend que ce type d'information ne peut exister qu'avec le type de structure biochimique dont est fait l'humain, contrairement a comp).
Cordialement
gilles
Certainement pas, mais mieux que le rien de ce fil!Envoyé par mmyCe n'est pas la référence ultime le P.R.!
Il est déjà quelquefois difficile de suivre le vrai jargon scientifique souvent employé inutilement par certains, alors s'il faut encore se battre contre le pseudo, bonjour! N'oublions pas que ce forum s'adresse aussi à ceux qui veulent apprendre, comme moi, et essayons de nous exprimer clairement. Le français est une langue suffisamment riche pour exprimer les nuances les plus subtiles.Si tu vois des "significations abusives", pointe-les, et on prendras les précautions nécessaires.
Pour les deux, je dirais: le moins possible!
Modifier les connotations d'un par convenance personnelle est, à mon avis, acceptable du moment que c'est expliqué. L'alternative est l'invention de nouveaux mots, ou l'usage de paraphrases longues et lourdes.
Évidemment, la définition est assez subtile! Un disque vinyle comporte beaucoup d'éléments sonores qui sont en nombre fini (même si tu analyses chaque oscillation), donc appartiennent à un répertoire fini qu'on n'est absolument pas obligé de constituer physiquement.Sinon, la définition citée semble limitative. Pas d'information dans un disque vynil par exemple, ça n'appartient pas à un répertoire fini...
Amicalement paulb.
Vite une arme anti-conversionEnvoyé par mmycela me fait prendre conscience d'une différence fondamentale entre traitement analogique et traitement symbolique. Mais peut-être me gourre-je.
Un des intérêts de ce passage est de voir que Turing n'a aucun complexe à mettre du hasard dans un MT (ce qui change la nature des MT, puisqu'elles ne seraient pas capable de faire du "hasard vrai" toutes seules).Envoyé par TuringArgument from Continuity in the Nervous System
The nervous system is certainly not a discrete-state machine. A small error in the information about the size of a nervous impulse impinging on a neuron, may make a large difference to the size of the outgoing impulse. It may be argued that, this being so, one cannot expect to be able to mimic the behaviour of the nervous system with a discrete-state system.
It is true that a discrete-state machine must be different from a continuous machine. But if we adhere to the conditions of the imitation game, the interrogator will not be able to take any advantage of this difference. The situation can be made clearer if we consider some other simpler continuous machine. A differential analyser will do very well. (A differential analyser is a certain kind of machine not of the discrete-state type used for some kinds of calculation.) Some of these provide their answers in a typed form, and so are suitable for taking part in the game. It would not be possible for a digital computer to predict exactly hat answers the differential analyser would give to a problem, but it would be quite capable of giving the right sort of answer. For instance, if asked to give the value of pi (actually about 3·1416) it would be reasonable {p.452} to choose at random between the values 3·12, 3·13, 3·14, 3·15, 3·16 with the probabilities of 0·05, 0·15, 0·55, 0·19, 0·06 (say). Under these circumstances it would be very difficult for the interrogator to distinguish the differential analyser from the digital computer.
A se comprendre et à améliorer notre santé mentale. Surtout, à constuire des machines intelligentes qui sont le facteur limitant principal de nos économies -tient j'ai l'impression que Gilles va me tomber dessusEnvoyé par paulbPersonne à ma connaissance n'a encore posé la question suivante: en admettant qu'on puisse réaliser une telle machine, à quoi servira-t-elle?
Es-tu d'accord que le comportement humain est imitable par une MT avec une erreur aussi petite qu'on veut?Envoyé par gillesh38J'ai dit que le fait que le
cerveau humain ne soit pas réductible à une manipulation de symboles discrets le
rendait non transportable sur un autre système physique.
Dernière modification par Jiav ; 26/06/2006 à 15h12.
Pas vraiment (ni arme, ni conversion).Envoyé par JiavVite une arme anti-conversion
Le point que je cherchais à faire est bien différent... Je vais réfléchir un peu plus pour le présenter de manière compréhensible.
Mon point est que la notion de l'équivalence entre machines discrètes est conceptuellement différente de la notion d'équivalence entre machines analogiques, ou entre une machine analogique et une machine discrète.
La première notion est entre machines abstraites (et par rebond entre instances de ces machines abstraites), alors que la seconde n'est applicable qu'à des machines concrètes, en espérant que cela se comprend.
Le passage de Turing se contente de proposer comme critère d'équivalence le second. Ce qui ouvre la porte aux critiques de Gilles, mais c'est la position que j'ai toujours eu.
Le computionalisme me semble refuser la distinction, et tout mettre dans la première notion d'équivalence, ce qui revient à tout voir comme des machines abstraites. C'est en ligne avec le "relationnalisme" d'Argyre, par exemple.
Cordialement,
Non c'est moi qui tire le premierEnvoyé par Jiav...
A se comprendre et à améliorer notre santé mentale. Surtout, à constuire des machines intelligentes qui sont le facteur limitant principal de nos économies -tient j'ai l'impression que Gilles va me tomber dessus
Bon comprendre le fonctionnement de notre mental ok; Pourquoi pas.
Mais améliorer notre économie ?? Selon quelles modalités ?
P.S. : On risque de retomber sur un débat du type "hydrogène" mais il existe au Japon un androide super réaliste ( visuellement, pas intellectuellement ) modelé d'après une célèbre speakrine .
J'ai lu ce W E que son créateur estimait à 300 000 $ son cout de fabrication sans tenir compte de tous les equipements annexes nécessaires à son fonctionnement...
Rebonjour,
Fondamentalement, je suis bien d'accord avec ... tout le monde (Trasnshuman, Paulb et le petit Robert), mais j'ai tout de même quelques remarques :Envoyé par mmyC'est un problème de vocabulaire, entre classe et instance. Ce que tu décris est un concept abstrait, une classe d'équivalence; en tant que classe, un algorithme est indépendant de tout support. Pas d'abus de langage du prof, il décrit une instance et en demande une autre...
Mais cette classe est représentée par des instances matérielles (écriture sur papier, implantation dans machine, etc.).
D'abord, que ce soit sur le papier ou en mémoire de l'ordinateur, il y a une différence entre l'algorithme et le déroulement d'un algorithme. Or, j'ai beau cherché, je ne sais pas vraiment de quoi tu parles ... donc je suis un peu perdu. Tu parles de l'algorithme ou du déroulement de l'algorithme ?
Prenons un exemple, l'algo qui calcule le PGCD. Pour moi, 2 instances, c'est par exemple 1 algo en Pascal écrit sur le papier et 1 algo en mémoire de mon ordi écrit en langage machine. Les 2 appartiennent à la classe des algos qui calculent le PGCD. Maintenant, il y a aussi une instance du déroulement de l'algo dans ma tête quand je suis à la main l'algo écrit sur le papier et 1 autre instance du déroulement de l'algo dans l'ordinateur lorsque je lance le programme.
Donc pour moi il y a 1 classe des algos suites de symboles et 1 classe des algos en train de tourner.
Il est agréable d'entendre un informaticien, ça facilite la compréhension ...Envoyé par MMYLa "réalité" est alors plus facilement attribuable aux instances d'algorithme qu'à l'algorithme comme classe, puisqu'en pratique on dérive la classe des instances, et non le contraire.
Mais bon, donc a priori, tu nies la classe des algos suite de symboles, ou en tout cas tu as une vue
Et oui mais on tourne en rond ! Pour conclure cela, tu es obligé de postuler l'existence d'une machine analogique que tu n'est pas capable de modéliser par des outils mathématiques. Je me rerépète, on ne connait aucune méthode mathématique permettant de calculer le carré de valeurs réelles suivant des sinusoïdes. Donc pour moi, quelque part, tu es obligé de postuler que la réalité physique dépasse la réalité mathématique.Envoyé par MMYOn peut fabriquer une machine analogique qui calcule pi en fabriquant des sinusoïdes, en en prenant le carré et en intégrant. Le résultat est sous forme de deux quantités physiques dont le rapport est pi.
Bonjour,Envoyé par paulbUn disque vinyle comporte beaucoup d'éléments sonores qui sont en nombre fini (même si tu analyses chaque oscillation), donc appartiennent à un répertoire fini qu'on n'est absolument pas obligé de constituer physiquement.
Pas d'accord. Le répertoire potentiel est infini. En plus, le contenu informatif d'un disque unique varie continument, et on peut dire que l'information est distincte à deux instants distincts. Donc, UN disque constitue déjà à lui tout seul un répertoire infini.
Si tu penses différemment, donne moi une définition mathématique d'un répertoire fini pour un support mémoriel analogique... La transformée de Fourier (tu cites "oscillations" ?) n'aide pas, le contenu énergétique dans chaque fréquence est une donnée pouvant prendre une infinité continue de valeurs.
Amicalement,
Michel
Je ne suis pas. Il ne me semble pas avoir besoin d'un tel postulat. Ou alors c'est le mot "modélisable" qui pose problème. Un modèle, pour moi, n'est qu'une approximation (une abstraction, au sens où le modèle ne s'intéresse qu'à certains aspects de ce qu'il modélise, et ignore le reste). Vu comme ça, toute machine est modélisable.Envoyé par ArgyreEt oui mais on tourne en rond ! Pour conclure cela, tu es obligé de postuler l'existence d'une machine analogique que tu n'est pas capable de modéliser par des outils mathématiques.
La particularité des machines discrètes, à mon avis, est que le modèle d'une telle machine est équivalent à la machine.
Ce que je postule est l'existence d'objets qui n'appartiennent pas à la classe des modèles. Ou encore, dont les modèles ne leur sont pas équivalent.
Peut-être bien. Si la "réalité mathématique" est la classe des modèles (définition qui me va très bien), je postule effectivement des objets non mathématiques, dont les modèles ne leur sont pas équivalent.Je me rerépète, on ne connait aucune méthode mathématique permettant de calculer le carré de valeurs réelles suivant des sinusoïdes. Donc pour moi, quelque part, tu es obligé de postuler que la réalité physique dépasse la réalité mathématique.
Mais on rentre dans les arguments classiques liés à différents problèmes comme le déterminisme, la connaissance de l'univers. Etc. Une machine de Turing a un état descriptible en une chaîne finie de symboles, de taille commensurable à la machine. Cet état est physiquement atteignable: je peux "congeler" la machine et prendre le temps d'en extraire l'état, parce que celui-ci ne varie plus dans le temps. De même, on peut ralentir l'horloge autant que l'on veut et examiner à loisir les transitions.
A l'opposé, un dispositif analogique n'a pas un état descriptible de manière commensurable à la machine. Il y a, peut-être (ton hypothèse) un état fini mais qui demande une taille de description bien plus grande, descendant à la quantification ultime de la physique (?). Ensuite, on ne sait pas, en pratique, "congeler" la machine et en extraire l'état. Cela demanderait quoi? le zéro absolu? Et on ne sait pas ralentir le temps pour examiner à loisir les états successifs de la machine.
Même si ton hypothèse (ou du moins ce que je crois être ton hypothèse) est juste, les ordres de grandeurs d'une part, et certaines limites physiques d'autre part, créent un fossé non ambigu entre les deux classes de machine.
C'est une manière de dire que, même si ton postulat de "tout mathématique (discret?)" est correct, la distinction que je propose est d'application pratique. Et toute cette discussion sur les "ordinateurs pensants et le libre-arbitre" n'a plus aucun sens (pour moi) si on ne parle plus d'applications pratiques...
Cordialement,
Là tu m'as un peu coincé. Toutefois, si l'on peut considérer un poème comme un élément unique d'information identifiable (par exemple un code émis par radio signifiant "demain débarquement en Normandie"), un disque peut en comporter un nombre répertoriable.Envoyé par mmyBonjour,
Pas d'accord. Le répertoire potentiel est infini. En plus, le contenu informatif d'un disque unique varie continument, et on peut dire que l'information est distincte à deux instants distincts. Donc, UN disque constitue déjà à lui tout seul un répertoire infini.
Si tu penses différemment, donne moi une définition mathématique d'un répertoire fini pour un support mémoriel analogique... La transformée de Fourier (tu cites "oscillations" ?) n'aide pas, le contenu énergétique dans chaque fréquence est une donnée pouvant prendre une infinité continue de valeurs.
Amicalement,
Michel
Tout réside dans le concept "èlément d'information identifiable". Un mot en est aussi, car il véhicule une information que ne font pas ses lettres prises une à une.
Plein, mais j'aurais pas du.. gardons cela pour une autre discussionEnvoyé par transhumanMais améliorer notre économie ?? Selon quelles modalités ?
Lesquels? C'est encore une fois le problème central pour réfuter le computationnaliste de Turing... A part les O-machines qui sont "construites" exprès pour, je vois rien.Envoyé par mmyCe que je postule est l'existence d'objets qui n'appartiennent pas à la classe des modèles. Ou encore, dont les modèles ne leur sont pas équivalent.
A condition que ce soit un analogique parfait: avec une précision infini. C'est beaucoup l'infini comme précision non?Envoyé par mmyle contenu énergétique dans chaque fréquence est une donnée pouvant prendre une infinité continue de valeurs.
Je ne comprends pas. Je ne dis que cela représente le signal original avec une précision infinie. Au contraire, que l'information effectivement sur le disque (signal original + approximations) n'est pas descriptible précisément de manière finie.Envoyé par JiavA condition que ce soit un analogique parfait: avec une précision infini. C'est beaucoup l'infini comme précision non?
Cdt,
Mais là tu te limites aux paroles, quelque chose de discret. Mais la voix du locuteur, ses intonations, sa prosodie, ne sont pas réductibles aux paroles. Prend une symphonie ou tout autre musique. Une exécution n'est pas réductible à la partition! La subtilité des différences d'interprétation là aussi ne se laisse pas capturée par une description finie.Envoyé par paulbToutefois, si l'on peut considérer un poème comme un élément unique d'information identifiable (par exemple un code émis par radio signifiant "demain débarquement en Normandie"), un disque peut en comporter un nombre répertoriable.
Tout réside dans le concept "èlément d'information identifiable". Un mot en est aussi, car il véhicule une information que ne font pas ses lettres prises une à une.
Cdt,
Le reste du message tentait déjà de répondre...Envoyé par JiavLesquels? C'est encore une fois le problème central pour réfuter le computationnaliste de Turing... A part les O-machines qui sont "construites" exprès pour, je vois rien.
Mais je ne suis pas bien, ici. Tu as cité toi-même un texte de Turing qui répond à ta question, non? Ou y-a-il DEUX computationnalisme de Turing?
Cdt,The nervous system is certainly not a discrete-state machine. A small error in the information about the size of a nervous impulse impinging on a neuron, may make a large difference to the size of the outgoing impulse. It may be argued that, this being so, one cannot expect to be able to mimic the behaviour of the nervous system with a discrete-state system.
mmy => il y a un contresens: "it may be argued that" se traduit par "on pourrait tenter d'objecter que" et non "on peut objecter que" (différence may/can).
Ce texte est en fait une réfutation de l'argument analogique, sur le mode: "on pourrait tenter d'objecter que blabla1, mais non car blabla2"... d'ailleurs si tu pousses plus loin dans le texte le "but" n'est pas très loin
OK. AlorsEnvoyé par Jiavmmy => il y a un contresens: "it may be argued that" se traduit par "on pourrait tenter d'objecter que" et non "on peut objecter que" (différence may/can).
Ce texte est en fait une réfutation de l'argument analogique, sur le mode: "on pourrait tenter d'objecter que blabla1, mais non car blabla2"... d'ailleurs si tu pousses plus loin dans le texte le "but" n'est pas très loin
must, c'est must??It is true that a discrete-state machine must be different from a continuous machine.
Dernière modification par invité576543 ; 26/06/2006 à 16h59.
Vi must c'est must. C'est ce que j'essai de dire à Gilles depuis 1/2 millions d'années: Turing ne dit pas que tous les systèmes sont forcément discrets, il dit qu'ils sont tous imitables par une machine de Turing discrète -avec une erreur suffisement réductible pour ne plus être percevable.Envoyé par mmymust, c'est must??
J'ai bien compris (et de mon point de vue ton point est clair), mais c'est ton "Lesquels? C'est encore une fois le problème central pour réfuter le computationnaliste de Turing... A part les O-machines qui sont "construites" exprès pour, je vois rien." qui me semble être répondu par Turing himself.Envoyé par JiavVi must c'est must. C'est ce que j'essai de dire à Gilles depuis 1/2 millions d'années: Turing ne dit pas que tous les systèmes sont forcément discrets, il dit qu'ils sont tous imitables par une machine de Turing discrète -avec une erreur suffisement réductible pour ne plus être percevable.
Est-ce que Turing ne dit pas justement que le cerveau n'est pas équivalent à une MT? Donc que la modélisation (imitation?) par une MT fait que le cerveau n'est pas équivalent à son modèle?
T'était censé objecter à
Cordialement,Envoyé par mmy"Ce que je postule est l'existence d'objets qui n'appartiennent pas à la classe des modèles. Ou encore, dont les modèles ne leur sont pas équivalent."
Dernière modification par invité576543 ; 26/06/2006 à 17h33.
Ben non: il dit que, malgré que le cerveau ne soit pas exactement une MT, il est quand même imitable par une MT... de tellement près qu'un assez bon modèle sera considéré comme équivalent par toute personne raisonnable.Envoyé par mmyEst-ce que Turing ne dit pas justement que le cerveau n'est pas équivalent à une MT?
Le problème est qu'il n'a pas de démonstration pour ça: c'est une hypothèse dont la vraissemblance ne repose au fond que sur l'absence apparente "d'objets qui n'appartiennent pas à la classe des modèles".
Raison pour laquelle c'est bien àmha le problème central de l'hypothèse de Turing: est-ce que ça existe des sytèmes "dont les modèles ne leur sont pas équivalent"?
Toute proposition bienvenue!
Y'a misfit sur le mot "équivalent". Quand je dit "équivalent au modèle", c'est que l'objet appartient à la classe des modèles de l'objet. C'est le cas pour les machines discrètes, qui sont leur propres modèles (pour moi, le modèle d'un modèle de Z est aussi un modèle de Z; il existe donc des choses qui sont incluses dans l'ensemble de leurs modèles, modèle étant pris comme description symbolique, donc finie).Envoyé par JiavBen non: il dit que, malgré que le cerveau ne soit pas exactement une MT, il est quand même imitable par une MT... de tellement près qu'un assez bon modèle sera considéré comme équivalent par toute personne raisonnable.
Le problème est qu'il n'a pas de démonstration pour ça: c'est une hypothèse dont la vraissemblance ne repose au fond que sur l'absence apparente "d'objets qui n'appartiennent pas à la classe des modèles".
Raison pour laquelle c'est bien àmha le problème central de l'hypothèse de Turing: est-ce que ça existe des sytèmes "dont les modèles ne leur sont pas équivalent"?
Toute proposition bienvenue!
Ce que tu décris n'est PAS cette équivalence, c'est une autre notion (la deuxième notion d'équivalence dans un de mes postes précédents).
Donc, à mon sens, Turing propose le cerveau humain comme quelque chose qui n'est pas équivalent (au sens ci dessus) à un modèle sous forme de MT.
Et je pense (comme Gilles, il me semble) que ta question "est-ce que ça existe des sytèmes "dont les modèles ne leur sont pas équivalent" a une réponse arbitraire, parce qu'elle dépend de l'approximation demandée (cachée dans ton texte dans "personne raisonnable").
A bien regarder, malgré la forme, je me demande s'il y a vraiment un désaccord entre ce qu'écrit Gilles, ce que tu écris et ce que j'écris. Des différences de forme et des incompréhensions, mais peut-être pas de désaccord... La position d'Argyre me semble différente...
Cordialement,
Scusez j'ai un peu de retard ...
Du texte de Turing, je tire que :
a) je ne vois nulle part ou il postule que la réalité
ultime est algorithmique
b) je ne vois nulle part où il suppose qu'un cerveau humain particulier pourrait exactement , ni même (excuse moi Jiav), "d'aussi près qu'on veut", etre approché par une MT (d'ailleurs je pense que Jiav aurait du mal à quantifier cette "proximité", le probleme n'est pas ici de calculer une approximation de Pi !)
c) je pense que l'interet principal de la réflexion de Turing est que justement nous n'avons aucun moyen objectif de caractériser la pensée (contrairement à la précision du calcul d'un nombre), et que le seul critère qu'on aurait d'une machine intelligente est de nous apparaitre comme intelligente : il repose uniquement sur notre jugement subjectif de l'intelligence.
C'est une réflexion tres profonde car elle reconnait l'impossibilité de donner un critère objectif de la pensée : nous n'inférons que les autres humains pensent comme nous seulement de la proximité de leurs comportements avec le notre. De façon générale nous ne prenons comme critère "d'intelligence" de tous les animaux que leur proximité avec le notre. C'est a mon avis l'exact inverse de l'équivalence algorithmique, qui est elle objectivement caractérisée !
Je reconnais que Turing semble penser qu'une MT pourrait a son avis remplir ce critère subjectif. Il ne le justifie aucunement, et surtout pas par le fait que le cerveau soit un système physique modélisable .
Contrairement aux "dérives" de ses héritiers, je ne vois nulle part ou Turing propose que la bonne solution pour une MT "intelligente" serait de résoudre le problème physico-chimique d'un ensemble de neurones ! Bien au contraire, la similitude algorithmique doit etre INDEPENDANTE du support physique !
La ou je pense que Turing a arrêté un peu trop tot sa réflexion, c'est qu'il n'a pas bien analysé la contradiction entre le fait qu'une machine intelligente devrait a la fois avoir une perception correcte du monde , et repondre comme si elle avait des représentations humaines; vous représentez vous la difficulté que vous auriez a vous faire passer pour un dauphin, pas seulement par l'imitation superficielle mais en PENSANT ce que pense un dauphin?
je suis bien d'accord avec Mmy que certaines notions comme l'impénétrabilité, ou la numération , pourraient etre communes, mais avouez qu'une conversation limitée à "un" , "deux", "trois", "dur" et "mou" , est un peu limitée ....
Un, deux, trois, dur, mou, addition, chaud, froid, vitesse, angle, distance, volume, haut, bas, avant, arrière, gauche, droite, direction, poisson, sable, jour, nuit, museau, aileron, queue, mort, bébé, mâle, femelle, naissance, manger, accouplement, mère, allaiter, courant, thermocline, rocher, bateau, filet de pêche, dent, avaler, respirer, air, eau, ..., ..., ..., ..., ...,Envoyé par gillesh38ce que pense un dauphin? (...) qu'une conversation limitée à "un" , "deux", "trois", "dur" et "mou" , est un peu limitée ....
Cdt,
vouui mais je parlais de la machine de Turing, pas du dauphin , tu peux en enlever un bon paquet ! pour les dauphins, j'ai moins de problème conceptuel pour imaginer avoir une conversation vu notre proximité biologique, mais je voulais justement attirer l'attention sur l'ecart qui nous separait deja d'eux ! alors la machine...
Gilles
Dernière modification par GillesH38a ; 26/06/2006 à 22h28.
Bonjour,Envoyé par gillesh38alors la machine...
Je pense qu'il y a un problème d'imagination dans le domaine. "la machine" c'est vague, très vague. Pour avoir une idée de concepts en commun, il faut bien plus qu'une vague description. Une idée plus précise des "sens", des capteurs. Mais aussi une vague idée des buts, de la "fonction" de l'entité.
Les dauphins c'est plus facile, en partie parce qu'ils sont relativement proches de nous, comme tu dis, mais aussi tout simplement parce qu'on sait à peu près de quoi on parle!
Mon point de vue reste inchangé: la nature physique d'une entité a bien moins d'importance que l'expérience commune d'une même réalité physique. Que ce soit dauphin, E.T. ou machines, le problème de communication est là, pas dans la différence entre wetware et software.
Cordialement,