Cela exprime une opinion, et "on" peut toujours exprimer une opinion.
Le problème est que les mots utilisés peuvent être interprétés pour partager l'opinion tout aussi bien que pour ne pas la partager.
Pour toute question, il y a une réponse simple, évidente, et fausse.
je pense qu'il y a une incompréhension persistante sur cette question. Quand on dit que "l'ordinateur est équivalent à une machine de Turing", on ne parle que d'un aspect spécifique très particulier d'un ordinateur, c'est à dire sa conception fonctionnelle qui le fait exécuter un algorithme. On ne parle pas d'autres aspects , qui peuvent être par exemple son poids, ou son caractère esthétique (qu'on peut employer dans d'autres contextes comme "je me suis acheté un nouvel ordinateur super joli qui va très bien avec la tapisserie de mon bureau", ou "mon portable est trop lourd j'en voudrais un plus léger"). Il est absurde de chercher une équivalence avec une MT pour ces caractéristiques de "l'objet" ordinateur.J'ai beaucoup de sympathie pour ton éternel combat contre la confusion entre modèle et réalité. Néanmoins le point important était après la virgule. Tu as le droit de penser que les vaches sont des êtres encore plein de mystère, et c'est certainement une partie de la réalité. Mais si tu penses qu'elles réservent des surprises au point de ne pas être descriptible en terme de machine de Turing, alors tu penses qu'un ordinateur peut en communiquant avec une vache résoudre des problèmes insolubles pour un ordinateur sans accès aux vaches.
Autrement dit l'équivalence n'est pas à chercher avec un OBJET mais avec une FONCTIONNALITE. or une vache n'est pas "faite" pour faire des calculs. Elle peut aussi donner naissance à un veau, ou donner du lait, ou ruminer de l'herbe. Est ce que cette "fonctionnalité" est équivalente à une MT? bien sûr que non.
la question de savoir si le "cerveau" est équivalent à une MT suppose une idée au départ de la fonctionnalité que tu mets derrière la conception du cerveau. Or le cerveau ne fait pas que des calculs formels, c'est tout. Il n'y a aucun comportement "magique" à ne pas faire que des calculs formels, et donc la non équivalence avec une MT n'a rien à voir avec un quelconcque coté "plein de mystère". Le problème est juste dans le concept sous-jacent à la représentation que nous nous faisons des objets, c'est tout.
Bien d'accord, faut se mettre sur le plan des fonctions.
Et la première étape consiste à voir s'il y a consensus que la fonction "traitement symbolique de l'information aboutissant à des décisions" peut être attribuée aussi bien à un cerveau qu'à un ordinateur (physique) (1). Si oui, la question est comment se compare cette fonction commune.
(1) Pour moi, oui, et j'y vois la raison même à ce que des questions ou discussion sur la comparaison existent (et reviennent de façon récurrente sur le forum, tels des marronniers) ! Mais je suis conscient que les termes sont flous, et qu'il n'est pas facile de coller à ces termes ce que racontent les différents auteurs qui publient sur le sujet.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Presque d'accord. Toutefois, produire physiquement du lait peut être considéré comme une fonctionnalité, mais ce n'est pas un comportement. L'équivalence est (et a toujours été) entre les comportements et non les caractéristiques physiques. Comme tu le sais le critère de cette équivalence est l'incapacité pour une troisième partie à distinguer entre un objet d'étude (homme, femme, vache) et l'émulation d'une MT.
Es-tu d'accord avec ce critère et avec la formulation d'Amuanuensis?
de ce point de vue là, il est évident que l'ordinateur est "équivalent" au sens générique qu'il est capable de faire un traitement symbolique de l'information aboutissant à des décisions.Bien d'accord, faut se mettre sur le plan des fonctions.
Et la première étape consiste à voir s'il y a consensus que la fonction "traitement symbolique de l'information aboutissant à des décisions" peut être attribuée aussi bien à un cerveau qu'à un ordinateur (physique) (1). Si oui, la question est comment se compare cette fonction commune.
Et il n'est pas "équivalent" au sens, où, en pratique, les décisions qu'il prend sont facilement discernables (parce que différentes) de celles d'un être humain.
L'exemple le plus simple restant pour moi le test de Turing, ou , en pratique , les "décisions" (réponses ) apportées aux "informations" (questions adressées) sont très vite discernables entre être humain et ordinateur.
Il semble aussi évident que ce sera toujours forcément le cas, puisque l'ordinateur ne peut évidemment pas répondre à la question , par exemple : "est ce que tu arrives à toucher ton coude avec le bout de ta langue?" comme un être humain (si il tente d'expliquer pourquoi il ne peut pas y répondre, il va probablement avoir du mal à se faire passer pour un être humain - et le fait d'avoir à le dissimuler serait AUSSI quelque chose de différent d'un être humain).
Autrement dit le fait que la catégorie "être humain" réfère AUSSI à des réalités non algorithmiques (sa nature biologique) rend FORCEMENT l'ordinateur non équivalent à un cerveau, et donc permet d'associer au cerveau des caractéristiques "non machine indépendantes" - en particulier tout ce qui dans le cerveau traite le fait qu'il appartient à un être humain et non à une machine - information qui est *par nature* d'origine non algorithmique puisque "support dépendant".
une fois qu'on a fait le constat qu'à un certain niveau assez grossier, l'ordinateur peut certainement être comparé à un être humain (par exemple pour faire un partie d'échec) , mais à un autre niveau plus fin, il ne le peut plus, que peut-on espérer d'autre ? il y a aura toujours une frontière où par essence, un ordinateur ne sera pas comme un cerveau, et vice-versa, c'est à dire que (contrairement au monde des algorithmes) , il est impossible de définir précisément un niveau de fonctionnalité où on est sur de l'inter-équivalence formelle entre un cerveau et une machine (alors que c'est possible pour deux ordinateurs).
Fake ou pas, on a déjà des bots de conversation sur les tchat et des recherches menées sur des implémentations d'androïdes.
Si un androïde peut analyser "peux-tu toucher ton coude avec le bout de ta langue ?" et qu'on couple l'expression de sa réponse au pool d'apprentissage d'un bot de tchat, sa réponse serait-elle toujours distinguable de celle d'un être humain biochimique ?
Avis aux amateurs d'expériences de pensée
Attention on repart dans une discussion qui a déjà eu lieu ici un nombre incalculable de fois avec les mêmes arguments (ou des arguments très voisins). Vu la manière dont ces discussions ont évolué je recommande de ne pas poursuivre dans cette voie.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Une question pour Jiav ;
Le fait de "s'acharner" à prouver une équivalence la plus parfaite possible entre la machine de Turing et le cerveau humain est-il entièrement gratuit ou pas?
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus
Je ne peux pas te répondre sans contrevenir à l'intervention de la modération.
Mon message précédent est en vert parce que les modérateurs ont la responsabilité de veiller à éviter toute dérive (et dans le cas présent je sais parfaitement quelles ont été les polémiques tendues sur le sujet, avec les mêmes acteurs) mais j'ai pris la précaution de dire que je "recommandais" pas que je demandais d'arrêter. Cela laisse donc chacun libre d'interpréter jusqu'où il peut aller. À charge de l'un ou l'autre des modérateurs de surveiller les dérapages éventuels si d'aventure ils se produisaient.
PS : ceci en réponse à un signalement et au message 279 de Jiav.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Un ordinateur peut évidement répondre. "Non et toi?"
Est-ce que "s'acharner" à prouver les lois de la thermodynamique est gratuit? Je ne saurais pas trop quoi répondre à ces deux questions. Pourrais-tu reformuler ta question?
Je voulais savoir tout simplement si vous espérez par l'intermédiaire de cette comparaison, arriver à trouver un moyen de guérir certaines pathologies ( et si oui, lesquelles en priorité?). Il me semble évident que plus il y a de similitude entre le fonctionnement d'une MT et le cerveau humain, et plus ou a de chances de pouvoir traiter certains troubles neuro...je ne pense pas ( comme ça, sans argument objectif à donner) qu'on puisse être assimilés à une machine de Turing mais pour le coup, je pourrais presque l'espérer...
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus
Pour mettre mon grain de sel, je pense que la comparaison avec une MT n'a aucun intérêt ni conséquence pratique.
À une époque cela a peut-être servi comme argument à voir le cerveau comme un "mécanisme" dont il était légitime de démonter les rouages. Quand on voit les progrès courants des neurosciences, on est passé bien au-delà d'une telle question.
S'il m'est clair qu'une certaine façon de voir le cerveau et sa fonction est moteur dans les progrès des neurosciences, je n'ai jamais perçu (mais peut-être faute d'avoir lu ce qu'il fallait) que la comparaison au modèle qu'est la MT leur ait servi à quelque chose.
Dans l'autre sens la comparaison avec une MT a certainement un rôle pour "soutenir" les espoirs placés dans l'IA. Mais ce n'est que rhétorique, parce que la meilleure façon (et peut-être bien la seule pouvant obtenir un consensus) de montrer que l'IA peut remplir telle ou telle fonction que certains pourraient penser spécifique à l'homme pour des raisons non de physiologie mais de capacité de traitement (genre "comprendre" le langage naturel, traduction automatique, jouer aux échecs ou au go, faire des expertises, etc.), c'est de le réaliser.
Entre-temps, ça sert de sujet à de longue discussions 1) dans lesquels certains (dont mézigue) apprennent des choses intéressantes (même si mélangées à un tas de redites, comme de l'or au milieu d'un tas de cailloux) 2) qui sont chiantes pour d'autres.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Une meilleure expérience de pensée, du moins qui répondrait mieux à l'objection prévisible de Gilles, serait un ordinateur qui lance une simulation d'un cerveau humain se croyant dans un environnement tel qu'il passe un test de Turing. Le robot peut alors parfaitement savoir qu'il est un robot -donc sans se tromper sur sa nature- et transmettre les réponses de l'humain émulé -qui lui ignore qu'il est une simulation. C'est bien sur équivalent à faire passer le test à un humain simulé qui ignore qu'il est une émulation, ou à un humain émulé qui sait qu'il est émulé mais souhaite le cacher.
Oui bien sur, en particulier les problèmes de santé mentale. PS: tu peux regarder par exemple ici:
http://www.humanbrainproject.eu/medicine.html
http://www.humanbrainproject.eu/brain_interfaces.html
Je comprend ton point, mais d'une certaine façon n'est-ce pas parce que la comparaison avec une MT est acquise qu'on arrive difficilement à en voir la trace? La comparaison avec les MT à donné naissance au cognitivisme et au connexionisme, les deux branches dominantes des neurosciences cognitives, de la même façon que la comparaison avec la machine à vapeur à donné naissance à la psychanalyse. Il est difficile aujourd'hui d'identifier l'influence de la machine à vapeur dans la pratique et l'évolution de cette discipline, de même qu'il est difficile de voir le papier sur lequel est écrit un texte.
Je ne suis pas convaincu. Pour moi la comparaison avec des ordinateurs réels et ce qu'ils faisaient a été plus que suffisante pour ce que tu indiques, pas besoin d'invoquer un truc aussi précis que la comparaison avec le modèle MT. Et je refuse l'amalgame entre les deux. Mais c'est hors sujet, nul besoin de visiter plus avant ce diverticule.
PS : Les deux liens donnés renforce le sentiment d'amalgame. Je n'y vois à rapide vue aucune référence à la MT. J'ai l'impression que tu cherches à vendre "comparaison avec dispositif artificiel"= "comparaison avec le modèle MT".
Dernière modification par Amanuensis ; 06/04/2012 à 16h37.
Pour toute question, il y a une réponse simple, évidente, et fausse.
Turing, lorsqu'il a conçu sa machine, ne cherchait pas à créer l'ordinateur ou un langage de programmation. Sa machine ne comporte que 5 lettres, rien d'autres. Toutes les instructions se déduisent de la combinaison de ces 5 lettres. Il voulait faire la machine la plus parcimonieuse qui soit. Et à partir de celle-ci, montrer l'indécidabilité.
Or la chose curieuse, c'est que tous les langages de programmation moderne, de l'assembleur à matlab, reprennent les concepts parcimonieux de Turing.
Personne n'a trouvé rien de mieux pour programmer.
Cela serait plausible, au détail près qu'à la naissance de ces disciplines (disons McCulloch et Pitts 1943) l'existence des ordinateurs était un secret militaire. Je ne pense pas qu'ils avaient accès à ça. Mais bon pas de quoi en faire une appendicite effectivement.
évidemment il "peut" répondre ça : la question est par quel genre d'algorithme il y arrive ? que répondrait-il alors à "est ce que tu peux toucher ton poignet avec le bout de ta langue ?", ou encore "d'où venaient tes grands parents ?" , "tu aimes les épinards ?" , "es tu pour l'enseignement du créationnisme au lycée ?", etc ...
par quel genre d'algorithme "équivalent au cerveau" peux tu assurer que les réponses seraient indiscernables pour un ordinateur et un humain ?comment définis tu " l'équivalence" dans ce cas-là ?
Merci.
Est-ce qu'on est arrivé à faire des modèles réalistes des différentes pathologies citées dans les références que tu as données? ( par "réaliste" ( parce que je vois venir la question...) j'entends qui pourrait tromper un neurologue et/ou un psychiatre par exemple dans la situation où il dialoguerait par l'intermédiaire d'un système de tchat avec le "sujet"?), et réaliste au point où il pourrait faire le diagnostic de la pathologie? Ou au moins d'une? Et si non, qu'est-ce qui bloque? La compréhension chez l'humain ou bien la programmation de la machine?( Turing ou autre je m'en contrefiche! )
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus
ce qui bloque c'est l'incertitude et l’incomplétude
En science on compte les expérience qui corrobore mais que fait on de celle qui ne corrobore pas
on leur dit vous n'avez pas respecté le protocole ?
C'est comme si à pile ou face on ne comptait que les piles
La réalité est beaucoup plus flou que ce que la science utilise pour ses fondements.
car elle se cache derrière nos sens et on ne peut prouver qu'il y a quelque chose plutôt que rien.
C'est le contraire. La science expérimentale ne cherche pas à corroborer, mais à trouver du "nouveau", c'est à dire des résultats qui ne corroborent pas.
On vérifie très soigneusement s'il n'y a pas d'erreur expérimentale, on répète l'expérience avec des différences (par d'autres labos par exemple), une fois qu'on a un dossier solide montrant une discordance avec les prédictions, on publie. Les expérimentateurs continuent à chercher des erreurs expérimentales, et les théoriciens cherchent un nouveau modèle qui couvre tous les résultats obtenus (ou ramène à la surface un modèle spéculatif proposé auparavant et qui se trouve coller ). (C'est schématique, mais c'est l'idée).mais que fait on de celle qui ne corrobore pas
Cela fait des dizaines d'années et plus que la science marche comme ça...
Dernière modification par Amanuensis ; 06/04/2012 à 18h11.
Pour toute question, il y a une réponse simple, évidente, et fausse.
une machine qui parle
elle commence par explorer nos textes
pour chaque mot (groupe de caractère délimité par des blancs) elle compte le nombre d'occurrence de chaque mot à droite
pour parler
elle prend un mot au hasard
et met à sa droite le mot qui a la plus grande occurrence à sa droite dans nos textes
Je crois que c'est assez simple pour que je m'amuse à le faire trop curieux de ce qu'il va dire
en plus il évoluera chaque fois qu'il lira un nouveau texte ou un texte qu'il a déjà lu (renforcement)
Le problème doit être la taille de la mémoire.
Je crée un table mot avec un numéro
et une table droite avec un numéro de mot , un numéro de mot à droite , le nombre de fois qu'on la trouvé à sa droite
ya plus qu'a faire la procédure qui lit un texte
et celle qui parle
J'ai fait le lecteur
reste à lui trouver son premier texte à mon bébé
Vous avez pas une idée ?
Code:Private Sub Commande0_Click() Nom = GetNomRep("") Open Nom For Input As 2 ' Ouvre le fichier texte. Do Until EOF(2) Line Input #2, t b = Split(t, " ") n = UBound(b) g = 0 For I = 1 To n C = b(I) req = "select N from Mots where Mot=""" & C & """" Set t = CurrentDb.OpenRecordset(req) If t.EOF Then Set t = CurrentDb.OpenRecordset("Mot") t.AddNew t!Mot = C t.Update End If If g > 0 Then Set ta = CurrentDb.OpenRecordset("select Nbre from Droite Where IdMot=" & g & " and IdDroite=" & t!n) If ta.EOF Then Set t = CurrentDb.OpenRecordset("Droite") ta.AddNew ta!IdMot = g ta!IdDroite = t!n ta!Nbre = 1 ta.Update Else ta.Edit ta!Nbre = ta!Nbre + 1 ta.Update End If End If g = t.n Next I Loop Close #2 End Sub
Je ne partage pas tout à fait votre point de vue qui n'est qu'une métaphore de la fourmillière.
On vérifie très soigneusement s'il n'y a pas d'erreur expérimentale, on répète l'expérience avec des différences (par d'autres labos par exemple), une fois qu'on a un dossier solide montrant une discordance avec les prédictions, on publie. Les expérimentateurs continuent à chercher des erreurs expérimentales, et les théoriciens cherchent un nouveau modèle qui couvre tous les résultats obtenus (ou ramène à la surface un modèle spéculatif proposé auparavant et qui se trouve coller ). (C'est schématique, mais c'est l'idée).
Cela fait des dizaines d'années et plus que la science marche comme ça...
Il y a une babélisation de la recherche notamment en mathématiques. Il n'y a pas d'axes de recherche comme à l'époque de Bourbaki.
Perelman : En dehors de la fourmillière
Grothendieck : En dehors de la fourmillière
Einstein (même si je sais que vous ne l'appréciez pas) : En dehors de la fourmillière en 1905
Vous semblez oublier un paramètre capital : le génie!
L'humain est imprévisible et unique, nous pouvons prédire un comportement seulement par des probabilités et donc sans aucune certitude. Nos comportements s'adaptent en permanence en fonction de la situation dans laquelle nous tenons, combien de situations différentes seulement en une journée?
Pensez-vous réellement que les nouvelles technologies puisse arriver jusque là?