Cf page 5: mon opinion personnelle est que CTD ne fait que préciser ce qui est déjà dans CT, mais je reconnais qu'il y a des auteurs qui 1) comprennent le sujet 2) sont en désaccord sur ce point (par exemple voir ici ou là).Ce que dit Deutsch est simplement une déduction de la thèse de CT : il comprend que si tout ce qui est calculable est calculable par un ordinateur, alors cela revient à dire qu'un ordinateur peut simuler tous les processus physiques.
Je ne suis pas spécialiste, donc Jiav pourra me corriger le cas échéant.
ah bon? pourquoi tu as dit alors au #318 :
manifestement déjà tu n'es pas en accord avec toi-même en moins d'une page, ça ne facilite pas la conversation. Mais bon comme personne ici n'a été capable de me définir exactement ce que c'était qu'un "ordinateur", tout en soutenant mordicus que bien évidemment, le cerveau en est un, ce flou ne m'étonne pas vraiment....
pourquoi tu veux que ça me "chagrine" étant donné de toutes façons que ça n'existe pas (et ça n'existera pas), pas plus que les rennes du Père Noel, "une simulation du cerveau" ? j'ai passé depuis longtemps l'âge de croire aux contes de fées et ça ne me chagrine pas qu'elles n'existent pas! (contrairement à certains peut etre ?)Ou plutôt si, je le comprends bien dans le cas de la simulation du cerveau, ça vous chagrine qu'il n'y ait pas d'émergence de quelque chose selon votre cosmogonie personnelle
ah excuse moi mais depuis qu'on parle d'une IA forte , tu ne voudrais pas qu'elle "s'insère dans le réel" , ton IA ?alors vous vous voulez absolument qu'en plus d'être une simulation parfaite elle doive s'insérer dans le réel comme si de rien était
parce que tu si tu fais juste une simulation d'un cerveau qui ne s'insère nullement dans le réel, comment sauras tu si elle a une conscience ou non? cf la question sur les dauphins : si tu fais la même chose pour un cerveau de dauphin, comment sauras tu qu'elle a une conscience de dauphin ou non ?
tu vas me dire : regarde j'ai simulé un cerveau et ça a de la conscience. Et moi je te dis : non tu as simulé un cerveau mais ça n'a pas de conscience, ça ne répond à rien que je lui demande et absolument rien ne me dit que c'est "conscient". Comment comptes tu me prouver que c'est toi qui as raison ?
pour le coup, le sens de ces assertions est bien trop obscur pour moi pour que j'y tente d'y répondre, désolé., ce qui vous permet de trouver un argument contre la possibilité de cette simulation. Mais de remplacement il n'a jamais été question. Ni d'émergence de quoi que ce soit, d'ailleurs, qui si cela était, émergerait aussi de la simulation en temps que simple description ou point de vue particulier. La viscosité n'est rien d'autre qu'une description d'un comportement d'ensemble dynamique, et ne rajoute rien au système étudié qui est déjà complet en lui-même.
tiens si tu décides de répondre jusqu'au bout aux questions qu'on te pose, tu pourras peut etre répondre à celle là : si tu supposes que le cerveau est un ordinateur, quel est l'ordre de grandeur du nombre de bits nécessaire pour décrire son état et l'algorithme déterminant son évolution selon toi ?
et si tu simules ce qui est nécessaire à la fusion nucléaire, est ce que tu fais de la fusion nucléaire? bien évidemment , la réponse est non. Et je t'ai déjà expliqué pourquoi :la notion de conscience fait appel déjà la conscience de ce qu'on est, et n'est donc pas un processus algorithmique indépendant du support. Une machine calculant un cerveau humain qui est en train de penser qu'il est humain ne peut pas etre consciente, puisqu'elle n'a pas conscience de ce qu'elle est elle. (c'est à dire d'être une machine).
belle galipette rhétorique. Est ce que tu argumentes que pour répondre à la question "le cerveau est-il un ordinateur" , commencer par donner une définition cohérente de ce qu'est un ordinateur n'a aucune importance, et est juste de la philosophie ?À quel moment je dis ça ? Je dis que le fait que l'on réponde oui ou non à cette question n'a strictement aucune importance et relève de la philosophie. Cela n'a aucune retranscription dans la réalité physique, ce ne sont que des mots. C'est du même niveau que : peut-on dire que l'Univers a un but puisque nous, humains, avons un but et faisons partie de l'Univers ? Répondre à cette question de façon positive ou négative n'aura aucune incidence sur les lois physiques que nous connaissons.
franchement autant pisser dans un violoncelle.J'explique depuis des pages que je me fiche du principe CTD parce que ce n'est pas parce qu'on simulerait un cerveau (même si c'était possible) que ça produirait une IA consciente, donc arrête de me bassiner avec CTD. C'est juste un écran de fumée intellectuel qui permet de frimer avec la méca Q et la calculabilité, mais qui n'a rien à voir avec les IA qu'on cherche à construire, qui n'ont rien à voir avec la simulation physique d'un cerveau. Et encore moins celle proposée par Bounoume dans son premier message, si tu le relis.Donc, encore une fois, si vous avez un problème avec le principe de CDT, libre à vous de démontrer que l'on peut calculer des fonctions qui ne sont pas calculables par un ordinateur. Mis à part ça, vous pouvez broder autant que vous voulez...
mais tu as le droit de te tromper, on est là pour discuter et la discussion peut amener à changer d'avis, ça n'a rien d'humiliant.Encore une fois, je n'ai jamais dit ça et répondre par oui ou par non à votre question initiale m'est complètement égal. J'ai dit oui sans y réfléchir, simplement pour comprendre ou vous voulez en venir.
Donc finalement tu penses que non, tout n'est pas un ordinateur ?
et donc qu''est ce qui peut etre considéré comme un ordinateur? Quel est le critère à satisfaire selon toi ?
oui bien sur, CTD, c'est pas que des mots, c'est à la base de plein de réalités physiques des choses; d'ailleurs j'ai plein d'objets dans ma cuisine qui fonctionnent grâce au CTDVous êtes au niveau des mots, donc dans l'épiphénomène. Je suis au niveau de la réalité physique des choses. Le fait simple, c'est que personne n'a jamais été en mesure de prendre en défaut le principe de CDT.
tant mieux pour toi, donc tu te fiches de la question de l'IA, puisque comme j'ai expliqué en long en large et en travers, le problème réel de l'IA n'a strictement rien à voir avec CTD. Mais pourquoi postes tu sur ce fil alors ?Que d'autre part, sa remise en cause nécessiterait l'apparition d'une nouvelle physique et un remaniement profond de celle que nous connaissons aujourd'hui. C'est tout ce que j'ai besoin de savoir. Le reste, je m'en fiche.
euh excuse moi mais je n'ai pas demandé dans le message cité ce qu'était un ordinateur universel, mais ce qu'était un ordinateur. Je ne demande pas ce qui caractérise la classe restreinte des ordinateurs universels parmi celle plus large des ordinateurs, mais ce qui caractérise la classe restreinte des ordinateurs parmi la classe plus large des systèmes physiques; tu ne réponds pas à cette question.Je rappelle quand même que vous reconnaissez vous-même dans votre message 217 qu'il ne s'agit que d'une question de principe (donc fondamentalement superflue) : http://forums.futura-sciences.com/de...ml#post6144051
Mais allons tout de même dans votre sens, simplement pour le fun : "Si on admet que tout ce qui existe est un ordinateur, la spécificité vient du fait que les programmes et les capacités de calculs ne sont pas les mêmes."
Voilà ce que j'ai dit dans mon message 286 pour développer un peu plus. Où est la contradiction ? Ce qui distingue un ordinateur universel des autres ordinateurs, c'est qu'il peut tout calculer.
c'est absurde , si CTD était juste une déduction de CT, il n'y aurait pas besoin de définir une autre thèse .En quoi cela contredit-il les propos de l'auteur ? Ce que dit Deutsch est simplement une déduction de la thèse de CT : il comprend que si tout ce qui est calculable est calculable par un ordinateur, alors cela revient à dire qu'un ordinateur peut simuler tous les processus physiques.
Je ne suis pas spécialiste, donc Jiav pourra me corriger le cas échéant.
Dernière modification par Archi3 ; 08/05/2018 à 05h37.
et sur ce plan , je suis 100 % d'accord avec ce que dit une des références donnée par Jiav
effectivement pour moi CT et CTD ne parlent pas du tout de la même chose et employer les mêmes noms ne fait qu'entretenir la confusion : CT étudie les propriétés mathématiques des algorithmes ("qu'un homme peut faire à la main et au crayon ") et n'a aucune prétention à décrire le monde physique, alors que CTD émet une assertion forte (et pas du tout "prouvée") sur la nature du monde physique. Ca n'a juste rien à voir ...The Church-Turing thesis is a thesis about the extent of effective methods, and therein lies its mathematical importance. Putting this another way, the thesis concerns what a human being can achieve when working by rote, with paper and pencil (ignoring contingencies such as boredom, death, or insufficiency of paper). The thesis carries no implication concerning the extent of what machines are capable of achieving (even digital machines acting in accordance with “explicitly stated rules” (Gregory 1987)). Because, among a machine’s repertoire of basic operations, there may be operations that a human being working by rote with paper and pencil cannot perform.
Essentially, then, the Church-Turing thesis says that no human computer, or machine that mimics a human computer, can out-compute the universal Turing machine. However, a variety of other propositions, very different from the Church-Turing thesis properly so called, are from time to time dubbed the Church-Turing thesis (or Church’s thesis)—sometimes, but not always, with accompanying hedges, such as ‘strong form’ and ‘physical version’. For instance, the claim that the universal Turing machine can do any mathematical task that can be done by any machine—a claim very different from Turing’s—is sometimes referred to as the Church-Turing thesis.....
I can now state the physical version of the Church-Turing principle: “Every finitely realizable physical system can be perfectly simulated by a universal model computing machine operating by finite means”. This formulation is both better defined and more physical than Turing’s own way of expressing it. (Deutsch 1985: 99)
The latter is indeed “more physical” than Turing’s thesis. It is, though, a completely different claim from Turing’s own, and so it is misleading to present it as a “better defined” version of what Turing said. Turing and Church were talking about effective methods, not finitely realizable physical systems. Although the phrase “physical version of the Church-Turing thesis” is reasonably common in the current literature, it is better avoided, since neither Church nor Turing endorsed, nor even formulated, any such proposition.
Nos pensées, le concept de nombre et les mathématiques en général, émergent de nos cerveaux. Ce sont donc des phénomènes physiques ? Tous les êtres vivants partagent cette particularité d’être majoritairement constitués d’eau. L’émergence des nos expériences conscientes viendraient d'un arrangement des molécules d'eau ?
Cordialement
Dernière modification par Paradigm ; 08/05/2018 à 07h59.
OK, ces deux messages m'avaient échappé, merci.
Mais dis, puisque tu dis ça ;tu admets donc que toute cette discussion ne repose que sur des bases très instables voire carrément "douteuses", des deux côtés?Oui, le CTD ne permet pas de s'assurer que le principe métaphysique 'la conscience est un phénomène physique, localisé dans le cerveau' soit vrai.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
oui enfin "des deux cotés", tu dis ça pour ne fâcher personne ?
parce que moi, ce que je dis juste, c'est que le principe CTD ne peut pas etre invoqué pour prouver quoi que ce soit sur la possibilité de réaliser une IA forte à partir de n'importe quel ordinateur. Comme c'est l'expression d'un doute, si c'est "douteux" d'un coté, ma proposition devient vraie ... sans aucun doute
Dernière modification par Archi3 ; 08/05/2018 à 08h35.
et je suis en désaccord avec Jiav quand il dit :
artifice rhétorique consistant à dire que celui qui ne croit pas à l'applicabilité du CTD pour l'IA croit à la magie. J'ai donné ici une position qui :Cela rejoint la question de paradigme sur l'aspect métaphysique. Oui, le CTD ne permet pas de s'assurer que le principe métaphysique 'la conscience est un phénomène physique, localisé dans le cerveau' soit vrai. C'est ce que j'essayais de dire quand je mentionnais que le CTD n'est pas utile pour quelqu'un qui penserait que la conscience est phénomène miraculeux.
* n'implique pas que CTD soit faux (meme si je ne suis pas sur de sa véracité)
* ne fait pas de la conscience un phénomène "magique"
* n'implique pas qu'il soit forcément possible de construire une IA forte (et encore moins "humaine") avec un ordinateur.
Cette position n'a été démentie par personne. Jiav a fait une objection ici, et ici , et j'ai répondu à cette objection ici. Depuis il n'y a pas de réponse. Je continue à donc à penser que ma position est tout à fait soutenable sans contradiction.
je ne cherche pas à falsifier votre pensée, je cherche à la comprendre. Je vous ai expliqué pourquoi dans mon vocabulaire, je n'appelle pas ça un "remplacement", puisque pour moi un remplacement, c'est une substitution dans une situation équivalente . Or la vraie huile ne sert que dans les vrais moteurs, et la simulation d'une huile ne sert que dans la simulation d'un moteur. Les deux ne sont aucunement "substituables " par l'autre, il ne s'agit donc pas d'un "remplacement". C'est juste ce qu'on appelle une simulation, quoi. Comme la simulation d'un cerveau (si tant est qu'on puisse la faire) ne serait qu'une simulation.
Désolé, j'ai démenti cette position au message #309 et vous avez tenté de combattre mon argumentation avec votre exemple bancal de viscosité qui n'a rien à voir, jusqu'à finir par m'attribuer des pensées qui ne sont que les vôtres. Votre concept d'émergence tel que vous le décrivez fait de la conscience un phénomène magique.
Bonjour,
je suis aussi en désaccord avec Jiav quand il dit "que le CTD n'est pas utile pour quelqu'un qui penserait que la conscience est phénomène miraculeux." Si A alors B suppose A vrai pour impliquer avec certitude via un raisonnement valide B vrai. Sinon Si A est faux via un raisonnement valide on peut déduire B vrai ou B faux.
Ce qui contient deux aspects
- Supposé A vrai ce que je rejette en mentionnant que les effets ne sont (au sens identité) ni les corrélats, ni les causes. La démarche d'objectivation retire le sujet et donc l’expérience consciente qui va avec. Le fait de ne pas accepter que la conscience phénoménale ne soit pas un phénomène physique ne veut pas dire que l'on croit à la magie. juste que l'on accepte que nous avons un mystère non encore élucidé.
- Partir du principe que A est vrai et ne s'intéresser qu'au raisonnement (l'implication) qui conduit à dire que B est vrai. C'est la démarche me semble t-il d'Archi3 de chercher à montrer que le raisonnement n'est pas valide (l'implication et non la véracité de A).
Cordialement
Mais en discutant avec vous, je commence à comprendre pourquoi autant de gens semblent penser , dans d'autres domaines, que les simulations numériques sont équivalentes à la réalité ...
votre message #309 ne montre pas une contradiction dans ma position : une contradiction , c'est quand on comprend bien le sens de chaque proposition mais qu'on montre qu'elles sont contradictoires, c'est à dire qu'il est impossible qu'elles soient vraies en même temps.Désolé, j'ai démenti cette position au message #309 et vous avez tenté de combattre mon argumentation avec votre exemple bancal de viscosité qui n'a rien à voir, jusqu'à finir par m'attribuer des pensées qui ne sont que les vôtres. Votre concept d'émergence tel que vous le décrivez fait de la conscience un phénomène magique.
Ce que vous faites n'est pas cela : vous exprimez un désaccord sur une proposition. C'est une position logique différente. Maintenant votre assertion est que "l'émergence est un phénomène magique". A mon avis, peu de gens partagent cet avis, le concept d'émergence est largement utilisé pour tout un tas de systèmes physiques sans que ce soit de la "magie".
Je vous signale par ailleurs que dire que la conscience vient d'un algorithme, c'est aussi une forme d'émergence, puisque vous reportez la question sur savoir pourquoi certains algorithmes produiraient de la conscience et pas d'autre. Ce n'est ni plus ni moins mystérieux que de dire que certains systèmes physiques produisent de la conscience et pas d'autres, et vous êtes de toutes façons forcé d'invoquer une sorte "d'émergence", dans tous les cas. Votre objection n'est donc pas valable.
Je suis en phase avec tout cela.et je suis en désaccord avec Jiav quand il dit :
artifice rhétorique consistant à dire que celui qui ne croit pas à l'applicabilité du CTD pour l'IA croit à la magie. J'ai donné ici une position qui :
* n'implique pas que CTD soit faux (meme si je ne suis pas sur de sa véracité)
* ne fait pas de la conscience un phénomène "magique"
* n'implique pas qu'il soit forcément possible de construire une IA forte (et encore moins "humaine") avec un ordinateur.
Cette position n'a été démentie par personne. Jiav a fait une objection ici, et ici , et j'ai répondu à cette objection ici. Depuis il n'y a pas de réponse. Je continue à donc à penser que ma position est tout à fait soutenable sans contradiction.
Même si je peux exprimer certains points de manière différente ou complémentaire.
Faux ou pas, le CDT ne peut être mis en équivalence avec les autres principes physiques tel qu'il a été présenté.
Contrairement aux autres, il n'y a ni observation, ni expérience qui en démontre la pertinence.
J'ai aussi appuyé l'idée que la "conscience" ( même si un consensus sur sa définition semble difficile ) n'est pas de l'ordre du magique mais de l'ordre d'une émergence lié à la complexité des process cognitifs.
A ce titre , Bounoume semble associer le terme IA forte avec "capacités cognitives" comparables.
Ce qui mérite une réflexion.
Pour ma part, une IA sera forte quand elle sera capable par exemple de se poser elle-même des questions, sans demande, et sans être simplement une méga base de données avec une architecture évolutive, et des capacités de raisonnement jugés pertinents.
Et que, dans ce cadre ou d'une manière générale, elle pourrait reconnaître s'être trompée dans son jugement.
( me fait penser à l'ordi de 2001 )
Du fait, je n'exclus pas l'idée ( à terme ) d'une IA forte, mais pas parce qu'on l'aura "programmée" comme telle.
Pour ma part, je ne pense pas non plus qu'il y a quelque chose de magique dans la chimie organique qui la rendrait seule capable d'engendrer de la conscience, et je n'ai jamais rien dit de tel.
Ce que je pense en revanche, c'est que la conscience, si elle se manifeste, ne peut être que particulière au système physique qui l'engendre. C'est pour ça qu'elle n'est pas pour moi "algorithmique", et j'ai expliqué pourquoi : si elle était algorithmique, une machine qui simulerait le cerveau humain penserait qu'elle est humaine, alors qu'on attendrait d'une machine consciente qu'elle pense qu'elle est ... une machine (comme les robots de Star Wars qui savent qu'ils sont des robots !). Mais du coup on n'a pas d'idée de savoir comment faire une machine qui pense qu'elle est une machine, puisqu'on n'a pas "d'algorithme" à copier , vu qu'il n'en existe pas. Et à mon avis, une machine qui penserait qu'elle est une machine serait incommunicable à l'être humain, donc on ne pourra jamais le savoir ce qu'elle "pense" (et si elle pense). Les machines actuelles ne sont pas construites pour penser qu'elles sont des machines, mais pour communiquer avec l'être humain : c'est donc pour moi une impasse pour l'IA forte.
L'IA forte ou très forte, ce ne serait pas une IA qui se présenterait (je ne sais comment dire) comme un humain, avec ses émotions et son manque de fiabilité qui donc aurait l’utilité d'un autre humain ?P Et à mon avis, une machine qui penserait qu'elle est une machine serait incommunicable à l'être humain, donc on ne pourra jamais le savoir ce qu'elle "pense" (et si elle pense). Les machines actuelles ne sont pas construites pour penser qu'elles sont des machines, mais pour communiquer avec l'être humain : c'est donc pour moi une impasse pour l'IA forte.
Je ne serais pas aussi drastique. ( impasse)
Je voulais juste dire que mon analyse actuelle est de penser que si elle devient forte, ce serait par elle-même. ( et comment, je n'en sais rien, en tout cas pas parce qu'elle a été construite ainsi )
Quand à la communication, je ne saisi pas bien ce que tu veux dire, donc je ne me prononce pas.
Pas forcément. C'est une IA qui serait capable d'accomplir les mêmes tâches que les humains. C'est une définition assez floue tout comme d'ailleurs le sont les moyens à mettre en oeuvre.
A partir de là, on peut tout imaginer ce que la SF a d'ailleurs déjà fait.
Bah je ne sais pas, ça dépend de la définition qu'on prend et comment on l'imagine !
de fait, comme on n'a aucun exemple réel à part l'humain, ça relève plus du domaine de l'imagination que du raisonnement scientifique. Donc en gros, quand on pense "IA forte", on pense à ce qu'on a lu ou vu en science fiction : les robots de Star Wars, Blade Runner, ou autres nouvelles de Philip K Dick ...
En général, ce qu'on imagine, c'est des robots qui pourraient parler avec nous avec un vocabulaire tout à fait humain, mais en sachant qu'ils ne sont pas humains. Ca contredit donc l'idée de la "simulation parfaite d'un cerveau humain" qu'on invoque avec CTD, c'est pour ça que je pense que CTD n'est pas pertinent. Mais du coup on n'a aucun théorème ou résultat scientifique rigoureux qui permette d'affirmer que ce type de truc existe (un truc qui parle humain sans etre humain et qui manifestement "comprend" ce qu'il dit). C'est juste fondé sur nos lectures de SF.
Edit : croisement avec PM42
le problème est que pour savoir si le truc en face est conscient, il faut une communication. Ce n'est pas en monitorant l'activité électrique que tu vas le savoir ! ca se voit dans la SF : tous les robots conscients communiquent forcément avec les humains, sinon comment le savoir ? et ce n'est pas du tout évident qu'une conscience non humaine puisse vraiment faire ça (en tout cas rien ne le garantit. On a du mal nous à communiquer avec les chauve-souris ...)
C'est en effet ce que je me demandais et si à vouloir faire "mieux", on allait faire "pareil".
Mais si on ne fait pas, on ne saura pas ; en tous cas, essayer.
Si on y arrive en reproduisant exactement un cerveau et un corps, il est en effet probable que l'on reproduise aussi les limites des humains. Mais ce serait intéressant quand même pour de nombreux usages.
Après, la question se pose de savoir si on serait capable d'optimiser/sélectionner ce genre d'IA pour fabriquer un "super-humain" (ok, le terme est mal choisi) : il ressentirait des émotions mais les contrôlerait bien, il serait plus calme, il aurait moins de pulsions violentes, etc.
Bref, une forme de rêve eugéniste appliqué à l'IA ou pour prendre un autre exemple, la même chose que ce qu'on a fait avec des espèces animales par domestication puis sélection.
Si on construit une IA par d'autres moyens que la reproduction de la biologie, alors tout est envisageable y compris par exemple une forme d'incommunicabilité (là aussi, le sujet a été traité dans la SF).
Je n'ai pas cherché à établir une contradiction car pour moi une ou des propositions ne sont pas scientifiques. Je ne me place par sur le terrain de la logique. Je n'ai pas cherché à savoir si vos propositions forment une logique cohérente, je vois simplement qu'elles ne peuvent entrer dans le cadre de la discussion CTD (car non scientifiques) et c'est ce que j'ai cherché à vous montrer.
Ce n'est pas ce que je veux dire si c'est ce que vous avez compris. Je dis que l'émergence telle que je comprends que vous la présentez, en ce qui concerne la conscience dans vos propositions, est un phénomène magique.
Pas du tout. Encore un fois, vous m'attribuez des concepts qui sont les vôtres. Je n'ai jamais parlé d'émergence pour qualifier la conscience, j'ai même parlé d'illusion en ce qui la concerne (si elle doit être un "phénomène magique" ou échapper à CTD ce qui pour moi est la même chose). L'émergence n'est pour moi qu'une question de changement point de vue, un zoom effectué sur des propriétés dynamiques d'un système.
Il serait absolument non scientifique de dire par exemple que la conscience émergerait (selon votre terminologie) d'une configuration de particule à un instant t donné (vous ne l'avez pas dit). Ce ne peut être qu'une propriété dynamique (vous devez l'admettre). Or, si mon système est parfaitement simulé d'un point de vue physique, son comportement dynamique également, et donc, toute propriété émergente (selon votre terminologie) également.
Je ne partage pas ce point de vue. Une machine qui simulerait le cerveau humain serait dotée de la même intelligence dynamique et constaterait très bien qu'elle n'est qu'une machine, si elle a les mêmes capacités sensorielles et si elle est placée dans le même environnement qu'un humain. Ou alors c'est à croire que vous pensez que l'intelligence humaine n'est pas capable de faire la différence entre un corps humain et une machine...
Intelligence dynamique : c'est ça pour moi la conscience. Un processus mêlant entrées sensorielles, mémoire, extraction de patterns, etc ... ce n'est pas un truc totalement figé qui donne la sensation d'être un être humain et qui serait comme un hologramme au-dessus du cerveau !
On peut même argumenter que certains humains ne pensent pas être humains (notamment en cas de pathologie). Ou ce qui est plus fréquent, ne pensent pas que les gens du village/ethnie/religion/couleur/sexe de peau d'à coté (rayer la mention inutile) sont humains au même point qu'eux.
Et en effet, il est difficile d'extrapoler ce que penserait une telle machine. Le cerveau humain est incroyablement malléable et les manifestations de l'intelligence et de la conscience sont multiples. Entre quelqu'un à l'empathie exceptionnelle et quelqu'un qui a le syndrome d'Asperger, entre un Ramanujan et ma belle mère, les différences sont gigantesques.
Avant d'arriver à la conscience phénoménale, comment les fonctions biologiques "émergeraient" à partir d'équation de la physique quantique ? Ou comment à partir de l'équation de Schrödinger, on pourrait prédire la règle du code génétique ?
Cordialement,
justement, je les ai dites pour montrer qu'il pouvait y avoir une position logique dans laquelle CTD était vraie, et néanmoins que la conscience pouvait ne pas etre reproduite par une simulation. Ca ne veut pas dire que mes propositions sont forcément vraies, mais qu'elles peuvent etre vraies sans contradictions. Cela implique que vous ne pouvez pas déduire logiquement que si CTD est vraie, alors forcément "le cerveau est un ordinateur" (car A implique B signifie "non A ou B" ou non (A et non B) : si vous trouvez un exemple de A et non B, alors A implique B est faux.Je n'ai pas cherché à établir une contradiction car pour moi une ou des propositions ne sont pas scientifiques. Je ne me place par sur le terrain de la logique. Je n'ai pas cherché à savoir si vos propositions forment une logique cohérente, je vois simplement qu'elles ne peuvent entrer dans le cadre de la discussion CTD (car non scientifiques) et c'est ce que j'ai cherché à vous montrer.
Bref le but n'était pas de démontrer non(B), mais de démontrer non (A implique B). Si vous n'avez pas compris ça, vous ne pouvez pas le critiquer "scientifiquement" .
je ne comprends pas bien ce que vous voulez dire; quand on parle de propriété émergente en général, c'est surtout pour dire justement qu'il n'y a pas besoin d'invoquer quelque chose "en plus" , et que c'est le résultat de propriétés "normales" de base (en général l'émergence vient d'un comportement collectif qui "émerge" de comportements individuels). Ca n'a rien de "magique" (justement au contraire, c'est pour dire qu'il n'y a pas besoin de rajouter de '"magie") , c'est comme ça que je l'ai employé, donc je ne vois pas pourquoi vous dites que "ma" manière n'est pas scientifique.Ce n'est pas ce que je veux dire si c'est ce que vous avez compris. Je dis que l'émergence telle que je comprends que vous la présentez, en ce qui concerne la conscience dans vos propositions, est un phénomène magique.
euh ce n'est pas vraiment "mes" concepts, je n'ai pas la prétention de l'avoir inventé.
Pas du tout. Encore un fois, vous m'attribuez des concepts qui sont les vôtres.
https://fr.wikipedia.org/wiki/Émergence
et c'est au moins aussi sérieux que le principe CTD ...
ben non, c'est moi qui en ai parlé, et je vous dit que vous êtes aussi obligé de l'invoquer meme si vous pensez que c'est un algorithme - parce qu'il faut bien quand meme expliquer pourquoi certains algorithmes seraient capables d'engendrer la conscience et pas d'autres , non? vous avez une réponse à cette question ?Je n'ai jamais parlé d'émergence pour qualifier la conscience,
mes propositions visaient justement à démontrer logiquement que ce n'est pas la même chose, mais si vous le répétez juste pour vous en convaincre (ou ne pas renoncer à votre conviction initiale) sans faire une analyse logique de ce que je dis, ça ne peut pas vraiment avancer ...j'ai même parlé d'illusion en ce qui la concerne (si elle doit être un "phénomène magique" ou échapper à CTD ce qui pour moi est la même chose).
ça ça fait partie des propositions obscures pour moi, pour lesquelles je ne peux meme pas dire si je suis d'accord ou pas ... c'est pas dit dans l'article de wiki en tout cas .L'émergence n'est pour moi qu'une question de changement point de vue, un zoom effectué sur des propriétés dynamiques d'un système.
ah oui? je suis plutot d'accord (que c'est une propriété dynamique), mais selon vous, un algorithme, ça a une dynamique ?Il serait absolument non scientifique de dire par exemple que la conscience émergerait (selon votre terminologie) d'une configuration de particule à un instant t donné (vous ne l'avez pas dit). Ce ne peut être qu'une propriété dynamique (vous devez l'admettre). Or, si mon système est parfaitement simulé d'un point de vue physique, son comportement dynamique également, et donc, toute propriété émergente (selon votre terminologie) également.
allez un petit paradoxe à la "chambre chinoise" : supposons que, comme vous le pensez , la conscience d'un cerveau soit émulable par un algorithme exécuté par n'importe quel ordinateur (c'est bien ce que vous pensez ?). Le truc fondamentaux des algorithmes, justement, à la base de la calculabilité de Church -Turing, c'est de pouvoir être exécuté par n'importe quelle machine, et par un humain muni d'un crayon et d'un papier (éventuellement BEAUCOUP de crayons et de papier !!), et obéissant strictement à des règles déterministes qui lui permettent de produire une suite de 0 et de 1 à partir d'une autre suite de 0 et de 1 (fondamentalement, un ordinateur ne fait que ça, vous êtes d'accord ?).
Donc faisons exécuter l'algorithme qui produit de la conscience par un humain muni de beaucoup de papier et de crayon. Si ça vous chante, ça peut revenir à résoudre numériquement l'équation de Schrödinger d'un cerveau avec la résolution de la longueur et du temps de Planck (si vous pensez que la "réalité ultime" est celle là), ou toute autre chose que vous pensez être "équivalente" au cerveau.
Sauf qu'on vous a juste donné des instructions pour calculer des 0 et de 1 sans vous dire à quoi ca servait. Vous ne savez pas ce que l'algorithme fait. Ca pourrait simuler un cerveau humain, ou bien un cerveau de souris, ou meme faire n'importe quoi d'autre : résoudre une équation du 43 000 e degré (sans intérêt), faire de la reconnaissance faciale, jouer au go, traiter des mails, ou même un algorithme totalement inutile qui ne sert à rien.
Et vous n'avez pas "conscience" de ce que ça fait. Vous avez juste conscience de vous faire ch ... avec des zéros et des uns. Vous croyez vraiment que quand c'est le "bon" algorithme du cerveau, ça produit de la conscience , et sinon, non? mais où est la conscience produite ? pas chez vous, vous ne savez pas ce que vous êtes en train de faire. Dans le ruban sur lequel vous écrivez ? dans la pièce ? nulle part ?
Et au fait qu'est ce qui se passe si vous en avez marre d'écrire des zéros ou des uns et que vous vous vous arrêtez pour aller boire un coup ? ou que vous preniez un mois de vacances ?
Qu'est ce qui se passe si de temps en temps vous faites des erreurs de zéro ou de un , à cause de la fatigue ? ca arrête la conscience ou pas ? ou des fois? a quelle condition?
Et au fait qu'est ce que vous devez faire au juste ? écrire les zéros et les uns avec un crayon sur du papier ? qu'est ce qui se passe si vous n'avez pas de crayon et que vous appuyez juste avec une pointe en plastique sur le papier pour laisser une trace ? est ce que ça marche si vous tracez les zéros et les uns dans la vide ? ou est ce que d'ailleurs ça marche si vous imaginez juste que vous les écrivez mais que vous ne faites rien? après tout, avez vous vraiment besoin de faire ce travail en vrai, ou bien l'existence "virtuelle" de l'algorithme suffit-elle ? dans ce cas la conscience ne serait rien au fond que l'existence immatérielle d'algorithmes , et donc le monde entier aussi ne serait que ça ? (ce n'est pas une plaisanterie, ça a été sérieusement envisagé par certains auteurs qui ont montré selon eux que cette conclusion était une conséquence logique du computationalisme , sur des arguments similaires).
Avez vous vraiment des réponses à toutes ces questions ? et pensez vous qu'elles ne sont absolument pas gênantes ?