https://en.wikipedia.org/wiki/Landauer%27s_principle
Zéro. Oui. C'est bien ce que j'ai compris. Je suppose qu'on peut en déduire que notre technologie est loin d'être parfaite sur le plan de l'efficacité énergétique.
[croisement, indeed ]
-----
https://en.wikipedia.org/wiki/Landauer%27s_principle
Zéro. Oui. C'est bien ce que j'ai compris. Je suppose qu'on peut en déduire que notre technologie est loin d'être parfaite sur le plan de l'efficacité énergétique.
[croisement, indeed ]
réponse purement informatique, dont je ne vois pas clairement ou se situe l'équivalent pour un système biologique complexe.
par ailleurs je viens de relire ce que dit globalement Yann LeCun ( un ponte du Deep Learning ) :
On peut d'ailleurs noter qu'il propose en fait de "s'inspirer" du modèle humain, et exclut l'idée d'en faire un copier/collé.
Pour Yann LeCun, les progrès futurs nécessaires pour le développement de l'intelligence artificielle
comprennent une compréhension théorique complète de l'apprentissage profond, l'intégration de l'apprentissage profond avec des systèmes de raisonnement et de planification, l'intégration de l'apprentissage supervisé et non supervisé avec une seule règle d'apprentissage sur le modèle du cerveau biologique et surtout le développement d'une méthode efficace d'apprentissage non supervisé3
. Il ne conçoit pas l'intelligence artificielle comme un équivalent du cerveau humain car les caractéristiques biologiques entre humain et robot diffèrent fondamentalement
(wiki)
Alors non. Il y a une limitation forte des machines de turing : pas d'aléatoire. Et pour répondre à ce qui écrit un peu plus haut (par Topix je crois), un ordinateur quantique sait faire un truc que ne sait pas faire les ordinateurs classiques : un tirage purement aléatoire. Et donc, pas de possibilité de simuler certains phénomènes quantiques avec une machine de turing. D'où l'extension au "D". Mais en même temps, cela affaiblit terriblement la thèse CTD : si on modélise un nouveau phénomène qui nécessite une nouvelle physique, il faudra peut-être étendre le CTD pour le faire devenir CTDX…
La thèse "il faut un truc en plus pour faire émerger la conscience" est tout à fait défendable tant qu'on n'a pas de conscience sur un ordinateur. Mais pour ma part, que ce truc en plus on l'appelle "l'âme", ou qu'on dise "c'est une nouvelle physique", cela revient au même, et je n'y crois pas.
Mon ordre de grandeur, c'est 800 TFlops (10^12) pour faire la même chose qu'un cerveau humain.tiens si tu décides de répondre jusqu'au bout aux questions qu'on te pose, tu pourras peut etre répondre à celle là : si tu supposes que le cerveau est un ordinateur, quel est l'ordre de grandeur du nombre de bits nécessaire pour décrire son état et l'algorithme déterminant son évolution selon toi ?
Le simuler est par construction beaucoup – beaucoup - plus gourmand. Même de façon imparfaite, en codant un bit par synapse, et un changement d'état potentiel chaque millième de seconde, on se retrouve avec un truc de l'ordre de 10^18 – 10^19 opération par secondes.
ET on ne dispose même pas de la puissance de calcul nécessaire pour calculer le repliement d'une protéine un peu longue, alors…
non non. C'est compliqué de parler avec le même mot de deux définitions différentes... Soyons clair : pour moi, une simulation de quelque chose de matériel ou d'énergétique n'est pas ce quelque chose, sauf, dans le cas extrême ou la machine universelle est l'univers lui-même. Dans le cas d'une propriété émergente, qui n'est ni matérielle ni énergétique, ça ne me choque pas d'identifier celle émergeant du système réel à celle émergeant du système simulé.selon vous " une simulation de conscience... en tout point identique à la conscience "réelle"" ne serait pas une conscience, et "la conscience n'a pas besoin de matière pour exister" ? voilà qui semble donner à la "vraie" conscience le statut de substance magique se "rajoutant" à la matière non ?
Cette citation tirée du lien de Paradigm me va très bien. Je ne rajoute pas de substance magique à la matière, au contraire, je me bats contre ça depuis xx pages !Envoyé par Roger BalianAppréhender une émergence, c’est presque toujours dévoiler les fondations enfouies d’un édifice déjà existant ; ce n’est pas inventer un objet complexe à partir de ses constituants
C'est vous qui dites qu'elle se comporterait en tout point comme un être pensant (notion qui reste à définir).
C'est une hypothèse métaphysique forte non justifié par la notion d'émergence car le concept d’émergence (héritage britannique) se défini par rapport aux notions d’irréductibilité et de survenance. L’irréductibilité crée une démarcation entre phénomènes émergents et résultants (réductibles). Une propriété P d’un système complexe S est qualifiée d’émergente si et seulement si P est irréductible aux propriétés microstructurelles de S, i.e. P ne peut être expliquée et prédite sur base d’informations relatives aux propriétés des constituants de S.
Le systèmes émergent peut être immatériel/psychique ce qui ressemble plus aux propriétés de nos expériences conscientes.
Cordialement,
C'est complètement faux.
C'est une plaisanterie ? Le principe dit que tous les processus physiques sont simulables sur un ordinateur. Donc, vous dites bien que la conscience est hors du monde physique.Ou voyez vous que le principe CTD dit quelque chose de la conscience? la conscience n'est nulle part mentionnée dans ce principe, je ne vois vraiment pas comment vous pouvez affirmer une chose pareille !!!
Je n'ai jamais dit ça...par ailleurs vous vous contredisez pleinement puisque vous affirmez à coté qu'une IA simulant le cerveau n'aurait "évidemment" pas la même conscience qu'un être humain - ça prouve bien justement que ça dépend du support.
Simplement pour une question de temps d'exécution. Il ne dit pas qu'un ordinateur quantique peut faire plus qu'un ordinateur classique, sinon cela contredirait la thèse de CT.Il dit d'ailleurs explicitement que son programme ne peut pas être réalisée par une machine de Turing ordinaire, ça ne peut donc pas etre une "déduction".
Landauer's principle is a physical principle ...c'est en phrase #1 de l'article.
C'est un point intéressant et qui peut rapidement devenir très compliqué, mais perso je ne vois pas d'impact "physique" tant qu'on ne pensera pas prouver que BPP diffère de P.
Tout-à-fait d'accord et très bien dit. Pour le premier point j'irais même plus loin: nous aurons besoin d'expérimenter l'indifférence du support matériel à la première personne, i.e. sur soi-même avant de pouvoir dire qu'on met le clou final sur notre compréhension de la conscience. A cause des zombies.La thèse "il faut un truc en plus pour faire émerger la conscience" est tout à fait défendable tant qu'on n'a pas de conscience sur un ordinateur. Mais pour ma part, que ce truc en plus on l'appelle "l'âme", ou qu'on dise "c'est une nouvelle physique", cela revient au même, et je n'y crois pas.
Non ansset, pas eux, eux.
oui, c'est écrit : Landauer's principleis a physical principle pertaining to the lower theoretical limit of energy consumption of computation.lassé de ce ton et ces apartés méprisants.
lower théoretical limit, et dans des configurations particulières.
D'ailleurs, c'est aux chercheurs du HBP qu'il faut rappeler ce super "principe".
Ils n'ont qu'a l'appliquer tout bêtement.
Pourquoi sont ils idiots à ce point pour avoir omis une telle opportunité.?
On peut aussi étendre cette remarque à toutes les activités qui nécessitent de super calculateurs.
.La thèse "il faut un truc en plus pour faire émerger la conscience" est tout à fait défendable tant qu'on n'a pas de conscience sur un ordinateur. Mais pour ma part, que ce truc en plus on l'appelle "l'âme", ou qu'on dise "c'est une nouvelle physique", cela revient au même, et je n'y crois pas.
En tant qu'être biologique nous pouvons expérimenter nos expériences conscientes (odeur, couleur, son, douleur, émotions, ...) pour les étudier sans avoir besoin d'aller chercher des "trucs" comme le concept abstrait "d'âme", ni des notions comme l'information ou la calculabilité qui portent sur nos modèles et non sur le phénomène en soi.
Mais pour cela il ne faut pas retirer le sujet subjectif qui porte l'expérience conscience (l'effet que cela fait, l’expérience vécu à la première personne) comme le fait la démarche d'objectivation pour décrire les processus à la troisième personne car comme le fait remarqué le biologiste Gerald Edelman décrire un certain processus neuronal n'est pas le vivre, n'est pas vivre l'expérience qui va avec lui. Il faut donc revoir nos méthodes d’investigations, c'est ce qu'a, me semble t-il, tenté de faire le neurobiologiste Francisco Varela.
Cordialement,
Comment ça ? Je ne vois pas ce qu'on pourrait en tirer.
Cas 1 : je duplique mon cerveau sur un support matériel. Je reste en vie, j'ai toujours ma conscience. Mon cerveau dupliqué m'assure qu'il est conscient et qu'il est bien moi. Comment puis-je le croire ?
Cas 2: je duplique mon cerveau sur un support matériel par une méthode qui me tue. Mon cerveau assure aux autres qu'il est bien moi. Comment peuvent-ils le croire ?
Ce n'est tout de même pas le cas 3 dont vous parlez ?
Cas 3 (magie) : je duplique mon cerveau sur un support matériel. Je reste en vie, j'ai toujours ma conscience. Mon cerveau dupliqué a peine mis en route provoque chez moi une sensation de dédoublement et d'ubiquité.
A mon avis cette question de conscience est indécidable. C'est un acte de foi. On pense que nos semblables ont une conscience, car on est de la même espèce. Ça ne peut se démontrer. Disons, si quelque chose pouvait le démontrer, ce serait quelque chose comme CTD, et uniquement dans le cas d'une simulation de cerveau humain. L'expérimenter ou non ne change rien à l'affaire.
En tout cas je ne vois pas comment. Vous avez une idée ?
Non, bien sur que non et oui le cas 3 serait magique/ridicule. Néanmoins les cas 1 et cas 2 laissent une petite porte ouverte: que ton cerveau dupliqué produise des réponses indifférenciables de celles que tu aurais donné avec ton cerveau biologique sans toutefois avoir de contenu conscient. C'est trèstrès improbable dans le sens que cela impliquerait que nos théories soient assez bonnes pour construire un cerveau artificiel capable d'IA forte mais pas assez bonnes pour être valide sur le contenu conscient -incluant le contenu conscient qui est dans le cerveau biologique associé à ce qu'on dit. Néanmoins cela reste une possibilité logique à cause de la possibilité logique des zombies philosophiques. A cause de cela il y en a qui pensent qu'aucune expérience ne permetra de trancher définitivement, autant parmi ceux qui disent "et on s'en fout autant que du solipsisme" que parmi ceux qui disent "et donc c'est un problème insoluble". Perso je botte en touche en suggérant qu'il y a quand même une expérience qui devrait convaincre tout le monde (c'est mon coté idéaliste ): expérimenter avec en même temps un cerveau biologique et sa copie numérique, en jouant sur le contenu de l'un et l'autre de telle manière que la personne ne soit pas capable de dire quand sa conscience est produite par son cerveau biologique versus par son cerveau numérique. Autrement dit, je modifie l'idée initiale de Turing (en version moderne: ton cerveau artificiel doit être indiscernable de ton cerveau biologique) par une simple précision (tel que jugé à la première personne).
J'ignorais tout de cette classe de problème. Et c'est vrai qu'en pratique, l'impossibilité de générer du hasard est facilement contournable en prenant une combinaison des entrées de l'ordinateur.C'est un point intéressant et qui peut rapidement devenir très compliqué, mais perso je ne vois pas d'impact "physique" tant qu'on ne pensera pas prouver que BPP diffère de P.
Mais mon objet était de souligner qu'ordinateur quantique et Machine de Turing ne se recouvrait pas. En y réfléchissant un peu plus, je me dis qu'en utilisant les inégalités de Bell, on doit pouvoir aussi construire un programme quantique non réplicable sur une MT.
Pour ma part, je pense que le problème du Zombi et un faux problème. S'il n'existe pas d'expérience permettant de distinguer un zombi d'un humain, alors les zombis sont des humains. Ou – pour être plus précis : les humains sont des zombis.Tout-à-fait d'accord et très bien dit. Pour le premier point j'irais même plus loin: nous aurons besoin d'expérimenter l'indifférence du support matériel à la première personne, i.e. sur soi-même avant de pouvoir dire qu'on met le clou final sur notre compréhension de la conscience. A cause des zombies.
Parce qu'en fait, si on arrive à doter un cerveau électronique de conscience, il n'aura pas de libre arbitre. Et par corolaire, nous non plus…
Tu parles des Qualia, je les ressens. Mais je ne peux que te dire que je les ressens, et tu peux que me dire que tu les ressens. Et je ne peux que te croire (ou pas). Si un ordinateur me le dit, je suis exactement dans la même position que si c'est toi qui me le dis. C'est le fameux truc des zombis..
En tant qu'être biologique nous pouvons expérimenter nos expériences conscientes (odeur, couleur, son, douleur, émotions, ...) pour les étudier sans avoir besoin d'aller chercher des "trucs" comme le concept abstrait "d'âme", ni des notions comme l'information ou la calculabilité qui portent sur nos modèles et non sur le phénomène en soi.
Mais pour cela il ne faut pas retirer le sujet subjectif qui porte l'expérience conscience (l'effet que cela fait, l’expérience vécu à la première personne) comme le fait la démarche d'objectivation pour décrire les processus à la troisième personne car comme le fait remarqué le biologiste Gerald Edelman décrire un certain processus neuronal n'est pas le vivre, n'est pas vivre l'expérience qui va avec lui. Il faut donc revoir nos méthodes d’investigations, c'est ce qu'a, me semble t-il, tenté de faire le neurobiologiste Francisco Varela.
pour une fois je suis d'accord avec l'expérience de pensée, présentée comme telle.Perso je botte en touche en suggérant qu'il y a quand même une expérience qui devrait convaincre tout le monde (c'est mon coté idéaliste ): expérimenter avec en même temps un cerveau biologique et sa copie numérique, en jouant sur le contenu de l'un et l'autre de telle manière que la personne ne soit pas capable de dire quand sa conscience est produite par son cerveau biologique versus par son cerveau numérique.
reste la grande difficulté de la possibilité intrinsèque de faire cette "copie" numérique , indiscernable de l'autre.
car les freins me semblent structurels, et pas uniquement "computationnels".
Dans l'esprit des propos de Yan LeCunn.
Très probable. En fait il y en a qui voient cela comme une des grandes raisons de construire un ordinateur quantique: tester si la MQ demeure valide avec ces objets (si on peut construire un programme quantique non réplicable par une MT, alors la réponse est non et on vient de faire une immense découverte/invalider CTD)
Mon bémol là-dessus est que je soupçonne que, le jour où on saura faire un programme (P) que (un certain ensemble de gens E) considéreront conscient, alors on ne sera pas loin du jour où on saura faire un programme que (une grande proportion de E) considéreront comme non conscient quoiqu'indiscernable de (P).
Autre débat... si par "être libre" tu veux dire "échapper aux lois de la physique" tu as trèstrès probablement raison qu'on n'a pas de libre arbitre. Si par "être libre" tu veux dire "ne pas être contraint dans ses décisions", il n'y a pas d'obstacle à ce qu'un cerveau électronique ou biologique soit libre. La seconde définition me semble plus susceptible d'être utile.
(edit)
Ma compréhension de ces propos est qu'il parle des avenues qui lui semblent prometteuses en pratique pour obtenir une IA que les experts reconnaitraient comme forte, ce qui est un objectif plus immédiat que d'avoir une preuve ultime d'intelligence via le test de Turing ou la modification que j'en propose.
Improbable oui mais si les réponses sont indifférenciables de toute façon on ne peut rien conclure sur le contenu ou le non contenu conscient non ?Non, bien sur que non et oui le cas 3 serait magique/ridicule. Néanmoins les cas 1 et cas 2 laissent une petite porte ouverte: que ton cerveau dupliqué produise des réponses indifférenciables de celles que tu aurais donné avec ton cerveau biologique sans toutefois avoir de contenu conscient. C'est trèstrès improbable
J'ai peur de ne pas comprendre. S'agit-il de connecter avec une sorte de switch le corps humain du sujet alternativement avec son cerveau et sa simulation ? Mais alors si à chaque connexion de la simulation on pourrait préalablement dupliquer l'état immédiat de l'original dans la simulation, en retour on ne pourrait injecter l'état de la simulation dans l'original, ce qui briserait la continuité du fil de conscience supposé. En plus il faudrait pouvoir switcher à une fréquence inférieure à un changement d'état du cerveau.
Vous devez penser à autre chose.... je ne vois pas bien. Et de toute façon CTD dans ce cas répond à la question puisqu'il s'agit d'une simulation de cerveau humain.
Cela ne peut pas être de l'aléatoire qui dérive d'un algorithme, sinon je ne comprends plus rien. Ces derniers sont forcément déterministes. Je pense donc que c'est de l'aléatoire basé sur la mesure d'un état quantique. Ce n'est donc pas un aléatoire calculé. Les ordinateurs quantiques sont ainsi toujours incapables d'aller plus loin que les ordinateurs classiques.Et pour répondre à ce qui écrit un peu plus haut (par Topix je crois), un ordinateur quantique sait faire un truc que ne sait pas faire les ordinateurs classiques : un tirage purement aléatoire. Et donc, pas de possibilité de simuler certains phénomènes quantiques avec une machine de turing. D'où l'extension au "D".
C'est à partir de ces expériences vécues à la première personne et par inter-subjectivité via un langage de communication que nous humains construisons nos connaissances techniques, scientifiques. Il a donc bien fallu que l'on se fasse confiance mutuellement.
Cordialement,
bah manque de pot, des fois, il émerge des choses de la simulation qui n'existent pas dans la réalité. Par exemple si vous simulez un fluide , vous n'arriverez jamais à simuler l'échelle de distance des atomes , donc vous aller adopter une grille plus grande, et du coup vous faites apparaitre une viscosité numérique qui n'est pas du tout la viscosité réelle. C'est un exemple très simple, mais ça illustre que sauf à penser que vous simulez exactement au sens CTD un système, il n'y a aucune raison d'avoir les mêmes propriétés. Mais encore plus fondamental, comme j'ai dit, le problème d'une simulation est qu'elle ne peut pas par construction acquérir des propriétés qu'on donne à la conscience : avoir conscience de son propre support. Une machine qui émule un cerveau qui pense qu'il est un homme ne peut pas en même temps être une machine qui pense qu'elle est une machine ...non non. C'est compliqué de parler avec le même mot de deux définitions différentes... Soyons clair : pour moi, une simulation de quelque chose de matériel ou d'énergétique n'est pas ce quelque chose, sauf, dans le cas extrême ou la machine universelle est l'univers lui-même. Dans le cas d'une propriété émergente, qui n'est ni matérielle ni énergétique, ça ne me choque pas d'identifier celle émergeant du système réel à celle émergeant du système simulé.
Il est évident que si vous décrivez le cerveau par "un bit par neurone" comme le propose Henri, par exemple, vous n'avez aucune chance de capturer les lois réelles d'évolution du cerveau (qui dépendent de si vous avez bu un coup de gnole ou pas ...)
gné? désolé de me répéter, mais pourriez vous faire l'effort d'inclure une citation de moi quand vous prétendez que je dis quelque chose? parce que là ça devient pénible ...C'est vous qui dites qu'elle se comporterait en tout point comme un être pensant (notion qui reste à définir).
Dernière modification par Archi3 ; 09/05/2018 à 17h31.
j'adore ces argumentations bien étayées..
pas du tout : je dis simplement qu'une simulation n'est pas la même chose que ce qui est simulé, ça suffit.C'est une plaisanterie ? Le principe dit que tous les processus physiques sont simulables sur un ordinateur. Donc, vous dites bien que la conscience est hors du monde physique.
ah bon je croyais. Mais alors il faut choisir : si l'IA a la même conscience qu'un être humain, alors elle se trompera sur elle même, donc on conclura bien sur qu'elle n'a aucune conscience, puisque elle ne sait meme pas qui elle est ..."par ailleurs vous vous contredisez pleinement puisque vous affirmez à coté qu'une IA simulant le cerveau n'aurait "évidemment" pas la même conscience qu'un être humain - ça prouve bien justement que ça dépend du support."
Je n'ai jamais dit ça...
la thèse de CT ne concerne que les algorithmes, elle ne fait pas de spéculation sur le monde physique. Le fait qu'il puisse exister des phénomènes physiques non calculables ne contredit en rien la thèse de CT.Simplement pour une question de temps d'exécution. Il ne dit pas qu'un ordinateur quantique peut faire plus qu'un ordinateur classique, sinon cela contredirait la thèse de CT.
c'est extrêmement facile : tu n'as qu'a lui poser une question du genre : si tu passes le bras droit derrière ta nuque et le bras gauche derrière tes reins, est ce que tu arrives à faire se toucher tes deux pouces ?
je pense que la réponse te diras très très vite qui est qui ...
Tu veux dire a un fréquence supérieure (ou une période inférieure). Ce n'est pas l'aspect difficile car, contrairement à ce que notre cerveau nous fait croire, la conscience ne se comporte pas comme un flot continu.
Oui, mais même si il est relatif à l'observateur, le hasard demeure toujours. Il en est de même pour l'écoulement du temps, mais ce dernier s'écoule quand même pour tout le monde. Il faudrait que cette information soit déterminable à l'avance. La seule échappatoire que je vois, ce sont les variables cachées non locales.C'est une façon de le voir [je suppose que tu parles des interprétations sans réduction objectives]. Une autre formulation est que le hasard est, dans ces inerprétations, relatif au statut d'observateur: un observateur O1 qui mesure haut versus bas (ou droite versus gauche) percevra que le résultat est complêtement au hasard, mais sur le plan théorique un autre observateur O2 pourrait mesurer que O1 est dans une superposition de (haut ou gauche) versus (bas ou droite), et ce même après que O1 ai perçu le résultat "irréversible pour lui" de sa mesure. [actuellement c'est une expérience de pensée faute de savoir mettre en superposition un observateur même mécanique].
faudrait déjà que tout le monde soit convaincu que ça veut dire quelque chose , une "copie numérique du cerveau". Tu peux déjà m'exclure du groupe ...
est ce que tu penses que la même expérience exécutée avec ce que tu appelles une "copie numérique du cerveau" donnerait le même résultat ?Tu veux dire a un fréquence supérieure (ou une période inférieure). Ce n'est pas l'aspect difficile car, contrairement à ce que notre cerveau nous fait croire, la conscience ne se comporte pas comme un flot continu.
ou bien en lui faisant faire cette expérience :
http://www.maxisciences.com/illusion..._art32916.html
C'est un autre débat bien sûr, mais je pense que c'est l'origine de l'opposition "viscérale" à la non possibilité d'une IA "consciente".Autre débat... si par "être libre" tu veux dire "échapper aux lois de la physique" tu as trèstrès probablement raison qu'on n'a pas de libre arbitre. Si par "être libre" tu veux dire "ne pas être contraint dans ses décisions", il n'y a pas d'obstacle à ce qu'un cerveau électronique ou biologique soit libre. La seconde définition me semble plus susceptible d'être utile.
Ma vision - mon espoir - du libre arbitre, c'est que ma conscience (enfin mon moi-perçu) qui prend les décision. Mais il y a une autre interprétation - qui prends de plus en plus corps avec l'avancée de la recherche en neurologie - qui est la conscience n'est que le "porte-parole" de décision prise par des couches plus basse du cerveau.
https://sites.google.com/site/tpe44l...sque-de-benham
Dans cette illusion les sujets perçoivent des couleurs qui n'existent pas puisque le disque de Benham ne contient que du noir et du blanc. Ce procédé est connu depuis bien longtemps mais l'on ne parvient pas encore aujourd'hui à en fournir la totale explication.
Le Biologiste Timothy H. Goldsmith lui a une explication du fait qu'il a pris conscience de ce que ne sont pas ses propres expériences conscientes tel que la couleur :
Cordialement,Envoyé par Timothy H. Goldsmithhttp://www.esalq.usp.br/departamento...visao_aves.pdf
The discoveries are best understood if one first knows some basic details of how any organism perceives color. First, a common misconception must be put to rest. It is true, as many youngsters learn in school, that objects absorb some wavelengths of light and reflect the rest and that the colors we perceive “in” objects relate to the wavelengths of the reflected light. But color is not actually a property of light or of objects that reflect light. It is a sensation that arises within the brain.
Dernière modification par Paradigm ; 09/05/2018 à 18h25.
à la place de ton cerveau ?