Bonjour,
Les neuroscience peuvent-elle prétendre étudier la conscience ?
La science peut-elle dépasser l'aporie d'une conscience qui s'étudie elle-même ?
Cordialement
-----
Bonjour,
Les neuroscience peuvent-elle prétendre étudier la conscience ?
La science peut-elle dépasser l'aporie d'une conscience qui s'étudie elle-même ?
Cordialement
Elle le fait, tout comme l'humain étudie l'humain. Vous avez donc votre réponse...
Pourtant il me semble bien voir se maintenir une contradiction :
La conscience définit un objet qu'elle étudie. La conscience étudie donc cet objet qu'elle choisit.
Elle ne peut donc s'étudier elle-même. La conscience étudie ce qu'elle a choisi d'étudier, non CE qui étudie.
Le processus qui étudie, n'est jamais étudié. Seuls des aspects de Cela qui étudie, sont étudiés.
L'humain de même étudie des aspects de l'humain, et jamais l'humaine nature dans sa globalité.
Ne croyez-vous pas ?
Cordialement.
Dernière modification par sunyata ; 15/05/2015 à 09h55.
Bonjour ce que vous proposez pourrait se résumer au célèbre dessin ci-dessous non ?
Cordialement
Et, oui, c'est une belle mise en abyme.
Mais il en est ainsi dès qu'on touche à l'étude de l'humain (son intelligence, sa créativité, ses croyances ...) comme vous l'a expliqué myoper.
Pour vous il n'y a pas de contradiction alors ?
N'êtes vous pas d'accord pour dire que l'intelligence, la créativité, les croyances, sont des aspects de la conscience, plutôt que la conscience
elle-même ?
Dernière modification par sunyata ; 15/05/2015 à 10h29.
Une difficulté supplémentaire oui, une entrave, non.
Difficulté pour quoi ? Entrave à quoi ? Pouvez-vous préciser votre pensé ?
Bonjour sunyata, bonjour à tous,
Pour des chercheurs comme Michel Bitbol il reste un "fossé explicatif" dans l'approche "objectivante" des neurosciences.
Comme la fait remarqué Gerald Edelman, décrire un certain processus neuronal ce n'est pas le vivre, ce n'est pas vivre l'expérience qui va avec lui.
à la 25 ieme minute de cette conférence ( Le point aveugle des neurosciences de la conscience ) Michel Bitbol signale que la clôture causale des processus neurophysiologique se suffisent à eux mêmes. Ils n'ont pas besoin de faire intervenir soi comme cause, soit comme effet quelque chose comme l'expérience vécue d'un évènement.
On peut aller des stimulus (voir son schéma dans la vidéo), c'est à dire des entrées informatives sensorielles, à la réponse, c'est à dire au comportement sans jamais passer par l'intermediare de la description de l'expérience de quelqu'un.
Une personne Insensibilité congénitale à la douleur, malgrés les explications du processus neurophysiologie ne saura toujours pas ce qu'est de ressentir/vivre l'experience de douleur (l'effet que cela fait).
Maintenant comme le fait remarqué Vep cette difficulté ne semble pas être une entrave à l'efficacité des neurosciences tel que rappelée en introduction dans la conférence sur le point aveugle.
bien cordialement,
Dernière modification par Paradigm ; 15/05/2015 à 11h01.
chercheur en quoi ?
tu peux préciser ?
rejeter les neurosciences pour développer sa propre approche pseudo-bidule , il n'y a que des idiots pour ne pas comprendre la réthorique/
ha si pardon, chercheur en philosophie. c'est tout dire.
Autant donner l'auteur original: David Chalmers.
Bonsoir,
Je trouve en effet que le jeu de questions mentionné dans l'article cité, résume bien le problème de l'étude de la conscience :
Il existe plusieurs formulations du problème difficile :
On pourrait tout à fait être des sortes de machines computantes ayant un comportement rationnel, sans être doté
- Pourquoi des processus physiques devraient-ils donner lieu à une riche vie intérieure ?
- Comment se fait-il que certains organismes sont des sujets de leurs expériences ?
- Pourquoi existe-t-il une conscience des informations sensibles ?
- Pourquoi les qualia existent-ils ?
- Pourquoi y a-t-il une dimension subjective de l'expérience ?
- Pourquoi ne sommes-nous pas des « zombies philosophiques » ?
de la subjectivité.
Cordialement
Bonjour Jiav,
Michel Bitbol s'inscrit dans les travaux de Varela qu’il a intitulé « Neurophenomenology » et qui se distingue de l'approche de David Chalmer.Autant donner l'auteur original: David Chalmers.
Cordialementhttp://www.actu-philosophia.com/spip.php?article521
Le deuxième correctif porte sur l’assimilation de la position de Varela à celle de Chalmers. Il faut en effet noter que l’article central que Varela a consacré à la question de la conscience, celui qu’il a intitulé « Neurophenomenology » [2], a été conçu comme une réplique à Chalmers, comme l’expression d’un important désaccord avec lui. Certes, Varela s’accorde avec Chalmers pour estimer que le problème de l’émergence de l’expérience consciente à partir d’un substrat physique, est « difficile », parce qu’il est d’une tout autre nature que ceux qui sont du ressort des sciences. Il s’accorde en particulier avec lui pour repartir du fait brut, vécu, manifeste, de l’expérience, et pour refuser toute assimilation de celle-ci à l’un des objets ou à l’une des propriétés qu’étudient les sciences physiques ou biologiques. Ces points de convergence peuvent être considérés comme suffisants, vus de l’extérieur (par exemple vus par un réductionniste neurobiologique), pour considérer que Chalmers et Varela soutiennent la même position anti-réductionniste. Mais à partir de là, une divergence profonde se fait jour entre eux. Chalmers [3] considère qu’il faut ajouter un « ingrédient supplémentaire » dans notre ontologie naturaliste pour rendre raison de la conscience. Qui plus est, il introduit effectivement cet ingrédient supplémentaire, sous forme de « propriétés fondamentales » non-physiques qui s’ajoutent aux propriétés physiques des dispositifs traitant de l’information, et qui sont reliées à ces dernières par des « lois psycho-physiques ». Varela, en revanche, considère qu’on ne peut pas venir à bout du « problème difficile » de la conscience en se contentant d’agrandir l’ontologie naturaliste afin de lui faire inclure un genre nouveau de propriété des choses. Il faut, selon lui, carrément sortir de cette ontologie (pour ne pas dire de l’ontologie en général) ; il faut aller jusqu’à « modifier la totalité du cadre dans lequel la question est discutée ».
PS
Le CV de Michel Bitbol : http://129.199.13.46/spip.php?article395 pour ceux qui s'interrogent sur sa compétence à traiter des sujets comme l'analyse de la construction des connaissances basées sur les neurosciences.
Merci du lien, je n'ai jamais vraiment complètement compris Varela, s'il est reprit ça m'intéresse. Mais tout ce que je voulais dire, c'est que la notion de "fossé explicatif" est attribuable à Chalmers. Bien sur, on pourrait trouver des précurseurs (Marie et les couleurs, la chauve souris, ...), mais personne avant lui n'avait exprimé de façon aussi précise cette question, au point où son langage est devenu une norme. Par exemple la notion de fossé explicatif, je suis pas mal certain que c'est une traduction mot à mot.
Nope, enfin ouipe mais le terme était lui-même emprunté: "an explanatory gap (a term due to Levine 1983)"
Bonjour Jiav, Bonjour à tous
Merci pour la recherche sur l'origine de expression "an explanatory gap".Nope, enfin ouipe mais le terme était lui-même emprunté: "an explanatory gap (a term due to Levine 1983)"
Sur la "vulgarisation" des travaux de Varela il y a le livre "The Tree of Knowledge" accessible sur internet, mais aussi l'analyse qu'en fait michel Bitbol dans cet article http://michel.bitbol.pagesperso-oran...enceVarela.pdf
Cordialement,
je suis désolé si Bitbol me donne des boutons.
il s'engouffre , comme d'autres , sur ce que la science n'explique pas, pour proposer des idées gouroutesques !
cela existe de tout temps.
j'ajoute que les liens sur ses discours ne font que confirmer mon impression.
pour répondre au nouveau titre du fil.
ou bien la notion de "conscience" est sujet philosophique, et je les laissent à leur débats.
ou bien on parle du fonctionnement cognitif, et les neurosciences me semblent plus riches scientifiquement.
Pur présupposé. C'est une affirmation qui ne repose sur rien de solide. C'st bien joli de faire des expérience de pensées à base de "zombi philosophique", mais rien ne permet d'affirmer que c'est possible. Il est fort possible que vouloir copier fonctionnellement l'être humain soit strictement équivalent au fait de créer une machine consciente.Michel Bitbol signale que la clôture causale des processus neurophysiologique se suffisent à eux mêmes. Ils n'ont pas besoin de faire intervenir soi comme cause, soit comme effet quelque chose comme l'expérience vécue d'un évènement.
On peut aller des stimulus (voir son schéma dans la vidéo), c'est à dire des entrées informatives sensorielles, à la réponse, c'est à dire au comportement sans jamais passer par l'intermediare de la description de l'expérience de quelqu'un.
Pourquoi pas ? Personne ne dit que tous les processus physiques aboutissent à former une conscience , ni même que tous les animaux dotés d'un cerveau disposent d'une conscience. Par contre, il est indéniable que notre conscience est liée à des processus physiques. Il est indéniable qu'en agissant sur le cerveau, on peut provoquer des expériences dans la conscience. Prenez une cuite, mesurez-en les effets sur votre conscience. Pourquoi donc un processus physique a-t-il autant d'effet ?[*]Pourquoi des processus physiques devraient-ils donner lieu à une riche vie intérieure ?
Cf. Plus haut : ça reste à prouver. Faites une copie d'humain dépourvue de conscience, et revenez défendre votre affirmation. Attention, vous allez avoir le problème qu'a soulevé Turing : si une machine est fonctionnellement identique à un humain, comment prouver qu'elle n'est pas consciente ?On pourrait tout à fait être des sortes de machines computantes ayant un comportement rationnel, sans être doté
de la subjectivité.
Tres interssant, merciSur la "vulgarisation" des travaux de Varela il y a le livre "The Tree of Knowledge" accessible sur internet, mais aussi l'analyse qu'en fait michel Bitbol dans cet article http://michel.bitbol.pagesperso-oran...enceVarela.pdf,
Je ne pense pas que Chalmer ni Varela contestent la seconde proposition. Par contre, il demeure non pas que les zombie ont ete demontres, mais qu'il semble presque impossible de les eviter une fois qu'on adopte le computationalisme/fontionnalisme. Si tu es d'accord que l'esprit est une forme de logiciel, alors tu es d'accord que les comprtements d'un humain sont equivalents, ou plutot indifferenciable, d'un corps qui ne contiendrait que des nerfs moteurs, sans meme d'influx sensoriel, et dont les sorties seraient commandees par un immense dictionnaire contenant l'ensemble de l'historique de ces sorties. On peut contester qu'un tel dictionnaire soit facile a etablire, mais le fait est que, a partir du moment ou il s'agit d'une somme finie d'information, alors il est theoriquement de l'obtenir simplement en tirant a pile ou face chaque bit d'information. Bien entendu il est exponentiellement improbable d'obtenir un esprit en particulier de cette facon, mais le fait est que la simple possibilite theorique suffit pour que le probleme philosophique se pose: on ne pourrait pas differencier, sur la base du comportement, un zombie philosophique d'un humain conscient. Alors, comment pourrait-on les differencier s'il n'y a aucune consequence comportemntale obligatoire? C'est une question non triviale, tres structurante en philosphie de l'esprit.
Déjà, on peut contester que la somme d'informations en question soit finie. Si on se base sur un bête dictionnaire des réponses, ça équivaut à dire que le nombre de "questions" possibles est fini, ce qui est loin d'être évident. Je maintient donc mon objection : construisez une telle machine, et ensuite revenez affirmer qu'elle est possible.Si tu es d'accord que l'esprit est une forme de logiciel, alors tu es d'accord que les comprtements d'un humain sont equivalents, ou plutot indifferenciable, d'un corps qui ne contiendrait que des nerfs moteurs, sans meme d'influx sensoriel, et dont les sorties seraient commandees par un immense dictionnaire contenant l'ensemble de l'historique de ces sorties. On peut contester qu'un tel dictionnaire soit facile a etablire, mais le fait est que, a partir du moment ou il s'agit d'une somme finie d'information, alors il est theoriquement de l'obtenir simplement en tirant a pile ou face chaque bit d'information.
Même en admettant ce point, la question de savoir pourquoi nous ne sommes pas de telles "machines computantes", mais des machines conscientes, n'est pas bien difficile : il est bien improbable que l'évolution aboutisse à de telles machines.
Ca, je l'ai signalé dans mon post précédent. Ca n'a pas grand chose à voir avec ce à quoi j'objectaison ne pourrait pas differencier, sur la base du comportement, un zombie philosophique d'un humain conscient.
Non, on ne peut pas. Enfin bien sur on peut, mais seulement en rejetant aussi l'idee que l'esprit soit calculable.
Mon point est que tu t'objectes a une position qui n'est pas celle des auteurs que tu critiques.
Je pense suivre ton raisonnement Sunyata mais il ne tient que dans une conception "bouddhiste" de la conscience.
Le bouddhistes lors de leur méditation observent leurs pensées, leurs émotions, leur sensations et les ayant observées ne s'y identifient plus. Ils définissent alors la conscience comme "l'oeil intérieur qui observe tout en bout de course". Avec cette définition la conscience est limitée à "la capacité à prendre conscience de" et ne recouvre pas l'intelligence, les croyances, la créativité etc.
Dans une expérience personnelle de méditation, effectivement, l'oeil intérieur de peut s'observer lui même. On peut observer les pensées qui défilent, les sensations du corps qui changent et évoluent constamment mais on ne peut pas observer le processus d'observation.
Donc oui, dans ce cadre la conscience ne peut se saisir d'elle même.
Mais alors la conscience est juste la capacité d'observer (mentalement) autrement dit le fait "d'être conscient de".
Or pour étudier il faut plus, il faut raisonner et réfléchir, ce que la conscience (au sens bouddhiste) ne peut. Seule l'intelligence est à même d'étudier. Or l'intelligence n'étant pas la conscience, ton argument tombe car ce n'est plus la conscience qui doit se saisir d'elle même.
Enfin, les questions soulevées dans l'article sont majoritairement des "pourquoi?" or la science y répond rarement (pour ne pas dire jamais) elle ne répond qu'à des "comment?"
I.
Un exemple simple : "quel est le successeur de N?", ou N est un entier. Voilà un ensemble infini de question, auquel un humain ou une machine spécialement programmée peut répondre, mais que le système que tu proposes, basé sur un dictionnaire, ne pourras pas traiter. Et il y a une infinité d'ensemble de ce type.
Très concrètement, je m'opposais à deux choses qui ont été dites dans ce topic :Mon point est que tu t'objectes a une position qui n'est pas celle des auteurs que tu critiques
Michel Bitbol signale que la clôture causale des processus neurophysiologique se suffisent à eux mêmes. Ils n'ont pas besoin de faire intervenir soi comme cause, soit comme effet quelque chose comme l'expérience vécue d'un évènement.
(tu remarqueras qu'on parle de processus neurophysiologique, et pas d'une hypothétique machine au fonctionnement indéterminé)
et
On pourrait tout à fait être des sortes de machines computantes ayant un comportement rationnel, sans être doté
de la subjectivité.
je ne repond pas à la place de wipe, mais je ne suis pas d'accord avec cette assertion.
d'ailleurs en utilisant le terme "forme" de logiciel, on ouvre la porte à tout type de discours.
j'observe par ailleurs qu'il y a deux fils très similaire en paralèlle.
et je note que tu reviens sur la notion de "philosophie de l'esprit". !
est on dans le fil, et dans l'esprit du site ou bien dans une dérive purement philosophique.
qui revient périodiquement.
A noter qu'il y a une façon assez rigolote de remettre en cause la possibilité logique du zombi philosophique : si on faisait un tel zombi à partir de Chalmers, continuerait-il à écrire des bouquins sur la conscience ?
je me permets de poursuivre.
et j'avance qu'une voiture est une "forme" de logiciel.
elle est constituée de "formes" d'organes mécaniques qui travaillent en collaboration, et doit se nourrir d'énergie".
on pourrait me rétorquer que sa "conscience" est le conducteur, mais c'est de moins le cas avec le développement de toute l'électronique embarquée et les futures voiture quasi autonomes à venir.
ce message est volontairement provoc, mais me semble être à la hauteur des arguments avancés.
disons que je répond à du bla-bla par du bla-bla.
Pas de soucis à priori à prendre telle ou telle définition, mais est-ce que cette définition nous permet de comprendre ou de prédire quelque chose de non trivial? C'est une vrai question et je serais curieux de savoir ce que toi ou Sunyata en pensez.Le bouddhistes lors de leur méditation observent leurs pensées, leurs émotions, leur sensations et les ayant observées ne s'y identifient plus. Ils définissent alors la conscience comme "l'oeil intérieur qui observe tout en bout de course". Avec cette définition la conscience est limitée à "la capacité à prendre conscience de" et ne recouvre pas l'intelligence, les croyances, la créativité etc.
Je sais qu'on croise parfois des intégristes de l'exclusion du "pourquoi", mais quand on s'intéresse à la substance il faut quand même se demander si un "pourquoi" n'est pas un "comment" déguisé. Par exemple si je demande pourquoi les abeilles s'occupent des petits de la reine, la question peut être profondément biaisée, si je m'attends à une réponse téléologique, ou être strictement équivalente à "quelle est la pression de sélection expliquant ce phénomène". Pour les questions que tu cites, je n'en vois aucune qui suggère une réponse téléologique ou qui ne soit pas facilement reformulable avec un "comment".Enfin, les questions soulevées dans l'article sont majoritairement des "pourquoi?" or la science y répond rarement (pour ne pas dire jamais) elle ne répond qu'à des "comment?"
Non, aucun humain ni aucun logiciel ne peut répondre à un ensemble infini de question -il y a là une confusion entre la notion d'infini potentiel et infini tout court. Reformulation plus concrète: il n'est pas possible de tester scientifiquement qu'une propriété physique soit valable à l'infini, et aucun résultat physique connu n'implique la réalisation d'une propriété valable à l'infini.
Personnellement je ne comprend pas ce que signifie la première affirmation. Quelle en est ta compréhension?Très concrètement, je m'opposais à deux choses qui ont été dites dans ce topic :
Michel Bitbol signale que la clôture causale des processus neurophysiologique se suffisent à eux mêmes. Ils n'ont pas besoin de faire intervenir soi comme cause, soit comme effet quelque chose comme l'expérience vécue d'un évènement.(...)
On pourrait tout à fait être des sortes de machines computantes ayant un comportement rationnel, sans être doté
de la subjectivité.
Sur la seconde, en remplaçant "être" par "imaginer" ou "imaginer être" (ce qui, je crois, est le sens qu'il met dans cette affirmation), je ne crois pas qu'il n'y ai aucun auteur qui le conteste -même pas par Dennett.
Certes, mais depuis le temps et le nombre de discussion sur le sujet, tu devrais savoir qu'il y a une définition technique derrière mon emploi de ce terme, à savoir que le comportement est calculable/équivalent à une machine de Turing.
Ma compréhension du site est que les aspects de la philosophie qui sont directement pertinents aux sciences sont bienvenus. Difficile de trouver des aspects philosophiques plus utiles à une science que la philosophie de l'esprit.
Désolé, mais cela suggère que tu n'as pas réellement compris ce que c'était. Oui, par définition.
Même remarque. Oui, une voiture est aussi calculable/équivalent à une machine de Turing. Il n'y a aucun système physique connu qui échappe à cette définition.