Page 1 sur 2 1 DernièreDernière
Affichage des résultats 1 à 30 sur 41

neurosciences



  1. #1
    kolmalou

    neurosciences


    ------

    bonsoir,
    je suis en premeire S et je m'interesse au neurosciences, et nottement sur la cognition, de plus je voulais savoir à quoi cela aboutissait concrettement et si il existe des livres avec les quels je pourrais disons m'avancer un peu

    -----

  2. Publicité
  3. #2
    glevesque

    Re : neurosciences

    Salut

    Comme intro tu peus venir jeter un petit cout d'oeil ici : De la matière à la Conscience Et Évolution de la Conscience Morale

    Précise d'aventage tes questions et intérogations un peut plus !!!!

    A++
    Je veux comprendre et non d'avoir raison, je veux savoir et non tout connaitre

  4. #3
    halman


  5. #4
    Dordon

    Re : neurosciences

    Moi je te conseil Plus vaste que le ciel (notre cerveau ) De Gerald Edelman, prix nobel de medecine.

    Dordon
    DrDn en qwerty

  6. A voir en vidéo sur Futura
  7. #5
    halman

    Re : neurosciences

    Quelques spécialistes dans le domaines.


    Michael I. Posner

    Né en 1936 à Cincinnati, Ohio, Michael Posner fait ses études universitaires à l'Université de Washington, à Seattle, où il obtient son Ph.D. de psychologie en 1962. En 1968, il est nommé professeur à l'Université de l'Oregon, située à Eugène, où il se trouve toujours à l'heure actuelle. Directeur depuis 1989 de l'Institut des Sciences Cognitives et de la Décision à l'Université de l'Oregon, il développe le Centre des Neurosciences Cognitives de l'Attention.

    Michael Posner est l'un des pionniers dans l'utilisation des techniques d'imagerie cérébrale pour faire la synthèse entre la psychologie cognitive et les neurosciences. A ce titre, c'est l'un des observateurs les plus fins du rapport entre l'esprit et le cerveau. Ses deux plus importantes publications dans ce domaine sont intitulées "Seeing the mind" et "Images of Mind".

    Il est l'un des experts mondiaux du phénomène de l'attention qui est son principal domaine de recherche. Il étudie les mécanismes neuronaux et les structures cérébrales qui sous-tendent l'attention sélective. Ces recherches ont permis notamment de comprendre l'influence de l'attention dans l'apprentissage des jeunes enfants. Le phénomène de l'attention est présenté dans l'exposé "La dynamique de l'attention".



    Daniel Schacter

    Il reçoit son B.A. de l'Université de North Carolina à Chapel Hill et poursuit ses études à l'Université de Toronto, où il obtient son PH.D. en 1981. Il quitte Toronto après 6 ans de recherche pour rejoindre le département de Psychologie de l'Université de l'Arizona en 1987. En 1991, à Harvard, il devient professeur au département de psychologie qu'il dirige actuellement.

    Son intérêt principal se porte sur les problèmes de la mémoire et du phénomène de l'amnésie en relation avec différentes lésions cérébrales. Tous ses travaux tentent de faire le lien entre d'une part les phénomènes cliniques et d'autre part les analyses expérimentales et théoriques de la mémoire. Il est l'inventeur de la distinction entre mémoire explicite et mémoire implicite, ce dernier concept désignant tous les phénomènes de mémorisation et d'apprentissage non conscients.

    En publiant ses livres "Stranger behind the Engram : Theories of Memory and the Psychology of Science " (1982) et "Searching for Memory : The Brain, the Mind and the Past" (1996), il montre son intérêt pour l'histoire de la psychologie et s'affirme comme l'un des plus importants psychologues de la mémoire humaine.



    David Servan-Schreiber

    Né à Neuilly en 1961, David est le fils aîné du journaliste et écrivain Jean-Jacques Servan-Schreiber. Il fait ses études de médecine à l'hôpital Necker, à Paris, où il monte le laboratoire de micro-informatique avec les premiers Apple II en 1980. Ensuite, il continue sa formation de médecine au Québec, Canada, d'abord à l'Université Laval, puis à l'Université McGill où il se spécialise en psychiatrie. Il ajoute à sa formation de psychiatre un doctorat en Intelligence Artificielle obtenu à l'université de Carnegie-Mellon, au cours duquel il modélise, à l'aide de réseaux de neurones, certains des mécanismes neuronaux à l'œuvre derrière la dépression et la schizophrénie.

    Codirecteur du laboratoire clinique des Neurosciences Cognitives de l'Université de Pittsburgh, où il exerce également en tant que psychiatre, son principal centre d'intérêt est d'établir un lien entre les neurosciences et la psychanalyse.
    Depuis 1991, il est membre du comité des Médecins sans Frontières des États-Unis. C'est ainsi que, une fois par an, il interrompt ses recherches pour aller, pendant quelques semaines, dans un pays du Tiers-Monde où la situation est décrétée particulièrement critique par l'organisation.



    Herbert A. Simon

    Né en 1916, à Milwaukee, dans le Wisconsin, Herbert Simon est d'origine allemande par son père qui a émigré au début du siècle. Il commence une carrière dans les sciences économiques et obtient son doctorat à l'Université de Chicago en 1943. En 1949, il devient professeur de management à l'Institut de Technologie de Carnegie, aujourd'hui Université de Carnegie-Mellon.

    C'est alors que se manifeste son intérêt pour les mécanismes qui permettent à l'homme de prendre des décisions et de résoudre des problèmes, que ce soit dans les contextes sociaux, les organisations gouvernementales, les entreprises ou les décisions politiques. A cette occasion, il invente et développe le concept de rationalité limitée, qui remet en cause l'hypothèse traditionnelle que les agents économiques prennent des décisions de façon "optimale". En 1978, il reçoit le prix Nobel de sciences économiques pour cette invention.

    Véritable intelligence universelle, il est l'un des premiers à comprendre que les ordinateurs peuvent être employés pour modéliser les processus de pensée humains. Le 15 décembre 1955, avec Allen Newell et Cliff Shaw, il comprend pour la première fois comment écrire un programme permettant à un ordinateur de résoudre un problème comme un homme le ferait. L'Intelligence Artificielle est née. Les différences entre l'intelligence des ordinateurs et celle des hommes sont expliquées dans l'exposé "L'homme et la machine".

    Les travaux de Simon révolutionnent les fondements de la psychologie cognitive. Ils sont à l'origine d'une nouvelle manière de simuler ce qui se passe dans l'esprit de l'homme : c'est la révolution cognitive. Il consacre ensuite sa vie à modéliser tous les aspects de la cognition humaine comme la résolution de problèmes, la mémoire, l'apprentissage, les différences de raisonnement entre les experts et les novices. Une introduction à la psychologie de l'expertise et de la résolution de problèmes est donnée dans l'exposé "Le problème et l'expert".

  8. #6
    halman

    Re : neurosciences

    John Anderson

    Né à Vancouver, Colombie Britannique, en 1947, J.A. Anderson poursuit très tôt différents rêves, que ses parents, d'origine modeste, ont toujours soutenus. Il va à l'Université de B.C., Canada, rêvant d'être écrivain, puis psychologue, et c'est finalement à Stanford, où il travaille avec Gordon Bower, qu'il développe une théorie de l'intelligence humaine suffisamment bien élaborée pour pouvoir être simulée sur ordinateur. Après son doctorat en 1972, il est nommé professeur à Yale à l'âge de 25 ans ! En 1978, accompagné de sa femme, il accepte le poste de professeur de psychologie et d'informatique à l'Université de Carnegie-Mellon à Pittsburgh, poste qu'il occupe toujours actuellement.

    En 1983, il publie "L'Architecture de la Cognition", où il décrit un système appelé ACT qui est le premier modèle complet de l'intelligence. Capable d'intégrer perception, mémoire et raisonnement en un seul programme informatique. ACT, comme son successeur actuel ACT-R, est une véritable théorie scientifique qui permet de comprendre et de prédire comment la pensée peut être décomposée en opérations élémentaires, plausibles au niveau neuronal. L'essentiel de ce modèle est présenté dans l'exposé : "Le fil de la pensée".

    En 1990, il publie "Le caractère adaptatif de la pensée", où il montre comment un grand nombre de phénomènes cognitifs peuvent être compris comme une adaptation de l'esprit aux demandes de l'environnement. Cette idée est expliquée dans l'exposé "L'écologie de la mémoire".

    Ses deux fils, nés en 1980 et 1985, contribuent énormément à changer sa personnalité et le poussent à s'intéresser à l'acquisition du langage et au développement des capacités mathématiques. Il décide alors d'appliquer sa théorie de l'intelligence pour développer, avec succès, l'un des premiers "tuteurs cognitifs". Les tuteurs cognitifs sont des programmes informatiques capables de suivre les étapes du raisonnement et de l'apprentissage d'un étudiant dans un domaine donné.

    Président de la Société Américaine des Sciences Cognitives en 1988, il reçoit différents prix du comité scientifique qui couronnent sa carrière de chercheur.



    Rodney Brooks

    Rodney Brooks est australien et fait ses études de mathématiques entre 1974 et 1977 à l'Université de Flinders, en Australie du Sud. C'est à l'Université de Stanford qu'il obtient son doctorat en informatique en 1981. Devenu résident permanent des États-Unis, il est chercheur tout d'abord à l'Université de Carnegie-Mellon puis à l'Institut de Technologie du Massachusetts (M.I.T). En 1993, il devient professeur des Sciences de l'Ingénieur et d'Informatique et membre puis directeur du fameux "AI Lab", le laboratoire d'intelligence artificielle du MIT.

    Considéré comme l'enfant terrible de la robotique américaine, il s'est distingué pour avoir résolu un des problèmes centraux de la robotique : créer un robot capable de se déplacer de façon autonome dans un environnement complexe, en sachant contourner ou franchir les obstacles de façon intelligente. Traditionnellement, l'intelligence artificielle et la robotique essayent de résoudre ce problème en développant des robots qui calculent à l'avance leur trajectoire dans l'espace. L'idée géniale de Brooks est d'avoir inventé une sorte de fourmi géante qui ne calcule rien mais qui sait très bien réagir et contourner les obstacles qu'elle rencontre. Un bel exemple d'intelligence sans raisonnement explicite dont la NASA s'est directement inspirée pour concevoir Sojourner, le robot qui explore la surface de Mars.

    Après les fourmis, Rodney Brooks décide de s'attaquer à l'homme. Il étudie ce qui fait de nous des êtres humains et comment nous interagissons avec les autres et avec le monde en concevant un robot humanoïde, Cog, qui lui permet de reproduire cette interaction artificiellement. En construisant Cog, il se donne pour objectif d'inclure et de concilier toutes les découvertes de la psychologie cognitive et des neurosciences. De ce fait, c'est un observateur averti des progrès constants des neurosciences cognitives. Cog et ses performances sont présentés en détail dans l'exposé "Le robot et l'intelligence".

    La cinquantaine de publications et livres qu'il a écrits traitent de sujets aussi variés que la vision, la planification des trajectoires, l'analyse de l'incertitude, l'assemblage de robots, la vision active, les robots autonomes, les micro-robots, l'exploration planétaire, le problème de la représentation et la vie artificielle. Sa carrière académique, couronnée de nombreux honneurs, est complétée par une carrière plus pratique : il a fait breveter ses recherches sur les robots et les structures miniatures, a fondé des entreprises comme la Lucid Inc., l'IS Robotics, et a édité la revue " International Journal of Computer Vision" pendant 7 ans.



    Jean-Pierre Changeux

    Jean-Pierre Changeux est né le 6 avril 1936 à Domont, dans le Val d'Oise (France). Il entre à l'École Normale Supérieure, est reçu premier à l'agrégation des Sciences Naturelles en 1958, et en 1964, passe son doctorat en Sciences Naturelles sous la direction du Prix Nobel Jacques Monod. Depuis 1975, il occupe la chaire de communication cellulaire au Collège de France et dirige le laboratoire de Neurologie Moléculaire à l'Institut Pasteur.

    Ses travaux créent un lien entre les sciences fondamentales, la biologie et la médecine, et apportent une importante contribution à la compréhension des mécanismes de base de la vie. Ils ont en outre de nombreuses applications potentielles en médecine et en pharmacologie. Il est ainsi le premier scientifique à isoler un récepteur de neurotransmetteur. C'est aussi lui qui, en collaboration avec Antoine Danchin, a montré comment les réseaux de neurones du cerveau se développent par multiplication des connexions entre les cellules nerveuses puis par "élimination sélective" de ces connexions au cours de l'activité du système nerveux. Ce processus est expliqué en détail dans l'exposé "L'enfance du cerveau".
    Jean-Pierre Changeux est l'auteur d'innombrables publications scientifiques, et écrit également des livres adressés à un public plus large, comme "L'homme neuronal", "Matière à Pensée", "Raison et Plaisir" et "Fondements Naturels de l'éthique". Il est membre de nombreuses sociétés scientifiques en Europe et aux États-Unis, y compris l'Académie Nationale des Sciences, et exerce plusieurs fonctions publiques, comme la présidence du Comité Consultatif National d'Ethique pour les Sciences de la Vie et de la Santé depuis 1992. Il reçoit de très nombreux prix de différentes académies et organisations internationales et est notamment décoré commandeur de la Légion d'Honneur en 1997.



    Stephen Kosslyn

    A la suite d'une intense activité de militantisme politique et social dans les années 60, Stephen Kosslyn s'intéresse aux problèmes de l'éducation et décide de faire des études de psychologie Il obtient son doctorat en psychologie en 1974 à l'Université de Stanford, où il est fortement stimulé, entre autres, par Gordon Bower et les idées de Piaget concernant l'influence de l'imagerie mentale sur les processus de pensée des enfants. A cette époque, la recherche en Intelligence
    Artificielle commence à influencer la psychologie, et de ce fait, Kosslyn décide de se spécialiser dans les deux domaines.
    En 1983, il devient professeur de psychologie à l'Université de Harvard et psychologue dans le département de neurologie à l'Hôpital Général du Massachusetts.

    Sa recherche est consacrée aux problèmes de la génération et du traitement des images mentales, et à la nature des mécanismes neuronaux qui sous-tendent la perception. En 1994, il publie "Image and Brain : The Resolution of the Imagery Debate" (1994) qui expose une théorie complète des mécanismes d'imagination visuelle, de leur rapport avec la perception et de la manière dont ils sont implantés dans le cerveau. Ces résultats lui permettent d'établir comment la perception et l'imagination visuelle sont inextricablement liées. Son approche multidisciplinaire du phénomène de l'imagination visuelle, qui conjugue observation neuroscientifique (à l'aide de méthodes d'imagerie cérébrale), psychologie cognitive et modélisation sur ordinateur en font l'un des pionniers des neurosciences cognitives. Le fonctionnement de la perception et de l'imagination visuelle sont respectivement expliqués dans les exposés "L'intelligence de l'œil" et "Les images mentales".

    Il a écrit cinq livres et plus de 150 publications sur ces sujets. Il est aussi conseiller en matière de nouvelles technologies dans le cadre de comités gouvernementaux du Conseil National de la Recherche. Il s'intéresse en outre à l'usage des principes psychologiques dans l'esthétique visuelle des expositions.

    Il a reçu de nombreux prix scientifiques tels que le prix Jean-Louis Signoret de la Fondation Ipsen à Paris, et est élu à l'Académie Américaine des Arts et des Sciences. Très francophile, il passe son année sabbatique 1997-98 au Collège de France à Paris avec sa femme et ses trois enfants, et apprend le français avec assiduité pour être en mesure de faire ses cours en français.

  9. Publicité
  10. #7
    halman

    Re : neurosciences

    Eric Kandel

    Né à Vienne, Autriche, en 1929, Eric Richard Kandel s'intéresse avant tout à la mémoire, mais sa carrière dans ce domaine a suivi maints détours. Il commence en fait par suivre des cours d'histoire et de littérature comparée à Harvard College, où il se découvre un grand intérêt pour le fonctionnement de l'esprit humain et les processus mentaux inconscients. Il décide donc d'étudier la médecine à l'Université de New York (NYU), où il obtient son diplôme de médecin psychiatre en 1956. Tout en exerçant la psychiatrie au Presbytarian Hospital de New York (jusqu'en 1986), il est professeur, tout d'abord à l'École de Médecine de New York (de 1965 à 1974), puis à l'Université de Columbia de New York, où il est nommé directeur du centre de Neurobiologie et de Comportement et professeur du département de Physiologie et de Psychiatrie.

    Eric Kandel commence sa carrière de recherche en étudiant le système nerveux de l'aplysie, une sorte d'escargot marin qui se prête tout particulièrement à l'étude de l'impact neuronal des processus d'apprentissage et de mémoire. Il découvre alors que le système nerveux de l'aplysie se modifie à l'occasion de processus d'apprentissage comme l'habituation, le réflexe conditionné et la sensibilisation. C'est une découverte fondamentale, qui ouvre la voie de la compréhension des bases neurobiologiques de l'apprentissage dans le cerveau. L'essentiel de ses recherches ultérieures a consisté à approfondir cette découverte et à cerner comment le cerveau se transforme anatomiquement au cours de l'apprentissage, à court terme et à long terme. La manière dont le cerveau se modifie au cours de l'apprentissage est expliquée dans l'exposé "Le cerveau qui apprend".

    Eric Kandel a reçu un grand nombre de prix de diverses associations et sociétés américaines. La médaille nationale de la Science, le prix Jean-Louis Signoret de la Fondation Ipsen à Paris, des titres de "Docteur Honoris Causa" et l'élection en tant que membre honoraire de différentes sociétés le consacrent "géant de la neuropsychiatrie".



    Rodolfo Llinas

    Rodolfo Llinas est né à Bogota en Colombie, en 1934. C'est dans sa ville natale qu'il commence ses études de médecine, où il obtient son M.D. en 1959. Mais c'est à Canberra, en Australie, qu'il obtient son Ph.D. en Neurosciences en 1965, et aux États-Unis qu'il continue sa carrière de chercheur, tout d'abord à l'École de Médecine de Harvard, puis à l'Université du Minnesota. Depuis 1976, il est professeur et président du département de physiologie et de biophysique de l'École de Médecine de l'Université de New York (N.Y.U).

    Il a consacré sa vie à la compréhension du fonctionnement du cerveau. Il s'est tout d'abord intéressé au fonctionnement des neurones simples, puis progressivement, il est passé à l'étude des assemblées cellulaires. Il s'intéresse maintenant au fonctionnement global du cerveau en étudiant les mécanismes de la conscience et la manière dont le cerveau simule la réalité qui nous entoure. En particulier, il a étudié le mécanisme de "liaison des sensations", grâce auquel le cerveau est capable de produire une seule image consciente à partir des sensations qui lui parviennent séparément. Ce mécanisme est expliqué dans l'exposé "Le film de la conscience".

    Philosophe autant que scientifique, Rodolfo Llinas a aussi écrit un livre en collaboration avec la philosophe Patricia Churchland.



    James McClelland

    C'est en psychologie cognitive que James McClelland a présenté son doctorat à l'Université de Pennsylvanie en 1975. Après avoir passé un certain temps à l'Université de Californie à San Diego, il va, en 1984, à l'Université de Carnegie-Mellon , où il est maintenant professeur de psychologie et d'informatique et codirecteur du Centre des Fondements Neuraux de la Cognition, en collaboration avec l'Université de Pittsburgh.

    James McClelland est connu pour être l'un des meilleurs théoriciens de la psychologie cognitive. Tout au long de sa carrière, il s'est attaché a développer des mini-programmes informatiques appelés réseaux de neurones, qui simulent l'activité des neurones dans le cerveau. Ces réseaux permettent de penser différemment la manière dont le cerveau traite, représente et apprend la connaissance. Il a ainsi modélisé les mécanismes neuronaux qui sous-tendent des facultés cognitives aussi différentes que la perception, la lecture, le traitement d'information, l'acquisition du langage et le développement cognitif, le rôle de l'inné et de l'acquis, etc.

    En 1986, il publie, avec David Rumelhart, un ouvrage en deux volumes intitulé "Parallel Distributed Processing", qui a véritablement lancé les réseaux de neurones en psychologie cognitive. Une introduction aux réseaux neuronaux et à leur intérêt pour comprendre les mécanismes de l'apprentissage dans le cerveau est donnée dans l'exposé "Les réseaux de neurones".

    Ses recherches actuelles portent sur les désordres de la cognition et en particulier sur le rôle de l'hippocampe dans l'apprentissage et la mémoire. Il a été le premier à proposer, en collaboration avec O'Reilly, une théorie complète de l'organisation de la mémoire humaine, qui non seulement permet de décrire son fonctionnement, mais permet également de comprendre pourquoi elle est organisée de cette façon. L'organisation de la mémoire humaine est présentée dans l'exposé
    "Les lieux de mémoire".

    James McClelland a été président de la Société des Sciences Cognitives et a dirigé l'édition du journal "Cognitive Science".
    Il est pressenti pour recevoir, avec Rumelhart, le prix "APA" de la "Contribution Scientifique Distinguée", pour leur rôle de pionnier en neurosciences et en sciences cognitives.


    L'intelligence artificielle
    (Herbert Simon)

    Mon principal intérêt dans la recherche, au cours de ces dernières années, en fait au cours des quarante dernières années, a été de comprendre comment les êtres humains pensent ; par quelles étapes ils passent pour trouver la réponse à un problème difficile, ou pour prendre des décisions, ou encore pour utiliser le langage.

    Et il m'a semblé, de plus en plus au fur et à mesure que nous l'avons appliqué, il m'a semblé qu'un moyen puissant de comprendre la pensée humaine est de tenter de programmer des ordinateurs à penser de la même manière que les hommes, c'est à dire en utilisant les mêmes processus de pensée que l'homme.

    C'est cela que nous désignons habituellement par Intelligence Artificielle. En fait L'Intelligence Artificielle peut aller dans deux directions. Soit utiliser l'ordinateur pour simuler et imiter la pensée humaine et ses processus, ou bien utiliser l'ordinateur simplement pour faire des choses "intelligentes", au sens que pour être accomplies ces choses requièrent de l'intelligence chez l'homme.



    L'intelligence des échecs
    (Herbert Simon)

    Par exemple, aujourd'hui il y a des programmes informatiques qui jouent très bien aux échecs. La plupart de ces programmes ne jouent pas aux échecs de la même manière que les hommes. En fait, ils exploitent la vitesse des ordinateurs pour examiner à l'avance des millions, voir un milliard, de déplacements et de décisions possibles.

    Or nous savons à partir d'expériences de laboratoire qu'un être humain, même un grand maître comme Kasparov, n'examine qu'une centaine de mouvements à l'avance ; on est loin des milliards, et même des millions de possibilités calculées par les ordinateurs.
    Donc indépendamment du fait que Deep Blue peut très bien jouer contre lui, il est clair que Kasparov calcule les coups aux échecs différemment de Deep Blue.

    Toutefois, on peut aussi écrire des programmes qui jouent aux échecs d'une façon plus "humaine". Ces programmes, au lieu de choisir le meilleur coup en examinant des milliards de possibilités, étudient seulement quelques possibilités bien choisies, au plus une centaine, à l'instar des grands maîtres. Puis en se servant de divers indices, de connaissances sur ce qui compte aux échecs, ces programmes sont capables de choisir de très bons mouvements.

    De tels programmes existent : aucun d'entre eux n'est aussi bon que Deep Blue, ni n'est capable de rivaliser avec Kasparov, mais illustrent la manière dont les humains réussissent à choisir leurs déplacements sans avoir besoin d'examiner des milliards de mouvements comme les ordinateurs.

  11. #8
    halman

    Re : neurosciences

    Connaissance contre vitesse de calcul (Herbert Simon)

    Une des choses que nous savons sur l'intelligence -- et les programmes de jeu d'échecs l'ont prouvé, même si en fait nous le savions déjà auparavant -- c'est que la vitesse de calcul ne suffit pas pour qu'un programme aille de l'avant, et encore moins pour qu'il se comporte intelligemment.
    Donc même si Deep Blue calcule ses déplacements beaucoup plus vite qu'un être humain ne le fait, la raison pour laquelle ce programme joue bien aux échecs est qu'il possède une grande quantité de connaissances sur ce jeu.

    Je viens de publier un article avec Fernand Gobet dans lequel nous étudions des parties où Kasparov jouait contre plusieurs joueurs, chacun sur un échiquier différent, de 6 à 8 joueurs, qui sont tous des maîtres ou des grands maîtres. Les jeux étaient simultanés. Kasparov disposait donc du sixième ou du huitième du temps de ses adversaires pour jouer.

    Il existe un système d'évaluation de la force d'un joueur d'échecs : l'échelle ELO. Nous nous sommes aperçus que Kasparov, lorsqu'il jouait ainsi contre 6 ou 8 personnes, ne jouait pas aussi bien que lors des championnats où il atteint 2750 points.
    Son niveau était un peu en dessous de celui d'un grand maître, à environ 2650 points. C'est à dire une centaine de points en-dessous de son niveau, mais encore bien au dessus de celui de la plupart des joueurs dans le monde !

    La puissance de calcul n'explique donc pas tout, ni même l'essentiel de la performance. Kasparov était toujours capable d'utiliser sa connaissance des échecs, de reconnaître des coups et de les choisir de façon très sélective, même s'il n'avait pas le temps d'analyser beaucoup de déplacements dans ces parties.

    Donc lorsque les programmes d'échecs auront davantage de connaissances, nous n'aurons plus besoin d'ordinateurs rapides car les programmes pourront obtenir les mêmes résultats sans avoir besoin de faire autant de calculs.



    Le secret de l'intelligence humaine (Herbert Simon)

    Toutes nos expériences avec les programmes de jeux d'échecs démontrent que la vitesse ne remplace pas complètement la connaissance, même si des possibilités limitées de substitution existent.

    Ce qui est intéressant et merveilleux à propos des êtres humains, qu'on les considère comme simples ou complexes, ce qui est merveilleux c'est de voir à quel point nous pouvons aller loin, grâce à la connaissance et au jugement.

    Comme nous n'avons pas une grande puissance de calcul, nous engageons rarement des calculs très importants, la plupart d'entre nous n'en faisons même jamais. A la place, la connaissance nous permet de faire preuve de discernement, pour aller directement dans la bonne direction, avec très peu de recherches, au lieu d'essayer toutes les directions. C'est cela qui caractérise notre intelligence, c'est là son secret.



    Dix ans pour devenir expert
    (Herbert Simon)

    Un expert est, évidemment, une personne qui peut résoudre des problèmes dans un domaine spécialisé plus rapidement que la moyenne d'entre nous. Il existe des problèmes que nous ne pouvons pas résoudre du tout. On devient un expert en consacrant beaucoup d'efforts et d'attention à l'étude d'une spécialité. On peut le vérifier pour un certain nombre de disciplines : sciences, athlétisme, jouer d'un instrument de musique, composition musicale, peinture, et beaucoup d'autres domaines, avec chaque fois la même réponse : on devient un expert en s'entraînant soigneusement pendant de nombreuses années.

    Vous pouvez jouer du piano pendant plusieurs années sans devenir un expert - c'est mon cas. Un pianiste professionnel sait la différence entre jouer du piano pour le plaisir et l'étudier. C'est un effort complètement différent. Quand je parle de ces années d'effort - dix ans est le chiffre magique dans toutes les disciplines étudiées pour atteindre un haut niveau -, je parle d'études sérieuses d'un sujet et non simplement d'un dilettantisme désinvolte.

    Nous ne savons pas si tout le monde peut devenir un expert en toutes choses après dix ans. En fait, c'est très improbable. En tout cas, personne ne peut devenir un expert de haut niveau sans ces dix ans. Généralement, il y a une progression : l'enfant joue du piano, les parents l'admirent, puis l'enfant donne brillamment un récital, les parents consultent le professeur qui répond : "J'ai donné à votre enfant tout ce que j'ai pu, il a besoin d'un professeur de plus haut niveau", et ainsi l'enfant passe à un niveau supérieur. Si ce processus continue, l'enfant se retrouve avec un professeur de niveau international. Personne n'arrive au sommet sans ce genre de processus. Cela implique non seulement un intellect suffisant, mais aussi une motivation pour subir ce dur entraînement, qui pourra être renforcée par le succès, et renforcée aussi par les parents qui poussent leurs enfants toujours un peu plus. Le père de Mozart en est un exemple. Vous retrouvez ces exemples dans tous les cas de performance à très haut niveau.



    Problèmes et heuristiques (Herbert Simon)

    Même pour des problèmes aussi simples que la tour de Hanoi, il y a des centaines d'alternatives possibles, et si vous le donnez à résoudre à un jeune enfant de 12 ans, il va en explorer un certain nombre au hasard puis s'interrompre.

    Nous, les êtres humains qui n'aimons pas explorer des centaines de possibilités au hasard, nous cherchons donc à trouver des moyens rapides de résoudre ces problèmes. Nous sommes prêt à essayer un certain nombre d'alternatives mais pas des centaines et pas pendant très longtemps. C'est pourquoi nous essayons de suivre des règles de conduite simples, également appelées heuristiques, qui nous semblent appropriées pour la résolution du problème en question.

    Par exemple, on sait qu'aux échecs la tour devient une pièce très puissante lorsqu'elle est placée devant une ligne ouverte, par conséquent, lorsque nous voyons une ligne ouverte, nous sommes souvent tentés de placer notre tour dessus. C'est un exemple d'heuristique très spécifique au jeu d'échecs. Mais il existe des heuristiques plus générales qui marchent dans toutes sortes de jeux comme la règle de la mobilité, qui dit que tout déplacement qui permet d'augmenter le nombre de mouvements que l'on pourra entreprendre au prochain tour, est un bon déplacement, car il favorise la mobilité. Le joueur qui a plus de liberté de mouvement a en effet plus de chances de mener celui qui en a moins.



    Comment un humain résout un problème
    (Herbert Simon)

    Comment est-ce que les gens résolvent ce problème ? Tout d'abord, nous pensons qu'ils s'inventent un "espace du problème", c'est-à-dire une façon d'y réfléchir. L'espace de ce problème, je peux fermer les yeux et l'imaginer : il y a trois piquets et quelques disques, et les disques sont de taille différente. En fait, je réfléchis à ce problème sans me soucier des couleurs parce que rien n'a été dit à leur sujet ; je ne m'occupe que de la taille, c'est mon espace du problème pour cette tâche.

    Puis j'applique la méthode "des buts et des moyens" : je me dis : "voici où je suis ; je veux être là ; que puis-je faire ?" Et bien, je peux déplacer les disques, un par coup. Je peux jouer ce coup là, ou alors celui-ci. J'essaye d'abord celui-là parce que je sais que je veux mettre le grand disque sur ce piquet, donc je ne veux pas le couvrir. Mais cela me conduit dans l'impasse que nous avons vue il y a un moment. Le seul autre coup possible est celui-ci. Maintenant, je me dis : "je veux toujours faire sortir ce grand disque, j'ai donc intérêt à enlever celui-là". Maintenant je pourrais mettre le grand là-bas si le petit n'y était pas. Voici une situation où je pense à une action qui va me rapprocher de mon but, et à une condition qui doit être satisfaite pour que celle-ci puisse s'accomplir, alors cela devient mon nouveau but et j'enlève le petit disque pour faire la place au grand. Je peux enfin jouer ce coup. Ensuite j'aimerais déplacer le disque moyen, mais de nouveau le petit me gène, donc mon but intermédiaire devient de le bouger. Enfin je peux jouer ceci, ceci et cela.

    Ce que vous avez vu se passer là, dans la résolution de ce problème, fut tout d'abord l'élaboration de l'espace du problème : sa représentation en termes de piquets et de disques et de leurs caractéristiques importantes, telle que la taille des disques. La deuxième chose que vous avez pu voir est l'idée de buts, c'est-à-dire d'objectifs, les situations auxquelles vous essayez d'arriver, et puis l'idée d'actions, vos moyens pour arriver au but en sachant que vous ne pouvez déplacer qu'un seul disque à la fois. Vous avez observé l'application de la méthode "des buts et des moyens" : si je veux déplacer ce disque, alors je dois déplacer celui-là ailleurs, et ainsi de suite. Tout cela semble très simple mais ... c'est simple si vous savez ce qui se passe ! On n'observe, en général, rien de plus qu'une combinaison de ces processus.

  12. #9
    halman

    Re : neurosciences

    L'expert est plus sélectif
    (Herbert Simon)

    Dans la recherche sur la résolution de problèmes, et l'extension de cette recherche pour découvrir pourquoi les experts sont des experts et pourquoi les novices sont des novices, dans cette recherche donc, je pense que nous avons découvert deux ou trois principes très puissants.

    Le premier est que, pour être un expert dans un domaine, en fait pour être capable de faire quoi que ce soit, il vous faut suffisamment de connaissances pour pouvoir mener une recherche sélective. Vous n'avez pas besoin de tout essayer au hasard, votre recherche est très sélective. Le premier essai n'est pas toujours dans la bonne direction, mais avec quelques essais de plus votre recherche vous conduira au but. Vous avez donc besoin des connaissances qui vous permettent d'être sélectif. Vous avez besoin de guider votre recherche en comparant à chaque instant votre but et votre situation actuelle, en trouvant les différences et en agissant avec le but de réduire ces différences. Nous appelons ceci la méthode "des buts et des moyens". C'est un élément fondamental de tout savoir-faire, y compris du savoir-faire d'un expert.

    Mais pour vraiment atteindre l'excellence, il faut en plus avoir acquis énormément de connaissances. En général, personne ne devient expert de niveau mondial, sportif olympique, grand maître aux échecs, champion dans quoi que ce soit, personne n'atteint la maîtrise d'une discipline au niveau mondial sans y investir au moins 10 ans d'attention minutieuse et d'entraînement sévère.



    Ce que l'expert voit
    (Herbert Simon)

    Une des réelles limites de la pensée humaine est la faible taille de la mémoire à court terme, le peu de choses auxquelles nous pouvons faire attention en même temps. Mais comment mesurer cette taille ? Et bien, il s'avère que si je choisis des lettres au hasard : X, Y, G, V, chacune d'elles est une unité et je peux en maintenir environ 7 à la fois dans ma mémoire à court terme ; mais si j'ai 7 mots : chien, chat, souris, rat, etc., je peux également en garder environ 7 en mémoire à la fois. Je peux me souvenir de 7 "items", où 7 items correspondent à 7 choses familières. Un grand nombre d'expériences ont confirmé cette idée que l'unité de base de la mémoire n'est pas le bit, ni la lettre, ni aucune autre unité arbitraire, mais "l'item familier".

    Lorsqu'on dit qu'un expert doit stocker beaucoup d'informations, on parle en général de plus de 50 000 items, par exemple des positions d'échecs. Ou bien, dans le cas du diagnostic médical s'il s'agit d'un médecin, celui-ci doit avoir mémorisé 50 000 combinaisons de symptômes, indices physiques ou résultats de tests qui lui sont familiers et qui lui permettent d'accéder à son savoir médical.

    Lorsque la taille de vos items augmente, quelque soit le domaine, vous remarquez plus de choses. Par exemple, si vous asseyez un grand maître devant un échiquier pendant cinq secondes, un échiquier qui reproduit une partie réelle, vous lui montrez cinq secondes puis vous l'enlevez et vous lui demandez de reproduire l'échiquier. Le maître ne fera presque pas d'erreurs : 95% pour 25 pièces. Si vous demandez la même chose à un novice ou à un joueur occasionnel, il ne replacera que 5 ou 6 pièces, peut-être 7. Pour lui, chaque pièce est un item. Pour le grand maître, une configuration de plusieurs pièces forme un seul item. Ainsi, l'échiquier n'est pas constitué de 25 pièces mais d'une demi-douzaine d'items. En revanche, si vous prenez le même échiquier mais avec des pièces disposées n'importe comment, alors le maître est à peine meilleur que l'amateur : 7 ou 8 pièces. C'est la preuve que cela n'a rien à voir avec les yeux ; les yeux du grand maître ne sont pas plus perçants. Tout s'explique par les items qui se sont accumulés dans sa mémoire durant toutes ces années passées devant des parties d'échecs.

    Vous pouvez faire cette expérience sur vous-même dans n'importe quel domaine où vous êtes compétent. Si vous jouez au bridge ou au poker, vous saurez mémoriser des donnes dont d'autres ne se souviendront pas. Si vous êtes médecin, vous saurez mémoriser des listes de symptômes.


    Qu'est-ce que l'intuition ?
    (Herbert Simon)

    Vous entrez dans le cabinet du médecin, il vous examine, ou vous lui racontez quelque chose, puis il dit "Oh !" et il vous donne le nom latin de la maladie qui vous afflige. Avec un peu de chance, il vous dira ce qu'il faut faire pour aller mieux.
    C'est son expertise. Mais remarquez que, décrit de cette façon, cela ressemble plutôt à de l'intuition.

    Qu'est-ce que l'intuition ? Vous posez un problème à quelqu'un qui le résout très vite. Vous lui demandez alors "Mais comment as-tu fait pour trouver la réponse ?" et il répond : "J'en ai eu l'intuition ! J'ai tout de suite vu la réponse." L'intuition, telle que nous la comprenons maintenant, est simplement de la reconnaissance, la capacité à reconnaître dans l'environnement des indices familiers qui ne seraient pas perceptibles à ceux qui ne se sont pas construit un immense savoir encyclopédique indexé à force d'éducation et d'expérience. Nous pensons donc aujourd'hui que l'expertise, non seulement dans les domaines très structurés qui appellent l'analyse, mais aussi l'expertise qui procède par des bonds intuitifs, peut être expliquée dans ce cadre, et nous pouvons écrire des programmes informatiques capables d'intuitions.

    Pourquoi l'expert ne peut-il pas expliquer la façon dont il arrive à la réponse ? Lors du processus de reconnaissance, vous pouvez dire ce que vous avez reconnu, mais vous ne pouvez pas réellement rendre compte, en détail, des indices que vous avez utilisés. Un ami s'avance vers vous et vous dites "Salut, Fred !". Quelqu'un vous demande alors "Comment saviez vous que c'était Fred ?". Vous ne pouvez pas répondre honnêtement à cette question. Vous n'en êtes tout simplement pas conscient. Des tas de choses se passent hors du champ de la conscience. Il y a certains indices dans ce que vous voyez, ces indices sont triés dans l'index déjà évoqué et vous arrivez à "Fred", le nom de la personne devant vous. Cela ne veut pas dire que sauriez décrire Fred suffisamment bien pour que quelqu'un d'autre puisse le reconnaître. Le sentiment d'intuition vient du fait que le résultat nous apparaît avec certitude, alors que nous n'avons aucune conscience de toutes les étapes par lesquelles notre esprit est arrivé à ce résultat.


    Qu'est-ce que le génie ?
    (Herbert Simon)

    Quand on est très impressionné par ce que fait un expert, si c'est particulièrement créatif, et surtout s'il peut le refaire, ou s'il fait deux choses différentes, alors on commence à parler de génie. Ce n'est qu'un mot pour définir quelque chose qui se situe en haut de l'échelle, et je n'ai aucune raison de croire qu'il existe quelque chose de spécial appelé "génie" qui ne se
    retrouve pas plus ou moins chez tout membre de l'espèce. Simplement, on a pris l'habitude d'utiliser ce mot lorsque quelqu'un fait quelque chose qui semble aller vraiment au delà de l'ordinaire.

    La question de savoir si le génie en particulier, ou l'intelligence en général, sont innés ou acquis, est naturellement une question très controversée. La plupart de ceux qui ont étudié cette question pensent que les deux interviennent : les différences génétiques affectent l'aptitude à apprendre et à agir intelligemment alors que le contact avec la connaissance influe sur nos facultés intellectuelles.

    Cela n'a même aucun sens de vouloir préciser l'apport de chaque puisque cela dépend des variations d'environnement. Deux environnements très différents produisent des écarts de performance dus à l'environnement, et deux patrimoines génétiques très différents produisent des écarts de performance dus au patrimoine génétique. Je pense ce débat est en grande partie mal défini car on n'a pas admis que ni l'effet de la génétique, ni celui de l'expérience ne sont fixes.



    Qu'est-ce que le talent ?
    (Herbert Simon)

    Qu'est ce que le talent ? Le problème du talent pose à nouveau la question de savoir si nous sommes tous nés égaux, ou si certains d'entre nous sont nés avec des talents spécifiques. Ce n'est pas clair. Il est probable que ... Prenons un exemple extrême : pour avoir du talent au basket-ball, il est utile de mesurer au moins 1,85 m, sinon vous n'aurez pas beaucoup de talent (à quelques rares exceptions près). Il y a donc évidemment une composante innée du talent. Mais une grande partie de ce qu'on appelle "talent" est en fait la motivation qui pousse à l'exercice. L'idée selon laquelle telle personne est née pour être musicien, telle autre pour être un scientifique, une troisième pour être autre chose repose sur des bases très fragiles.



    Comment l'intelligence est-elle organisée ?
    (John Anderson)

    Au cours des 20 dernières années, j'ai développé une théorie de l'intelligence, appelée ACT, dont l'objectif est d'établir comment l'homme pense lorsqu'il se comporte de façon délibérée et intelligente.

    On peut dire que mon approche de la cognition humaine est réductionniste, même si je ne tente pas de réduire l'esprit au cerveau. Mes recherches consistent plutôt à essayer de décomposer des phénomènes mentaux complexes en leurs opérations élémentaires et d'identifier les connaissances élémentaires que requièrent chacune de ces opérations.

  13. #10
    halman

    Re : neurosciences

    L'architecture de la pensée
    (John Anderson)

    Le principal problème dans la réalisation d'une action intelligente est d'intégrer la connaissance, et, en fait, de trouver la connaissance qui est appropriée et nécessaire pour agir dans la situation où l'on se trouve.
    A la base, deux sources de connaissance sont accessibles à celui qui agit. Il y a d'abord l'information qui existe dans le monde lui même. Mais, à tout instant, lorsque nous regardons le monde, une énorme quantité d'informations est potentiellement disponible ; c'est pourquoi nous avons besoin d'un processus d'attention sélective, qui va choisir dans notre environnement l'information qui est pertinente à nos buts.

    Mais, bien sûr, notre environnement n'est pas notre seule source de connaissance. Nous avons aussi un cerveau qui contient un grand nombre de faits, ce que nous appelons la connaissance "déclarative". Cela aussi représente une grande quantité d'information, et, en fonction de nos buts, nous allons sélectivement activer la connaissance qui leur est pertinente.

    Mais nous avons besoin, en plus, d'une troisième source de connaissance que nous appelons la connaissance " procédurale".
    Celle-ci consiste en un ensemble de règles qui nous disent essentiellement ce que nous voulons faire, étant donné nos buts, la situation du monde à laquelle nous faisons attention, et l'ensemble des informations que nous avons activé dans notre mémoire déclarative.

    Le fil de la pensée humaine se déroule essentiellement comme l'exécution d'une séquence de ces règles qui se déclenchent à peu près au rythme d'une tous les quart de seconde. Pendant ce laps de temps, le système examine l'information disponible et décide de sa prochaine action - cela peut être de déplacer son attention sur un autre aspect du monde, de choisir d'activer une autre connaissance dans sa mémoire déclarative, de modifier son but, d'ajouter de la connaissance à sa mémoire déclarative, ou encore d'effectuer une action ... et toutes les 250 millisecondes une autre règle se déclenchera, et modifiera la représentation de l'état du système.



    Notre connaissance explicite
    (John Anderson)

    La mémoire déclarative contient toutes nos connaissances factuelles, comme des informations arithmétiques telle que "3+4=7", ou le fait de savoir que Bill Clinton est actuellement le président des États-Unis.

    Cette connaissance peut se décomposer en de petites entités appelées "items". Un item représente une relation entre un ensemble d'éléments. Par exemple, l'item représentant le fait que "3+4=7" relie les unités "3", "4" et "7". De même, l'item "Bill Clinton est le Président des États-Unis" relie "Clinton" et "États-Unis" par la relation "est Président de". Toutes nos connaissances déclaratives s'encapsulent ainsi dans ces petits items qui ne font que représenter des relations entre des entités plus élémentaires.
    Il est courant de représenter les connaissances déclaratives en terme de réseaux sémantiques. Considérons la représentation de "Bill Clinton est le président des États-Unis". On peut la représenter par un ovale, ce qui indique que c'est un item, pointant sur les différents éléments qu'il relie. Nous avons donc "Clinton" qui est le sujet, la relation serait "est Président de" et l'objet serait "États-Unis".

    On peut donc se représenter chaque connaissance déclarative à l'aide d'un ensemble d'items interconnectés, pouvant être représentés graphiquement. Et la mémoire déclarative est un immense réseau d'items interconnectés. Par exemple, on peut attacher à "Clinton" d'autres faits comme "est marié à Hillary".
    A tout moment, seul un petit sous-ensemble de cette connaissance est pertinent. Ainsi, lorsque vous écoutez à la radio des informations concernant Clinton, vos connaissances sur sa vie politique seront activées tandis que celles sur sa vie privée ne le seront pas.



    Nos buts gèrent nos souvenirs
    (John Anderson)

    Dans chaque situation particulière, vous avez toujours un but, et ce but va déterminer ce à quoi vous ferez attention.

    L'activation commence alors à se propager à partir des items sur lesquels vous êtes focalisé, puis elle atteint les items qui leurs sont reliés dans votre mémoire déclarative. Ces items deviennent donc actifs et constituent ainsi la connaissance qui est disponible à cet instant pour permettre au système de décider comment agir.

    Par contre, quand vous changez de but, vous introduisez de nouvelles sources d'activations dans votre mémoire déclarative.

    C'est ainsi que dans le réseau géant de votre mémoire déclarative, la connaissance qui est justement reliée à votre but du moment se trouve activée.



    Condition ... Action !
    (John Anderson)

    La connaissance procédurale est constituée d'un ensemble de règles, où chaque règle représente une conduite spécifique et éventuelle.

    Pour être déclenchée, une règle dépend de trois types de circonstances : le but du moment, l'information qui est activée dans la mémoire déclarative, et les choses auxquelles vous prêtez attention dans l'environnement.

    Les règles servent à accomplir différentes actions. L'une d'entre elles est de changer nos buts. Imaginons par exemple que notre objectif est de franchir un croisement. Si nous découvrons qu'il est barré, nous allons modifier notre objectif et faire demi-tour avec notre voiture pour aller dans une autre direction.

    Les règles peuvent aussi contrôler l'exécution d'actions motrices particulières. Ainsi, lorsque nous décidons de franchir un croisement (s'il n'est pas barré), nous exécutons une séquence d'actions telle que passer la première et faire avancer la voiture.
    Une troisième chose que les règles peuvent accomplir est de reconnaître si des buts sont atteints et de les supprimer.
    Ainsi, lorsque nous arrivons à un aéroport, une règle se déclenche qui reconnaît que ce but a été réalisé et qui, dans le langage des sciences cognitives, fait "sauter" l'objectif "atteindre l'aéroport". Nous devons alors accomplir le but suivant, qui est par exemple de garer la voiture.

    La connaissance procédurale est donc constituée d'un grand nombre de ces règles, qui se déclenchent à travers l'établissement d'objectifs et de sous-objectifs. La cognition se produit grâce au déclenchement de séquences de règles, où chacune d'entre elles se déclenche en fonction de l'environnement présent, des connaissances disponibles et du but actuel.


    Chaque règle est un quantum de conscience (John Anderson)

    Les règles représentent des expériences acquises à l'occasion de la résolution de problèmes et de l'accomplissement de tâches.

    Nous avons prouvé dans notre laboratoire que si quelqu'un répète une opération mentale une centaine de fois, une nouvelle règle va se former qui lui permettra de ne plus avoir à effectuer cette opération consciemment.

    Les règles sont acquises à l'occasion de la réalisation de tâches ; elles résument les étapes par lesquelles nous sommes passés lors de leur accomplissement. Ce sont des représentations compactes et efficaces des procédures à suivre lors de la résolution de problèmes.

    Prenons l'exemple de la dactylographie. Un bon exemple de procéduralisation du savoir-faire dactylographique a lieu quand on se donne le but de taper une lettre spécifique, comme la lettre "A". Au début, on récupère dans sa mémoire déclarative une représentation du clavier et de l'endroit où se trouve cette lettre, puis on exécute l'instruction qui consiste à taper sur cette position particulière. Avec de l'expérience, ces opérations sont compilées en la règle suivante : "SI mon but est de taper "A", ALORS je déplace mon doigt sur telle position". On n'a plus besoin de retrouver quelle est la position des touches sur le clavier qui, dans notre exemple, était stockée dans la mémoire déclarative.



    La danse de nos objectifs
    (John Anderson)

    A chaque quart de seconde, une nouvelle règle est appliquée et cette règle se déclenche en réponse à l'état actuel de nos connaissances, à nos buts et à la situation présente.
    La vie peut être conçue comme étant gouvernée par une hiérarchie d'objectifs. Nous pouvons par exemple avoir le but de nous rendre à l'aéroport. Nous disposons de règles diverses pour réaliser ce but particulier. Nous pouvons choisir de prendre un taxi ou de prendre le métro, ou nous pouvons choisir d'y aller en voiture.

    Chacune de ces méthodes requiert d'accomplir des buts intermédiaires. Par exemple, si nous décidons de prendre la voiture, nous devons nous rendre jusqu'à notre voiture, puis accomplir le but de la conduire jusqu'à l'aéroport et une fois arrivés, de la garer. Chacun de ces buts requiert également d'accomplir d'autres buts intermédiaires. Par exemple, conduire jusqu'à l'aéroport nécessite de planifier le déplacement, c'est à dire de sélectionner les routes à prendre et de les emprunter une à une. Chacun de ces buts peut en fonction des circonstances rencontrées se décomposer lui-même en de nouveaux buts intermédiaires. Par exemple, nous pouvons avoir prévu de prendre une route donnée, mais lorsque nous arrivons à une intersection, nous constatons qu'elle est barrée. Des règles vont alors se déclencher, qui disent comment contourner cet obstacle. Et ces buts vont à leur tour se décomposer en d'autres, jusqu'au niveau de choisir une vitesse déterminée à un moment déterminé de la conduite de la voiture.

    Il y a un certain nombre d'études qui analysent des activités complexes, et trouvent l'ensemble des règles et des buts qui en permettent la résolution complète et réfléchie.

  14. #11
    halman

    Re : neurosciences

    Les dessous d'une compétence
    (John Anderson)

    On peut donc étudier la pensée humaine en menant une "analyse décompositionelle" par laquelle une compétence complexe est décomposée en un ensemble de connaissances et d'opérations élémentaires. Ceci nous amène à nous demander : "comment ces connaissances et ces opérations élémentaires s'organisent-elles pour donner lieu à des conduites délibérées ?"

    C'est en fait la fonction fondamentale de la hiérarchie d'objectifs : elle organise et structure le système et en fait décide des connaissances qui doivent être utilisées à un moment donné.

    Cette fonction devient évidente lorsqu'on observe l'exécution de tâches complexes. La compétence que nous avons ainsi le mieux étudiée est sans doute la programmation. Nous avons observé des étudiants en train d'écrire des programmes informatiques, une activité qui consiste principalement à écrire des lignes de code. Nous avons mesuré avec quel succès les étudiants écrivaient les lignes successives d'un programme déterminé. On observe alors qu'au cours de l'apprentissage, si on mesure le pourcentage de lignes de code correctement écrites ou, ce qui est préférable, le nombre d'erreurs faites, on obtient des courbes comme celle-ci. On ne distingue pas de tendances particulières : une ligne est correcte, la suivante contient une erreur, cela semble totalement chaotique.

    Toutefois, si on procède à une analyse cognitive de ces résultats en ne regardant que les lignes où la même règle de programmation est appliquée, on s'aperçoit que la règle a été utilisée ici pour la première fois, puis ici, et ensuite là.
    Autrement dit, on observe que pour chaque règle de programmation, l'étudiant suit en fait une courbe d'apprentissage systématique. Cela dit, la programmation nécessitant d'apprendre des centaines de règles, les progrès de l'apprentissage global semble très chaotiques.

    Je pense donc que la preuve la plus forte en faveur du fait que les règles soient les composants fondamentaux d'une compétence, est cette "systematicité" que l'on observe lorsqu'on suit les progrès de l'apprentissage au niveau des règles individuelles qui sous tendent cette compétence.



    Combien de règles pour une compétence ?
    (John Anderson)

    Il est intéressant de savoir combien de règles sous-tendent un savoir-faire. Cela dépend en partie du niveau de compétences de l'individu.

    L'acquisition d'un savoir faire rudimentaire dans un domaine déterminé ne nécessite la maîtrise que de quelques centaines de règles. Il n'est pas absurde d'imaginer qu'un étudiant apprend au cours d'un semestre en mathématiques de l'ordre d'un millier de règles pour résoudre des problèmes de maths. Il est probable que l'apprentissage d'un savoir-faire qui prendrait ce temps là (un cours semestriel demande en général une centaine d'heure d'études) ne permettrait également l'acquisition que d'un millier de règles au mieux.

    Mais ceux qui ne consacrent que quelques centaines d'heures à l'acquisition d'un savoir-faire ne savent pas grand chose.
    Devenir compétent dans un domaine exige non pas des centaines mais des milliers d'heures de pratique. Le nombre de règles acquises pendant ces milliers d'heures est proportionnellement plus grand, étant donné le nombre de cas particuliers que le novice n'a pas eu à maîtriser. Il est donc raisonnable de penser qu'un novice utilise une centaine de règles, tandis qu'un expert dispose de règles qui se chiffrent par milliers.
    Dans les domaines où les gens sont extrêmement compétents, des domaines comme le langage où les enfants passent 10 heures par jour pendant 10 ans à apprendre une langue, on peut estimer qu'une dizaine de milliers de règles sous tendent la maîtrise de ces domaines.



    Combien de règles pour une compétence ?
    (John Anderson)

    Il est intéressant de savoir combien de règles sous-tendent un savoir-faire. Cela dépend en partie du niveau de compétences de l'individu.

    L'acquisition d'un savoir faire rudimentaire dans un domaine déterminé ne nécessite la maîtrise que de quelques centaines de règles. Il n'est pas absurde d'imaginer qu'un étudiant apprend au cours d'un semestre en mathématiques de l'ordre d'un millier de règles pour résoudre des problèmes de maths. Il est probable que l'apprentissage d'un savoir-faire qui prendrait ce temps là (un cours semestriel demande en général une centaine d'heure d'études) ne permettrait également l'acquisition que d'un millier de règles au mieux.

    Mais ceux qui ne consacrent que quelques centaines d'heures à l'acquisition d'un savoir-faire ne savent pas grand chose.
    Devenir compétent dans un domaine exige non pas des centaines mais des milliers d'heures de pratique. Le nombre de règles acquises pendant ces milliers d'heures est proportionnellement plus grand, étant donné le nombre de cas particuliers que le novice n'a pas eu à maîtriser. Il est donc raisonnable de penser qu'un novice utilise une centaine de règles, tandis qu'un expert dispose de règles qui se chiffrent par milliers.

    Dans les domaines où les gens sont extrêmement compétents, des domaines comme le langage où les enfants passent 10 heures par jour pendant 10 ans à apprendre une langue, on peut estimer qu'une dizaine de milliers de règles sous tendent la maîtrise de ces domaines.



    A la recherche des émotions
    (David Servan-Schreiber)

    Le principal objectif de ma recherche est d'essayer de comprendre quelles sont les différentes régions du cerveau qui sont responsables des émotions chez les humains et en particulier des expériences émotionnelles anormales que nous observons chez nos patients en psychiatrie.

    Pour y arriver nous avons, au cours d'expériences très récentes, injecté chez des gens un médicament à action très brève (la procaine), ce qui normalement les met dans des états émotionnels pendant deux à trois minutes, tandis qu'ils sont dans un scanner à imagerie cérébrale (I.R.M. ou P.E.T.).

    Ceci nous permet de mesurer les changements d'activité qui se produisent dans leur cerveau pendant qu'ils sont en train de vivre ces émotions particulières. De cette façon, nous pouvons mettre en relation ce qu'ils ressentent et disent ressentir, et les zones qui sont actives dans leur cerveau au même moment.



    L'émotion à l'état pur.
    (David Servan-Schreiber)

    Ce que vous voyez ici, ce qui est intéressant dans cette image cérébrale, c'est qu'elle montre qu'il y a des régions profondes et centrales du cerveau qui sont activées par la procaine, tandis, qu'au même moment, les sujets nous déclarent qu'ils ressentent une émotion intense sans avoir aucune activité intellectuelle. Ils disent ne penser à rien. Ils sont incapables de dire pourquoi ils ressentent cette émotion. Ils la vivent simplement. Ca les prend au niveau des tripes, comme si quelque chose à l'intérieur les enserrait et les empoignait, sans qu'ils puissent justifier ou imaginer pourquoi ils sont si émus, puisque ce n'est que l'effet de la drogue. C'est donc une émotion à l'état pur que l'on voit dans cette image.



    Les émotions dans l'évolution
    (David Servan-Schreiber)

    On s'accorde à penser que les parties du cerveau associées aux émotions existent aussi chez les espèces les plus anciennes alors que d'autres comme le néo-cortex ("néo" veut dire nouveau) ne sont présentes que chez les espèces récentes. Par conséquent il est vraisemblable que nous partagions un certain nombre d'expériences émotionnelles et viscérales avec des espèces plus anciennes, en tout cas avec les autres mammifères, mais peut-être aussi avec les reptiles.

    Nous savons tous que nos réflexes, nos réactions viscérales sont très semblables aux réflexes ou aux réactions viscérales des rats, ou même des reptiles. Si par exemple un inconnu vous tombe dessus de façon inattendue, votre réaction immédiate sera soit de fuir, soit de vous esquiver ou soit de vous protéger. De même on observe qu'au printemps beaucoup d'espèces animales éprouvent le besoin de s'accoupler avec des congénères du sexe opposé, et l'on constate le même phénomène chez l'Homme. Il n'est donc pas surprenant que ces émotions proviennent de régions semblables du cerveau pour toutes ces différentes espèces.



    Les alarmes émotionnelles
    (David Servan-Schreiber)

    Votre conscience n'est qu'une fenêtre très étroite sur le monde. C'est pourquoi, en parallèle, d'autres parties du cerveau surveillent constamment l'information sensorielle qui lui parvient tout en étant hors du champs de la conscience. De telle sorte que s'il se passe quelque chose d'important dans le champs de la perception mais hors de celui de la conscience, une alarme se déclenche au cours de laquelle le système émotionnel ordonne au reste du cerveau : "Stop, Arrête de faire attention à ce à que tu fais en ce moment. Prends plutôt conscience de ce nouvel événement important". En parallèle le système émotionnel envoie des instructions au système moteur ainsi qu'aux systèmes viscéraux pour préparer l'organisme à l'action pertinente qu'il va falloir entreprendre pour répondre à ce nouvel événement. Le système émotionnel joue donc un rôle de système d'alarme et de réflexe qui prépare l'organisme pour les situations où la survie est en jeu. C'est le premier rôle des émotions.

  15. #12
    halman

    Re : neurosciences

    Donner de la valeur aux choses
    (David Servan-Schreiber)

    Le deuxième rôle des émotions dans le cerveau est, on le pense, d'attribuer une valeur, une valeur positive ou une valeur négative aux événements qui nous concernent. Le rôle de la cognition, lui, semble être davantage de comprendre les relations de causes à effets qui existent dans le monde, les liens entre les événements qui permettent de les prédire. Mais ces prédictions ne sont pas suffisantes pour estimer la valeur, l'attrait de ces événements. C'est pourquoi il est absolument
    nécessaire qu'il y ait dans le cerveau un système qui dise à l'organisme : "Cet événement-ci correspond à quelque chose que tu veux voir se renouveler, par contre, cet événement-là, dont tu comprend les causes, est quelque chose que tu veux éviter à l'avenir." Sans un tel système, le monde ne serait qu'un vaste univers logique dans lequel notre organisme ne saurait pas apprécier ce qu'il doit rechercher ni ce qu'il doit absolument éviter. Il est donc indispensable qu'il y ait une région du cerveau qui soit capable d'attribuer une signification aux événements en terme de survie. C'est probablement, comme le pensent beaucoup de gens, l'un des rôles du système limbique ou cerveau émotionnel.



    L'homme qui n'avait plus d'émotions
    (David Servan-Schreiber)

    On observe des effets spectaculaires quand les centres émotionnels du cerveau sont abîmés. On sait que telles lésions peuvent avoir un impact considérable le comportement, sans pour autant affecter le quotient intellectuel, les facultés mentales, la capacité à résoudre des problèmes ou encore l'intelligence pure. De nombreuses études ont été effectuées sur des patients qui présentent des lésions des structures frontales profondes et inférieures, et dont le jugement moral a été affaibli alors que leur jugement cognitif reste intact. Ils peuvent raisonner normalement, mais sont incapables d'agir convenablement.

    C'est, par exemple, le cas d'un comptable qui a été décrit par le professeur Damasio de l'université d'Iowa. Ce comptable respectable était l'aîné de sa famille, un exemple pour ses frères et sœurs, était marié, père de plusieurs enfants, et possédait un cabinet comptable florissant. On lui a découvert une tumeur bénigne entre les deux hémisphères - frontale et inférieure - et, quand finalement il a été opéré, les chirurgiens ont dû lui retirer une bonne partie de son cortex
    orbital frontal des deux côtés du cerveaux. A la suite de l'opération, très réussie, il est devenu un homme très différent. En fait, en quelques années, il a divorcé plusieurs fois, a perdu son travail et s'est retrouvé impliqué dans des affaires douteuses avec des personnages peu recommandables. Il jouait, buvait, et faisait un tas de choses qu'il n'aurait jamais fait auparavant. Sa personnalité avait donc complètement changée. Ce qui est remarquable c'est qu'avant l'opération il avait un quotient intellectuel (Q.I.) très élevé - tournant autour de 140 - qui est resté au même niveau bien que son comportement soit devenu vraiment néfaste et dangereux pour lui, contraire à sa capacité à fonctionner comme un être humain à part entière. Il était resté intelligent au sens du quotient intellectuel mais son comportement était devenu imbécile, en particulier son jugement émotionnel des les situations et des gens.



    Le quotient émotionnel
    (David Servan-Schreiber)

    On a tendance à penser que les gens intelligents, les gens qui ont un Q.I. élevé nous sont supérieurs et qu'ils réussissent mieux que nous. On peut en fait se demander si le Q.I. est vraiment déterminant. Un exemple comme celui que nous venons de voir montre que ce n'est pas évident. Il semble que le Q.I. n'ai finalement pas tant d'importance. Ce qui semble déterminer le succès des gens en société, ce n'est pas tant la puissance de leur intellect que leur capacité à communiquer avec les autres, à évaluer les situations sociales et émotionnelles, à contrôler leurs émotions, à ne pas céder à la colère, à inhiber leur agressivité, à émettre les signaux émotionnels appropriés, à rester en phase avec les autres et à naviguer harmonieusement les flots des relations humaines autour d'eux.
    Il y a très peu d'activités qui sont à la fois valorisées socialement et qui permettent à quelqu'un de travailler entièrement seul sans rapports harmonieux avec les autres. Ce qui limite en fait le succès de quelqu'un, n'est pas tant son niveau de connaissance en mathématiques, ou sa capacité à manipuler rapidement des concepts abstraits, que des choses beaucoup plus simples, comme marcher sur les pieds des autres, rendre ses collaborateurs malheureux ou rendre les rapports si
    difficiles que le groupe dont il fait partie ne fonctionne plus comme une équipe. Bien sûr, c'est ce que nous essayons d'apprendre à nos enfants à l'école : "l'esprit d'équipe" et le reste ... mais il n'y a effectivement que ceux qui le comprennent et qui apprennent à capitaliser là-dessus qui gagnent et qui font gagner leur équipe. C'est tout cela que l'on désigne par quotient émotionnel par opposition au quotient intellectuel, le Q.E. au lieu du Q.I. Il se trouve que c'est le Q.E. qui détermine la réussite sociale, beaucoup plus que le Q.I. qui ne permet de prédire que la performance scolaire et qui se limite à cela.



    Une anatomie pour l'inconscient
    (David Servan-Schreiber)

    Une chose importante à comprendre est qu'il existe probablement, d'une part, un système émotionnel, un ensemble de structures dans le cerveau qui sont très enchevêtrées et qui sont essentiellement responsables de l'émergence de l'expérience émotionnelle. Et puis, il y a d'autre part le reste du cerveau qui est responsable de la cognition, de la compréhension des relations causales dans le monde, de comment les choses s'harmonisent et ainsi de suite.

    Ces deux systèmes peuvent fonctionner de façon semi indépendante. Bien sûr, ils sont reliés l'un à l'autre et communiquent entre eux constamment, mais ils peuvent aussi avoir des fonctions où ils ne communiquent pas. Et c'est là qu'en tant que neuroscientifique, je pense que l'essentiel de ce que les psychanalystes ont appelé "inconscient" depuis cent ans, est relié à cette région émotionnelle, plus profonde du cerveau et qui n'est pas nécessairement accessible à la partie cognitive et consciente du cerveau.

    Ainsi, il peut nous arriver de ressentir quelque chose sans savoir pourquoi. C'est un phénomène que les analystes ont décrit depuis une centaine d'années, mais nous commençons seulement à comprendre comment il peut être mis en relation avec l'organisation anatomique du cerveau et quelles sont les structures impliquées dans ce phénomène.



    Le phénomène du transfert
    (David Servan-Schreiber)

    Peut-être devrais-je prendre comme exemple celui, souvent utilisé, d'un des outils les plus fondamentaux de la psychanalyse, à savoir l'idée de transfert. Ce que nous faisons tous en tant qu'adultes est de projeter sur d'autres adultes, en particulier sur les personnes qui font autorité comme notre patron ou notre médecin. Nous avons tendance à projeter sur eux le même type de, à attendre d'eux le même type de comportements et le même type d'attitudes que nous avons connus de nos parents en tant qu'enfant.
    Il peut nous arriver d'éprouver le même genre d'émotions en présence de ce type de personnes que celles que nous éprouvions en présence de notre père ou de notre mère quand nous étions enfant. C'est pourquoi le déclencheur émotionnel, l'état émotionnel qui est déclenché par la relation avec cet adulte aujourd'hui, peut être tout à fait inapproprié pour ce que vous essayez d'accomplir avec lui et peut même perturber votre capacité à faire ce que vous devez réaliser avec lui.
    S'en rendre compte, relier cet état avec l'expérience émotionnelle passée, comprendre d'où il provient, vous donne la possibilité de le contrôler avec la partie cognitive de votre cerveau. Je soupçonne que telle est l'explication neuro-anatomique de ce phénomène de transfert dont la psychanalyse discute depuis longtemps.

  16. Publicité
  17. #13
    halman

    Re : neurosciences

    Les traumatismes ne s'oublient pas
    (David Servan-Schreiber)

    Nous savons, grâce aux recherches entreprises sur la mémoire émotionnelle que, très vraisemblablement, les souvenirs d'événements traumatisants ou négatifs sont conservés longtemps dans le cerveau émotionnel, alors qu'ils peuvent s'éteindre ou disparaître dans le cerveau non-émotionnel.
    Plus fondamentalement, la présence du néocortex semble être indispensable pour permettre à un organisme de cesser de réagir par la peur à quelque chose qui aurait auparavant provoqué cette réaction.

    Je pense en particulier à une expérience qui montre que lorsqu'un animal reçoit une décharge électrique chaque fois qu'il entend un son donné, alors l'animal en aura peur et réagira à son écoute comme si, à chaque fois, il allait recevoir la décharge, et ceci ne se produit que s'il a une lésion du néocortex frontal.

    Celui-ci est donc nécessaire pour inhiber cette tendance à fuir quand le son est produit, même lorsque ce son n'est plus associé à une décharge. Donc tout se passe comme si certains de nos souvenirs émotionnels étaient vraiment indélébiles, restaient toujours en place, et ne pouvaient être effacés, seulement contrôlés.



    Le contrôle des émotions
    (David Servan-Schreiber)

    En fait, une des prémisses de la psychanalyse est que faire cette connexion, que comprendre comment il se fait que nous ressentons tout d'un coup des émotions qui proviennent de notre passé et qui ne sont plus appropriées, est un travail indispensable, ou en tout cas une manière d'apprendre à contrôler leurs manifestations et à ne plus ressentir ces émotions inappropriées. Pour la plupart des gens cette technique semble en fait bien fonctionner.

    L'hypothèse faite est que déterminer précisément d'où viennent ces émotions vous permet de trouver de bonnes raisons pour les contrôler, et de pouvoir vous dire à vous-mêmes : "Et bien, cet individu a beau avoir une barbe comme mon père, et porter des lunettes comme les siennes, il a beau avoir une stature identique et me sembler une figure d'autorité car c'est le patron de la société, je dois reconnaître qu'en réalité, il n'a jamais eu à mon égard les comportements dont mon père avait fait preuve et qui me perturbaient tant."

    Donc en identifiant vos réactions, en comprenant leurs origines et en vous convainquant qu'elles ne sont plus appropriées, vous devenez capables de les contrôler.



    Qu'est-ce qui s'oublie ?
    (John Anderson)

    Il est très facile de mémoriser une nouvelle information, comme de se souvenir de ce que vous avez fait il y a 5 minutes. Mais ce genre d'informations déclaratives s'oublient également rapidement, de sorte que si elles ne sont pas utilisées, elles sont rapidement perdues.

    La probabilité de retenir une information dans la mémoire déclarative dépend du temps écoulé depuis que nous l'avons apprise et de la fréquence à laquelle nous l'utilisons. On constate qu'effectivement, la vitesse et la probabilité d'accès à un souvenir sont fonction à la fois de la fréquence et de la récence de son utilisation.

    Il y a là un contraste net avec la mémoire procédurale, où il faut beaucoup de pratique pour mémoriser quelque chose, et où ce qui est mémorisé semble n'être jamais perdu. Par exemple, les gens retrouvent couramment des savoir-faire qu'ils n'avaient pas pratiqués depuis des années. S'il arrive que l'on observe une sorte de "retard au démarrage" qui fait qu'au cours des 5 ou 10 premières minutes leur performance n'est pas si bonne, les gens retrouvent, en général après 10 ou 15 minutes d'efforts, presque le même niveau de performance, sinon le même, que celui qu'ils avaient quelques années auparavant.

    L'oubli dans la mémoire procédurale est donc différent de celui de la mémoire déclarative.



    Les trois causes de l'oubli
    (John Anderson)

    Une question intéressante est de savoir si nous oublions vraiment les choses, ou si elles deviennent de moins en moins actives au point de devenir inaccessibles. En fait, il y a au moins trois mécanismes qui provoquent l'oubli.

    Le premier est le passage du temps qui provoque le déclin de la force des associations et l'altération de l'information elle même.
    Le second mécanisme est qu'avec le passage du temps, de nouvelles associations viennent interférer avec les associations existantes, ce qui rend moins actifs les souvenirs qu'elles relient.

    Le troisième mécanisme est la perte de l'accès aux "clés" que nous utilisons pour activer nos souvenirs. Par exemple, vous pouvez avoir appris une information dans un certain contexte, et si vous n'êtes plus dans ce contexte, vous ne pouvez pas en activer le souvenir. Il est ainsi arrivé à tout le monde de revenir dans un environnement ou un quartier quitté il y a 10 ou 15 ans, et d'être soudainement submergé par un flot de souvenirs. Cela s'explique par le fait que ces souvenirs sont associés avec des informations présentes de ce contexte particulier, et lorsque vous y revenez, vous retrouvez ces informations, ce qui ravive vos souvenirs.

    Il y a donc au moins trois processus qui provoquent l'oubli : le déclin de la force des souvenirs, la superposition de nouveaux souvenirs qui interfèrent avec ceux qui existent déjà, et la perte des "clés" contextuelles lorsque vous changez de contexte.



    Comment ralentir l'oubli (1)
    (John Anderson)
    Il n'y a certainement aucun substitut à l'étude. La durabilité à long terme d'un souvenir est très largement déterminée par le temps passé à son assimilation. Un grand nombre d'expériences ont démontré ce phénomène : si vous mesurez la disponibilité en mémoire d'une connaissance déclarative, vous observez, bien sûr, qu'avec le temps la capacité à s'en rappeler diminue.

    Mais, dans les expériences dont je parle, on varie aussi la quantité d'étude. Vous observez alors que bien qu'initialement le temps d'assimilation ne joue pas, parce qu'immédiatement après l'étude la performance est parfaite, le bénéfice d'une plus longue étude se manifeste dans la durée : l'information qui a été la plus mise en pratique est oubliée moins rapidement.

    D'autres expériences ont montré que les souvenirs sont mieux retenus si leur assimilation est répartie dans le temps, plutôt que concentrée en une seule fois. Si vous fixez la quantité d'étude que les sujets consacrent à une matière, mais que, dans un cas, les sujets concentrent leur étude sur une courte durée, alors que dans l'autre cas, ils répartissent leur étude dans le temps, vous observez que ceux qui ont concentré leur étude oublient très rapidement, au contraire de ceux qui ont réparti leur étude dans le temps ; souvent la performance initiale de ces derniers est en fait moins bonne, mais ils oublient, par contre, beaucoup plus lentement. Ainsi, une étude répartie conduit souvent à une situation où le souvenir est initialement plus mauvais, mais bien meilleur sur le long terme.

    C'est justement ce phénomène qui est à l'origine de l'un des désastres du système d'éducation classique où l'on demande aux étudiants de réviser pour un examen précis ; parce que pour maximiser sa note à l'examen l'étudiant a intérêt à concentrer ses révisions au dernier moment, alors que c'est justement la stratégie qui conduit à l'oubli le plus rapide après l'examen ! En fait, nous n'avons pas encore trouvé un système qui encourage les étudiants à répartir leur travail sur de longues périodes.

  18. #14
    halman

    Re : neurosciences

    Le numéro de téléphone qu'on oublie
    (Daniel Schacter)

    Quand nous essayons de nous souvenir brièvement d'un numéro de téléphone, nous utilisons un type particulier de mémoire, que les psychologues appellent la mémoire à court terme, ou aussi mémoire active, qui sert à garder à l'esprit l'information pendant quelques secondes, pour un usage temporaire.

    Une chose importante au sujet de la mémoire active, du moins en ce qui concerne la mémorisation d'un numéro de téléphone, est que nous ne faisons pas grand chose de ce numéro. Vous pouvez garder ce numéro à l'esprit pendant quelques temps, mais si je vous distrais et que vous essayez ensuite de vous en souvenir, il est peu probable que vous y arriviez. Comment cela se fait-il ? C'est probablement dû au fait que réciter passivement l'information est insuffisant pour la faire rentrer dans la mémoire à long terme, c'est-à-dire dans le système dans lequel l'information a besoin d'entrer pour être retenue sur la durée.



    Le secret d'une bonne mémoire
    (Daniel Schacter)

    Que faut-il donc faire pour se souvenir d'un numéro de téléphone au delà de quelques secondes ? La meilleure chose à faire est de relier ce numéro à d'autres informations déjà en mémoire, de le relier à des connaissances préalables, c'est à dire de l'assimiler d'une manière que les psychologues appellent "assimilation par élaboration".

    L'assimilation par élaboration consiste à relier les informations nouvelles à ce qui est déjà en mémoire. Si au lieu de répéter encore et encore l'information, vous réussissez à la relier à quelque chose que vous connaissez déjà, à quelque chose qui a du sens, vous aurez beaucoup plus de chances de vous en souvenir pendant longtemps.

    Supposez que je vous montre une liste de mots concernant des objets ordinaires tels que "table", "voiture" et "jardin".
    Imaginons que je vous demande de porter un jugement sur ces objets, de me dire par exemple si ces mots représentent quelque chose de vivant ou non, ou de me dire à quel point vous aimez chacun d'entre eux. C'est ce qu'on appelle "l'assimilation sémantique" en psychologie cognitive. Lorsque vous faites attention aux aspects sémantiques des mots, afin de décider par exemple si le mot "table" dénote quelque chose de vivant ou non, ou à quel point vous l'aimez, vous activez dans votre mémoire tout ce que vous savez déjà à propos des tables. Si plus tard je teste votre mémoire de cette liste de mots, votre performance sera très bonne car vous aurez entrepris une telle assimilation par élaboration sémantique.

    A l'inverse je peux vous montrer les mêmes mots et vous demander de compter le nombre de voyelles et de consonnes dans des mots tels que "table" et "jardin". Plus tard, on s'apercevra que vous n'aurez presque aucun souvenir d'avoir vu ces mots dans la liste, car vous ne les avez pas reliés à des connaissances préalables.

    C'est un phénomène qui est connu en psychologie comme "l'effet du traitement en profondeur". Il nous confirme que nous ne sommes pas de simples réceptacles passifs qui enregistrons automatiquement les informations, à l'instar d'une caméra vidéo, mais que c'est la façon dont on traite les informations qui va déterminer si l'on s'en souviendra ou non.



    La mémoire d'un acteur (Daniel Schacter)

    Des recherches récentes et très instructives sur la façon dont les acteurs se souviennent de leurs textes montrent que les acteurs n'apprennent pas leur rôle bêtement par cœur en se récitant leurs textes passivement et de façon répétitive. Au contraire, ces recherches ont montré qu'un acteur essaye d'entrer dans son personnage en analysant très finement les phrases de son texte, en cherchant dans ces phrases des indices pour comprendre son personnage. Ces élaborations lui permettent ensuite de se souvenir très précisément de ce que son personnage doit dire, car toute son attention a été concentrée sur le phrasé exact puisque les mots sont justement les principaux indices qui lui permettent de comprendre son personnage.

    Autrement dit, l'acteur entreprend précisément le type d'assimilation par élaboration qui est idéal pour se souvenir d'un texte mot à mot. C'est un bon exemple de comment l'assimilation par élaboration peut donner lieu à un apprentissage par cœur même si ce n'était pas le but directement recherché.



    Attention aux inférences !
    (Daniel Schacter)

    Comme nous l'avons déjà vu, l'assimilation par élaboration aide la mémorisation. Cependant le fait que nos connaissances préalables jouent ainsi un rôle important dans l'assimilation et la représentation d'un événement peut nous amener à y inclure des inférences ... à inférer des choses qui ne sont pas réellement arrivées. Ces inférences peuvent devenir parties intégrantes de notre souvenir et donc donner lieu à un rappel erroné de l'événement.

    Par exemple, il arrive à tout le monde d'inférer des choses qui ne sont pas strictement écrites dans une phrase ni dites au cours d'une conversation. Cependant, on peut toujours dire dans ce cas que votre souvenir reflète précisément comment votre cerveau s'est représenté l'événement au moment où il a eu lieu. Il se trouve simplement que les inférences qu'il a faites ne correspondent pas à ce qui s'est vraiment passé.


    Comment les souvenirs sont reconstruits
    (Daniel Schacter)

    Je pense à une jolie analogie, imaginée il y a quelques années par le psychologue Ulrich Neisser, entre le travail de reconstitution d'un souvenir et celui d'un paléontologue qui essaie de reconstituer un dinosaure à partir de ses restes fossiles. Dans les deux cas vous disposez de vestiges : des fossiles pour le dinosaure et, dans le cas de la mémoire, des vestiges d'un événement, des fragments d'information qui ont été retenus.
    Toutefois, le dinosaure reconstitué est bien plus que les fossiles dont il est constitué, car cette reconstitution a également fait appel à tout ce que le paléontologue sait par ailleurs sur les dinosaures. De la même façon, les vestiges persistants d'un événement ne sont pas identiques au souvenir qu'on en a. Le souvenir d'un événement se construit en fait à partir de ses fragments fossilisés que nous rassemblons en y ajoutant toutes sortes de connaissance générale sur la façon dont les choses auraient pu ou auraient du se passer, ainsi que nos préconceptions, nos désirs et que sais-je encore.

    Cette analogie est très bonne parce qu'il y a effectivement quelque chose dans le passé qui contraint le souvenir et à partir duquel nous le reconstituons, et c'est une erreur de penser que le souvenir est identique à ce qui a été stocké dans notre cerveau pendant toutes ces années.


    L'influence du contexte
    (Daniel Schacter)

    Le principe de la spécificité des représentations fait référence à une condition importante sur le rappel d'un souvenir. Ce principe énonce que la probabilité de provoquer le souvenir d'une expérience passée dépend beaucoup de la façon dont cette expérience a été mémorisée initialement et de comment la représentation que l'on en a est reliée à ce qu'on utilise pour en provoquer le souvenir.

    Le souvenir d'un événement particulier ne sera pas provoqué par n'importe quelle suggestion, mais par une suggestion qui est reliée à l'idée que vous vous êtes fait de l'événement au moment où il s'est produit et, probablement aussi, à votre manière d'y repenser depuis.

    Un bon exemple de ce phénomène est donné par une expérience pendant laquelle on montre à quelqu'un des phrases qu'il doit mémoriser. Ce sont des phrases simples du style : "Le poisson a attaqué le nageur". Un peu plus tard on sonde sa mémoire de ces phrases en lui faisant certaines suggestions. Cette expérience a montré que la suggestion la plus efficace pour lui faire se rappeler de la phrase "Le poisson a attaqué le nageur" était le mot "requin". Pourquoi "requin" ? Le mot "requin" était encore plus efficace que "poisson", bien qu'il n'apparaisse pas dans la phrase alors que "poisson" en faisait partie !
    L'explication est que la plupart des gens, quand on leur fait lire une phrase telle que : "le poisson a attaqué le nageur", pensent à un requin et font une inférence, comme s'ils se construisaient une petite scène mentale dans laquelle un requin attaque un nageur. En conséquence, la suggestion qui s'approche au plus près de la représentation mentale qu'ils ont d'une telle phrase est le mot " requin".

  19. #15
    halman

    Re : neurosciences

    Les souvenirs lointains
    (Daniel Schacter)

    Que nous enseigne le principe de la spécificité des représentations sur la possibilité d'évoquer des souvenirs lointains ? Il suggère que l'une des raisons pour laquelle il est difficile d'évoquer ces expériences, est que notre représentation du monde n'est plus la même que lorsque nous étions enfant. Retrouver ces anciennes représentations est devenu difficile. Nous pensons au monde très différemment, et nos anciens souvenirs sont incompatibles avec notre manière de penser aujourd'hui.

    Ceci nous conduit à une autre question intéressante, qui est de savoir si toutes nos expériences passées restent à jamais dans notre mémoire, en attente d'être évoquées, et s'il nous manquerait seulement les bonnes clés pour en déverrouiller le souvenir. Nous avons en mémoire des tas de souvenirs auxquels on ne pense plus, et pour retrouver un souvenir "perdu", on devra trouver la bonne suggestion qui déclenchera ce souvenir lointain. Sans cela, on ne s'en souviendra pas.
    Cela étant dit, je pense que nous avons toutes les raisons de croire que certaines expériences, certaines représentations, ont totalement disparu de la mémoire, ou se sont évanouies au point que nous ne serons plus jamais capables de trouver une suggestion suffisamment spécifique pour en rétablir le souvenir.


    Comment les souvenirs se déforment
    (Daniel Schacter)

    Le fait de se souvenir d'un événement est aussi une occasion de le ré-assimiler. Lorsque nous évoquons un souvenir, notre manière de voir les choses n'est plus la même qu'au moment de son enregistrement. Ce que nous rangeons à nouveau dans notre mémoire est donc peut-être une version légèrement altérée du souvenir initial.

    En particulier si nous ne nous rappelons pas de tous les détails, nous allons essayer de les reconstituer, et si quelqu'un nous suggère comment certaines choses se sont passées, nous nous disons "Oui, il est possible que cela ce soit passé comme ça." Donc lorsque nous remettons cette information en mémoire, celle-ci s'en trouve un peu modifiée. Lorsque nous accédons à ce souvenir plus tard, nous ne nous rappelons plus que c'est quelqu'un d'autre qui nous a suggéré que telle ou telle chose s'était produite et, du coup, nous nous souvenons du passé d'une façon légèrement altérée.

    Donc, lorsque nous pensons à la mémoire au cours du temps, nous devons nous libérer d'une métaphore trompeuse, celle de l'ordinateur qui ne fait qu'extraire un dossier avant de le remettre intact dans le système, et comprendre que le souvenir est au contraire un processus très dynamique qui est très susceptible de modifier le contenu de la mémoire, et ce d'autant plus que nous sommes exposés aux suggestions des autres.


    Comment créer de faux souvenirs
    (Daniel Schacter)

    Certaines études montrent qu'un interrogatoire un peu trop suggestif peut facilement conduire certaines personnes à se créer de faux souvenirs de choses qui n'ont jamais eu lieu.
    Par exemple, on a fait une étude récente sur ce qui se passe quand on pose des questions à des étudiants sur un événement spécifique de leur enfance, dont les parents affirment qu'il n'a jamais eu lieu, comme par exemple le jour ou un clown a aspergé tout le monde de soda lors de leur sixième anniversaire. Si vous demandez aux parents, ils vous répondront "Non, rien de tel ne
    s'est jamais passé". La première fois que vous posez cette question aux étudiants, il ne se souviendront de rien et répondront tous "Non, cela ne s'est jamais passé, je ne me souviens pas d'un clown qui aurait répandu quoi que ce soit à ma fête d'anniversaire quand j'avais 5 ou 6 ans." Mais si vous persistez à poser des questions de façon répétitive, il y en a quelques uns, disons 25 à 30%, qui se construiront petit à petit un souvenir détaillé et quelquefois vif de cet événement qui pourtant n'est jamais arrivé ! Il est donc possible, en raison de la nature constructive du processus du souvenir, de se créer des faux souvenirs.

    Comment cela se peut-il ? Comme on vient de le voir, il faut s'y reprendre à plusieurs fois avant que les gens commencent à se rappeler d'événements qui ne sont jamais arrivés. Il est possible que la première fois qu'on leur pose la question, ils se souviennent d'un fragment d'expérience qui s'approche de celle-là, sans être exactement la même. A la prochaine séance de questions, tout cela leur parait plus familier. Ils commencent à se dire : "Peut-être bien qu'il s'est passé quelque chose comme ça." Ils commencent ainsi à combiner divers bouts d'expériences différentes jusqu'à pouvoir bientôt vous raconter en détail un événement qui ne s'est jamais produit. Encore une fois, pour comprendre ce genre de phénomènes, nous devons abandonner l'idée que le souvenir revient à braquer un projecteur sur des objets en mémoire et comprendre qu'au contraire nous construisons activement nos souvenirs.


    Quelle information est importante ?
    (John Anderson)

    Les hommes rencontrent et emmagasinent vraisemblablement des millions de faits pendant toute leur vie, et, face à cette montagne d'informations, ils se trouvent confrontés aux mêmes problèmes que n'importe quel autre système devant gérer une grande quantité d'informations. Leur problème ressemble à celui des systèmes informatiques qui essaient de gérer de grandes bases de données, ou des bibliothèques qui conservent des réserves énormes de livres. Dans tous ces cas, il y a besoin d'un comportement sélectif, qui détermine les informations qui doivent être rendues accessibles et celles qui doivent l'être moins.

    Par exemple, les bibliothèques placent sur leurs étagères de devant les livres les plus demandés, mettent en réserve ceux qui ont peu de chance d'être empruntés, et se défont des livres qui ne sont plus demandés du tout. De même dans les systèmes informatiques, l'information peut être stockée dans des mémoires-caches (ultra-rapide), des mémoires magnétiques, des disques ou des bandes (ultra-lent), selon leur utilité pour le système d'exploitation.
    Ce qui distingue la mémoire humaine de ces autres systèmes d'information est la sophistication avec laquelle ces décisions sont prises.



    Apprentissage et oubli dans le cerveau
    (John Anderson)

    La mémoire humaine obéit à deux grandes lois, appelées principes de puissance, dont l'un concerne l'apprentissage et l'autre l'oubli.

    Le principe de puissance de l'apprentissage postule que plus on utilise souvent une information en mémoire, plus il devient facile de s'en souvenir dans le futur. Si l'on mesure, par exemple la rapidité d'accès à un souvenir particulier, le principe de puissance postule que cette quantité croit comme une puissance de la fréquence d'utilisation de cette information.
    Ainsi, vous vous souviendrez plus rapidement du nom du président des États Unis que du nom du deuxième homme qui a marché sur la Lune.

    Le principe de puissance de l'oubli postule quand à lui que plus il y a longtemps que l'on ne s'est pas servi d'une information, moins il est facile de s'en souvenir.

    Par exemple, plus on a perdu quelqu'un de vue pendant longtemps, moins il est facile de se souvenir de son nom quand on le rencontre à nouveau.

    Maintenant la vraie question est de savoir pourquoi l'apprentissage et l'oubli obéissent tous les deux à ces principes de puissance.

  20. #16
    halman

    Re : neurosciences

    Apprentissage et oubli dans l'environnement
    (John Anderson)

    Je pense que la réponse à cette question est à trouver non pas dans la mécanique de notre mémoire elle même, mais à l'extérieur, dans notre environnement.

    On peut par exemple mesurer la probabilité d'entendre parler de quelque chose demain en fonction de la fréquence avec laquelle on en a entendu parler dans le passé. Il s'avère que dans notre environnement, par exemple dans les journaux, ces deux quantités sont reliées par une loi de puissance.

    On peut aussi se demander quelle est la relation entre le temps qui s'est écoulé depuis la dernière fois où l'on a entendu parler de quelque chose et la probabilité que l'on en entende à nouveau parler demain.
    Par exemple, une de nos études sur le courrier électronique, a mesuré la relation entre le temps écoulé depuis le dernier message de quelqu'un et la probabilité de recevoir demain un autre message de cette même personne. Là aussi on trouve une loi de puissance.

    On s'aperçoit donc que l'information dans notre environnement est régie elle aussi par des lois de puissances, dont les principes de puissance de l'apprentissage et de l'oubli sont les reflets fidèles. Autrement dit, la mémoire humaine est adaptée à la structure statistique de l'environnement. Ceci est d'ailleurs vrai aussi, pour autant que je sache, de la mémoire des mammifères, voir de celle des non mammifères. Notre mémoire est donc organisée de telle sorte que la disponibilité d'une information reflète précisément sa probabilité d'être utile dans notre environnement.




    L'esprit est-il adapté à son environnement ?
    (John Anderson, Rodney Brooks, Eric Kandel, James McClelland,
    David Servan-Schreiber, Herbert Simon)

    John Anderson :

    L'esprit humain est remarquablement adapté à son environnement.
    Il s'arrange pour avoir à sa disposition l'information la plus appropriée à chaque instant.
    Dans une situation où il doit choisir quoi faire, son choix est aussi avisé que possible. Les limitations que l'on observe dans la pensée humaine résultent en fait de la concentration de l'esprit sur l'information la plus pertinente pour la décision à prendre.


    Rodney Brooks :

    L'intelligence humaine est le produit d'une évolution dans un environnement complexe en compétition avec de nombreuses autres espèces et de nombreux autres êtres humains. Je pense qu'elle n'est nullement optimale. Elle n'est que le résultat d'adaptations locales à des conditions spécifiques, au cours de l'évolution.

    Je suis sûr qu'il y a des choses que nous sommes incapables de penser, de juger ou de comprendre, que d'autres espèces, quelque part dans l'univers, peuvent très facilement faire et comprendre. A l'inverse, elles peuvent connaître un fort développement technologique mais être incapables de comprendre certaines des choses que nous pensons. Et peut-être même que certaines de ces espèces nous sont supérieures à tout point de vue.

    Eric Kandel :

    C'est le mieux que l'on puisse faire ! Il n'y a qu'à voir la façon dont les hommes ont survécu pendant des siècles. Si vous prenez notre propre vie, à ma femme et à moi qui avons émigré d'Europe et survécu à l'holocauste, il faut remercier la nature de nous permettre de survivre à de tels événements.
    C'est pourquoi, je pense que la mémoire est merveilleusement adaptée. J'ai oublié beaucoup de ces souvenirs désagréables, je les ai réprimés, éjectés de mon esprit, j'essaie de me souvenir des choses plaisantes du jour. Voilà qui me semble parfaitement adéquat ! Pourrait-on faire mieux ? Probablement. Peut-être qu'avec le temps, nous trouverons des méthodes pédagogiques permettant d'améliorer les capacités de la mémoire.

    Néanmoins, je pense que le cerveau est une machine merveilleuse.


    James McClelland :

    Même si nos processus de pensée sont très imparfaits, nous possédons des facultés immenses qui forcent l'admiration. Je suis convaincu que nous resterons admiratifs devant elles pendant encore cinquante ou cent ans. Le cerveau est capable de construire une représentation des objets et de leur position dans l'espace visuel externe à partir de signaux brouillés et changeants d'une manière qu'aucun système robotique n'est capable de reproduire actuellement. Il est ensuite capable de calculer des trajectoires dans l'espace qui lui permettent d'éviter d'entrer en collision avec des objets et de provoquer des catastrophes en se déplaçant dans le monde. Nous sommes continuellement en train de résoudre des problèmes d'équilibre dynamique et d'interprétation de signaux ambigus qui, de l'avis de tous les informaticiens, sont quasi-insolubles à l'aide des technologies actuelles.

    Aussi nous devrions nous souvenir que, même si nous sommes imparfaits, nous possédons ces facultés, et peut-être serait-il utile de les comprendre comme des réponses optimales.



    David Servan-Schreiber :

    C'est une question que je me pose souvent : dans quelle mesure toutes les exigences auxquelles nous soumettons nos esprits correspondent-elles à ce qu'il était initialement supposé faire ? Je suis frappé par le fait que nos ancêtres avaient une vie mentale différente de la nôtre, tant d'un point de vue intellectuel qu'émotionnel, même si nous avons les mêmes caractères anatomiques et biologiques qu'eux. Il est par exemple improbable que notre cerveau ait évolué pour se souvenir de numéros de téléphone il n'a jamais subi aucune pression évolutive pour se souvenir de numéros de téléphone. Cela ne fait que 70 ans que nous en avons besoin et cette demande n'a eu aucun effet sur nos gènes. Donc nos cerveaux et nos rythmes de sommeil ont évolué pour des circonstances très différentes de celles qui prévalent aujourd'hui.
    Le cerveau est-il donc un organe hautement adapté ? Oui, bien sûr, mais pas à la société actuelle. Nous constatons le résultat de ce manque de concordance dans la vie de tous les jours : des effets du décalage horaire au manque de sommeil chronique, aux excès de stimulations par la télévision et la publicité, des comportements sociaux anormaux dus à la promiscuité des interactions humaines à l'effondrement des lois traditionnelles et de l'organisation sociale et hiérarchique.


    Herbert Simon :

    Notre intelligence serait-elle optimale ? Je pense que rien n'est optimal. Nous vivons dans un monde très compliqué dont notre conscience ne porte que sur un aspect limité. Même dans cette pièce, nous ne regardons pas la plupart des choses tout le temps.

    Nous n'optimisons rien, nous ne faisons que décider que certaines choses doivent être accomplies et nous trouvons des manières de les accomplir. Parfois, nous trouvons de bonnes solutions, parfois de moins bonnes, et nous essayons d'adopter les meilleures. Mais le mot "optimum" n'a pas beaucoup de sens.
    On peut dire que l'esprit est aussi adapté que ce que l'évolution lui a permis d'atteindre. Et cela a permis, pour le meilleur et pour le pire, que 6 à 7 milliards de gens vivent ensemble à la surface de la terre, au moins jusqu'à présent. Aussi, dans ce sens, je pense que notre esprit est une vraie réussite. Si vous mesurez son succès par la vitesse à laquelle les êtres humains s'entre-tuent, alors on peut imaginer des moyens de l'améliorer. Mais, en fait, je ne sais pas quel est le critère de la réussite.

  21. #17
    halman

    Re : neurosciences

    Qu'est-ce que l'apprentissage ?
    (Herbert Simon)

    L'une des choses importantes concernant le comportement intelligent de l'Homme, c'est qu'il peut apprendre. Nous ne sommes pas obligés de toujours procéder de la même façon car nous pouvons trouver de meilleures façons de faire. Une grande partie de ce que nous apprenons nous a été enseignée, c'est à dire que d'autres le savent déjà, ils nous l'expliquent, et nous l'enregistrons progressivement.

    Pourtant, cela reste un processus difficile, comme nos souvenirs d'école nous le rappellent. (Si cela n'a pas été difficile pour vous, ça l'est pour la plupart d'entre nous.) On ne peut pas simplement ouvrir le crâne et y déverser la connaissance. Elle doit y pénétrer, elle doit être recodée dans les formats que le cerveau utilise, être transformée de telle sorte qu'il puisse l'utiliser. C'est cela qu'on entend par apprentissage.



    Les 3 étapes de l'acquisition d'un savoir-faire
    (John Anderson)

    On divise habituellement l'acquisition d'une compétence en 3 étapes assez qualitatives. Il s'agit de l'étape cognitive, de l'étape associative et de l'étape autonome.

    La phase cognitive est la phase explicite de l'acquisition d'une compétence : on dispose au départ d'une description explicite de ce que l'on doit faire, peut-être d'une liste d'instructions, ou d'exemples qui illustrent comment résoudre un problème, et nous tentons consciemment, laborieusement, de traduire ces instructions explicites en actions qui accompliront la tâche. Pendant cette étape, nous constatons souvent que les gens se répètent spontanément les instructions pendant qu'ils sont en train de les exécuter.
    Je me rappelle, par exemple, lorsque j'ai appris à me servir d'une boîte de vitesses : je devais me répéter à moi-même les étapes d'un changement de vitesse, et je le faisais consciemment, en me disant : "Puisque tu veux changer de vitesse, débraye, puis change de vitesse et embraye à nouveau, enfin appuie sur l'accélérateur", et j'accomplissais ces différentes étapes, en me récitant les instructions.
    La phase cognitive se manifeste donc souvent comme une étape où nous avançons pas à pas, où nous "suivons la recette", et où nous nous répétons à voix haute les instructions que nous devons suivre.

    Avec l'entraînement, nous passons à l'étape associative, qui selon moi est celle où notre cerveau se crée les représentations qui vont lui permettre d'exécuter la tâche sans se répéter verbalement et consciemment la procédure à suivre. Notre performance devient alors plus assurée. On observe la disparition de toute verbalisation simultanée, et on s'aperçoit même souvent qu'à ce stade, les gens oublient les instructions explicites qu'ils suivaient auparavant.

    On constate souvent que les étudiants, par exemple dans les cours de mathématiques, réalisent couramment des transformations algébriques, telle la justification, sans plus vraiment savoir pourquoi. Ils savent simplement que c'est ce qu'il faut faire dans certaines situations.
    Avec encore plus d'entraînement, le savoir-faire devient autonome. En gros, il mobilise de moins en moins de ressources, et il n'est pas inhabituel que l'on puisse faire autre chose en même temps.

    Par exemple, lorsqu'on sait très bien conduire, il n'est pas difficile de soutenir une conversation en parallèle. Tout le processus du savoir-faire "conduire" a été suffisamment automatisé, et il mobilise maintenant suffisamment peu de ressources pour qu'il soit possible de faire autre chose en parallèle.



    Le principe de puissance de l'apprentissage (John Anderson)

    Le principe de puissance de l'apprentissage relie le temps d'exécution d'une tâche à la durée pendant laquelle on s'y est entraîné. Il énonce que la performance est égale à une puissance de la durée de l'entraînement. Voici une courbe d'apprentissage typique du principe de puissance. On constate que dès les premiers essais il y a une amélioration très rapide de la performance, puis la courbe continue à descendre mais de façon plus douce, pendant très longtemps. Dans notre laboratoire, la durée d'entraînement la plus longue que nous avons pu tester est d'environ 50 heures. Même après si longtemps, les sujets continuent de progresser, bien que de moins en moins.
    L'étude la plus célèbre du principe de puissance de l'apprentissage a mesuré pendant plus de dix ans le temps passé par une ouvrière à rouler des cigares dans une usine. Pour des durées aussi longues, il est utile de tracer la courbe d'apprentissage en prenant une échelle logarithmique pour la mesure de son expérience, en nombre de cigares roulés, ainsi que pour sa performance. Sa courbe d'apprentissage prend alors la forme d'une droite décroissante, ce qui permet de vérifier que des progrès ont bien eu lieu pendant toute la durée de l'étude.
    On s'est cependant aperçu que la droite s'aplatissait au bout de quelques années. En fait, l'ouvrière avait alors atteint le rythme maximum de la machine avec laquelle elle travaillait, de telle sorte qu'on ne pouvait plus observer ses progrès.

    Je pense que cet exemple illustre bien le principe de puissance de l'apprentissage qui implique qu'avec assez d'entraînement, nous pouvons éliminer la composante cognitive d'un comportement, la réduire à zéro, pour ne conserver qu'un temps machine.
    Ce temps machine correspond au temps nécessaire pour qu'un signal atteigne le cerveau, puis pour qu'une instruction motrice atteigne la main si par exemple vous vous servez de cette main pour exécuter la tâche en question. Le système physique impose donc une limite incompressible à la rapidité d'exécution d'une tâche, mais par contre il vous est possible, avec assez d'entraînement, de supprimer toute la composante cognitive du système, toute la cogitation, de telle façon que vous ne soyez plus qu'un système qui perçoit et agit. Votre temps d'exécution ne reflète plus alors que le temps nécessaire à la transmission des signaux de perception et d'action.


    Où les individus diffèrent
    (John Anderson)

    L'une des leçons que l'on pourrait tirer du principe de puissance de l'apprentissage est qu'essentiellement n'importe qui pourrait devenir expert dans n'importe quel domaine de compétence ; ce ne serait qu'une question d'entraînement. Je pense cependant que les différences individuelles jouent un rôle important dans l'acquisition des compétences. Par exemple, c'est un fait que les individus peuvent être différents dans leurs rythmes d'apprentissage, quelles qu'en soient les raisons, que ce soit le reflet d'une aptitude innée, ou d'une expérience antérieure.

    En classe, il m'arrive souvent d'observer deux étudiants dont l'un apprend beaucoup plus rapidement que l'autre bien que leurs progrès respectifs obéissent tous les deux au principe de puissance de l'apprentissage.

    Leur différence de rythme se traduit par des différences de pente entre leurs courbes d'apprentissage. Comme on peut le constater, le temps que doit investir l'étudiant le plus lent pour arriver à un bon niveau de compétence peut être considérablement plus important que celui investi par l'autre. A l'extrême l'étudiant très lent n'a tout simplement pas la possibilité d'atteindre un bon niveau de performance pendant la durée du cours.



    L'enfant est un novice universel
    (John Anderson)

    Il est très intéressant de réfléchir à comment ces principes d'apprentissage sont reliés au développement cognitif de l'enfant. Il y a toujours eu deux écoles de pensée dans la théorie du développement.
    La première suppose qu'un certain processus de maturation modifie la mécanique mentale, la machinerie neurale, de manière qu'avec l'âge nous devenions capables de penser plus vite, de maintenir plus d'informations en mémoire, etc.
    L'autre école remarque que le vieillissement va de pair avec l'apprentissage et la pratique, et que ce ne serait donc pas tant les propriétés de la machinerie neurale qui évolueraient que la somme totale de notre expérience qui augmenterait.
    Chacune des deux écoles détient certainement une part de la vérité. Toutefois, certains résultats suggèrent que des écarts qui sont parfois attribués à des différences d'âge ou d'état de maturité, refléteraient en fait différents niveaux d'expérience. Ainsi, des études ont montré que les enfants peuvent exécuter des tâches, comme la rotation mentale, aussi rapidement que des adultes si on les y entraîne suffisamment. En fait, il semble que les enfants suivent les mêmes courbes d'apprentissage que les adultes, sauf qu'ils commencent plus en aval. Ce qui nous fait penser que si les enfants sont moins bons que les adultes, ça n'est que parce qu'ils sont moins entraînés à la rotation mentale.

    On a aussi étudié ce qui se passe dans d'autres domaines où certains enfants ont une plus grande expertise. Michi Chi a étudié des enfants qui jouent beaucoup aux échecs, et elle a découvert qu'ils ont une bien meilleure mémoire des positions que les adultes qui y jouent moins souvent. Ceci suggère encore une fois que des écarts apparemment dévelopementaux peuvent être largement dus à des différences d'expérience. A un certain niveau, on pense qu'en général l'enfant est un novice universel, alors que l'adulte est devenu expert dans au moins quelques domaines.

  22. #18
    halman

    Re : neurosciences

    L'apprentissage est une adaptation
    (Herbert Simon)

    De toute évidence, l'apprentissage qui a lieu quand on acquiert de l'expérience nous conduit à améliorer sans cesse nos performances ; c'est donc une forme d'adaptation. D'ailleurs apprentissage et adaptation sont presque synonymes. L'ensemble des problèmes à résoudre constitue votre environnement, et c'est en apprenant que vous devenez plus efficace dans cet environnement : c'est bien ce que l'on entend habituellement par adaptation.

    Il est certain que l'un des avantages des êtres humains sur la plupart des autres créatures dans la lutte pour la survie (c'est bien de cela qu'il s'agit), est le fait que nous possédons de puissantes facultés d'apprentissage qui nous permettent de nous adapter à un large éventail de circonstances et de modifier nos comportements assez rapidement. Donc, oui ... l'apprentissage, ou plutôt la faculté d'apprendre est l'un des acquis de notre évolution qui nous a rendu plus compétitifs.


    Des milliards de neurones !
    (Jean-Pierre Changeux)

    Notre cerveau comprend un nombre astronomique de cellules nerveuses. Il est de l'ordre de cent milliards pour l'ensemble de ce que nous avons dans notre tête, c'est à dire notre encéphale. Pour le cortex cérébral, qui est la partie la plus superficielle, enveloppant notre cerveau, on trouve environ dix à vingt milliards de cellules nerveuses. C'est un chiffre considérable.

    Le nombre de connexions est encore plus élevé puisque, en moyenne, une cellule nerveuse établit dix mille contacts avec d'autres partenaires, ce qui fait, au total, un million de milliards de connexions. Pour donner une idée de la densité des synapses dans le cortex, un millimètre cube de substance grise contient environ cinq cent millions de contacts entre cellules nerveuses ou synapses.



    Comment les neurones sont connectés
    (Eric Kandel)

    Laissez moi tout d'abord vous expliquer comment les cellules nerveuses fonctionnent.
    Un neurone typique a plusieurs composants. Il y a les dendrites, il y a le corps cellulaire, il y a l'axone, et les terminaisons axonales. Les dendrites servent à recevoir les signaux en provenance des autres neurones. En fonction des signaux qui lui parviennent par les dendrites, le corps cellulaire va déclencher ou non un signal électrique, appelé influx nerveux. C'est un signal de tout ou rien qui se déplace le long de l'axone de manière autonome jusqu'aux terminaisons axonales, où ce neurone communique avec les suivants à travers des contacts appelés synapses.
    Là il se passe quelque chose d'intéressant. L'influx nerveux provoque la libération d'un messager chimique, un neuromédiateur, dans la terminaison pré-synaptique. En général, un neurone ne libère qu'un seul type de neuromédiateur qui diffuse à travers un petit espace jusqu'aux récepteurs post-synaptiques du prochain neurone, ce qui donne lieu à l'émission d'un nouveau signal électrique appelé le potentiel synaptique.
    Selon le type de neuromédiateur transmis, le potentiel synaptique va être positif ou négatif. La cellule nerveuse va en général faire une somme arithmétique de tous les signaux positifs et négatifs qu'elle reçoit par ses dendrites et, selon que cette somme dépasse ou non un certain seuil, déclencher ou non l'influx nerveux.


    Les connexions sont modifiables
    (Jean-Pierre Changeux)

    Le signal nerveux qui se propage le long des axones, l'influx nerveux, a une amplitude constante et se déclenche selon le principe du tout-ou-rien.
    Au contraire, lors de la transmission chimique, la réponse peut être graduée à la quantité de neuromédiateurs présents dans l'espace synaptique.
    Donc, les connexions que nous avons dans notre cerveau ne sont pas rigides. Elles sont susceptibles, au contraire, de flexibilité, et l'efficacité de la réponse des récepteurs aux neuromédiateurs peut elle-même être réglée par l'activité de la cellule nerveuse. Il peut y avoir, dans ces conditions, un apprentissage au niveau de la synapse.



    Comment l'apprentissage modifie les connexions
    (Eric Kandel)

    L'effet à court terme de l'apprentissage est un renforcement de la connexion synaptique. Par exemple, on peut imaginer qu'à la suite d'un certain processus d'apprentissage, ce neurone va libérer une plus grande quantité de neuromédiateurs qu'auparavant, de telle sorte que le potentiel synaptique qu'il déclenche, et qui avait déjà atteint un certain niveau, sera magnifié au point d'être maintenant capable de forcer le déclenchement du neurone post-synaptique. Un tel renforcement est temporaire et ne durera que de quelques minutes à quelques heures.

    Par contre, quand la mémoire s'inscrit à long terme, une chose assez surprenante se produit : on remarque l'apparition de nouveaux contacts synaptiques ! L'effet à long terme de l'apprentissage est donc de stabiliser la mémoire par la croissance de nouveaux contacts synaptiques dans le cerveau. C'est une découverte qui a de profondes ramifications.


    L'expérience modifie anatomiquement l'individu (Eric Kandel)

    Cette découverte est réellement importante, car elle a des ramifications dans la vie quotidienne. Si vous vous en rappelez, j'ai commencé par vous dire que vers 1860 on avait découvert dans le cerveau une représentation du corps pour tous les muscles, ainsi qu'une représentation de la surface corporelle pour les sensations tactiles, pour tous les récepteurs qui innervent les mains, les bras, la surface du corps. Nous pensions encore récemment que ces cartes que nous avons dans le cerveau, de la surface corporelle, de la peau, de la rétine, des muscles, étaient fixes ; que nous naissions avec elles et qu'elles restaient intactes tout au long de notre vie. Nous réalisons maintenant qu'il n'en est rien, que ces cartes sont dynamiques, que si vous jouez du piano les zones cérébrales qui représentent les mains s'agrandissent aux dépens d'autres zones cérébrales.

    Mike Musnik en a donné une très belle preuve. En examinant les représentations corticales des mains chez les singes il a remarqué qu'elles étaient plus ou moins importantes suivant l'individu. Il s'est demandé si cela résultait des différences génétiques entre individus, ou si ces singes avaient eu plus ou moins d'expériences tactiles. Il a donc entraîné des singes à presser un levier en échange de nourriture pendant plusieurs mois, et il a constaté que la représentation corticale des 3 doigts utilisés s'était nettement étendue aux dépens des zones cérébrales voisines.



    Aux origines de l'individualité
    (Eric Kandel)

    Nos différences de patrimoines génétiques ne déterminent qu'en partie la structure ultime de nos cerveaux et la nature de nos talents car nos expériences ont une influence considérable sur les bases biologiques de l'individualité.
    Ceci explique comment pour vous et moi le fait d'avoir grandi dans des environnements différents, d'avoir étés stimulés différemment, par des parents différents, sous des latitudes différentes a façonné nos cerveaux d'une manière unique. Donc, en plus du fait que nos gènes nous donnent une constitution génétique unique, notre environnement et nos interactions personnelles avec les objets animés et inanimées sont autant d'opportunités supplémentaires de développer une organisation cérébrale qui nous est propre.

  23. Publicité
  24. #19
    halman

    Re : neurosciences

    Voilà l'avenir de la psychothérapie !
    (Eric Kandel)

    Lorsque nous discutons, mon cerveau est en communication avec le vôtre et, si jamais vous vous souvenez de ce que je vous ai dit -- je ne vous y oblige pas mais si vous vous en souvenez -- c'est parce que mon cerveau a provoqué des changements anatomiques dans votre cerveau et vice-versa.
    J'espère qu'un jour l'imagerie cérébrale nous permettra de détecter ces changements, car cela aura des conséquences médicales profondes. Par exemple : beaucoup d'entre nous ont de bonnes raisons de croire que la psychothérapie fonctionne et qu'elle est capable de modifier les comportements. Et cependant ceci est constamment remis en question par la communauté médicale.

    Je pense que si on pouvait réellement montrer, de façon fiable que les différentes sortes de névroses dont nous souffrons tous sont associées à des changements anatomiques caractéristiques dans le cerveau, détectables par imagerie cérébrale (I.R.M ou T.E.P.), alors il serait possible de montrer que, si la psychothérapie produit des changements stables dans le cerveau, c'est parce qu'elle provoque des changements anatomiques. On pourrait alors avoir, grâce à l'imagerie cérébrale, la preuve concrète que ces changements anatomiques sont le résultats de la psychothérapie.



    La psychothérapie rejoint la pharmacologie
    (Eric Kandel)

    Un autre point qui, je pense, est intéressant, est la comparaison entre la psychothérapie et la psychopharmacologie. Beaucoup de gens pensent qu'il s'agit de deux traitements distincts et opposés - la psychothérapie prend du temps, alors que les médicaments agissent plus rapidement - mais je pense que c'est une conception simpliste. L'avenir nous apprendra à quel point ils sont en synergie. Une fois que l'on a compris que la mémorisation implique des altérations dans la structure anatomique du cerveau et que lorsqu'on apprend ou que l'on se souvient de quelque chose des changements ont lieu au niveau des cellules nerveuses du cerveau, alors il facile de voir que la psychothérapie a le même effet, que la psychothérapie agit exactement sur la même structure cérébrale que les médicaments.

    Ceci est de nature à révolutionner profondément plusieurs domaines de la pensée humaine, et en particulier la pratique médicale de la psychiatrie. Je suis absolument certain que la psychiatrie va se fonder dans la biologie, sur des bases totalement biologiques, non pas de façon inhumaine et mécanique, mais avec beaucoup de compassion, en reliant les enseignements et la sollicitude de la psychothérapie à la réalité biologique des changements cérébraux que la psychothérapie provoque.



    L'étrange amnésie de Monsieur H.M.
    (James McClelland et Eric Kandel)

    James McClelland :
    Une des choses qui m'ont vraiment passionné ces dernières années est l'organisation de la mémoire humaine, et ceci est devenu un centre d'intérêt important en raison des exemples de déficit saisissants que l'on peut rencontrer parfois chez les patients qui présentent des lésions cérébrales. Il existe un patient très célèbre, dont les initiales sont H.M., dont le cerveau avait subi une ablation partielle des deux côtés afin d'essayer de contrôler ses crises d'épilepsie incroyables. Le résultat de l'opération permit effectivement de contrôler ces crises, mais bien plus important pour les sciences cognitives, il s'avéra que cela entraîna également un très grave déficit de la faculté d'apprendre une nouvelle information.

    Eric Kandel :
    H.M. ne pouvait plus stocker aucune information nouvelle dans sa mémoire à long terme. Mais, étrangement, il conservait quand même une certaine mémoire. Par exemple, il se souvenait bien de ce qui s'était passé avant son opération, il se rappelait de son enfance, il connaissait toujours la langue anglaise, il se souvenait de l'appartement où il habitait et de son travail, il se rappelait ce qui s'était passé dans ses premières années. Il avait également une mémoire à court terme intacte : lorsqu'il rencontrait quelqu'un pour la première fois, il était capable de le saluer et de se rappeler son nom aussi longtemps qu'il lui parlait. Mais s'il se tournait vers quelqu'un d'autre et apprenait le nom de cette seconde personne, il était incapable de se rappeler du nom de la première personne en revenant vers elle. Brenda Milner, la psychologue qui a étudié son cas, l'a rencontré régulièrement pendant plusieurs années. A chaque fois qu'elle allait chez lui, c'était comme s'il la voyait pour la première fois. En fait, il ne peut plus inscrire sa connaissance immédiate dans sa mémoire à long terme.


    Une fantastique découverte
    (Eric Kandel)

    Brenda Milner a fait de très belles études de HM. Elle l'a suivi de 1956 à 1968 pour observer en détail son déficit de mémoire. Pendant de nombreuses années, elle a supposé que ce déficit concernait tous les aspects de la mémorisation. Puis elle a fait une découverte fantastique : Elle s'est aperçu que son déficit de mémoire ne s'appliquait qu'à certaines formes de connaissances et que d'autres types de connaissances restaient complètement préservés. Elle a découvert cela en lui faisant faire des exercices moteurs dont l'un des plus simples était le test de l'écriture en miroir. Il s'agit de suivre les contours d'une étoile placée sur une feuille de papier. HM devait suivre les contours de l'étoile avec un crayon sans pouvoir regarder ni le crayon, ni sa main, ni l'étoile sauf à travers un miroir. Si vous ou moi devions faire cela, nous ferions un certain nombre d'erreurs mais de jour en jour notre performance s'améliorerait. Si on mesurait le pourcentage d'erreurs, imaginons un axe de 0% à 100% d'erreurs, nous commencerions par faire beaucoup d'erreurs, puis nous nous améliorerions pour, à la fin, ne pratiquement plus faire d'erreurs du tout. On observe cette courbe quand vous ou moi faisons ce type d'exercice. Or HM a obtenu le même résultat ! Il a d'abord fait beaucoup d'erreurs puis il s'est amélioré de jour en jour, mais lorsque le
    troisième ou le quatrième jour on lui disait : " Comment se fait-il que vous soyez tellement meilleur jeudi que lundi ? ", il répondait " De quoi parlez-vous ? je n'ai jamais fait cela de ma vie ! ". Il révélait ainsi que si pour certaines connaissances il avait un déficit total de mémoire, il y avait néanmoins des choses qu'il était parfaitement capable d'apprendre.



    Il y a deux types de mémoire
    (Eric Kandel)

    De plus, il est bientôt apparu très clairement que ces deux formes de connaissances diffèrent encore d'une autre manière. La connaissance que HM ne pouvait pas stocker, la nouvelle connaissance qu'il ne pouvait pas accumuler concernait les personnes, les lieux et les objets. C'est ce qu'on appelle maintenant les formes explicites ou déclaratives de la mémorisation. Elles requièrent une participation consciente, un rappel conscient de l'image d'un visage, du nom d'une personne, du nom d'un objet, d'un lieu particulier.
    Les connaissances telles que les compétences perceptuelles et motrices sont elles complètement inconscientes. Lorsque vous apprenez à faire du vélo ou à frapper une balle de tennis ou à jouer au piano, vous commencez par faire très attention, car cela nécessite votre participation consciente, mais, au bout d'un certain temps, votre corps prend le dessus, vous le sentez dans vos muscles. Et si vous vous dites, lorsque vous êtes sur un vélo : "maintenant il faut que j'utilise ma jambe gauche, et maintenant ma jambe droite", vous tomberez par terre ! Lorsque vous conduisez votre voiture, vous ne vous dites pas : "maintenant je dois utiliser ce muscle ci, maintenant je dois utiliser ce muscle là" car en fait c'est devenu automatique. Une grande partie de nos activités utilisent en fait ces formes implicites de mémorisation.
    De plus, il est devenu évident, à partir du travail de nombreux chercheurs, d'abord Brenda Milner, puis Larry Squire et beaucoup d'autres, que ces deux types de mémorisation n'impliquent pas seulement deux systèmes logiques différents mais impliquent également deux systèmes cérébraux différents. La mémoire explicite, qui concerne les personnes, les lieux et les choses, qui est consciente, qui fait défaut à HM, utilise ce qu'on appelle le système médio-temporal au cœur duquel on trouve l'hippocampe. Le système implicite, qui concerne l'apprentissage perceptuel et moteur, utilise le cervelet et selon la tâche des systèmes sensori-moteurs différents, mais n'exploite ni l'hippocampe ni le lobe médio-temporal.


    Il y a deux systèmes d'apprentissage
    (James McClelland)

    Dans le cas de H.M. et des autres patients qui souffrent d'amnésie, la partie du cerveau qui a été enlevée est appelée l'hippocampe. Il y a aussi d'autre régions autour de l'hippocampe, que l'on appelle en général le parahippocampe, mais la principale région concernée est l'hippocampe lui-même.
    La région du cerveau qui est restée intacte est le système néocortical. Il contient la plupart des aires qui sont impliquées dans les activités de traitement de l'information par le cerveau. Le néocortex n'est donc pas un système uniquement concerné par le traitement et la représentation de l'information, mais aussi un système qui est capable d'apprendre, qui contient nos connaissance implicites et qui régit la plupart de nos activités cérébrales. Une façon de comprendre ce qui s'est passé dans le cas de H.M est de bien voir que notre cerveau comporte donc deux systèmes d'apprentissage : le premier fait partie intégrante des aires du cortex chargées du traitement de l'information, le second est constitué de l'hippocampe et des aires qui lui sont voisines.

  25. #20
    halman

    Re : neurosciences

    La mémoire rapide
    (James McClelland)

    J'aimerai vous montrer comment l'hippocampe nous permet d'apprendre rapidement une nouvelle association.

    Je vais utiliser un exemple d'apprentissage simple où on demande à un sujet humain de mémoriser une paire de mots entre lesquels il n'y a pas d'association préalable. Par exemple les 2 mots pourraient être "locomotive" et "torchon", deux mots sans aucun rapport.

    A la présentation des deux mots, chacun va initialement activer un ensemble de neurones du néocortex. Cette activité va ensuite se propager vers l'hippocampe, où là encore des groupes de neurones spécifiques vont êtres activés. Alors, les connections entre ceux-ci vont se renforcer pour refléter l'apprentissage de l'association des deux mots.

    Plus tard, lorsque le mot "locomotive" est présenté, il active dans le néocortex à peu près les mêmes neurones que lors de sa première présentation, ce qui, par propagation, réactive partiellement les neurones correspondants dans l'hippocampe.
    Ensuite, grâce aux connections apprises, l'activité se propage vers les autres neurones de l'hippocampe associés au mot "torchon", ce qui, par propagation inverse, réactive enfin les neurones du néocortex qui lui sont associés.

    Résultat : l'évocation du mot "locomotive" provoque le rappel du mot "torchon". L'hippocampe, en modifiant rapidement les connections entre ses neurones, a permis de mémoriser rapidement l'association entre les deux mots.

    Ce mécanisme nous permet de mieux comprendre le déficit de H.M. Ce qui s'est passé c'est que son opération lui a retiré l'hippocampe, tout en laissant intact le néocortex et sa mémoire à long terme. Il lui manque donc le système d'apprentissage rapide de l'hippocampe, celui qui contient les informations récentes et qui pouvait lui permettre d'apprendre de nouveaux faits.



    La mémoire profonde
    (James McClelland)

    Dans cette manière de voir l'organisation de la mémoire humaine, l'apprentissage prend donc place dans deux régions du cerveau.

    Il y a d'une part le néocortex qui apprend très lentement, et où à chaque expérience, les connections entre les neurones impliqués changent très graduellement. Cet apprentissage progressif lui permet de bien intégrer l'information nouvelle à celles qui sont déjà en mémoire.
    Et puis il y a, d'autre part, l'hippocampe, qui lui apprend très rapidement, ce qui nous donne la capacité d'enregistrer le contenu d'un événement au moment où il se produit.
    On peut se demander comment les informations apprises très rapidement, pour le court terme, par l'hippocampe, s'inscrivent finalement, pour le long terme, dans le néocortex, qui lui apprend un petit peu à chaque fois. Ce transfert a lieu grâce à un processus qui s'appelle la consolidation, au cours duquel l'hippocampe va jouer en quelque sorte le rôle de professeur auprès du néocortex.

    Voici comment nous pensons que la consolidation se produit : Tant qu'une association est stockée dans l'hippocampe, il y a des opportunités de la rejouer pour le néocortex. A ces occasions les neurones de l'hippocampe sont réactivés, ce qui, par propagation, réactive dans le néocortex. les ensembles de neurones qui représentent cette même association. Les connexions entre ces neurones changent alors un petit peu pour inscrire un peu plus profondément l'association dans la mémoire corticale. A chaque fois que l'hippocampe rejoue l'information au cortex, celle-ci se retrouve un peu plus consolidée dans le néocortex.

    C'est donc par ce processus progressif que les informations sont transférées de l'hippocampe vers le néocortex. Si, comme dans le cas de HM, l'hippocampe est enlevé, les connaissances consolidées dans le néocortex avant le retrait resteront. Par contre, le néocortex ne pourra plus apprendre de nouvelles informations car il aura perdu son "professeur".
    Pourquoi y a-t-il deux systèmes différents ?
    Une des questions qui émerge dans ce contexte est : pourquoi avoir deux différentes mémoires ?

    L'hippocampe enregistre les faits précis de notre expérience récente qui sont utiles pour se souvenir, par exemple, de l'endroit où j'ai garé ma voiture ce matin. L'hippocampe est également approprié pour le stockage initial d'une nouvelle information. Mais si cette information commence à m'être utile sur une longue période, elle va s'intégrer graduellement parmi les connaissances structurées du cortex.

    Ce qui finit par être intégré dans le cortex sont les événements significatifs et récurrents de notre expérience, les choses que nous avons besoin de savoir et qui deviennent en quelque sorte une partie intégrante de ce que nous sommes et de comment nous pensons.


    Les neurones s'organisent en réseaux
    (James McClelland)

    Depuis l'invention du microscope, il est devenu évident que le système nerveux n'est pas simplement une masse gélatineuse mais qu'il est en fait composé de milliards de minuscules cellules, appelées des neurones. Chacun d'entre eux peut avoir jusqu'à 100.000 connexions, ou parfois plus, avec d'autres neurones. Vous ne pouvez pas les voir sans un microscope et vous ne pouvez pas remarquer qu'ils forment ces petites connexions à moins d'avoir à votre disposition un microscope très puissant. Mais avec le développement technologique, nous sommes devenus capables de constater qu'effectivement le cerveau est bien constitué de ces multiples neurones. Chacun d'entre eux reçoit des signaux en provenance de nombreux autres neurones, des milliers ou des centaines de milliers dans certains cas, et les combine d'une façon que nous pensons être assez simple, afin de décider si oui ou non il doit envoyer un signal aux neurones auxquels il est connecté. De là est venue l'idée que tout notre vie mentale, toute notre activité cognitive, est le produit des interactions entre ces unités de traitement très simples.


    Un réseau qui sait lire
    (James McClelland)

    Examinons un exemple concret tiré de nos premières recherches. Nous nous sommes d'abord intéressés à la question de savoir comment, lorsque nous percevons quelque chose, nous utilisons le contexte pour influencer ce que nous voyons.

    Par exemple, voici un ensemble de lettres dont certaines sont en partie cachées par des taches d'encre. Des expériences de psychologie ont fait la preuve que dans ce genre de cas les sujets ont plutôt tendance à voir un mot, TOUR, qu'un non-mot. A partir de cela, nous avons construit un réseau de neurones qui modélise comment la perception de lettres dans un mot :
    Chaque mot est représenté par une unité, c'est à dire une sorte de pseudo-neurone. Le réseau en comprend environ un milliers, chacune représentant un mot commun de quatre lettres.
    Il y a aussi quatre ensembles d'unités pour chacune des lettres de l'alphabet dans chacune des quatre positions dans le mot.

    Et puis il y a des unités pour représenter les traits dont les lettres sont constituées.

    Pour que les calculs puisse s'effectuer dans le réseau, nous avons simplement besoin de supposer qu'il y a des connexions entre les mots et leur lettres ainsi qu'entre les lettres et leur traits. Par exemple, T, O, U et R sont toutes connectées à TOUR et les connexions sont bidirectionnelles.
    Pour faire tourner le modèle, il suffit alors d'activer à ce niveau les traits qui constituent les lettres d'un mot que l'on présente au réseau, de laisser l'activité se propager dans le système, puis d'observer comment il se stabilise sur une interprétation du stimulus.

    Dans ce cas, par exemple, les traits sont compatibles avec T, O, U, et, là, ils sont compatibles avec R ou K ; et ces lettres, elles, sont compatibles avec certains mots que nous connaissons, en particulier avec le mot "TOUR".

    Alors voilà ce qui se passe : quand nous présentons le stimulus, initialement, T, O, et U sont activés, puis pour la dernière position, R et K sont tous les deux activés. Ensuite, les lettres activent toutes le mot TOUR, qui à son tour renvoi de l'activation vers les lettres qui le constituent. Donc le R va progressivement se trouver en quelque sorte préférée par rapport au K, car son activation se renforce par rapport à celle de K. De même, nous pensons que les connexions qui vont des lettres aux traits vont permettre d'activer les traits manquant le stimulus.

    Les mêmes processus qui sont mis en jeu dans ce réseau sont aussi à l'œuvre dans nos perception de tous les jours. Par exemple, voici une image célèbre qui semble a priori n'être qu'un ensemble de taches. Mais si vous regardez suffisamment longtemps, vous vous rendez compte que toutes les taches constituent en fait un dalmatien en train de flairer le sol.
    Vous conviendrez que l'observateur doit ajouter pas mal de choses à cette image pour qu'un chien en émerge. Nous pensons que ces ajouts se produisent par des mécanisme de propagation d'activation similaires à ceux que nous venons de voir à l'œuvre dans notre réseau.
    Cet exemple de réseau illustre bien ce que nous faisons dans notre travail de simulation : nous imaginons des ensembles d'unités, des pseudo neurones - dans ce cas nous avons des unités qui représentent des mots, des lettres, et des traits - puis nous mettons en place des connexions entre elles. Des algorithmes de calcul très simples permettent ensuite aux unités de s'échanger de l'activation, et de cette façon nous pouvons simuler les types de calculs qui, selon nous, ont lieu dans le cerveau.

  26. #21
    halman

    Re : neurosciences

    Le savoir est dans les connexions
    (James McClelland)

    Une des choses qui différencie réellement les modèles connexionnistes et les modèles traditionnels de représentation et de traitement des connaissances est la façon dont la connaissance est représentée dans un réseau.

    Habituellement, les logiciens, les philosophes, comme les cogniticiens, représentent la connaissance comme si elle était écrite dans un livre, à l'aide une terminologie explicite et dans un format directement consultable par la pensée au cours de son déroulement.

    Dans les modèles connexionnistes, la connaissance est en fait contenue dans les connexions. C'est une façon surprenante et intéressante de représenter la connaissance car elle implique que la connaissance n'est pas directement accessible aux processus de pensée. La connaissance devient ce qui guide la pensée, plutôt que ce que vous consultez lorsque vous pensez.
    Les connexions entre les neurones ne peuvent pas être examinées, elles ne peuvent pas être lues ou interprétées par quelqu'un d'autre, elles peuvent seulement influencer la manière dont un neurone en active un autre.

    Et de la même façon, la connaissance, dans nos simulations, nous permet de savoir que nous regardons un mot particulier et d'utiliser l'information en provenance des lettres voisines pour en déduire l'identité d'une lettre particulière, mais elle n'est pas explicitement disponible comme telle.
    Voilà quelle est la vraie différence entre les modèles connexionnistes de représentation des connaissances et la manière traditionnelle de les représenter.


    Comment l'on passe d'une idée à une autre
    (James McClelland)

    Imaginons que je sois en train de penser à une tasse à café qui m'appartient et sur laquelle il y a l'image d'une girafe. En termes connexionnistes, on imagine qu'il se passe la chose suivante : penser à la girafe ou à la tasse à café avec la girafe active des groupes de neurones à différents endroits de mon cerveau.

    Un de ces groupes se trouve dans des zones strictement visuelles, c'est-à-dire des régions du cerveau qui représentent exactement l'aspect de la tasse, la forme de l'anse par rapport à la tasse et la manière dont elle y est connectée. Un autre groupe de neurones peut représenter mes pensées du moment, du type : "je souhaite que cette tasse soit pleine de café car j'ai besoin d'une nouvelle dose de caféine". Une autre région de mon cerveau peut contenir un groupe de neurones activés représentant ce que je pense de la girafe et l'idée que c'est une drôle d'image pour une tasse à café.

    On aboutit donc à cette idée très simple que le contenu de la pensée est représenté par une "distribution d'activité" qui spécifie pour chaque neurone s'il est actif ou pas. Et quand je pense, ces distributions d'activité évoluent et se modifient à chaque étape du processus.
    Etant donnée l'idée que le contenu de mes pensées est une distribution d'activité, on peut se demander comment on passe d'une pensée à l'autre. C'est précisément ce que font les connexions. Elles me permettent de passer d'une distribution d'activité à la suivante.

    Donc l'idée fondamentale est que ce qui fait évoluer les distributions d'activité est précisément les connexions entre les neurones. Un bon exemple de cela est le modèle dont nous avons parlé : lorsque les activations au niveau des lettres commencent à se former, elles produisent à leur tour des activations au niveau des mots. La succession des pensées est donc représentée par la succession des distributions d'activation.



    L'apprentissage modifie les connexions
    (James McClelland)

    Ce qui est très intéressant et important dans nos modèles connexionnistes est la façon dont l'expérience arrive et modifie les connexions entre les neurones. Je voudrais vous présenter ces idées en prenant l'exemple du développement de l'enfant, car je pense que c'est un des domaines dans lesquels il est important de comprendre comment l'expérience s'intègre au cerveau. Mes idées à ce sujet rejoignent celles de Jean Piaget, qui considère que le jeune enfant essaie à chaque instant de prédire et de comprendre ce qui se passe autour de lui.

    La manière connexionniste d'expliquer ce qui se passe est d'imaginer que le cerveau se fonde sur les expériences récentes pour tenter de prédire le prochain événement. Ensuite, le cerveau observe ce qui s'est vraiment passé. Imaginons par exemple qu'un enfant ait un écran opaque placé en face de lui et qu'une balle roule sur le sol et disparaisse derrière l'écran.
    La question est : à quoi l'enfant devrait-il s'attendre ? En fait, l'enfant sans connaissances préalables ne s'attend pas à ce que la balle réapparaisse de l'autre côté de l'écran. Si c'est le cas, il sera réellement surpris de voir la balle réapparaître. Nous pensons que c'est ce type de surprise qui pousse l'enfant à apprendre que les objets continuent d'exister même quand on ne les voit plus.

    L'idée fondamentale est donc la suivante : lorsque vous faites une expérience, votre esprit est toujours en train d'essayer de prédire ce qui va se passer ensuite, tandis que ce qui se passe réellement lui indique ce qu'il aurait du prédire. Votre cerveau suit alors une règle d'apprentissage très simple : il ajuste les paramètres de votre prédiction afin que celle-ci soit meilleure la prochaine fois. Lorsque ces paramètres sont bien réglés, vous avez à votre disposition un modèle interne du monde qui vous entoure. C'est l'idée fondamentale.



    Un réseau qui peut apprendre
    (James McClelland)

    Voyons un exemple qui permet de comprendre comment ces idées peuvent être mises en Œuvre. Cet exemple implique l'apprentissage de quelque chose qui semble être fort simple, puisqu'il suffit de reconnaître si deux signaux sont identiques ou différents. Pour simplifier nous allons représenter nos deux signaux par 0 et 1 ; si les deux signaux sont ainsi, ou ainsi, nous devons dire qu'ils sont différents, mais si ils sont ainsi, ou ainsi, nous devons dire qu'ils sont identiques. Pour cela nous allons construire un réseau qui va apprendre à calculer la fonction suivante : si les deux signaux d'entrées sont identiques alors le signal de sortie sera égal à 1, et si les deux signaux d'entrées sont différents, alors le signal de sortie sera égal à 0.

    Maintenant, voyons comment l'apprentissage se déroule dans le réseau : au début les forces des connexions entre les entrées et les neurones intermédiaires, puis entre ceux-ci et le neurone de sortie, sont totalement aléatoires. C'est pourquoi, lorsque nous présentons l'un des quatre signaux d'entrées possibles la réponse du réseau est elle aussi aléatoire. Par exemple, si nous présentons 1 et 0, et qu'il y a une petite connexion positive ici, une petite connexion négative là, les neurones intermédiaires ne que seront faiblement activés, ainsi que le neurone de sortie, ce qui ne correspond pas à la réponse désirée.
    Cela étant, à chaque présentation d'un signal nous pouvons enseigner au réseau quelle est la bonne réponse : c'est à dire 0 quand les signaux sont différents, et 1 quand ils sont identiques. Le réseau va ainsi pouvoir comparer son résultat avec la bonne réponse. C'est exactement comme le cas d'un bébé qui apprend en confrontant ses prédictions à la réalité de son environnement.
    Le réseau va ensuite utiliser un algorithme appelé "retropropagation" qui, partant de l'écart entre ses prédictions et les résultats désirés, modifie graduellement les forces des connexions entre les neurones. Récapitulons comment se passe l'apprentissage du réseau. Des informations lui sont présentées à partir desquelles il va faire une prédiction. A chaque fois le réseau va comparer sa prédiction au résultat attendu et, par rétropropagation, modifier les forces des connexions entre ses neurones. Progressivement ce processus va lui permettre de trouver quelles sont les bonnes valeurs à affecter aux connections afin de produire les bonnes réponses.

  27. #22
    halman

    Re : neurosciences

    Comment le réseau apprend
    (James McClelland)

    Traçons une courbe de la performance du réseau en fonction du temps pendant lequel il apprend à résoudre ce problème particulier. Nous mesurons le temps en termes de cycles d'enseignement. A chaque cycle, chaque combinaison possible de signaux d'entrées est présentée une fois au réseau, accompagnée de la bonne réponse, pour qu'il puisse apprendre.
    Voici le résultat : l'erreur globale est initialement assez importante, puis elle diminue un petit peu et se stabilise au même niveau pendant assez longtemps. Enfin, elle atteint un point où elle tombe brusquement et nous pouvons dire que le réseau a résolu le problème. Mais vous observerez qu'il y a une longue période pendant laquelle il semble que rien ne se passe du point de vue de la performance du réseau, alors qu'en fait il se prépare à atteindre ce point de transition rapide.



    Le phénomène des stades de développement
    (James McClelland)

    J'aime à croire que la forme de cette courbe est en relation avec un phénomène bien décrit par Jean Piaget. C'est le phénomène de "transitions par stade", où l'esprit passe rapidement d'un certain entendement à un autre mode radicalement différent. Piaget a montré que de telles transitions se produisent dans différents domaines.
    Un des aspects frappants de ce phénomène est qu'on observe de longs plateaux pendant lesquels rien ne change, ponctués par des transitions très abruptes pour passer à l'étape suivante. Ceci fut très problématique pour beaucoup de psychologues du développement, car d'une part, ils étaient convaincus que l'expérience influence le développement et, d'autre part, ils pensaient, comme presque tout le monde d'ailleurs, que l'impact de l'expérience sur le développement devait s'observer à tout moment.

    Le comportement non linéaire de nos modèles nous montre que les effets de l'expérience peuvent en fait s'accumuler en arrière plan pendant une étape particulière du développement afin de permettre à l'individu d'atteindre le point où il est prêt à changer de façon très rapide et abrupte.


    Comment une règle s'apprend
    (James McClelland)

    L'une des choses que l'on peut remarquer est que lorsque le réseau a fini son apprentissage, il a, en un certain sens, appris une règle de logique. Cette règle, qu'un logicien appellerait la "règle d'identité" ou "la règle de ressemblance", énonce qu'il faut dire "oui" lorsque deux choses sont identiques et "non" dans le cas contraire. Or dans notre réseau, cette règle n'est pas représentée explicitement. Au contraire, elle est incarnée dans un ensemble de connexions qui se sont progressivement établies.

    Certaines personnes aimeraient dire : "lorsque l'apprentissage est terminé, il n'y a plus de différence entre votre réseau et la règle explicite qu'il incarne". C'est vrai, mais pas pendant l'apprentissage. Ce qui apparaît très progressivement au cours de l'apprentissage ne peut être défini à l'aide de règles explicites. Ce sont des états intermédiaires de la connaissance qui précédent les représentations symboliques, et je pense que ces états intermédiaires représentent ce qui nous fait passer d'un mode de pensée à un autre.



    Comment se construit un cerveau ?
    (Jean-Pierre Changeux)

    Lorsque l'on ouvre la boîte crânienne, on découvre un cerveau et ce cerveau est un organe qui pèse environ 1,4 kilo et qui, vu de l'extérieur, présente des circonvolutions qui se retrouvent d'un individu à un autre.
    Nous possédons tous un cerveau très semblable qui caractérise l'espèce humaine et qui est bien différent de celui de l'orang-outang, du chimpanzé et bien entendu des singes comme le macaque. Ce cerveau est une machine d'une extrême complexité et la question qui se pose, c'est de savoir comment cette machine se construit. Elle ne se construit pas du tout comme un ordinateur à partir de circuits déjà connectés que l'on met les uns au bout des autres. Elle se construit progressivement, à la suite de plusieurs étapes.

    Dans le cas de l'homme, ce développement s'effectue en interaction constante avec le monde extérieur et, dès les premières étapes du développement, l'activité du système nerveux joue un rôle particulièrement important lors du développement qui suit la naissance. A cette occasion, se met en place ce que l'on pourrait appeler une empreinte culturelle : apprentissage du langage, et également mise en place des principales règles de conduite, de morale et de systèmes symboliques.



    Les neurones apparaissent
    (Jean-Pierre Changeux)

    A un stade précoce du développement, va apparaître une organisation primitive que l'on appelle la plaque neurale, qui va se refermer et former un tube qui lui-même va se décomposer en vésicules successives. Au cours de cette neurolation, les cellules qui sont les précurseurs de nos cellules nerveuses vont proliférer, se multiplier. Il existe donc une première phase qui est à la fois d'acquisition d'une forme générale et de multiplication des cellules, puis progressivement de leur différenciation en cellules nerveuses.




    Les connexions poussent
    (Jean-Pierre Changeux)

    Une des caractéristiques des cellules nerveuses, c'est qu'une fois qu'elles sont différenciées, elles ne se divisent plus.
    Dès que les cellules nerveuses se trouvent différenciées, après l'arrêt de la division cellulaire, des prolongements se forment et ceux-ci vont établir des connexions avec d'autres cellules nerveuses. Mais ces câbles ne sont pas simplement linéaires, ils vont se ramifier et des branchements vont s'établir progressivement au cours du développement. De telle sorte qu'il y a une complexification progressive du réseau nerveux au cours du développement, en particulier après la naissance.



    Les neurones se cherchent
    (Jean-Pierre Changeux)

    Cette croissance se fait d'une manière régulière. Les terminaisons de ces fibres nerveuses en croissance se présentent sous la forme d'un cône, d'une tête chercheuse en quelque sorte, qui va être la partie exploratrice de la fibre en croissance, d'où le terme de cône de croissance. Celui-ci va palper les cellules qui se trouvent rencontrées et progressivement, ici et là, arriver à la cible, à sa destination, qu'il va reconnaître pour former ensuite un contact synaptique qui va se stabiliser.



    Les neurones se trouvent
    (Jean-Pierre Changeux)

    Les caractéristiques de la cellule cible sont très largement déterminées génétiquement en ce sens que, par exemple, les des neurones moteurs de la moelle épinière vont reconnaître les muscles squelettiques. Mais, lors de ce cheminement, et surtout lors de l'arrivée il arrive souvent qu'un même neurone ne reconnaissent pas une cellule de la cible mais une population de cellules.

    Il va donc y avoir une sorte d'incertitude dans la destination finale, et, en fait, l'organisme résout ce problème en produisant un nombre de connexions plus élevé à ce stade du développement que chez l'adulte. Il va y avoir un stade d'exubérance connexionnel qui va se poursuivre par un élagage, une élimination de contacts synaptiques surnuméraires, et le réseau adulte va, en quelque sorte, être atteint par une stabilisation sélective de connexions, une sélection de contacts synaptiques au cours du développement.




    L'expérience sélectionne les connexions
    (Jean-Pierre Changeux)

    Lorsque le cône de croissance a atteint sa cible et qu'il existe un nombre important de contacts synaptiques fonctionnels établis, une phase d'élimination synaptique a lieu. Cette phase est contrôlée par l'état d'activité du réseau en développement. Par exemple, si l'on paralyse le muscle, on voit un nombre important de contacts synaptiques se conserver au niveau de la fibre musculaire. Si on stimule le nerf moteur, l'élimination a lieu. Il y a donc contrôle de cette élimination synaptique par l'activité du système nerveux en développement. C'est la même chose, au cours du développement du système visuel, lorsque la compétition entre les deux yeux est altérée. On voit certaines connexions, qui auraient pu être éliminées lors du développement normal, persister, en particulier lorsque l'œil est aveugle.
    Les propriétés fonctionnelles de ces neurones sont altérées par l'absence d'expérience, ou par une expérience différente de l'expérience normale.

  28. #23
    halman

    Re : neurosciences

    Il y a tant de choses à apprendre !
    (Jean-Pierre Changeux)

    Après la naissance, la formation de contacts synaptiques se poursuit et l'on peut dire que dans le cortex cérébral, plus de 90% des connexions se forment après la naissance, en particulier entre celle-ci et deux ans.

    Une des conséquences de la prolongation du cerveau après la naissance est que la période d'interaction avec l'environnement social et culturel du cerveau de l'enfant est très longue et permet des interactions multiples. Dès la naissance, il va y avoir interaction avec les parents et puis, progressivement, cette interaction va se décentrer, pour employer le terme de Piaget, vers d'autres enfants, et une interaction sociale va s'établir.

    Au cours de cette période, l'enfant append à marcher, il apprend à reconnaître ses parents, son environnement social. Il s'imprègne du langage qu'il va progressivement produire lui-même et, également, vont se mettre en place dans son cerveau des systèmes de représentions symboliques, des images qui lui sont offertes par son environnement. Il va acquérir des règles de conduite morale et, peut-être même, apprendre à reconnaître le beau.




    L'évolution continue jusqu'à la mort
    (Jean-Pierre Changeux)

    Le cerveau n'est pas une structure stable et fixe de la naissance à la mort. Il est en perpétuelle évolution. Au cours du développement embryonnaire, il se construit. Au cours du développement postnatal a lieu l'apprentissage des principales fonctions cognitives comme le langage et les règles morales.
    Chez l'adulte, le cerveau est performant, on pourrait dire presque d'une manière optimale, mais lorsque l'individu vieillit, certaines de ses facultés tendent à s'atténuer, comme la mémoire, par exemple des noms. Mais, dans ces conditions, peut-être que le sujet voit le monde d'une manière plus simple, plus cohérente. Cette simplification, en quelque sorte, que l'on peut voir apparaître au cours du vieillissement, peut s'accompagner d'une meilleure organisation de certaines pensées ou de certaines actions. Donc, à chaque âge, le cerveau possède ses facultés qui lui permettent d'interagir avec son environnement.




    Qui est Cog ?
    (Rodney Brooks)

    Le projet Cog est une tentative de construire un robot d'apparence humaine, capable de se conduire comme un être humain, non pas à la manière d'un robot à la Disney, qui a juste une apparence humaine mais n'est pas capable de s'adapter, mais un robot capable de s'adapter, espérons-le, de la même façon qu'un humain s'adapte à des circonstances changeantes. Nous essayons donc vraiment de lui donner des mécanismes qui lui permettront d'agir profondément comme un être humain.

    Je cherche à produire 2 types d'effets. Premièrement, je veux que Cog soit capable de manipuler des objets inanimés de la même façon qu'une personne pourrait le faire, de regarder les objets en face de lui, de les atteindre, de les soulever, de les examiner, de les assembler entre eux, et de pouvoir coordonner ses déplacements en fonction des objets de son environnement.

    Deuxièmement, je veux que Cog soit capable d'interagir avec les gens de la même façon que les gens interagissent entre eux. Cela implique notamment que Cog établisse un contact visuel avec les gens, le maintienne et enfin l'interrompe lorsque c'est à l'autre personne d'intervenir. Cela implique aussi que Cog emploie la même technique lorsqu'il échange un objet avec les autres personnes. Dès que Cog a fini de faire quelque chose, il doit à nouveau établir le contact visuel avec elles pour leur indiquer que c'est maintenant à leur tour d'agir.

    C'est pourquoi nous avons donné à Cog une forme humaine, afin que les gens trouvent tout naturel d'interagir avec lui et sachent en fait comment faire pour agir à son égard. De la même façon, nous voulons que Cog apprenne ensuite à interagir avec les gens.




    Comment vous inspirez-vous de l'évolution ?
    (Rodney Brooks)

    L'introspection amène les gens à croire que des tâches intellectuelles, comme prouver des théorèmes mathématiques ou jouer aux échecs, seraient très difficiles, tandis que voir et se déplacer seraient des activités faciles.

    En fait, nous avons découvert, au cours des quarante dernières années, que voir et se déplacer sont des tâches beaucoup plus dures que prouver des théorèmes mathématiques ou jouer aux échecs. Il est courant de voir des logiciels battre d'une façon régulière tout le monde, sauf peut-être les 200 plus grands joueurs d'échecs mondiaux, et ces logiciels tournent sur des machines de poche ! Par contre, il n'existe toujours pas de programme qui sache se déplacer dans un environnement complexe comme les humains savent le faire.

    Si vous observez le parcours de l'évolution, ce n'est pas surprenant. L'évolution a pris un milliard d'années pour passer de la cellule unique à un animal qui sache se déplacer. Il a fallu ensuite quelques centaines de milliers, voire quelques millions, d'années, pour passer du chimpanzé, qui ne fait rien de très intellectuel, à notre espèce, qui peut faire toutes sortes d'exercices intellectuels. Je pense donc que le fossé à franchir est beaucoup plus étroit.

    Cette conception de l'évolution suggère que très probablement le raisonnement et le langage, et tout ce type de facultés intellectuelles, sont construits au-dessus de capacités plus fondamentales comme se déplacer ou faire des choses, considérées comme d'un niveau plus animal.
    Mon hypothèse, et c'est celle d'un certain nombre d'autres chercheurs, est qu'en fait les hommes réutilisent cette machinerie spatiale de base lorsqu'ils raisonnent ou qu'ils communiquent à l'aide du langage. Il est important que cette machinerie soit correctement construite, car cela permettra d'obtenir un robot qui pourra très facilement s'adapter à des activités de plus haut niveau.




    Cog a-t-il un but dans la vie ?
    (Rodney Brooks)

    Lorsque nous construisions des robots capables de se déplacer dans le monde, il était clair que leur but devait être de bouger et que c'était leur seul but. Mais un robot aussi complexe que Cog possède, à l'instar des êtres humains, plusieurs motivations distinctes et différents objectifs possibles.
    Nous sommes alors confrontés au problème suivant : pourquoi Cog devrait-il faire quoi que ce soit ? Pourquoi ne devrait-il pas rester assis complètement inerte ? Pourquoi devrait-il vraiment faire quoi que ce soit ?
    C'est pourquoi nous tentons de donner à Cog des motivations qui le récompensent intérieurement. L'une de ces motivations -- elle n'est pas encore implantée mais nous travaillons sur les éléments qui devraient permettre de le faire -- est de garder les visages des personnes dans son champ de vision. Donc Cog reçoit une récompense interne aussi longtemps que des visages humains sont présents dans son champ de vision.
    Ensuite, à partir de là, nous ferons de Cog un robot sociable et gentil qui puisse interagir avec les gens tout à fait socialement et d'une manière qui continue d'intéresser les gens à interagir avec lui.




    En quoi consiste le corps de Cog ?
    (Rodney Brooks)

    Cog, malheureusement, est paraplégique : il n'a pas de jambes, mais il a des hanches et des épaules. Pour l'instant, il n'a qu'un bras, le gauche, et il a une main gauche. Nous espérons que, dans quelques mois, il aura deux bras et deux mains. Il a un cou qu'il peut faire pivoter, et il a deux yeux.

    Chaque œil se meut en saccades, avec une performance équivalente à celle de l'homme, en visant 3 ou 4 endroits successifs par seconde, très rapidement. Mais les yeux de Cog sont un peu différents de ceux de l'homme, car les yeux de l'homme ont à la fois un grand champ de vision et une fovéa étroite. Techniquement, nous ne pouvons reproduire cette organisation avec une seule lentille. C'est pourquoi les yeux de Cog ont chacun deux lentilles, une pour la vue à grand angle et une autre pour la fovéa. Ce système permet néanmoins à quelqu'un d'établir naturellement un contact visuel.

    Nous sommes continuellement en train de construire de nouvelles modalités sensorielles pour Cog. Pour l'instant Cog est doué de vision. Il a des détecteurs tactiles sur le bras et la main. Il a un sens kinesthésique qui lui permet de sentir la force de ses articulations. Il a un capteur de température dans son moteur et même un transistor d'efforts pour ressentir la difficulté des efforts qu'il engage.

    Nous venons tout juste de mettre au point et de lui installer dans la tête un ensemble de gyroscopes qui, à l'instar des trompes d'Eustache dans nos oreilles, permettent de capter les mouvements de la tête. Cela permettra au robot de détecter les mouvements de sa tête sans passer par ses moteurs dans ce but.
    Enfin, nous sommes en train de construire un système auditif, avec des microphones pour chaque oreille, et un système de traitement digital pour traiter les signaux sonores entrants. Nous envisageons même d'équiper le robot de pavillons car ils jouent en fait un rôle important dans la détection de l'origine verticale d'un son.

  29. #24
    halman

    Re : neurosciences

    Comment Cog apprend-t-il à coordonner ses sens ?
    (Rodney Brooks)

    Tout d'abord, Cog a appris à bouger les yeux, pour devenir capable de les mouvoir par saccades en direction des événements qui se produisent autour de lui. Supposons que j'arrive sur la gauche de Cog, il va alors s'apercevoir qu'il y a du mouvement, et va bouger très rapidement ses yeux dans cette direction-là.
    Une fois là, selon que ses yeux fixent directement le mouvement ou non, Cog va recevoir un signal d'erreur de visée, une sorte de signal d'apprentissage qui va lui permettre d'apprendre à améliorer ses performances avec le temps. C'est ainsi que Cog apprend à coordonner le système visuel au contrôle moteur des yeux.

    Puis nous avons interconnecté le système auditif avec les systèmes visuel et moteur. Cog postule que son et mouvement sont souvent corrélés dans le monde -- même si ce n'est pas toujours vrai, c'est souvent le cas. Donc, lorsque Cog entend un son, il se meut par saccades dans la direction d'où il estime que le son provient probablement. S'il y a bien du mouvement par là, il reçoit un signal d'apprentissage qui lui indique à quel point il a bien regardé dans la direction du son, étant donnée l'hypothèse que son et mouvement proviennent probablement de la même source.
    Il y a donc une sorte de processus d'empilement, où, tout d'abord en corrélant les indices visuels avec le contrôle moteur des yeux, puis en corrélant les indices sonores avec les indices visuels, Cog devient capable de contrôler ses yeux pour regarder dans la direction d'un son.



    Cog a-t-il un esprit ?
    (Rodney Brooks)

    Pour moi, l'esprit n'est qu'une manifestation du corps, ainsi que de ses modes internes de représentation et de calcul, le tout en interaction avec l'environnement. Ce n'est pas tant le corps lui-même que son interaction avec l'environnement qui compte, et qui fait qu'un observateur voit un esprit animer le robot.

    On pourrait dire que tout ce que fait Cog est préconscient. Mais parfois, en regardant Cog en train d'agir, un observateur non averti qui ne saurait pas comment Cog marche pourrait penser que Cog comprend réellement ce qui se passe autour de lui, en tout cas plus que nous, qui l'avons construit.

    Le philosophe Dan Denett m'a dit un jour que, selon lui, notre problème ne serait pas de convaincre les gens que Cog est intelligent, mais de les convaincre qu'il ne l'est pas ! Voici Cog en train de regarder des objets tandis que Cynthia Ferrell joue avec lui. On a vraiment l'impression que Cog comprend ce qui se passe, mais, en fait, il ne le comprend pas aussi bien qu'il en a l'air.




    Cog a-t-il un libre arbitre ?
    (Rodney Brooks, Jean-Pierre Changeux, Eric Kandel, James
    McClelland, Herbert Simon, )

    Rodney Brooks :
    Quand on connaît le fonctionnement de Cog, il est difficile d'admettre qu'il a un libre arbitre, car on sait ce qu'il a dans la tête, mais je pense que même maintenant, à ce stade primitif, pour quelqu'un qui l'observe sans savoir comment il fonctionne Cog donne l'impression de décider librement de ce qu'il veut regarder et toucher. J'ai donc peur que la question du libre arbitre soit un piège philosophique dans lequel nous sommes tombés. Peut-être Cog va t-il nous aider à en sortir.

    Jean-Pierre Changeux :
    Notre cerveau contient, sous une forme qui reste à déterminer, un espace conscient dans lequel des décisions vont être prises et vont être produites à la suite d'une sorte de synthèse de signaux venant du monde extérieur ou mémorisés, ainsi qu'une relation avec le Soi et, dans ces conditions, des sélections vont se produire. Si c'est ça, le libre arbitre, Oui, le libre-arbitre existe. Si vous considérez que ces mécanismes centraux de prise de décision consciente ne constituent pas un libre-arbitre, eh bien, tant pis ! .

    Le mot "Libre-arbitre", peut avoir diverses significations .
    J'aime beaucoup la définition de Spinoza : "Les hommes se croient libres dans la mesure ou ils ignorent les causes qui les déterminent".

    Eric Kandel :

    Voilà une bonne question ! Quel est notre degré de libre arbitre ? Je pense que tous les neurobiologistes... non... Je pense qu'un grand nombre de biologistes estiment que le libre arbitre n'existe probablement pas au niveau ultime, que les possibilités des circuits cérébraux sont vraiment très restreintes et qu'à chaque action est associé un nombre limité de possibilités d'agir. Mais les degrés de liberté sont si grands que nous avons l'impression d'être libres. Bien sûr, nous ne pouvons pas voler, ni marcher au plafond, ni faire tout ce que nous voulons, et il y a donc des contraintes biologiques qui restreignent nos comportements, mais ces contraintes sont si peu contraignantes et nous nous sentons si peu limités par elles que nous avons vraiment l'impression d'être doués d'un libre arbitre. Donc en pratique il y a un libre arbitre, même si des contraintes biologiques pèsent sur nous.


    James McClelland :

    Je pense que nos comportements sont totalement non-déterministes, qu'ils résultent de la rencontre spontanée d'une multitude d'influences avec notre état psychologique courant, ce qui peut produire des conduites ... quasi-aléatoires. Une idée peut nous venir soudainement pour des raisons non-déterminées : c'était l'une des idées possibles à ce moment là, parmi d'autres, mais sa génération n'était pas prédestinée ni complètement prédéterminée à l'avance. Ceci n'implique pas tant un libre arbitre qu'un manque de déterminisme. C'est sur cet aspect de la question que j'ai réfléchi.


    Herbert Simon :

    Je pense que l'existence du libre arbitre dépend de la façon dont on le définit. Certains ont trouvé confortable de l'expliquer par l'incertitude quantique, le fait que les équations quantiques d'Heisenberg laissent une certaine marge d'incertitude. Je ne vois pas le rapport avec le libre arbitre : le libre arbitre voudrait dire que mes atomes peuvent me bousculer ? Où est alors mon libre arbitre ? Que je suis un produit du hasard ? Ce n'est pas ça le libre arbitre !

    Le libre arbitre, c'est le fait que "moi" qui possède certaines caractéristiques et un certain nombre de connaissances reflétant les expériences de ma vie, je constitue un "système" qui est capable de décider à un moment donné entre des alternatives, comme parler ou rester silencieux. Je trouve d'ailleurs plus facile de parler que de rester silencieux ! C'est cela mon libre arbitre ; le fait que "je", c'est-à-dire l'ensemble des choses qui sont présentes dans ma tête, "je" peux faire ce choix. Et ce choix résulte du déclenchement d'un certain nombre de "règles" qui ne sont ni le fruit du hasard, ni les produits de l'incertitude quantique. Voilà ce qu'est pour moi le libre arbitre.




    Qu'avez-vous appris sur la pensée humaine ?
    (Rodney Brooks)

    Jusqu'à présent, toutes les expériences menées sur Cog renforcent mon hypothèse que l'intelligence est dans l'œil de celui qui observe, plutôt que dans la tête de celui qui pense. Cog semble en effet posséder des facultés cognitives qui dépassent ce que nous avons explicitement programmé.
    On a constaté qu'au cours du développement de l'enfant les mères ont tendance à surestimer les facultés de leur progéniture, et donc elles poussent leur enfant à aller au delà de ce qu'il est capable de faire, ce qui s'avère très important pour son développement. Cette idée de surestimer ce qu'il y a dans la tête de l'autre est donc un concept bien établi dans la psychologie du développement.

    Cela devient réflexif quand on considère un adulte parlant à un autre adulte. Je crois que, dans une large mesure, nous avons tendance à surestimer à quel point les gens ont conscience de ce qu'ils font. En fait, leurs réactions sont des réflexes déclenchés par les progrès de la conversation, mais, comme ils confirment nos anticipations, ils nous amènent à croire les gens plus conscients qu'ils ne le sont en réalité.



    L'homme est-il une machine ?
    (Rodney Brooks)

    Je crois qu'en dernière analyse les hommes sont des machines, ce qui est un point de vue réductionniste. Cela n'implique pas que ce soit toujours la meilleure façon de les considérer, ou la meilleure manière de leur porter attention lorsqu'on interagit avec eux. C'est tout à fait analogue à ce qui se passe avec les systèmes physiques, où l'on fait varier le niveau d'analyse selon ce que l'on veut étudier ou faire.

    Il m'arrive donc, dans mes moments les plus analytiques, de considérer les individus comme des machines, mais c'est quelque chose que j'évite dans la vie courante.

  30. Publicité
  31. #25
    halman

    Re : neurosciences

    A quoi sert le cerveau ?
    (Rodolpho Llinas)

    On peut se poser la question : " A quoi sert le cerveau ? ".
    Nous savons tous que, sans cerveau, l'individu est mort. Le cerveau est donc l'élément essentiel de notre être. Nous sommes nos cerveaux. Mais quelle est l'histoire naturelle du cerveau ?
    Comment devient-on ce que l'on est ? La biologie nous apprend que les seuls organismes vivants qui ont un cerveau sont ceux qui ont une activité motrice. Le ver de terre le plus ordinaire, et même l'invertébré le plus primitif dans l'océan, ont un système nerveux. En revanche, les plantes n'ont pas de système nerveux. Les plantes n'ont pas d'activités motrices. Mais pourquoi faut-il un cerveau pour se déplacer ? Parce que nous devons bouger au sein d'une représentation du monde extérieur. On ne peut pas se déplacer en aveugle, ce serait trop dangereux ! Il faut avoir une idée de ce qui se trouve à l'extérieur. Donc on peut dire que le cerveau s'est développé pour permettre à l'animal de se déplacer.




    Comment les sensations sont-elles intégrées ?
    (Rodolpho Llinas)

    La structure du cerveau des vertébrés est la même pour tous. Nous avons tous une moelle épinière et nous avons tous des nerfs pour activer les muscles et d'autres pour transporter des sensations. Les vertébrés supérieurs ont, en plus du toucher, les sens de la vue, de l'ouïe, du goût et de l'odorat. Ces systèmes sont tous très similaires aux nôtres.
    Maintenant, quel est l'un des problèmes centraux concernant le fonctionnement du cerveau ? Le problème central est de savoir comment nous prenons ces morceaux de réalité, la couleur des choses, leur forme, la sensation qu'elles procurent, les sons qu'elles émettent, pour former une image unique à partir de tous ces éléments ?
    Imaginez : tout se passe comme si vous mastiquiez la réalité et la divisiez en ses composants. Certaines parties du système analysent la couleur, d'autres analysent le mouvement, d'autres analysent le poids ou la sensation de l'activité tactile. Comment intégrons-nous toutes ces sensations en une seule image de la réalité ? Comment en produisons-nous un seul événement cognitif ?

    Donc quel est le problème ? Lorsque vous observez le cerveau, vous vous apercevez que les différents systèmes sensoriels sont situés dans différentes aires. Puis-je avoir un cerveau, s'il vous plaît ? Voici un cerveau en caoutchouc. Il a à peu près la taille d'un cerveau humain. Voici donc ce que nous avons à l'intérieur de la tête. En l'ouvrant, on observe les différentes régions. Cette région, derrière, est dédiée à la vision, c'est là qu'arrivent les stimuli visuels. Si vous regardez cet œil-ci, il se connecte à l'arrière de l'autre hémisphère.
    L'audition, elle, est traitée dans cette région-ci du cerveau.
    Donc quel est le problème ? Le problème vient de la grande distance qui sépare ces deux régions. Cette distance est énorme, comparée aux dimensions d'un neurone. Comment donc ces neurones trouvent-ils ces autres neurones pour construire, à partir de la vision et de l'audition, un événement unique ? Si j'ai quelque chose dans la main, par exemple un oiseau, je le vois, je l'entends chanter, je sens le poids de ses deux petites pattes dans ma main ; comment ai-je fait pour transformer toute cette activité en un événement unique ? Voilà notre problème.



    Le dialogue entre le thalamus et le cortex
    (Rodolpho Llinas)

    Le nerf de l'œil se dirige d'abord vers un noyau appelé thalamus, puis, à partir du thalamus, les fibres optiques vont vers le cortex visuel. De même, pour l'oreille, le signal auditif passe d'abord par le thalamus avant de rejoindre le cortex auditif. Le cortex auditif est ici, et le cortex visuel est là. Le problème est le suivant : comment ces neurones-ci trouvent-ils ces neurones-là pour me signaler que j'ai un oiseau dans la main ? L'image est ici, et le son est là. Comment le son et l'image se rencontrent-ils ? Il n'y a que deux possibilités. La première est que le son traverse le cortex pour retrouver l'image, ou inversement, mais cela paraît très difficile, parce qu'entre deux aires du cortex il y a des connexions qui partent dans tous les sens. Alors quelle est l'autre possibilité ?
    Prenons un point de vue différent. Voici le cortex, et voici le thalamus. Le thalamus est au centre et nous pouvons dessiner le cortex comme un grand cercle autour de lui. Les projections du thalamus vers le cortex sont alors comme les rayons d'une roue de bicyclette. Bien, quel est le problème ? L'image de l'oiseau est ici, et le son de l'oiseau est là. Soit vous allez directement de l'image vers l'oiseau, ou vice-versa, pour qu'ils se rencontrent, peut-être quelque part sur le cortex. C'était notre première possibilité. Soit, étant donné que le thalamus est au centre, comme au centre d'une roue, le son va ici, l'image va là, puis le cortex renvoie ces signaux vers le thalamus. C'est alors que les sensations sont liées, non pas au niveau du cortex, ni au niveau du thalamus, mais dans ce dialogue entre le thalamus et le cortex. Du thalamus au cortex, avec retour au thalamus, retour au cortex, retour au thalamus, et ainsi de suite.




    L'intégration est temporelle
    (Rodolpho Llinas)

    Ce qui est intéressant, c'est que la distance entre le thalamus et le cortex visuel, entre le thalamus et le cortex auditif, entre le thalamus et le cortex somato-sensoriel (la sensation tactile de l'oiseau dans ma main), est la même dans les trois cas. Il est donc possible qu'un même événement active ces trois régions corticales en même temps. Cela permet aussi d'imaginer un processus de liaison de sensations qui est temporel plutôt que spatial, puisque des informations situées dans différentes aires sensorielles du cortex peuvent parvenir simultanément au thalamus. Si je sens, entends et vois l'oiseau simultanément, alors je le perçois comme un seul objet.




    La conscience à 40 Hz
    (Rodolpho Llinas)

    Il est donc important de savoir ce qui rend possible cette simultanéité du retour des sensations vers le thalamus. Comment l'activité des neurones peut-elle être plus ou moins synchronisée ? Si vous considérez le thalamus et un morceau de cortex et que vous vous posez la question "Qu'est-ce qu'il y a là-dedans ?", vous trouvez des neurones. A quoi ressemble un neurone ? Il a un corps cellulaire, un axone, et des dendrites. Si, à l'aide d'une électrode, on mesure l'activité électrique des neurones du thalamus, on observe qu'ils déclenchent régulièrement une impulsion à une fréquence qui est reliée à votre état de conscience. Par exemple, quand ces neurones se déclenchent à 2 Hz, c'est-à-dire à deux battements par seconde, vous êtes endormi, vous n'êtes pas conscient.
    Lorsque vous devenez conscient, la fréquence de déclenchement des neurones du thalamus augmente alors jusqu'à 40 Hz. C'est-à-dire que ces neurones déchargent en même temps au rythme de 40 battements par seconde. Ils sont sur la même fréquence. Que se passe-t-il alors ? Ce neurone est connecté à cette aire-ci du cortex, et, au rythme de 40 Hz, y active certains neurones. Cet autre neurone est connecté à cette aire-là du cortex, et y active des neurones également au rythme de 40 Hz. De ce fait, ces deux aires deviennent corrélées dans le temps, c'est-à-dire que leurs neurones déchargent simultanément au même rythme de 40 Hz.

    Dans ces conditions, lier les différentes sensations consiste à repérer quels sont les neurones des aires corticales qui déchargent en même temps. Il est donc très facile pour notre cerveau de reconnaître les aires corticales qui sont synchrones, et c'est cette synchronisation temporelle qui produit la perception. C'est comme ce qui se passe lorsqu'on joue deux notes très éloignées l'une de l'autre au piano. Si on les joue ensemble, on réussit à les mixer même si leurs touches sur le clavier et les cordes qui leur correspondent dans le piano sont éloignées.
    C'est la synchronicité dans le temps qui produit la cohérence.

  32. #26
    halman

    Re : neurosciences

    Le dialogue entre le contenu et le contexte
    (Rodolpho Llinas)

    Examinons précisément le fonctionnement du système thalamo-cortical. Voici le thalamus et voilà le cortex. Le thalamus est composé de deux parties. C'est intéressant et cela rend les choses plus faciles à comprendre. Si vous regardez le thalamus de côté, vous voyez qu'il y a une partie centrale, dite "non-spécifique", et une région périphérique, dite "spécifique".
    Le système non-spécifique reçoit les stimuli en provenance du tronc cérébral, qui contrôle le sommeil, les fonctions corporelles en général, nos motivations et probablement aussi notre capacité d'attention. Le système non-spécifique est donc un système tourné vers l'intérieur de nous. Il est à l'écoute du corps.

    Le système spécifique, lui, est tourné vers le monde extérieur. Il reçoit les signaux brutes de l'œil, de l'oreille, de la main, et des autres périphériques sensoriels.
    Comment fonctionne alors précisément le circuit thalamo-cortical ? Il y a le thalamus et il y a le cortex. Chaque neurone du thalamus spécifique se connecte à un neurone cortical et s'y décharge à 40 Hz.
    Il se trouve que les potentiels d'action synaptiques ainsi transmis à cette dendrite ne sont pas suffisants pour faire décharger le neurone cortical. Pour cela, il faudrait qu'un autre stimulus s'y ajoute.
    Or, il se trouve que, dans la région du thalamus non spécifique, il y a également un neurone qui se connecte à la même dendrite du neurone cortical, et qui décharge également à 40 Hz.

    De plus, lorsque les signaux des neurones spécifiques et non spécifiques s'additionnent, le neurone cortical devient capable de décharger.

    Autrement dit, c'est la combinaison des activations du neurone du thalamus spécifique et de celui du thalamus non-spécifique qui permet au neurone du cortex de renvoyer un signal vers le thalamus.

    Donc le mouvement de va-et-vient entre le thalamus et le cortex est causé par la combinaison des activités spécifiques et non spécifiques.

    Si vous abîmez le thalamus spécifique de la vision, vous obtenez un patient aveugle, mais il ne sera pas sourd, car il n'y a qu'une partie du cerveau qui est endommagée, celle qui va du thalamus au cortex visuel. De même, si vous lésez la région qui va du thalamus au cortex auditif, alors vous n'entendrez plus mais vous continuerez à voir. Il y a donc une séparation des sensations. La sensation visuelle correspond à cette partie du thalamus et à cette partie du cortex, la sensation auditive correspond à une autre partie du thalamus et à une autre partie du cortex.

    Par contre, si vous abîmez le système non-spécifique, vous perdrez à la fois la vue, l'audition et le sens du toucher. Le système non-spécifique est donc indispensable au bon fonctionnement du système spécifique.
    Deux points, donc, pour finir : le système spécifique représente le contenu du monde, les couleurs, les formes, les mouvements, les sons. Le système non-spécifique, lui, représente ce que nous sommes, il est ce que nous faisons du contenu, il est le contexte. L'un observe le monde, l'autre nous observe nous. Ce dialogue entre le contenu et le contexte, c'est justement la conscience.




    Un quantum de conscience
    (Rodolpho Llinas)

    Comment ce système est-il capable de lier les différentes sensations d'un oiseau ? Nous avons l'image de l'oiseau ici, la patte de l'oiseau sur la main, et son chant dans encore une autre partie du cortex. Donc, cette patte est stimulée à 40 hertz, ce son est stimulé à 40 hertz, cette image est stimulée à 40 hertz, mais nous ne voyons pas encore l'oiseau. Que faut-il de plus ? Il y a une stimulation spécifique ici, une autre là, et encore une autre là. Il faut y ajouter la stimulation non-spécifique, qui va effectuer un mouvement de balayage du cortex.
    Si celui-ci et celui-là déchargent ensemble, alors la patte est activée. Si celui-ci et celui-là déchargent ensemble, le son est activé. Si celui-ci et celui-là déchargent ensemble, alors l'image est activée. Ces trois-là ensemble, la partie tactile, la partie auditive et la partie visuelle, se combinent pour signifier "oiseau".
    Comment le balayage fonctionne-t-il ? Vous voyez ici le cerveau et ici le noyau non-spécifique. Le noyau non-spécifique ressemble à un beignet. Ses axones, au lieu d'aller vers des endroit spécifiques du cortex, rayonnent dans toutes les directions. Ses neurones, eux, sont organisés de telle façon que ce neurone active celui-là, qui lui-même active cet autre, et ainsi de suite. Il y a un circuit : 1er, 2ème, 3ème, 4ème, 5ème, 6ème, 7ème, 8ème, 9ème, le tout en 12,5 millisecondes, avant de recommencer. Le balayage se renouvelle régulièrement, et à chaque fois, tout ce qui est en train d'osciller à 40 Hz dans le cortex se retrouve lié. Chaque balayage est un quantum de cognition.





    Le cerveau fait son cinéma
    (Rodolpho Llinas)

    Nous en arrivons à la dernière partie de la théorie, qui consiste, étant donné que nous avons cette anatomie, à la rendre vivante. Comment pouvons-nous l'animer ? L'information entre, sur un mode continu, disons à partir de la rétine, et elle est divisée en paquets. Ces paquets sont des quanta de cognition. Nous le savons bien, parce que, lorsque nous allons au cinéma et que nous voyons un personnage galoper à cheval ou tirer au pistolet, nous ne voyons pas cela comme un ensemble d'images mais bien comme un événement continu. Cela signifie que le cerveau ne peut pas faire la différence entre une séquence d'images et un processus continu.

    L'idée est donc que vous faites un balayage, vous obtenez une image, vous faites un autre balayage, vous obtenez une autre image, vous faites encore un balayage, vous obtenez une troisième image. La conscience - la cognition - est ainsi un ensemble d'images qui se succèdent les unes aux autres, comme dans un film.
    Et comment chaque image est-elle constituée ? Les systèmes spécifiques et non-spécifiques font dialoguer toutes les parties du cerveau : du thalamus au cortex, retour au thalamus, retour au cortex, retour au thalamus, retour au cortex, retour au thalamus, un balayage complet toutes les 12,5 millisecondes.




    Le cerveau est un émulateur de la réalité
    (Rodolpho Llinas)

    Combien y a-t-il de neurones à l'intérieur du cerveau ? 10 000 000 000, ce qui est un nombre gigantesque. Et pourtant, ce système produit un unique événement fonctionnel : la conscience.
    Combien de neurones sont dédiés à la vision, à l'audition ou à la sensation tactile ? Très peu, car la plupart des neurones dans le cerveau sont connectés entre eux. Cette observation et d'autres nous amènent à considérer le cerveau comme un système fondamentalement fermé.
    Comme vous le savez, les couleurs n'existent pas indépendamment de nous. Elles sont des interprétations de notre cerveau faites à partir des informations provenant de la rétine. De même, les sons n'existent pas sans nous : ils sont des interprétations des vibrations de l'air. De même, la sensation tactile est produite par la déformation de notre peau. Tout cela veut dire que notre cerveau est un émulateur de réalité. Il a évolué au cours du temps pour en quelque sorte "imiter" ce qui est à l'extérieur, pour en fabriquer une histoire. Mais les éléments de cette histoire préexistent à notre naissance, car personne ne nous a appris à voir les couleurs, ni à ressentir de la douleur ou d'autres sensations. Ces facultés naissent avec nous, tout comme notre nez, nos oreilles et notre corps apparaissent en même temps que nous. Nous sommes une conscience équipée d'un système de sensations. Notre cerveau est donc un émulateur de réalité qui génère une réalité et qui la vérifie grâce aux sensations.

  33. #27
    halman

    Re : neurosciences

    L'éveil est un rêve gouverné par les sens
    (Rodolpho Llinas)

    Quel est le meilleur argument en faveur de cette hypothèse du cerveau comme système fermé ? Je pense que c'est le rêve. Mes rêves sont en couleur et très détaillés. Imaginons qu'au cours d'un de mes rêves je reconnaisse mon ami Francis Crick en train de parler avec l'accent anglais et qu'il soit très caustique. Comment tout cela peut-il se produire à l'intérieur de mon cerveau sans qu'aucune information sensorielle ne lui parvienne ? Comment puis-je le voir ? Comment puis-je l'entendre ? La seule explication possible, c'est que mon cerveau est un système fermé dont l'activité produit une image en l'absence d'information extérieure.

    Il en résulte un corollaire assez surprenant, qui est que le cerveau sert en fait à rêver, et qu'il peut le faire de deux façons. Quand vous dormez, que vos yeux sont fermés, le contenu de votre activité cognitive dépend de ce qu'il y a dans votre mémoire et de ce que le système peut inventer, tandis que, pendant l'éveil, vous faites un rêve dont le contenu est gouverné par les sens.

    Autrement dit, nous devons redéfinir ce qu'est le rêve : le rêve est le mécanisme qui produit les images dans lesquelles nous nous déplaçons lorsque nous sommes en interaction avec notre environnement. C'est l'émulateur d'une réalité qui peut être produite à partir de ce qui provient autant de l'intérieur que de l'extérieur de votre cerveau.




    Qu'est ce que l'attention ?
    (Michael Posner)

    Le problème de l'attention, c'est de sélectionner certains objets présents dans notre environnement physique, ou certaines idées que nous avons à l'esprit (qui sont donc déjà stockées dans notre mémoire) en vue d'un traitement conscient à un moment donné.




    L'attention auditive
    (Michael Posner)

    Quand beaucoup de personnes sont réunies dans une pièce, et qu'elles parlent toutes en même temps, il devient nécessaire de choisir une des conversations pour pouvoir la suivre en détail.
    Cette sélection peut se faire en s'orientant visuellement vers une personne, ou alors en repérant sa fréquence vocale -- par exemple, il est plus facile de séparer une voix masculine d'une voix féminine que de séparer deux voix masculines -- ou encore en suivant le contenu de l'information, sa logique propre. Dans tous les cas, la sélection d'une des conversations met toutes les autres en arrière plan ; elles ont bien lieu mais n'atteignent plus votre conscience.

    Nous pensons que l'information à laquelle vous ne prêtez pas attention est tout de même traitée par des voies complexes, y compris de façon sémantique. L'information qui arrive sur l'oreille inattentive, l'information mentionnée dans une conversation que vous ne suivez pas, peut devenir tout d'un coup intéressante parce qu'associée à votre nom ou parce qu'en relation avec la conversation que vous étiez en train de suivre, et vous amener à prêter attention à cette nouvelle conversation. Ceci a été prouvé expérimentalement d'une façon très détaillée.



    Quand l'attention devient furtive
    (Michael Posner)

    D'habitude, nous fixons du regard les choses qui nous intéressent. Notre attention se porte donc en général sur l'endroit fixé par le centre de l'œil. Il est cependant facile de dissocier attention et regard en incitant un individu à prêter attention à un endroit autre que celui fixé par le centre de son œil.

    Dans ce cas, l'individu devient très sensible, c'est à dire qu'il réagit très rapidement à la moindre information qui arrive à l'endroit indiqué. Par contre, il est relativement insensible à l'information qui parvient au centre de l'œil.
    Dans la vie quotidienne, ces changements d'attention furtifs servent à choisir la zone du champ visuel vers laquelle on veut déplacer son regard. Et c'est pourquoi, dans la vie quotidienne, ces changements d'attention furtifs sont en général suivis d'un mouvement des yeux.




    Le zoom de l'attention visuelle
    (Michael Posner)

    L'attention visuelle, c'est déplacer son attention sur différents secteurs du champ visuel ; c'est aussi modifier le niveau de détail avec lequel on regarde un secteur donné.
    Par exemple, je peux vous regarder et porter attention à l'ensemble de votre visage, ou je peux zoomer sur votre nez, ou ne faire attention qu'à vos yeux. Si je me concentre ainsi sur eux, j'obtiendrai beaucoup d'informations sur leur couleur ou sur la taille de vos pupilles, mais je "louperai" votre sourire (qui vous va si bien). On peut donc tout autant déplacer son attention, que changer son niveau de focalisation (un phénomène que l'on appelle le "zoom").

    Si vous contemplez une grande image composée de plein d'éléments, vous pouvez soit l'étudier dans son ensemble, soit examiner ses différents détails, et passer d'une perspective à l'autre. Il y a des patients qui éprouvent des difficultés à examiner les détails, il s'agit de patients qui ont des lésions du lobe temporo-pariétal gauche, tandis que d'autres sont capables de très bien voir les détails mais n'ont pas de vue d'ensemble. Ces patients présentent une lésion du lobe temporo-pariétal droit. Le lobe pariétal est plutôt responsable du passage du local au global, alors que le lobe temporal semble davantage être lié au fait même d'être capable d'examiner un élément local ou global du stimulus.



    Les images rétinotopiques
    (Stephen Kosslyn)

    J'étudie, depuis longtemps, comment se forment les images mentales dans le cerveau. Un des grands débats dans ce domaine porta sur la nature des processus mentaux qui ont lieu dans le cerveau lorsqu'on se représente une image mentale.
    Par exemple, si vous demandez à des gens combien de fenêtres ils ont dans leur salon, ils vous diront qu'ils se représentent cette pièce visuellement et la "parcourent" pour en compter le nombre de fenêtres. Ce type d'introspection m'a suggéré que le processus de représentation des images mentales avait un caractère "spatial".

    C'est donc avec beaucoup d'intérêt que je suis tombé, au début des années 80, sur les travaux de Roger Tootell et ses collègues qui ont confirmé de façon graphique quelque chose qui était connu depuis 1919 au moins, à savoir qu'il existe, à l'arrière du cerveau, certaines zones, au moins une quinzaine, qui sont organisées de façon "rétinotopique."

  34. #28
    halman

    Re : neurosciences

    L'œil interne
    (Stephen Kosslyn)

    Chez le singe, l'aire visuelle primaire est disposée à l'extérieur, sur la surface latérale. Elle est toute étendue de sorte qu'on peut bien voir l'image formée. Chez les humains, elle est située au centre et elle est bizarrement pliée sur elle-même. Un objet situé juste au centre de la fovéa activera le centre de cette représentation qui se trouve être à l'arrière du cerveau, étant donnée la façon dont elle pliée. Si l'objet s'agrandit, l'activation correspondante se déplacera vers l'avant.

    Il y a une région du cerveau que l'on appelle la scissure calcarine. En l'ouvrant, on peut bien voir ce qui se passe : la zone la plus à l'arrière est celle où la fovéa se projette, et plus on va vers la périphérie des yeux, plus l'activation correspondante se déplace vers l'avant. C'est de cette façon que la rétinotopie fonctionne chez les humains.
    Nous avons fait une expérience où nous avons demandé à des gens de regarder attentivement des images, comme par exemple une ancre légèrement penchée, sans qu'ils sachent qu'ultérieurement on leur poserait des questions dessus. Une fois qu'ils les avaient bien regardées, nous leur demandions de les visualiser mentalement en répondant à des questions comme : "La partie droite de l'ancre était-elle plus élevée que la gauche ?" ce qui exigeait d'eux qu'ils revisualisent spécifiquement l'image qu'ils avaient vue (car une ancre, en général, n'est pas penchée).

    De plus, avant chaque passage dans le scanner PET, nous leur montrions une boîte de taille soit petite, soit moyenne, soit grande, et nous leur demandions de visualiser chaque objet à cette taille pendant l'enregistrement de leur activité cérébrale. Nous pouvions ainsi influencer la taille à laquelle les gens visualisaient les images pendant qu'ils répondaient aux questions au cours des enregistrements.

    Nous avons trouvé que, lorsque les gens visualisent quelque chose en très petit, c'est bien l'arrière du cerveau qui est activé, comme dans la vision détaillée. Lorsqu'ils visualisent (les yeux fermés) à taille moyenne, la région du cerveau activée se déplace vers l'avant, et lorsqu'ils visualisent à grande taille, elle se déplace encore plus vers l'avant. Cette expérience prouve que l'imagination mentale utilise non seulement les zones du cerveau spécialisées dans la vision, y compris l'aire visuelle primaire (ce qui nous avait déjà surpris), mais aussi qu'elle affecte le traitement de l'information dans cette région d'une façon systématique.




    Similarités entre imagination et vision
    (Stephen Kosslyn)

    Imaginer un objet est donc une expérience similaire à celle de le voir réellement. Pourquoi ? Parce que les deux expériences émergent probablement des mêmes processus d'activation cérébrale.

    Ce n'est pas la seule raison. Lorsqu'une image est activée dans le cerveau, vous pouvez en reconnaître certaines parties, par exemple la forme d'une oreille, ou vous pouvez porter des jugements spatiaux : les yeux d'un cheval sont-ils au dessus de la base de ses oreilles ?

    Dès lors qu'une forme est activée à l'arrière du cerveau, les mécanismes à l'œuvre dans la perception peuvent également être exploités pour le compte de l'imagination visuelle. Les images mentales peuvent ainsi avoir une étendue spatiale ; elles vont avoir une taille qui peut même être trop petite ; on peut en brouiller des parties ; elles peuvent avoir couleur et texture. Une image mentale ressemble donc à une image réelle.




    Différences entre imagination et vision
    (Stephen Kosslyn)

    Il nous arrive rarement d'être halluciné et de confondre une image mentale avec un objet de la réalité. Comment peut-on l'expliquer ? En fait, plusieurs choses différencient les images mentales des perceptions.
    En premier lieu, les images mentales ont une brève durée de vie. Pour le comprendre, pensons à ce qui se passe à l'arrière du cerveau pendant la perception. Par exemple, lorsque vous déplacez votre regard, vos impressions ne laissent pas de "traces". Il est en effet vraisemblable que les neurones qui sont activés ne le restent pas très longtemps après le déplacement. Or, ce mécanisme si utile pour la perception est également à l'œuvre lors de l'imagination visuelle, ce qui explique que les images mentales sont souvent évanescentes.
    Elles surgissent comme des éclairs puis s'atténuent rapidement.
    Au cours de la perception, le monde extérieur constitue une sorte de mémoire : il est facile de regarder à nouveau ce que vous avez déjà vu. Le système visuel est donc dirigé par l'extérieur. Avec les images mentales, c'est la mémoire qui pilote le système, ce qui exige un effort et implique que les images s'évanouissent rapidement. Donc, première grosse différence : les images mentales s'évanouissent tandis que celles du monde extérieur sont reconstituées à chaque "capture".
    Une autre différence est que simplement souhaiter qu'une chose extérieure cesse d'être visible ne la fait pas disparaître pour autant, alors que c'est possible avec les images mentales. En fait, vous pouvez même transformer les choses, comme par exemple dans l'expérience suivante. Imaginez la lettre majuscule N. Si vous la faites tourner de 90¡ dans le sens des aiguilles d'une montre, vous obtiendrez une autre lettre. Vous pouvez également bouger les choses d'une façon qui serait impossible dans la réalité.

    Troisième différence : les images mentales sont moins vivaces et moins contrastées : les bords sont plus atténués. C'est un effet qui varie beaucoup selon les individus. Certaines personnes voient des images très atténuées, d'autres ne voient rien du tout. Même les personnes qui ont une excellente imagination visuelle rapportent que les bords de leurs images ne sont pas aussi nets et vivaces que dans la réalité. (Certains individus qui prennent des drogues déclarent que certaines d'entre elles renforcent les contrastes. En fait, je ne parle ici que de l'imagination visuelle "normale").

    Toutes ces différences nous permettent de distinguer une image mentale d'une perception, même si ce n'est pas toujours facile (les deux exploitant les mêmes mécanismes).




    L'intérêt des images mentales
    (Stephen Kosslyn)

    Lorsque vous avez en mémoire une propriété spatiale ou visuelle (une propriété spatiale comme un triangle, mais pas seulement : ça peut être aussi une couleur) qui est "stockée" de façon non explicite (c'est à dire que vous l'avez en mémoire, mais vous ne le savez pas, vous n'y pensez pas consciemment), la forme d'activation visuelle correspondante doit être reconstruite.
    C'est tout à fait similaire à ce qui se produit avec une cassette vidéo, où les informations ne sont pas stockées de façon spatiale mais de façon magnétique, et où vous devez visualiser les images sur un écran pour les retrouver.
    Nous savons en effet que les régions du cerveau qui stockent les mémoires visuelles projettent vers l'arrière, vers ces régions qui sont organisées de façon rétinotopique, tandis que les mémoires visuelles sont stockées par là, dans des représentations organisées "en colonnes", de façon non spatiale. Si je vous pose une question sur une image nouvelle, vous allez la projeter vers l'arrière, en reconstruire la forme d'activation spatiale, et vous pourrez alors la visualiser telle qu'elle est.

    Prenons un exemple. Quelle forme ont les oreilles d'un chat ? Quelle forme ont-elles ? Encore une fois : Quelle forme ont les oreilles d'un chat ? Quelle forme ont les oreilles d'un chat ? Votre première réponse a été lente et vous avez bougé les yeux sur le côté. Il est vraisemblable que vous avez dû visualiser la tête d'un chat, car vous n'aviez jamais pensé à la forme de ses oreilles auparavant. Vous avez donc mentalement dessiné ses oreilles. Mais lorsque je vous ai posé la question pour la troisième fois, la réponse était connue de vous explicitement ; vous saviez que c'était "triangulaire". Vous n'avez plus eu besoin de former une image, vous n'avez plus bougé les yeux, et vous avez répondu très rapidement.

    En fait, les enfants ont beaucoup plus recours aux images mentales que les adultes ; c'est pourquoi ils sont plus lents dans leurs réponses que les adultes. Lorsqu'ils grandissent, ils se servent moins des images et deviennent plus rapides. Donc la visualisation d'image est assez lente, mais elle est riche car elle intègre des informations que vous n'avez pas conscience de connaître.

  35. #29
    halman

    Re : neurosciences

    Les grandes lignes du cerveau
    (Eric Kandel)

    Notre cerveau se caractérise par le fait qu'il est bilatéral et symétrique et qu'il est divisé en un certain nombre de régions-clés qui ont des fonctions distinctes. Le plus simple est de faire un dessin...

    Il y a d'abord la moelle épinière, symétrique elle aussi. Elle est composée de nerfs qui transportent l'information vers le cerveau et hors du cerveau à travers les cellules nerveuses, les unités de base du cerveau que je décrirai plus tard. La moelle épinière est reliée à une structure supérieure appelée le tronc cérébral.

    Le tronc cérébral transporte l'information depuis la moelle épinière jusqu'aux régions supérieures du cerveau, et en particulier dans une zone appelée le thalamus.
    Le thalamus est le principal relais entre la moelle épinière et les hémisphères cérébraux, les structures bilatérales qui sont assises sur la moelle épinière.
    Egalement située sur le tronc cérébral, vous trouvez cette structure impliquée dans la coordination motrice, que l'on appelle le cervelet.

    Ces quelques structures contiennent toute la neuro-machinerie nécessaire à l'action. Vous pouvez les voir encore si je dessine une vue latérale en plus d'une vue de face. Vous voyez ici les hémisphères cérébraux, qui sont maintenant plus larges, ici le thalamus qui nous conduit vers le tronc cérébral puis à la moelle épinière. Et ici le cervelet.




    La phrénologie
    (Eric Kandel)

    Il a fallu beaucoup de temps pour s'apercevoir que les facultés mentales étaient localisées dans des régions spécifiques du cerveau. La première personne sérieuse à comprendre cela a été le savant viennois Franz Joseph Gall. Il a été le premier, au début du XIXème siècle, vers 1800, à décrire les subdivisions du cerveau en se fondant sur une approche expérimentale appelée la phrénologie.

    Gall était frappé par le fait que certaines caractéristiques intellectuelles étaient en relation avec certaines proéminences crâniennes. Par exemple, certains de ses amis les plus intelligents avaient des bosses frontales, et il a imaginé que la partie du cerveau responsable de l'intelligence se situait donc dans la région frontale. Selon sa théorie, la forte activité intellectuelle de ses amis avait fait croître cette région du cerveau, ce qui avait repoussé le crâne et avait provoqué l'apparition d'une bosse dans la région frontale.




    L'approche matérialiste
    (Eric Kandel)

    Gall a apporté à la neuroscience deux contributions fantastiques, qui dominent encore la recherche actuelle. Il a été le premier à affirmer ce que nous croyons aujourd'hui fermement, que tous les processus mentaux sont localisés dans l'une ou l'autre région du cerveau et qu'il n'y a pas quelque chose comme l'âme ou comme l'esprit à l'origine de l'activité mentale, mais que toute activité mentale a une base biologique.
    Il a été le premier à proposer une vision purement matérialiste des facultés mentales.
    Ensuite, il a introduit l'idée de localisation des fonctions cérébrales. Il a proposé de localiser ces fonctions d'une façon très précise, affirmant que des régions spécifiques contrôlaient des fonctions aussi élaborées que le goût du secret, l'amour romantique, l'altruisme, la générosité, chacune d'elles étant associée à une partie différente du cerveau. Il a établi une cartographie du cerveau dans laquelle des facultés mentales comme l'instinct de possession, le sens de l'économie ou l'instinct d'acquisition se trouvaient rassemblées dans une même région. Des caractéristiques supérieures comme l'idéalité, l'exubérance, le raffinement, la perfection, étaient également associées à des régions spécifiques du cerveau.




    Nous parlons avec le cerveau gauche
    (Eric Kandel)

    On en est resté là jusqu'aux environs de 1860, lorsqu'un grand neurologue français, Pierre Paul Broca, a rouvert la question de la localisation dans le contexte de la neurologie du langage.
    Il s'est passé l'événement suivant : Broca a eu à s'occuper d'un patient qui avait un défaut de langage inhabituel, que l'on appelle une aphasie. Ce sont des maladies neurologiques qui concernent l'articulation ou l'expression du langage et qui sont généralement la conséquence d'accidents vasculaires. Il a donc rencontré un patient qui comprenait parfaitement le langage mais qui ne pouvait pas l'articuler, c'est-à-dire qu'il n'arrivait pas à employer le langage pour s'exprimer. Ce patient était fascinant parce qu'il ne souffrait pas simplement d'un trouble moteur du langage : il pouvait siffler et même chanter des morceaux de chansons, mais il ne pouvait pas parler. Ce n'était pas seulement une question d'élocution, car il ne pouvait pas écrire non plus. Il avait complètement perdu la capacité de s'exprimer avec le langage, bien qu'il le comprît parfaitement.

    Lorsqu'il mourut, Broca fit une découverte intéressante à l'autopsie : ce patient avait une lésion située dans le lobe frontal. Par la suite, il découvrit sept autres patients qui présentaient le même syndrome, c'est-à-dire qui ne pouvaient pas employer le langage pour s'exprimer tout en le comprenant parfaitement. A leur décès, l'autopsie montra qu'ils présentaient tous une lésion identique, et que, dans chaque cas, la lésion était du côté gauche du cerveau. Cette découverte est à l'origine de l'un des principes majeurs de la neuroscience, qui est que nous parlons avec notre hémisphère gauche. Notre capacité à nous exprimer par le langage est très exactement localisée dans l'hémisphère gauche du cerveau. Broca a modestement nommé cette zone "l'aire de Broca", et nous l'appelons encore ainsi aujourd'hui.




    La représentation du corps
    (Eric Kandel)

    Cela encouragea certaines personnes à reconsidérer l'idée de la localisation dans le cortex, et peu après cette découverte plusieurs personnes se mirent à stimuler électriquement la surface du cortex. Ils découvrirent qu'en stimulant telle ou telle zone du cortex, ils pouvaient animer telle ou telle partie du corps. Ils mirent à jour une carte systématique du corps : la surface du corps projette un homoncule à la surface du cerveau, et si l'on stimule l'aire médiane, on anime la main, puis l'épaule, puis la jambe, etc. On retrouve ainsi une représentation complète du corps, y compris la bouche (sur le côté). Cela révéla l'existence d'une représentation physique de tous les muscles du corps à la surface du cerveau. C'est le fruit du travail de Fritsch et Hitzig vers 1870.



    Les modules du langage
    (Eric Kandel)

    Quelques années plus tard, un neurologue allemand, Carl Wernicke, fit une seconde découverte. Il rencontra un patient qui présentait une lésion de l'aire pariéto-temporale, juste à l'endroit où le lobe pariétal rencontre le lobe temporal. Ce patient avait une difficulté de langage différente des patients qui présentaient une lésion de l'aire de Broca. Les malades de Broca pouvaient comprendre mais ne pouvaient pas parler, alors que ce malade pouvait parler mais ne comprenait rien ; de ce fait, ce qu'il disait n'avait aucun sens.

    A l'autopsie, Wernicke fit deux découvertes intéressantes : d'abord que la lésion était également dans l'hémisphère gauche et ensuite qu'elle était située dans le lobe pariéto-temporal, comme je l'ai indiqué. Il nomma cette zone "l'aire de Wernicke".
    Ce qui est remarquable à propos de Wernicke, c'est que non seulement il a fait cette découverte, mais en plus il l'a combinée avec celle de Broca pour développer une théorie du langage. En voici l'énoncé : ici il y a le cortex occipital, c'est-à-dire l'endroit où l'information visuelle arrive au cerveau, et l'aire temporale est la région où l'information auditive arrive. Lorsque vous entendez quelqu'un parler, lorsque vous lisez quelque chose, l'information arrive dans des systèmes sensoriels spécifiques, puis elle est conduite vers l'aire de Wernicke où elle est traduite dans une espèce de code neural du langage. Ce code est ensuite acheminé dans l'aire de Broca par une liaison que l'on appelle l'arcuate fasciculus. Puis, dans l'aire de Broca, il est traduit en langage qui peut alors être articulé et parlé.

    Wernicke a vraiment repris l'idée de la localisation mais il l'a élaborée d'une façon très intéressante et sophistiquée, en disant qu'une fonction complexe comme le langage n'est pas contrôlée par une seule région, mais par la combinaison de plusieurs régions. Nous voyons ici mise en œuvre pour la première fois l'idée du traitement distribué et parallèle, une idée qui domine aujourd'hui la recherche moderne sur la pensée.

  36. #30
    halman

    Re : neurosciences

    Le langage émotionnel
    (Eric Kandel)

    Maintenant, on pourrait se demander ce qui arrive à l'hémisphère droit. Quel est le rôle de l'hémisphère droit si le gauche est ainsi impliqué dans le langage ? Deux découvertes intéressantes ont été faites à ce propos dans les années suivantes. La première est qu'il existe des aires homologues dans l'autre hémisphère, et la seconde est que ces aires sont spécialisées dans l'expression émotionnelle du langage.
    Quand quelqu'un vous dit " Bonjour ! Quelle belle journée ! ", vous l'entendez autrement que si l'on vous dit " Bonjour... quelle belle journée... ". Le cerveau est capable de percevoir les intonations émotionnelles, et les aires qui sont responsables de cette perception sont situées du côté droit, dans une zone équivalente à l'aire de Wernicke. Elles sont impliquées dans le traitement de ce qu'on appelle la mélodie du langage, cet aspect du langage que nous utilisons pour communiquer nos sentiments. C'est l'aspect émotionnel du langage.




    Le grand défi
    (Eric Kandel)

    Ainsi, il y a dans le cerveau beaucoup de systèmes qui interagissent les uns avec les autres pour finalement produire l'esprit. On doit considérer cela comme le défi majeur de la biologie. C'est le dernier grand mystère : nous avons une bonne connaissance du développement, nous avons une bonne connaissance du fonctionnement des cellules et des systèmes de cellules, mais nous ne comprenons pas le processus de l'esprit. Et je pense que le grand défi de la biologie au siècle prochain sera de comprendre cela. De même que la cosmologie se demande quelle est la structure de l'univers, les neurosciences cognitives recherchent quelle est la structure de l'esprit.
    Personnellement, je trouve le second problème plus intéressant que le premier, mais il y a beaucoup de gens qui ne seraient pas d'accord avec moi.



    Il doit y avoir un ordre sous-jacent
    (Herbert Simon)

    Notre cerveau contient des milliards de neurones et encore plus de connexions entre eux. C'est un objet complexe. Notre objectif est donc le même que dans toutes les sciences : prendre une chose que l'on ne comprend pas, qui a l'air extrêmement complexe et mystérieuse et se dire : il doit bien y avoir un ordre sous-jacent, une organisation interne sans laquelle cette chose ne fonctionnerait pas, trouvons-le !

    Lorsqu'on découvrira son ordre caché, cette chose deviendra plus simple, elle ne sera pas moins impressionnante qu'auparavant ni moins capable, mais plus simple, au sens : plus compréhensible.

    Voilà ce que nous cherchons à faire avec nos recherches sur l'esprit et le cerveau !





    Comment l'esprit est il lié au cerveau ?
    (Rodolpho Llinas, Eric Kandel, Stephen Kosslyn, Herbert Simon)

    Rodolpho Llinas :

    Je suis mon corps, mes pensées, mes mouvements qui sont eux-mêmes les résultats du travail de mon cerveau. Je suis mon cerveau au travail. Si je m'endors et que je ne rêve pas, je disparais, je ne suis plus là. Le cerveau fait alors autre chose. Il n'est pas en train de me produire, moi. Lorsque je rêve, il me produit à une certaine fréquence. Lorsque je suis éveillé, il emploie une autre fréquence. Il n'y a donc pas de dichotomie entre cerveau et esprit. Je ne peux même pas imaginer ce qu'esprit voudrait dire en l'absence du cerveau, car l'esprit est un état fonctionnel du cerveau.

    Le narcissisme des êtres humains est un chose vraiment très intéressante. Premier point -- je vais avoir des ennuis -- premier point : les gens ne veulent pas mourir. Parce que la vie est si extraordinaire. Parce qu'être conscient est si extraordinaire. Il est donc très tentant de séparer l'esprit du corps. Cela permet de négocier : si vous êtes gentils, vous irez là, et si vous êtes méchants, vous irez ailleurs.

    Mais il y a un problème plus fondamental : il y a peu de différence entre un corps vivant et un corps mort. On peut donc croire que Vous n'êtes n'est pas situés dans votre corps, puisque vivant ou mort il reste le même ! Mais cette impression ne résulte que de l'incapacité des gens à distinguer entre un corps mort et un corps vivant. Historiquement cette croyance s'est intégrée dans notre culture, dans notre religion et dans notre littérature, et c'est donc pourquoi nous pensons ainsi.

    Eric Kandel :
    A mon avis, toute activité mentale est le reflet d'une activité du cerveau. La pensée est une suite d'opérations exécutées par le cerveau, tout comme la marche est une suite d'opérations exécutées par les jambes. Chaque aspect d'un comportement a donc une base biologique. Ce qui n'implique pas que nos comportements soient seulement détermines par la biologie, car la tendance actuelle des recherches sur le cerveau est de montrer que cette machine biologique est extrêmement sensible aux influences de l'environnement, de sorte qu'il y a une interaction constante entre le cerveau et l'environnement. Mais l'ultime accomplissement de chaque acte mental est déterminé par le cerveau.




    Le cerveau est-il un ordinateur ?
    (John Anderson, Rodney Brooks, Jean-Pierre Changeux, James
    McClelland, Rodolpho Llinas, Herbert Simon)

    John Anderson :

    Le cerveau est sûrement une machine qui fonctionne en obéissant aux lois de la physique, mais il est différent de la plupart des ordinateurs. En fait, je pense que la question de savoir si le cerveau ressemble à un ordinateur n'est qu'un exercice sémantique. Tout dépend de la manière dont vous définissez "ordinateur" et "cerveau".


    Rodney Brooks :

    Nous avons été un petit peu trop induits en erreur par la métaphore de l'ordinateur, par cette soi-disant différence entre logiciel et matériel. Les systèmes biologiques ne distinguent pas entre calcul et interaction physique : ce qui est fait dépend intimement du lieu où c'est fait.
    En fait, cette métaphore du cerveau-ordinateur est dangereuse. A une certaine époque, le cerveau était considéré comme un système hydrodynamique, puis il est devenu une machine à vapeur. Quand j'étais gosse, les livres de sciences le comparaient à un standard téléphonique ! Ensuite, il est devenu un ordinateur. Plus récemment, il est devenu un ordinateur massivement parallèle et, dans pas longtemps, il deviendra l'Internet.
    La technologie la plus complexe est toujours prise comme dernière métaphore du cerveau, et ce n'est pas fini. Je prédis que, dans le futur, d'autres métaphores surgiront avec l'apparition de technologies encore plus complexes et intéressantes.

Page 1 sur 2 1 DernièreDernière

Discussions similaires

  1. neurosciences
    Par luckaie dans le forum Psychologies (archives)
    Réponses: 15
    Dernier message: 14/04/2007, 10h04
  2. Neurosciences
    Par Sogood dans le forum Orientation après le BAC
    Réponses: 1
    Dernier message: 19/03/2007, 20h18
  3. Neurosciences et psychobiologie
    Par Maud_37 dans le forum Orientation après le BAC
    Réponses: 1
    Dernier message: 30/01/2007, 23h06
  4. Neurosciences
    Par Zygoto dans le forum Lectures scientifiques
    Réponses: 1
    Dernier message: 23/01/2006, 14h52
  5. neurosciences
    Par whisper dans le forum Lectures scientifiques
    Réponses: 1
    Dernier message: 25/06/2004, 20h01