"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Merci, non j'avais pas lu. Très politique, difficile d'interpréter ce que cela veut dire exactement...
Pendant ce temps cela bouge pas mal du côté du BRAIN. Très difficile à suivre aussi, mais pour de bonnes raisons: trop de choses intéressantes!
Dans un autre ordre d'idée, je suis tombé sur un rapport fort pertinent de l'ambassade de France aux États-unis en ce qui concerne l'explosion de l'investissement privé dans l'apprentissage automatique. Et lisible!
Dans tous les cas, ça veut dire que HBP risque de prendre du retard...
Arff! Tu as raison.Dans un autre ordre d'idée, je suis tombé sur un rapport fort pertinent de l'ambassade de France aux États-unis en ce qui concerne l'explosion de l'investissement privé dans l'apprentissage automatique. Et lisible!
Ca me fait penser à ce que j'ai lu hier sur le JIM , dont le titre est "peur de l'intelligence artificielle ; une crainte naturelle?"
Avec d'un côté les méfiants, dont effectivement, Elon Musk ( et j'ai découvert à l'occasion l'existence de cet institut ; http://www.fhi.ox.ac.uk/,) et qui voudraient développer d'urgence des garde-fous et d'autres dont Richard Loosemore, http://ieet.org/index.php/IEET/bio/loosemore/ qui pensent que les premiers exagèrent nettement le risque...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Modéliser le cerveau entièrement, il faudrait environ 1031 Terabytes. Je ne veux pas être pessimiste, alors je leur souhaite seulement bonne chance.
Salut,
Ca pourrait être pour nos enfants ou petits enfants. On peut aussi attaquer des projets "d'avenir".
Quand j'ai commencé l'informatique on comptait en kilobytes. Puis je suis passé aux mégabytes et au gigabytes. Maintenant je compte en terabytes. Mais ceux faisant de la big data comptent en petabytes et même déjà en hexabytes.
Ca va vite. Très vite. En une grosse génération on a multiplié les volumes par plus de mille milliards. A ce rythme là, dans deux générations on sera capable de faire des folies.
Evidemment, rien ne dit qu'on va maintenir un tel rythme. Mais ça fait plus de trente ans qu'on prédit la fin de la loi de Moore ou de ce type de croissance. Et ça continue encore et encore (à prononcer en musique ).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
et avec des puces neuromorphiques ?
Petit rappel IBM a intégré un million de neurones artificiels et 256 millions de synapses sur une puce de silicium de 4,3 cm2.
et les coprocesseurs NPU arriveront bientôt
Salut,
Ce n'est pas des neurones formels par hasard ?
Dans ce cas c'est assez différent. Le but est ici de simuler tout le(s) neutrone(s) : avec les axones, les dendrites, les échanges chimiques de neuromédiateurs, etc....
La quantité d'information/calculs à effectuer est singulièrement différente (de plusieurs ordres de grandeur).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
AMHA on y est pas encore , et de loin...
nos machines , si puissantes soient elles sont , tout de même , toujours basées sur le principe
de Von Neumann .... depuis 1940. amélioré Harvard en 1944
je doute qu'une structure aussi rigide puisse rivaliser avec un cerveau.
Il s'agit du Humain Brain Project. Le but n'est pas de rivaliser avec un cerveau mais simplement de le modéliser au mieux afin de pouvoir servir de simultateur pour toute une série de tests (théories cognitives, effet de médiacaments, etc...)
Bon, ceci dit, même sans vouloir rivaliser, il ne suffira pas d'avoir beaucoup de mémoire. Il faudra aussi des architectures massivement parallèles.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Comme signalé par eaupure, les puces neuromorphiques correspondent à cette description (massivement parallèle, hors Von Neumann). En fait c'est une tendance profonde d'évoluer vers des architectures de moins en Von Neumann et de plus en plus parallèle. Cela a commencé avec l'utilisation des GPU, s'est poursuivi avec les multicores, et ça se poursuivra peut-être demain avec la généralisation des puces neuromorphiques (ce qui veut juste dire massivement parallèle). Il y a un lien à faire avec les limites de la loi de Moore (il y a maintenant plus à gagner à multiplier les coeurs qu'à continuer la densification), mais aussi avec les progrès de l'apprentissage automatique signalés dans le rapport d'ambassade plus haut. Contrairement à la plupart des applications traditionnelles, il est très facile de paralléliser l'apprentissage automatique (du moins les approches récentes, dont les gains d'efficacités sont massivement liés à tout ce qui est bagging, boosting et big data). La parallélisation devient alors un besoin à satisfaire (et pas uniquement pour les chercheurs) plutôt qu'une potentialité difficile à exploiter pour les programmeurs, et que ça je pense que c'est un game changing pour l'industrie. J'ai hâte que ces petites bêtes se démocratisent pleinement car...
...c'est que le début d'accord d'accord
Oui (la puce neuromorphe pointé est effectivement un modèle de neurones formel particulièrement simple) non (tout modèle parallèle, aussi compliqué soit-il, est équivalent à un modèle parallèle simple..) oui (...quoique plus grand effectivement, et effectivement cela peut être de plusieurs ordres de grandeurs).Ce n'est pas des neurones formels par hasard ?
Dans ce cas c'est assez différent. Le but est ici de simuler tout le(s) neutrone(s) : avec les axones, les dendrites, les échanges chimiques de neuromédiateurs, etc....
La quantité d'information/calculs à effectuer est singulièrement différente (de plusieurs ordres de grandeur).
Par contre, 10^16 terabytes par synapse? Ok il y a de grandes variations dans les estimés de la quantité d'information que cela prendrait pour émuler un cerveau de taille humaine, mais je ne vois par quel calcul ce chiffre pourrait être réaliste.Envoyé par deuxplusdeuxModéliser le cerveau entièrement, il faudrait environ 1031 Terabytes
Salut,
Ca, c'est une bonne question.
deuxplusdeux, peux-tu expliquer comment tu as obtenu ce chiffre (peut-être tout à fait correct) ? (calcul ? Référence) ?)
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Si on lave le cerveau créé artificiellement, peut-on parler de lavage de cerveau? ok je sors XD
Jai simplement appliqué les équations de Bekenstein, en faites mon estimations est mauvaise d'une ordre de grandeur environ, sa reste quand même hors de portée. Il y a plusieurs grande entreprise comme IBM qui travaille sur des architectures de processeur plus adapté pour l'implémentation d'IA. Le problème selon moi c'est au niveau de la mémoire, dans ce domaine notre technologie est lamentable.
Bien sûr certains diront que nous n'avons pas besoin d'autant d'informations, pas besoin d'un cerveau avec des capacités motrices par exemple. Si on arrivais à bien comprendre le cerveau on pourrais simuler seulement les parties qui nous intéressent.
Personellement, je pense qu'il serait mieux de mettre nos efforts dans le domaine de l'IA, jusqu'a ce qu'ont puissent atteindre un niveau suffisant pour faire émerger "la conscience". En tant qu'ingénieur informatique, j'y pense très souvent, mais il faudrait probablement autant de ressources que celles utilisées pour la mise en oeuvre du LHC. Il faudrait aussi beaucoup de temps, un IA nécessiterait une très longue période d'apprentissage avant de pouvoir intéragir correctement avec un adulte, un peu comme un nouveau-née. la taille des buffers pour ses 5 sens, et la cadence à laquelle les différentes informations sont traitées devrais être d'une extrême précision sinon une simple discussion avec un humain échouerait. Je pense que prétendre pouvoir modéliser le cerveau humain avant même d'avoir créer une IA raisonnablement avancée frôle presque l'arrogance.
Ces équations décrivent la quantité d'information qui est contenue dans un trou noir.Jai simplement appliqué les équations de Bekenstein
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Oui et oui, et c'est bien le problème. Sérieusement, tu crois vraiment qu'il faut approcher même de loin cette limite pour décrire un cerveau? Comment est-ce que tu expliquerais qu'on puisse quotidiennement perdre des milliers de neurones sans aucune perte de fonction (sans parler du renouvellement continu des cellules non neuronales), mais que la description d'un cerveau nécessiterait quand même de respecter le moindre bit au niveau quantique, de la moindre molécule du moindre organite de la moindre cellule cérébrale?
Je suis d'accord que nous n'aurions pas à modéliser les 1,5kg du cerveau pour avoir un cerveau fonctionnel. Par contre, le projet ambitionne de modéliser le cerveau dans son entièreté. Nous n'avons aucune idée de l'importance des phénomènes quantiques sur le fonctionnement du cerveau. Si les effets sont insignifiants, on pourrais utilisé un bit seulement pour encoder l'information à une échelle plus significatives. Respecter le moindre bit au niveau quantique nous assurerais d'avoir le modèle le plus complet, mais ce n'est probablement pas la seule façon d'avoir un modèle fonctionnel.Oui et oui, et c'est bien le problème. Sérieusement, tu crois vraiment qu'il faut approcher même de loin cette limite pour décrire un cerveau? Comment est-ce que tu expliquerais qu'on puisse quotidiennement perdre des milliers de neurones sans aucune perte de fonction (sans parler du renouvellement continu des cellules non neuronales), mais que la description d'un cerveau nécessiterait quand même de respecter le moindre bit au niveau quantique, de la moindre molécule du moindre organite de la moindre cellule cérébrale?
Et avec cette remarque, sommes nous sur qu'ils sont suffisants pour expliquer ou reproduire le fonctionnement de cet objet ?
l'ordinateur le plus puissant d'aujourd'hui va essayer de simuler les interactions entre le neurones ,
et demain avec d'autres ordinateurs plus puissants , on va simuler le cerveau au niveau des molécules et des atomes dans les neurones .
on marche étape par étape suivant l’évolution de la puissance des ordinateurs .
Les chinois s'y mettent!
http://www.letemps.ch/Page/Uuid/01a6...sur_le_cerveau
Si chacun développe son truc dans son coin, il faudra ensuite accorder les violons...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Il faut aussi améliorer la précision de l'imagerie du cerveau, l'IRM a une précision millimétrique mais des recherches pourrait atteindre les 200 nm avec des photochromes et des fluorophores
http://www.dailymotion.com/video/x26...-chimie_webcam
Les chinois s'y mettent... si ça continue l'Europe pourra se targuer d'avoir levé 10 milliards en en investissant 1... know a leader when you see one
http://www.bulletins-electroniques.c...ites/78428.htm
Allo!
Tu as des nouvelles, Julien?
Mon informatrice préférée ne se tient pas au courant...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
merci! ( un peu tardivement, désolée...)
Tiens, échange de bons procédés ; http://www.cell.com/cell/pdf/S0092-8...%2901191-5.pdf
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Miam miam merciTiens, échange de bons procédés ; http://www.cell.com/cell/pdf/S0092-8...%2901191-5.pdf