Non, ma question est vraiment à prendre au pied de la lettre ; je ne vois pas du tout pour quelle raison si un passage dans un sens peut paraitre souhaitable, il ne le deviendrait pas dans l'autre sens, au bout d'un certain temps.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Ah bon ! Eh bien dans ce cas j'imagine que tu peux retourner ma réinterprétation de ta question comme ma réponse à celle-ci ^^.
Par contre j'ai peur que l'idée de la reconstruction d'un corps biologique pour abriter une conscience déjà sur support informatique ne soit hors sujet ici, c'est plus la biologie du futur que l'ordinateur du futur. En l'occurrence d'un futur particulièrement lointain et hypothétique.
tu veux dire d'un cerveau, pas d'un corps, j'imagine.Par contre j'ai peur que l'idée de la reconstruction d'un corps biologique pour abriter une conscience déjà sur support informatique ne soit hors sujet ici, c'est plus la biologie du futur que l'ordinateur du futur. En l'occurrence d'un futur particulièrement lointain et hypothétique.
et de ce point de vue, pourquoi serait-ce à priori plus lointain.? ou différent ?
si on sait faire un isomorphisme conscience humaine _ conscience silicone.
sur le principe.
à la limite , c'est même là ou on pourrait y voir un intérêt.
genre sauvegarde du disque dur ( au cas ou )!
Bonsoir Marie-Hélène, Re-,
C'est bien ce que j'avais cru comprendre au "premier rabord", à mon sens ça ne pouvait pas vouloir dire autre chose dans le style Marie-Hélène !
J'agrée tout à fait ! On peut même imaginer des "corps jouets" humains, biologiquement fonctionnels, cerveau compris, stockés quelque part, que l'on "branche" de temps en temps quand un "humain silicium" veut faire une petite escapade nostalgique dans la vie préélectronique ! C'est d'ailleurs à peu près ce que veut faire le zigomar Ken Hayworth - tout de suite !tu veux dire d'un cerveau, pas d'un corps, j'imagine.
et de ce point de vue, pourquoi serait-ce à priori plus lointain.? ou différent ?
si on sait faire un isomorphisme conscience humaine _ conscience silicone.
sur le principe.
à la limite , c'est même là ou on pourrait y voir un intérêt.
genre sauvegarde du disque dur ( au cas ou )!
Amitiés,
Jean
Bonjour Compton,
j'ai personnellement connu M. Cardon, et je n'ai pas souvenir de la moindre preuve sur ses idées concernant l'IA. Elles étaient plutôt farfelues, alors si vous avez un lien (sérieux), je suis preneur.
Pour le reste, c'est hors sujet, voire hors charte, j'ai supprimé.
Dernière modification par obi76 ; 05/03/2014 à 08h05.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
Je le sais obi76, moi aussi, je l'ai rencontré une fois en 1979 et il m'a demandé de me méfier de vous; je comprend pourquoi...Ces lien étaient sérieux voyez-vous...Mais par curiosité qu'appelez-vous une preuve de ses idées ? Un ordinateur ? un logiciel ? ou...?
Non, ça c'est argument utilisé en général par tous ceux qui font de la patascience : "méfiez-vous, ce qu'on fait fait tant de jaloux que votre vie est en jeu à cause des méchants [gouvernements / lobby / autre]. Pour être honnête j'en ai payé les frais avec lui. Et je peux vous dire que ça m'a coûté cher, très cher...
Bref, ne parlons plus de ça.
EDIT : se méfier de moi en 79 ? Il devait être voyant alors, je n'étais pas né.
Dernière modification par obi76 ; 05/03/2014 à 17h19.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
J'aimerai aussi préciser que dans ces hypothèses il n'y a aucune raison particulière qu'un transfert de conscience soit destructif ni qu'on soit obligé d'arrêter la première version pour lancer la nouvelle. Plus qu'un transfert, il s'agit alors d'un duplicata et si on peut dédoubler sa conscience, qui est-on ? Ça pose de graves problèmes philosophiques sur la nature de l'individu mais qui ne sont pas encore tout à fait d'actualité.J'agrée tout à fait ! On peut même imaginer des "corps jouets" humains, biologiquement fonctionnels, cerveau compris, stockés quelque part, que l'on "branche" de temps en temps quand un "humain silicium" veut faire une petite escapade nostalgique dans la vie préélectronique ! C'est d'ailleurs à peu près ce que veut faire le zigomar Ken Hayworth - tout de suite !
Les problèmes sont exactement les mêmes dans le sens biologique/ordinateur...mais heureusement ce n'est pas plus d'actualité que dans l'autre sens.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Mais obi76, qu'appelez-vous patascience ?
Il existe en effet, une science qu'on appelle la pataphysique et dont on trouve la définition dans l'oeuvre d'Alfred Jarry, les fameux Ubu Roi et la Mère Ubu;
mais la patascience n'est définie nulle part;
on devine la création d'une telle conception dans l'oeuvre nationaliste de Céline dont la colère irrationnelle s'exprime contre les chercheurs en mouvement perpétuel ! est-ce que la patascience est pour vous définie par ce meme mouvement de colère nationaliste exacerbée contre l'impossible selon certain tenants du nationalisme ?
Il faut etre sérieux dans une définition; ou bien, la patascience est-elle la science des ignorants et des charlatans, ou encore, la science des savants en illusion de connaissances ou la science du philosophe Lulle qui savait parler de tout ce qu'il ne connaissait pas à l'époque de Descartes ?
ou patascience est-elle tout ce qui n'est pas le savoir d'une époque, d'une classe sociale, bourgeoise, monarchiste, ou voire qui ne serait que digne des prolétaires ?
Il se peut que votre définition soit tout autre; reconnaissez vous votre science dans l'une d'entre elles déjà exprimées ?
copier un truc c'est le mesurer , même une photocopieuse fait une incertitude dans sa mesure ou une erreur .
la simulation est une mesure avec incertitude , et d'après le lien :http://fr.wikipedia.org/wiki/Calcul_d%27incertitude
donc l'incertitude s'amplifie avec la complexité .Soient les grandeurs mesurées a et b avec leurs incertitudes absolues
L'incertitude de c=a+b ou c=a-b est donnée par Autrement dit, l'incertitude absolue sur la somme ou la différence de 2 grandeurs est égale à la somme quadratique de leurs incertitudes absolues.
L'incertitude de c=a*b ou c=a/b est donnée par
Autrement dit, l'incertitude relative sur un produit ou un rapport de 2 grandeurs est égale à la somme quadratique de leurs incertitudes relatives.
Ces résultats sont démontrés par la formule statistique de propagation des incertitudes. Pour une fonction de n variables indépendantes xi, f(x1, x2 ... ,xi ... ,xn) :
mais pas de problème , avoir une erreur de 50% est mieux que de ne rien savoir .
Les affabulations qui n'ont jamais ammené à la moindre publication reconnue et soumise à commité de lecture dans la communauté par exemple ?
Effectivement : dire que l'on peut avoir peur est une preuve du sérieux de ce que l'on pense...Il faut etre sérieux dans une définition; ou bien, la patascience est-elle la science des ignorants et des charlatans, ou encore, la science des savants en illusion de connaissances ou la science du philosophe Lulle qui savait parler de tout ce qu'il ne connaissait pas à l'époque de Descartes ?
Je ne vois pas trop ce que mon travail vient faire dans ce débat (qui n'a d'ailleurs pas sa place ici).
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
@compton:
pardonnez moi, mais votre apparté personnel avec Obi76 me semble d'une part totalement obscur, et à priori hors sujet de CE fil.
même si c'est involontaire, cet échange nuit au déroulement des discussions et constitue ( volontairement ou non ) une sorte de trollage.
merci de respecter les autres intervenants.
Le but d'une simulation d'un cerveau n'est pas de copier un cerveau particulier. L'erreur de mesure n'a aucune importance dans le cas du HBP. Ça aura de l'importance lorsqu'on voudra transférer la conscience d'un humain réel sur support informatique, mais la simulation du HBP n'a pas besoin de reproduire le cerveau d'un humain en particulier.copier un truc c'est le mesurer , même une photocopieuse fait une incertitude dans sa mesure ou une erreur .
la simulation est une mesure avec incertitude , et d'après le lien :http://fr.wikipedia.org/wiki/Calcul_d%27incertitude
Une simulation n'est pas une mesure, c'est le calcul des états successifs d'un système en appliquant un modèle, c'est-à-dire un ensemble de loi, qui régit son évolution à partir d'un état initial. Une mesure quant à elle sert à déterminer l'état d'un système physique. La mesure peut avoir de l'importance pour déterminer l'état initial de la simulation qu'on veut effectuer mais comme je l'ai déjà dit dans mon post précédent la précision de la connaissance du cas initial n'a que peu d'importance pour le HBP tout ce qui importe c'est que le modèle d'évolution soit cohérent.
Tu prenais la comparaison avec les phénomènes météorologiques et de la divergence de ces simulations par rapport au temps réel. Ce qui n'est pas la même chose que ce dont parle ton lien. L'incertitude de la mesure du temps qu'il fait est assez faible, on sait relativement bien le temps qu'il fait en ce moment même.
Le problème qui produit les écarts entre une simulation et le temps réel proviennent du caractère chaotique des systèmes météorologiques. Or le caractère chaotique d'un système n'est pas spécialement lié à sa complexité, ce n'est mathématiquement pas vrai.
Non, avoir une erreur de 50 % n'a tout simplement pas de signification. Il faudrait tout d'abord définir précisément ce que ça veut dire.
Dernière modification par Deedee81 ; 05/03/2014 à 12h26. Motif: correction balise
Bonjour,
J'avoue avoir de sérieux doutes quant à la possibilité d'un transfert de "conscience" (?) d'un cerveau vers un ordinateur, ou dans l'autre sens, dans la mesure où cette conscience humaine est le produit, donc le reflet, de la structure cervicale. Laquelle est particulièrement entachée de failles et d'erreurs, origine de bien des comportements tant irrationnels que déraisonnables.
Comment une structure différente, un système informatique, a priori fabriqué d'une tout autre manière - façonnage et non évolution plus ou moins aléatoire -, pourrait-il devenir le substrat de cette "conscience", pur produit de son origine, si je puis dire ?
Le support informatique devrait-il présenter des failles équivalentes ? De par sa complexité, n'en présenterait-il pas au contraire d'autres, propres à sa propre nature ?
Je me demande bien ce qu'il resterait de cette "conscience" après transfert dans un substrat différent de celui d'origine.
Plus généralement, je ne vois pas très bien ce que pourrait signifier vouloir séparer un phénomène émergent comme la "conscience" du substrat matériel qui la crée en permanence.
@paminode:
c'est d'un extrême bon sens.
cordialement.
C'est à mon avis l'intérêt des progrès récents au niveau de l'architecture des ordinateurs ainsi que de leur mode de développement. Il est inconcevable qu'une intelligence artificielle soit entièrement programmée par un développeur car il faut qu'elle soit capable d'évoluer et d'apprendre. Mais ce problème n'en est plus tout à fait un, les réseaux de neurones formels sont déjà capables d'apprentissage par un procédé aussi plus ou moins évolutif : Ce qui fonctionne est privilégié et ce qui ne fonctionne pas est éliminé.
Il faudrait déjà définir précisément en quoi ces comportements sont irrationnels et déraisonnables et pourquoi il s'agit effectivement de failles. Si on dit qu'un comportement est irrationnel c'est qu'il n'est pas celui auquel on s'attendait, mais ça ne veut pas dire nécessairement que ce comportement n'est pas le résultat logique d'un certain calcul. Ledit calcul pourrait tout simplement ne pas être adapté à la situation.J'avoue avoir de sérieux doutes quant à la possibilité d'un transfert de "conscience" (?) d'un cerveau vers un ordinateur, ou dans l'autre sens, dans la mesure où cette conscience humaine est le produit, donc le reflet, de la structure cervicale. Laquelle est particulièrement entachée de failles et d'erreurs, origine de bien des comportements tant irrationnels que déraisonnables. [...]
Le support informatique devrait-il présenter des failles équivalentes ? De par sa complexité, n'en présenterait-il pas au contraire d'autres, propres à sa propre nature ?
Il n'y a qu'à voir le comportement de Watson lorsqu'il joue au jeu Jeopardy, son comportement ne semble pas toujours rationnel. À une question où on lui demandait le nom d'un astronome qui a fait un voyage sur un bateau il a donné le nom de l'acteur principal du film La Panthère Rose alors qu'il ne semblait pas y avoir spécialement de lien logique. La raison de cette réponse vient du fait que le bateau en question s'appelait le Pink Paramour et que dans la description du film The Pink Panther il est précisé que l'un des personnages est la maîtresse (paramour) du personnage principal.
Je ne pense pas qu'il sera très difficile de faire agir un ordinateur de manière irrationnelle, au contraire ce sera de s'assurer que son comportement, en plus d'être le résultat d'un calcul, paraisse logique.
Oui mais une simulation n'est pas une mesure. L'incertitude n'est pas un concept pertinent ici. Relis mon explication précédente.
@nourredine:
il me semble que le sujet porte sur l'aspect qualitatif de la "simulation" ( prenons ce terme au sens large ).
On ne cherche pas à la "mesurer" mais à en juger la pertinence.
j'avais l'impression que les réseaux de neurones étaient un peu passés de mode. On en parlait beaucoup quand je préparais ma thèse (dans les années 80) et puis ça a un peu disparu de la littérature statistique. Mais je ne connais pas la littérature informatique.
je ne vois pas bien le lien entre connaître la réponse à cette question et l'intelligence (ça doit être parce que je ne connais pas la réponse ).Il n'y a qu'à voir le comportement de Watson lorsqu'il joue au jeu Jeopardy, son comportement ne semble pas toujours rationnel. À une question où on lui demandait le nom d'un astronome qui a fait un voyage sur un bateau (...)
C'est tout à fait possible que je fasse un lien qui n'a pas lieu d'être entre les réseaux de neurones formels et les architectures de puces informatiques neuromorphiques. Les progrès récents ont été sur ce deuxième paradigme, il me semblait qu'au moins le principe fondamental était le même. L'intérêt venant du fait que ces structures sont capables d'apprentissage.
Dans tous les cas si c'était passé mode, c'est en train d'y revenir.
En effet connaître la réponse à cette question est à la portée de n'importe quel ordinateur. Ce qui est difficile pour un ordinateur c'est de réussir à comprendre la question. Dans sa participation au jeu Jeopardy c'était visible que Watson n'avait aucun problème à retrouver le nom d'un obscur poète italien ou d'un empereur chinois du XIVe siècle mais que répondre à des questions ambiguës formulées de manière compliquée ou basée sur un jeu de mots était une autre paire de manches. Même dans ce domaine ses performances étaient excellentes.
Je pense que si cet ordinateur est aussi efficace pour l'analyse linguistique c'est parce qu'il procède de la même manière que nous pour ce qui est de la compréhension du langage à savoir par associations. L'avantage qu'on a sur lui est surtout dû au fait qu'on est capable d'associer les mots à des images et aux concepts qu'ils représentent alors qu'il n'est capable d'associer que des éléments linguistiques les uns avec les autres (ce qui donne déjà des résultats impressionnants).
oui, l'architecture software de Watson est très intéressante.
du fait de la complexité du tri sémantique.
mais , encore une fois, il ne s'agit que d'UN aspect du mode de raisonnement humain ( l'accès plus ou moins optimal à sa banque de donnée ).
tout comme l'est le fait de faire jouer un ordi aux échecs.
On prend une faculté que l'on décrit par ses entrée/sorties et on construit un algo qui simule cette faculté.
est on en mesure de toutes les lister ?, et de toutes les simuler ?
par ailleurs, la différence fondamentale (rappelée par paminode), est que dans le cas humain , on ne peut pas séparer le "hardware" du "software".
et intrinsèquement, la plasticité du cerveau vient de là , me semble t-il.
Depuis le début de la révolution industrielle des machines ont été en mesure de remplacer des humains pour de plus en plus de tâches dont ils étaient les seuls capables (je devrais peut-être même dire depuis l'invention de l'outil). Ça donne tout de même envie d'extrapoler cette tendance jusqu'au moment où il n'y aura plus aucune tâche dont seul un humain pourrait s'acquitter. Je trouve particulièrement intéressant qu'en imitant des propriétés du cerveau humain on arrive déjà à reproduire certaines de ses compétences.oui, l'architecture software de Watson est très intéressante.
du fait de la complexité du tri sémantique.
mais , encore une fois, il ne s'agit que d'UN aspect du mode de raisonnement humain ( l'accès plus ou moins optimal à sa banque de donnée ).
tout comme l'est le fait de faire jouer un ordi aux échecs.
On prend une faculté que l'on décrit par ses entrée/sorties et on construit un algo qui simule cette faculté.
est on en mesure de toutes les lister ?, et de toutes les simuler ?
Pour ce qui est du fait que ce n'est qu'un aspect du raisonnement humain, ça ne me semble pas très problématiques. Il n'y aucun problème à interconnecter des logiciels, Watson lui-même fait appel à de nombreux sous algorithmes. Il est donc envisageable qu'une IA fasse appel à un sous logiciel du type Watson pour ce qui est de sa compréhension du langage.
C'est une assomption ça. On n'a effectivement jamais été en mesure de séparer le "hardware" du "software", mais quels éléments a-t-on pour pouvoir affirmer que c'est impossible ? Que notre conscience est plus que le résultat du calcul effectué par la machine sur laquelle elle tourne et que cette machine est elle-même partie intégrante de notre conscience cette ?
Vient d'où ? Du fait que notre conscience est inséparable de sa machinerie ou du caractère biologique de ladite machinerie ?
je dirais de l'observation de la structure même.C'est une assomption ça. On n'a effectivement jamais été en mesure de séparer le "hardware" du "software", mais quels éléments a-t-on pour pouvoir affirmer que c'est impossible ? Que notre conscience est plus que le résultat du calcul effectué par la machine sur laquelle elle tourne et que cette machine est elle-même partie intégrante de notre conscience cette ?
Vient d'où ? Du fait que notre conscience est inséparable de sa machinerie ou du caractère biologique de ladite machinerie ?
qui est à la fois substrat et information en même temps.
On est même infoutu de connaitre le rôle exact des cellules gliales ( en bien plus grand nombre que les neurones ), et tout le monde ne parle que de neurones.
( qui soit dit en passant sont loin d'être des portes logiques.)
je prend deux exemples pour illustrer ce point.
les liaisons entre neurones ( neurotransmetteurs ) ne sont pas du tout homogènes.
certains sont capables d'émettre ou de recevoir ( ou pas) plusieurs types ou pas de neurotransmetteurs.
une liaison A_B peut par exemple induire que A peut envoyer n1 à B mais ne recevoir que du n2 de B, etc.
le nb de liaisons est aussi extrêmement variables, et évolutives à chaque instant.
concernant les cellules gliales, il a été découvert que celles ci avaient la potentialité de se transformer en neurones justement.
ou peut on voir une analogie informatique la dedans ?
a part dans les discours souvent emphatiques des informaticiens.
et je ne suis pas prêt à donner une écoute attentive à une machine qui me dit que Peter Sellers était un astronaute !
ps : l'argument : "rien ne prouve que c'est impossible" est irréfutable.
Du moment qu'il s'agit d'une machine de Turing ces différences architecturales ne sont pas très importante. Du moins pour ce qui est du principe, elles restent très importantes pour l'application technologique. Et quasiment rien ne permet de penser que le cerveau ne fonctionne pas comme une machine de Turing.je dirais de l'observation de la structure même.
qui est à la fois substrat et information en même temps.
On est même infoutu de connaitre le rôle exact des cellules gliales ( en bien plus grand nombre que les neurones ), et tout le monde ne parle que de neurones.
( qui soit dit en passant sont loin d'être des portes logiques.)
je prend deux exemples pour illustrer ce point.
les liaisons entre neurones ( neurotransmetteurs ) ne sont pas du tout homogènes.
certains sont capables d'émettre ou de recevoir ( ou pas) plusieurs types ou pas de neurotransmetteurs.
une liaison A_B peut par exemple induire que A peut envoyer n1 à B mais ne recevoir que du n2 de B, etc.
le nb de liaisons est aussi extrêmement variables, et évolutives à chaque instant.
concernant les cellules gliales, il a été découvert que celles ci avaient la potentialité de se transformer en neurones justement.
La seule chose qui permettrait d'entrevoir que ce ne serait pas le cas est une thèse qui soutient qu'il se produirait dans le cerveau certaines interactions quantiques nécessaires à l'expression de notre conscience. Mais il ne semble pas que cette thèse soit prise très au sérieux par la communauté des neurologues et il ne semble pas qu'il y ait beaucoup d'éléments allant dans ce sens.
Astronome, pas astronaute. Le Paramour a vogué au début du XVIIIe siècle avec Halley à son bord. De plus c'était une erreur qu'à fait Watson assez tôt dans son développement, IBM était encore en train de le calibrer et il donnait déjà un coefficient de certitude très bas à cette réponse (en bref il avouait ne pas savoir et répondait n'importe quoi). Il était bien meilleur que ça lors du match exhibition, et a encore fait des progrès depuis.
En tout cas pour l'instant on n'a jamais obtenu aucune preuve de sa présence en-dehors de la machine biologique en question, avec un minimum de fonctionnement de ladite machine.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff