même cette question est 'antropomorphique' : , et pour être neutre , c'est à l'ordinateur de poser une question s'il a ce pouvoir .![]()
-----
même cette question est 'antropomorphique' : , et pour être neutre , c'est à l'ordinateur de poser une question s'il a ce pouvoir .![]()
je précise que je ne fais pas de comparaison anthropomorphe pour le plaisir de la dérision et de la rhétorique. Je la fais parce que c'est comme ça que le problème est le plus souvent posé, et que c'est précisément l'idée qui est défendue et contre laquelle j'argumente : que l'ordinateur puisse devenir "semblable à l'humain". Le débat n'est le plus souvent PAS posé comme tu le désirerais, c'est à dire comme une extension de la notion appliquée aux humains à d'autres systèmes . Si il l'était comme ça, il pourrait être réglé facilement en disant que les ordinateurs actuels dont DEJA comme une "extension des humains" - personne ne conteste la réalité que les ordinateurs exécutent maintenant des tâches qui étaient avant réservées aux humains.La question de la terminologie est plus complexe que cela ! Il est normal d'étendre l'usage du vocabulaire par analogie pour décrire des techniques nouvelles. Les avions volent : il n'a pas été considéré que c'était "biomorphiser" que de réutiliser ce verbe défini à l'origine pour les oiseaux ou les insectes.
La difficulté ici est autre : c'est l'incapacité ou l'absence de volonté de définir correctement les concepts, puis secondairement les termes, à appliquer aux ordinateurs avant de discuter ces concepts ou utiliser ces termes. L'analogie pour le verbe "voler" était assez claire pour qu'il n'y ait pas de "philosophe" développant une théorie du biomorphisme et expliquant que c'était un avatar de fantasmes qu'on retrouvait dans des mythologies traditionnelles selon lesquelles les dieux avaient des attributs animaux (Horus, Ganesh, ...).
L'incapacité à définir les concepts vient entre autres du fait qu'il faille distinguer les ordinateurs actuels, et les potentialités ouvertes par la technique de traitement de l'information par automate à états finis. Toute discussion conceptuelle sur le second point est bloquée par d'un côté l'usage d'une terminologie issue de l'introspection sans définir les concepts, et de l'autre par une rhétorique défensive, utilisant la difficulté de terminologie pour faire de la dérision sur une comparaison anthropomorphe.
Si on pose le problème comme une extension de la notion, et qu'on dit que suivant cette extension, les ordinateurs "savent compter" comme les avions "savent voler" comme les oiseaux (c'est à dire qu'ils sont loin de faire tout ce que font les oiseaux genre savoir gober un moustique en piqué, mais bon ils tiennent en l'air) , je n'ai aucun problème avec ça et je n'ai pas à argumenter là dessus, dans la mesure où finalement cette extension est purement conventionnelle et ne dit rien sur la réalité de ce que peuvent faire les ordinateurs.
La seule chose qui me gêne, et à laquelle je réagis, c'est l'idée que parce qu'ils font des choses apparemment semblables, alors rien n'empêche qu'ils fassent tout exactement comme les humains et même mieux. Cette conclusion n'est évidemment pas valable pour le vol des avions et les oiseaux, et pas plus sur les ordinateurs et les cerveaux. Il n'y a rien de "spécifique" au fait que les ordinateurs ne sont pas des cerveaux, tout comme les avions ne sont pas des oiseaux.
Et encore une fois, le problème avec l'emploi du mot "programmer" est précisément qu'elle pousse à une extension injustifiée (p
A : deux ordinateurs "programmmés" peuvent faire exactement la même chose
B - le cerveau est aussi "programmé par la Nature",
C - donc un ordinateur peut faire la même chose qu'un cerveau)
- la faute de raisonnement logique étant bien évidemment que la 1ere proposition n'est vraie QUE si on emploie le mot "programmer" sous le sens "dont on peut sortir un listing" (pour simplifier), alors que la 2eme utilise une extension du mot pour laquelle la 1e proposition n'est pas valable. Je maintiens donc tout à fait tranquillement la question "j'aimerais bien voir le listing" pour insister sur le fait qu'il n'y a que dans le sens restreint de "écrire une série d'instructions" qu'on peut parler de "programmation" induisant une équivalence algorithmique.
Ce n'est donc pas JUSTE un problème de vocabulaire, c'est bien un problème de syllogisme, qui conduit à des représentations réellement erronnées de la réalité (et là ça commence à être vraiment gênant). J'ai pu constater que sur mon exemple des logiciels de conversation qui ne "savent pas" répondre à des questions simples sur les phrases qu'on leur pose, la première réaction est l'incrédulité, parce que la plupart des gens pensent que c'est évident que si ils répondent aux questions sur les capitales ou sur la population des pays, ils doivent bien évidemment être capables de répondre à des questions très simples portant sur les phrases qu'on leur pose, parce qu'ils n'imaginent pas qu'on puisse répondre autrement qu'en "comprenant" la question. Ils sont donc convaincus que je me trompe ... avant de pouvoir le constater de visu. On n'est plus dans une simple convention du sens des mots, on est vraiment dans une représentation erronée (-> conduisant à des conclusions matériellement inexactes) de ce que fait vraiment un ordinateur.
Imaginons un langage qui se modifie de lui-même, (la réflexivité en programmation), en ajoutant un coté aléatoire, le programme ne devient un peu moins, presque plus la signature du comportement observé. En fait, si on se livre à des expériences, on peut très bien ne plus savoir ce qui caractérise le programme.
Maintenant, perso, je vous rejoins sur l'idée principale : de là à dire qu'on a fabriqué une machine de type humain, bof je dirais qu'on a juste une machine hyper complexe au comportement un peu anarchique, mais rien beaucoup de plus, rien qui n'ait une raison de pouvoir être comparé à un humain.
Il y a deux fonctions essentielles que remplit un cerveau humain : locomotion coordonnée du corps et capacité de produire des raisonnements logiques, des ensembles bien liés de concepts. Hawking est un grand savant sachant raisonner, dont la fonction locomotive ne fonctionne pas bien. La fonction locomotive est très bien singée maintenant par les robots asiatiques, le robot dit « ASIMO » d’Honda réalise des prodiges de bipédie grâce à des prouesses technologiques incomparables :
http://www.youtube.com/watch?v=eU93VmFyZbg
image supprimée : les images sur les serveurs extérieurs ne sont pas autorisées, d'autant plus que la source n'était pas citée.
Avec l’essor des nanotechnologies il n’y a a priori pas de raison pour que la pensée formelle d’un cerveau humain puisse à jamais ne pas être à son tour singée étant donné qu’a priori le principe de base du fonctionnement de n’importe quelle machine électronique est le même que celui d’un cerveau humain – boucles de rétroactions sinon « sensitives » au moins physiques avec l’extérieur, apprentissage d’automatismes de pensée par essais et erreurs.
Ensuite « programmé » est synonyme de « déterminé » … du moment que « déterminé » et « pré-déterminé » ne sont pas amalgamés il n’y a a priori pas de raison de ne pas substituer un vocable à un autre dans ces histoires de machines à penser
Ensuite « compter » est synonyme de pas mal de choses - « régler son compte », « le/ton compte est bon », « compte d’apothicaire », « compter sur untel » - etc. en gros de « juste » mais un ordinateur n’a pas – encore - la plasticité d’un cerveau humain, compte toujours très exactement, tellement exactement qu’il ignore la notion de justice mais grâce aux nanotechnologies il n’y a pas lieu de douter que dans quelques temps elle figurera dans ses tablettes![]()
Dernière modification par JPL ; 17/10/2012 à 14h18.
Il n'est pas question d'avoir honte, il est question de prendre la même impasse 25 fois de suite parce qu'un triste sire truque systématiquement le GPS...
Dernière modification par invite7863222222222 ; 17/10/2012 à 14h40.
Je ne suis pas vraiment d'accord. Ayant des connaissances en nanotechnologies, je peux dire qu'avec les connaissances actuelles dans le domaine elles n'apporteront rien. Par exemple, les processeurs des ordinateurs actuels possèdent déjà des circuits de tailles nanométriques (entre 150 nm et 70 nm pour les ordinateurs courants, 30 nm pour les haut de gammes). Cela n'empêche pas qu'un tel processeur soit aussi "bête" qu'une puce d'il y a 50 ans ou qu'une vulgaire calculette.Avec l’essor des nanotechnologies il n’y a a priori pas de raison pour que la pensée formelle d’un cerveau humain puisse à jamais ne pas être à son tour singée étant donné qu’a priori le principe de base du fonctionnement de n’importe quelle machine électronique est le même que celui d’un cerveau humain – boucles de rétroactions sinon « sensitives » au moins physiques avec l’extérieur, apprentissage d’automatismes de pensée par essais et erreurs.
Ensuite « programmé » est synonyme de « déterminé » … du moment que « déterminé » et « pré-déterminé » ne sont pas amalgamés il n’y a a priori pas de raison de ne pas substituer un vocable à un autre dans ces histoires de machines à penser
Ensuite « compter » est synonyme de pas mal de choses - « régler son compte », « le/ton compte est bon », « compte d’apothicaire », « compter sur untel » - etc. en gros de « juste » mais un ordinateur n’a pas – encore - la plasticité d’un cerveau humain, compte toujours très exactement, tellement exactement qu’il ignore la notion de justice mais grâce aux nanotechnologies il n’y a pas lieu de douter que dans quelques temps elle figurera dans ses tablettes
Il est donc clair que si l'on veut un ordinateur sachant mimer le cerveau humain (si cela est possible), ce n'est pas avec l'architecture des puces actuelles qu'on y arrivera (qu'elles soient nanométriques ou non). La nanotechnologie peut peut-être aider à atteindre ce hypothétique but, mais elle ne donne aucune piste sérieuse à suivre.
Peut-être... Mais bon...et comme 30nm, c'est à peine quelques centaines d'atomes, la limite est là....Par exemple, les processeurs des ordinateurs actuels possèdent déjà des circuits de tailles nanométriques (entre 150 nm et 70 nm pour les ordinateurs courants, 30 nm pour les haut de gammes). Cela n'empêche pas qu'un tel processeur soit aussi "bête" qu'une puce d'il y a 50 ans ou qu'une vulgaire calculette.
Aussi "bête", peut-être, mais beaucoup plus rapide.
Donc la simul (très) bas niveau est plus accessible (sans passer 3 générations humaines pour lui apprendre les premières bases d'un langage par exemple).Sans parler nanotech,Il est donc clair que si l'on veut un ordinateur sachant mimer le cerveau humain (si cela est possible), ce n'est pas avec l'architecture des puces actuelles qu'on y arrivera (qu'elles soient nanométriques ou non). La nanotechnologie peut peut-être aider à atteindre ce hypothétique but, mais elle ne donne aucune piste sérieuse à suivre.
Il me semble qu'IBM et d'autres développent des puces comportant de nombreux neurones simulés (reste la problématique des interconnexions qui évoluent dans le temps), donc en s'écartant de la structure classique du processeur central.
Jusqu'ici tout va bien...
justement, si tu fais ça, tu entres dans une autre logique : tu simules les processus physiques à la base du neurone par une approximation discrète (ce qui est bien sûr faisable), mais ce n'est pas du tout comme l'émulation algorithmique, qui est en elle-même indépendante de la physique. Quand on émule un pc par un mac, on n'a absolument pas besoin de savoir comment est construit physiquement le mac, on n'a besoin que sa structure numérique algorithmique. L'idée d'émuler le cerveau en simulant son état physique est donc de nature très différente (et en pratique, elle est totalement inutilisable pour réaliser des tâches élaborées : les ordinateurs réalisant des opérations complexes "utiles" le font sur des principes différents de ceux du cerveau, et ne se préoccupent absolument pas de comment le cerveau est construit physiquement, même si il peut y avoir certaines ressemblances dans la façon dont l'information est traitée).
Très utile en reconnaissance de formes (de toute sorte, que ce soit des formes "image", ou de tout autre types de données, notamment pour la classification statistique). Ces procédés peuvent permettre, dans une certaine limite, apporter des réponses à des questions qui n'ont pas été explicitement fournies à la puce (ou au réseau de neurone logiciel, s'il s'agit d'une émulation), et même des réponses fausses à des questions pourtant explicitement apprises.(et en pratique, elle est totalement inutilisable pour réaliser des tâches élaborées : les ordinateurs réalisant des opérations complexes "utiles" le font sur des principes différents de ceux du cerveau, et ne se préoccupent absolument pas de comment le cerveau est construit physiquement, même si il peut y avoir certaines ressemblances dans la façon dont l'information est traitée).
:'( Plus j'apprends, et plus je mesure mon ignorance
Je vous ai lu et désolé de le dire mais ce débat restera superficiel tant que la question de "comment notre cerveau ?" ne trouvera de réponse, il y a matière pourtant, tant pis je propose de fermer ce fil (enfin si les autres participants n'y voit pas d'inconvénients majeurs) !![]()
Non, ce n'est pas spécialement différent, on utilise une logique plus ou moins "bourrin" pour obtenir une réponse. L’appareil travaille a un niveau plus ou moins bas de l'émulation, c'est là la seule différence.justement, si tu fais ça, tu entres dans une autre logique : tu simules les processus physiques à la base du neurone par une approximation discrète (ce qui est bien sûr faisable), mais ce n'est pas du tout comme l'émulation algorithmique, qui est en elle-même indépendante de la physique.
Ensuite, c'est saisie des stimuli, pondérations selon certaines règles, (itérations,) réponse (dont ajustement des paramètres si apprentissage actif).
(pour la blague pc/mac, c'est un vilain troll).Quand on émule un pc par un mac, on n'a absolument pas besoin de savoir comment est construit physiquement le mac, on n'a besoin que sa structure numérique algorithmique.
va émuler une gameboy sans connaître sa structure (sans effectivement descendre au NOR et NAND voire au transistor, ou même à l'atome)...
on descend au niveau "qui va bien", c'est tout.
En quoi?L'idée d'émuler le cerveau en simulant son état physique est donc de nature très différente
C'est juste qu'on fait moins le malin, et qu'on laisse l'ordi se démerder un peu plus tout seul, car en fait, on lui impose moins de règles plus ou moins erronées sous forme de diktat.
Mais bien sûr la phase d'apprentissage en devient du coup nettement plus importante.Non, justement, l'émulation synaptique de bas niveau est utilisée industriellement.(et en pratique, elle est totalement inutilisable pour réaliser des tâches élaborées : les ordinateurs réalisant des opérations complexes "utiles" le font sur des principes différents de ceux du cerveau, et ne se préoccupent absolument pas de comment le cerveau est construit physiquement, même si il peut y avoir certaines ressemblances dans la façon dont l'information est traitée).
Et là, tu es en flagrant délit de mélange du concepteur et de l'objet conçu:
C'est le concepteur qui s'inspire de la structure neuronale pour réaliser son système, pas le système lui même.les ordinateurs ... ne se préoccupent absolument pas de comment le cerveau est construit physiquement,
(il faudrait déjà lui apprendre (à l'ordi) ce qu'est un cerveau humain, et le jour où on en sera là, la question initiale ne se posera plus!).
Dernière modification par polo974 ; 19/10/2012 à 10h33.
Jusqu'ici tout va bien...
ce n'est pas ça, l'équivalence algorithmique ...Non, ce n'est pas spécialement différent, on utilise une logique plus ou moins "bourrin" pour obtenir une réponse. L’appareil travaille a un niveau plus ou moins bas de l'émulation, c'est là la seule différence.
Ensuite, c'est saisie des stimuli, pondérations selon certaines règles, (itérations,) réponse (dont ajustement des paramètres si apprentissage actif).
tu fais une grosse erreur en sautant de la description en terme de portes NOR ou NAND a l'atome - ce n'est absolument pas la même chose ! la logique de l'informatique est discrétisable en principe de manière exacte en termes discrets, c'est justement TRES différent de la description d'un atome - un atome ne porte d'ailleurs aucune information logique a priori .(pour la blague pc/mac, c'est un vilain troll).
va émuler une gameboy sans connaître sa structure (sans effectivement descendre au NOR et NAND voire au transistor, ou même à l'atome)...
ce n'est pas ce que je dis : il est tout à fait possible de simuler approximativement le fonctionnement d'un neurone par un ordinateur ou même un système analogique électronique, bien sûr et de les utiliser. Mais j'ai dit que les ordinateurs réalisant des opérations élaborées genre jouer aux échecs ou traduire un texte n'étaient absolument pas programmés selon le principe de simuler la physique d'un cerveau effectuant la même tâche.on descend au niveau "qui va bien", c'est tout.
En quoi?
C'est juste qu'on fait moins le malin, et qu'on laisse l'ordi se démerder un peu plus tout seul, car en fait, on lui impose moins de règles plus ou moins erronées sous forme de diktat.
Mais bien sûr la phase d'apprentissage en devient du coup nettement plus importante.
Non, justement, l'émulation synaptique de bas niveau est utilisée industriellement.faudrait déjà arriver à donner une définition un tant soit peu précise de ce que tu entends par "apprendre à un ordinateur ce qu'est cerveau humain". Parce que tu peux dire par exemple qu'un cerveau humain est un organe d'environ 1,3 kg, et rentrer cette "information" dans un ordinateur, il en fera quoi ? d'ailleurs tu "sais" ce que c'est toi un cerveau humain ? tu as besoin de le savoir pour réfléchir ?C'est le concepteur qui s'inspire de la structure neuronale pour réaliser son système, pas le système lui même.
(il faudrait déjà lui apprendre (à l'ordi) ce qu'est un cerveau humain, et le jour où on en sera là, la question initiale ne se posera plus!).
encore une fois tu utilises un langage humain comme si il allait de soi que ça avait un "sens" appliqué à un ordinateur, alors que ce n'est absolument pas le cas.
Salut , supposant qu'un jour les ordinateurs (robot ,..) subissent une mutation technologique est deviennent raisonables (dans le sens où ils savent ce qu'ils sont ) , qu'ils seront les signes précurseuures pour nous de cette état d''âme' d'ordinateurs ou d'interaction ? il est possible qu'on va prendre leurs signes comme une défiance dans la programation ou dans leurs 'hard' et surtous pour un robot !.
Amha c'est quand on aura compris qu'il faut laisser une boite noire dans laquelle la programmation serait improbable ...
Dernière modification par Philou67 ; 19/10/2012 à 23h21. Motif: Citation superflue
Quels seront les signes précurseurs ? Par exemple s'il s'intéresse de trop près à une jeune programmatrice ce serait un signe évident![]()
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Hep JPL !
C'est sûr même malgré ton grand age andropause tu es prêt à sauter (sur) les jeunes femmes !![]()
Dernière modification par Philou67 ; 19/10/2012 à 23h21. Motif: Citation superflue
C'était juste pour détendre l'atmosphère dans une discussion passionnée de part et d'autre, et pour faire remarquer sous une forme humoristique (ah bon vous n'avez pas souri ?) qu'on est encore loin des rêves qu'on peut avoir sur les ordinateurs conscients.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Désolé d'être un peu aigri mais avec mes médocs je suis dans l'impuissance !![]()
![]()
Dernière modification par Philou67 ; 19/10/2012 à 23h21. Motif: Citation superflue
Je vois vous pensez que si un ordinateur devenait conscient préférait reprogrammer la jolie stagiaire plutôt que la machine à café ?
Peut-être que quand les ordinateurs s'échangeront sans commande de gros fichier alors on pourra ce demander ce qu'il font !![]()
et si les échanges se font sur le net par court paquet encoder (un encodage de robot-sapiens) , ils vont nous observé un peu de temps avant de réagir des INTRA-TERRESTRES.
c'est comme dire , laisser un enfant dans une jugle pour qu'il apprend tous seul !! (mainte fois sur le fil , ils ont insinué ou explicitement qu'un homo homo-sapiens se programme par la nature !!
Bon manifestement j'ai fait une bêtise en posant mon message. Je n'avais pas imaginé que cela déclencherait une rafale de messages de tchat. Toutes mes excuses et revenons à nos moutons (pardon : ordinateurs).
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Attention boite noire pour le programmeur ne veut pas dire déconnecté d'une forme de réalité (hors intervention humaine) !![]()
Moi personnellement ça me fait du bien !
ça m'aide à retrouver mes marques !![]()
Ok , chacun a un certain puissance de logique , pour moi , c'est un problème , par analogie , à quelle moment , je peux dire qu'un enfant fait des geste pour demander quelque chose ou il se plante ?