[Mode macho On] Et un ordinateur n'a pas de c...lles, ce qui change beaucoup la manière de réagir, de raisonner, et même d'éprouver des sentiments [/Mode macho Off]
-----
[Mode macho On] Et un ordinateur n'a pas de c...lles, ce qui change beaucoup la manière de réagir, de raisonner, et même d'éprouver des sentiments [/Mode macho Off]
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
C'est vrai pour l'unique exemple que nous avons sous la main d'être conscient, mais ça mène très facilement à un raisonnement de causalité inversé. La corrélation n'implique pas la causalité.
Pourquoi est-ce que l'intelligence serait une cause de cette impossibilité de redémarrer ?
De plus est-ce qu'il est véritablement impossible qu'un être humain "redémarre" ? Il est déjà arrivé que quelqu'un ayant passé des mois dans un état végétatif profond se réveille. Peut-on encore considérer que c'était un être intelligent pendant cette période d'inactivité profonde ?
C'est optimiste de dire que le bouton restera toujours entre les mains de l'homme, mais ça ce n'est pas une question philosophique, plus une question pratique. Le fait reste qu'une IA peut être arrêté puis redémarré ce qui pose un problème du point de vu la continuité de la conscience.Ce n'est pas du tout le cas d'une IA evoluee, qui aura toujours un bouton "On/Off", meme avec des batteries solaires, des robots d'alimentation, etc. Ce bouton est toujours entre les mains d'un humain. Et il permet d'arreter et de redemarrer la sudite IA a volonte de l'home, que ce soit un PC de bureau, une usine, ou un drone arme.
Mais la continuité de la conscience est un phénomène purement subjectif pour ladite conscience. Une IA arrêtée puis redémarré aurait tout à fait eu l'impression que sa conscience était ininterrompu, simplement du temps se sera écoulé, comme si elle avait eu une absence. Cet argument est même valable pour l'humain, il nous arrive de perdre conscience pendant un certains laps de temps, ça ne nuit pas à la continuité de notre conscience.
Je te propose une petite expérience de pensée :
Imaginons qu'avec les progrès de la médecine on devienne capable de comprendre le fonctionnement d'un neurone et d'en faire une réplique artificielle. Une petite machine qui puisse recevoir des signaux électrochimiques par des dendrites et réagir comme le ferait un neurone normal.
Un certain patient X se fait greffer, sans doute pour des raisons médicales (ça n'a pas beaucoup d'importance pour notre expérience de pensée), disons une dizaine de ces neurones artificiels à la place de dix de ses propres neurones.
Un être humain normal peut se remettre d'un accident lui ayant amputé une partie de son cerveau bien plus significative que dix neurones, cette opération n'aura somme toute pas changé grand chose et ce sera toujours la même personne. Sauf que quelques mois plus tard il recommence et se fait de nouveau remplacer quelques uns de ses neurones. Petit à petit, en recommençant l'opération un grand nombre de fois, il finit par avoir remplacé la totalité de ses neurones par des versions artificiels.
Selon ton argument, au cour des décennies que dure ce processus il y a un moment où cet homme cesse d'être un homme et un moment où il cesse d'être intelligent. Quand cela est-ce ?
Hmm... la femme non plus. Serais-tu en train de sous entendre que....
Non, je ne nie en aucun cas le caractère conscient et intelligent des êtres humains. J'ai seulement dit que le raisonnement que tu menais aboutissais logiquement au solipsisme, en aucun cas je n'ai dit être solipsiste moi-même.
C'est la deuxième fois que tu utilises ce genre d'argument et ce n'est pas acceptable dans une discussion civilisée. Plutôt que de simplement affirmer que mes arguments sont mauvais pourquoi ne pas développer les tiens ? Toi-même ne fait que répéter en boucle la même chose, sauf que tes arguments ne sont mêmes pas développés. Tous tes posts sur cette discussion sont en une ou deux phrases, souvent cryptiques, affirmant quelque chose sans développement, argument pour le soutenir ou simplement explication de ce que tu veux dire. Alors sans doute que ce que tu veux dire est extrêmement clair dans ton esprit, mais pas dans ton propos.
Quoi qu'il en soit si mes arguments te font vomir, ne t'impose pas ma présence.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
En tant que personne humaine et civilisé je n'affirme pas que l'on peut simuler un être humain jusqu’à le confondre au modèle sur tout les aspects. Pour ensuite nous rabâcher la même rhétorique en pensant la rendre vrai.
Ce n'ai pas à moi de démontrer le contraire car on ne démontre pas le contraire d'affirmation du genre les nounours vert existent. Nous avons donné bon nombre d’éléments d'argumentation montrant l'absurdité de vos propos. Vous ne voulez pas les entendre et vous continué à nous demander de démontrer que vos affirmations sont fausse. Ce n'est pas ainsi que l'on procède dans l'univers des sciences. Jusqu’à preuve du contraire nous n'avons toujours pas de simulation informatique qui soit un être humain car nous ne pourrions les distinguer.
Patrick
Dernière modification par invite6754323456711 ; 09/07/2014 à 07h30.
Bonjour S321, Bonjour a toutes et a tous,
Je ne suis pas dans la "causalite" avec mon argument de continuite, mais dans la difference d'architecture. Un humain en coma - ou en anesthesie profonde dont je peux parler puisque j'en ai l'experience ... - est tres grossierement dans la situation d'un ordinateur en veille : tout fonctionne, sauf le cerveau. Si on "coupe" l'alimentation, c'est FINI.C'est vrai pour l'unique exemple que nous avons sous la main d'être conscient, mais ça mène très facilement à un raisonnement de causalité inversé. La corrélation n'implique pas la causalité.
Pourquoi est-ce que l'intelligence serait une cause de cette impossibilité de redémarrer ?
De plus est-ce qu'il est véritablement impossible qu'un être humain "redémarre" ? Il est déjà arrivé que quelqu'un ayant passé des mois dans un état végétatif profond se réveille. Peut-on encore considérer que c'était un être intelligent pendant cette période d'inactivité profonde ?
C'est optimiste de dire que le bouton restera toujours entre les mains de l'homme, mais ça ce n'est pas une question philosophique, plus une question pratique. Le fait reste qu'une IA peut être arrêté puis redémarré ce qui pose un problème du point de vu la continuité de la conscience.
Mais la continuité de la conscience est un phénomène purement subjectif pour ladite conscience. Une IA arrêtée puis redémarré aurait tout à fait eu l'impression que sa conscience était ininterrompu, simplement du temps se sera écoulé, comme si elle avait eu une absence. Cet argument est même valable pour l'humain, il nous arrive de perdre conscience pendant un certains laps de temps, ça ne nuit pas à la continuité de notre conscience.
Je te propose une petite expérience de pensée :
Imaginons qu'avec les progrès de la médecine on devienne capable de comprendre le fonctionnement d'un neurone et d'en faire une réplique artificielle. Une petite machine qui puisse recevoir des signaux électrochimiques par des dendrites et réagir comme le ferait un neurone normal.
Un certain patient X se fait greffer, sans doute pour des raisons médicales (ça n'a pas beaucoup d'importance pour notre expérience de pensée), disons une dizaine de ces neurones artificiels à la place de dix de ses propres neurones.
Un être humain normal peut se remettre d'un accident lui ayant amputé une partie de son cerveau bien plus significative que dix neurones, cette opération n'aura somme toute pas changé grand chose et ce sera toujours la même personne. Sauf que quelques mois plus tard il recommence et se fait de nouveau remplacer quelques uns de ses neurones. Petit à petit, en recommençant l'opération un grand nombre de fois, il finit par avoir remplacé la totalité de ses neurones par des versions artificiels.
Selon ton argument, au cour des décennies que dure ce processus il y a un moment où cet homme cesse d'être un homme et un moment où il cesse d'être intelligent. Quand cela est-ce ?
Aujourd'hui, tout porte a croire que les neurones se renouvellent tout au long de la vie, et donc que mon cerveau de 62 ans n'a plus aucun neurone en commun avec le cerveau de mes 10 ans. Pourtant,je suis toujours "moi" ... Quant a remplacer mes neurones par des neurones artificiels, je veux bien : Je suis le premier a penser qu'on pourra sous peu creer une interface biologique entre le cerveau et les reseaux informatiques. Mais pour pouvoir faire ce "remplacement" de neurones, il faudra avoir construit un equivalent fonctionnel de neurone, et il me semble que ce n'est pas demain la veille (meme en admettant que l'on puisse construire empiriquement ce neurone artificiel fonctionnel sans comprendre ce qu'est exactement la "vie-conscience-intelligence" ...).
Amities,
Jean
Vous l'avez écrit et vous nous le rabâcher dans votre logique. Mimer une émotion (Simulation) ce n'est pas vivre une émotion (ëtre Humain) et cela nous en avons pris conscience, du moins manifestement une catégorie d'individu. Ce n'est pas de la métaphysique ou alors pas plus que d'affirmer que l'être humain ne fait que simuler.
Patrick
Je me rejoins à la conversation.
Vous parlez de "simulez" un cerveau humain (ou un neurone, pas d'importance).
Pour le moment, les simulations en sont aux balbutiements. Mes collègues sont incapable de simuler plus de quelques micrometres cubes d'une cellule. Et la simulation n'est pas en temps réel. Même lorsqu'ils se focalisent juste sur une fonction particulière (par exemple, le chimio-tactisme d'une bactérie), la quantité de variables à prendre en compt est très importante. Ce qui nécessite une grande puissance de calcul (et du temps).
Enfin, on ne peut simuler (ou copier) que quelque chose que l'on connait. Or, le fonctionnement du cerveau, ou même du neurone, n'en ai pas encore là.
Pour preuve (un papier qui a fait du bruit l'année dernière) : http://jeb.biologists.org/content/216/20/3799.full
Même si je trouve que ce papier est un peu fragile au niveau statistique (plus de cobaye aurait été mieux), le titre est révélateur : An automated training paradigm reveals long-term memory in planarians and its persistence through head regeneration
Donc, pour moi, on ne pourra dire d'une machine (ou semi-machine) qu'elle a une conscience humaine que lorsqu'on pourra définir correctement (donc en connaissant le fonctionnement du cerveau) ce qu'est la "conscience humaine".
Cela nous permettra également de comprendre peut-être "l'instinct", qui parfois guide le comportement des Hommes...
Enfin, dernier point, je ne vois pas en quoi une "conscience" informatique ne peut pas être créer SANS prendre modèle sur la conscience humaine. Cette conscience informatique sera différente de celle de l'Homme, mais cela ne veut pas dire qu'il n'y en a pas... Après tout, des animaux "inférieur" comme les fourmis, abeilles ou autre ont également une conscience, même si elle est très différente de celle de l'Homme (généralement une conscience de la colonie).
Mais ce n'est que mon avis...
Bonjour,
Comme vous l'avez signalé nous ne savons pas ce "qu'est la conscience" alors on peut créer quelque chose puis le désigné par conscience informatique cela ne mange pas de pain, mais qu'elle en serait l'utilité de cet étiquetage ? Créer une confusion de plus ?
Un regard de M. Bitbol "Comment affronter le problème de la conscience sans théorie" que j'ai déjà donné dans ce fil. Si il s'avère crédible ce n'est pas demain que l'on modélise la conscience humaine.
Mimer une émotion ce n'est pas vivre l'expérience consciente de l'émotion. Si dans les prémisses on réduit l'humain à un automate tout raisonnement sur ces prémisses conduiront inévitable à des conclusions indirectement incluses dans les hypothèses.
Patrick
Dernière modification par invite6754323456711 ; 09/07/2014 à 08h59.
D'où la nécessité de fournir une définition clair de la conscience.
Puis ensuite voir si cela peut s'appliquer aux machines (ou ensemble de). Ou pas.
Mais je partage votre avis. Ce n'est pas pour demain que l'on pourra modéliser la conscience humaine. Si jamais on y arrive...
HS. Tout ces histoires me rapelle un peu un roman de science-fiction de Isaac Asimov, Fondation. Où un savant est capable de "prédire" le futur de l'Humanité, en se fondant sur la probabilité des grands nombre. Plus la population étudiée est en nombre élevé, plus la probabilité de déterminé ce qu'elle va faire est "simple". A contrario, ces "équations" sont inaplicables pour un petit groupe ou des individus isolés. Je trouve cette façon de voire assez réaliste, principalement car la logique mathématique (actuelle du moins) ne peut pas permettre de prédire les actions (et donc le raisonemment, voir les pensées) d'un individu. Mais j'en fini avec le HS...
Bonjour à tous
Voilà, je crois, la formule dans laquelle chacun devrait se reconnaître, en raison de l'objet même de la discussion.
En dernier ressort, l'interrogation pourrait se ramener à ceci : Est-ce que la subjectivité existe ? (ce que j'appelle "subjectivité" est indiqué par les uns ou les autres par les termes de "conscience" ou d'"instinct" ou de "sentiment")
Ceux qui contestent (et j'en fais partie) l'idée qu'une imitation parfaite des comportements humains signerait l'humanité de la machine qui en est capable admettent implicitement que la subjectivité existe.
Cette subjectivité supposée étant ce que la science doit exclure, la machine ne saurait la définir et donc la reproduire (je reprends un argument avancé plus haut).
Nous ne pourrons jamais prouver, même si l'argumentation (qui est plus "faible" qu'une "preuve") est possible, que la subjectivité existe ou pas (c'est là une impossibilité définitive - à moins que notre science ne réintègre ce qu'elle a d'abord exclu pour se constituer et se développer ; ce à quoi je ne peux croire, jusqu'à preuve du contraire): c'est pour cela que chacun d'entre nous ne peux jamais aller au delà d'un "avis personnel".
Je crois que la position de S321 s'explique ainsi :
Il me semble bien, S321, que vous acceptez , grosso modo, le critère de Turing (il n'y a pas de différence entre "being human" et "being human-like").
Cet argument est sous tendu par une certaine forme de positivisme. De manière générale, le (néo)positivisme nous dit qu'il n'y a pas lieu de supposer l'existence de quoi que ce soit au delà des phénomènes/apparences sensibles.
C'est une position parfaitement cohérente et louable (que j'adopte dans une certaine mesure): rien, au delà des apparences, ne saurait faire l'objet d'un savoir.
Caricaturalement, le premier Wittgenstein nous invite à ne pas parler d'autre chose que de ces apparences.
Une forme plus poussée du positivisme a fait un pas supplémentaire en affirmant que ce qui ne peux faire l'objet d'un savoir, non seulement doit être tu, mais - et c'est là que cette forme de positivisme bascule dans la métaphysique même qu'elle voulait éviter- plus encore : n'existe tout simplement pas.
Dans le cadre de cette discussion c'est donc la subjectivité qui serait tout simplement niée par cette forme extrême de positivisme.
Je me demande, S321, dans quelle mesure votre position ne s'inscrirait pas dans cette perspective ?
(Elle n'est d'ailleurs pas sans rappeler d'autres discussions animées, sur d'autres sujets, dans lesquelles l'interlocuteur devenu central admettait plus ou moins implicitement cette négation de la subjectivité - négation qui conduit en général à la révolte des subjectivités des répondants).
Si c'est bien le cas, puis-je vous demander, S321, ce que vous pensez de cette phrase, directement en rapport avec la question de la subjectivité : "words give you the illusion to be out from what they can say" (vous remarquerez que l'occurrence du "from" interdit toute traduction simple et parfaite en français).
En mon sens ce n'est pas tant qu'elle doit l'exclure, c''est qu'elle ne sait pas la traiter. C'est ce qu'argumente M. Bitbol.
Patrick
Peut-être faut-il que je précise ce que je voulais dire : quand je dis que la science exclut la subjectivité, c'est d'abord dans son élaboration : le scientifique doit se garder d'introduire son désir dans ses équations (cf: la constante cosmologique d'Einstein).
C'est dans un second temps qu'elle l'exclut comme "objet" (du fait de la contradiction interne qui affecterait le concept d'une "subjectivité objectivée"; concept qu'on ne rencontre que dans les discours dialectiques -cf Hegel- dont je pense, à la suite de Levy Strauss, qu'il ne diffèrent pas beaucoup des discours sophistiques).
Bonjour à tous,
Tout à fait, je n'ai pas dit que ce serait possible à court terme où même parlé des applications pratiques. Cette expérience de pensée est pour répondre à l'argument qui affirme qu'une machine ne pourra jamais et en aucun cas accéder à l'intelligence même si elle est capable de reproduire à la perfection n'importe quel comportement intelligent humain au moins aussi bien que ledit humain.Aujourd'hui, tout porte a croire que les neurones se renouvellent tout au long de la vie, et donc que mon cerveau de 62 ans n'a plus aucun neurone en commun avec le cerveau de mes 10 ans. Pourtant,je suis toujours "moi" ... Quant a remplacer mes neurones par des neurones artificiels, je veux bien : Je suis le premier a penser qu'on pourra sous peu creer une interface biologique entre le cerveau et les reseaux informatiques. Mais pour pouvoir faire ce "remplacement" de neurones, il faudra avoir construit un equivalent fonctionnel de neurone, et il me semble que ce n'est pas demain la veille (meme en admettant que l'on puisse construire empiriquement ce neurone artificiel fonctionnel sans comprendre ce qu'est exactement la "vie-conscience-intelligence" ...).
Dans ce que je lis il semble que tu ne considères pas qu'il soit impossible par principe de développer de tels neurones artificiels capables de remplacer des neurones biologiques. La technologie n'est bien sûr pas du tout là, et l'intérêt pratique peut s'avérer discutable, mais le principe ne semble pas absurde.
Sauf que, une fois que notre patient X de notre expérience de pensée à eu la totalité de ses neurones remplacés, c'est de fait une machine. Une machine qui manifeste des comportements d'être humain intelligent, qui manifeste des comportements émotionnels et qui a des souvenirs de l'époque où elle était biologique avec une impression de continuité de sa conscience (du moins qui l'affirme). Sauf qu'on a dit, que même une telle machine n'était pas intelligente.
Si on considère que le patient X, en tant qu'être humain était intelligent, et que la machine qu'il est devenu ne l'est pas. A quel moment a-t-il cessé d'être véritablement intelligent pour ne plus être qu'une simulation ?
Hmm, je ne suis pas sûr qu'on se soit tout à fait compris sur cette partie et en me relisant je ne me trouve pas extrêmement clair moi-même je vais donc reprendre.Je ne suis pas dans la "causalite" avec mon argument de continuite, mais dans la difference d'architecture. Un humain en coma - ou en anesthesie profonde dont je peux parler puisque j'en ai l'experience ... - est tres grossierement dans la situation d'un ordinateur en veille : tout fonctionne, sauf le cerveau. Si on "coupe" l'alimentation, c'est FINI.
La différence d'architecture est indéniable, peut-être même au point de rendre le problème insoluble. Le fait est que nous ne connaissons qu'un seul exemple d'être intelligent et qu'il s'avère que cet être est d'architecture biologique humaine standard. Ce qui fait qu'il y a une corrélation entre le phénomène d'intelligence et de l'architecture correspondante.
Un biais cognitif extrêmement courant (même en dehors de ce débat) est de considérer qu'il y a une relation de cause à effets entre des phénomènes sous prétexte qu'ils apparaissent corrélés. Ainsi le fait que les seuls êtres intelligents qui existent sont biologiques n'est pas une preuve en soi que l'intelligence doit nécessairement être conséquence de la biologie et ce n'est pas un argument suffisant.
Et ce n'est pas non plus le seul argument que tu avances, je voulais simplement mettre cette partie là au clair.
Je suis entièrement d'accord avec toi la dessus, et d'ailleurs j'apprécie le retour à l'état actuel des technologies.Je me rejoins à la conversation.
Vous parlez de "simulez" un cerveau humain (ou un neurone, pas d'importance).
Pour le moment, les simulations en sont aux balbutiements. Mes collègues sont incapable de simuler plus de quelques micrometres cubes d'une cellule. Et la simulation n'est pas en temps réel. Même lorsqu'ils se focalisent juste sur une fonction particulière (par exemple, le chimio-tactisme d'une bactérie), la quantité de variables à prendre en compt est très importante. Ce qui nécessite une grande puissance de calcul (et du temps).
Enfin, on ne peut simuler (ou copier) que quelque chose que l'on connait. Or, le fonctionnement du cerveau, ou même du neurone, n'en ai pas encore là.
Pour preuve (un papier qui a fait du bruit l'année dernière) : http://jeb.biologists.org/content/216/20/3799.full
Même si je trouve que ce papier est un peu fragile au niveau statistique (plus de cobaye aurait été mieux), le titre est révélateur : An automated training paradigm reveals long-term memory in planarians and its persistence through head regeneration
Donc, pour moi, on ne pourra dire d'une machine (ou semi-machine) qu'elle a une conscience humaine que lorsqu'on pourra définir correctement (donc en connaissant le fonctionnement du cerveau) ce qu'est la "conscience humaine".
Cela nous permettra également de comprendre peut-être "l'instinct", qui parfois guide le comportement des Hommes...
Enfin, dernier point, je ne vois pas en quoi une "conscience" informatique ne peut pas être créer SANS prendre modèle sur la conscience humaine. Cette conscience informatique sera différente de celle de l'Homme, mais cela ne veut pas dire qu'il n'y en a pas... Après tout, des animaux "inférieur" comme les fourmis, abeilles ou autre ont également une conscience, même si elle est très différente de celle de l'Homme (généralement une conscience de la colonie).
Mais ce n'est que mon avis...
Cette expérience de pensée n'avait que pour but de remettre en perspective l'affirmation qui dit : "Une machine ne peut par principe pas être intelligente, jamais aucune machine ne le sera et jamais aucun test ne permettra de vérifier avec certitude qu'une telle machine est véritablement intelligente".
L'expérience de pensée que j'ai proposé serait un tel test qui assurerait, même aux plus sceptiques, qu'une machine véritablement intelligente est possible. Mais ce test est destiné aux plus sceptiques, en ce qui me concerne j'accepterais le caractère intelligent de machines à partir du moment où elles rempliront des critères biens moins exigent que celui ci. Un test de Turing un peu corsé, où la machine est capable de tromper même des spécialistes du problème me semble déjà pas mal.
J'ai un peu de mal à lire cette phrase. C'est bien le verbe "signifier" au milieu, et le sujet du verbe "admettre" est "ceux qui contestent" ?
Si j'ai bien compris tu veux dire que "l'humanité de la machine est contraire à l'idée de subjectivité", j'ai deux points que je voudrais développer la dessus :
- Je pense qu'il vaudrait mieux remplacer le terme "humanité" par "intelligence", une machine imitant parfaitement l'humain devraient aussi imiter la totalité de ses processus biologiques et c'est un peu hors de propos pour cette discussion. Je parle plutôt d'une machine qui serait capable d'imiter parfaitement l'ensemble des comportements intelligents de l'homme.
- Je ne pense pas qu'admettre le caractère intelligent d'une machine soit contraire à l'idée de subjectivité plus qu'admettre la même chose d'un autre être humain. Si on reconnait qu'un humain autre que soi-même est tout aussi capable que nous de subjectivité, pourquoi s'interdire a priori la même chose pour une machine ?
Il me semble que si on le refuse d'emblée pour une machine c'est principalement parce qu'une machine on sait comment elle fonctionne. Hors c'est assez profondément ancré dans notre culture et dans nos esprit que l'intelligence est quelque chose de mystérieux (ce qui est vrai), on en arrive à la conclusion que quelque chose qui ne serait pas mystérieux ne pourrait pas être intelligent (ce qui est un biais cognitif). Cette tendance est encore appuyée par le flou qui existe entre les concepts d'intelligence et d'âme.
Oui, je suis assez d'accord avec ton analyse et je n'ai pas grand chose à y ajouter. Juste pour préciser un peu, je ne vais pas aussi loin qu'affirmer que ce qui ne peux faire l'objet d'un savoir n'existe pas ni même que ça doit être tu. Simplement que ce n'est pas extrêmement pertinent et n'a pas grand chose à faire au sein d'une discussion scientifique.Cette subjectivité supposée étant ce que la science doit exclure, la machine ne saurait la définir et donc la reproduire (je reprends un argument avancé plus haut).
Nous ne pourrons jamais prouver, même si l'argumentation (qui est plus "faible" qu'une "preuve") est possible, que la subjectivité existe ou pas (c'est là une impossibilité définitive - à moins que notre science ne réintègre ce qu'elle a d'abord exclu pour se constituer et se développer ; ce à quoi je ne peux croire, jusqu'à preuve du contraire): c'est pour cela que chacun d'entre nous ne peux jamais aller au delà d'un "avis personnel".
Je crois que la position de S321 s'explique ainsi :
Il me semble bien, S321, que vous acceptez , grosso modo, le critère de Turing (il n'y a pas de différence entre "being human" et "being human-like").
Cet argument est sous tendu par une certaine forme de positivisme. De manière générale, le (néo)positivisme nous dit qu'il n'y a pas lieu de supposer l'existence de quoi que ce soit au delà des phénomènes/apparences sensibles.
C'est une position parfaitement cohérente et louable (que j'adopte dans une certaine mesure): rien, au delà des apparences, ne saurait faire l'objet d'un savoir.
Caricaturalement, le premier Wittgenstein nous invite à ne pas parler d'autre chose que de ces apparences.
Une forme plus poussée du positivisme a fait un pas supplémentaire en affirmant que ce qui ne peux faire l'objet d'un savoir, non seulement doit être tu, mais - et c'est là que cette forme de positivisme bascule dans la métaphysique même qu'elle voulait éviter- plus encore : n'existe tout simplement pas.
Dans le cadre de cette discussion c'est donc la subjectivité qui serait tout simplement niée par cette forme extrême de positivisme.
Je me demande, S321, dans quelle mesure votre position ne s'inscrirait pas dans cette perspective ?
(Elle n'est d'ailleurs pas sans rappeler d'autres discussions animées, sur d'autres sujets, dans lesquelles l'interlocuteur devenu central admettait plus ou moins implicitement cette négation de la subjectivité - négation qui conduit en général à la révolte des subjectivités des répondants).
Si c'est bien le cas, puis-je vous demander, S321, ce que vous pensez de cette phrase, directement en rapport avec la question de la subjectivité : "words give you the illusion to be out from what they can say" (vous remarquerez que l'occurrence du "from" interdit toute traduction simple et parfaite en français).
Mais les sciences ne sont pas tout dans la vie non plus, l'idée de ce forum étant d'en rester à ce cadre.
Pour ce qui est de la phrase en anglais, je ne suis pas sûr de la comprendre suffisamment bien pour pouvoir me prononcer, je parle correctement anglais mais pas parfaitement et la question porte sur des subtilités.
Alors ne restes pas. Tu refuses ostensiblement de débattre et visiblement mes arguments te donnes envie de vomir. Tu n'es donc plus ici pour avoir une discussion civilisée.En tant que personne humaine et civilisé je n'affirme pas que l'on peut simuler un être humain jusqu’à le confondre au modèle sur tout les aspects. Pour ensuite nous rabâcher la même rhétorique en pensant la rendre vrai.
Ce n'ai pas à moi de démontrer le contraire car on ne démontre pas le contraire d'affirmation du genre les nounours vert existent.
De plus le fait de ne pas être d'accord avec moi ne justifie en aucun cas ton comportement totalement insultant. Tu ne peux pas nier que j'aurai tâché de rester poli malgré tes provocations, qui deviennent de plus en plus enfantines, il serait bon que cette discussion soit modérée.
Alors c'est que vous n'avez rien compris à ce que je dis. Je commence à avoir le sentiment que tu me lis en diagonale, voir pas du tout, en tout cas sans essayer de comprendre ce que j'essaie de dire. C'est possible aussi que mes propos ne soient pas très clairs, auquel cas je me ferais une joie de préciser ma pensé.
Je vais donc être très clair (enfin puisque tu ne me lis pas, je suis pas sûr que la clarté change grand chose) : J'affirme que je suis totalement persuadé du fait que les êtres humains biologiques sont des êtres intelligents et doués de conscience réfléchie.
Si le moindre de mes arguments te semble être contraire à cette dernière affirmation c'est soit que tu m'auras mal lu, soit que je me serais mal exprimé, auquel cas interroge moi sur ce que je voulais dire à ce moment là.
Voici l'exemple typique de tes posts et de ta manière d'argumenter dans cette discussion, c'est sur le même format depuis le début.
1) Un post extrêmement court d'une ou deux lignes dont le corps est une affirmation péremptoire que tu ne prend pas la peine d'expliquer ou de justifier (de fait en une seul ligne on ne peut pas justifier un argument ni détailler un raisonnement).
"Mimer une émotion (Simulation) ce n'est pas vivre une émotion (ëtre Humain)"
C'est une position très intéressante mais ça n'est pas convaincant, si je répondais sur le même model je ferais un post d'une seule ligne disant simplement "Si ! Mimer une émotion (Simulation) c'est la même chose que de vivre cette émotion (ëtre Humain)", ça me ferait gagner du temps mais ça ne servirait à rien.
2) Argument d'autorité : "cela nous en avons pris conscience, du moins manifestement une catégorie d'individu."
Visiblement donc la justification de ton affirmation c'est que c'est ce avec quoi les gens intelligents sont d'accord. Et pourquoi ils sont d'accord ? Parce que c'est évident.
3) Attaque ad hominem.
De fait ceux qui ne sont pas d'accord avec ton affirmation sont des imbéciles. Leurs arguments sont donc sans valeur du fait qu'ils sont des imbéciles.
Tes posts depuis le début sont de cette forme, jamais plus argumentés qu'en s'appuyant sur le caractère évident de la chose. Donc non, ça ne montre rien.
Même si j'étais d'accord avec ce que tu affirmes, je ne pourrais pas être d'accord avec la manière dont tu exposes ton propos, ce n'est pas une argumentation. Mais bien sûr ce n'est pas à toi d'argumenter ce que tu avances. on est sur Futura-science, c'est à dire l'endroit où la charge de la "preuve" est toujours à la charge des autres, un très bon moyen de ne jamais argumenter.
Pour information, le devoir d'argumenter son point de vu dans une discussion scientifique est à la charge de tous ceux qui ont un point de vu quel qu'il soit. De toute façons c'est d'autant plus facile d'argumenter correctement que la théorie proposée par l'autre partie est mauvaise et absurde.
Une expérience de pensée n'est intéressante que si elle est correctement posée et non bourrée de biais. Dans ton "expérience de pensée" tu ignores complètement le rôle (sûrement pas binaire) des cellules gliales, l'impact des hormones, les concentrations locales variables de certains neuromédiateurs, des métabolites, voire des produits du catabolisme cellulaire, etc. Bref c'est aussi correctement pensé que le célèbre "si ma tante en avait on l'appellerai mon oncle".
C'est une vision qui me paraît scientiste, mécaniciste naïve.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
J'ai argumenté (mais non démontrer), mais pas que moi, nous avons argumenté sur votre a-priori :
Vous nous retournez pour ne pas tenir compte de nos dire des arguments d'autorité, des attaque ad hominem et ceci en boucle.
Vous ne voulez pas lires mes Critiques et user comme argumentation qu'elles sont vide de sémantique, mais vous ne lisez pas non plus celles des autres jusqu’à l'argumentation de Karlp qui ne peut être un peu plus claire qui exprime les mêmes choses que ce qui vous à déjà était dit.
Vous postuler que l'humain se réduit un automate programmable il est donc normale que vous en inférer d'un point de vu logique que si on arrive à une simulation parfaite la simulation de ce fait sera humaine. Sauf que l'humain est fait aussi de subjectivité même si n'est pas possible de l'objectiver dans un cadre scientifique et cette subjectivité fait que l'on ne peut affirmer que humain = automate programmable.
Tous mes exemples, références sur internet , arguments que j'ai donné dénoncent ce point. Vous ne voulez les entendre c'est votre problèmes, mais user d'autre argument pour soit disant dénoncer la non argumentation. Vous gagnerez en crédibilité.
Patrick
Dernière modification par invite6754323456711 ; 09/07/2014 à 19h01.
C'est une très bonne synthèse de la situation et le prosélytisme que l'on cherche à nous imposer par la voie de l'agressivité ne fait que confirmer que l'on touche le "sore point".
Patrick
C'est l'essentiel.Ça invalide seulement l'utilisation du terme "simulation"
Ce n'est pas en transférant que vous seriez moins fautif. Et je ne pense pas que Bisebutsu ait utiliser simulation avec votre fond de penser et pas non plus l'exact même usage que vous en faites, ainsi qu'il l'illustre en parlant des effectives simulations de cellules -- donc pas des copies, juste un outil/modèle informatique et d'ailleurs très parcellaire, donc différent de l'orgininal.
Quelle confusion ? Qu'ai-je dit qui me vaille cette phrase ? Que vous fassiez un éventuel amalgame avec les autres intervenants, c'est fort de café.
Mes arguments et remarques, sans être des logorrhées, valent leur pesant propre et abouti.
Je me contente de montrer l'invalidité de certaines assertions/affirmation.
Par ailleurs l'exactitude est nécessaire pour parvenir à la rigueur logique.
Petite pierre... émotionelle.
Il existe une rare affection/pathologie appelée athymie, qui peut conduire les cas sévères à tout simplement se laisser mourir. Principal symptome sinon le fond même du problème : peu ou pas d'émotion(s) ressentie(s) par le sujet qui en est victime. Le malade cesse tout simplement de s'impliquer dans une vie au sens sociale voire dans sa survie propre au sens biologique.
On peut trouver ça c*** ou triste
Bonjour à tous
Il faut distinguer l'intelligence et la subjectivité.S321:- Je ne pense pas qu'admettre le caractère intelligent d'une machine soit contraire à l'idée de subjectivité plus qu'admettre la même chose d'un autre être humain. Si on reconnait qu'un humain autre que soi-même est tout aussi capable que nous de subjectivité, pourquoi s'interdire a priori la même chose pour une machine ?
Si nous définissons l'intelligence comme la capacité à résoudre des problèmes, alors nul ne contestera que la machine puisse être intelligente.
Notre difficulté est d'ordre a priori, parce que ce que j'appelle subjectivité est précisément ce que la science doit rejeter (: ce qui signe la singularité du désir).
Cette dernière proposition n'est toutefois qu'un postulat.
Pour vous éclairer un peu sur ce que j'entends par "subjectivité": le terme ne renvoie à aucune "substance"; il correspond à ce à quoi nous rapportons les effets observés de notre inscription dans l'ordre du langage, et plus particulièrement d'une inscription qui dépend très étroitement de la qualité des relations entretenues avec ceux par qui l'individu apprend le langage.
Si vous niez toute particularité qui serait due à la manière dont cette inscription se fait, alors vous admettez implicitement que le langage n'est qu'un outil, extérieur à la pensée qu'il permet d'exprimer. Vous admettez également que les effets de la structuration de l'affectivité (et de ce qu'elle soutient en termes de cognition, comme le désir d'apprendre par exemple) par cet apprentissage du langage peuvent être parfaitement reproduits ; et pas seulement "simulés": la simulation ne peut pas produire les mêmes effets - Vous pouvez bien sûr toujours considérer qu'on peut également simuler les effets; mais alors ils ne seront plus des "effets": c'est alors la relation de cause à effet qui ne peut être simulée.
Dans votre perspective, cette relation, considérée en elle même, n'a pas d'importance.
Dans la mienne, elle est cruciale : c'est par elle que s'élabore le "désir" (qui est un concept non scientifique).
En résumé, ce que je crois est que ceux qui s'opposent à votre hypothèse (c'est mon cas) considèrent que le désir humain est :
1) inimitable
2) qualitativement fondamental
L'exemple que propose Noir Ecaille est, à cet égard, tout à fait pertinent : pensez vous qu'une machine puisse se laisser mourir parce qu'elle souffre d'athymie ?
Une machine pourrait elle nourrir un "désir de connaître" ?
Oui, ainsi que bon nombre d'exemple qui font appel à nos expériences conscientes. L'illusion d'optique nous rappellent à quel point le cerveau peut déformer notre perception du monde : les couleurs changeantes.
Patrick
PS
Il serait bien qu'ecolami qui est à l'origine du fil puisse s'exprimer.
Bonjour,
Ca me paraît être LE point.
Arrêtez moi donc si je me trompe : vous pensez qu'un rein artificiel fonctionne comme un rein, qu'une hormone quelconque de synthèse peut être tout à fait équivalente à l'hormone naturelle qu'elle se veut remplacer, mais que quel que soit les connaissances que nous allons acquérir en biologie et autres, nous ne pourrons jamais faire un cerveau artificiel fonctionnel, ou même plus modestement, que quand bien même nous pourrions "assembler" un neurone composée des mêmes molécules qu'un neurone naturel, dans le même état, et que nous remplacions un neurone naturel par ce neurone artificiel, et bien, il ne fonctionnera pas comme le neurone qu'il remplace.
Si c'est de ça qu'il s'agit, et bien effectivement la discussion entre vous et S321 n'a que peu de chances d'aboutir à quelque chose d'autres qu'une répétition de vos positions respectives.
S'il ne s'agit pas de ça, je ne vois aucune raison pour qu'une machine ne puisse pas se laisser mourir à cause d'athymie.
Je pars du principe qu'il n'y a pas de tour de magie dans le corps humain, et donc en particulier dans un cerveau humain, et qu'il n'y a donc pas de raison pour qu'il soit à jamais impossible de comprendre les réactions chimico-physiques exactes mises en jeu et les reproduire (très grossièrement, quelque chose comme construire un être humain artificiel fonctionnel par assemblage d'atomes).
Pour insister encore, par ailleurs, si on découvre un jour les conditions exactes d'apparition de la vie sur Terre, je ne comprendrais pas qu'on me dise qu'il est impossible de créer de la vie nous même (moyennant les technologies nécessaires pour appliquer ces conditions), et donc peut être à créer artificiellement à terme une intelligence digne de ce nom
Considérer le désir humain comme inimitable, quand bien même la chimie-physique de l'ensemble serait identique, ne me paraît pas naturel.
De toute évidence, vous ne partagez pas ces idées (et je le respecte tout à fait même si je ne les partage pas, je ne peux du reste pas vous donner tort).
Malgré le nom de la section, je ne pense pas qu'il y ai de débat à proprement parler sur le sujet, puisque nos positions reposent sur une conviction de base qui est, me semble-t-il, incontestable (que l'on pense une chose ou son contraire).
Si les participants comprennent les deux points de vue mis en évidence dans le dialogue, alors il y a l'essentiel (et nul besoin d'être agressif, doit-on le rappeler).
Une hormone de synthèse a la même formule que l'hormone naturelle. C'est juste que sa synthèse se fait en labos.
Pareil : cultiver des neurones et les greffer, on sait faire.
Vous confondez copie et simulation NicoC14.
Mais reproduire un neurone fonctiennel quasi identique à l'original, si c'est interressant, cela n'a rien... D'électronique
Or à l'origine, c'était le point de départ de la discussion... Si on arrive à mimer un neurone "naturel" avec toute ces fonctions en utilisant un morceau de silice et de circuits imprimés, alors là...
Mais créer un cerveau, même identique (à la dendrite près) ne veut pas dire qu'il sera fonctionnel. Il lui faudra une impulsion de départ. Quelque chose qui lance la "machine".
Les personnes dans le coma profond ont la "machine" arrêtée ou presque. Pourtant, techniquement, celle-ci devrait repartir. Mais elle ne le fait pas toujours, ou après un certain laps de temps que les médecins n'expliquent (toujours?) pas.
Oui absolument.
Pour être bref : peut-on induire dans une machine un sentiment d'amour à l 'égard de la personne qui va lui apprendre à parler un langage équivoque, et envers qui elle éprouvera un sentiment de "dette ?
Si la réponse est "oui", alors S321 a raison.
Il me semble que la machine la plus à même de se comporter comme un humain est un humain artificiel, composé des mêmes atomes entrant en jeu dans les mêmes processus biologiques.
Je prends donc ce cas extrême comme base, ça me paraît le plus adéquat pour discuter du désir humain, qui serait inimitable.
Et ma position est donc que si l'on peut reproduire artificiellement un humain, il aura des désirs humains.
Le fait que l'humain artificiel soit composé des mêmes atomes qu'un humain naturel ne le rend pas moins artificiel, de la même façon, vous l'avez dit vous même, qu'une hormone de synthèse a la même formule que l'hormone naturelle.
Mon message précédant est une réponse à noire_ecaille, je n'ai pas pu éditer dans les temps suite à un lag imposant.
biseibutsu, j'ai conscience qu'on discutait à la base d’électronique, mais le sujet a dérivé jusque là, et je ne trouve pas mon intervention à ce point hors sujet.
D'autant que je prends le cas le plus extrême, un humain artificiel qui soit, à "l'atome près" (et même au quark, au spin et tout !) un humain naturel.
Si déjà on réfute le désir dans cet humain artificiel, alors votre être électronique n'a aucune chance.
Si on l'admet, alors on peut se demander quand il apparaît, et de combien il est possible de s'éloigner d'un humain naturel tout en conservant cette caractéristique essentielle, assez pour aller jusqu'à un cerveau électronique ?
Voila mon point.
Bonjour, Biseibutsu, Bonjour a toutrs et a tous,
Meme en admettant le neurone de silicium, et en sachant les assembler aves tous les accessoires qui vont bien, reste effectivement a lancer la machine avec ce que karlp nomme le "desir" : de vivre, de se reproduire, d'apprendre ... je ne vois dans une machine que l'athymie dont parle noir_ecaille, et aucun moyen de changer ce point, qui pour le moment au moins est "aux frontieres" de la science.Mais reproduire un neurone fonctiennel quasi identique à l'original, si c'est interressant, cela n'a rien... D'électronique
Or à l'origine, c'était le point de départ de la discussion... Si on arrive à mimer un neurone "naturel" avec toute ces fonctions en utilisant un morceau de silice et de circuits imprimés, alors là...
Mais créer un cerveau, même identique (à la dendrite près) ne veut pas dire qu'il sera fonctionnel. Il lui faudra une impulsion de départ. Quelque chose qui lance la "machine".
Les personnes dans le coma profond ont la "machine" arrêtée ou presque. Pourtant, techniquement, celle-ci devrait repartir. Mais elle ne le fait pas toujours, ou après un certain laps de temps que les médecins n'expliquent (toujours?) pas.
Il faut d'abord que les neurosciences maitrisent ce sujet (a condition que ce soit possible) pour qu'une simulation puisse fonctionner "humainement", c'est-a-dire avec la "vie-concience-intelligence". Dans ce cas, d'ailleurs, le support materiel de ladite simulation n'aurait plus tellement d'importance ... Ce qui signifie qu'a mon sens, tenter de reproduire un cerveau "en silicium" en esperant que le desir en emergera est vain : mieux vaut travailler sur ce qu'est exactement le desir ...
Amities,
Jean
Après les concepts de copie et de simulation vous faite entrer un nouveau la "reproduction" de plus qualifié "d'artificelle". Les divergences de point de vue et d'analyse reposent en grande partie sur nos interprétations différentes (et en lien avec nos grilles sensorielles) des mots. Artificiellement comment "reproduire" toute cette diversité "d’inconscient du dire" lié rien qu'aux échanges dans ce fil ?
Patrick
Bah oui vous vous trompez ;
- un rein artificiel ne fonctionne pas du tout comme un rein "naturel", la preuve il faut obligatoirement finir par greffer.
- une hormone de synthèse ne reproduit pas les mêmes effets et surtout, n'a pas les mêmes effets secondaires non plus.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff