Intelligence artificielle - Page 16

Affichage des résultats du sondage: Les machines pourront-elles devenir intelligentes dans les 100 ans à venir?

Votants
46. Vous ne pouvez pas participer à ce sondage.
  • Oui

    31 67,39%
  • Non

    15 32,61%
Répondre à la discussion
Page 16 sur 16 PremièrePremière 16
Affichage des résultats 451 à 455 sur 455

Intelligence artificielle



  1. #451
    invite73192618

    Re : Sondage intelligence artificielle


    ------

    désolé pour le timing décousu...

    ====

    Citation Envoyé par mmy
    Citation Envoyé par Jiav
    Citation Envoyé par mmy
    Je pense que si on comprenait (ou, "quand on comprendra") la nature du traitement effectué dans cette circuiterie, on pourra faire des machines faisant un traitement de même nature et qu'il ne pourra plus être question d'analyser le comportement comme le résultat de "donner l'apparence" de "ressentir".
    Chicago 2038: après maintes investigations, les chercheurs en viennent à un consensus général selon lequel ce circuit est une mémoire qui somme les nouveaux inputs et revient lentement à une ligne de base (-42).

    Comment interprèterais-tu cela en terme de compréhension de la subjectivité?
    Pour "répondre" à ta question ("comment interprèterais-tu....), elle est mal posée. Ce n'est pas la nature (mémoire, inputs, ...) de la circuiterie qu'il faudrait interpréter, mais l'organisation fonctionnelle des circuits de prise de décision.
    Je ne suis pas sur de saisir la difference entre nature du traitement et organisation fonctionnelle des circuits, mais ma question demeure: imaginons qu'on démontre qu'un module est essentiel pour le jugement subjectif de la douleur; imaginons qu'on l'appelle ACC pour faire plaisir à Pierre Rainville; imaginons que, vu de l'exterieur de l'ACC, les outputs recus sont équivalent à une fonction mémoire un peu stupide telle que celle décrite plus haut. Imaginons meme qu'on puisse remplacer ce module sans que cela fasse de différence subjective. Qu'est-ce que cela nous dirait sur la subjectivité?

    ====

    Citation Envoyé par mmy
    Le fond de la spéculation est le suivant. J'intuite que la circuiterie du "ressentir" est toute aussi "algorithmique" que la prise de décision rationnelle. Seulement, nous ne le percevons pas comme cela par introspection. Comme l'introspection nous montre une distinction entre les deux modes (et des cas comme l'asymbolie à la douleur montre qu'il s'agit de quelque chose d'objectif), et que la prise de décision est clairement algorithmique, on peut en déduire, à tort, que le "ressentir" n'est pas algorithmique.
    Citation Envoyé par gilles38
    La distinction entre comportement rationnel et affectif sera aussi largement dépendant de tes propres normes .
    Pour ma part, j'irais jusqu'a dire que le mode de décision rationnel n'existe pas chez l'humain, et qu'il s'agit en fait d'une facon commmode (et/ou culturellement transmise) d'expliquer comment les pensées se présentent a la conscience.

    Plus précisément j'intuitionnate que les pensées cohérentes entre elles se facilitent l'accès à la conscience, ce qui aboutit à une apparence de raisonnement enchainé - sauf que l'enchainement ne serait pas logique en nature, mais basé sur la résonnance (au sens des réseaux de neurone artificiel)

    Quand l'enchainement est réellement logique, alors il n'y a pas de difference observable entre cette apparence et la réalité. Quand l'enchainement n'est pas réellement logique, alors on fait une erreur de raisonnement.

    Je crois donc que c'est la nonobstance de nos propres erreurs logiques, pourtant communes, qui nous mène à croire que le raisonnement logique est un fondement notre psychée.

    ====

    Citation Envoyé par gilles38
    A ton avis, cette machine penserait-elle au fond d'elle même qu'elle est une machine qui essaie de se faire passer pour un etre humain, ou bien penserait-elle qu'elle est VRAIMENT un etre humain?

    Ou encore ne penserait-elle en fait rien du tout ?
    Les trois cas de figure sont possibles. C'est bien ca le plus choquant! => je passe à l'autre discussion pour la suite sur le test de Turing

    ====

    Citation Envoyé par gilles38
    Citation Envoyé par spi100
    Maintenant ton propos est bien de dire qu'il n'est pas possible de reproduire le comportement d'un être humain sans en reproduire sa mécanique interne.
    C'est le probleme du "zombie" : peut-on avoir un robot qui donne exterieurement TOUTES les apparences d'un etre humain, en tenant exactement les memes conversations, mais en ne "pensant rien" à l'intérieur, en étant "vide".
    voir par exemple ici

    Il est difficile de trouver des arguments prouvant la possibilité ou l'impossibilité de ces zombies, mais un des arguments que j'ai trouvé les plus intéressants etait la réflexion que si les zombies existaient, on pourrait aussi avoir des zombies partiels , qui avaient conscience partiellement de choses tout en ne ressentant rien sur d'autres tout en ayant un comportement absolument indiscernable d'un être normal. A noter que ce n'est pas le cas de pathologies comme celle que mentionnait Mmy (l'absence de douleur) ou la personne se rend compte qu'il y a quelque chose d'anormal et donc l'exprime ! (sinon on aurait eu aucun moyen de le savoir ! )

    Ici il faut envisager une absence de sensation qui ne se traduise pas par une modification de comportement. Par exemple un daltonien qui serait quand même capable de trier des objets de couleur rouge sans les voir ! difficile à admettre non?
    Et pourtant des zombies partiels, ca existe! Je pense au phnomène de vision aveugle par exemple, o'u les personnes vont répondre correctement selon indices visuels, mais seront persuadés de répondre au hasard car aveugle (c'est pas de la psychose, c'est de la destruction massive mais incomplète des cortex visuels, V1 en particulier).

    Merci beaucoup Gilles et spi100, je n'avais encore jamais vu le blindsight comme un phénomne de 'zombie partiel' et j'ai l'impression que ce point de vue va faire avancer ma réflexion sur l'utilité de la conscience subjective

    -----
    Dernière modification par Jiav ; 09/07/2007 à 21h14.

  2. #452
    invite0e4ceef6

    Re : Sondage intelligence artificielle

    la subjectivité est faite de beaucoup d'illusion tout a fait objective, dans le sens ou percevoir un input, une information une intuitions est une fait tengible.. c'est ce que l'on nome le réel en ce qu'ilenglobe toute les part de la réalité vecu, perçue..

    les machines perçoivent et réagissent, et cette action réaction, est le shème de base de toute conscience.

    les simple touche d'un clavier des interrupteurs comme peut l'etre la peau, ou chacune nos céllule sensorielle.

    les machinnes pensent parcequ'elle perçoivent et qu'elle traite de l'information, mais elle ne pense pas pour elle-même dans un but qui leur serait propore, comme de maintenir leur propre fonctionalité en l'etat.. ce sont des machinnes crée pour traiter de l'information pour l'homme, pour ses besoins.
    elle n'ont pas d'anima propre, c'est a dire de désir qui leur soit propre, tout au plus aujourd'hui peut-on poser que certainne machinne tendent a émuler un début d'autorité de leur soi en face de besoin de l'utilisateur de leur capacité.
    quand les machinnes seront capable de dire "non" alors l'on pourras dire que celle-ci ont des buts qui diffèrent des buts qu'on leur assigne usuellement et que celle-ci tndent a une certainne autonomie quant a l'utilisation de leur propre fonction logique et pour des buts qui leur sont propres, intime.

    l'intelligence passe il me semble par cette autonomisation, par la conscience de soi en tant que sujet capable de et ayant certainne obligation quand a ses propres fonctionalité.

    peut-on imaginer des machinnes intérromptant des travaux de traitement en cours, parceque soudaiement elle doit prendre une part importante ed ce traitement pour faire une défragmentation, pour lire des MP3, ou pour simplment se mettre en veille ou faire un scan anti-virus. peut-on imaginer une machinne désirante qui réclamerais pour elle qu'on lui achète la dernière carte graphique a la mode, ou un sucroit de mémoire, ou encore un disque dur supplémentaire. et qu'en cas de refus elle refuse de faire quoique sesoit.

    ce comportement qui pose une certinne conscience de l'etat global de sa physiologie est parfaitement émulable.. le but etant simplemnt pour une machinne etant de faire en sorte d'etre toujours a l'optimum de ses capacitées et e toujours vouloir tendre vers de meilleures facultés, comme si celle-ci avait a craindre qu'on ne la remplace par une autre.

    la douleur ce n'est que cette concience-là, celle de percevoir que ses propres fonctionalité ne sont pas au top, c'est se sentir patraque, pas au top, souffrir d'un jalouse envie, faire des complexes sur soi par rapport a une norme idéale.. (tout le monde ne peux pas etre un macG5 ou un crayII, dirais-je)

    la douleur pour une machine ou un vivant n'est qu'un signal d'alerte, soit le fait qu'une norme de fonctionement normal a plu ou été dépassé, ou que l'on agit pas de la bonne façon.. les méssage de windows ou tout autre méssage d'erreur portant sur des fonctionalités sont des signaux qui pourrait etre apprenté a de la douleur.. mais toutefois le programteur prend soin, je ne sais pourquoi, de ne pas poser un :" le niveau de MA batterie est au plus bas, il serait bon que tu ME recharge".. au lieu de "le niveau de votre ordinateur sont au plus pas, pensez a les recharger"..

    or ici qui parle?? est-ce la programateur qui a conscience du faible nniveau de batterie, ou bien la machinne elle-même qui a conscience que son niveau de batterie est faible. il s'agit bien d'un fait subjectif, et qui se double d'un fait de communication vers l'utilisateur. ici le problème de perception nevient pas de la machinne, mais bien de l'idée du process en cours par le programateur qui ne juge pas utile de poser une subjectivité réelle a la machine en train de percevoir que sa jauge d'energie est en train de tendre vers zero.

    là est sans doute le problème de perception quant a la nature de la subjectivité des machines.. l'homme ne l'autorise pas a dire "je" même quand de toute évidence c'est bien elle qui prend conscience d'un fait qui lui est propre..
    après tout somme nous nous même capable de comprendre les modus opérandi de notre propre perception? tout est géré d'office depuis le le devellopement du génome par celui-ci d'abord, et puis ensuite par une instance spécialisé auquel nous n'avons que peu accès.. il y a certes beaucoup et d'enorme différence, mais il me semble que réellement les machines devrait aujourd'hui etre doté d'un "je" et ce bien que l'on sache pertinement que ce ne sont que des variable qui s'imcrémente et qu'a partir de certain niveau se déclanche des méssage d'alerte "automatiquement"

    maintenant il suffit de se pincer un peu trop fort pour voir que l'on ne peux faire de différence entre les deux phénomènes, ormis sur le fait que la machines soit d'aluminium de silice et de cuivre, et que l'homme lui soit fait de carbonne, d'acide hydroxique, de cuivre, de phosphore, de calcium etc..

    penser c'est traiter de l'information, toute la difficulté etant de bien traiter celle-ci..
    l'homme dans son propre traitement des donnés de son environement et de lui-même ne nait pas rien et totalement nu. 3.5milliard d'années d'évolution sont là derrière-lui et celui-ci nait tot équipé d'emblé pour percevoir et traiter ces information-là. certes, notre cerveau n'a pas d'apriori quand ala nature des informations, cela est un gage d'adaptabilité a tout les millieu et environement, mais celui-ci a deja toute les cellules et cablage necéssaire dans cette optique.
    notre nature est notre progrmateur, elle a façonné nos capacités, ou plutôt notre espèce c'est adapté aux modification de la nature. cela est une sacré diférence, mais somme toute au final, le constructeur et le programateur ne font qu'émuler les capacité cognitive humaine afin de parfaire notre propre fonctionalité au sein de nos sociétés au travers du traitement automatisé de certainne donnée complexe que notre cerveau est bien incapable de traité par lui-même.
    rendr autonome les machinnes c'est coupé le liens qui les font-etre une sucursalle de nos propre besoins de calculs, pour que celle-ci acquiert une propre autonomie dans la gestion de leur capcité de calcul.

    A+

  3. #453
    GillesH38a

    Re : Sondage intelligence artificielle

    Citation Envoyé par Jiav Voir le message
    Et pourtant des zombies partiels, ca existe! Je pense au phnomène de vision aveugle par exemple, o'u les personnes vont répondre correctement selon indices visuels, mais seront persuadés de répondre au hasard car aveugle (c'est pas de la psychose, c'est de la destruction massive mais incomplète des cortex visuels, V1 en particulier).

    Merci beaucoup Gilles et spi100, je n'avais encore jamais vu le blindsight comme un phénomne de 'zombie partiel' et j'ai l'impression que ce point de vue va faire avancer ma réflexion sur l'utilité de la conscience subjective
    bien sur le phénomène de la vision aveugle est abondamment discuté comme exemple de "zombies" partiels, mais est-ce vraiment l'équivalent?
    Il n'y a surement pas les mêmes performances visuelles avec ou sans conscience. Il est également courant de faire des gestes sans en avoir conscience, tu peux aussi parler du somnambulisme. Difficile de prétendre quand même qu'il n'y a strictement aucune différence décelable avec ou sans conscience (ce qui est l'hypothèse très forte du zombie).

  4. #454
    invite06fcc10b

    Re : Sondage intelligence artificielle

    Bonsoir,
    Citation Envoyé par JPL Voir le message
    Non. Ce que je voulais dire c'est qu'un hypothétique ET utilisant un moyen de communication reposant sur d'autres principes que les nôtres (par exemple les bandes colorées mobiles des octopodes dans Rama) et ayant un comportement basé sur des critères et des "valeurs" très différents des nôtres ne passerait pas le test. Inversement par téléphone et avec un bon synthétiseur vocal un programme "d'intelligence artificielle" pourrait dans l'avenir tenir la distance assez longtemps. Ce test ne prouve donc rien, ni dans un sens ni dans un autre.
    Je ne suis pas d'accord. Prendre un exemple en SF rend difficile la discussion, mais fondamentalement, si E.T. est intelligent, alors il est capable d'analyser nos valeurs et nos coutumes et s'il apprend également notre langage, il peut se faire passer pour un humain (sur l'autre fil, je demande justement que quelqu'un donne un exemple de question qui prendrait en défaut un E.T. !).
    Inversement, je ne pense pas qu'on puisse concevoir un programme d'I.A. de type zombie qui puisse passer le test de Turing en se faisant passer pour un humain, en tout cas pas face à un juge expérimenté. Si une machine réussit à passer le test, alors elle serait selon moi d'une intelligence comparable à la nôtre, notamment en ce qui concerne la capacité à résoudre des problèmes abstraits décrits par un langage.
    Et donc j'arrive à la conclusion strictement opposée : jusqu'à maintenant, malgré tous les défauts qu'il a et que je reconnais bien volontiers, le test de Turing est un outil simple pour déterminer si l'intelligence d'une entité est du niveau de la nôtre ou pas.

    Cordialement,
    Argyre

    ps : pendant que j'y suis, je voudrais féliciter tous les intervenants de ce fil, la hauteur des propos tenus me fait chaud au coeur

  5. #455
    spi100

    Re : Sondage intelligence artificielle

    Churchland dans son bouquin "le cerveau", cite le cas symétrique de la vision aveugle, si j'ai bien compris ce qu'a dit Jiav à moins que ce ne soit la même chose que ce qu'il décrit.

    Il s'agit aussi de personne ayant subi une destruction importante du cortex visuel (cécité corticale). Dans les premières semaines de leur cécité, ces personnes nient complètement qu'elles ne voient rien, elles continuent à vouloir agir comme si elles voyaient, trébuchent, tombent et trouvent sans cesse des explications à leurs échecs répétés. En un sens elles ont perdu la conscience de la vision car elles ont perdu la partie du cerveau qui gère les stimulis visuels.

    Toujours selon Churchland, on parle d'anosognosie pour l'absence de conscience de la disparition d'un système cognitif.
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

Page 16 sur 16 PremièrePremière 16

Discussions similaires

  1. Intelligence Artificielle...
    Par inviteba0a4d6e dans le forum [ARCHIVE] Philosophie
    Réponses: 445
    Dernier message: 06/11/2004, 17h38
  2. Intelligence artificielle
    Par invite68b1fbe7 dans le forum [ARCHIVE] Philosophie
    Réponses: 120
    Dernier message: 05/08/2004, 09h05
  3. Intelligence artificielle
    Par Fildomen dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 19h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 10h01