Une question pour le Test de Turing - Page 6
Répondre à la discussion
Page 6 sur 8 PremièrePremière 6 DernièreDernière
Affichage des résultats 151 à 180 sur 220

Une question pour le Test de Turing



  1. #151
    spi100

    Re : Une question pour le Test de Turing


    ------

    Dans le formalisme de Searl (le père du "dire c'est faire"), on décompose l'acte de langage en 3 composantes (ça rejoint exactement ce que dis mmy) :

    Locutoire : la production du language (l'écrire, le dire).
    Illocutoire: la façon de produire le message (demander, affirmer, questionner, etc)
    Perlocutoire: l'effet que l'on veut produire sur l'interlocuteur.

    Cette décomposition traduit simplement que derrière chaque acte de langage il y a une intention (la composante perlocutoire) et les moyens (composantes illocutoire et locutoire).

    -----
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  2. #152
    invite8915d466

    Re : Une question pour le Test de Turing

    d'accord, si on considère qu'agir sur le mental de son interlocuteur est une action, ok. Mais cette action n'existe justement que grâce à la structure mentale sous-jacente qui est inscrite dans les neurones humains et qui "decode" le message. Un programme ne visant qu'a "répondre correctement" au test de Turing ne se préoccupe absolument pas de reproduire cette structure mentale, prélangagière. Les robots de l'article du Monde qui boudent parce qu'on leur crie dessus n'eprouvent bien sur rien du tout : un programme leur dit juste d'aller dans un coin si ils détectent des expressions de colère, mais si on les traite d'idiots avec un grand sourire, ils ne reagiront pas (d'autant plus qu'on PEUT dans certaines circonstances traiter quelqu'un qu'on aime d'idiot avec un grand sourire , et que ça lui fasse plaisir ! ). Bref il me parait totalement illusoire de vouloir reproduire correctement l'ensemble des représentations extérieures humaines sans la structure mentale sous jacente, le problème etant que cette structure mentale sous-jacente en elle même n'a de sens que pour un organisme biologiquement humain....


    Cordialement

    Gilles

  3. #153
    Yoghourt
    Animateur Habitat

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Les robots de l'article du Monde qui boudent parce qu'on leur crie dessus n'eprouvent bien sur rien du tout
    Anthropocentrisme flagrant.
    Il y a détection multiple (collection de sensations), corrélation et création d'un état idoine (élaboration d'une "émotion"), et réaction "émotive" que nous interprétons (c'est bôôô la communication non verbale...)

    Un animal de compagnie, qui réagit surtout au ton et à l'attitude, a droit a des qualificatifs émotionnels sur sa réaction. On lui reconnait la capacité d'éprouver des émotions.
    Mais le robot, niet?
    Faut pas déconner, dans les 2 cas, on ne peut connaitre physiquement ce qu'éprouve l'autre entité. C'est purement et simplement de l'empathie anthropocentriste
    éco-rénovation: l'aïkido du BTP

  4. #154
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par Yoghourt Voir le message
    Anthropocentrisme flagrant.
    Il y a détection multiple (collection de sensations), corrélation et création d'un état idoine (élaboration d'une "émotion"), et réaction "émotive" que nous interprétons (c'est bôôô la communication non verbale...)

    Un animal de compagnie, qui réagit surtout au ton et à l'attitude, a droit a des qualificatifs émotionnels sur sa réaction. On lui reconnait la capacité d'éprouver des émotions.
    Mais le robot, niet?
    Faut pas déconner, dans les 2 cas, on ne peut connaitre physiquement ce qu'éprouve l'autre entité. C'est purement et simplement de l'empathie anthropocentriste
    pas sur de comprendre ce que tu dénonces exactement : pour moi c'est justement d'interpreter le fait que le robot aille dans un coin comme une réelle émotion qui est de l'empathie anthropocentriste ! cette réaction n'existe que pour un humain, si une araignée s'enfuit dans un coin c'est pour echapper à un prédateur, pas parce qu'elle est vexée....

    la proximité biologique avec un mammifère de compagnie et l'homme n'a aucune commune mesure avec celle avec un robot. Il y a peut etre de l'exageration dans l'interprétation anthropomorphique des réaction d'un chien, mais elle est bien plus fondée que celle des robots : les robots ne font que reproduire des illusions de comportement comme un automate, c'est tout.

    si tu munis un robot d'une queue qui remue en fonction d'un certain stimulus, est ce que ça veut dire pour toi qu'il est content comme un chien ou en colère comme un chat?

    Cordialement

    gilles

  5. #155
    Yoghourt
    Animateur Habitat

    Re : Une question pour le Test de Turing

    Il me semble tout à fait légitime de dire qu'un robot peut "bouder" et ainsi d'une certaine manière éprouver des émotions. C'est notre capacité d'empathie qui interprète un ensemble de réactions comme étant des émotions éprouvés par un autre non-humain avec lequel on communique avec force ambigüité non levée.
    Cf nintmachin-dog, tamagobidulle, furbchose dans les mains des gamins (et certains adultes).
    La légitimité d'attribuer "éprouve l'émotion E" à une entité non-humaine est tout bonnement indémontrable. Pour le démontrer, vu que rien ne prouve que les émotions humaines ont une valeur universelle, il faudrait pouvoir éprouver les émotions du chien pour savoir si la traduction est valide ou juste pratique. Une discussion avec un maitre chien ou un cours d'éducation canine est très éclairant sur le sujet.

    Si l'on reconnait une psychologie (=science comportementale) au chien, je ne vois pas pourquoi on la nierait pour le robot. Après tout, une science comportementale est juste un moyen comme un autre de modéliser et appréhender le réel.

    Bon, ok, en disant ça, je fous aux orties le test de Türing, vu que celui-ci vise à qualifier une intelligence selon des critères humains. Pour pas dire ethno-centriste... (y'a 1 siècle, un "nègre sans âme" n'aurait pas passé le test de Turing appliqué par un européen, et vice-versa)
    Dernière modification par Yoghourt ; 20/07/2007 à 15h34.
    éco-rénovation: l'aïkido du BTP

  6. #156
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par Yoghourt Voir le message
    Il me semble tout à fait légitime de dire qu'un robot peut "bouder" et ainsi d'une certaine manière éprouver des émotions. C'est notre capacité d'empathie qui interprète un ensemble de réactions comme étant des émotions éprouvés par un autre non-humain avec lequel on communique avec force ambigüité non levée.
    Cf nintmachin-dog, tamagobidulle, furbchose dans les mains des gamins (et certains adultes).
    ben en fait j'ai l'impression que tu défends deux positions contradictoires. Dans la mesure ou on ne sait absolument pas si le robot "ressent" quelque chose, en quoi est-ce légitime d'interpreter le robot qui va dans un coin comme un robot "boudant"?

    La seule chose qu'il fait, c'est de se déplacer quand il reconnait un certain pattern. Le même programme pourrait aussi bien le faire sauter en l'air quand il voit un panneau "sens interdit", ou déclencher une sirène quand il voit Sarko a la télé, comment serait-il "légitime" d'interpréter ça par un sentiment et lequel ??

    Cdt

    Gilles

  7. #157
    heyrick

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Dans la mesure ou on ne sait absolument pas si le robot "ressent" quelque chose, en quoi est-ce légitime d'interpreter le robot qui va dans un coin comme un robot "boudant"?
    De la même manière qu'il est (ou non) légitime d'interpréter les mêmes signes chez un autre homo sapiens. Seul l'égocentrisme(*) permet l'interprétation des signes exterieurs d'autrui comme étant des sentiments, des émotions, etc, par simple comparaison avec soi.
    Effectivement, il est plus facile de se comparer à un homo sapiens qu'à un renard, une sauterelle, ou une machine.

    (*)Je préfère égocentrisme à anthropocentrisme, le premier me paraissant plus juste pour le phénomène courant de comparaison avec autrui. En effet, nous connaissons généralement mieux nous-mêmes que l'ensemble des homo sapiens.
    Dernière modification par heyrick ; 20/07/2007 à 17h08.

  8. #158
    invitea54a6f54

    Re : Une question pour le Test de Turing

    Ca nous ramène à une question intérressante...

    Qu'est-ce que bouder?

    bouder c'est à mon avis, une façon de comuniquer
    -comuniquer un message par la gestuelle
    -bouder c'est comme aplaudir ou sourrir

    les codes de notre société, et la transmission culturelle nous permet de comprendre le message... mais imaginons que nous allons dans une société ou se mettre dans un coin de la pièce veut dire: J'ai bien mangé, je veux me reposer...

    le robot s'il va dans un coin pour bouder, pour l'autre civilisation ayant d'autres codes, le robot il ne boude pas, il a bien manger, et il veut se "recharcher"

    Donc la seul façon de savoir que le robot à un comportement de boudeur quand il va dans le coin c'est de connaitre sont concpteur qui l'a crée selon certaines règles sociales...

    Le robot répond aux codes de société qu'on lui programme pour pourvoir communiquer avec les individus de cette même société.

    Si vous programmez un robot pour promener votre chien... ça ne servira à rien de lui mettre la fonction: "boude dans le coin", car dés que le robot boude le chien il croit juste qu'il doit marquer son territoire dans ce coin... et finalement chaque fois que le robot boude dans un coin, le chien il pisse...

    Par contre si vous programmes un robot pour garder vos enfants... faudrait pas lui mettre la fonction: lève la patte dans le coin... parceque là le goss de 3 ans il ne vas rien comprendre...

    Finalement je dirais que si un jour l'AI existe, elle sera à l'image de son créateur, et portera les codes des son créateur...

    Faudrait un chien développeur pour programmer un AI adéquate a ce que son les chiens...

  9. #159
    Yoghourt
    Animateur Habitat

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    ben en fait j'ai l'impression que tu défends deux positions contradictoires. Dans la mesure ou on ne sait absolument pas si le robot "ressent" quelque chose, en quoi est-ce légitime d'interpreter le robot qui va dans un coin comme un robot "boudant"?
    Les 2 réponses sont valides.
    Oui, c'est légitime car suffisamment proche en termes d'observation/interaction du comportement humain correspondant. La notion d'émotion est alors plus un concept de travail (élévation du niveau d'abstraction) que son équivalent humain.
    Non, ce n'est pas légitime car...ça serait trop dérangeant d'envisager les choses sous cet angle. Après tout, on est pas des machines
    Je suppose que tu préfèreras l'argument que c'est illégitime car la réaction est systématique

    Idéalement, il faudrait objectiver ce que signifie le terme "émotion" avant de chercher à l'appliquer à une entité non-humaine, qu'elle soit vivante ou non.

    La seule chose qu'il fait, c'est de se déplacer quand il reconnait un certain pattern.
    C'est facile d'améliorer ça pour que cela dépende aussi d'un état interne et d'une part d'aléatoire. On peut aussi biaiser la réaction avec un système à relaxation afin de réduire l'ampleur de la réaction dite émotive quand le stimulus déclencheur est répété. Les concepteurs des batailles dans le seigneur des anneaux se sont éclatés avec ce genre d'algos, à ce que j'ai compris.
    Le même programme pourrait aussi bien le faire sauter en l'air quand il voit un panneau "sens interdit", ou déclencher une sirène quand il voit Sarko a la télé, comment serait-il "légitime" d'interpréter ça par un sentiment et lequel ??
    Ah, on parle plus émotion mais sentiment, c'est encore un cran au-dessus en complexité (la passion amoureuse est-elle un sentiment occidental? on pourrait proposer ça au bac de philo).
    Ce que tu décris comme comportement est une réaction systématique et a priori irrationnelle à un stimulus très ciblé et, disons, statique. Honnêtement, j'aurais plutôt tendance à parler de réaction viscérale. En fait, tout dépend de la définition qu'on assigne à "émotion" appliquée à du non-humain. In fine, à part le côté marketing, si l'utilisation de ce concept est utile au concepteur ou à l'utilisateur du robot, pourquoi pas. Sinon, je vois pas l'intérêt de s'embarrasser avec des concepts abstraits et complexes...

    Après tout, les émotions des moustiques, je m'en tape autant que celles de la clé à molette
    éco-rénovation: l'aïkido du BTP

  10. #160
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par Yoghourt Voir le message
    Les 2 réponses sont valides.
    Oui, c'est légitime car suffisamment proche en termes d'observation/interaction du comportement humain correspondant. La notion d'émotion est alors plus un concept de travail (élévation du niveau d'abstraction) que son équivalent humain.
    Ca me parait une drole de conception, mais dans la droite ligne du "culte du cargo" que je m'amuse à rappeler à chaque occasion...

    C'est pareil de dire que la mer est "en colère" quand il y a une tempête ou que le ciel est "serein" quand il fait beau, remarque : c'est une tendance naturelle de l'être humain à tout interpréter en fonction de ses sentiments, sur la base d'analogies qu'il est le seul à percevoir .

    L'IA me parait de plus en plus une forme moderne d'animisme....
    Cdt

    Gilles

  11. #161
    invitedb5bdc8a

    Re : Une question pour le Test de Turing

    cette discussion est très intéressante et prouve une chose:
    le test de Turing est une fausse bonne idée, ce n'est pas un moyen de mesurer objectivement l'intelligence.

  12. #162
    spi100

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Ca me parait une drole de conception, mais dans la droite ligne du "culte du cargo" que je m'amuse à rappeler à chaque occasion...

    C'est pareil de dire que la mer est "en colère" quand il y a une tempête ou que le ciel est "serein" quand il fait beau, remarque : c'est une tendance naturelle de l'être humain à tout interpréter en fonction de ses sentiments, sur la base d'analogies qu'il est le seul à percevoir .

    L'IA me parait de plus en plus une forme moderne d'animisme....
    Cdt

    Gilles
    Tu commences à rentrer dans le champ réthorique. Remarque que lorsque l'on commence à se moquer, c'est très souvent que l'on commence à manquer d'arguments

    Selon Piaget avant l'age de 7 ans, un enfant a une vision animiste du monde, il ne fait pas nettement la différence entre le vivant et l'inerte car pour lui tous les objets du monde qui l'entoure ont des intentions.
    Avant l'age de 4 ans, un enfant a une version égocentrique du monde, au sens où il extrapole ses connaissances et ce qu'il ressent aux personnes de son entourage. L'expérience classique est de mettre dans une pièce un enfant et une autre personne. Tu places une tablette de chocolat dans un placard. Tu fais sortir la personne de la pièce, devant l'enfant, tu changes la tablette de chocolat de place, dans un autre placard par exemple. Tu fais rentrer à nouveau la personne et tu demandes à l'enfant où à son avis la personne va aller chercher le chocolat. L'enfant montrera systématiquement la nouvelle cachette, car il est incapable de se dire que la personne n'a pas la même représentation du monde que lui, et extrapole ses connaissances à celle de la personne.

    Les humains ne naissent pas avec une faculté innée d'empathie, c'est une capacité qui se développe au cours de leur développement. Cela montre aussi que l'empathie est un niveau élevée de représentation des états internes d'un interlocuteur et que cela demande de l'apprentissage : ça ne tombe pas du ciel.
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  13. #163
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par spi100 Voir le message
    Tu commences à rentrer dans le champ réthorique. Remarque que lorsque l'on commence à se moquer, c'est très souvent que l'on commence à manquer d'arguments
    manquer d'arguments contre quelle position exactement ? .

    non ce n'etait pas de la réthorique: l'animisme est défini comme le fait de preter des sentiments aux choses sur la base de ressemblances superficielles avec les comportements humains. Si on pense qu'il suffit que les robots aient des comportements apparemment similaires (et encore quand on y réfléchis la similarité est entièrement une interprétation de notre cerveau) pour etre doués de sentiments, je ne vois pas la différence !

    le reste est interessant mais je n'ai pas tres bien saisi ce que tu voulais argumenter avec en rapport avec l'IA?

    cordialement

    Gilles

  14. #164
    spi100

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    manquer d'arguments contre quelle position exactement ? .

    non ce n'etait pas de la réthorique: l'animisme est défini comme le fait de preter des sentiments aux choses sur la base de ressemblances superficielles avec les comportements humains. Si on pense qu'il suffit que les robots aient des comportements apparemment similaires (et encore quand on y réfléchis la similarité est entièrement une interprétation de notre cerveau) pour etre doués de sentiments, je ne vois pas la différence !

    le reste est interessant mais je n'ai pas tres bien saisi ce que tu voulais argumenter avec en rapport avec l'IA?

    cordialement

    Gilles
    Je définis l'animisme différemment : c'est le fait de prêter des intentions à toutes choses. Ensuite le fait de prêter une âme, des sentiments, ou autre chose est une recherche de l'explication de ces intentions, et ça doit varier d'une culture à l'autre.

    Un adulte (non animiste de conviction) différencie les objets intentionnels (qui élaborent des plans pour atteindre des objectifs : mammifères supérieurs, etc) des objets réactifs ( les objets physiques, une plante, etc).
    Si les enfants prêtent des intentions aux objets, ça montre bien que c'est essentiellement une question d'expérience, de degré et pas uniquement de culture (dans notre société en tout cas).

    Donc on peut se poser la question de savoir s'il existe un niveau minimum de comportement intentionnel à partir duquel un adulte acceptera de projeter ses états mentaux dans un objet non humain, de la manière qu'un enfant peut parler pendant des heures avec une poupée, la serrer contre lui pour se rasurrer, etc.
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  15. #165
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par spi100 Voir le message
    Donc on peut se poser la question de savoir s'il existe un niveau minimum de comportement intentionnel à partir duquel un adulte acceptera de projeter ses états mentaux dans un objet non humain, de la manière qu'un enfant peut parler pendant des heures avec une poupée, la serrer contre lui pour se rasurrer, etc.
    ca me parait délicat de définir un "niveau minimal de comportement intentionnel" de manière non circulaire, comment mesurer le "degré" d'intentionalité justement, pour un robot par exemple.?

  16. #166
    spi100

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    ca me parait délicat de définir un "niveau minimal de comportement intentionnel" de manière non circulaire, comment mesurer le "degré" d'intentionalité justement, pour un robot par exemple.?
    L'intentionnalité, dans le cas de l'animisme, c'est l'observateur qui la projette. Dans le cas d'un robot, comme c'est le programmeur qui fixe les comportements, il doit se poser la question de savoir quels sont les comportements que doit posséder sa création ?
    Il n'est pas besoin d'aller très loin pour que le mécanisme de projection se fasse : pense à la façon dont certains parlent de leurs animaux de compagnies, les sentiments et les intentions qu'ils leurs accordent...
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  17. #167
    invite8915d466

    Re : Une question pour le Test de Turing

    On est bien d'accord que la tendance à projeter des "intentions'" humaines dans les objets est une caractéristique instinctive de l'être humain, visible dans toutes les civilisations et à tous les âges (tu parles de poupées mais que dire d'une voiture qualifiée de "nerveuse" ?). C'est plus étrange quand c'est repris dans un cadre scientifique...

    l'intention prêtée aux animaux n'est quand même pas si stupide vu la réelle proximité biologique avec les hommes, qui rend justifiable une certaine extrapolation de nos notions humaines . Cette proximité étant egalement confirmée par des études plus poussées scientifiques : ainsi un comportement de chat "apparemment aggressif" , si on l'étudie au niveau neuronal, production de neuro médiateurs, accélération du rythme cardiaque, etc.... confirmera sa proximité avec le comportement aggressif humain. Pour un robot, evidemment des qu'on va chercher dans les "causes profondes" du comportement on ne trouve plus rien de commun. Il n'y a pas d'autre diagnostic du comportement que l'apparence extérieure : branche le moteur dans l'autre sens pour le faire se rapprocher de toi au lieu de s'éloigner, tu vas te mettre à dire qu'il t'aime au lieu de de dire qu'il boude . Rien dans sa structure interne ne permet de deceler en quoi que ce soit quelque chose de commun avec le fonctionnement physiologique des sentiments humains.

    Cordialement

    Gilles

  18. #168
    spi100

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    On est bien d'accord que la tendance à projeter des "intentions'" humaines dans les objets est une caractéristique instinctive de l'être humain, visible dans toutes les civilisations et à tous les âges (tu parles de poupées mais que dire d'une voiture qualifiée de "nerveuse" ?). C'est plus étrange quand c'est repris dans un cadre scientifique...

    l'intention prêtée aux animaux n'est quand même pas si stupide vu la réelle proximité biologique avec les hommes, qui rend justifiable une certaine extrapolation de nos notions humaines . Cette proximité étant egalement confirmée par des études plus poussées scientifiques : ainsi un comportement de chat "apparemment aggressif" , si on l'étudie au niveau neuronal, production de neuro médiateurs, accélération du rythme cardiaque, etc.... confirmera sa proximité avec le comportement aggressif humain. Pour un robot, evidemment des qu'on va chercher dans les "causes profondes" du comportement on ne trouve plus rien de commun. Il n'y a pas d'autre diagnostic du comportement que l'apparence extérieure : branche le moteur dans l'autre sens pour le faire se rapprocher de toi au lieu de s'éloigner, tu vas te mettre à dire qu'il t'aime au lieu de de dire qu'il boude . Rien dans sa structure interne ne permet de deceler en quoi que ce soit quelque chose de commun avec le fonctionnement physiologique des sentiments humains.

    Cordialement

    Gilles
    Parce que tu penses sérieusement que tous les gens qui se projettent dans leur animal de compagnie, sont des neurologistes en herbe. Ils observent le comportement de leur animal et l'interprète à leur façon.
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  19. #169
    invité576543
    Invité

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    On est bien d'accord que la tendance à projeter des "intentions'" humaines dans les objets est une caractéristique instinctive de l'être humain (...) Rien dans sa structure interne ne permet de deceler en quoi que ce soit quelque chose de commun avec le fonctionnement physiologique des sentiments humains.
    C'est toujours le même problème de vocabulaire.

    Comme un pan énorme du vocabulaire comportemental et cognitif a été développé pour et par les humains, toute tentative d'extension de l'usage de ce vocabulaire au-delà de l'humain est attaquée pour anthropomorphisme ou, ici, animisme,

    Mais quelle est l'autre option? Inventer tout un vocabulaire nouveau? Comme "mettre bas" pour les animaux, et "accoucher" pour les humains? Enceinte contre gestante? Ou "il a un os dans la gueule" contre "il porte l'os à la bouche"?

    Jouer sur le vocabulaire c'est juste une manière de mettre comme axiome de base indiscutable la différence. Des fourches caudines sous lesquelles les discours sur les entités agissantes doivent s'abaisser pour éviter d'humilier les humains.

    Cordialement,
    Dernière modification par invité576543 ; 23/07/2007 à 22h19.

  20. #170
    invité576543
    Invité

    Re : Une question pour le Test de Turing

    Petite remarque au passage. Mettre bas/accoucher, enceinte/gestante, seins/mamelles, saillie/rapport sexuel, ont tous un rapport en commun, au-delà de la reproduction.

    Ce sont des fonctions animales. Il est donc important d'avoir un vocabulaire distinct entre les animaux et les humains, ça évite la confusion, non? Ca évite une terminologie qui pourrait être considérée comme dégradante, comme ravalant l'homme (la femme plutôt, ici) au rang de l'animal.

    Cordialement,

  21. #171
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par mmy Voir le message
    C'est toujours le même problème de vocabulaire.

    Comme un pan énorme du vocabulaire comportemental et cognitif a été développé pour et par les humains, toute tentative d'extension de l'usage de ce vocabulaire au-delà de l'humain est attaquée pour anthropomorphisme ou, ici, animisme,

    Mais quelle est l'autre option? Inventer tout un vocabulaire nouveau? Comme "mettre bas" pour les animaux, et "accoucher" pour les humains? Enceinte contre gestante? Ou "il a un os dans la gueule" contre "il porte l'os à la bouche"?
    Il ya une différence essentielle entre tes exemples sur les animaux et sur les robots, il me semble, et c'est de même nature que ma réponse à la question "l'homme est-il un animal"?

    Si tu définis ce qu'est une "gueule" ou "mettre bas" pour un animal, tu seras forcé de convenir que "bouche" ou "accoucher" ne représente rien de différent, à part le fait que ça concerne l'homme. Il y a la effectivement la trace du besoin que j'ai souligné sur l'autre fil, du besoin de l'homme de se distinguer de l'animal, qui n'est pas justifié par des considérations objectives.

    Si tu cherches à définir ce que c'est que "bouder" ou "avoir mal" pour un humain, tu vas le définir par un complexe de symptomes, dont le fait d'aller dans un coin n'est pas réellement nécessaire (personnellement ça m'arrive rarement) ni suffisant. On pourrait par exemple deceler sur une IRM la trace de l'activité neuronale universelle correspondant au complexe du symptome de bouderie, decouvrir l'action de certains neuromédiateurs, etc...

    Vu la proximité biologique avec les animaux, il est fort probable qu'un bon nombre de leurs comportements soit réellement en accord avec cette définition donnée "a priori" pour un bon nombre de caractères (contexte dans lequel cela se produit, réactions au niveau biologique, etc...). On peut d'ailleurs facilement interpréter des comportements animaux qui ne ressemblent pourtant pas aux humains, comme le fait d'aplatir ses oreilles pour un chat comme une marque d'aggressivité, parce que ça rentre bien dans le contexte général.

    A mon sens, il n'en est pas de même pour un robot. On ne cherche qu'a reproduire quelques traits grossiers du comportement qui n'a strictement aucune fonction et aucun sens propre pour le robot. Il est tres facile de voir que la définition choisie pour définir le sentiment humain ne s'applique pratiquement à rien dans le robot, à part la partie précise du comportement qu'on a cherché explicitement à reproduire. Dans ce cas c'est l'extension qui est injustifiée, enfin pas plus justifié que de dire qu'une poupée qui ferme les yeux quand on la couche "a sommeil".

    Cdt

    Gilles

  22. #172
    invité576543
    Invité

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Il est tres facile de voir que la définition choisie pour définir le sentiment humain ne s'applique pratiquement à rien dans le robot, à part la partie précise du comportement qu'on a cherché explicitement à reproduire. Dans ce cas c'est l'extension qui est injustifiée, enfin pas plus justifié que de dire qu'une poupée qui ferme les yeux quand on la couche "a sommeil".
    Il y a tout un continuum (1), et ta manière de gérer le vocabulaire, la discrétisation de ce continuum, consiste à prendre une frontière qui singularise l'homme, et ce en justifiant le choix par des exemples très loin de la frontière. Pour faire une image tu dis "comme 0,05 ne peut pas être interprété comme 1, l'arrondi à 1 se fera pour les nombres entre 0,9995 et 1, et tous les nombres en dessous la limite seront arrondis à 0".

    Cordialement,

    (1) Plus exactement, je ne vois aucun argument permettant de penser qu'il n'y a pas un continuum. Mais je soupçonne que le fond de la pensée de nombreux "sceptiques" sur les capacité des machines ou des animaux consiste à refuser l'idée d'un continuum.

  23. #173
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par mmy Voir le message
    Il y a tout un continuum (1), et ta manière de gérer le vocabulaire, la discrétisation de ce continuum, consiste à prendre une frontière qui singularise l'homme, et ce en justifiant le choix par des exemples très loin de la frontière. Pour faire une image tu dis "comme 0,05 ne peut pas être interprété comme 1, l'arrondi à 1 se fera pour les nombres entre 0,9995 et 1, et tous les nombres en dessous la limite seront arrondis à 0".
    a mon avis, la capacité humaine à employer le langage de façon métonymique le conduit à employer des mots dans des situations non continues justement. Par exemple, comme tout le monde, je dis que mon ordinateur "rame" ou '"plante", ce qui n'a strictement aucun rapport avec le sens premier. Peut-on dire que la chaine metonymique "rester bras ballant sans rien faire comme une plante " (homme) -> "etre planté là " (homme) -> "ne rien faire non plus donc être planté " (ordinateur) -> (par une substitution passif-> actif difficile à justifier logiquement) -> planter (ordinateur) est réellement continue ?

    en tout cas nul besoin que l'ordinateur présente des ressemblances visuelles élaborer avec quelqu'un qui ne fait rien pour utiliser le terme spontanément, et çà ne gene personne.

    il ne s'agit pas d'interdire la richesse métonymique du langage qui fait toute sa puissance, d'interdire à un écrivain d'ecrire que la mer est "démontée" ou de punir une petite fille de dire que sa poupée dort bien sur . Si ça amuse les concepteurs de dire que leur robot "boude", je n'ai rien contre.

    Ce qui me gene, c'est que le fond de l'article (et je crains beaucoup de gens) croient que ce genre de robot fait faire des progrès sur la compréhension des émotions et leur reproduction par une machine. Le seul progrès fait, c'est dans la reconnaissance d'images du visage humain (ou d'intonations dans la parole); ce qui est intéressant en soi pour certaines applications peut etre mais n'a rien à voir avec un progres dans la gestion des émotions. Le meme genre de programme peut probablement etre utilisé pour reconnaitre une couverture végétale sur une image satellite ou une forme de galaxie, sans aucun arrière fond "affectif".

    La consequence (aller dans un coin) n'a strictement aucun interet fondamental pas plus que de faire fermer les yeux à une poupée quand on détecte de façon mécanique une position horizontale n'a d'interet pour comprendre les mécanismes du sommeil. On ne sait toujours pas plus après ce robot ou avant ce qu'est une emotion, un sentiment de colère ou de joie, ni si c'est possible ou non de le programmer par un algorithme, on n'a pas avancé d'un poil vers le fonctionnement humain des émotions, seulement vers celui de la reconnaissance d'images, et encore ce n'est meme pas sur que ce soit pertinent (comme pour le jeu de dames, le même resultat peut etre obtenu avec des méthodes qui n'ont pas grand chose à voir entre elles).

    Cdt

    Gilles

  24. #174
    invite8915d466

    Re : Une question pour le Test de Turing

    je corrige "strictement aucun rapport" par "qu'un très lointain rapport" puisque justement j'en propose un

  25. #175
    invité576543
    Invité

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Ce qui me gene, c'est que le fond de l'article (...) sans aucun arrière fond "affectif".
    Même si je suis d'accord sur le fond de ce que tu cherches à exprimer, je détecte encore le problème de vocabulaire, dont le "affectif" mis entre guillemet.

    on n'a pas avancé d'un poil vers le fonctionnement humain des émotions, seulement vers celui de la reconnaissance d'images, et encore ce n'est meme pas sur que ce soit pertinent (comme pour le jeu de dames, le même resultat peut etre obtenu avec des méthodes qui n'ont pas grand chose à voir entre elles).
    Je ne suis pas d'accord avec toi. Cela fait avancer, mais très peu, ne serait-ce que justement parce que cela amène un questionnement de type nouveau sur la notion d'émotion, etc.

    Ce qui me gêne dans les positions cherchant à mettre une barrière infranchissable entre humains et autres entités agissantes est justement le refus de la possibilité "d'avancer d'un poil vers le fonctionnement humain" qu'offre les progrès techniques des machines. Je pense que l'approche introspective, qui a été la seule jusqu'à récemment, ne pouvait pas avancer d'un poil, et que les espoirs d'avancement sont dans le reverse ingeneering (la neurobiologie!) et dans les machines.

    A cause de cela, j'ai du mal à comprendre l'intérêt de dénigrer tout apport de ces techniques; tout en comprenant l'importance qu'il y a à ne pas tomber sur l'autre écueil.

    Cordialement,

  26. #176
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par mmy Voir le message
    Je ne suis pas d'accord avec toi. Cela fait avancer, mais très peu, ne serait-ce que justement parce que cela amène un questionnement de type nouveau sur la notion d'émotion, etc.
    ben je vois pas trop où .... en tout cas beaucoup moins que ce que larticle que j'ai lu laissait entendre !

    j'espere ne pas avoir donné l'impression que j'estimais que seul l'homme avait une nature "magique" lui permettant d'éprouver des émotions, d'ailleurs j'ai bien dit que l'attribution d'émotions aux mammifères ne me choquait pas outre mesure !

    je critiquais juste la présentation qui était faite du robot qui a été construit comme une avancée majeure vers la comprehension des emotions et leur implementation dans une machine. La seule chose concrète que j'y vois (je ne nie pas tout interet à la machine !) c'est dans la partie reconnaissance de contexte pour le visage et la voix. Ca peut etre utile sans référence à des émotions comme j'ai dit, puisque c'est en principe applicable à n'importe quel reconnaissance de "patron" meme non humain (je suis d'accord que l'homme utilise ce moyen pour repérer des émotions chez ses congénères mais il utilise aussi la reconnaissance de mots quand il lit un post qui l'énerve, ce qui ne veut pas dire que mon mailer qui trie les spams est "énervé" en le faisant ! (moi si !) )

    Le fait de le faire réagir en allant "bouder" dans un coin est purement cosmétique, ça n'avance strictement à rien, et c'est je pense facile à faire avec ce qu'on sait deja faire, une fois le probleme de la reconnaissance résolu.

    Cordialement

    gilles

  27. #177
    invite765732342432
    Invité

    Re : Une question pour le Test de Turing

    En provenance d'un autre fil (pour éviter le hors sujet):
    Citation Envoyé par gillesh38 Voir le message
    j'ai essayé aussi ça, c'est pareil
    Human: where are you just now?
    ALICE: Oh. I am in Oakland, California, how about you.
    Human: have you ever been in Oakland?
    ALICE: I don't think I have been there. Where is it.
    lol... Effectivement, pas très probant !

    Mais, au risque de me répéter, ALICE n'a rien à voir avec une IA. C'est un gadget amusant, démontrant l'ingéniosité des développeurs et ayant un certain nombre d'applications industrielles.

    l'algo d'Alice ne "sait" rien du tout au sens habituel de savoir
    C'est quoi le "sens habituel de savoir" ?
    Dans le programme d'Alice il y a très probablement un flag "phrase incohérente". C'est pour moi une forme de savoir.

    une mouche n'a pas un reseau neuronal suffisamment élaboré pour abriter une représentation du monde dans lequel elle se représente elle-même !
    Je vais répéter ma question: c'est quoi une (je cite) "perception correcte du monde" ?

    maintenant si tu veux appeler intelligent un comportement qui consiste à s'envoler quand elle perçoit qu'une tapette va l'écraser, alors une mouche est intelligent
    Qui a dit ça ? tu as palrlé de: "Une machine réellement intelligente au sens d'avoir une perception correcte du monde".
    Pourquoi le fait d'avoir une "perception correcte du monde" (qui reste toujours à définir) est-il indispensable à l'intelligence ?

    Ce n'est juste pas assez "intelligent" pour le but de Turing.
    Tu as toi même dit (et je suis bien d'accord là-dessus) que réussir le test de Turing n'est pas une preuve d'intelligence.

  28. #178
    invite8915d466

    Re : Une question pour le Test de Turing

    Citation Envoyé par Faith Voir le message
    En provenance d'un autre fil (pour éviter le hors sujet):

    lol... Effectivement, pas très probant !

    Mais, au risque de me répéter, ALICE n'a rien à voir avec une IA. C'est un gadget amusant, démontrant l'ingéniosité des développeurs et ayant un certain nombre d'applications industrielles.
    c'est pour ça que je dis que le test de Turing ne prouverait rien en fait sur l'intelligence, et que finalement on est donc incapable d'en donner une définition telle qu'on puisse ecrire un algorithme qui repondrait à un "cahier des charges" : ce n'est donc pas un sens algorithmique.
    C'est quoi le "sens habituel de savoir" ?
    comme pour la plupart des notions psychologiques, je ne peux pas t'en donner une définition précise, pas plus que je ne peux répondre à "c'est quoi l'amour?" ou "c'est quoi etre heureux"? je me borne à constater que le fonctionnement actuel des ordinateurs ne remplit pas les conditions pour qu'on ait envie de dire qu'ils savent de quoi ils parlent, et je pense que le mode meme de fonctionnement feront qu'ils ne les rempliront jamais, parce que le langage n'a pas de sens hors de l'ensemble des sensations biologiques sur lesquelles il s'appuie. Le sens que tu donnes aux mots est fondé sur l'ensemble historique des expériences sensibles, non langagières, auxquelles tu les associes, et cet ensemble de sensations est irreproductible dans un ordinateur qui n'a pas ton substrat biologique et ton histoire.

    Dans le programme d'Alice il y a très probablement un flag "phrase incohérente". C'est pour moi une forme de savoir.
    pas pour moi; dans ton sens, une carte du trivial pursuit "sait" la réponse à la question posée, mais pas dans le mien. ce que tu dis est d'ailleurs faux : Alice ne sait pas reconnaitre une "phrase incohérente" parce que ça voudrait dire qu'elle sait juger de la cohérence d'une phrase, ce qui veut dire qu'ellle en comprendrait le sens. Il y a juste probablement un flag de type "else", mais ça veut dire qu'elle n'a pas de réponse répertoriée : elle est incapable de savoir si c'est parce que la phrase est cohérente, mais imprévue, ou totalement incohérente. Il n'y a rien qui lui permette de faire la distinction.

    Je vais répéter ma question: c'est quoi une (je cite) "perception correcte du monde" ?

    ....
    Qui a dit ça ? tu as palrlé de: "Une machine réellement intelligente au sens d'avoir une perception correcte du monde".
    Pourquoi le fait d'avoir une "perception correcte du monde" (qui reste toujours à définir) est-il indispensable à l'intelligence ?
    même chose que pour "savoir" , il n'y a pas de définition précise, mais la notion d'intelligence est corrélée à la correction de la représentation. Ce n'est pas forcément très complexe, mais c'est suffisant pour savoir que quand tu as soif ou faim, tu dois chercher à ingérer de l'eau ou de la nourriture, tu sais où la trouver, comment la reconnaitre et l'ingérer (ce qui pourrait etre assez genant pour un robot si il croit qu'il doit faire ça par exemple!!! ), que tu saches que tu es un etre humain né de parents humains, que tu sais egalement reconnaitre, que tu identifies correctement les autres etres humains ( ce qui te permet de ne pas chercher à serrer la main à un ours ou à ne pas demander en mariage une femme peinte sur un tableau dans un musée), etc, etc... des choses qui te paraissent toutes simples mais qui demandent deja un traitement extrememement complexe de l'information !!!!

    si tu ne savais pas faire au départ tout ça, tu ne serais surement pas considéré comme un etre intelligent !!!

  29. #179
    Tilleul

    Re : Une question pour le Test de Turing

    Alors là il me semble utile de rappeler deux trois trucs :

    ALICE n'est pas faite pour gagner le jeu de Turing, elle est faite pour gagner le Loebner Prize qui s'inspire du jeu de Turing

    http://www.loebner.net/Prizef/loebner-prize.html

    Si tu veux parler avec le dernier en date qui a gagné, c'est pas ALICE qu'il faut voir, c'est jabberwacky : http://www.jabberwacky.com/

    Le Loebner prize consiste à prendre des ordinateurs et des humains anonymes puis à les faire chatter l'un après l'autre avec les joueurs qui doivent ensuite dire qui est un humain et qui est un ordinateur.

    Le jeu de Turing consiste à mettre un joueur face à un ordinateur et à un humain anonyme qu'il connait uniquement par les lettres X et Y. Le joueur s'adresse à ses deux interlocuteurs en même temps sous la forme de question du style "Dis-moi X est-ce que..." ?

    Le but de l'ordinateur est de se faire passer pour humain dans un nombre significatif de cas, le but de l'humain est de faire comprendre au joueur qui est un ordinateur et qui est un humain.

    Ce qui fait le test ce n'est pas que l'ordinateur arrive à tromper le joueur : c'est que l'ordinateur arrive à battre l'humain anonyme dans une compétition de "qui ressemble le plus à un humain".

  30. #180
    chaverondier

    Re : Une question pour le Test de Turing

    Citation Envoyé par gillesh38 Voir le message
    Je me borne à constater que le fonctionnement actuel des ordinateurs ne remplit pas les conditions pour qu'on ait envie de dire qu'ils savent de quoi ils parlent, et je pense que le mode meme de fonctionnement feront qu'ils ne les rempliront jamais, parce que le langage n'a pas de sens hors de l'ensemble des sensations biologiques sur lesquelles il s'appuie. Le sens que tu donnes aux mots est fondé sur l'ensemble historique des expériences sensibles, non langagières, auxquelles tu les associes, et cet ensemble de sensations est irreproductible dans un ordinateur qui n'a pas ton substrat biologique et ton histoire.
    Et du coup, si on reliait de façon appropriée le cerveau d'un chien (ou d'un dauphin) à un ordinateur qui serait déjà, à lui seul, capable de passer le test de Turing, n'aurait-on pas ainsi créé un spécimen approchant ou dépassant l'intelligence d'un être humain et capable de ressentir lui aussi des émotions ? Bref, le mythe de Frankenstein ne risque-t-il pas de devenir une réalité possible dans les 50 ans à venir ?

Page 6 sur 8 PremièrePremière 6 DernièreDernière

Discussions similaires

  1. Question pratique pour une T.C.C
    Par invite2d614445 dans le forum Psychologies (archives)
    Réponses: 6
    Dernier message: 05/10/2007, 23h52
  2. Test de la specificite des primers pour une ARMS PCR
    Par invite069e01b5 dans le forum Biologie
    Réponses: 0
    Dernier message: 26/04/2007, 18h05
  3. pb pour une question de DM... spé math TS
    Par invite649ca960 dans le forum Mathématiques du collège et du lycée
    Réponses: 12
    Dernier message: 09/12/2006, 16h49
  4. Question pour une alimentation à piles
    Par invite0e36b18a dans le forum Électronique
    Réponses: 2
    Dernier message: 10/06/2006, 22h35