Et si l'humain arrivait à simuler un Bot ! - Page 2
Répondre à la discussion
Page 2 sur 4 PremièrePremière 2 DernièreDernière
Affichage des résultats 31 à 60 sur 99

Et si l'humain arrivait à simuler un Bot !



  1. #31
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !


    ------

    Citation Envoyé par gillesh38 Voir le message
    il est EVIDENT que le programme peut tomber sur des questions dont il n'a pas la réponse
    Que signifie "ne pas avoir la réponse" ? As-tu personnellement la réponse à ces questions, et comment y répondrais-tu ?
    Ensuite, pose les mêmes questions à un enfant de 3 ans, et tu verra sa réaction face a des mots inconnus, c'est très instructif.
    J'ai fait l'expérience, et l'enfant, quoique ne comprenant rien, cherchait tout de même à répondre... donnant des dialogues encore plus surréalistes que ceux d'ALICE.

    Citation Envoyé par gillesh38 Voir le message
    (avec la encore une preuve expérimentale si c'etait possible, juste pour être sûr que tu ne lances pas des assertions non fondées).
    Preuve expérimentale ? Oui. Même un bot aussi con qu'Alice répond différemment à ces questions, alors qu'elle n'est pas faite pour ça, et on est à des années lumières d'un programme "pensant".

    Quand aux assertions non-fondées, c'est ta spécialité quand on parle d'IA.

    Citation Envoyé par Cendres Voir le message
    Vous êtes toujours dans "Science ludique"?
    Oui, tout à fait: la discussion est, à mon sens, hautement comique.
    Mais tu as raison, cette conversation n'est pas à sa place, et je m'excuse auprès de octanitrocubane pour avoir participé au pourrissement de son fil.
    Cendres, si tu veux séparer la conversation (ou brutalement effacer ce qui est Hors sujet, pas de soucis pour moi.)

    -----

  2. #32
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Cendres Voir le message
    Vous êtes toujours dans "Science ludique"?
    oui je trouve l'exercice précédent assez ludique, enfin moi ça me fait toujours rire

  3. #33
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Preuve expérimentale ? Oui. Même un bot aussi con qu'Alice répond différemment à ces questions, alors qu'elle n'est pas faite pour ça, et on est à des années lumières d'un programme "pensant".
    excuse moi d'insister, mais une fois enlevé la variabilité qui fait qu'elle ne répond pas toujours la même chose à la même question, avec je suppose un certain tirage aléatoire, as-tu une preuve expérimentale que ce que tu dis est vrai, c'est à dire que statistiquement l'ensemble des réponses qu'elle fait à la première est différent de l'ensemble qu'elle fait à la deuxième? si oui, merci de me la donner, avec par exemple une dizaine de tentatives pour chaque, ça devrait suffire pour voir la différence (ou pour tout autre programme que tu connais).

  4. #34
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    Ca prouve bien donc que le programme (celui-là en tout cas) a une réelle difficulté à trouver des réponses convaincantes traitant à la fois le cas ""How many words are there in this question?" et "How many words are there in this electron" ?
    Encore une fois tu utilises un programme qui n'est pas fait pour ça... et tu en tires des conclusions, ce qui est un raisonnement stupide.

    Tu peux aussi mettre tes verres et assiettes dans la machine à laver et te plaindre ensuite qu'ils sont cassés... ce sera du même niveau de réflexion.

    Faith va nous assurer qu'il y a beaucoup mieux, j'attends de voir quoi .
    Encore une fois: Déformation de mes propos
    La seule chose que j'assure, et que j'ai toujours assurer, c'est qu'il n'existe aucune preuve théorique que réaliser un meilleur programme soit impossible.

    Comme d'habitude, tu fais dire aux gens d'autres choses que ce qu'ils ont dit. C'est une astuce rhétorique assez peu subtile, et qui ne fait que mettre en valeur ton absence d'arguments.

  5. #35
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    avec je suppose un certain tirage aléatoire, as-tu une preuve expérimentale que ce que tu dis est vrai
    Tu me demandes donc une preuve expérimentale que quelque chose qui n'existe pas encore puisse être créé ? C'est ce qu'on appelle un paradoxe...

    Mais au fait, quel est ton avis, précisément ? Qu'on sache quelle est ta position claire.

  6. #36
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Tu me demandes donc une preuve expérimentale que quelque chose qui n'existe pas encore puisse être créé ? C'est ce qu'on appelle un paradoxe...
    ben non, je te demande une preuve expérimentale sur ce que tu as dit toi meme
    Citation Envoyé par Faith Voir le message
    De nos jours, en 2010, les progrès en IA et ses algorithmes divers font que le programme choisirait tout seul la réponse à donner à cette question. Sa réponse serait différente si tu lui poses la question:
    "penses tu que le gloubid du chmurk soit astridé ou pas ?"
    "combien y a-t-il de mots dans cette phrase ?"
    "1231 a 654 zipzip ?"
    en quoi la réponse est-elle différente au juste?

    et si on prend des choses un peu plus proches qui comportent par exemple le pattern "combien y a-t-il" (ou "how many" ) mais en distinguant des questions sans signification du tout (électron) et des questions tout à fait signifiantes mais que le programme ne sait pas "traiter" (nombre de mots dans la question), parce qu'il ne s'agit pas d'un probleme de "reconnaissance de pattern" mais d'un problème d'analyse sémantique, y a-t-il une différence dans les réponses faites par les programmes d'IA de 2010 ou non?

  7. #37
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    info purement factuelle et - je trouve - assez ludique : jabberwacky répond ce genre de truc :

    Do you think that the gloubid of chmurk is astred?
    I think that the bible is flawed.
    pas très bon pour le test de Turing. En revanche, pour servir de base au prochain film des Monty Pythons, je trouve qu'il pourrait être pas mal .
    (j'adore les Monty Pythons...)

  8. #38
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    ben non, je te demande une preuve expérimentale sur ce que tu as dit toi meme
    Ah... maintenant tu veux tester ma bonne foi ? OK, pas de soucis:
    Human: do you think of the gloubid is chmurk Astrid or not?
    ALICE: It depends on what you mean by thinking.
    Human: How many words are there in that sentence?
    ALICE: ALICE knows around 10000 words.
    Human: 1231 a 654 zipzip ?
    ALICE: Where are you located?

    Nous avons donc bien 3 réponses clairement différentes venant, je le rappelle d'un bot de conversation, pas d'un bot de réponse à des questions.
    Alice est là pour engager une discussion, ce qui fait de sa première réponse et de sa troisième réponse des réponse parfaitement adaptées à son objectif: créer et entretenir une discussion.

    mais d'un problème d'analyse sémantique, y a-t-il une différence dans les réponses faites par les programmes d'IA de 2010 ou non?
    Pour pouvoir répondre, encore faudrait-il que tu nous dises de quel programme tu parles.

    Citation Envoyé par gillesh38 Voir le message
    info purement factuelle et - je trouve - assez ludique : jabberwacky répond ce genre de truc :

    pas très bon pour le test de Turing.
    Et ce test montre bien que tu n'as toujours pas compris que l'outil que tu utilises (jabberwacky), n'est pas conçu pour répondre à ce genre de questions. Pas plus qu'Alice d'ailleurs.
    Utilises-tu toujours ta machine à laver le linge pour nettoyer ta vaisselle ?

  9. #39
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Ah... maintenant tu veux tester ma bonne foi ? OK, pas de soucis:
    Human: do you think of the gloubid is chmurk Astrid or not?
    ALICE: It depends on what you mean by thinking.
    Human: How many words are there in that sentence?
    ALICE: ALICE knows around 10000 words.
    Human: 1231 a 654 zipzip ?
    ALICE: Where are you located?

    Nous avons donc bien 3 réponses clairement différentes venant, je le rappelle d'un bot de conversation, pas d'un bot de réponse à des questions.
    OK, comme je n'avais pas posté au départ pour m'engager dans une querelle très précise, j'admets tout à fait qu'un truc fonctionnant avec des "reconnaissances de pattern" soit capable de différencier "How many words are there in that sentence?" de "1231 a 654 zipzip ?"

    (néanmoins toutes ces réponses restent absurdes pour un humain).

    néanmoins, ça ne reste que de la reconnaissance de pattern et ça ne répond donc pas au vrai problème, qui est la différence entre "identifier un pattern" (présence du mot "word" ou "how many") et comprendre le vrai sens de la question, c'est à dire qu'il faut compter les mots de la phrase.

    C'est bien évidemment là que se situe la différence entre un ordinateur et un humain.

    Pour éviter donc de traiter des exemples qui ne fassent appels qu'à des reconnaissance de pattern, indépendamment du sens de la question, j'avais déjà depuis plusieurs messages proposé de regarder des patterns proches , entre "how many words are there in this sentence" ? et "how many words are there in this electron"?


    y a-t-il un programme d'IA , en 2010, qui donne des réponses différentes (au sens de l'ensemble statistique des réponses possibles si il y a un outil de tirage aléatoire) à ce genre de différence ?

    (bien sûr je ne parle pas d'un programme spécifiquement écrit pour traiter juste ce cas là, mais de façon générale qui puisse faire la différence entre les deux)?

  10. #40
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    j'admets tout à fait qu'un truc fonctionnant avec des "reconnaissances de pattern" soit capable de différencier "How many words are there in that sentence?" de "1231 a 654 zipzip ?"
    Bon.

    y a-t-il un programme d'IA , en 2010, qui donne des réponses différentes à ce genre de différence ?
    Tu poses encore, volontairement, une mauvaise question.
    C'est une question à laquelle il ne m'est pas possible de répondre puisque je n'ai pas accès à l'intégralité des programme d'IA existants, et que si je me hasarde à donner une réponse tu vas jouer au même jeu que précédemment: me demander une preuve expérimentale... Tu vois, je te connais bien, maintenant.

    Il se trouve cependant, que je suis au courant d'un certain nombre de projets qui travaillent sur l'analyse sémantique de texte (j'ai d'ailleurs eu l'occasion d'en approcher des exemples assez simples quand je travaillais pour une entreprise de gestion documentaire).
    Pour cela, il définit pour chaque mot existant, un ensemble sémantique.
    A partir des ensembles sémantiques d'un électron (je parle bien de catégorie, éventuellement valuées, et non pas de mots liés. Ex: "INCLUS DANS atome" ou "LIE A électricité"), un tel outil est capable d'inférer des incohérences.

    Donc à la question inutile que tu as posée, je ne peux que répondre: je n'en ai aucune idée.
    Mais à la question utile: "Est-il possible, avec les technologies d'aujourd'hui, de créer un programme qui réponde différemment à ces deux questions ?", la réponse est: OUI.

    Si tu as des arguments valables pour contredire cette affirmation, je t'écoute. Mais il est inutile de me renvoyer le coup de "preuve expérimentale".

  11. #41
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Pour cela, il définit pour chaque mot existant, un ensemble sémantique.
    A partir des ensembles sémantiques d'un électron (je parle bien de catégorie, éventuellement valuées, et non pas de mots liés. Ex: "INCLUS DANS atome" ou "LIE A électricité"), un tel outil est capable d'inférer des incohérences.
    evidemment en principe, c'est possible, et ça peut avoir un certain succès. Mais dans tous les programmes que je connais, le bogue apparait rapidement dans des questions qui DEVRAIENT etre évidente.
    Mais à la question utile: "Est-il possible, avec les technologies d'aujourd'hui, de créer un programme qui réponde différemment à ces deux questions ?", la réponse est: OUI.

    Si tu as des arguments valables pour contredire cette affirmation, je t'écoute. Mais il est inutile de me renvoyer le coup de "preuve expérimentale".
    ben, en retour, je te poserai la question : en quoi ton affirmation est falsifiable, c'est à dire quel preuve ADMETTRAIS tu comme "valable" pour accepter que tu as tort ? si tu n'en acceptes aucune, il est évident que tu te prémunis d'avance contre le fait d'être contredit.

  12. #42
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    Mais dans tous les programmes que je connais, le bogue apparait rapidement dans des questions qui DEVRAIENT etre évidente.
    Et peux-tu nous faire la liste des programme que tu connaisses dont le but est de répondre à des questions en langue naturelle avec des réponses en langues naturelle ? Je serais curieux de connaitre cette liste (inutile de mentionner ALICE ou un autre bot de conversation, il ne font pas partie de cette catégorie)

    Citation Envoyé par gillesh38 Voir le message
    en quoi ton affirmation est falsifiable, c'est à dire quel preuve ADMETTRAIS tu comme "valable" pour accepter que tu as tort ?
    Il suffit de me montrer (démonstration, raisonnement par l'absurde, ...) en quoi les technologies sémantiques actuellement mises au point seraient incapables d'identifier une incohérence dans la phrase "combien y a-t-il de mots dans cet électron ?".
    Et je me contenterais même de l'avis éclairé d'un expert informatique de la sémantique pour le croire sur parole (enfin, avec un ou deux arguments quand même)

    Mais en fait, tu as pourtant répondu toi-même:
    Citation Envoyé par gillesh38 Voir le message
    evidemment en principe, c'est possible, et ça peut avoir un certain succès.
    L'affaire est donc réglée.

  13. #43
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Et peux-tu nous faire la liste des programmes que tu connais dont le but est de répondre à des questions en langage naturel avec des réponses en langage naturel ?
    Impressionnant le nombre d'erreurs dans cette phrase... désolé

  14. #44
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Et peux-tu nous faire la liste des programme que tu connaisses dont le but est de répondre à des questions en langue naturelle avec des réponses en langues naturelle ? Je serais curieux de connaitre cette liste (inutile de mentionner ALICE ou un autre bot de conversation, il ne font pas partie de cette catégorie)
    je ne parle effectivement que de ceux disponibles sur le net, vu que je ne vois pas comment je pourrais accéder à d'autres. Mais pourquoi tu dis qu'Alice ne fait pas de la catégorie de ceux dont le but est de répondre à des questions en langue naturelle avec des réponses en langues naturelle ?

    il fait quoi d'autre alors ?
    Il suffit de me montrer (démonstration, raisonnement par l'absurde, ...) en quoi les technologies sémantiques actuellement mises au point seraient incapables d'identifier une incohérence dans la phrase "combien y a-t-il de mots dans cet électron ?"
    dans cette phrase là, c'est évident qu'on peut toujours écrire un programme qui traite correctement un cas particulier. Je pense qu'il est impossible qu'il existe un programme qui "colle" à la représentation humaine des phrases cohérentes et incohérentes.

    J'ai déjà proposé un argument qui , à défaut d'être parfaitement mathématiquement prouvé, me semble raisonnablement acceptable.

    L'ensemble des phrases jugées cohérentes et de sens compréhensibles pour un etre humain est à la fois extremement vaste et a une topologie extremement complexe dans l'ensemble des phrases possibles (dans la mesure ou une substitution minuscule peut faire perdre totalement le sens d'une phrase) - et pire cette topologie est dépendante du contexte historique, sociologique, et dépend de tout un tas de codes implicites des interlocuteurs. Une phrase comme "tu crois que Sarko et Carla ils vont tenir longtemps ensemble ?" n'aurait eu aucun sens il y a quelques années, et ne pose aucun problème de sens aujourd'hui. Et evidemment "tu crois que Sarko et Carlos ils vont tenir longtemps ensemble ?" n'a aucun sens.

    Si je pose une question à un collègue "tu penses que l'émission gamma des microquasars est dû à l'effet Compton Inverse ?", cette question n'aura un sens que pour un nombre extrêmement restreint de gens.

    Il y a un tas de phrases dont le sens n'existe QUE dans un contexte donné : "bon alors c'est oui ou non?".

    etc, etc...

    Bref, voire le langage comme une structure purement formelle dont des règles puissent être manipulées par un "non humain" est totalement à coté de la réalité de l'emploi de ce langage. A l'inverse, une structure non-humaine générera un ensemble possible de phrases extremement vaste et egalement topologiquement complexe, mais n'ayant aucune chance de recouvrir de manière générique celui prenant sens pour un humain particulier.

    Or quand on génère des très grands ensembles combinatoires, la précision sur le VOLUME est très mauvaise, c'est la précision sur le LOGARITHME qui compte (c'est pour ça que l'entropie est une quantité logarithmique) : on peut multiplier par 10 ou 100 le volume d'un ensemble de 2^(10^23) (ordre de grandeur du nombre de combinaison d'une mole de particules), ça ne change rien à son logarithme (ça revient à négliger 1 ou 2 devant 10^23).

    Le langage pose ce genre de probleme. Parce que si le volume est "10 fois plus petit" ou "10 fois plus grand" que celui d'un etre humain, ça se voit tout de suite : dans le premier cas, 90 % des phrases humaines lui sont incompréhensibles. Dans le deuxième cas, 90 % des phrases qu'ils génère sont incorrectes. Il est assez intéressant de constater que les deux possibilités sont d'ailleurs réalisées : les logiciels de conversation se limitent à des phrases correctes , mais stéréotypées, et ne comprennent pas une partie importante des questions (volume trop faible). Les logiciels de traduction automatique traduisent à peu près tout, mais avec plein d'erreurs de langages (volume trop grand).

    Vouloir générer un volume "très proche" se heurte à la difficulté précédente : ce volume est totalement dépendant du contexte et de l'expérience humaine qu'un ordinateur ne peut pas avoir. C'est pour ça que je pense très improbable qu'on y arrive. Très improbable ne veut pas dire que je démontre mathématiquement que c'est impossible. Ca veut dire que j'accepterais de parier avec confiance sur le fait que ça ne se réalisera pas.

  15. #45
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    Mais pourquoi tu dis qu'Alice ne fait pas de la catégorie de ceux dont le but est de répondre à des questions en langue naturelle avec des réponses en langues naturelle ?

    il fait quoi d'autre alors ?
    ALICE est un agent conversationnel. Elle n'est pas là pour répondre à des questions, mais pour entretenir une conversation.
    Ainsi, répondre "Ca dépend de ce que tu entends par penser" est une très bonne réponse pour un agent conversationnel => il permet d'étendre la conversation vers un autre sujet tout en évitant de se mettre en difficulté.
    De la même manière, si tu répètes plusieurs fois la même question, c'est toi qui te comporte anormalement. Un observateur extérieur considèrerait dans ces conditions que c'est TOI le bot.

    Il y a un tas de phrases dont le sens n'existe QUE dans un contexte donné : "bon alors c'est oui ou non?".
    Plusieurs intervenants t'ont déjà expliqué que la gestion du contexte est déjà réalisée, même dans le traitement en langage naturel.
    Cet argument est donc parfaitement invalide, et tu le sais très bien.
    Pourquoi le répéter encore maintenant ?

    Parce que si le volume est "10 fois plus petit" ou "10 fois plus grand" que celui d'un etre humain, ça se voit tout de suite : dans le premier cas, 90 % des phrases humaines lui sont incompréhensibles.
    Donc on parle ici de volume, et plus de faisabilité... c'est très différent.
    Si on limite le scope des questions à un sujet bien délimité, as-tu toujours la même objection sur le volume ?

  16. #46
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    ALICE est un agent conversationnel. Elle n'est pas là pour répondre à des questions, mais pour entretenir une conversation.
    bah tu me diras en quoi c'est fondamentalement différent de " répondre à des questions en langue naturelle avec des réponses en langues naturelle ?" ou plutot, pourquoi ces programmes n'incluent pas un module performant pour répondre aux questions (c'est facile à reconnaitre, non?). Et dis moi alors si il existe des interfaces accessibles pour ces mystérieux programmes-à-répondre-aux-questions que je suis si ignorant de ne pas connaitre ?


    De la même manière, si tu répètes plusieurs fois la même question, c'est toi qui te comporte anormalement. Un observateur extérieur considèrerait dans ces conditions que c'est TOI le bot.
    chose qu'Alice ne dit pas , entre parenthèses... elle ne réagit donc pas comme un observateur humain??

    Plusieurs intervenants t'ont déjà expliqué que la gestion du contexte est déjà réalisée, même dans le traitement en langage naturel.
    Cet argument est donc parfaitement invalide, et tu le sais très bien.
    Pourquoi le répéter encore maintenant ?
    je n'ai pas dit que les ordinateurs ne traitaient pas le contexte. J'ai dit qu'ils étaient incapables de traiter l'ensemble du contexte d'un être humain, y a une légère nuance....

    Donc on parle ici de volume, et plus de faisabilité... c'est très différent.
    Si on limite le scope des questions à un sujet bien délimité, as-tu toujours la même objection sur le volume ?
    je parle de faisabilité de reconnaitre le sens du langage comme un être humain. Un ordinateur a son propre volume de réponses correctes, il n'y a bien sur pas de probleme si tu acceptes de rester à l'intérieur de ce volume. Je t'explique seulement que "limiter le scope" comme tu dis reviens à reconnaitre explicitement qu'il ne se conduit pas comme un être humain.

    Pour en revenir à la question initiale, un humain qui voudrait imiter un bot doit donc imiter un système à volume limité (par rapport à l'humain). Pour en revenir à ce qui a déclenché tout ça, je maintiens qu'il ne répondrait pas "je n'en sais rien" à "combien y a-t-il de mots dans cette phrase?".

    Plus probablement, comme les exemples le montrent, il devrait répondre "ouh la plein", ou "un certain nombre", voire effectivement "42", enfin un truc qu'un programmeur aurait imaginé de manière plausible pour traiter le cas "je sais qu'il me demande combien y a de quelque chose mais j'ai pas compris quoi".


    Bon allez je m'aperçois en écrivant que finalement c'est tout à fait possible qu'un programmeur choisisse d'écrire "je n'en sais rien" dans ce cas , donc ce que dit [C(NO2)8] n'est en fait pas impossible .

  17. #47
    Philou67

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    bah tu me diras en quoi c'est fondamentalement différent de " répondre à des questions en langue naturelle avec des réponses en langues naturelle ?"
    Je crois que l'objectif central n'est pas de répondre "en langage naturel", mais d'un coté, de faire la conversation, et de l'autre, de calculer des réponses pertinentes aux questions posées.
    Et dis moi alors si il existe des interfaces accessibles pour ces mystérieux programmes-à-répondre-aux-questions que je suis si ignorant de ne pas connaitre ?
    Wolfram|Alpha ? (en demandant "what is the Louis VIX birthday ?", j'ai obtenu la réponse que je souhaitais... mais il est vrai qu'il ne sait pas répondre à toutes mes questions).
    :'( Plus j'apprends, et plus je mesure mon ignorance

  18. #48
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Philou67 Voir le message
    Wolfram|Alpha ? (en demandant "what is the Louis VIX birthday ?", j'ai obtenu la réponse que je souhaitais...
    Louis VIX ? il a dit quoi ?

  19. #49
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    bah tu me diras en quoi c'est fondamentalement différent de " répondre à des questions en langue naturelle avec des réponses en langues naturelle ?"
    Et bien va au café avec tes collègues et regarde si la conversation qui s'organise n'est qu'une suite de questions et de réponses.
    Je ne sais pas comment ça se passe entre profs, mais entre informaticiens, quelqu'un lance un thème (foot, normes de programmation, ambiance dans l'équipe), chacun en parle plus ou moins, cite des anecdotes sur le sujet ou des informations qu'il a... Mais le nombre de questions/réponses est proche de 0.

    Ca c'est une conversation, et c'est ce qu'essaye de tenir Alice.

    ou plutot, pourquoi ces programmes n'incluent pas un module performant pour répondre aux questions
    Parce que ce n'est pas le but, et que ça coute extrêmement cher.

    chose qu'Alice ne dit pas , entre parenthèses... elle ne réagit donc pas comme un observateur humain??
    Alice non, d'autre oui.

    je n'ai pas dit que les ordinateurs ne traitaient pas le contexte. J'ai dit qu'ils étaient incapables de traiter l'ensemble du contexte d'un être humain, y a une légère nuance....
    Tout à fait.
    Tu dis donc que tout dépend du volume. Au final, tu es passé de "c'est impossible" à "ça dépend du volume". Ca me convient.
    L'affaire est close.

    Citation Envoyé par gillesh38 Voir le message
    Louis VIX ? il a dit quoi ?
    Dommage de réagir à une information pertinente par une remarque sur une faute de frappe... même si c'est effectivement amusant.

  20. #50
    Philou67

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    Louis VIX ? il a dit quoi ?
    En fait, il a bien vu ma bévue... et il a corrigé de lui même en me proposant la date de naissance de Louis IV
    Redoutablement intelligent
    :'( Plus j'apprends, et plus je mesure mon ignorance

  21. #51
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Parce que ce n'est pas le but, et que ça coute extrêmement cher.


    Alice non, d'autre oui.
    tu serais sympa de nous donner des précisions sur ces mystérieux programmes qui coûtent extrêmement chers et qui répondent bien mieux qu'Alice à des questions courantes, ça commence à ressembler à l'Arlésienne....

  22. #52
    invite765732342432
    Invité

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par gillesh38 Voir le message
    tu serais sympa de nous donner des précisions sur ces mystérieux programmes qui coûtent extrêmement chers et qui répondent bien mieux qu'Alice à des questions courantes, ça commence à ressembler à l'Arlésienne....
    Déformation de mes propos
    J'ai dit qu'intégrer des modules de ce genre couterait extrêmement cher (en achat ou en développement) et qu'en plus ce serait inutile pour Alice, car ça ne l'aiderait quasiment pas à atteindre son unique but: converser (et pas répondre à un interrogatoire).

    Citation hors contexte
    Quant à la phrase "Alice non, d'autre oui." elle répondait clairement à ta remarque concernant son manque de réaction face à une phrase répétée plusieurs fois.
    Il existe (j'ai fait l'expérience il y a plusieurs années) des bots conversationnels qui "s'énervent" si on leur répète la même phrase (allant jusqu'à l'insulte, si on insiste vraiment...)

    Citation Envoyé par Philou67 Voir le message
    En fait, il a bien vu ma bévue... et il a corrigé de lui même en me proposant la date de naissance de Louis IV
    Redoutablement intelligent
    Pas mal du tout !

  23. #53
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Philou67 Voir le message
    En fait, il a bien vu ma bévue... et il a corrigé de lui même en me proposant la date de naissance de Louis IV
    Redoutablement intelligent
    Louis IV ? c'etait ce que tu voulais?

  24. #54
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    J'ai dit qu'intégrer des modules de ce genre couterait extrêmement cher (en achat ou en développement) et qu'en plus ce serait inutile pour Alice, car ça ne l'aiderait quasiment pas à atteindre son unique but: converser (et pas répondre à un interrogatoire).
    pourquoi ce serait "extrêmement cher" par rapport à Alice , qui doit représenter un paquet d'heures de développement dans sa version actuelle, comme d'ailleurs tous les bots de conversation ? et j'ai toujours pas compris si ça existait ou pas, des logiciels qui répondent correctement à des questions genre octanitro?

  25. #55
    Philou67

    Re : Et si l'humain arrivait à simuler un Bot !

    Oui, je voulais qu'il réponde de manière intelligente à ma question, ce qu'il n'a pas su faire pour beaucoup d'autres.
    Désolé de m'être mal exprimé.
    :'( Plus j'apprends, et plus je mesure mon ignorance

  26. #56
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Faith Voir le message
    Il existe (j'ai fait l'expérience il y a plusieurs années) des bots conversationnels qui "s'énervent" si on leur répète la même phrase (allant jusqu'à l'insulte, si on insiste vraiment...)
    oui enfin c'est probablement que le programmeur avait prévu spécifiquement ce cas non? tu t'emerveilles surtout de tout ce à quoi le programmeur à pensé ! tu n'imagines pas que le bot était VRAIMENT enervé quand même ? il s'est pas mis à écrire en rouge en t'accusant d'ignorer ses propos la fois suivante par exemple ?

  27. #57
    invite8915d466

    Re : Et si l'humain arrivait à simuler un Bot !

    Citation Envoyé par Philou67 Voir le message
    Oui, je voulais qu'il réponde de manière intelligente à ma question, ce qu'il n'a pas su faire pour beaucoup d'autres.
    Désolé de m'être mal exprimé.
    bah tape louis vix sur google, il est très intelligent aussi.

    Probleme même si tu lui demandes d'enlever les XIV, ça reste dominé par le bruit de fond des interversions sur louis XIV dans les pages web .

    Pourtant le nom Vix existe (y a un(e) ecrivain(e) appelée Elisa Vix, et c'est le nom d'un village de la cote d'or avec des trouvailles archéologiques).

    J'ai fini par trouver un Louis Vix dans un recensement de Houston de 1860...

    http://files.usgwarchives.net/mn/hou...60/pg00167.txt

    tu crois que Wolfram l'aurait trouvé en lui expliquant que tu voulais VRAIMENT un Louis Vix qui aurait vécu au XIXe siecle au Texas?

  28. #58
    Philou67

    Re : Et si l'humain arrivait à simuler un Bot !

    Je crois en fait, que le programmeur a tenté d'imiter un comportement humain face à une telle situation
    (ce qui est aussi le propre d'une conversation ... animée).
    :'( Plus j'apprends, et plus je mesure mon ignorance

  29. #59
    Philou67

    Re : Et si l'humain arrivait à simuler un Bot !

    Gilles, je crois que tu n'as pas compris le genre d'intelligence que je cherchais à montrer avec Wolfram. Je ne souhaitais pas connaitre la date de naissance de Louis XIV, ni même si Louis XIV existait, je souhaitais que Wolfram associe "Louis XIV" avec "birthday", afin de me donner une information "élaborée", et non de me renvoyer vers la fiche wikipedia de Louis XIV, ou tout naturellement, on trouve sa date de naissance.
    Ainsi, ce n'est pas la taille de la base de connaissance que je souhaitais évaluer, mais sa capacité d'analyse de ma requête, et de synthétisation d'une information en réponse.
    :'( Plus j'apprends, et plus je mesure mon ignorance

  30. #60
    invitebd2b1648

    Re : Et si l'humain arrivait à simuler un Bot !

    Salut à tous !

    Alors oui vous avez pourri mon fil ! mais pas d'une manière regrettable !

    Si je pose la question à je ne sais pas quoi qui peut répondre :

    "Est-ce que SU(3) est inclue dans SU(5) ?"

    La première réponse qu'un béotien va donner (et çà se vérifie sur FS quand ils ont des couilles (métaphore évidemment désolé mesdames !)) : C'est quoi SU(3) et c'est quoi SU(5) ?

    Bref ce qu'il manque à une IA c'est la curiosité et la volonté d'enregistrer de nouvelle données dans une architecture non statique

    Est-ce qu'un Bot est capable de demander : c'est quoi çà ?

    Car çà changerait la donne en pensant qu'il y ait envie d'apprentissage ce que ne font pas tout nos confrères humains !

    Voilà mais essayé d'être ludique bon sang ! Remuez-vous quoi !

    Sinon mon sujet va ressembler à un

    Merci,

    Cordialement, sinon c'est (C8(NO2)8) sans les crochets ... enfin si mes souvenirs sont bon !

Page 2 sur 4 PremièrePremière 2 DernièreDernière

Discussions similaires

  1. Qu'est-ce que l'humain ?
    Par invited87f5626 dans le forum Éthique des sciences (archives)
    Réponses: 256
    Dernier message: 29/05/2010, 00h46
  2. Backdoor.bot
    Par invite29db0cd8 dans le forum Sécurité et malwares : désinfectez votre machine
    Réponses: 1
    Dernier message: 28/08/2009, 14h48
  3. L'humain et la nature
    Par invite1ab59cc3 dans le forum Éthique des sciences (archives)
    Réponses: 52
    Dernier message: 18/02/2009, 21h26