Bonsoir,
Très simplement : si ce qui fait l'intérêt d'une conversation c'est justement de ne pas être formalisable, toute conversation avec un "bot" est inintéressante.
-----
Bonsoir,
Très simplement : si ce qui fait l'intérêt d'une conversation c'est justement de ne pas être formalisable, toute conversation avec un "bot" est inintéressante.
Derrière y'a des gars pour le faire évoluer le Bot !
Cordialement,
Juste une petite réponse en passant: Oui, il est possible de faire ça.
Il y a quelques mois, pour m'amuser un peu, j'avais fait un petit programme qui recevait des informations et cherchait des associations (rien de bien ambitieux, mais juste pour voir comment ça tournait)
Quand il ne connaissait pas un mot, il demandait à ce qu'on donne une "définition" de ce mot... définition qui comportait d'autres mots inconnus, etc... Cependant, il ajoutait quand même le mot inconnu dans sa base, en attente de plus d'infos.
C'était bien sur un programme assez simple mais qui m'amusait bien.
Bien sur, la polysémie est un problème majeur pour ce genre d'applications, un problème trop complexe pour moi, mais sur lequel de nombreuses équipes de chercheurs travaillent (notamment chez Google, qui a annoncé récemment qu'il mettrait à disposition un logiciel de traduction de paroles en direct... reste à voir l'efficacité...)
A qui doit-il le demander :
- à son interlocuteur ?
- à son programmeur ?
Si c'est à son interlocuteur, j'ai peur que ce dernier ait beaucoup de mal à lui faire comprendre, dans sa langue naturelle, de quoi il en retourne.
Un programme prolog n'indique-t-il pas qu'il ne sait pas aboutir sans règle supplémentaire lorsqu'on lui pose une question à laquelle il ne peut répondre ? (trop vieux, mes souvenirs d'école ).Car çà changerait la donne en pensant qu'il y ait envie d'apprentissage ce que ne font pas tout nos confrères humains !
:'( Plus j'apprends, et plus je mesure mon ignorance
Je pense que octanitrocubane entend par sa question l'interrogation suivante : "est-ce qu'un ordinateur peut demander : c'est quoi ça ?" sans qu'on puisse formaliser comment il en est venu à poser cette question.
Pour l'instant, la réponse est évidemment non : ce qui amènerait un ordinateur à se poser question est formalisable.
y a encore une ambiguité formidable à utiliser un vocabulaire identique pour les humains et les ordinateurs. Quand on dit "demander" pour un ordinateur , comme si c'etait la même chose que pour un humain, on fait déjà une généralisation sémantique abusive.
Ce que va faire l'ordinateur est "interprété" comme une demande par l'humain, mais ne s'accompagne absolument pas du même processus mental qui sous-tend l'action humaine. C'est l'inférence "puisqu'il ME le demande, alors il doit certainement SE le demander", qui est naturelle et correcte pour un humain, mais qui ne l'est pas pour un ordinateur. Evidemment l'ordinateur ne conceptualise pas qu'il est en train de demander quoi que ce soit...
On s'étonne ensuite que l'ordinateur ne se "conduise pas" comme un humain dans cette situation, mais c'est tout simplement l'assimilation au départ qui était extrapolée indûment. Le processus DE DEPART étant completement différent, il n'y a aucune surprise fondamentale à ce que la similitude superficielle de la "demande" soit vite limitée ....
Quand l'ordinateur "répond" que Louis XIV est né en 1638, c'est juste qu'il a trouvé de quoi associer la demande à cette information , mais il n'a aucune conceptualisation de ce qu'il vient de dire et de quoi "il parle", et sera TOTALEMENT incapable de répondre ensuite à "et c'etait dans quel pays?".
Pas si sur... le c' de c'était fait référence à la question précédente. Si on lui pose la question en lui rappelant le contexte, rien n'exclut qu'il puisse trouver une solution (ce qui n'est pas le cas de l'exemple présent avec Wolfram ; Wolfram n'étant pas un bot qui doit faire la conversation, il ne lui est pas nécessaire de conserver un contexte entre les requêtes, il est donc logique de devoir lui re-fournir à chaque nouvelle demande).Quand l'ordinateur "répond" que Louis XIV est né en 1638, c'est juste qu'il a trouvé de quoi associer la demande à cette information , mais il n'a aucune conceptualisation de ce qu'il vient de dire et de quoi "il parle", et sera TOTALEMENT incapable de répondre ensuite à "et c'etait dans quel pays?".
Edit : désolé octanitrocubane pour le HS.
:'( Plus j'apprends, et plus je mesure mon ignorance
je n'ai jamais constaté qu'aucun bot gardait le contexte des conversations qu'il tenait , c'est à dire était capable de comprendre un rappel implicite de quoi on parlait juste avant ...
que je ne comprends pas ce que Philou67 a voulu dire par
"Wolfram n'étant pas un bot qui doit faire la conversation, il ne lui est pas nécessaire de conserver un contexte entre les requêtes..."
même les bots qui doivent faire la conversation ne conservent pas de contexte entre les requêtes ! (c'est d'ailleurs un autre moyen très simple de les détecter infailliblement , suffit de demander "de quoi on parlait déjà?" )
il n'y a rien à comprendre de plus, puisque j'ai parlé de Wolfram comme bot question/réponse et non comme bot de conversation (j'ai conscience que c'est hors sujet).
Il n'y a donc rien à conclure à propos des bots de conversation, qui, selon cette définition, devraient tenir compte de l'historique des échanges.
:'( Plus j'apprends, et plus je mesure mon ignorance
Bien vu Faith... je pratique Emacs tous les jours, et je ne connaissais pas ce mode doctor.
Un exemple d'échange :
Envoyé par Emacs/M-x doctorI am the psychotherapist. Please, describe your problems. Each time
you are finished talking, type RET twice.
hello
How do you do? What brings you to see me?
hello
I believe we've introduced ourselves already.
I would appreciate it if you would tell me about your plans.
Dernière modification par Philou67 ; 10/02/2010 à 13h32.
:'( Plus j'apprends, et plus je mesure mon ignorance
toujours pareil. Si il s'agit d'aller piocher dans un buffer les phrases précédentes pour dire "et pourquoi disiez vous que XXXX" (ça m'étonnerait bien que le psy d'emacs associe un sens à ce qu'on lui dit !!) , ça ne dit rien sur la "compréhension" du sujet.Je parle de donner un sens à ce qui a été dit, c'est à dire de comprendre les références implicites provenant du sens des phrases précédentes, ce qui est très différent.
Dans tous ces "bots", c'est juste l'astuce de l'être humain qui a programmé ça en se demandant "qu'est ce que je vais bien pouvoir y mettre pour que ça fasse vrai sans que ce soit trop compliqué" qui est remarquable, en fait.
Argument sans grand intérêt car, même si on inventait un robot totalement autonome, capable de créativité et d'intelligence, tu pourrais toujours te pointer avec ton argument "oui, mais s'il est capable de tout ça, c'est uniquement grâce à l'astuce de l'être humain".
Une fois de plus, tu es parti sur une affirmation générale et manichéenne que du coup tu es obligé de nuancer (tout à l'heure sur une question de volume de données, maintenant sur "qui" gère le contexte...)
Poser des questions sur ce sujet que tu maitrises mal, plutôt que de balancer des affirmations gratuites, serait nettement plus intéressant.
absolument pas, si un robot faisait ce que je dis qu'il ne peut pas faire, c'est à dire tenir compte du sens des paroles échangées pour converser, et non pas de la reconnaissance de symboles formels (pour comprendre la différence , revoir l'exemple des ideogrammes chinois), alors je n'aurais aucune hésitation à lui reconnaitre de la vraie intelligence et à reconnaitre que ce serait une percée formidable. C'est uniquement parce que c'est évident qu'il ne fait rien de tout ça que je dis qu'il n'en a pas, et que tout ce qu'on admire n'est que la capacité d'un programmeur humain à FAIRE CROIRE qu'il en a.
Bien, tu viens de découvrir le principe de fonctionnement de ces bots conversationnels et de découvrir qu'ils ne sont pas créés pour être intelligents.
Maintenant, je répète ma question: est-ce que ça te permet de conclure d'éventuelles limitations inhérentes à l'informatique ?
A vrai dire, de ce que j'en comprend, il existe une démonstration mathématique que ton argument est en partie faux.
http://stellar.mit.edu/S/course/6/sp...ec20/lec20.pdf
en partie parce que cela traite du cas statique d'un ensemble de règles fixes. Tu pointes aussi l'évolution historique, i.e. le fait que le sens évolue. Je crois que c'est effectivement ça le vrai problème /mode privé/ c'est précisément ce que j'ai essayé de dire en pariant qu'un boot battant les humains dans un jeu de séquence de chiffre serait très difficile à trouver
Amha c'est la question la plus intéressante qui ai été (op)posée au computationalisme. Tu lis Penrose en ce moment?je vais exprimer ça autrement : imagine que tu as un dictionnaire d'ideogrammes chinois ayant des questions type et des réponses types. On t'envoie par mail des questions en chinois que tu ne comprends pas, tu dois juste "reconnaitre dans la table" les dessins et donner la réponse appropriée en renvoyant la suite de caractères ad hoc (sans rien comprendre bien sûr). Si la question n'y figure pas, tu dois répondre une phrase joker (voulant dire par exemple "désolé je ne peux pas répondre).
Ensuite tu as exactement le même jeu mais en français : tu dois aussi obeir aux mêmes règles mais cette fois tu comprends le sens des questions posées et de ce que tu réponds.
Es-tu d'accord qu'il y a une différence significative entre les deux, pour ton cerveau : par exemple, si quelqu'un te demande en sortant "alors c'etait quoi les questions?", tu es capable de lui répondre dans le deuxième cas et pas le premier.
Peux tu concevoir une différence de ce genre pour un ordinateur ?
J'aurais du relire le doc avant de m'ouvrir la trappe
Mes souvenirs sont hautement foireux, puisque ça dit précisément le contraire, i.e. que tu as probablement raison de présumer que c'est un problème difficile -NP difficile.
Suite du doc
http://stellar.mit.edu/S/course/6/sp...ec21/lec21.pdf
J'ai du mal avec les complexité d'algo quand ceux-ci acceptent un quasi-infinité de solutions.
En l'occurrence, il me semble justement que les problème NP (même NP-difficiles) sont ouverts à des solutions en temps polynomial avec un algo non-déterministe (ce qui est le propre des algo d'IA), non ?
Comme je l'ai dit plus tôt, c'est une question stupide, dans la mesure où elle interroge sur mes capacités personnelles, et pas sur la faisabilité globale.
Mais penchons nous sur le problème, de manière plus générale que mes capacités. 2 cas ont été cités:
- Chinois
- Français
Voilà qui n'est pas très équilibré pour tester une machine face à un humain.
Je propose un 3ème cas:
- la langue mathématique (de belles "phrases" mathématiques bien complexes de 5 lignes de long)
Et bien, l'ordinateur, lui aura très bien compris ce troisième cas (et pourra répondre à des question du genre "quelle est la valeur du numérateur ?", tandis que pour un français, ce ne sera pas mieux que du chinois.
au sens où tu appelles "répondre", un boulier est aussi capable de "répondre" à la question 3x4 = ?
mais tu assimiles le mot "répondre" au coté utilitaire pour l'humain. C'est à dire que tu considères que l'ordinateur a "répondu" comme un être humain simplement parce que l'information qu'il te donne a la même valeur que celle que t'aurait donné un être humain - et tu te fiches totalement de la façon dont elle a été obtenue. Il n'y a que le résultat qui est le même, du coup tu emploies le même mot, "répondre".
Il suffit de "sortir" de ce strict côté utilitaire pour voir que la manipulation du langage n'a cependant rien à voir au départ. Par exemple, après avoir posé la même question "quelle est la valeur du numérateur ?" à un humain et à un ordinateur , et obtenu la même "réponse" , correcte dans les deux cas, tu demandes après
"euh, je sais plus, rappelle moi où est le numérateur et le dénominateur"
il est évident que l'ordinateur n'a aucune réponse à te fournir (en réalité aucun moyen de comprendre ce que tu lui demandes) , alors que l'humain va forcément pouvoir te répondre et il parait impossible qu'il ait pu te répondre correctement à la première sans avoir la réponse à la deuxième !
l'analogie n'est donc que superficielle et utilitariste quand tu te restreins à l'information précise que tu voulais la premiere fois (pareil pour "la date de naissance de Louis XIV" qui n'implique absolument pas qu'il puisse te répondre ensuite à "et quel rôle il a joué dans l'histoire " ou n'importe quel truc sortant du renseignement factuel). La ressemblance entre quelques "réponses" d'un cadre limité n'implique absolument pas le recouvrement de l'ENSEMBLE des réponses possibles, si la structure sous-jacente est différente. Et c'est par comparaison de l'ensemble (statistiquement échantilloné bien sur mais un petit nombre de tests suffit) qu'on juge ou pas du caractère "humain".
Et je ne savais pas que c'etait un problème NP-difficile,merci Jiav, mais ça ne m'étonne pas du tout ...
Tu commets toujours la même erreur de n'accepter de t'adresser à un ordinateur que dans ta propre langue, alors qu'il n'est pas fait pour ça... Et de toujours en demander plus.
Tu es incapable de te concentrer sur les exemples que tu donnes et rien que là dessus. Dès qu'il y a un écueil, tu zappes vers autre chose, pour noyer le poisson.
Désolé, je ne marche pas.
L'exemple est donc:
- des phrases en Chinois, incompréhensibles par un français ou un ordi
- des phrases en Français compréhensibles par un français mais pas un ordi
- des phrases mathématiques (ou binaires, si tu préfères), compréhensibles par un ordi mais pas par un français
Explique-moi quelles conclusions tu tires sur les capacités du français et de l'ordinateur.
Tu va donc pouvoir m'expliquer comment on calcule cette complexité pour un problème qui admet une grande variété de solutions, toutes aussi valides les unes que les autres.Et je ne savais pas que c'etait un problème NP-difficile,merci Jiav, mais ça ne m'étonne pas du tout ...
Et me dire quelles conclusion on peut tirer d'une complexité NP-difficile quand l'algo de résolution est un algo non-déterministe.
Merci.
Perso c'est la discussion sur le cas infini qui me semble la plus pertinente. Non pas parce que on est de taille infini mais parce que du coup ça couvre le cas de rêgles qui évoluent comme le sens des mots qui évolue quand des locuteurs discutent. Si je comprend bien...
Non, très improbable. Même un ordi quantique n'est pas connu pour résoudre les NP-difficiles, alors qu'il pourrait résoudre des problèmes de difficulté intermédiaire comme la factorisation... avec toujours le bémol que ce n'est pas démontré mathématiquement. Si P=NP, all bets off.
Au bémol précédent s'ajoute un autre: la difficulté d'une classe est fonction de son worst case. Il n'est pas impossible que le problème soit NP-difficile mais que le cas particulier du langage humain soit "facile", d'une façon non comprise actuellement. Une chose est certaine, les bébés ont un truc pour résoudre le problème à une vitesse ahurissante.
Je pense pas qu'on l'interprète de la même manière (ce qui ne veut pas dire que je pense nécéssairement avoir la bonne interprétation). Pour moi ce que soulève Gilles rappelle la distinction que fait Penrose entre les tenants du computationalisme dur (l'esprit humain est calculable dans tous ses aspects) et les tenants du computationalisme mou (le comportement est calculable, pas la scène intérieur).
A juste titre, Penrose souligne que les deuxièmes ne devraient pas être difficile à convaincre que le comportement n'est pas complêtement calculable: il suffit que la scène intérieur ai une influence sur le comportement. Quand aux premiers, ils se heurtent au problème du zombie philosophique: s'il est possible de produire les comportements sans produire la scène intérieur, alors le computationnalisme ne dit rien sur la scène intérieur!
Or il y a pas mal d'indices neuro qui montrent que la prise de conscience est postérieur à la décision comportementale, ce qui suggère qu'on agit comme des zombies d'abord, puis qu'on prend conscience de ce qu'on a fait ensuite (notre impression consciente est l'inverse, mais il n'y a aucune nécéssité que notre impression soit juste). En ce sens, le computationnalisme est très insatisfaisant et ça me semble la meilleure critique qui y ai été opposée. Amha il manque un critère ou un concept qui permette d'identifier qu'est-ce que ça veut dire d'être conscient, indépendament du comportement.
Attention à ne pas confondre algo "probabiliste", c'est-à-dire qui fait appel au hasard, et capacité "non-déterministe", qui dans le contexte de la complexité signifie "avoir beaucoup beaucoup beaucoup de chance".
je parlais du nombre de réponses valides, et pas du nombre de réponses possibles.
Dès qu'on joue avec la langue on se retrouve confronté à un gros problème: des tas de réponses peuvent être bonnes, et il n'existe aucun moyen de dire si l'une est meilleure que les autres.
En fait, on est même dans un domaine où une réponse dont le contenu est faux pourrait très bien être une "bonne réponse"
Ex: à la question "Quelle est la date de naissance de Louis X ?", la réponse "Je ne sais pas, alors je suis allé voir sur Wikipedia et j'y ai lu le 1er avril 2005" est bonne...
Alors je me demande comment on calcule la complexité de ce genre de choses...
Sauf erreur, un problème NP-complet classique est le voyageur de commerce, qui se résout très bien en temps polynomial avec un algo "probabiliste".
Comme mes cours d'algo sont loin (et que de toute façon je n'y allais pas), pourrais-tu me rappeler la différence entre NP-difficile et NP-complet ?
Avec l'expression "complètement calculable", je suis entièrement d'accord. Sauf que les "computationalistes mous", dont je pense faire partie, parlent plutôt de "comportement approximable avec une précision aussi grande que souhaité (mais non-parfaite)"A juste titre, Penrose souligne que les deuxièmes ne devraient pas être difficile à convaincre que le comportement n'est pas complêtement calculable
Bref, j'ai l'impression que Penrose (ou son interprétation) manque sa cible.
J'interviens tardivement, et je commence par une question hors sujet
A ton avis, dans quel ordre sont arrivées les quatre propriétés le long de la lignée évolutive qui a mené aux humains?
J'imagine que 'l'animal émotif' est arrivé bien avant le reste, non?
Ou encore, si on cherchait à progresser dans le même ordre que le vivant, quelles seraient les étapes?
Bonne question... je ne saurais dire.
Je place conscient en premier, c'est sur.
Après, sans doute émotif / pensant / intelligent
Je ne pense pas que ce soit le moyen le plus simple de progresser.Ou encore, si on cherchait à progresser dans le même ordre que le vivant, quelles seraient les étapes?
Et je suis sur que c'est un moyen dangereux de progresser.
Mieux vaut avoir un robot capable d'anticiper les conséquences de ses actes avant de pouvoir "s'émouvoir". Par ailleurs, les enjeux financiers font du robot émotif le moins rentable, je crois.
Intéressant. Cela ne me semble pas évident, mais pourquoi pas...
Même remarque.Après, sans doute émotif / pensant / intelligent
Certes, mais cela ne répond pas à ma question, qui était sur un mode hypothétique.Je ne pense pas que ce soit le moyen le plus simple de progresser.
Et je suis sur que c'est un moyen dangereux de progresser.
Mieux vaut avoir un robot capable d'anticiper les conséquences de ses actes avant de pouvoir "s'émouvoir". Par ailleurs, les enjeux financiers font du robot émotif le moins rentable, je crois.
Mais la réponse serait, il me semble, de commencer à faire un bot conscient, selon l'ordre que tu proposes dans la première partie du message de réponse.
Autre point : si on admet l'ordre que tu indiques, alors il n'existe pas de preuve qu'il soit possible de faire un bot intelligent mais non conscient, ni même de bot intelligent qui ne soit pas émotif.
(Selon l'idée que les seules 'preuves' indubitables de possibilité sont éventuellement(*) ce qui existe ici et maintenant...)
Cordialement,
(*) Je ne cherche pas à affirmer que ce sont des preuves, juste qu'il n'y en a pas d'autres. Je ne cherche pas à ouvrir un débat genre vitalisme...