pour moi, oui, si ça peut aider à clarifier mon point de vue.Envoyé par gillesh38
-----
pour moi, oui, si ça peut aider à clarifier mon point de vue.Envoyé par gillesh38Est-ce le comportement de ma chatte relève du libre arbitre ou non?... Amicalement,
Gilles
Je n'arrive décidément pas à me faire comprendre...je n'ai jamais dit que c'était magique, juste que c'etait spécifique à notre réalité biologique ! On peut même enlever le mot "merveilleux", nous sommes juste "très complexes" (par rapport à nos propres capacités de compréhension, ce qui est somme toute parfaitement normal).Envoyé par Argyre. Nous sommes une merveilleuse machine, c'est sûr, mais il n'y a pas de magie pour autant, ce qui fait notre spécificité est complexe mais reste "calculable".
le sens que nous donnons aux mots vient de la réalité à laquelle nous les associons. Pourquoi malgré notre "intelligence" avons nous du mal à maîtriser une langue étrangère?* est ce que notre "algorithme " adulte est moins perfectionné que notre "algorithme" enfant? pourquoi alors pouvons nous plus facilement apprendre une formule mathématique?
* au fait elle parlerait quelle langue, la machine?
Parce que la place mémoire de notre cerveau est limitée. L'algorithme est le même, mais il reste moins à sa disposition. Si à l'enfant nous apprenons plusieurs langues dès le départ, il peut construire une structure de pensée plus efficace pour stocker plusieurs langues. Sinon, la structure est crée pour la langue et la place mémoire est utilisée à autre chose.Envoyé par gillesh38le sens que nous donnons aux mots vient de la réalité à laquelle nous les associons. Pourquoi malgré notre "intelligence" avons nous du mal à maîtriser une langue étrangère?* est ce que notre "algorithme " adulte est moins perfectionné que notre "algorithme" enfant? pourquoi alors pouvons nous plus facilement apprendre une formule mathématique?
* au fait elle parlerait quelle langue, la machine?
Les mathématiques, par leur nature abstraite et apparement sans intérêt "parlent" plus à un esprit mur, qui a déjà compilé beaucoup d'information sous une forme abstraite justement. Les gens jeunes qui ont des facilités en mathématiques trouvent souvent les maths 'belles' et attrayantes et n'ont pas besoin d'autre motivation pour apprendre (en particulier pas de savoir à quoi ça sert).
* La machine parlera de même la ou les langues qu'elle aura apprises. Pourquoi serait-ce différent ?
J'ai l'impression que les progrès récents en neurobio ne vont pas dans ce sens-là. Il me semble, comme je l'ai écrit dans un autre poste, que les mécanismes de mémoire à long terme ne sont pas les mêmes. L'apprentissage d'une langue par un adulte suivrait des méthodes totalement différentes...Envoyé par pi-r2Parce que la place mémoire de notre cerveau est limitée. L'algorithme est le même, mais il reste moins à sa disposition. Si à l'enfant nous apprenons plusieurs langues dès le départ, il peut construire une structure de pensée plus efficace pour stocker plusieurs langues. Sinon, la structure est crée pour la langue et la place mémoire est utilisée à autre chose.
La question de Gilles est pertinente, il me semble, et mérite une meilleure réponse.* La machine parlera de même la ou les langues qu'elle aura apprises. Pourquoi serait-ce différent ?
Les machines parlent déjà entre elles, et le langage utilisé est structurellement très différent des langages humains. Il est parfaitement concevable que les machines ne parlent jamais une langue humaine "totalement", mais juste la sous-partie correspondant à l'expérience commune entre la machine et l'humain. Une langue moins riche que l'humaine, et moins riche que la langue machine-machine.
Cordialement,
Désolé, je conteste cette interprétation. Je pense qu'un adulte est plus performant dans l'apprentissage d'une langue qu'un enfant. D'ailleurs, un adulte peut se débrouiller en quelques semaines d'apprentissage intensif, alors que ce n'est pas le cas de l'enfant.Envoyé par gillesh38le sens que nous donnons aux mots vient de la réalité à laquelle nous les associons. Pourquoi malgré notre "intelligence" avons nous du mal à maîtriser une langue étrangère?* est ce que notre "algorithme " adulte est moins perfectionné que notre "algorithme" enfant? pourquoi alors pouvons nous plus facilement apprendre une formule mathématique?
* au fait elle parlerait quelle langue, la machine?
Le problème n'est pas là. Le problème, c'est que l'adulte a déjà appris une langue, il a donc mémorisé tout un tas de mécanismes syntaxiques ainsi que des associations de sons à des syllabes. Si on ne le corrige pas de façon systématique à chacune de ses erreurs, il mémorise ses erreurs et il est difficile de procéder à des adaptations tardives. En revanche, le cerveau vierge de langage d'un enfant ne peut pas faire de telles erreurs, il mémorise donc correctement ce qu'il peut mémoriser.
Quand à la machine, elle parlerait la langue qu'on veut bien lui apprendre !
J'espère que tu as remarqué que nous disons la même chose !Envoyé par mmyJ'ai l'impression que les progrès récents en neurobio ne vont pas dans ce sens-là. Il me semble, comme je l'ai écrit dans un autre poste, que les mécanismes de mémoire à long terme ne sont pas les mêmes. L'apprentissage d'une langue par un adulte suivrait des méthodes totalement différentes...
Cordialement,
en tous cas, nous ne parlons pas la même langue.
Se débrouiller oui, bien parler non. Et pas que pour les langues.Envoyé par ArgyreDésolé, je conteste cette interprétation. Je pense qu'un adulte est plus performant dans l'apprentissage d'une langue qu'un enfant. D'ailleurs, un adulte peut se débrouiller en quelques semaines d'apprentissage intensif, alors que ce n'est pas le cas de l'enfant.
Je me suis mis au piano tard, vers 30 ans, en même temps que mes enfants qui jouaient de la flûte et du violon a 7 et 8 ans.
J'ai progressé plus vite qu'eux les deux premières années, mais après...
Je n'ai pas bien saisi comment apprendre à une machine des mots du genre "Désolé", "conteste" ," interprétation", " adulte" , "performant" ....Quand à la machine, elle parlerait la langue qu'on veut bien lui apprendre !
pour le libre arbitre des chats, c'est intéressant, parce que Michel avait proposé une définition "café du commerce" le restreignant aux humains...ça donne envie de préciser...un crocodile qui surveille une proie et décide sans raison apparente d'attaquer, exerce-t-il son libre arbitre?
Pour le traitement automatique du langage, il y a deux grandes catégories de techniques.
Les techniques statistiques, basées sur la notion de fréquence et de corrélation entre mots. Ca correspond un peu à la façon dont un enfant apprend une langue. On utilisera par exemple un perceptron pour classer des textes par sujet. Le réseau neuronal ne sait pas analyser le texte, mais a appris à corréler certains mots caractéristiques avec le sujet du texte. Un tel programme peut être sensible au style d'un texte.
Les techniques structurelles, basées sur la notion d'analyse grammaticale. Cette dernière méthode correspond plus à la façon dont un adulte appréhende le langage. On commence par faire une lématisation, i.e. on désambiguise le texte en passant de gros dicos qui cherchent des synonymes et les remplacent par un terme canonique. On passe ensuite un parseur qui va déterminer la structure grammaticale des phrases : récupération des sujets, verbes, COD, etc . Avec ces éléments, on cherche alors à construire un réseau sémantique du texte (on extrait une ontologie), et l'on réalise des manipulations directement sur le graphe, ou alors on cherche à le mettre en relation avec un autre graphe dont le sens est bien connu.
Dernière modification par spi100 ; 09/10/2005 à 21h41.
evidemment , dans aucune de ces méthodes, il n'y a d'association avec une perception sensorielle. L'association des mots est donc purement formelle....
Bah, finalement, les gens produisent tellement de phrases toutes faites qu'effectivement, on peut ne pas voir la différence....
Le 17 juillet 2035, le miracle arriva enfin : les radio télescopes installés sur la Lune reçurent un message radio qui ne pouvait être que d'origine extraterrestre; le message commençait par une suite de bips courts transcrivant les premiers nombres premiers avec des bips longs comme séparateurs: ti ti ta ti ti ti ta ti ti ti ti ti ta....
puis venaient des suites de ti et de ta incompréhensibles. Les meilleurs ordinateurs (avec une capacité de calcul de plusieurs Pflops) analysèrent les suites de ti et de ta. Ils repérèrent des régularités, une syntaxe, des corrélations. Au bout de quelques mois, ils étaient capables de reconnaître des mots, des règles d'emplois, de syntaxe, et même d'engendrer des phrases correctes. Mais personne n'avait bien sûr la moindre idée de ce que cela voulait dire ...
En TALN, il faut bien comprendre ce que c'est que comprendre un texte.
Une ontologie est un dictionnaire de mots, indiquant le sens et les relations qui existent entre eux. Par exemple, des cas particuliers d'ontologies sont la taxonomie et le thésaurus. La taxonomie est une classification hierarchique : un oiseau est un vértébré, parmi les vertébrés il y a les ovipares et les manifères, l'oiseau est un ovipare, etc. Le thésaurus indique des relations entre domaines, par exemple : "son" voir musique, et traitement du signal.
On définit des hierarchies entre les ontologies.
L'ontologie physique qui décrit l'ensemble des concepts primaires liés au sensible : la couleur, le chaud, le froid, ce qui est lourd, léger, la matière est composée d'atomes, les atomes de particules, etc.
Cette ontologie va permettre de fabriquer une nouvelle ontologie, permettant par exemple de décrire ton environnement, ton travail, et ainsi de suite.
Comprendre le sens d'un texte, c'est donc être capable de le mettre en relation avec une ontologie définie. Dans ce que tu décris il s'agira de placer la phrase dans une ontologie physique.
Effectivement on est plus dans une démarche logique, dans le sens où on ne s'occupe que des relations entre mots et concepts, mais ces relations suffisent pour s'en sortir dans la majorité des cas pratiques.
Dernière modification par spi100 ; 09/10/2005 à 22h14.
Désolé j'avais mal compris "l'algorithme est le même".Envoyé par pi-r2J'espère que tu as remarqué que nous disons la même chose !
en tous cas, nous ne parlons pas la même langue.
Cordialement,
Proposition de nouveau fil: Que suggériez-vous comme message à diffuser vers les E.T.?Envoyé par gillesh38Le 17 juillet 2035 (...) Mais personne n'avait bien sûr la moindre idée de ce que cela voulait dire ...
Il y a eu ces plaques sur les sondes Pioneer et autres, cela fait un début...
Cordialement,
Bonsoir,Envoyé par spi100Une ontologie est un dictionnaire de mots
Qu'est ce que c'est que cette malversation? Je préfère encore les sigles imprononçable à ce type d'emprunt... Je sais bien que la philo n'est plus à la mode, et sûrement loin des considérations des talnistes, mais quand même...
Cordialement,
Michel
Bonsoir,Envoyé par spi100En TALN, il faut bien comprendre ce que c'est que comprendre un texte. (...)
Si comprendre un texte, c'est une relation uniquement entre mots, alors je comprend ce qu'est comprendre un texte différement quand cela s'applique à moi...
C'est une approche fort limitée de la sémantique, il me semble. Et j'imagine limitée en applications?
Quel est le but, la traduction automatique, l'exécution d'ordres, gloser sur des textes écrits par des humains?
Cordialement,
On pourrait dire la même chose pour des enfants de 2 ans : comment leur faire comprendre de tels mots ? Et on peut rajouter, "plaisir", "bonheur", "intuition", etc etc.Envoyé par gillesh38Je n'ai pas bien saisi comment apprendre à une machine des mots du genre "Désolé", "conteste" ," interprétation", " adulte" , "performant" ....
Au passage, comment un enfant de 2 ans a-t-il appris le concept "aimer" ?
C'est la même chose pour les ordinateurs. Tant qu'on est dans les techniques qui ne font pas d'apprentissage par l'expérience, on en restera à ce que sait faire un enfant de 2 ans, ou alors en simplifiant à l'extrême, de sorte qu'il n'y aura pas vraiment de "compréhension" du concept utilisé.
Si en revanche on parvient à copier l'apprentissage par l'expérience, alors on verra l'ordinateur apprendre comme un enfant. Au début, il ne fait qu'associer, sans véritable compréhension, puis lorsqu'il pavient à généraliser, à rattacher tout un tas d'expériences à un concept, alors il parvient à abstraire et de plus en plus jusqu'à conceptualiser comme un adulte.
En fait, en quoi cet apprentissage est-il inconcevable pour une machine ?
Bonjour,Envoyé par ArgyreOn pourrait dire la même chose pour des enfants de 2 ans : comment leur faire comprendre de tels mots ? Et on peut rajouter, "plaisir", "bonheur", "intuition", etc etc.
Au passage, comment un enfant de 2 ans a-t-il appris le concept "aimer" ?
C'est la même chose pour les ordinateurs. (...)
En fait, en quoi cet apprentissage est-il inconcevable pour une machine ?
Le problème qu'a soulevé Gilles pas mal de fois est que l'apprentissage d'un enfant est basé sur plusieurs particularités qui sont difficiles à imgainer dans une machine. Principalement, une expérience physiologique commune avec le reste de l'humanité, et une disposition génétique à apprendre d'une certaine manière.
Beaucoup de termes cités sont introspectifs; ils ne concernent pas quelque chose de tangible, montrable. L'apprentissage se fait par corrélation avec la perception de soi-même.
On peut imaginer une compréhension "extérieure" pour une machine, corrélant les usages des mots et le comportement extérieur des humains mais ce n'est pas la même chose.
A moins d'imaginer une virtualisation complète (un réel simulé de manière à ce que la machine percoivent ce réel d'un point de vue humain), ou d'un androïde cherchant à imiter tous les aspects de la vie humaine, toutes fonctions biologiques incluses, et de reproduire les modes d'apprentissage selon le plan génétique de l'humain, il est très difficile d'imaginer comment une machine peut acquérir l'expérience nécessaire.
Notons que le problème est pire, mais plus intéressant, dans le cas d'une tentative de communication avec une entité extra-terrestre: l'apprentissage de ces mots doit alors être nécessairement "extérieur"...
Cordialement,
Michel
Non ce n'est pas du tout la même chose et c'est absolument essentiel. Mmy a bien compris le point je pense.Envoyé par ArgyreOn pourrait dire la même chose pour des enfants de 2 ans : comment leur faire comprendre de tels mots ? Et on peut rajouter, "plaisir", "bonheur", "intuition", etc etc.
Au passage, comment un enfant de 2 ans a-t-il appris le concept "aimer" ?
C'est la même chose pour les ordinateurs.
Chez un enfant, les notions de plaisir, de déplaisir, d'amour sont génétiquement déterminées par des mécanismes biologiques (pas toujours bien compris), à un niveau infra-langagier. Le langage ne fait que rajouter une couche de conceptualisation qu'il associe à ces perceptions intuitives.
Un ordinateur n'a aucune de ces perceptions intuitives. Comme le décrit très bien spi100, nous ne faisons qu'établir des liens formels sur le langage pour lui donner une certaine "capacité" à le manipuler, mais cette manipulation est vide de sens car il n'associe aucun terme avec une perception sous-jacente.
On pourrait très bien s'amuser à faire un langage formel sans aucune sémantique. Par exemple Ba serait toujours suivi d'un mot se terminant par u (exemple : Ba cormitu), un peu comme un article féminin doit correspondre a un adjectif se terminant par e (pas toujours, donc on a aussi des exceptions Ba hytrio par exemple) On peut s'amuser comme ça, et apprendre ça à un ordinateur. Il se fichera completement que ces mots n'ont aucun sens physique.
Mais il serait totalement incapable de répondre à une question portant sur la réalité du monde :"a quelle heure tu t'es levé aujourd'hui"?
Navré mais les informaticiens se sont bel et bien approprié le mot, et l'ont considérablement éloigné du sens qui lui est donné par les philosophes.Envoyé par mmyBonsoir,
Qu'est ce que c'est que cette malversation? Je préfère encore les sigles imprononçable à ce type d'emprunt...
voir par exemple http://websemantique.org/Ontologie
Oui, c'est bien pour ça que les traducteurs du marché comme systran ne sont rien d'autres que des dictionnaires améliorés. Il n'est pas possible de faire de la traduction en ne manipulant que des symboles, il faut travailler sur le sens.Envoyé par gillesh38Mais il serait totalement incapable de répondre à une question portant sur la réalité du monde :"a quelle heure tu t'es levé aujourd'hui"?
En exemple célèbre de dérapage en traductique est la traduction
de "La chair est faible, l'esprit est fort" en "La viande est pourrie, l'alcool est bon".
Oui, et un "baton de ventilateur", c'est un..."fan club".
salut
en meme temps faut pas etre tres malin pour poser ce genre de question a un ordi , est ce qu il te demande combien d erreur critiques tu as eues? ^^Envoyé par gillesh38Mais il serait totalement incapable de répondre à une question portant sur la réalité du monde :"a quelle heure tu t'es levé aujourd'hui"?
On tourne en rond désespérément ! Primo, il faut utiliser le mot approprié, si on parle de "notion", je ne vois pas ce que la génétique vient faire là-dedans. Ce n'est pas la notion, c'est la perception.Envoyé par gillesh38Chez un enfant, les notions de plaisir, de déplaisir, d'amour sont génétiquement déterminées par des mécanismes biologiques (pas toujours bien compris), à un niveau infra-langagier. Le langage ne fait que rajouter une couche de conceptualisation qu'il associe à ces perceptions intuitives.
Secundo, sans expérience, il n'y a pas de plaisir, ni de déplaisir, ni même d'amour. Et donc, puisqu'il s'agit d'expérience, ce n'est pas d'inné dont il est question mais d'acquis !
Un enfant nouveau né est une machine (et je pèse mes mots) à agir et à réagir. Ces actions et ces réactions primitives sont innées, d'accord. On peut, pourquoi pas, dire qu'il y a une sorte de plaisir chez l'enfant qui satisfait un besoin, par exemple la faim. Mais il s'agit d'un état physiologique qui peut très bien être décrit par un ensemble de variables (retour à l'algorithmique !). Ensuite, lorsque l'enfant est curieux et qu'il tente de toucher un objet, et qu'il y parvient, il y a un circuit neuronal proche de celui de la satisfaction de la faim qui est mis en route, et c'est comme ça que le plaisir s'apprend, par expérience.
Je ne vois pas ce qui nous empêche de procéder de la même manière avec des robots. D'ailleurs, cela a déjà été fait, de façon simpliste, certes, mais cela a été fait, il n'y a qu'à lire les articles spécialisés en robotique. On peut programmer un robot pour qu'il soit curieux par exemple, en donnant un poids fort au processus de décision qui conduira le robot dans un état "nouveau", c'est à dire non mémorisé. Le robot éprouvera une sorte de "plaisir" à chaque fois qu'il verra un objet qu'il ne connait pas. Certes, le plaisir est dans des variables, et pas dans les molécules ou des neurones biologiques, mais ça fonctionne pareil, et du microbe à l'homme, en passant par l'insecte, le chien ou le robot, ce qui compte c'est l'apprentissage par l'expérience.
Ca s'appelle enfoncer des portes ouvertes. Bien entendu, je suis tout à fait d'accord avec ça. On vient de dire que l'expérience jouait un rôle fondamental dans l'apprentissage des concepts, et donc de la sémantique.Envoyé par gillesh38On pourrait très bien s'amuser à faire un langage formel sans aucune sémantique. Par exemple Ba serait toujours suivi d'un mot se terminant par u (exemple : Ba cormitu), un peu comme un article féminin doit correspondre a un adjectif se terminant par e (pas toujours, donc on a aussi des exceptions Ba hytrio par exemple) On peut s'amuser comme ça, et apprendre ça à un ordinateur. Il se fichera completement que ces mots n'ont aucun sens physique.
Ben si justement, il pourrait répondre, puisque je viens de dire qu'il lui faut de l'expérience. Et donc, il aurait appris comme un enfant apprend et même si la question n'avait pas de sens pour lui, il en comprendrait le sens s'il a vu des personnes dormir et se lever.Envoyé par gillesh38Mais il serait totalement incapable de répondre à une question portant sur la réalité du monde :"a quelle heure tu t'es levé aujourd'hui"?
Un enfant de 1 an ne comprend pas grand chose. Est-ce que pour autant il ne comprend rien ? C'est pareil pour les ordinateurs actuels, ils ne comprennent pas grand chose, mais il serait faux de dire qu'ils ne comprennent rien. Et si on parvenait à les doter de cet apprentissage par l'expérience, ils comprendraient. Pour un concept donné, ils auraient en mémoire tout un tas d'expériences et de concepts proches, comme nous !
Tu joues sur les deux tableaux parce qu'on fabrique à la fois des systèmes simples de perception et des systèmes de TAL pour la traduction automatique. Le problème est que les seconds n'ont rien avoir avec les premiers. Si tu regardes les realisations de l'IA, elles se bornent à vouloir réaliser telle ou telle tâche précise de l'être humain, et parce qu'on a un certain succès dans chacune, on croit etre proche de réaliser l'ensemble. C'est la l'erreur.
La perception n'est pas que de l'acquis, tu peux faire autant de calins a une pierre ou a un ver de terre que tu veux, elle ne t'aimeras pas plus pour cela. Notre information (pas de programme) génétique nous prépare à acquerir un comportement humain.
Nous n'avons strictement aucune idée de quel programme pourrait "préparer une machine à apprendre" un comportement humain *global. Nous ne savons les construire que pour réaliser une tâche spécifique.
Euh je ne me rappelle plus, tu as des enfants?Un enfant de 1 an ne comprend pas grand chose. Est-ce que pour autant il ne comprend rien ? C'est pareil pour les ordinateurs actuels, ils ne comprennent pas grand chose, mais il serait faux de dire qu'ils ne comprennent rien. Et si on parvenait à les doter de cet apprentissage par l'expérience, ils comprendraient. Pour un concept donné, ils auraient en mémoire tout un tas d'expériences et de concepts proches, comme nous !
Bonjour,Envoyé par enderalarticen meme temps faut pas etre tres malin pour poser ce genre de question a un ordi , est ce qu il te demande combien d erreur critiques tu as eues? ^^
Comme dit Gilles, vous tournez en rond. Le point d'enderalactic est pertinent: quand on établira une discussion intelligente (usage du futur parfaitement voulu) avec un ordi, on lui parlera comme un humain parle à un ordi, et réciproquement, il parlera comme un ordi parle à un humain. Et certainement pas comme un humain parle à un humain, ou d'ailleurs comme un ordi parle à un ordi, ce qui encore autre chose.
Au mieux les ordi parleront de concepts humains comme quelque chose qu'ils observent (ou qu'ils ont appris par leur "lectures", ce qui est pour moi l'équivalent de la programmation ou de l'injection d'une '"""ontologie"""). Une similarité est quand nous lisons des descriptions ethnologiques sur des coutumes d'autres peuples, quand ces coutumes choquent fortement notre conditionnement: on les "comprend" de l'extérieur, mais on les comprend pas aussi bien (ou du moins différemment) que l'on comprend nos propres coutumes.
Un ordi aura, ou pourra avoir, les concepts que vous listez, mais comme quelque chose qui concernent les humains, pas quelque chose qui le concerne.
Un axe de discussion beaucoup plus intéressant (je parle pour moi!) serait de spéculer sur les concepts qui pourraient être communs, pas sur les concepts spécifiquement humains.
Amicalement,
Michel
Je rejoins tout à fait l'intervention précédente de mmy:Envoyé par gillesh38Nous n'avons strictement aucune idée de quel programme pourrait "préparer une machine à apprendre" un comportement humain *global. Nous ne savons les construire que pour réaliser une tâche spécifique.
La question initiale était: Un "ordinateur pensant" serait-il doué de libre arbitre?
A lire ton intervention, Gillesh, j'ai l'impression que tu considères l'humain comme la seule construction pouvant penser, et être doué de libre arbitre.
Le but des recherches en IA et sciences cognitives (comportementales) n'est pas de reproduire un humain numérique.
Attention, il y a 2 questions différentes :Envoyé par gillesh38Tu joues sur les deux tableaux parce qu'on fabrique à la fois des systèmes simples de perception et des systèmes de TAL pour la traduction automatique. Le problème est que les seconds n'ont rien avoir avec les premiers. Si tu regardes les realisations de l'IA, elles se bornent à vouloir réaliser telle ou telle tâche précise de l'être humain, et parce qu'on a un certain succès dans chacune, on croit etre proche de réaliser l'ensemble. C'est la l'erreur.
a) Existe t-il un algorithme qui mis dans la tête d'un robot donnerait un être cognitif qu'on ne pourrait différencier d'un humain ?
b) Sommes nous capables d'écrire un tel algorithme ?
A la question a) je réponds oui, alors qu'à la question b), j'ai tendance à penser que non.
Ainsi, non, on "ne croit pas être proche de réaliser l'ensemble", on est bien conscient des difficultés et de la distance qui nous sépare d'un être cognitif aussi performant que l'être humain. Et il se pourrait même que nous ne parvenions jamais à résoudre tous les problèmes.
En revanche, dans ce fil il est question de libre arbitre et de pensée. C'est donc la question de l'existence qui nous intéresse (question a)) et pas la question b). Or, en programmant comme tu le dis à la fois les comportements réactifs simples et les traitements de l'information plus symboliques comme les TAL, on voit bien que chaque partie du tout obéit à une logique algorithmique. Le problème, c'est d'assembler les parties, ou plutôt de concevoir les parties primitives de telle manière que l'expérience permette de construire automatiquement les parties les plus complexes en établissant des relations pertinentes entre les parties.
Je ne suis pas sûr de bien me faire comprendre, mais quoi qu'il en soit, le problème est d'ordre méthodologique et technique, sans rapport avec une limite théorique qui serait liée au caractère non algorithmique de je ne sais quelle propriété cognitive.
C'est précisément ce que je viens d'écrire, là-dessus nous sommes d'accord, mais c'est la réponse à la question b), pas la question a).Envoyé par gillesh38Nous n'avons strictement aucune idée de quel programme pourrait "préparer une machine à apprendre" un comportement humain *global. Nous ne savons les construire que pour réaliser une tâche spécifique.
Pour savoir si je considère l'humain comme la seule construction pouvant penser, je ferais la même réponse qu'Einstein à propos de Dieu "Dites moi ce que vous entendez par là et je vous dirai si j'y crois".Envoyé par FaithJe rejoins tout à fait l'intervention précédente de mmy:
La question initiale était: Un "ordinateur pensant" serait-il doué de libre arbitre?
A lire ton intervention, Gillesh, j'ai l'impression que tu considères l'humain comme la seule construction pouvant penser, et être doué de libre arbitre.
Le but des recherches en IA et sciences cognitives (comportementales) n'est pas de reproduire un humain numérique.
Vous refusez de donner une définition précise de "penser" et de "libre arbitre", et apres vous me reprochez de ne pas croire qu'on peut construire une machine qui en serait douée. Ca me paraît légèrement incohérent.
J'ai bien précisé que je pensais tout à fait possible de construire un dispositif électronique gérant de l'information, d'ailleurs on le fait déjà.
Ce que je dis, c'est que la notion de pensée (telle que je constate qu'elle est employée intuitivement, sans définition précise,) me semble être liée à une structure biologique particulière, et n'est pas une notion algorithmique, contrairement à ce qu'on veut nous faire avaler par l'emploi de théorèmes (type thèse de Church abusivement employés. Elle a été réalisée par l'humain, elle peut vraisemblablement être réalisée par une autre espèce animale, qui a les mêmes bases biologiques. Mais je pense que le fonctionnement d'un système électronique, qui n'est au départ pas une structure dissipative naturellement insérée dans un contexte thermodynamique, et qui tire uniquement son information d'une information plus complexe (le cerveau humain) qui l'a conçu, a des bases trop différentes au départ pour fonctionner à l'arrivée de manière "comparable", c'est à dire avec lequel on puisse avoir mettons une "conversation raisonnable".
Je n'ai bien sûr aucune démonstration formelle de cela, comme je n'ai aucune démonstration formelle qu'on ne fera jamais de voyages intersidéraux, autre sujet sur lequel je me suis trouvé en désacccord avec d'autres sur ce forum. C'est juste une opinion personnelle !