Intelligence artificielle - Page 11

Affichage des résultats du sondage: Les machines pourront-elles devenir intelligentes dans les 100 ans à venir?

Votants
46. Vous ne pouvez pas participer à ce sondage.
  • Oui

    31 67,39%
  • Non

    15 32,61%
Répondre à la discussion
Page 11 sur 16 PremièrePremière 11 DernièreDernière
Affichage des résultats 301 à 330 sur 455

Intelligence artificielle



  1. #301
    invite6c250b59

    Re : Sondage intelligence artificielle


    ------

    Citation Envoyé par gillesh38 Voir le message
    et pourquoi ce qui est impossible a l'etre humain (faire comme un ordinateur) devrait etre possible pour un ordinateur (faire comme un etre humain)?
    comment peux-tu écrire cette phrase juste après
    Citation Envoyé par gillesh38 Voir le message
    avec un papier et un crayon, en théorie, oui, avec un temps suffisant
    Si c'est le crayon qui te gène, alors oui effectivement c'est indispensable pour que l'humain joue à la machine de Turing dès que cette MT est un peu grosse.
    De la même façon, une extension d'espace mémoire est indispensable pour que l'ordinateur joue à la machine de Turing dès que cette MT est un peu grosse.
    La seule différence c'est la taille de MT avant que l'humain ou l'ordinateur n'ai besoin d'extension mémoire. Phylogénétiquement parlant c'est très logique: l'ordinateur a été créé pour jouer à la MT universelle, alors que l'humain est le résultat de pressions évolutives qui n'ont rien à voir.

    Bref, pour revenir au point: si tu peux avoir un doute que l'humain puisse être simulé, en revanche tu ne peux avoir de doute qu'un ordinateur soit simulable par un humain. Les ordinateurs sont construits exprès pour simuler une MT universelle, et si tu te souviens bien les papiers de Turing, pouvoir faire le même calcul qu'un humain avec du papier/crayon est exactement l'idée de base des MT!

    -----

  2. #302
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par gillesh38 Voir le message
    Je ne déduis rien, enfin juste qu'il n'y a donc aucune raison forte de penser qu'il puisse exister des systèmes A et B.
    Essayons de comprendre ta logique. Par construction, tu dis "il n'existe pas A et B" => "il n'existe pas de raison forte". Seule manière de comprendre ta logique est "raison forte" inclus dans "il existe A et B". Autrement dit, sous couvert de logique, ce que tu es réellement en train de dire est "Gilles est comme St Thomas, la seule raison forte possible pour penser à l'existence de quelque chose est de le voir".

    Ca c'est une position claire. Nul besoin de circonvolutions pour l'exprimer.

    A côté, ill existe de sérieuses raisons d'en douter (y compris l'impossibilité depuis 50 ans d'arriver à ce résultat, qu'on considérait pourtant comme facile à résoudre en quelques dizaines d'années au début de l'informatique).
    Bien sûr qu'il existe des raisons de douter. Veux-tu dire que ceux qui ne penses pas comme toi n'ont pas de doutes sur ce qu'amènera ou non le futur dans le domaine?


    Quand à "sérieux"... Tu exprimes ton jugement.

    Si l'argument que tu cites est le premier en importance pour toi, j'ai du mal à considérer cela comme "sérieux". N'est-ce pas Thomson qui disait à la fin du XIXème que la physique était presque terminée? Combien de fois dans l'histoire des sciences et des techniques a-t-on considéré que quelque chose serait facile à obtenir dans les tant d'années, pour être contredit par les faits?

    Et appliqué au traitement artificiel de l'information, l'argument est difficile. Il y a des arguments sérieux pour penser que c'est un domaine loin, très loin, de sa maturité, tant en matériel qu'en connaissances pour utiliser le matériel au mieux. Juge-t-on les capacités de l'oiseau sur la forme de l'oeuf?

    Cordialement,

  3. #303
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par Jiav Voir le message
    comment peux-tu écrire cette phrase juste après

    Si c'est le crayon qui te gène, alors oui effectivement c'est indispensable pour que l'humain joue à la machine de Turing dès que cette MT est un peu grosse.
    a la reflexion, ce n'est pas vrai : l'etre humain ne peut pas mémoriser les instructions d'un programme (contrairement à un ordinateur). Il aura besoin de plus qu'un papier et un crayon, mais aussi du listing des instructions; sur ce plan là, le cerveau est également bien différent des ordinateurs : il ne sait pas stocker des longues suites d'instruction exactes, mais uniquement des "consignes" floues. Pour l'ordinateur, c'est exactement le contraire. Tu ne peux pas dire a un ordinateur "Réécris moi ce texte en plus court" par exemple.

    On va encore me dire que je me polarise sur les différences sans vouloir voir les similiarités, mais le problème est que c'est exactement ce genre de différence qui fait qu'on n'a pas envie d'appeler les ordinateurs "intelligents".

    Mais je veux bien qu'on reprenne la liste des arguments, et pour commencer, comme on l'a signalé , se mettre d'accord sur une définition acceptable de l'intelligence. Donc comment comprends tu toi la question initiale du sondage? qu'est ce qu'un ordinateur "intelligent" pour toi, et qu'est ce que tu imagines comme capacité qu'il serait possible de réaliser, et à laquelle tu penses que je ne crois pas?

    Cordialement

    Gilles

  4. #304
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par mmy Voir le message
    Bonjour,



    Essayons de comprendre ta logique. Par construction, tu dis "il n'existe pas A et B" => "il n'existe pas de raison forte". Seule manière de comprendre ta logique est "raison forte" inclus dans "il existe A et B". Autrement dit, sous couvert de logique, ce que tu es réellement en train de dire est "Gilles est comme St Thomas, la seule raison forte possible pour penser à l'existence de quelque chose est de le voir".

    Ca c'est une position claire. Nul besoin de circonvolutions pour l'exprimer.
    oui elle serait claire mais... ce n'est pas la mienne . Je n'aurais eu aucune hésitation a penser que les voyages sur la Lune etaient possible avec des fusées en 1950, et impossibles avec des avions à hélice. C'est basé sur une réflexion sur ce que je comprends des mécanismes selon lesquels "ça marche", pas sur l'existence réelle.

    Mon raisonnement est donc plutot :

    a) de ce que je pense comprendre de comment un cerveau "pourrait "marcher, certaines caractéristiques sont impossibles à atteindre avec un ordinateur; et en particulier la définition intuitive que nous donnons à l'intelligence est associée en fait à des choses non algorithmiques, dont certaines sont profondément liées à notre nature réelle biologique : il sera donc impossible de les obtenir avec quelque chose de non biologique.

    b) par ailleurs, il n'existe pour le moment rien qui contredise cette opinion, et y compris des tâches qu'on pensait pouvoir assez facilement réaliser (genre traduction automatique, tenir une conversation) se sont finalement révélées affreusement plus complexes que prévues et leurs performances bien inférieures, bien que les capacités de calcul et de stockage aient été multipliées par des millions dans le même intervalle.

    c) la non existence des ordinateurs intelligents malgré tous les progrès confirme donc mon avis a), et je n'ai aucune raison forte d'en changer , comme je n'ai aucune raison, par exemple, de ne pas penser que la Lune soit naturelle et pas un vaisseau spatial artificiel (bien que je ne puisse pas le démontrer non plus rigoureusement).


    Cordialement

    Gilles

  5. #305
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par gillesh38 Voir le message
    On va encore me dire que je me polarise sur les différences sans vouloir voir les similarités, mais le problème est que c'est exactement ce genre de différence qui fait qu'on n'a pas envie d'appeler les ordinateurs "intelligents".
    C'est une analyse de pourquoi certaines personnes n'ont pas envie d'appeler les ordinateurs "intelligents".

    Mais je maintiens que répondre à la question "pourquoi certaines personnes n'ont pas envie d'appeler les ordinateurs "intelligents"?" est simple, et pas vraiment matière à discussion. Et le sujet en est les humaincs, pas les machinus.

    C'est l'autre question qui me semble intéressante: pourquoi certaines personnes pourraient appeler les ordinateurs "intelligents"?

    La réponse qui consiste à dire en substance, "je n'ai pas envie d'appeler les ordinateurs intelligents, le terme intelligent est réservé aux humains pour telles et telles raisons, donc la réponse à la question "pourquoi certaines personnes pourraient appeler les ordinateurs "intelligents"" est évidemment "parce qu'ils se trompent", ou "parce qu'ils n'emploient pas le vocabulaire correctement"" n'est pas vraiment intéressante. Elle n'exprime, encore une fois, que des choses sur les humains, rien sur les machines.

    et qu'est ce que tu imagines comme capacité qu'il serait possible de réaliser, et à laquelle tu penses que je ne crois pas?
    Beaucoup de choses! Mais je préfère inverser la question:

    Une autre manière de formuler la question pour Gilles et autres serait: "Quel est, pour vous, le comportement possible d'une machine qui s'approchera le plus de la notion d'intelligence, "le plus" étant mesuré à l'acceptation du plus grand nombre d'humains à utiliser le terme "intelligent" pour une machine?"

    En d'autres termes, qu'est ce que peuvent faire, au mieux, les machines? Pour toute réponse à de telles questions, chacun jugera, par lui-même, si c'est "intelligent" ou non (et aussi si c'est vraisemblable comme max!).

    Cordialement,

  6. #306
    invite8915d466

    Re : Sondage intelligence artificielle

    Rebjr

    Citation Envoyé par mmy Voir le message
    Mais je maintiens que répondre à la question "pourquoi certaines personnes n'ont pas envie d'appeler les ordinateurs "intelligents"?" est simple, et pas vraiment matière à discussion. Et le sujet en est les humaincs, pas les machinus.

    C'est l'autre question qui me semble intéressante: pourquoi certaines personnes pourraient appeler les ordinateurs "intelligents"?

    La réponse qui consiste à dire en substance, "je n'ai pas envie d'appeler les ordinateurs intelligents, le terme intelligent est réservé aux humains pour telles et telles raisons
    je ne crois pas que l'intelligence soit "réservée" aux humains, et je n'ai jamais employé cet argument. Je crois que l'intelligence telle qu'elle est perçue intuitivement est liée à des choses non algorithmiques, et que ses performances (contrairement aux algorithmes), est donc subordonnée à la nature matérielle de son support.

    On peut donc qualifier un ordinateur actuel "d'intelligent", mais je pense qu'on n'aura jamais l'impression de discuter avec lui comme nous discutons ensemble sur le forum, en cherchant à se "comprendre".
    Une autre manière de formuler la question pour Gilles et autres serait: "Quel est, pour vous, le comportement possible d'une machine qui s'approchera le plus de la notion d'intelligence, "le plus" étant mesuré à l'acceptation du plus grand nombre d'humains à utiliser le terme "intelligent" pour une machine?"

    En d'autres termes, qu'est ce que peuvent faire, au mieux, les machines? Pour toute réponse à de telles questions, chacun jugera, par lui-même, si c'est "intelligent" ou non (et aussi si c'est vraisemblable comme max!).
    pour moi c'est simple : les ordinateurs sont potentiellement capables de faire tout ce que nous savons exprimer sous forme d'algorithme. Nous savons concevoir une façon algorithmique de jouer aux echecs, de reconnaitre des caractères, ou de surveiller une chaine de montage (par exemple). Nous ne savons pas exprimer de maniere algorithmique comment traduire un texte d'une langue à une autre, comment tomber amoureux, ou comment se mettre en colere.

    Autrement dit : oubliez l'ordinateur et imaginez que vous ayez un chinois avec lequel la seule façon d'interagir est de lui donner des instructions élémentaires de type table de vérité , c'est tout. Vous n'utilisez donc l'intelligence humaine que de manière très limitée (bien que ce soit quand meme probablement plus difficile d' y arriver avec un animal). L'ordinateur est capable de faire ce que vous pourrez arriver à faire ce chinois, point final. Par exemple, vous pouvez lui faire émuler un programme d'echec (sans qu'il sache jouer aux echecs) , mais vous ne pouvez pas le mettre en colere avec des tables booleennes.

    Cdt

    Gilles

  7. #307
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par gillesh38 Voir le message
    je ne crois pas que l'intelligence soit "réservée" aux humains, et je n'ai jamais employé cet argument.
    Pas directement, mais en substance cela revient au même. En extrayant une particularité (intelligence "non algorithmique") et en liant cette propriété à "intelligence", tu obtiens le résultat.

    Ce n'est pas tant le détail de l'argument (algorithmique) que la forme de l'argument (propriété exclusive au traitement de l'information avancé des humains pris comme essentiel au mot "intelligence"), que je constate.

    Je crois que l'intelligence telle qu'elle est perçue intuitivement est liée à des choses non algorithmiques, et que ses performances (contrairement aux algorithmes), est donc subordonnée à la nature matérielle de son support.
    L'intelligence telle qu'elle est perçue intuitivement est celle de l'homme. Point.

    Généraliser à [intelligence => "choses non algorithmiques"] n'en découle que pour ici et maintenant. (Je sais que je me répète, mais comment faire autrement? La faille du raisonnement est toujours cette généralisation du constat présent à une règle absolue. Rien en logique ou en science ne permet une telle généralisation autrement que sous forme d'hypothèse, de conjecture.)

    On peut donc qualifier un ordinateur actuel "d'intelligent", mais je pense qu'on n'aura jamais l'impression de discuter avec lui comme nous discutons ensemble sur le forum, en cherchant à se "comprendre".
    Conjecture.

    pour moi c'est simple : les ordinateurs sont potentiellement capables de faire tout ce que nous savons exprimer sous forme d'algorithme.
    Humm... Ca ne découle pas de tes arguments. J'aurais mieux compris: "les ordinateurs sont potentiellement capables de faire tout ce que qui est exprimable sous forme d'algorithme". La différence est l'éjection du savoir humain, qui est (pour moi) contingent, sans aucun intérêt pour exprimer une propriété générale d'entités autres qu'humaines. En d'autres termes, j'imagine très bien l'existence un jour de fonctions que les humains sont incapables par eux-mêmes d'exprimer sous forme d'algorithme (évidemment, par hypothèse implicite, ils pourront toujours essayer de faire du reverse engineering, exactement comme les neuro-biologistes font du reverse-les ordinateurs sont potentiellement capables de faire tout ce que nous savons exprimer sous forme d'algorithme. Je dis essayer, parce qu'il n'est si clair que les humains puissent nécessairement le faire: la complexité serait peut-être telle que les humains ne pourront le faire qu'à l'aide de machines Il y a déjà des preuves mathématiques qui posent problème parce qu'elles utilisent des algo trop complexe, non? Pour moi cela veut dire que les humains sont déjà dépassés: ce que certains ont conçu devient difficile à vérifier/comprendre par d'autres...).

    Nous savons concevoir une façon algorithmique de jouer aux échecs, de reconnaitre des caractères, ou de surveiller une chaine de montage (par exemple). Nous ne savons pas exprimer de manière algorithmique comment traduire un texte d'une langue à une autre, comment tomber amoureux, ou comment se mettre en colère.
    Nous ne savons pas ici et maintenant. Et nous ne saurons peut-être jamais alors même que la chose sera!

    (...)mais vous ne pouvez pas le mettre en colère avec des tables booléennes.
    C'est totalement évident. Même si un algorithme existait pour cela, sa complexité serait telle qu'aucun humain ne serait capable de le dérouler. Qu'est-ce que cela démontre autrement que des limitations des humains?

    Cordialement,

  8. #308
    invite8915d466

    Re : Sondage intelligence artificielle

    Bonjour
    Citation Envoyé par mmy Voir le message
    Bonjour,



    Pas directement, mais en substance cela revient au même. En extrayant une particularité (intelligence "non algorithmique") et en liant cette propriété à "intelligence", tu obtiens le résultat.
    mais je n'ai pas l'impression d'avoir personnellement posé cette définition ! La question initiale est
    "pensez vous que dans les 100 prochaines années, les machines deviendront intelligentes?".

    Sauf erreur grossière de logique chez moi, l'implicite derrière la question est que :
    a) les machines actuelles ne sont pas intelligentes.
    b) le mot "intelligentes", dans la question posée, signifie donc autre chose que ce que font les ordinateurs actuels.

    après, j'essaie de comprendre cet "autre chose" derrière la question. D'après mon expérience de ce genre de discussion, cela signifie a mon avis quelque chose proche de "pouvoir avoir une conversation qui prouve que la machine donne un "sens" aux choses ".

    Si vous pensez que ce n'est pas ça, dites moi à votre avis le sens du mot "intelligentes" chez l'auteur de la question. Je réponds au sens que je perçois dans la question, pas à MA définition personnelle de l'intelligence.

    Et je repète, les arguments que je présente ont pour but d'étayer la position suivante : les capacités qui distinguent l'intelligence, (au sens implicite que je perçois chez l'auteur de la question), ne sont pas accessibles par une programmation algorithmique, comme la propulsion dans le vide n'est pas accessible à un moteur à hélice.

    Cordialement

    Gilles

  9. #309
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par mmy Voir le message
    Nous ne savons pas ici et maintenant. Et nous ne saurons peut-être jamais alors même que la chose sera!
    mon argument essentiel est le suivant, que j'ai deja donné : l'intelligence suppose une représentation concrète du soi et du monde, et est donc incompatible avec l'indépendance par rapport au support caractéristique des algorithmes. C'est d'ailleurs justement la raison fondamentale que les seules choses communes aux hommes et aux machines soient les processus algorithmiques ! il FAUT justement qu'ils soient indépendants du support pour etre aussi bien exécutés par l'un ou par l'autre.

    Pour faire des additions ou des multiplications, des tris, ou jouer aux echecs, la nature biologique humaine n'est pas essentielle. En revanche, elle l'est pour manipuler le sens du langage, les affects, les envies, etc... nous partageons avec la machine les processus algorithmiques indépendants du support, nous nous en distinguons radicalement par ce qui n'a de sens que pour notre nature humaine.

    Cordialement

    Gilles

  10. #310
    invite6c250b59

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    mon argument essentiel est le suivant, que j'ai deja donné : l'intelligence suppose une représentation concrète du soi et du monde, et est donc incompatible avec l'indépendance par rapport au support caractéristique des algorithmes.
    Est-ce vraiment ton argument essentiel i.e. si tu acceptes qu'il est faux tu acceptes qu'il est possible d'avoir une conversation intelligente avec un ordinateur ?

  11. #311
    invite0e4ceef6

    Re : Sondage intelligence artificielle

    il me semble que sur ce point gilles n'a pas tout à fait tort du moins our l'instant car ce qui a été singulièrement mis en évidence par les émulation du language humain sur des machinnes, c'est bien l'ensemble des connaissance implicite de nos languages dans le rapport aux choses, au monde et à soi-même.

    le language a sans doute sa logique, mais ce que sais implicitement l'humain il le tient d'une part de son corps de l'autre de sa culture, et ensuite il acquiert le language..
    nous ne faisont tout au long de notre vie qu'affiner le rapport des mots avec nos connaisance..

    je dirais qu'il me semble qu'il seras toujours difficile de faire passer le test de turing a une machinne, mais pour un robot bien conçus et avec de bonne émulation sensorielle.. il y a de forte chance que l'on parviennent a lier les sensations propre et subjective de la machinne avec les mots que nous, nous employons pour les même choses.. le language ici retrouvant tous sont sens, celui d'eter une traduction pour autrui de ses propres etat interne, ou de ce que nous avons perçu..

    le corps reste en tant qu'objet biologique notre moyen d'etre et d'existance au monde.. le language n'est qu'un liens vers l'autre.

    de quoi peux-t-on parler avec une machinne aujourd'hui? sinon de l'etat de fonctionalité de la machinne, de la température de son processeur, du niveau de remplissage de sa mémoire, des connexion entrante ou sortante sur le réseaux, sur le nombre de donnée que celui-ci a reçut et qui forme sa propre subjectivité du monde..

    c'est à dire pas grand chose finalement..

  12. #312
    invite6c250b59

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    mon argument essentiel est le suivant
    Refaisons le en proposition logique

    définitions:
    A=intelligence
    B=représentation concrête de soi [= représentation correcte de son support physique?]
    C=système algorithmique
    D=indépendance par rapport au support physique

    postulats:
    A implique B
    B implique non(D)
    C implique D

    démonstration:
    A implique B
    <=> A implique non(D)
    <=> A implique non(C)

    traduction:
    l'intelligence est forcément non algorithmique

    Gilles valides-tu que c'est ton raisonnement, et qu'il est central a ta croyance?

  13. #313
    invitec00162a9

    Re : Sondage intelligence artificielle

    Bonjour,
    Citation Envoyé par gillesh38 Voir le message
    Pour faire des additions ou des multiplications, des tris, ou jouer aux echecs, la nature biologique humaine n'est pas essentielle. En revanche, elle l'est pour manipuler le sens du langage, les affects, les envies, etc... nous partageons avec la machine les processus algorithmiques indépendants du support, nous nous en distinguons radicalement par ce qui n'a de sens que pour notre nature humaine.
    Des robots qui s'inventent un langage tous seuls, ça existe. Sans autre intervention humaine que celle consistant à leur laisser cette capacité.
    Des programmes qui apprennent à mentir sans même que le programmeur le leur ait appris, ça existe aussi.

  14. #314
    invite8915d466

    Re : Sondage intelligence artificielle

    Salut Jiav

    Citation Envoyé par Jiav Voir le message
    traduction:
    l'intelligence est forcément non algorithmique

    Gilles valides-tu que c'est ton raisonnement, et qu'il est central a ta croyance?
    ca me parait correct .
    cordialement

    Gilles

  15. #315
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par shahinshah Voir le message
    Bonjour,


    Des robots qui s'inventent un langage tous seuls, ça existe. Sans autre intervention humaine que celle consistant à leur laisser cette capacité.
    Des programmes qui apprennent à mentir sans même que le programmeur le leur ait appris, ça existe aussi.
    tu peux préciser ce que tu entends par "s'inventer un langage tout seul', parce que je me méfie des métaphores dans le domaine...

    Cordialement

    Gilles

  16. #316
    invite6c250b59

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    ca me parait correct .
    ...et l'autre question aussi?
    i.e. si tu acceptes qu'il [le raisonnement] est faux tu acceptes qu'il est possible d'avoir une conversation intelligente avec un ordinateur ?

  17. #317
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Question 1: (Citation de Jiav, mais questions plutôt pour Gilles, ou pour qui veut répondre...)

    Citation Envoyé par Jiav Voir le message
    B=représentation concrête de soi [= représentation correcte de son support physique?]
    Pourquoi le "soi" est-il le support physique? Ne peut-on concevoir un "soi" spécifique à ce qui est transportable?

    N'est-on pas en train d'inverser la logique, à savoir: le soi humain n'est pas transportable, donc le soi humain est nécessairement lié au support physique. Pourquoi exiger pour "intelligence" une limitation humaine?

    Question 2:

    B implique non(D)
    Qu'est-ce qui empêche un programme d'apprendre et de s'adapter au matériel lors d'une "installation"? Qu'est-ce qui empêche un "soi" variable, un "soi" central lié au programme et indépendant du support, et un "soi" étendu, étendu aux "prothèses" temporaires que constitue le matériel support?

    Nous, humains actuels, n'avons pas la possibilité donc pas l'expérience d'un ajout de dispositif informationnel directement en connexion avec le cerveau. Est-ce pour cela qu'il faut nier la possibilité pour une machine d'inclure ou d'exclure de son "soi" des parties?


    Question 3:

    Sommes nous vraiment capables, nous humains du début du XXIème, de parler du "soi" d'une machine autrement qu'en plaquant le concept humain? N'est-ce pas alors par conséquence, une fois de plus, une méthode pour caractériser non pas la machine, mais l'humain, et d'utiliser la caractéristique ainsi trouvé pour limiter le concept d'intelligence aux humains?

    Cordialement,

  18. #318
    invitec00162a9

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    tu peux préciser ce que tu entends par "s'inventer un langage tout seul', parce que je me méfie des métaphores dans le domaine...
    Je ne trouvais plus la référence tout à l'heure, mais je viens de la retrouver. Je l'ai trouvée dans un dossier de Science & Vie d'octobre 2006 consacré à l'apparition du langage (chez l'homme bien sûr).
    Je résume brièvement l'article, que je trouve fort intéressant, car il y a une comparaison entre les robots et les hommes.
    L'expérience porte sur des robots de Sony, les Aibos. Ils apprennent à jouer à la balle. Ils disposent de 3 aptitudes.

    1) ils peuvent diviser la réalité qu'ils perçoivent grâce à leurs caméras en différentes catégories et à leur associer un mot (concernant les différentes positions de la balle, ou la distance qu'elle parcourt à chaque lancer).
    2) ils peuvent générer aléatoirement des mots et des règles grammaticales lorsqu'ils sont face à une situation qu'ils ne connaissent pas encore.
    3) ils peuvent s'échanger leurs contextes d'information afin de se mettre d'accord. Dès qu'ils sont d'accord, ces contextes leurs sont communs.

    Ces 3 aptitudes sont sensées être présentes chez les êtres humains.

    Là où c'est intéressant, c'est que l'article mentionne l'émergence d'un phénomène similaire chez un groupe d'enfants sourds au Nicaragua. Ils ont créé ainsi leur propre langue des signes.

  19. #319
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par mmy Voir le message
    Question 1: (Citation de Jiav, mais questions plutôt pour Gilles, ou pour qui veut répondre...)



    Pourquoi le "soi" est-il le support physique? Ne peut-on concevoir un "soi" spécifique à ce qui est transportable?
    parce que notre perception du monde est physique, et que notre cerveau, avant de servir à faire des choses élaborées, sert à percevoir, à surveiller, et à commander NOTRE corps physique.

    Je n'ai pas de souci pour étendre la notion d'intelligence à ce qu'on veut, et à dire dans ce cas que les ordinateurs sont deja intelligents, ou Gaia est un système intelligent. Mais dans ce cas la question initiale tombe d'elle même. Je l'ai dit, je réponds à la question posée dans le sens ou je la comprends. Si l'intelligence est simplement un traitement d'information, alors les ordinateurs sont deja intelligents depuis longtemps, et le débat est fini ! .


    N'est-on pas en train d'inverser la logique, à savoir: le soi humain n'est pas transportable, donc le soi humain est nécessairement lié au support physique. Pourquoi exiger pour "intelligence" une limitation humaine?
    parce que le reste ne nous intéresse pas . une intelligence avec laquelle nous ne pourrions pas communiquer est inintéressante, et en plus intestable.

    Tu n'as pas vraiment répondu à la question que je posais je pense : est ce que pour toi les ordinateurs actuels SONT DEJA intelligents? et sinon qu'est ce qu'il leur manque pour qu'ils le soient selon toi?

    Cordialement

    Gilles

  20. #320
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par Jiav Voir le message
    ...et l'autre question aussi?
    ben, euh, oui... je sens le piège mais vas y dis ce que tu as dans la tête

    Gilles

  21. #321
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par shahinshah Voir le message
    Je ne trouvais plus la référence tout à l'heure, mais je viens de la retrouver. Je l'ai trouvée dans un dossier de Science & Vie d'octobre 2006 consacré à l'apparition du langage (chez l'homme bien sûr).
    Je résume brièvement l'article, que je trouve fort intéressant, car il y a une comparaison entre les robots et les hommes.
    L'expérience porte sur des robots de Sony, les Aibos. Ils apprennent à jouer à la balle. Ils disposent de 3 aptitudes.

    1) ils peuvent diviser la réalité qu'ils perçoivent grâce à leurs caméras en différentes catégories et à leur associer un mot (concernant les différentes positions de la balle, ou la distance qu'elle parcourt à chaque lancer).
    2) ils peuvent générer aléatoirement des mots et des règles grammaticales lorsqu'ils sont face à une situation qu'ils ne connaissent pas encore.
    3) ils peuvent s'échanger leurs contextes d'information afin de se mettre d'accord. Dès qu'ils sont d'accord, ces contextes leurs sont communs.
    bah, ça ne m'impressionne pas. Ce n'est pas ce que j'appelle un langage, parce que ce qu'on appelle un "mot" est métaphorique , dans cette expérience. Dans ce cas, un système qui surveille une usine et qui envoie des messages quand ça ne va pas a deja un langage. C'est un nième exemple d'expérience d'automate à la Vaucanson où on passe beaucoup de temps à construire des système hypercompliqués qui arrivent à réaliser un petit truc qu'on "interprète" comme quelque chose d'analogue à un comportement humain, et puis voila, ils ne font rien de plus parce que le programme n'a été écrit QUE pour ça !

    Le problème est de trouver un programme qui fasse que les robots inventent un langage sans que le programme initial ait été prévu pour ça (comme les sourds que justement personne n'avait programmé à faire ça !). Si on pense que c'est la structure génétique humaine qui est le "programme" , alors il faudrait trouver un programme analogue à la génétique humaine, c'est à dire un programme simulant un processus élémentaire (l'expression des proteines) dont les conséquences seraient inattendues. Le plius proche de ça est effectivement le "jeu de la vie " de Conway, ou l'algorithme "génère" des évènements inattendus.

    Le problème, c'est qu'on n'a par définition aucune idée de ce que peut produire ce programme, et qu'on n'est certainement pas capable de trouver un programme qui engendre de lui même un comportement suffisamennt humain pour qu'il puisse tenir une converstation avec nous, alors que le programme n'aura rien à voir avec notre programme biologique. Les programmateurs d'IA ne peuvent pas se permettre d'essayer ça, ils programment directement des fonctions évoluées... et ne récupèrent à la fin que ce qu'ils ont programmé, sans plus. Et du coup l'ordinateur "n'invente rien" de lui meme, ou bien il n'invente que ce pour quoi il a été strictement programmé à inventer.

    Cordialemennt

    Gilles

  22. #322
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par gillesh38 Voir le message
    parce que notre perception du monde est physique, et que notre cerveau, avant de servir à faire des choses élaborées, sert à percevoir, à surveiller, et à commander NOTRE corps physique.
    Rien de non applicable à une machine, rien en contradiction avec les conjectures que j'ai proposées.

    Je n'ai pas de souci pour étendre la notion d'intelligence à ce qu'on veut, et à dire dans ce cas que les ordinateurs sont deja intelligents, ou Gaia est un système intelligent.
    Moi non plus, mais ce n'est pas la question qui m'intéresse. Celle qui m'intéresse sont les conditions que devront remplir les machines pour que la notion floue d'intelligence soit étendue aux machines de manière acceptable pour la plupart des gens.

    Mais dans ce cas la question initiale tombe d'elle même. Je l'ai dit, je réponds à la question posée dans le sens ou je la comprends. Si l'intelligence est simplement un traitement d'information, alors les ordinateurs sont deja intelligents depuis longtemps, et le débat est fini ! .
    Nous sommes d'accord là-dessus!

    parce que le reste ne nous intéresse pas . une intelligence avec laquelle nous ne pourrions pas communiquer est inintéressante, et en plus intestable.
    Pas d'accord. En fait, on peut même imaginer conclure à l'intelligence sans la présence des entités. C'est de la fiction certes, mais si on visite une autre planète et qu'on y découvre certains objets que l'on intuite immédiatement comme des artefacts, les conditions peuvent vite atteindre un point où on pensera "intelligence".

    Et je suis sûr que nous trouverions cela très intéressant au contraire!

    Quand à intestable! Ce n'est pas le problème. Le seul test, puisque nous parlons de vocabulaire, c'est la réaction des humains, c'est leur choix d'usage du terme "intelligence", rien d'autre. Donc c'est toujours testable!

    Tu n'as pas vraiment répondu à la question que je posais je pense : est ce que pour toi les ordinateurs actuels SONT DEJA intelligents? et sinon qu'est ce qu'il leur manque pour qu'ils le soient selon toi?
    Il me semble avoir au contraire répondu moultes fois. Quand je parle d'impossibilité d'étendre l'ici et maintenant au futur, c'est bien parce que je pense que la situation ici et maintenant n'est pas telle que l'expérience à laquelle les humains sont confrontés les amènent à penser le terme "intelligence" en tant que terme décrivant une fonction, plutôt que comme un terme qu'ils se réservent, un terme "chauvin", si tu comprends ce que je veux dire par cette image.

    Ce qui manque? Qu'est-ce qui manquait aux sourds-muets au XVIIIème pour que la plupart des gens les considèrent stupides?

    Qu'est-ce qui manque aux dauphins pour qu'on les considèrent intelligents?

    (Amusant, le français... Comment utiliser la même structure pour dire des choses contraires... Et comment jouer sur la compréhension a priori du lecteur, plutôt que sur son analyse objective des phrases...)

    Manifestement, la barre est très haute pour que les humains sortent de leur chauvinisme.

    Je veux dire par là qu'il y a deux étapes distinctes pour chercher à cerner ce qui manque.

    Il y a la dernière étape, ce qui manque pour que les humains soient contraints, sauf à se retrouver avec un vocabulaire visiblement chauvin, à étendre la notion d'intelligence à autre chose qu'eux-mêmes. Cela passe vraisemblablement par le langage, permettant aux humains de se rendre compte que l'entité les comprend, eux, quand ils parlent. Et pas le contraire. Je pense totalement inutile (pour cette attribution du terme "intelligence") que les humains comprennent l'entité, du moins autrement que lorsqu'elle leur renvoie sa compréhension d'eux humains ou la compréhension du monde telle qu'eux humains l'ont.

    Il y a l'autre étape, intermédiaire, qui serait ce qui manque pour qu'une entité capable de traitement de l'information avancé et d'action soit intelligente à un sens qui transcende la mesquinerie humaine à attribuer ou non des termes dans lesquels les humains fondent leur ego.

    Là, je ne sais que répondre d'une manière floue, déjà parce que pour moi il y a un continuum dans ce domaine, donc toute frontière est nécessairement floue. En pré-requis, il faut une entité qui agisse, qui décide entre plusieurs cours d'action, dont les choix puissent s'analyser en termes de buts multiples, dont les stratégies (en termes de suite d'actions) soient au moins de temps en temps indirecte, laissant penser à une anticipation, une imagination des conséquences successives des différentes actions. Toujours dans les pré-requis, la capacité à changer les stratégies en fonction des réussites ou échecs précédents. Sur cette base, c'est juste une question de "complexité", de complexité des buts, variété des situations gérées, complexité de l'information traitée, complexité des stratégies suivies.

    Les machines actuelles ne sont pas à cette étape intermédiaire. Je ne pense pas avoir laissé penser que je pensais cela. Le jeu d'échec est un exemple dans la voie, mais représente un univers trop limité.

    Ce qui m'intéresse est ailleurs. D'un côté les pistes de progrès, les différentes avancées décrites par certains intervenants, me conforte dans l'idée que le traitement artificiel de l'information n'en est qu'à ses balbutiements. Et il est difficile de juger l'oiseau à la forme de l'oeuf, pour me répéter.

    De l'autre il y a ces différentes opinions qui proclament des limites aux potentialités du traitement artificiel de l'information qui le mettrait en situation d'infériorité par rapport aux capacités humaines. Personnellement, je n'en vois pas, simplement parce que je perçois la notion de traitement de l'information comme commune à l'artificiel et au vivant, au même sens que le vol est commun aux oiseaux, aux insectes, aux avions et aux hélicoptères. La mécanique n'est pas nécessairement la même, mais la fonction est la même. Peut-être que le rendement énergétique de l'artificiel aura du mal à être meilleur que le vivant, peut-être d'autres différences "mécaniques" resteront. Mais je ne vois pas de raison sérieuse pour une limite fonctionnelle; toutes celles présentées pêchent soit par "courte vue", par inférence du présent, soit par "chauvinisme", se traduisant par des exigences exagérées de similitudes avec l'intelligence humaine.

    Cordialement,

  23. #323
    invitedb5bdc8a

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    Le problème est de trouver un programme qui fasse que les robots inventent un langage sans que le programme initial ait été prévu pour ça (comme les sourds que justement personne n'avait programmé à faire ça !). Si on pense que c'est la structure génétique humaine qui est le "programme" , alors il faudrait trouver un programme analogue à la génétique humaine, c'est à dire un programme simulant un processus élémentaire (l'expression des proteines) dont les conséquences seraient inattendues. Le plius proche de ça est effectivement le "jeu de la vie " de Conway, ou l'algorithme "génère" des évènements inattendus.
    Le problème, c'est qu'on n'a par définition aucune idée de ce que peut produire ce programme, et qu'on n'est certainement pas capable de trouver un programme qui engendre de lui même un comportement suffisamennt humain pour qu'il puisse tenir une converstation avec nous, alors que le programme n'aura rien à voir avec notre programme biologique. Les programmateurs d'IA ne peuvent pas se permettre d'essayer ça, ils programment directement des fonctions évoluées... et ne récupèrent à la fin que ce qu'ils ont programmé, sans plus. Et du coup l'ordinateur "n'invente rien" de lui meme, ou bien il n'invente que ce pour quoi il a été strictement programmé à inventer.
    Ah, ben tu vois qu'on est d'accord Gilles ! Je ne dis rien d'autre que ça, en fait. Tout est dans l'algo choisit (exemple les automates cellulaires) qui doit être le plus libre possible si on veut qu'il produise des résultats inattendus. Parce que pour moi c'est sur qu'une propriété de l'intelligence est de produire des résultats inattendus.

  24. #324
    invite8915d466

    Re : Sondage intelligence artificielle

    Bonjour

    Mmy tu n'es pas très honnete dans ton dernier post. Tu suggère que tu poses des conditions minimales pour appeler une machine "intelligente" sans accepter de les préciser.


    Citation Envoyé par mmy Voir le message
    Celle qui m'intéresse sont les conditions que devront remplir les machines pour que la notion floue d'intelligence soit étendue aux machines de manière acceptable pour la plupart des gens.
    c'est entierement un probleme de psychologie. Mais pourquoi les gens devraient-ils changer leur sémantique? pourquoi est ce que l'acception actuelle (plus ou moins représentée par le test de Turing, pouvoir avoir un dialogie sensé), n'est pas acceptable telle quelle ?

    Pas d'accord. En fait, on peut même imaginer conclure à l'intelligence sans la présence des entités. C'est de la fiction certes, mais si on visite une autre planète et qu'on y découvre certains objets que l'on intuite immédiatement comme des artefacts, les conditions peuvent vite atteindre un point où on pensera "intelligence".
    uniquement par anthropomorphisme. rien n'interdit d'imaginer des "superabeilles" produisant des objets compliqués par "réflexe". Mais bon de toutes façons il est difficile d'imaginer que les objets soient produits sans une entité phsyique !


    Il me semble avoir au contraire répondu moultes fois. Quand je parle d'impossibilité d'étendre l'ici et maintenant au futur, c'est bien parce que je pense que la situation ici et maintenant n'est pas telle que l'expérience à laquelle les humains sont confrontés les amènent à penser le terme "intelligence" en tant que terme décrivant une fonction, plutôt que comme un terme qu'ils se réservent, un terme "chauvin", si tu comprends ce que je veux dire par cette image.
    je ne crois pas que l'intelligence soit par nature réservée aux humains : je pense comme je l'ai dit qu'elle ne peut émerger que d'un processus non algorithmique, analogique, mais ça n'est absolument pas réservé aux humains : en revanche ça exclut les ordinateurs actuels.



    Ce qui manque? Qu'est-ce qui manquait aux sourds-muets au XVIIIème pour que la plupart des gens les considèrent stupides?

    Qu'est-ce qui manque aux dauphins pour qu'on les considèrent intelligents?

    Manifestement, la barre est très haute pour que les humains sortent de leur chauvinisme.

    Je veux dire par là qu'il y a deux étapes distinctes pour chercher à cerner ce qui manque.

    Il y a la dernière étape, ce qui manque pour que les humains soient contraints, sauf à se retrouver avec un vocabulaire visiblement chauvin, à étendre la notion d'intelligence à autre chose qu'eux-mêmes. Cela passe vraisemblablement par le langage, permettant aux humains de se rendre compte que l'entité les comprend, eux, quand ils parlent.
    mais qu'appelles tu "comprendre"? après tout ton ordinateur te "comprend " bien quand tu tapes sur ton clavier non?


    En pré-requis, il faut une entité qui agisse, qui décide entre plusieurs cours d'action, dont les choix puissent s'analyser en termes de buts multiples, dont les stratégies (en termes de suite d'actions) soient au moins de temps en temps indirecte, laissant penser à une anticipation, une imagination des conséquences successives des différentes actions.
    Toujours dans les pré-requis, la capacité à changer les stratégies en fonction des réussites ou échecs précédents. Sur cette base, c'est juste une question de "complexité", de complexité des buts, variété des situations gérées, complexité de l'information traitée, complexité des stratégies suivies.

    Les machines actuelles ne sont pas à cette étape intermédiaire.
    ben, pourquoi donc? elles réalisent deja bien tout ça !

    Je ne pense pas avoir laissé penser que je pensais cela. Le jeu d'échec est un exemple dans la voie, mais représente un univers trop limité.
    pourquoi? on peut considérer que c'est deja bien suffisant ! d'ou viennent tes reticences a considérer Deep Blue comme intelligent? il y a bien quelque chose de sous-jacent que tu n'arrives pas à exprimer clairement, il me semble. Tu emploies des mots comme "imaginer", "se représenter", "comprendre", mais tout le probleme est ce qu'on sous-entend par ces mots, et ta réponse ne l'éclaire guère...

    Cordialement

    Gilles

  25. #325
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    Mmy tu n'es pas très honnete dans ton dernier post. Tu suggère que tu poses des conditions minimales pour appeler une machine "intelligente" sans accepter de les préciser.
    Deux bonnes raisons pour ne pas être précis:

    On fait de la prospective. Il n'est pas possible d'être précis pour parler de choses qui n'existent pas encore ou qui n'existeront peut-être pas. Les concepts se forgent à l'usage, en face de cas pratiques. Toute la discussion achoppe sur l'imagination. Les non imaginatifs ne peuvent pas reprocher aux imaginatifs de ne l'être pas assez pour être précis.

    Ensuite, j'ai déjà exprimé l'idée d'un continuum. Il y a, et il y a aura des cas clairs "intelligents" ou "pas intelligents", et une immense zone intermédiaire. Etre précis n'a aucun sens dans un tel cas, parce que la frontière "qui fait sens" (pour les humains) dépendra de leur expérience.

    c'est entierement un probleme de psychologie. Mais pourquoi les gens devraient-ils changer leur sémantique?
    Pourquoi n'a-t-on pas inventé un mot différent pour le vol des avions, ou les ailes? Ou le vol des hélicoptères? Les mots "vol" ou "aile" existaient avant, mais n'étaient utilisés que pour les animaux. Ils ont été étendus par le concept de vol ou d'aile faisait sens (et ce quand bien même l'aile d'un oiseau sert à la propulsion en plus de la portance).

    Une question importante du débat, et peut-être en fait la seule, est si le concept d'intelligence fait sens par lui-même, plutôt que par référence aux humains.

    pourquoi est ce que l'acception actuelle (plus ou moins représentée par le test de Turing, pouvoir avoir un dialogue sensé), n'est pas acceptable telle quelle ?
    Je ne cherche pas à déterminer ce qui est acceptable ou pas aujourd'hui.

    Je cherche à comprendre le concept d'intelligence en lui-même, en s'abstrayant des cas limités de l'expérience actuelle. Je cherche à juger de la conjecture qu'un tel concept se dégagera de la gangue où il est pour le moment empêtré, par l'effet de l'apparition d'autres entités que les humains.

    L'argument principal qu'une telle extension soit possible est que l'on juge de l'intelligence des autres humains, nous n'attribuons pas le terme intelligence sous seule condition d'être humain. Que ce soit une condition nécessaire pour certains, pourquoi pas. Mais même ceux-ci n'en font pas une condition suffisante. Et nous jugeons de l'intelligence sur des actes, sur des comportements, pas sur l'algorithmicité ou tout critère de fonctionnement interne.

    Deuxième étape de la conjecture, celle proposant que les machines soient ces autres entités.

    uniquement par anthropomorphisme. rien n'interdit d'imaginer des "superabeilles" produisant des objets compliqués par "réflexe".
    Pas uniquement par anthropomorphisme. Tu parles des abeilles, on pourrait parler des castors, des nids d'oiseaux, il y a quelques exemples de constructions par d'autres entités que les humains. Nous savons juger de l'adaptation des objets à des contraintes contingentes, et d'autres critères, pour évaluer le mode de traitement (réflexe ou autre) qui a été à l'origine des objets. A cette échelle, on jugera certainement dans l'ordre abeilles < oiseaux < castors. Et, même si ça tombe dans l'ordre de la proximité phylogénétique, je ne pense pas que ce soit par anthropomorphisme.

    Je ne crois pas que l'intelligence soit par nature réservée aux humains
    Je ne juge pas de tes croyances.

    : je pense comme je l'ai dit qu'elle ne peut émerger que d'un processus non algorithmique, analogique, mais ça n'est absolument pas réservé aux humains
    Prenons alors un autre axe. Si je prend ta phrase comme ingénieur, et partant de l'idée (discutable) que des machines intelligentes seront développées par les humains si c'est possible, parce que l'utilité en est indéniable si les critères d'utilité gouvernant le progrès techniques des derniers millénaires se maintient, tu dis que la technique actuelle est une impasse, qu'elle a des limitations intrinsèques, et donc qu'il faudra attendre une révolution technique pour avoir de meilleures bases pour atteindre ce but de faire des machines intelligentes. Est-ce la bonne compréhension? Celle d'une impasse technique?


    mais qu'appelles tu "comprendre"? après tout ton ordinateur te "comprend " bien quand tu tapes sur ton clavier non?
    On ne peut que buter sur ces problèmes de vocabulaire. Soit on accepte d'étudier comment ces mots pourraient être étendu, soit on ne peut pas discuter du sujet.

    ben, pourquoi donc? elles réalisent deja bien tout ça !
    Pas avec la complexité suffisante pour que la "sensation" d'intelligence soit commune, comme tu en es un exemple.

    pourquoi? on peut considérer que c'est déjà bien suffisant !
    Certains considèrent que c'est suffisant. Pas la majorité. Pas toi. (Et pas moi!)

    mais tout le problème est ce qu'on sous-entend par ces mots, et ta réponse ne l'éclaire guère...
    Tout le problème est ce qu'on entend par le mot "intelligence" et aucune réponse de ta part ou d'autre n'a éclairé le problème. Tout ce que est donné ou presque sont des exclusions: l'intelligence n'est pas algorithmique, principe posé sans que l'intelligence ne soit définie.

    Je n'ai pas de définition. Alors je me contente de regarder ce que les humains font avec ce mot. J'essaye d'imaginer ce qui peut se passer dans le futur pour les machines, ça c'est intéressant. Le sujet de savoir ce que les humains vont faire des mots "intelligence", "comprendre", etc. est annexe, et est plus un problème de psychologie qu'un problème concernant les capacités des machines.

    Je répète une n-ième fois, toi et d'autres ne discutez pas des potentialités des machines. Même quand tu sembles le faire en parlant d'algorithme, tu ne parles pas réellement des potentialités des machines: tu dis en gros "il y a des capacités humaines que j'estime ne pas être dans le potentiel des machines à fonctionnement algorithmique". Ce faisant tu ne cherches pas à savoir quel est ce potentiel, tu veux juste exclure de ce potentiel quelque chose. Et, comme par hasard, ce qui est exclu est l'intelligence.

    Cordialement,
    Dernière modification par invité576543 ; 29/04/2007 à 13h25.

  26. #326
    invite8915d466

    Re : Sondage intelligence artificielle

    Bonjour

    je suis tout à fait d'accord sur le fait que la capacité "d'intelligence" n'est pas réalisée, dans ce que j' comprends du sens commun, par les machines actuelles.

    Mais comme tu as l'air de critiquer ce sens commun (ce que personnellement je ne fais pas, je l'accepte comme une définition), je m'interroge où sont pour toi les limites de ce que tu as envie d'appeler "intelligence". Dans la mesure où les systèmes experts font déjà des évaluations, donc des choix, et qu'on peut leur mettre des raisonnements indirects, ça me parait satisfaire tes critères.

    Ca ne satisfait pas les miens parce que cette structure de raisonnement est figée dans des limites venant de son programme, qu'on est obligé de garder inviolables parce qu'elles sont algorithmiques. Meme si le programme est susceptible d'évolution, et d'auto apprentissage, cet auto apprentissage est strictement encadré par le "programme maître". Comme je l'ai déjà fait remarquer plus haut, ça interdit, par exemple, de trouver un programme qui permette à la machine d'apprendre à se servir d'un appareil pas encore mis au point que le programmeur ne connait pas lui même.

    Ce n'est donc pas l'humain qui est nécessaire pour l'intelligence : c'est un système qui a été naturellement sélectionné par le milieu dans lequel il évolue, et cette sélection (darwinienne) étant par définition imprévisible, est non algorithmique.

    Un programme auto-apprentisseur est sélectionné par un environnement artificiellement prédéfini par l'humain, et n'est donc pas apte à s'adapter à quelque chose d'inconnu du programmateur. C'est à mon avis la raison pour laquelle on ne considère pas qu'un ordinateur n'est pas intelligent : c'est qu'on sait d'avance ce qu'il va pouvoir faire ou ne pas faire, et si il est capable d'auto apprentissage, on sait ce qu'il peut apprendre. En construisant un ordinateur POUR UN BUT que nous maitrisons, nous lui interdisons par principe de faire autre chose.

    Un etre non humain (comme un alien) qui se serait développé dans un milieu naturel et s'y serait adapté pour y faire des choses complqiuées comme nous mériterait bien sur d'etre qualifié d'intelligent, même si nous ne pouvions pas communiquer avec lui. Mais comme l'etre humain, il ne serait pas transcriptible non plus par un ordinateur .

    Cordialement

    Gilles

  27. #327
    invitec00162a9

    Re : Sondage intelligence artificielle

    Bonjour,
    Citation Envoyé par gillesh38 Voir le message
    bah, ça ne m'impressionne pas. Ce n'est pas ce que j'appelle un langage, parce que ce qu'on appelle un "mot" est métaphorique , dans cette expérience. Dans ce cas, un système qui surveille une usine et qui envoie des messages quand ça ne va pas a deja un langage.
    Soit j'ai mal expliqué, soit tu as complètement compris de travers ce que j'ai dit.
    Dans le système que tu évoques, les mots du langages et leur signification, c'est-à-dire le protocole de dialogue, sont fixés une bonne fois pour toutes à la conception de ce système.
    Ce n'est absolument pas le cas dans l'expérience que je décris : le protocole n'est pas fixé à la conception des robots, il se construit au fur et à mesure par les robots eux-mêmes. Seule l'aptitude à en développer un est présente.

    Le problème est de trouver un programme qui fasse que les robots inventent un langage sans que le programme initial ait été prévu pour ça (comme les sourds que justement personne n'avait programmé à faire ça !).
    Comme dans le cas des robots précédents, les sourds en question ont forcément l'aptitude pour en développer un. De même les êtres humains naissent forcément avec l'aptitude à parler et échanger, sinon, par pure logique, ils ne pourraient jamais le faire.

    Le plius proche de ça est effectivement le "jeu de la vie " de Conway, ou l'algorithme "génère" des évènements inattendus.
    On démontre que ordinateur (plus exactement : machine de Turing universelle) et automates cellulaires sont strictement équivalents : ce qu'on peut faire avec l'un, on peut le faire avec l'autre, et vice-versa.

    Maintenant, on sait qu'on peut construire des machines autoréplicantes à base d'automates cellulaires (ça a été démontré par Von Neumann).
    On peut imaginer qu'une première génération de machines disposent (par le programmeur)
    1) d'une aptitude à construire un protocole de dialogue non fixé à la conception.
    2) d'une capacité d'autoréplication.

    A partir de la troisième génération, les machines sont complètement autonomes. Après, on peut toujours invoquer "le péché originel" de la première génération , à savoir s'être compromis avec l'homme, et l'avoir transmis à la descendance.

    C'est ça ce que je reprochais dans un message précédent aux détracteurs des machines intelligentes : modifier subtilement leur définition de l'intelligence dès qu'une machine semble s'en approcher pour être certain qu'elle ne le sera jamais.

    Ce n'est pas de la mauvaise foi, c'est que la "pression" mise par les machines les obligent à revoir leur propre compréhension de l'intelligence. Et effectivement, comme il y a toujours plus à comprendre en ce domaine, l'ancienne version (avant de savoir que les machines exhibent telle ou telle capacité) et la nouvelle (après l'avoir appris) ne coïncident pas.

  28. #328
    invite6c250b59

    Re : Sondage intelligence artificielle

    [excusez en retard d'une page]

    Je connais trois angles d'attaque pour valider/invalider un raisonnement: 1) vérifier les postulats; 2) vérifier le "décours logique" de la démonstration; 3) trouver un contre-exemple évident.

    Let's go

    1) vérifier les postulats

    A implique B <=> l'intelligence suppose une représentation correcte de son support physique
    Comme mmy on peut se demander "Pourquoi le "soi" est-il le support physique? Ne peut-on concevoir un "soi" spécifique à ce qui est transportable?". En réalité on peut largement choisir la définition qu'on veut, mais l'approche de Gilles est plus subtile: définir l'intelligence comme "ce que intuitivement les gens reconnaissent comme intelligent".

    Autrement dit, Gilles postule que seules les personnes avec une représentation correcte de leur support physique seront intuitivement identifiées comme intelligentes. Ce n'est pas ce que je constate:

    *Connaissance scientifique du support: si je demande quels sont les mouvements principaux et accessoires du sartorius ou du pectiné, il est probable que peu sauront répondre sans un coup de google -ils sont pourtant humains.

    *perception du corps 1: lorsque quelqu'un perd ses afférences somatosensorielles, le schéma corporel devient inadéquat, ce qui à tout fin pratique diminue drastiquement les capacités motrices. Voilà des gens dont la corporalité est déconnectée de la réalité sensorielle -ils sont pourtant humains.

    *perception du corps 2: lorsque quelqu'un est amputé, un phénomène de membre fantôme est quasi-systématique. Il s'agit de sentir son membre perdu, sentir (et parfois contrôler) des mouvements de ce membre fantôme, éprouver une douleur chronique à ce membre censé ne plus exister (parfois à la limite du supportable, parfois au-delà). Encore une fois la représentation corporelle est déconnectée de la réalité physique -ils sont pourtant humains.

    *perception du corps 3: après certaines lésions il existe des gens qui ne sont pas d'accord avec la présence d'un de leur membre. Ils ne sont pas délirant et leur jugement est selon toute (autre) évidence intact: "Ma jambe gauche docteur, je sais que ça a l'air fou, mais ce n'est pas la mienne: enlevez-là!". Evidement les docteurs refusent, ce qui fait qu'on se retrouve avec des gens qui s'auto-amputent. Tout ça parce que leur sentiment profond leur indique, comme une évidence sensorielle incontournable, qu'une partie physiologique de leur corps n'est pas leur -ils sont pourtant humains.

    *identité sexuelle: un transsexuel pense, ou plutôt ressent profondément, que son sexe physiologique ne s'accorde pas avec son "vrai" sexe. Autre exemple frappant de divergence entre l'identité ressentie et l'identité physiologique -ils sont pourtant humains.

    *représentation de son appareil sensoriel, moteur, ou cognitif: il arrive qu'un patient (neurologique) soit anosognosique, ce qui est un gros mot pour dire "incapable de reconnaitre une incapacité". Je ne parle pas de dénis, et il ne s'agit pas d'un effet subtil: par exemple un aveugle qui va dire "pas mauvaise" quand on le questionne sur sa vue. Mis au pied du mur si on lui demande de lire quelque chose, il va essayer puis reconnaitre que "oui ok là tout de suite c'est un peu faible, mais d'habitude pas de problème" tout en affichant un air perplexe: ça le surprend de ne pas réussir à lire le livre -ça fait juste 10 ans qu'il est aveugle après tout. On peut avoir le même phénomène avec la sphère motrice ("marcher? oui pas de soucis" - il a juste deux jambes paralysées après tout), ou pour des déficits cognitifs. Encore une fois la connaissance des possibilités sensorielles, motrices ou cognitives réelles de son corps fait défaut -ils sont pourtant humains.

    Dans tous les cas précédent, quand je dis "ils sont pourtant humains", je veux dire que personne, au meilleur de mes connaissances, n'a jamais remis en doute que, en dehors de leurs particularités, ces gens sont aussi humains et aussi intelligent que quiconque.

    Ce n'est pas parce que c'est automatique dès qu'on voit un humanoïde: la question est parfois ou s'est parfois posée pour les gens qui perdent l'encodage mnésique à long terme (vivant ainsi dans un éternel présent), les démences profondes (Alzheimer stade terminal), les pertes massives du cerveau ("réveil" de coma, paralysie cérébrale de gravité extrême, etc), et encore aujourd'hui les préjugés contre l'intelligence des schizophrènes ou des autistes restent forts. Un point commun récurrent dans ces cas: des difficultés de langage. Je n'irais pas chercher plus loin le "définition intuitive de l'intelligence"


    B implique non(D) <=> une représentation correcte de son support physique suppose la non indépendance par rapport au support physique
    Ecoutons mmy: "Qu'est-ce qui empêche un "soi" variable, un "soi" central lié au programme et indépendant du support, et un "soi" étendu, étendu aux "prothèses" temporaires que constitue le matériel support?"

    Réponse: rien du tout! Une entité basée sur un système d'algorithme pourra avoir dans les propriétés connues de son corps la possibilité de changer de support, de la même façon que nous avons dans les propriétés connues de notre corps la possibilité de changer une dent ou une articulation de la hanche sans que ça nous pose de problème existentiel. Dire que cela n'est pas pareil pour le cerveau serait surprenant: la plupart des humains de l'histoire ont vécu sans avoir la moindre idée que leur pensée était produite par le cerveau -ils étaient pourtant humains.

    Le dernier postulat et le décours logique de la démonstration ont l'air ok, par contre je m'en voudrais d'oublier

    3) trouver un contre-exemple évident.

    Je suis humain, et parmi les propriétés que j'attribue à mon identité il y a la possibilité de changer de support, en théorie sinon en pratique -tu me reconnais pourtant comme humain. Enfin je penses

    Citation Envoyé par gillesh38
    je sens le piège mais vas y dis ce que tu as dans la tête
    C'est encore plus machiavélique que tu ne le crois

    En fait ça ne m'intéresse pas de te démontrer que ce raisonnement est faux je l'avais déjà fait, ce qui m'intéresse est de te montrer que ce n'est pas un raisonnement central à ta conviction, puisque tu vas maintenant changer ta ligne d'approche.

    ===

    shahinshah voici un truc qui devrait t'intéresser

  29. #329
    spi100

    Re : Sondage intelligence artificielle

    Pour compléter ce que dit Shahinshah. Il s'agit des travaux de F. Kaplan sur l'émergence d'un language dans un groupe de robots. On peut retrouver son travail dans une thèse publiée chez Hermes.

    L' a priori de ce travail est que si l'Homme a une aptitude au langage, un individu ne le développe qu'au contact d'autres individus i.e. dans une situation d'interaction. Plusieurs expériences ont été menées en Grèce antique, et au moyen age, qui consistaient à isoler des enfants dès leur naissance. L'idée était que ces enfants, privés de tout contact linguistique, devait alors parler la langue originelle. Deux types de résultats ont été obtenus :
    1/ les enfants ne parlaient pas du tout
    2/ les enfants parlaient la langue de ceux qui leur apportaient à manger.

    Ces expériences bien que barbares (et au résultat évident pour nos contemporains, du moins je l'espère), montrent que le langage n'est pas "contenu" dans individu, mais le résultat d'un conscencus entre plusieurs individus qui échangent de l'information.
    Deux points de vu sont alors possibles :
    1/ les actes de langages sont des énoncés logiques sur le monde, qu'il convient de valider ou d'invalider. C'est l'approche de Saussure.
    2/ les actes de langages sont des commandes que les individus s'envoient les uns aux autres. Ces commandes réussisent ou échouent selon que le destinataire agit de la façon attendu ou non, par celui qui émet. Approche plus moderne essentiellement dûe à Searl.

    Dans la seconde approche, le language n'est plus à voir comme un système formel, et il est même absurde de chercher à le faire. En linguistique, on dit souvent que c'est l'usage qui fait la langue et non sa grammaire. La grammaire n'est qu'un modèle rendant compte d'une langue à un instant donné.

    Gillesh38 je ne pense pas qu'il y ait encore beaucoup de monde en IA, pour chercher à construire un système formelle du language. Un système de traduction automatique est plutot un système manipulant un texte pour le transformer en une structure débarassée de tout ambiguité. Et qui opère ensuite un ensemble de transformation pour le ramener dans une langue donnée. Car le problème de la traduction automatique est l'ambiguité. On ne peut pas traiter une phrase en tant que telle, il faut la mettre en contexte. Je te donne des exemples :

    * Le boucher sale la tranche ( tu ne sais pas hors contexte si le boucher est sale, ou s'il est entrain de saler une tranche)
    * Je regarde l'homme qui descend de la plaine avec un téléscope : tu ne sais pas à qui raccrocher le télescope.

    Dans ces exemples ce n'est pas une supposée non algorithmie qui pose problème. L'enjeu actuel de la traduction automatique est d'être capable de représenter, construire et de manipuler un contexte.
    Dernière modification par spi100 ; 30/04/2007 à 13h20.
    GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++

  30. #330
    invitec00162a9

    Re : Sondage intelligence artificielle

    Bonjour,
    Citation Envoyé par gillesh38 Voir le message
    ça interdit, par exemple, de trouver un programme qui permette à la machine d'apprendre à se servir d'un appareil pas encore mis au point que le programmeur ne connait pas lui même.
    Je ne suis pas certain que l'être humain n'ait pas à faire face à une difficulté similaire. Après tout, si on te fourni une machine (pas forcément un ordinateur), sans mode d'emploi, sans quelqu'un pour t'expliquer, et où les boutons et les voyants sont dans une langue que tu ignores, je pense que tu vas avoir du mal.

    On peut aussi comparer ça aux archéologues qui essayent de déchiffrer une écriture inconnue, ou le mode d'emploi d'un ustensile inconnu.

    La raison pour laquelle on arrive à utiliser une machine qu'on ne connaissait pas avant, c'est parce qu'une chaîne de propagation d'information sur son emploi s'est établie entre l'utilisateur et le concepteur de cette machine.

    Un programme auto-apprentisseur est sélectionné par un environnement artificiellement prédéfini par l'humain, et n'est donc pas apte à s'adapter à quelque chose d'inconnu du programmateur. C'est à mon avis la raison pour laquelle on ne considère pas qu'un ordinateur n'est pas intelligent : c'est qu'on sait d'avance ce qu'il va pouvoir faire ou ne pas faire, et si il est capable d'auto apprentissage, on sait ce qu'il peut apprendre. En construisant un ordinateur POUR UN BUT que nous maitrisons, nous lui interdisons par principe de faire autre chose.
    Cet argument n'a de sens que si on considère une notion de but absolu. Car des buts relatifs, ce n'est pas ce qui manque. A commencer par le désir des parents d'avoir des enfants : un être humain est le but de ses parents.
    D'ailleurs, y a-t-il une différence de nature entre vouloir avoir des enfants et vouloir dialoguer avec un robot intelligent ?
    La question peut paraître provocatrice, mais pas tant que ça, car j'ai lu que la Corée du Sud envisageait d'incorporer les lois de la robotique d'Asimov dans son code juridique. En effet, compte tenu de la forte réduction des naissances dans ce pays, on envisage que les personnes âgées feront appel à des robots pour leur tenir companie et que des problèmes ethiques quant à leur traitement par les êtres humains se poseront.

    Pour en revenir à la question du but : on pourrait dire que par hypothèse, il n'y a pas de but absolu à la présence des êtres humains et par conséquent, il n'y en a pas non plus à celles des ordinateurs. Qu'il y ait un but relatif des êtres humains aux ordinateurs ne devrait pas empêcher de considérer que les ordinateurs sont autant un produit de la sélection naturelle que les être humains.

    Ce raisonnement paraît un peu absurde.

    Le plus simple, à mon avis, est que la question d'un
    éventuel but de l'homme ou de la machine n'a rien à voir avec le problème des machines intelligentes. On peut très bien s'en passer.

Page 11 sur 16 PremièrePremière 11 DernièreDernière

Discussions similaires

  1. Intelligence Artificielle...
    Par inviteba0a4d6e dans le forum [ARCHIVE] Philosophie
    Réponses: 445
    Dernier message: 06/11/2004, 18h38
  2. Intelligence artificielle
    Par invite68b1fbe7 dans le forum [ARCHIVE] Philosophie
    Réponses: 120
    Dernier message: 05/08/2004, 10h05
  3. Intelligence artificielle
    Par invitec37f3680 dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 20h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 11h01