Intelligence Artificielle... - Page 4
Page 4 sur 15 PremièrePremière 4 DernièreDernière
Affichage des résultats 91 à 120 sur 446

Intelligence Artificielle...



  1. #91
    inviteeab9c5e9

    Re : Intelligence Artificielle...


    ------

    Je me doute que ca ne suffira pas, mais voila:
    Avec un systeme de "fierté" ou de compétition avec une autre IA qui doit trouver la meme solution (il faut alors implémenter cet aspect "etre meilleur" => fierté/plaisir, ou simplement faire plaisir au maitre (nous en l'occurence ) => fierté/plaisir)
    Et se debrouiller pour que la recherche de plaisir soit le moteur de volonté.

    Mais bon c'est un peu bateau je crains... et on reste toujours dans ce syteme "simulation" d'emotions...

    -----

  2. #92
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par BBer
    Et se debrouiller pour que la recherche de plaisir soit le moteur de volonté.
    Si tu fais cela, tu es probablement voué à l'échec, car tu "importes" ton intelligence extérieure pour résoudre une partie du problème, et ce faisant tu te retrouves dans une situation du même type que les robots M6 dont je parlais précédemment. Tu ne fais que reporter le problème. Ici en l'occurence tu reportes le problème sur la volonté, mais cela ne change rien fondamentalement. Pour qu'un tel système fonctionne, il faut que la volonté soit plus qu'une valeur numérique. Essaye de faire un modèle plus poussé incluant la volonté, je pense que tu constateras qu'on ne fait que repousser le problème à chaque fois. Il restera toujours un "résidu" non calculable que l'on ne pourra intégrer au modèle.

    PS : Ah, et si vous pensez qu'un "module chaotique" peut changer quelque chose à un tel modèle, il faut savoir que Penrose a envisagé ce cas dans sa démonstration sur les robots mathématiciens, et cela ne change rien.
    Dernière modification par mbollaert ; 24/09/2004 à 17h23.

  3. #93
    pi-r2

    Re : Intelligence Artificielle...

    Cette discussion a beaucoup avancé depuis mon dernier post. Je vais essayer de reprendre les points soulevés qui m'apportent beaucoup. Je tiens d'ailleurs à remercier les intervenants pour la qualité de leurs arguments et leur patience vis à vis de certaines de mes affirmations parfois un peu provocatrices. Vous me permettez en effet d'affiner mon argumentation et d'améliorer ma communication. Si ma manière de présenter mes idées a pu paraitre trop prétentieuse je m'en excuse et en prends bonne note. La difficulté est de parler de manière claire d'idées qui sont encore parfois un peu floues... J'ai même l'impression d'avoir ofensé certains intervenants, ce n'était pas mon intention. en revanche dans l'autre sens, n'hésitez pas à tirer à boulets rouges, j'aime qu'on me fasse mal ()
    Bon , dans l'ordre des intervenants:

    Citation Envoyé par BBer
    tu admettra qu'il existe des gens ayant une memoire phénoménale Je pense quant à moi que les neurones ne doivent pas etre considérés comme des bits.
    Je l'admets volontier. Je ne tenterai pas de donner des chiffres sur les capacités du cerveau. Je note juste que cette capacité est finie, même si le nombre est grand. La quantité d'information brute qui entre juste par la vue est de l'ordre de 1 Gb par seconde, ce qui sans traitement de compression approprié conduit irrémédiablement à une saturation très rapide de la capacité de stockage. Personnellement je me sens en "butée" sur la capacité de mon cerveau (je sais, je suis limité )

    Citation Envoyé par Attila
    Je constate simplement que les gens qui travaillent dans l'IA, comme moi, depuis des années, sont beaucoup plus modestes quand aux performances que l'ordinateur peut atteindre, que ceux qui développent de grands arguments, mais qui n'ont jamais essayé de faire un traducteur automatique, ou un système de reconnaissance de formes, ou d'interprétation d'image.
    Je ne cherche en rien à critiquer ceux qui travaillent dans l'IA. Mon "intuition" vient de la biologie et me force à des horizons nouveaux. Ceci dit, je pense que le problème de la traduction ou de la reconnaissance de forme c'est que l'on a essayé de simplifier le problème en réduisant le scope, alors que tous ces problèmes demandent de l'intelligence pour leur résolution. Donc SI on résoud le problème de la traduction, on résout le problème de la reconnaissance de forme (à quelques petits modifs d'informaticiens près). Pour traduire il faut en effet être intelligent ET suivre l'évolution de la culture des langues vivantes. Comme c'est le cas en mathématiques,il est parfois plus simple de résoudre un problème dans le cas général que dans un cas particulier.

    Citation Envoyé par BBer
    N'empeche qu'il suffit peut etre simplement de bonnes idées et de bonnes volontés....
    Nous sommes là non ? Même la plus petite personne peut changer le cours du monde.

    Citation Envoyé par mbollaert
    .Je vais en rester là pour ma part avec cette discussion.
    Ce serais dommage car ton argumentationest construite et intéressante. Ceci dit ton post est long, je ne citerai pas point par point.
    50 ans , je parlais de sciences, de découvertes pas d'informatique. L'info cours très vite mais dans le développement. La preuve, c'est qu'en IA justement on a du mal, car il faut développer des concepts nouveaux.
    C'est l'heure de manger. Je continuerai donc + tard...
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  4. #94
    inviteeab9c5e9

    Re : Intelligence Artificielle...

    pour moi, la volonté c'est ce qui décide à accomplir une action
    concretement, je demande à mon IA de calculer 2+2, comme cela lui fait plaisir de me répondre (parce qu'elle m'aime bien ), une note de volonté est attribuée à ce calcul. Si cette note est suffisemment importante (par rapport aux autres taches, ressources utilisées, etc...) alors le mécanisme de résolution de probleme est enclenché. Tout cela reste tres mécanique...
    et effectivement on se limite surtout à deplacer le probleme.

  5. #95
    pi-r2

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    L'intuition n'est pas une notion mathématique.
    je ne cherche pas à étudier l'intuition. Par contre j'ai constaté en mathématiques qu'il faut avoir l'intuition du résultat pour pouvoir le démontrer. Le calcul brut à partir des hypothèses et des théorème n'est pas le mode de recherche du mathématicien. D'ailleurs pour moi la démarche scientifique consiste bien à émettre une hypothèse (et là il faut de l'intuition) puis à la valider par l'expérience.

    Citation Envoyé par mbollaert
    Visiblement, on ne parle pas de la même chose. Je parle de différences au niveau de la calculabilité, pas de différences technologiques. Depuis le début de ce post tu parles d'évolutions technologiques (ordi à lampes, à CI, quantiques, ...). Les évolutions technologiques (y compris MQ) ne changent rien au problème tant qu'on ne découvre pas une nouvelle forme de calculabilité, ce qui est purement hypothétique.
    Alors vu comme cela je suis entièrement d'accord avec toi. Il n'y aura pas d'évolution de la notion de calculabilité et le théorème de Gödel est juste. Par contre cela ne change rien sur la possibilité d'IA.
    Citation Envoyé par mbollaert
    Oui, l'introspection marche, parfois, mais c'est toujours risqué de bâtir une théorie dessus.
    je ne m'en sers pas pour bâtir une théorie mais pour avoir des idées de directions à prendre, avec une probabilité de réussite qui me satisfasse.
    Citation Envoyé par mbollaert
    Ah oui, j'aime bien quand tu me montres la voie, maître Pô =)
    Je ne voulais pas paraitre gourou de secte, c'est un boulot qui demande trop d'investissement personnel
    Mais ceci dit et sans vouloir paraitre aucunement maitre de quoi que ce soit ou de qui que se soit, je t'encourage à approfondir ta réflexion personnelle sur le sujet.

    Citation Envoyé par mbollaert
    je n'ai jamais postulé que la conscience ou l'intelligence sont des systèmes formels
    Je ne postule rien, je formule des hypothèses que je pousse à fond sans à priori.

    Citation Envoyé par mbollaert
    Je suis plutôt d'accord avec ça. On verra, lorsque de tels systèmes apparaîtront, de quoi ils seront capables. Mais probablement qu'on comprendra à ce moment (ou avant) qu'ils ne sont pas vraiment intelligents, de même que le programme d'échecs ne l'est pas. Et, même si ces systèmes deviennent réellement intelligents, il subsistera encore nombre de problèmes, par exemple :

    - Auront-ils envie de réfléchir ?
    - Auront-ils envie d'aider ?
    - Auront-il la volonté de résoudre les problèmes qu'on leur soumettra ?
    Je ne me place pas à ce niveau. Comme je pars d'en dessous avec une machine non intelligente, je ne postule pas ces direction. Je compte les découvrir au fur et à mesure, car je suis d'accord avec toi qu'il ne peut pas y avoir d'intelligence sans un "moteur" d'exploration.
    Citation Envoyé par mbollaert
    Je crois que tu simplifies trop les choses, mais bon, je ne veux pas m'engager dans ce débat. Ca peut être une activité distrayante, de "casser de l'icone", mais je préfère d'abord comprendre de quoi ils parlent, sait-on jamais, ça peut être intéressant. Non, sérieusement, à te lire on a un peu l'impression que tu es le seul à comprendre quelque chose à l'intelligence, et que les centaines ou milliers de chercheurs en science cognitives n'ont rien compris jusqu'ici. Si tu te positionnes comme cela, il va falloir assurer... Pour ma part, j'étudie cette question épisodiquement depuis 20 ans environ, dont 6 ans intensément. Et je suis loin de faire preuve de l'aplomb qui est le tien. Au contraire, mes recherches m'ont appris l'humilité. La tâche à laquelle tu t'attelles est vraiment énorme, je ne suis pas certain que tu en aies saisi toute son ampleur. Quoi qu'il en soit je te souhaite sincèrement bonne chance, et bien sûr, tiens nous au courant si tu avances. Et... prends le temps de lire un peu, de temps en temps
    Bon finalement j'aurai tout cité. Merci de tes encouragements. Effectivement je simplifie, c'est la voie que j'ai choisie: je réduit au maximum, jusqu'à ce que ça me paraisse simple tout en gardant sa fonctionalité. J'ai commencé par l'ordinateur, j'ai continué sur les langages de programmation. Je suis désolé si je donne l'impression d'une absence d'humilité, mais c'est justement le contraire. Je crois que les milliers de chercheurs cherchent trop compliqué justement. Quant à l'énormité de la tache, j'espère bien que ma machine va bientot prendre le relai. C'est ça le but intermédiaire.
    Citation Envoyé par mbollaert
    Dans tout ce que tu dis, c'est cette idée qui me paraît, et de loin, la plus intéressante.
    Si c'est aspect est le plus porteur, alors j'essaierai de me focaliser plus dans ce sens à l'avenir. Merci de ce précieux retour d'information.
    Citation Envoyé par mbollaert
    Il y a même potentiellement toute une nouvelle discipline scientifique ici. Il s'agirait d'étudier comment une fonction "supérieure" peut "émerger" à partir d'un système organisé pour former un système qualitativement différent..
    C'est exactement le sens de ma démarche. et c'est ce que Wolfram appelle a new kind of science. L'intelligence artificielle n'est pour moi qu'un sous produit de cette tentative de comprendre la construction du complexe (ça y est je sens que cette fois question humilité je suis grillé ...)
    C'est pourquoi j'ai construit ce langage pour écrire mes "théories" sur ma machine qui les interprétera sans à priori, sans hypothèses cachées ou sous entendus comme le ferait mon cerveau.
    Citation Envoyé par donpanic
    Les émotions semblent être les grandes oubliées de l'IA, je pense que sans émotions, il n'y a pas d'intelligence du tout.
    Sans pouvoir l'affirmer, mon intuition va aussi dans ce sens. Il faut des critères et un moteur pour sélectionner les "bons" choix. Je pense là aussi les découvrir et les construire progressivement.Mais je ne vois pas de processus biochimiques qui ne puissent pas du point de vue l'information macroscopique qu'ils véhiculent être émulés par un circuit électrique.
    Citation Envoyé par bber
    A mon avis c'est réducteur de parler de "petit" bout de code. J'ai comme l'impression que les généticiens trouverais ca un peu gros.
    Du point de vue biologique le génome est énorme et il a fallut plusieurs années pour donner la liste des 3 milliards de paires de base que comporte notre ADN avec les moyens de séquençage actuels. Du point de vue de l'informaticien, le résultat tient sur 800Mo d'information ce qui est "petit" aux standards actuels. Une question de point de vue...
    Citation Envoyé par bber
    Je ne sais pas si il est pertinent de faire des comparaisons, mais le developpement d'un etre vivant à partir de son ADN est extremement complexe aussi.
    Je considère que c'est très pertinent et tout à fait exact.
    Citation Envoyé par bber
    Pour faire un petit parallele avec ce que je disais precedemment (eventualité que la quantité d'information que l'on peut stocker dans un petit nombre de neurones soit bien plus grand que ce qu'on imagine), un petit nombre de gènes peut avoir un très grand nombre de fonctions différentes (selon interactions, avec quoi, à quel moment, dans quelles conditions, etc...). En gros et pour schematiser, le code génétique est méchament compressé, et avec un algo extremement tordu...
    --> EXACT :Very Happy: C'est bien ce côté extremement tordu qui peut nous apprendre d'autres manières de programmer
    Le but est de faire un code très compact à l'imitation de cela.


    Je rejoins Uinet propane (mais il le sait déjà) sur le fait que l'IA implique un programme capable de se modifier lui même pendant son éxécution, sans générer de plantage.
    Pour revenir sur le correcteur d'orthographe c'est l'illustration parfaite de l'apprentissage qui est un des élements nécessaire mais non suffisant de l'IA. L'algo d'apprentissage n'est pas différent. Le problème après est de trier et d'exploiter les connaissances...

    et pour répondre en bloc à la question de la motivation, c'est justement pour éviter ou définir ces problématiques que je pars "d'en bas".

    Quant à la démonstration de Penrose, j'en aimerais un résumé. mais le problème est qu'il est extrêmement difficile de trouver la faille dans un raisonnement batit sur des mots. Ce que j'écris je l'écris dans un langage interprétable par ma machine, donc le verdict tombe très vite: ça marche ou ça ne marche pas...
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  6. #96
    glevesque

    Re : Intelligence Artificielle...

    Bonjour Messieurs

    Je trouves votre sujet bien intéressent, mais pour aller un peut plus loins, je vous conseilles de jeter un petit cout d'oeil sur cette discution : De la matière à la Conscience , plusieurs exemples portées sur la fonctionnalité du cerveau vous sont données. Plusieurs de vos interrogations y trouverons également des éléments de réponse.

    A++
    http://www.unmannedspaceflight.com/index.php?showtopic=8532

  7. #97
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Citation Envoyé par uinet_propane
    J'ai de la peine a comprendre ce que tu veux dire la. Ce n'est pas parce que l'IA est basé sur des point de vue non-scientifique qu'elle n'est pas possible. Et sans vouloir etre mechant avec toi, attila, personnellement, je considere que les programmes de reconnaissance de forme, les correcteur orthographique et tout ce qu'on as pu faire jusqu'a maintenant n'est pas de l'IA. Ca s'en approche, c'est similaire, mais ce n'est pas de l'IA parce que ses programmes n'ont pas la capacité de se reprogrammer en temps réel. De plus, il se base souvent sur des standards. Y a qu'a voir le correcteur de Word qui se base sur un dico purement textuel (bon, je prend le pire exemple, mais c'est pour dire le nombre de possibilité pour un meme problème). De la a dire que c'est de l'IA, c'est quant meme un peu beaucoup.

    Les seuls systemes que je considere comme proche de l'IA, c'est les robots capable d'apprendre tout seul certaine fonction comme marché. Mais leur apprentissage etant limité a 1 ou 2 aspect, ils ne sont pas intelligent, juste "malin".

    Ne t'inquiète pas pour moi, iunet_propane, tu ne risque pas de m'atteindre

    Surtout que maintenant je comprends la raison de tes raisonnements plus que primitifs sur l'IA : tu ne sais simplement pas ce que c'est. En ce qui concerne la reconnaissance des formes, je te suggère d'aller sur le site suivant :

    http://www-formal.stanford.edu/jmc/w.../whatisai.html

    Tu y trouveras le point de vue de John Mc Carthy (comme tu sais, l'inventeur de l'expression "Artificial Intelligence") sur l'IA, et tu verras que selon lui, comme pour tous les spécialistes de l'IA, le domaine "pattern recognition" en fait partie. Tout comme la traduction automatique de texte. Si j'ai cité le correcteur orthographique de Word, c'est parce qu'il réalise une analyse grammaticale de la phrase, ce qui est la première étape effectuée par les traducteurs automatiques. C'est donc un programme qui est inclus dans les programmes d'IA. Donc, ça me faisait rire de voir qu'en faisant nettement moins de fautes d'orthographes que toi, il te donnait raison, dans une certaine mesure : certaines IA sont aujourd'hui plus performantes que certaines IB

    On considère généralement que l'IA contient les domaines suivants :


    La reconnaissance de formes
    La traduction et le résumé automatique de texte
    La recherche de documents par le contenu
    La démonstration de théorèmes
    Le diagnostic, les systèmes experts, les jeux
    L'apprentissage
    La robotique

    Ces deux dernières ne jouant pas le même rôle que les autres : l'apprentissage est quelque chose de général, qui peut se retrouver dans tous les autres sous-domaines.
    La robotique quand à elle, est une technique intégratrice des autres, qui fait en plus appel à la théorie des asservissements : un robot doit percevoir, prendre des décisions, effectuer des actions, se déplacer, etc ...

    Un conseil : avant de parler d'un domaine à la façon d'un expert, tu devrais commencer par essayer de le connaître ...


    Attila

  8. #98
    invite0c9e63b6

    Re : Intelligence Artificielle...

    PS le lien sur le site est le suivant. Je ne sais pas pourquoi il est mal passé.

    Attila

    http://www-formal.stanford.edu/jmc/w.../whatisai.html :

  9. #99
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    Ce serais dommage car ton argumentationest construite et intéressante. Ceci dit ton post est long, je ne citerai pas point par point.
    Merci. Je ne parlais que de la discussion sur la pertinence ou non de lire des livres et d'étudier les travaux antérieurs

    Je souffle un peu là, mais je ne quitte pas le navire =)

  10. #100
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par BBer
    Tout cela reste tres mécanique...
    et effectivement on se limite surtout à deplacer le probleme.
    Oui. En fait, si l'on veut aller plus loin dans ce débat, il faut discuter de la nature des représentations internes et de son lien avec l'intelligence.

    Si tu représentes la volonté par une valeur numérique à laquelle tu attribues la représentation symbolique de la notion de volonté, cela signifie que tu vas devoir, toi le concepteur du système, coder "en dur" la façon dont la volonté agit sur le système (par exemple en déclenchant des procédures de recherche automatique, des heuristiques, etc.). Or on sait (en gros) que le fait de coder quelque chose "en dur" limite sa puissance représentative. Cela signifie, concrètement dans le cas de la volonté, qu'il est très probable qu'à un moment donné, tu te heurteras à des problématiques qui ne pourront pas être résolues sans modifier ton algorithme, c'est-à-dire, de nouveau, en injectant le fruit de ta propre intelligence dans ton système.

    Si ca vous intéresse, je peux vous présenter plus en détail la notion de représentation interne et les propriétés que ces dernières doivent posséder pour pouvoir prétendre être le support d'une forme d'intelligence. Il y a derrière, en filigrane, un débat qui a vu s'affronter pendant plusieurs années les personnes les plus compétentes dans le domaine de l'IA et des sciences cognitives, et qui a opposé les partisants de l'IA dite classique et du connexionnisme.

  11. #101
    glevesque

    Re : Intelligence Artificielle...

    Si ca vous intéresse, je peux vous présenter plus en détail la notion de représentation interne et les propriétés que ces dernières doivent posséder pour pouvoir prétendre être le support d'une forme d'intelligence
    Oui ca m'intérese grandement

    A++
    http://www.unmannedspaceflight.com/index.php?showtopic=8532

  12. #102
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Là, je trouve que le débat commence à devenir intéressant.

    C'est à propos de cette question de la volonté et de la liberté (car je pense que la volonté ne peut être que libre, sinon il y a contradiction dans les termes**), que j'avais demandé à quelques intervenants s'ils pensaient que les IA étaient toujours des automates, à états finis ou infinis. Si la réponse est oui, cela me semble incompatible avec la notion de la volonté, pusique l'état du système à un moment donné est une fonction déterminé de son état précédent et du contexte.

    Pour obtenir une volonté libre, ne faut-il pas déjà que l'on sorte de l'architecture mise au point par Von Neumann, c'est à dire de l'automate programmable ?

    Attila

    ** la volonté se présente ainsi comme autre chose que le fait de réaliser ses désirs. La recherche de la satisfaction des désirs est une forme d'automatisme : tel désir --> telle suite d'actions pour satisfaire le désir.

  13. #103
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert

    Si ca vous intéresse, je peux vous présenter plus en détail la notion de représentation interne et les propriétés que ces dernières doivent posséder pour pouvoir prétendre être le support d'une forme d'intelligence. Il y a derrière, en filigrane, un débat qui a vu s'affronter pendant plusieurs années les personnes les plus compétentes dans le domaine de l'IA et des sciences cognitives, et qui a opposé les partisants de l'IA dite classique et du connexionnisme.
    Ca m'intéresse aussi

    Attila

  14. #104
    glevesque

    Re : Intelligence Artificielle...

    Le but du désir est associé à l'existance propre de l'homme (animeaux), et elle est un attributs majeurs de la perception conscientes. L'IA peut l'exprimer sous certaines formes (traitement relatif a l'ensemble d'une contexte données) mais il sera toujours effectué de manière algorythmique, en tout ca pour l'instant. Ceci fait partie d'un simulacre de volonté et de liberté d'action. Mais un jour les différences vont surement se faire de moins en moins évidente ou transparente.

    A++
    http://www.unmannedspaceflight.com/index.php?showtopic=8532

  15. #105
    pi-r2

    Re : Intelligence Artificielle...

    Ce sont justement les travaux sur la calculabilité qui à mon avis peuvent répondre au paradoxe apparent d'avoir à la fois des automates programmables comme "moteur" ET un libre arbitre qui autorise une réelle volonté au sens où Attila la définit.
    L'état du système est donc certes une fonction déterminée de l'état précédent, mais le théorème de Gödel permet d'affirmer que ce système informatique composé d'un automate programmable et d'un programme auto modifiant qui ne produit pas de contradiction n'est pas complet. Ce que j'interprète comme non prévisible ou non calculable. Si on fait interagir ce programme avec un environnement qui est lui même changeant et imprévisible (comme notre cerveau le fait depuis sa naissance), on obtient cette possibilité de générer de manière apparement prévisible un résultat non prévisible.
    C'est en ce sens que je pense que la recherche de l'IA rejoint la physique théorique sur les origines de l'univers et sa compréhension.
    Je ne pense pas qu'il faille sortir de l'architecture de Von Neumann (* surtout qu'en fait il n'y en a pas d'autre qui ne lui soit pas équivalente), sur laquelle nous sommes également conçus finalement. Je pense juste que dans le cadre de cette architecture il faut rajouter les bouclages complémentaires dans des dimensions autres, c'est à dire la possibilité de modifier le programme pendant son déroulement ET le bouclage entrée sortie.
    C'est ainsi que j'interprète le théorème de Gödel, c'est qu'il bannit à jamais l'idée de pouvoir résumer en un système l'ensemble de la connaissance, et qu'il laisse une part à la liberté et à l'imprévisible.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  16. #106
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    [...] le théorème de Gödel permet d'affirmer que ce système informatique composé d'un automate programmable et d'un programme auto modifiant qui ne produit pas de contradiction n'est pas complet. Ce que j'interprète comme non prévisible ou non calculable.
    Cette interprétation est fausse. C'est sur ce point là que l'on ne parvient pas à être d'accord. Ton automate est un système formel incomplet, c'est exact. Mais ce que cela implique, c'est qu'il y aura toujours des "vérités" que ton système ne sera pas capable de comprendre (ou, autrement dit, qu'il ne sera pas intelligent, il sera juste un automate capable de produire des vérités déductibles au moyen de règles de production). C'est cela le théorème d'incomplétude de Gödel. Et le mystère, c'est que justement, nous humains, n'avons apparemment pas de limites apparentes à notre compréhension. Certaines vérités qui sont inaccessibles aux systèmes formels (comme la formule utilisée par Gödel pour démontrer l'incomplétude) nous sont accessibles à nous humains. Tant que l'on n'aura pas expliqué ce mystère, on ne pourra pas prétendre que l'être humain est équivalent à une machine, aussi sophistiquée soit-elle.

  17. #107
    pi-r2

    Re : Intelligence Artificielle...

    C'est pourquoi je trouve que le dialogue avec des mots est très difficile. Bon maintenant si on prend un système formel et que quand on trouve une phrase que l'on ne peut pas démontrer comme vraie, on l'intègre dans le système formel qui à ce moment là n'est plus un système formel statique figé pour toute éternité mais un système formel dynamique on résout le problème. Et c'est cela que nous faisons.
    La preuve c'est qu'il y a un certain nombre de choses que nous tenons pour vraies sans pouvoir les démontrer (c'est d'ailleurs en général sur ces sujets que les débats sont les plus houleux). L'algorithme consiste donc à considérer comme vrai (mais à vérifier) ce que l'automate découvre soit à l'extérieur, soit par introspection (génération aléatoire de bouts de code nouveaux) jusqu'à ce qu'il prouve le contraire. Traduit en terme d'algorithme de turing au lieu de chercher à faire un programme qui détermine si n'importe quel algorithme fini converge en un temps fini on fait l'algorithme suivant:
    Je garde N étant le dernier entier testé pour lequel tous les algo connus ont été testés. N est équivalent à un temps ou à un nombre d'instructions processeur.
    J'ai un nouvel algorithme: je le teste jusqu'à N et je le classe en fonction du résultat comme convergent ou encore inconnu mais de "durée de convergence" supérieure à N. Je 'narrive jamais au bout d'un tel algorithme, ce n'est donc pas en contradiction avec Gödel. Mais je dispose d'informations pratiques et utilisables pour ma vie de tous les jours.
    Quand j'ai du temps et de la capacité mémoire je cherche à accroitre N pour tous les algo qui n'ont pas encore été prouvés.

    Qu'en pensez vous ?
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  18. #108
    invite57e4f988

    Re : Intelligence Artificielle...

    Pas mal. C'est notre manière de penser le savoir. Mais existe-t-il d'autres méthodes?

  19. #109
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    C'est pourquoi je trouve que le dialogue avec des mots est très difficile. Bon maintenant si on prend un système formel et que quand on trouve une phrase que l'on ne peut pas démontrer comme vraie, on l'intègre dans le système formel qui à ce moment là n'est plus un système formel statique figé pour toute éternité mais un système formel dynamique on résout le problème. Et c'est cela que nous faisons.
    Bon... Je voulais éviter d'en arriver là, mais il va falloir faire un peu de maths
    pi-r2, lorsqu'on observe la démonstration du théorème d'incomplétude de Gödel, voilà ce qui se passe (j'espère que je ne me trompe pas) :

    Pour être capable de faire des maths, ta machine doit pouvoir manipuler des énoncés mathématiques représentés dans la machine sous la forme de données numériques.

    Par exemple, elle doit être capable de manipuler et donc de représenter une formule, appelée G, et qui dit : "G n'est pas démontrable". comprends bien que c'est la formule G qui parle d'elle-même. C'est l'astuce excellente de la démo de Gödel.

    Gödel a prouvé que si ta machine suppose que G est vraie, elle montre aussi que G est fausse (et inversement). La machine ne peut pas déterminer si G est vraie ou non. Elle peut, et tu as raison sur ce point, "postuler" que G est vraie (ou que non-G est vraie). Mais elle ne peut que le postuler, sans en avoir aucune certitude.

    La grande différence avec les humains, c'est que NOUS, nous sommes capables de voir en quelques secondes que cette formule est bel et bien vraie (même si elle n'est pas démontrable, conformément à l'affirmation contenue dans G), mais la machine ne s'en rend pas compte. Réfléchis quelques secondes sur G et tu verras qu'elle est vraie sans aucun doute possible.

    Autrement dit, nous sommes capables de voir la vérité de quelque chose qui n'est pas prouvable. Cela, jusqu'à aujourd'hui, aucune machine n'en est capable...

    La capacité de compréhension du théorème de Gödel semble d'ailleurs un excellent critère (même s'il est élevé car tout les humains ne sont sans doute pas capables de le comprendre). Cette démonstration est tellement étrange lorsqu'on l'examine en détail (ce que je t'invite à faire en lisant le livre Gödel, Escher, Bach de D. Hofstadter), qu'elle a poussé certaines personnes à dire qu'il ne s'agit pas vraiment de mathématiques, car l'humain qui comprend la démonstration voit que la formule est vraie, mais sans pouvoir le démontrer par une démonstration formelle. Un exemple idéal de "sortie du référentiel" que toutes les machines et programmes sont incapables de produire à ce jour.

    La preuve c'est qu'il y a un certain nombre de choses que nous tenons pour vraies sans pouvoir les démontrer (c'est d'ailleurs en général sur ces sujets que les débats sont les plus houleux).
    Là tu mélanges les choses. Tu confonds la notion de vérité du sens commun et la notion de vérité mathématique. En maths, il existe de nombreuses vérités que tout le monde reconnaît (par exemple, que G est vraie), même si tout n'est pas prouvable.


    L'algorithme consiste donc à considérer comme vrai (mais à vérifier) ce que l'automate découvre soit à l'extérieur, soit par introspection (génération aléatoire de bouts de code nouveaux) jusqu'à ce qu'il prouve le contraire.
    C'est bien possible, le problème, c'est qu'il est très probable également que cela ne soit pas possible en temps "raisonnable" par une recherche au hasard

    Et ton "à vérifier" doit bien prendre en compte que ces vérifications s'effectuent parfois par une sorte de "bon sens" qui échappe à la démonstration mathématique rigoureuse, sans pour autant que la notion de vérité soit contestable (exemple : la vérité de G est incontestable).

    J'ai un nouvel algorithme: je le teste jusqu'à N et je le classe en fonction du résultat comme convergent ou encore inconnu mais de "durée de convergence" supérieure à N. Je 'narrive jamais au bout d'un tel algorithme, ce n'est donc pas en contradiction avec Gödel. Mais je dispose d'informations pratiques et utilisables pour ma vie de tous les jours.
    Quand j'ai du temps et de la capacité mémoire je cherche à accroitre N pour tous les algo qui n'ont pas encore été prouvés.
    vi, le problème c'est s'il faut 1010000000000 ans pour trouver la solution, mais bon courage quand même =)

  20. #110
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Gödel a prouvé que si ta machine suppose que G est vraie, elle montre aussi que G est fausse (et inversement).
    Pardon, je voulais dire : "Gödel a prouvé que si ta machine suppose que G est démontrable, elle montre aussi que l'inverse de G, non-G est démontrable (et inversement)."

  21. #111
    pi-r2

    Re : Intelligence Artificielle...

    C'est bien de cette manière également que j'ai compris le théorème de gödel.
    A l'inverse rien ne permet d'affirmer que le même raisonnement s'applique à l'être humain, dont l'intelligence provient de la lecture d'un code initial qui s'autoréplique. Seulement dans le cas de l'être humain on sait qu'on arrive à une contradiction. donc on en déduit que notre intelligence n'est pas réductible à un système formel. Dans le cas de la machine, on n'en sait rien. il y a beaucoup d'hypothèses cachées non formulées dans la manière dont on croit qu'il faut représenter la connaissance mathématique dans la machine. C'est de ces hypothèse non formulées ou tellement évidentes qu'on ne pense pas à les mettre en cause que provient l'erreur de raisonnement qui conduit à dire que la machine ne peut pas faire le même raisonnement que nous dans ce cas, c'est à dire sortir du système formel pour démontrer que la phrase est vraie.
    C'est comme si on applique le théorème de Gödel aux mathématiques. Le système n'est pas complet, mais c'est toute l'histoire des mathématiques ça. C'est bien comme cela que l'on "crée" Z, puis Q puis R puis C, en complétant les mathématiques. Le système mathématiques + mathématiciens est un système dynamique en évolution. Le théorème de Gödel ne dit rien et ne s'applique pas aux systèmes dynamiques.
    Pour le reste et le nombre de combinaisons, je vois justement l'intelligence comme un "court circuit" un raccourci , ou en fait une compression d'information. C'est ainsi que le raisonnement intelligent nous permet de gagner beaucoup de temps par rapport au calcul brut. C'est le même problème que la question de l'évolution biologique et des mutations génétiques. Le moteur de base est aléatoire. Cela ne veut pas dire que toutes les mutations sont aléatoires. Donc le calcul brut du nombre de mutations séparant l'homme de la bactérie est faux. Je voudrais éviter de tout mélanger, mais dans ce domaine tout se rejoint et c'est là qu'on voit qu'il s'agit d'un concept fondamental. Système formel évolutif c'est pas mal pour le décrire.

    Pour en revenir à la phrase G. Si je reste dans le système formel G devient un "oscillateur" G est démontrable, donc vraie, donc indémontrable, .... Elle permet de générer un étage de complexité supplémentaire.

    Analogie mathématique: équation x=1-x. Pas de problème me direz vous, x=1/2.
    Oui mais si j'écrit cette équation enterme de logique elle est équivalente à x=non x. Là c'est plus gênant.
    Si je cherche x tel que x=1-x dans l'ensemble {0,1} des valeurs logiques:
    j'essaye 0, alors x=1, alors x=0, alors x=1. J'ai crée une horloge.
    La solution x=1/2 est la valeur moyenne de ce x oscillant de niveau inférieur. Elle existe dans un ensemble "supérieur".

    C'est bien de cette manière que nous nous sortons des phrases auto référencées (paradoxes ou cas du théorème de Gödel) en plongeant cette phrase dans un ensemble supérieur, que l'on peut créer au besoin.

    Toute la question devient à quel niveau de complexité peut-on coder correctement les mathématiques dans une machine pour qu'elle soit capable au besoin de sortir du système formel initial pour comprendre que la phrase G est vraie et non démontrable ?
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  22. #112
    invite57e4f988

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    A l'inverse rien ne permet d'affirmer que le même raisonnement s'applique à l'être humain, dont l'intelligence provient de la lecture d'un code initial qui s'autoréplique. Seulement dans le cas de l'être humain on sait qu'on arrive à une contradiction. donc on en déduit que notre intelligence n'est pas réductible à un système formel. Dans le cas de la machine, on n'en sait rien.
    J'aimerais bien que tu m'expliques ça.

    Pour ce qui de notre "capacité" à savoir ce qui est vrai, c'est de l'instinct, on n'a rien pour le démontrer. Il suffit de rentrer à la machine ces choses que l'on considère comme vrai sans pour étant qu'elles soient démontrées.
    _Oui mais y en a bcp!
    _Bon bah comment on fait nous?

  23. #113
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Citation Envoyé par scientist
    Pour ce qui de notre "capacité" à savoir ce qui est vrai, c'est de l'instinct, on n'a rien pour le démontrer.
    Ah bon, pauvres logiciens qui s'escriment en vain. Scientist, lui, a tout compris ...

    Attila

  24. #114
    invite0c9e63b6

    Re : Intelligence Artificielle...

    A mbollaert :

    plusieurs intervenants s'étaient dits interessés par ce sujet :

    Citation Envoyé par mbollaert

    Si ca vous intéresse, je peux vous présenter plus en détail la notion de représentation interne et les propriétés que ces dernières doivent posséder pour pouvoir prétendre être le support d'une forme d'intelligence. Il y a derrière, en filigrane, un débat qui a vu s'affronter pendant plusieurs années les personnes les plus compétentes dans le domaine de l'IA et des sciences cognitives, et qui a opposé les partisants de l'IA dite classique et du connexionnisme.

    Est-ce que c'est toujours au programme ?

    merci d'avance,

    Attila

  25. #115
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par Attila
    Est-ce que c'est toujours au programme ?
    Oui, mais je ne peux pas improviser cela il faut que je prépare mes notes. Je vous demande un peu de patience =)

  26. #116
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Je comprends bien. En tous cas, je dois vous dire que je trouve toutes vos interventions extrêmement intéressantes.


    cordialement,

    Attila

  27. #117
    mbollaert

    Re : Intelligence Artificielle...

    Bonjour à tous,

    Ce post est long, je l'ai découpé en trois parties. Dans la première partie je présente le contexte du débat ; dans la seconde, j'énumère les fameuses propriétés attendues des systèmes de représentation. Dans la troisième enfin, je reviens sur la discussion qui m'avait amené à parler de cela.

    - Première partie :

    L'étude des représentations internes dans la cognition humaine a succédé à une longue période behavioriste. Le cerveau était alors considéré le plus souvent comme une boite noire dont seules les entrées et sorties nécessitaient d'être étudiées. Mais cette façon de procéder a montré ses limites. De nos jours il y a un consensus global sur le fait que l'intelligence nécessite la capacité de manipuler des représentations internes.

    Les chercheurs en intelligence artificielle se sont penchés sur les représentations internes et sur les propriétés qu'elles doivent exhiber pour permettre la réalisation de tâches complexes. Au sein de la discipline, deux approches distinctes se sont développées. D'une part l'IA classique, basée sur des systèmes de traitement symbolique comme les systèmes experts, et d'autre part le connexionnisme, basé sur le formalisme des réseaux de neurones artificiels.

    Un débat a pris naissance sur les capacités respectives de ces deux types de systèmes. Le propos fondamental de ce débat était d'étudier les caractéristiques nécessaires à un système de représentation pour qu'il permette de manipuler des concepts de façon comparable à la cognition humaine. Le but était principalement de rechercher dans quelle mesure les systèmes d'IA classique et les systèmes connexionnistes étaient capables de posséder de telles caractéristiques.

    Les initiateurs de ce débat ont été Fodor et Pylyshyn avec un article paru en 1988 [Fodor et Pylyshyn, 88], où ils tentaient de montrer les limites du connexionnisme en terme de puissance représentationnelle. Cela a été à l'origine d'une série de réponses et de contre-argumentations entre les défenseurs et les opposants du connexionnisme. Citons parmi les intervenants du côté connexionniste Polack, Smollensky, van Gelder, et du côté adverse Pinker et Price en plus de Fodor et Pylyshyn. Le débat s'est déroulé sur une durée d'environ 5 ans. Les travaux antérieurs de Chomsky ont contribué à établir les bases de ce débat.

    Je ne vais pas résumer ce débat dans le détail, notamment parce que je n'en maîtrise pas tous les aspects (ce débat était centré essentiellement sur des problématiques de traitement du langage, qui n'est pas ma spécialité). Mais en substance, on peut dire qu'il a été vraiment très productif. Il a permis de mieux cerner les limitations aussi bien des systèmes d'IA classique que des systèmes connexionnistes. Il a permis également d'avancer énormément sur notre formalisation des représentations internes. Il a aidé également à réaliser que la distinction entre les deux disciplines (connexionnisme / IA classique) n'est pas aussi nette qu'on pourrait le croire, puisqu'il est possible notamment de simuler un système classique au moyen d'un système connexionniste, et inversement.

    Finalement, tout dépend des objectifs que le chercheur s'est fixé : s'agit-il de développer une intelligence comparable à l'intelligence humaine ? La plausibilité biologique est-elle un critère ? La machine doit-elle être totalement infaillible ? Ce sont surtout des critères de ce type qui permettent de choisir un système plutôt qu'un autre. Pour ma part, mes recherches portaient sur la modélisation des processus de la cognition humaine, c'est pourquoi je me suis engagé dans la voie connexionniste, car les réseaux de neurones artificiels simplifient la reproduction de certains effets bien connus de la cognition humaine, comme par exemple l'oubli ou les effets de similarités (tendance à confondre des objets qui se ressemblent).

    Quoi qu'il en soit, le débat a mis en relief un certain nombre de caractéristiques nécessaires à un système de réprésentation (SR), sur lesquels tout le monde semble d'accord, et que je vais vous énumérer maintenant.

    Fodor, J.A et Pylyshyn, Z.W (1988). Connectionism and cognitive architecture: A critical analyis, Cognition 28: 3-71.

  28. #118
    mbollaert

    Re : Intelligence Artificielle...

    Les caractéristiques attendues d'un système de réprésentation

    - Complétude : La définition informelle de la complétude semble tautologique, puisqu'il s'agit de la capacité pour un SR à représenter tous les objets qu'il doit pouvoir représenter. Plus formellement, cela signifie qu'il existe une fonction f qui transforme des entités du domaine considéré en représentations internes, et que cette fonction est complète, définie pour tout élement de l'ensemble de départ.

    - Non-ambiguïté : Un SR est non-ambigu si f est injective, c'est-à-dire si deux entités différentes correspondent à deux représentations internes distinctes. On dit aussi qu'un tel système est discriminant.

    A partir d'ici, ça se corse :

    - Systématicité : La systématicité est la capacité de représenter et de traiter de façon similaire des objets qui présentent certaines similitudes. Ainsi par exemple, un système capable de représenter la phrase "Pierre aime Marie" (P1), doit également être capable de représenter la phrase "Marie aime Pierre". Les deux représentations doivent être distinctes, mais similaires. De plus, pour pouvoir utiliser efficacement cette représentation, on montre qu'il est nécessaire que le système soit capable de représenter avec suffisamment de précision "Marie" et "Pierre" au sein de la représentation complète de la phrase "Pierre aime Marie". Si ce n'était pas le cas, le système ne pourrait pas exploiter la similitude entre "Marie aime Pierre" et "Pierre aime Marie". Il ne "percevrait" pas la similitude entre ces deux phrases telle qu'un humain la perçoit. Autrement dit, la représentation interne de cette phrase doit être structurée. Elle doit permettre aussi bien d'extraire la représentation d'ensemble (la représentation de la phrase entière) que la représentation de ses constituants sémantiquement similaires (Marie et Pierre sont toutes deux des personnes capable d'aimer quelqu'un). En général, les systèmes à base d'IA classique sont systématiques par construction. Les systèmes connexionnistes sont plus ou moins systématique selon leur architecture, sans atteindre le niveau de systématicité de l'IA classique. Ces simples considérations sur la notion de systématicité sont à la base de la plupart des propriétés qui suivent. L'élément important à retenir pour la systématicité est que les similitudes entre les items à modéliser doivent se traduire par des similitudes entre les représentations internes correspondantes.

    - Productivité et concision : La productivité est la capacité pour le SR de manipuler un grand nombre de représentations, tout en ayant une taille finie, idéalement la plus réduite possible, donc concise.

    - Compositionnalité : Il s'agit de la capacité du système à manipuler des entités de complexité arbitraire, donc dotées d'une structure. On considère généralement que cela nécessite de représenter les entités de façon à refléter leur structure (cf. systématicité). Si l'on accepte cela, deux nouvelles notions doivent être présentées. Il s'agit de l'abstraction et de la référence. La compositionnalité, l'abstraction et la référence sont des notions qui complexifient grandement la conception d'un SR performant.

    - Abstraction : L'abstraction est la capacité du système à assembler la représentation de plusieurs parties en une représentation unique. Elle nécessite que le SR soit capable de manipuler des représentations internes de complexité arbitraire (ou, au moins, de complexité similaire à celles manipulées par les humains, ce qui est nettement moins ambitieux car l'esprit humain est en général assez peu abstrait et devient rapidement dépassé par la complexité d'une structure très abstraite ; cela peut se constater dans l'étude de l'utilisation du langage ou des mathématiques par exemple).

    - Référence : Il s'agit en quelque sorte de l'opération inverse de l'abstraction, c'est-à-dire de la capacité d'extraire les constituants d'une entité de complexité arbitraire. Cela implique en fait que le SR doit réprésenter non seulement les informations nécessaires pour en retrouver chaque partie, mais aussi les informations relatives au rôle de chaque partie au sein du tout. L'être humain est très fort en ce domaine et cela a sans doute grandement contribué à la naissance de la science.

    - Puissance : La puissance est la capacité pour le SR à manipuler aussi bien des items qui entretiennent un rapport de construction (par exemple, les mots d'un groupe nominal), que des items indépendants qui participent à l'élaboration d'un objet plus complexe (par exemple la présence de deux groupes nominaux indépendants au sein d'une même phrase). Le rapport de construction peut également être un rapport de causalité, ou encore une notion de proximité selon une certaine métrique, tout dépend du domaine d'application du système de représentation.

    - Cohérence : Un SR est cohérent s'il garantit que les fonctions de représentation et de traitement de ces représentations fontionnent correctement, c'est-à-dire en particulier qu'elles donnent bien dans tous les cas des éléments appartenant à l'espace de représentation. Le propos ici est de s'assurer que ce SR est suffisamment bien conçu pour ne pas "planter" ou donner un mauvais résultat dans certains cas particuliers qui dépasseraient les capacités de représentation du SR. C'est un point délicat à vérifier pour les systèmes connexionnistes, si ce n'est indirectement, par leur capacité de généralisation.

    Je retiens de ces définitions les éléments suivants :

    1) les similitudes entre les objets à représenter doivent correspondre à des similitudes entre les représentations internes correspondantes.

    2) Les représentations internes doivent pouvoir être combinées entre elles pour en former de nouvelles de façon cohérente. De même, elles doivent pouvoir être décomposées en leurs élements constitutifs et l'on doit pouvoir récupérer aussi bien les sous-éléments que le rôle de chacun de ces sous-éléments par rapport à l'item complet.

    Ces deux éléments me semblent fondamentaux pour quiconque voudrait modéliser un système potentiellement intelligent.

  29. #119
    mbollaert

    Re : Intelligence Artificielle...

    Je vais maintenant revenir sur ce qui m'a incité à parler des représentations internes (parce que, jusque là, je doute que BBer perçoive pourquoi je parle de tout cela ). Nous parlions du rôle de la volonté dans la cognition humaine. Bien sûr, la volonté n'est pas nécessairement une représentation interne comparable à celles dont nous venons de parler, il s'agit plutôt en fait d'un processus ou d'une fonction qui émerge d'un processus. Mais on peut comprendre néanmoins que de façon similaire, il n'est pas possible de représenter un tel concept par une représentation interne simpliste comme une valeur numérique.

    Je rappelle que la volonté dont nous parlons ici, est ce qui permettrait de faire émerger l'intelligence, par la capacité à trouver de nouvelles solutions à des problèmes jamais rencontrés. Je ne postule pas que seule la volonté est nécessaire, il existe peut être (sans doute) d'autres éléments indispensables à l'émergence d'une forme d'intelligence.

    On peut montrer facilement qu'une volonté qui ne serait qu'un "moteur de sélection" parmi des algorithmes divers ne peut pas remplir ce rôle. En effet, sans entrer dans les détails, on peut montrer que cela implique que parmi ces algorithmes, il existe un Algorithme Magique Epoustouflant, que j'appelerai AME qui est capable de trouver de nouvelles solutions à des problèmes jamais rencontrés. Or nous avions supposé que la volonté était nécessaire pour un tel algorithme. CQFD. (j'écarte ici la théorie de pi-r2 telle que je la comprends, qui consiste à dire qu'il suffit d'attendre un temps potentiellement infini pour qu'une recherche au hasard trouve une nouvelle solution intelligente).

    La volonté doit donc être partie intégrante de cet algorithme "magique". On peut imaginer que le système soit structurellement conçu pour résoudre les problèmes, par exemple au moyen d'analogies physiques (recuit simulé, analogie énergétique, etc.). La volonté dans ce cas devient une notion très abstraite. Elle ne peut pas simplement être représentée par une valeur numérique.

    Cependant, si l'on poursuit cette analyse on se rend compte qu'il n'y a pas de point de départ "simple", que l'on pourrait modéliser "en dur", et à partir duquel des représentations plus abstraites pourraient être construites progressivement, de façon à acquérir la capacité à résoudre des problèmes arbitraires de plus en plus complexes. Cette impossibilité à trouver un mécanisme de "bootstrap", que l'on pourrait qualifier d'étincelle d'intelligence initiale, c'est le chainon manquant des sciences cognitives et de l'IA. Ni les heuristiques, ni les mathématiques, ni les méthodes probabilistes, ni la recherche aléatoire, ni la théorie du chaos, ni aucune autre discipline ne sont parvenues à trouver ce chainon manquant jusqu'à ce jour en dépit de très nombreux travaux par des scientifiques tout à fait compétents. De quoi tempérer un peu ses ambitions, il me semble.

    Voilà pour ce qui concerne la volonté.

    D'où l'idée que j'ai énoncée, il y a quelques jours dans ce fil, de s'inspirer de l'homme notre seul modèle, et de tenter de construire une machine qui serait capable d'éprouver du plaisir, puisqu'on ne semble pas parvenir à trouver un mécanisme non humain qui fonctionne aussi bien que la volonté humaine.

    Enfin, je voulais ajouter un dernier élément. Je crois que les divergences entre les participants de ce débat sont en définitive assez réduites. Tout ce joue à mon sens sur les possibilités des machines en termes de calculabilité et sur l'hypothèse que l'esprit humain sera totalement modélisable lorsque une nouvelle forme de calculabilité aura été atteinte. Je suppose que tout le monde est d'accord sur le fait que les capacités [i]connues[i] et démontrées des machines actuelles (= machine de turing) sont insuffisantes pour permettre l'émergence d'une intelligence. Voici les différentes hypothèses que je vois :

    1) il existe une nouvelle forme de calculabilité, elle peut d'ores et déjà être trouvée par une recherche plus ou moins au hasard par nos machines actuelles. Cela implique notamment de supposer que l'évolution biologique et l'émergence de l'intelligence humaine équivallent à une recherche au hasard.

    2) Il existe une nouvelle forme de calculabilité, qui nécessite simplement d'être trouvée par nos mathématiciens, et qui peut fonctionner sur nos machines actuelles.

    3) Il existe une nouvelle forme de calculabilité, mais elle n'est pas atteignable par les machines que nous connaissons. Il faut attendre la découverte de nouvelles formes de calculabilité, potentiellement dans la mécanique quantique, mais peut-être également dans un tout autre domaine. Cela semble être la position de Penrose.

    4) L'intelligence, humaine ou non, ne pourra jamais être réduite à une forme quelconque de calculabilité. Cela revient plus ou moins à dire qu'une véritable intelligence artificielle est impossible. Je précise que cela n'a a priori rien à voir avec le fait d'avoir une vision matérialiste ou dualiste de la réalité. La science possède des limites, c'est un fait connu. Il s'agit peut-être d'une limite intrinsèque supplémentaire.

    5) Sans opinion ou ne se prononce pas

    pi-r2 semble être partisant de l'hypothèse 1 ou 2. Pour ma part j'oscille entre la 3 et la 4. En tout cas pour la 3 je n'espère pas trop du côté de la MQ, mais plutôt d'une éventuelle nouvelle science qui permettrait d'étudier à la fois l'observateur et l'objet observé. Vu sous cet angle, l'émergence de l'intelligence peut être vue comme l'influence de l'univers sur l'observateur, celui-ci ayant une capacité à agir en retour sur son environnement. Cette émergence serait due à l'influence continue que l'environnement exerce sur l'individu, ce qui est déjà utilisé par exemple pour la théorie de l'évolution darwinienne pour des populations, mais pourrait être étendu peut-être au domaine des sciences cognitives pour l'individu. Tout cela est bien évidemment complètement spéculatif =)

    Amicalement.

  30. #120
    invite57e4f988

    Re : Intelligence Artificielle...

    Citation Envoyé par Attila
    Ah bon, pauvres logiciens qui s'escriment en vain. Scientist, lui, a tout compris ...
    Je parlais uniquement pour les choses invérifiables, les bases qui sont indispensables. Pas les raisonnements à partir de ceux-ci.

Page 4 sur 15 PremièrePremière 4 DernièreDernière

Discussions similaires

  1. Intelligence artificielle
    Par inviteec581d0f dans le forum Discussions scientifiques
    Réponses: 454
    Dernier message: 11/07/2007, 21h10
  2. Intelligence artificielle
    Par invite68b1fbe7 dans le forum [ARCHIVE] Philosophie
    Réponses: 120
    Dernier message: 05/08/2004, 09h05
  3. Intelligence artificielle
    Par invitec37f3680 dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 19h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 10h01