Intelligence Artificielle... - Page 9
Page 9 sur 15 PremièrePremière 9 DernièreDernière
Affichage des résultats 241 à 270 sur 446

Intelligence Artificielle...



  1. #241
    mbollaert

    Re : Intelligence Artificielle...


    ------

    (bon, finalement, j'ai encore 2, 3 bricoles à dire )

    Citation Envoyé par olle
    ce que je constate en regardant un humain pendant sa vie, c'est que le miracle n'est pas de continuer à apprendre de plus en plus au cours de sa vie, mais l'apprentissage lors du tout début de celle-ci.
    Sur cela je suis plutôt d'accord en fait. Le problème, et j'avoue que j'aurais pu être un peu plus clair (mais après 12 pages de discussion on peut "pêter un cable" quand même, non ? ), c'est qu'on ignore totalement comment réaliser un système qui soit capable de faire cela, c'est-à-dire, apprendre un nombre de tâches arbitraires, sans avoir été programmé spécifiquement pour initialement (en temps raisonnable). Sérieusement je t'invite à lire le débat depuis le début si tu ne l'as pas fait. Les arguments ne sont pas seulement mathématiques.

    -----

  2. #242
    olle

    Re : Intelligence Artificielle...

    oui je le ferai... j'avoue que je ne l'avais pas fait et c'est pas très bien de ma part surtout que je n'ai pas encore les bases de ce domaine.
    je conçois que ma vision des choses me semble irréalisable. mais c'est vraiment un domaine où j'ai du mal à concevoir les choses à moitié. avoir un être artificiel qui semblerait intelligent tout en étant limité me semble tellement inintéressant.
    Dernière modification par olle ; 09/10/2004 à 23h27.

  3. #243
    invite0e4ceef6

    Re : Intelligence Artificielle...

    Citation Envoyé par Attila

    Pourquoi "en dehors de toutes conscience ?" D'un côté il ne faut pas faire d'anthtropocentrisme, en imaginant que l'intelligence serait réservée à l'homme. Mais par ailleurs, il faut en faire, en imaginant que la conscience n'existe pas en dehors de lui. Pourquoi à priori l'univers n'aurait pas plus de conscience que l'homme ? Sur quel critère la lui refuser ?
    il est vrai je me suis mal exprimé, il fallait lire en dehors de toute conscience intentionelle... celle qui fait qui il y a une action vers un but... ce n'est pas que la nature n'en sois pas pourvue, mais celle-ci n'est pas l'eouvre dans ce que l'on nomme l'evolution des espèces...sinon, il s'agirait de transformisme lamarckien... la Nature ne peux pas etre personifié et l'on ne peux pas lui pretter un fonctionement de type humain, ou animal, ou vegetal... il ne semble pas qu'un individu puisse avoir de poid conscient(une intentionalité) sur l'evolution en soi de l'espèce..seul les eugénistes le peuvent...
    les critères sur lequel ont refuse d'accorder une conscience de type humain a l'univers(ormis dans l'homme), est que l'on ne trouve pas statistiquement de fait propre a la nature qui sorte réelement du champs du hasard) et ce contrairement a l'homme et a certain autres vivants...
    Citation Envoyé par attila
    Et rebelote, on est reparti dans les cercles vicieux. A partir du moment où l'on prend une définition de l'intelligence qui correspond aux facultés de l'animal, on en déduit que l'animal est intelligent. Idem pour l'ordinateur ...
    le problème en fait est que si tu denie aux animaux, et a certain ordinateur, leur forme d'intelligence, tu enlèves aussi celle-ci chez l'homme... et comme la différence entre un homme et un animal n'est qu'une question de degré sur cette echelle de capacité... l'homme n'est pas intelligent lui non plus, ce qui détruit tout le sens de la recherche de ce qu'est l'intelligence...

  4. #244
    invite0e4ceef6

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    Citation Envoyé par Quetzal
    tu semble dire que pour toi il pourrais y avoir une une capacité a résoudre des problèmes, en dehors de toute conscience du problème??? un mode de résolution qui ne verrais pas son but, mais qui le résolverais quand même...

    Quetzal
    Je crois que Attila classe ce phénomène dans le non intelligent. Mais ce phénomène, c'est la théorie de l'évolution la meilleure dont nous disposions actuellement. Et oui, ça choque l'esprit mais c'est bien comme cela que ça marche.
    heu, je voudrais pas dire, mais "résoudre un problème" veut dire etre capable de conscientiser un problème, de se l'approprier a sa mesure... ce qui implique necessairement un système de reconnaissance et de traitement de l'information...
    La nature en tant que Nature, sur son plan evolutif n'a aucun problème a résoudre...
    elle ne fait qu'etre.. elle n'a pas de plan défini.. et ne donne pas l'apparence d'avoir une conscience reflexive, ou intentionelle, marquant une volonté d'aller dans un sens plutôt que dans un autre...
    le problème la dedans, c'est que vous faite de l'anthropocentrisme avec la nature... "résoudre un problème" est typiqument humain, du moins exprime une réalité humaine que l'on ne retrouve pas dans la "Nature" en tant qu'ensemble en perpétuel changement....
    c'est là ou l'on retrouve l'importance des mots, et du vocabulaire employé... résoudre un problème implique forcement une entité intelligente... bon, que la Nature soit intelligente je veux bien... dans ce cas, l'on peut dire que l'entité intelligence que vous recherchez s'apelle Dieu, car c'est précisement l'une de ses définition philosphique, voir spinoza... c'est l'intentionalité, la conscience de but, et la finalité, qui font de la nature un etre Divin... l'intentionalité n'est pas forcement reflexive, et il y deux formes de conscience plus primitive mais avec laquelle il n'est juste possible de subir en conscience les choses..

    La nature,ou le Vivant dans son ensemble, ne semble pas avoir un but. de fait, comme elle n'avance pas vers quelquechose, elle ne peux avoir d'obstacle a dépasser ou a contourner... un vivant, soit meurt ecrasé par la malchance, soit a le temps de se reproduire avant qu'il ne meure de mort naturelle..
    il n'y a "personne" qui selectionne qui que ce soit... sauf en anthropomorphisant la Nature, en lui pretant une conscience reflexive ou intentionelle de type humain...

  5. #245
    invite0c9e63b6

    Re : Intelligence Artificielle...

    Citation Envoyé par quetzal

    La nature,ou le Vivant dans son ensemble, ne semble pas avoir un but.
    Ah bon, et la construction d'êtres de plus en plus complexes, et de plus en plus "intelligents" (selon votre propre conception de l'intelligence), de quel droit niez vous à priori qu'il puisse s'agir d'un but ?

    Attila

  6. #246
    invite57e4f988

    Re : Intelligence Artificielle...

    Citation Envoyé par Attila
    Ah bon, et la construction d'êtres de plus en plus complexes, et de plus en plus "intelligents" (selon votre propre conception de l'intelligence), de quel droit niez vous à priori qu'il puisse s'agir d'un but ?
    Et de quel droit affirmez-vous qu'il s'agisse d'un but!

    C'est facile de retourner le problème

    Je vais me répéter mais il me semble quand raccolant des bribes chez chacun de vous ou arrive à ça :

    Soit l'intelligence est le propre de l'homme et on n'aura de la chance si parmi tous les hasards informatiques on arrive à recréer un humain.

    Soit l'intelligence n'est pas le propre de l'homme. La plupart s'accorde à dire qu'elle est d'autant plus "intelligente" que l'individu résoud des problèmes. Mais d'autres pensent (comme moi) que l'intelligence n'est que le résultat de notre abstraction humaine à toujours voir du conscient. Dans ce cas, on peut trouver par l'ia
    une intelligence mais qui ne sera pas à notre image.
    Mais là on se retrouve le problème : qu'est ce que l'intelligence? (tout le monde connait le QI mais personne dit : "c'est l'échelle de l'intelligence")

    Celui qui est capable de dire je suis "intelligent" et d'en être convaincu est humain. C'est courant l'admiration de l'humain chez l'homme : on personnalise (divinité, expressions, fétichisme, etc.) ; on vit dans un monde d'apparence, il faut s'admirer beau...

  7. #247
    pi-r2

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Olle,

    Tu parles de sarcasmes, peut-être que c'est le ton de mes messages, mais comprends-moi, tu arrives dans le débat, as-tu au moins lu tout ce qui s'est dit avant ?

    Je ne constate qu'une chose : dans ce débat, il semble y avoir quelques personnes qui ont étudié sérieusement le problème de l'IA : paulb (même s'il ne s'est pas étendu sur ses réalisations), Attila et moi-même. Comme par hasard, ces trois personnes ont une opinion qui va du scepticisme à la réfutation, et la plupart des autres personnes ont une opinion inverse.

    Je trouve que se contenter du raisonnement simpliste de pi-r2 (on a, ou au moins j'ai trop "le nez dedans" pour voir la solution) est une insulte à l'intelligence humaine (et pas artificielle). Crois-moi, quand je me suis lancé dans l'IA, j'avais exactement la même opinion que toi.
    PS : Tu as bien raison de penser par toi-même
    Merci pour le compliment. Si effectivement des esprits aussi brillants que le vôtres n'ont pas trouvé, inutile de chercher, c'est vrai. Qu'appelles-tu étudier sérieusement ? Avec des grands qui savent eux où est la vérité ?
    Olle arrive avec le même point de vue que moi en fait. C'est la capacité de se développer seul qui est importante, pas l'intelligence elle même. Elle n'est qu'un résultat.
    On peut comparer quand tu veux nos niveaux d'intelligence à coup de diplômes ou de médailles ou de bonnes notes. Si j'ai pris cette voie d'analyse simple mais aucunement simpliste (puisque visiblement elle n'est comprise que par une minorité), c'est parce qu'elle a été ignorée jusque là.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  8. #248
    olle

    Re : Intelligence Artificielle...

    ce qui est clair c'est que c'est pas demain la veille qu'on y arrivera

  9. #249
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    Merci pour le compliment. Si effectivement des esprits aussi brillants que le vôtres n'ont pas trouvé, inutile de chercher, c'est vrai. Qu'appelles-tu étudier sérieusement ? Avec des grands qui savent eux où est la vérité ?
    Olle arrive avec le même point de vue que moi en fait. C'est la capacité de se développer seul qui est importante, pas l'intelligence elle même. Elle n'est qu'un résultat.
    On peut comparer quand tu veux nos niveaux d'intelligence à coup de diplômes ou de médailles ou de bonnes notes. Si j'ai pris cette voie d'analyse simple mais aucunement simpliste (puisque visiblement elle n'est comprise que par une minorité), c'est parce qu'elle a été ignorée jusque là.
    Bon, visiblement je dois faire un mea culpa puisque tu es le deuxième à me trouver hautain (on se tutoyait pas, jusqu'ici ?)

    Je précise que ce que j'ai qualifié de simpliste c'est la phrase suivante :

    "Je dirais, sans vouloir t'offenser que tu a résumé là tout le problème. Tu es trop "dedans" pour avoir le recul nécessaire sur l'informatique. Il n'y a RIEN de révolutionnaire, RIEN de nouveau et pourtant cela permet l'IA. C'est un peu comme faire des fonctions récursives à partir d'un automate programmable. L'informatique actuelle suffit à faire de l'IA."

    Ne trouves tu pas que c'est une façon un peu facile d'éluder mes questions ?

    D'autre part, tu sais, les diplômes, je n'en ai pas grand chose à faire. J'en ai parlé il est vrai pensant donner un peu de crédibilité à mes propos, mais je me rends compte que c'était une erreur. Je n'ai certainement jamais dit que c'était ce qui est important, relis moi si nous nous sommes mal compris.

    Et puis bon, je voudrais pas me répeter, mais je pensais exactement comme vous, il y a quelques années. Je ne veux pas dire que cela prouve que vous allez changer d'avis, je n'en suis pas encore à utiliser des arguments de "vieux con" j'espère Non, par contre je comprends tout à fait votre position. J'espérais et j'espère encore que vous comprendrez la mienne.

    Sans rancune, amicalement =)

  10. #250
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par olle
    ce qui est clair c'est que c'est pas demain la veille qu'on y arrivera
    Hey, mais en fait, toi et moi on est complètement d'accord ! C'est cela mon point de désaccord principal avec pi-r2 : il dit que c'est pour bientôt (relis le tout début du débat), moi je dis qu'on ne peut affirmer aucune date. Ca peut être pour demain, ou pour dans plus de temps que la durée de vie de notre Soleil.

    =)

  11. #251
    invite36602837

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Mais voilà, j'ai bossé sur l'apprentissage, sur les représentations internes, sur la cognition humaine et sur le raisonnement, et sur d'autres choses encore, et j'ai fini par en arriver à l'opinion que la tâche de réaliser une intelligence humaine est extrêmement ardue, incomparablement plus ardue que lorsque je m'imaginais cela avant de faire des études dans ce domaine.
    Je reviens sur ce que tu viens de dire. Non pas le fait que tu bosse en IA, mais le fait de recrée une intelligence humaine. A mon avis, c'est la le problème. Vous essayé de recrée qqch qui existe deja, et qui, a mon avis, fonctionne très bien. Recrée un humain dans un ordi me semble, comme a toi, impossible (ou alors très difficile). Simplement parce que ce sont 2 chose différente. De la a conclure que l'intelligenc tout court est impossible, c'est aller un peu vite, a mon avis.

    Je vais prendre un exemple bete mais clair. Si un robot est capable de "survivre" dans notre environnement, sans assistance humaine (genre recharger ses batterie, ou le depanner), alors je considere ce robot comme un etre vivant et intelligent. Il n'aura pas forcement les meme comportement qu'un humain, il pourra pas forcement resoudre les meme problèmes avec les memes methodes, mais il aura réussit a survivre dans un environnement complet, pas forcement concu pour lui.

    Quant a comprendre les mathematique, je pense qu'il n'as qu'une notion a aquerir vraiment, c'est celle du rapport un a un (le chiffre 1 pour l'element N°1 de l'ensemble). A partir du moment ou il est capable de représenté un ensemble simplement par des nombres et qu'il manipule directement ses nombre plutot que les element de l'ensemble, ben le monde des math lui est ouvert. Faut pas oublié toutes les étape que l'humanité a fait pour arrivé a avoir le systeme mathematique qu'on as (le 0, les nombres negatif, les réels, les imaginaires). Avant notre systeme, il y en a eu beaucoup, se qui n'as pas empecher l'humanité de deja faire de grande choses (les grec qui n'avais pas le meme systeme et qui pourtant on fait beaucoup de chose pour les math). Et un ordi, encore une fois, est spécialiste dans ce domaine, simplement parce qu'il considere justement chaque chose comme faisant partir d'un ensemble plus grand (l'un des principe de la programmation orienté objet). Donc décomposé un problème en element simple, il peut le faire, s'il sais quel element, ou sous-element (un objet), faire correspondre avec quelle notion logique (une classe d'objet). Si en plus l'objet fais parti d'un groupe plus grand, l'ordi le gere tout a fait, au moyen des collections (qui peuvent elle meme faire partie d'un objet ou d'une autre collection). Avec cette methode, représenté les math est très facile, puisque il suffit d'un collection par ensemble mathematique, et de quelques objet de base (les 10 premiers chiffre, 0..9) avec les methodes mathematique qui vont avec (addition, soustraction, multiplication, division) pour qu'il soit capable de faire des maths, et en plus de les faire correspondre avec la realité (s'il est capable de passer des nombres aux elements qu'ils sont sensé représenté). Si en plus ses fonctions sont apprise (générée), et non pas innée (programmée) alors le systeme sera capable d'y faire appel pour représenté les elements qu'il voudra (abstraction).

    Mais le fait de comprendre les maths est-il necessaire a l'intelligence ???

  12. #252
    invitebd686fd6

    Re : Intelligence Artificielle...

    Vous oubliez que l'intelligence ce n'est pas appliquer bettement un programme, comme le fait le robot en conditions difficiles, l'intelligence c'est comprendre et s'adapter à des problèmes nouveaux.

    C'est à dire l'auto apprentissage.

    Et ces logiciels d'auto apprentissage fonctionnent très bien sur des puces 8086, sur les robots utilisés dans les labos de recherche en ia.

    Rodney Brooks a été un des premiers à le démontrer spéctaculairement, Jean Pierre Changeux aussi, plus discretement en France.

  13. #253
    invitebd686fd6

    Talking Re : Intelligence Artificielle...

    Et combien d'humains, on en connait tous autour de nous, sont incapables de la moindre adaptation à une situation nouvelle, nouvelle technologie, nouvelles regles professionnelles...

  14. #254
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par uinet_propane
    A mon avis, c'est la le problème. Vous essayé de recrée qqch qui existe deja, et qui, a mon avis, fonctionne très bien. Recrée un humain dans un ordi me semble, comme a toi, impossible (ou alors très difficile). Simplement parce que ce sont 2 chose différente. De la a conclure que l'intelligenc tout court est impossible, c'est aller un peu vite, a mon avis.
    Je n'ai jamais dit cela et je crois qu'il faudrait commencer par me lire avec ouverture et comprendre ce que je dis VRAIMENT. Je n'ai pas parlé de créer une intelligence humaine. Si tu relis le débat tu verras qu'on est tous tombés d'accord (y compris pi-r2) sur le critère de turing où l'une de ses variantes. Pas besoin d'être humain pour réussir le critère de Turing ?

    D'autre part je n'ai JAMAIS dit que c'était impossible...

  15. #255
    mbollaert

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Je n'ai pas parlé de créer une intelligence humaine.
    Je viens de voir que j'ai dit cela dans la phrase que tu cites dans ton post. Je voulais dire en fait "une intelligence comparable à une intelligence humaine", en terme de capacités (c'est-à-dire en gros, avec laquelle on soit capable de communiquer, et qui puisse réaliser le test de turing, donc qui soit capable de s'exprimer plus ou moins "comme un humain", quitte à l'adapter pour cette tâche spécifique, sans toucher au moteur central du système, qui n'a pas spécifiquement besoin de fonctionner comme un humain).

  16. #256
    invite36602837

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Je viens de voir que j'ai dit cela dans la phrase que tu cites dans ton post. Je voulais dire en fait "une intelligence comparable à une intelligence humaine", en terme de capacités (c'est-à-dire en gros, avec laquelle on soit capable de communiquer, et qui puisse réaliser le test de turing, donc qui soit capable de s'exprimer plus ou moins "comme un humain", quitte à l'adapter pour cette tâche spécifique, sans toucher au moteur central du système, qui n'a pas spécifiquement besoin de fonctionner comme un humain).
    La je suis d'accord avec toi. C'est fou comme un petit mot peut changer la comprehension d'une phrase.

    Donc finalement, on arrive tous a la meme conclusion, qui est de dire qu'aujourd'hui, la seul chose qui manque pour avoir une IA, c'est l'algorithme (ou l'ensemble d'algorithme) qui "simulera" l'intelligence, intelligence qui ne sera pas forcement humaine, mais qui devra avoir la capacité de communiquer avec (test du turing).

  17. #257
    invite6b1a864b

    Re : Intelligence Artificielle...

    J'ai pas tout lu (c'est long)
    Mais pour moi, il faut d'abord bien définir les conceptes.
    Imaginons un systéme, une machine (un objet en somme), qui posséde des membres actionneurs (style bras mécanique, muscles, etc.. ) et des systémes d'observations (style yeux, caméras... )
    L'utilité principale de ses systéme est d'abord d'unifié dans la même forme, dans le même language, de l'information entrante et de l'information sortante). Si on branche tout bétement l'un à l'autre on obtient une chose simple, le réflexe. Les insectes fonctionnent presque comme ça : un cil sensitif est presque directement relier au muscle de la patte.. et d'ailleurs, tout robot est à peu prés pareil.
    Notons tout d'abord, qu'un tel systéme ne serait avoir un sens que si on lui attribu, soit par la nature des connexions, soit par le moteur de l'évolution de celle ci, un but, une tache à accomplir.
    La question qui vient ensuite, c'est qu'elle est le degrés d'intègration de l'information entrante vers l'information sortante : qu'elle est la capacité de traitement, capacité presque mathématique, d'analyse des stimulus pour en déduire une action efficace.
    C'est à mon avis la définition de l'intelligence. Cependant le but est indépendant de cette capacité. Un exemple précis (un peu glauque, mais qui permet d'apprécier les risques que prendrait l'homme à jouer à Dieu en touchant au but de l'individu) : on prend un héroînoman. En étant de manque, son seul but, pour des raisons purement biochimique, c'est obtenir de la drogue. Il pourrait trés probablement résoudre pour atteindre ce but des actions trés intélligentes, résoudre des problémes, bref se montrer trés intelligent. En soit, le but n'est définit que par la finalité recherché dans les actes de l'individu en question. Dans ce sens, il est purement égoiste, et si le but n'est pas convenablement définit, il n'aura aucune limitation quand à la place de l'individu dans l'environnement qui l'entoure sur le trés long terme. Bien sur tout ceci est un peu paradoxal, mais je veux simplement dire que le but, si il n'est pas la survie propre de l'objet en tant que lui même, est toujours une perte de temps. Par le choix des buts de l'individu et de la finalité à long terme de l'action, on peut définir un autre concepte, plus profond que l'intelligence : la sagesse. La sagesse est l'intelligence inscrite dans un but globale de stabilité.
    Chez l'homme le but est la réalisation des insctincts (qui sont sans doute plus sutbile que les principaux que l'on connais).
    Pour en revenir à l'intelligence, rien ne s'oppose à priorie à faire des machines intelligentes (à part un peu de technologie), j'ai quelques idées sur la question d'ailleurs.
    Le principale à définir pour faire une machine sage, c'est le but.

  18. #258
    pi-r2

    Re : Intelligence Artificielle...

    Citation Envoyé par mbollaert
    Bon, visiblement je dois faire un mea culpa puisque tu es le deuxième à me trouver hautain (on se tutoyait pas, jusqu'ici ?)
    Donc nous sommes deux à faire mea culpa aussi, parce que j'ai tendance à affirmer un peu abruptement mes évidences. Je crois que comme le souligne Uinet_propane, le langage que nous utilisons est loin d'être aussi clair qu'on le croit. Entre ce que nous écrivons et ce qui est perçu, il y a un écart, d'où les incompréhensions réciproques. En fait le langage est fragile, nous l'avons appris, mais chacun différement.(intéressant pour l'IA !)
    Citation Envoyé par mbollaert
    Je précise que ce que j'ai qualifié de simpliste c'est la phrase suivante :
    "Je dirais, sans vouloir t'offenser que tu a résumé là tout le problème. Tu es trop "dedans" pour avoir le recul nécessaire sur l'informatique. Il n'y a RIEN de révolutionnaire, RIEN de nouveau et pourtant cela permet l'IA. C'est un peu comme faire des fonctions récursives à partir d'un automate programmable. L'informatique actuelle suffit à faire de l'IA."

    Ne trouves tu pas que c'est une façon un peu facile d'éluder mes questions ?
    Je ne penses pas éluder les questions, mais nous avons effectivement du mal à voir d'où chacun part. Mon problème est que je pense que la solution est plus SIMPLE qu'on ne croit et que plus on y réfléchit, plus on complique. C'est la seule explication que j'ai trouvée pour que tant de gens brillants (qui ont quand même inventé l'informatique à partir de rien) ET qui avaient l'intuition de l'IA ne l'ont pas trouvée. C'est trop contraire à notre "intuition".

    Citation Envoyé par mbollaert
    D'autre part, tu sais, les diplômes, je n'en ai pas grand chose à faire. J'en ai parlé il est vrai pensant donner un peu de crédibilité à mes propos, mais je me rends compte que c'était une erreur. Je n'ai certainement jamais dit que c'était ce qui est important, relis moi si nous nous sommes mal compris.
    Non, c'est juste que je voulais éviter qu'on en vienne à se référer à des citations ou autorités sans pesner par nous mêmes.

    Citation Envoyé par mbollaert
    Et puis bon, je voudrais pas me répeter, mais je pensais exactement comme vous, il y a quelques années..
    C'est justement ça qui m'étonne beaucoup. C'est le cas de tous les gens qui ont trempé de près ou de loin sur le sujet. Je ne veux pas dire que la majorité a raison , mais quand même, il n'y a pas de fumée sans feu...Surtout qu'en fait on se décourage plutot, parce qu'il n'est toujours pas prouvé que ce n'est pas possible.
    Citation Envoyé par mbollaert
    Je ne veux pas dire que cela prouve que vous allez changer d'avis, je n'en suis pas encore à utiliser des arguments de "vieux con" j'espère Non, par contre je comprends tout à fait votre position. J'espérais et j'espère encore que vous comprendrez la mienne.
    Ca nous verrons bien, mais notre endurance est forcément limitée. Et puis je ne suis plus classé dans les jeunes non plus.
    Citation Envoyé par mbollaert
    Sans rancune, amicalement =)
    Non, sans rancune. Continuons à avancer.
    Citation Envoyé par mbollaert
    moi je dis qu'on ne peut affirmer aucune date.
    Tu as raison, c'est mon enthousiasme qui m'emporte. Le seul point c'est que je pense qu'il suffit d'assembler ce que l'on sait déjà pour y arriver, sans inventer vraiment du nouveau.

    Pour la question des mathématiques: je pense que les mathématiques de bases (arithmétique) sont si présents dans le monde, qu'il en faut nécessairement une notion intuitive. Mais surtout l'arithmétique me parait d'un niveau de complexité inférieur à l'intelligence. On peut en effet programmer l'arithmétique avec des systèmes pour lesquels nous sommes tous d'accord de qualifier de non intelligents. Donc si la machine re découvre seule l'arithmétique c'est un bon point, mais pas suffisant. Nous pourrons revenir à la question des nombres, j'ai quelques éléments là dessus.
    Citation Envoyé par halman
    Et ces logiciels d'auto apprentissage fonctionnent très bien sur des puces 8086.
    Oui l'apprentissage n'est pas le seul algorithme nécessaire à l'intelligence (si on limite l'apprentissage à l'acquisition de données, pas à leur optimisation ni à leur utilisation).
    Citation Envoyé par One Eye Jack
    j'ai quelques idées sur la question d'ailleurs.
    .
    Vas y, c'est le moment de les présenter.
    Citation Envoyé par One Eye Jack
    Le principale à définir pour faire une machine sage, c'est le but..
    Par contre je ne suis pas d'accord, j'essaie justement d'en définir le moins possible.

    Je pense que jusque là dans les recherches en IA on a vu les obstacles commes des obstacles et pas comme des opportunités. Comme en judo, il faut exploiter la force de l'adversaire.

    Je m'explique. TOUT système cognitif, si gros soit il, aura toujours une capacité de stockage finie. C'est plus ou moins le cas de notre cerveau. Une fois qu'il est rempli, soit on ne peut plus apprendre (pas d'intelligence), soit on perd le passé (pas intelligent) soit on trie ce qui est "important" (à condition d'avoir un critère) soit on trouve un moyen de comprimer l'information. Sur la partie compression, j'ai l'impression que notre cerveau est très efficace. Or pour comprimer, rien de tel que d'établir des règles (= formules de calcul) qui sont à la base de notre capacité d'extrapolation... J'ai donc l'intuition que l'intelligence nait des contraintes.
    Les contraintes primaires que je vois sont: capacité de stockage, temps de calcul (capacité processeur)(dans sa fonction biologique, l'intelligence a plutot intéret à aller vite pour être utile).
    Cela conduit à un premier "poids" des données stockées: celles qui consomment beaucoup de temps pour être recalculées sont plus "lourdes". C'est un peu comme cela que je compte construire progressivement les algorithmes utiles.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  19. #259
    invite57e4f988

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    Je m'explique. TOUT système cognitif, si gros soit il, aura toujours une capacité de stockage finie. C'est plus ou moins le cas de notre cerveau. Une fois qu'il est rempli, soit on ne peut plus apprendre (pas d'intelligence), soit on perd le passé (pas intelligent) soit on trie ce qui est "important" (à condition d'avoir un critère) soit on trouve un moyen de comprimer l'information. Sur la partie compression, j'ai l'impression que notre cerveau est très efficace. Or pour comprimer, rien de tel que d'établir des règles (= formules de calcul) qui sont à la base de notre capacité d'extrapolation... J'ai donc l'intuition que l'intelligence nait des contraintes.
    Les contraintes primaires que je vois sont: capacité de stockage, temps de calcul (capacité processeur)(dans sa fonction biologique, l'intelligence a plutot intéret à aller vite pour être utile).
    Cela conduit à un premier "poids" des données stockées: celles qui consomment beaucoup de temps pour être recalculées sont plus "lourdes". C'est un peu comme cela que je compte construire progressivement les algorithmes utiles.
    Pas bête du tout, mais êtes vous le premier à le faire?

  20. #260
    pi-r2

    Re : Intelligence Artificielle...

    Je n'en sais rien, et ça fait partie des choses pour lesquelles je pourrais gagner du temps en partageant.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  21. #261
    invite36602837

    Re : Intelligence Artificielle...

    Tiens, le dernier echange entre scientist et pi-r2 me fais penser a la discution que j'ai eu hier avec un copain. On parlait justement d'IA et de rattacher certaine contrainte a la "biologie". Il as suggeré de considerer l'utilisation de ses ressources (donc l'ordi) comme un facteur de stress. Et de ce point de vue, dans un ordi, il y a beaucoup de facteur de stress (HDD plein, memoire pleine, programme trop long a executé, bug). Dans l'autre sens, il y a des facteur de "calme" (par opposition au stress) qui serais la quantité de ressource libre par rapport au maximum. Je suis sur qu'avec ca, on peut arrivé a crée un systeme de plaisir-douleur similaire a celui qu'on trouve dans tout les animaux.

    Mais plus je reflechissait, plus je me disait qu'un enorme bug pouvais survenir, le suicide. Parce que si c'est le nombre de ressource libre qui lui donne du "plaisir", alors l'absence de programme en execution sera un veritable orgasme pour l'ordi (et donc il n'y a plus "personne en vie").

    Donc je suis arrivé a la conclusion qu'il fallait un double systeme. Un qui controle les instinct (comme celui de survivre, ce qui aura tendance a consommer des ressources) et un facteur de stress dependant du nombre de ressource utilisé par rapport au total (qui aura tendance a diminué l'utilisation des ressources). Je suis sur qu'avec du temps, les 2 niveau se stabiliseront, et c'est la l'un des but que l'IA pourrais avoir.

    Enfin, c'est une suggestion.

  22. #262
    invite6b1a864b

    Re : Intelligence Artificielle...

    Citation Envoyé par pi-r2
    Vas y, c'est le moment de les présenter.
    ben en fait on sait jamais d'ici qu'il y ai quelques idées qui mériteraient un brevet.... (non mais c'est vrai on sait jamais)

    Citation Envoyé par pi-r2
    Par contre je ne suis pas d'accord, j'essaie justement d'en définir le moins possible.

    Je pense que jusque là dans les recherches en IA on a vu les obstacles commes des obstacles et pas comme des opportunités. Comme en judo, il faut exploiter la force de l'adversaire.
    Oui il faut le définir le moins possible sur l'environnement propre de l'objet intelligent, mais par contre il faut bien définir une régle qui détermine l'évolution de son comportement. Imagine que tu fasse un robot. Si il n'a pas de but, que ferait il ? pourquoi diable nous parlerais il ? pourquoi nous obéirais il ? la réponse la plus logique à l'absence de but, c'est l'économie d'énergie (c'est déjà un but), ou bien un robot qui danserait aléatoirement (un but artistique ?)

    Citation Envoyé par pi-r2
    Je m'explique. TOUT système cognitif, si gros soit il, aura toujours une capacité de stockage finie. C'est plus ou moins le cas de notre cerveau. Une fois qu'il est rempli, soit on ne peut plus apprendre (pas d'intelligence), soit on perd le passé (pas intelligent) soit on trie ce qui est "important" (à condition d'avoir un critère) soit on trouve un moyen de comprimer l'information. Sur la partie compression, j'ai l'impression que notre cerveau est très efficace. Or pour comprimer, rien de tel que d'établir des règles (= formules de calcul) qui sont à la base de notre capacité d'extrapolation... J'ai donc l'intuition que l'intelligence nait des contraintes.
    A oui il faut que le robot contienne dans son fonctionnement les principes de la logiques et plus largement, le raisonnement scientifique ... attention, on ne se place dutout à l'échelle de la "pensé", de l'abstraction ou de l'éventuelle conscience du robot, mais bnien au niveau de l'algorithme structurelle qui détermine l'évolution des circuit du robot. Un chien par exemple, si on lui donne un sucre à chaque fois qu'il lève la patte, il levra la patte pour avoir du sucre. Sans language, ni forcèment conscience, il existe bien, quelque part dans le cerveaux du chien l'hypothèse "patte=>sucre" qui relève d'une observation "scientifique" de sa part. Et cette hypothèse est exploitée par le chien dans le cadre de son but : avoir du sucre.


    Citation Envoyé par pi-r2
    Les contraintes primaires que je vois sont: capacité de stockage, temps de calcul (capacité processeur)(dans sa fonction biologique, l'intelligence a plutot intéret à aller vite pour être utile).
    Cela conduit à un premier "poids" des données stockées: celles qui consomment beaucoup de temps pour être recalculées sont plus "lourdes". C'est un peu comme cela que je compte construire progressivement les algorithmes utiles.
    Je n'ai pas dit que c'était facile, simplement le stockage des données comme tu l'appele, n'est pas, au niveau du systéme, assuré par un disque dur... la structure même du systéme doit intégrer la réalité prise comme telle... toujours chez le chien : il suffit que le neurone qui commande la levé de la patte soit relier aux neurones qui mesure l'état de satisfaction alimentaire, et hop, le réflexe est né, le chien lève la patte.
    A mon avis, il faut construire un systéme physique, un circuit ou réseau de neurone, qui soit un peu comme la science : un ensemble d'hypothése comportemental qui relie des observations sont susceptible d'apparaitre est dêtre testé en temps réél, l'ensemble des résultats est mémmorisé sous forme de statistiques directement inclue physiquement dans les hypothèses en question.
    Finalement c'est tout béte : l'objet fait des stats sur les signaux entrants (qui inclue ses propres actes) et établie des corrélations.
    Il peut utiliser des situations qui sont des traitement des signaux entrants comme par exemple un neurone "ET" qui rassemblerait un ensemble de conditions sur les signaux entrants.
    Les corrélations doivent suffirent dans le cadre d'un objectif définie comme l'état d'un signal entrant spécifique, pour orienter les actes en ces corrélations.

    C'est sur, si on veut simuler ça sur un PC, on arrivera jamais à l'efficacité d'un réseau réél, tel qu'un réseau biologique souple..

  23. #263
    invite6b1a864b

    Re : Intelligence Artificielle...

    Enfin j'en ai déjà dit beaucoup là...
    Le problème vient surtout aprésd de la pertinence et du nombre des hypothèses, de la décomposition des situations correspondantes à l'échievement des buts.
    mais bon ça doit être faisable, j'était pas loin à un moment : j'avais fait un programme qui séléctionne les correlations les plus pertinentes entre valeur de signaux entrants et ça marchait...
    Aprés il y a le probléme de l'intégration en temps réél de l'ensemble des actes possibles : on se retrouve comme dans un jeux d'échec dont les hypothèses sont les régles... (style si je fais ça il va se passer ça), mais chaque coup (chaque pas de l'action) est vite soumis à un grand nombre de possibilités...
    La solution ? il faudrait un ordinateur quantique, seul capable de résoudre des problémes de ce type (dont j'ai oublier le nom) en un instant. Ou alors la surintégration des choix comme sous l'effet du même processus, comme dans les programmes évolué de jeux d'échecs qui détérmine les combinaison significative d'une décision particulière...

  24. #264
    invite57e4f988

    Re : Intelligence Artificielle...

    J'ai une autre idée qui a germé, mais je ne sais pas du tout si ça peut être intéressent :

    Lorsque l'on est soumis à un choix (entre 2 desserts par exemple) et que le temps nous presse, il arrive qu'on se dit, je prends celui-là mais quand on arrive dessus, on en prend un autre ; et 5 secondes plus tard on se dit mais pourquoi j'ai changé?

    Alors si on passe sur PC, je pensais à ça : On crée un oscillateur (au moins 2 états) et le hasard (puisque 50% au début) détermine les choix. Puis à chaque choix effectué, on associe une satisfacion qui influe sur les probabilités d'états du prochain oscillateur. De ce fait, même si on est sûr qu'en probabilité on choisit l'état 1, l'état 0 n'est pas du tout exclu.
    Bon bien sûr, si on vous avez le choix entre une baffe et 100 balles, l'expérience détermine vite le choix...

  25. #265
    invite6b1a864b

    Re : Intelligence Artificielle...

    c'est un peu ça mon idée.. pour l'action... mais en fait il faut d'abord associé l'information "gateau" (la vue l'odorat, etc ..) au sentiment de plaisir
    et la baffe (la vue de la main) à la douleur...
    ensuite la simple vue du gateau ou de la main, pourra déterminer de l'acte avant de ressentir leurs effets.. d'ou les hypothèses...

    ça donnerai la série d'hypothèse suivante

    1 (image du gateau)+(odeur d'un gateau)=>(présence d'un gateau devant soit)
    2 (présence d'un gateau devant soit) + (présence d'un objet devant soit)+(geste d'attraper l'objet)=>(gateau dans la main)
    3 (gateau dans la main)+(porter le gateau à la bouche)=>(manger le gateau)
    4 (manger le gateau+digestion)=>(sentiment de satieté)

    et
    1 (image de la main qui s'approche vite de la joue)=>(douleur à la joue)

    Tout ces hypothèses apparaissent chez tout le monde lors de ce que l'on appel l'apprentissage...

    Cette simple série d'hypothèse doit lors du processus que j'appelle le jeux d'échec de déterminer que le choix se porte plus sur
    (voir un gateau et pouvoir l'attraper) que sur (heurter la sensibilité des jeunes filles) par exemple.

  26. #266
    invite36602837

    Re : Intelligence Artificielle...

    Citation Envoyé par One Eye Jack
    c'est un peu ça mon idée.. pour l'action... mais en fait il faut d'abord associé l'information "gateau" (la vue l'odorat, etc ..) au sentiment de plaisir
    et la baffe (la vue de la main) à la douleur...
    ensuite la simple vue du gateau ou de la main, pourra déterminer de l'acte avant de ressentir leurs effets.. d'ou les hypothèses...
    Ca, c'est l'apprentissage qui va lui dire qu'est ce qu'il prefere (le gateau) de se qu'il n'aime pas (la baffe).

    Citation Envoyé par One Eye Jack
    ça donnerai la série d'hypothèse suivante

    1 (image du gateau)+(odeur d'un gateau)=>(présence d'un gateau devant soit)
    2 (présence d'un gateau devant soit) + (présence d'un objet devant soit)+(geste d'attraper l'objet)=>(gateau dans la main)
    3 (gateau dans la main)+(porter le gateau à la bouche)=>(manger le gateau)
    4 (manger le gateau+digestion)=>(sentiment de satieté)
    Ce que tu decrit la, c'est dans le cas ou il as "faim". Mais je pense qu'il manque un point, entre le 1 et le 2. Tu suppose qu'il va forcement manger, donc il va saisir le gateau (2). Mais je rajouterais une "instruction" qui devrait lui faire choisir entre prendre le gateau ou faire autre chose, par rapport au niveau d'energie actuel, quelle est la probabilité de devoir manger.

    Je pense qu'on est trop haut. On sais meme pas s'il sera capable, anatomiquement, de pouvoir manger. Ca implique une bouche, un appareil digestif, des fluides (qu'on devrait pouvoir fabriquer en interne, sinon, il est pas autonome). Personnellement, je m'orienterais plus vers le developpement d'un soft adaptatif pour un robot bien defini, mais polyvalent. Un robot basique, capable de s'assemblé avec d'autre robot du meme type pour faire un "transformer". Le soft doit etre capable d'evalué la tache a faire (qui peut etre un ordre ou une tache "choisie") par rapport a la capacité du robot (qui peut lui etre apprit par l'erreur). S'il est capable (ou qu'il se sente capable) de realisé la tache, il s'y met. Sinon, il fait appel a ses "copains". Vu qu'il as deja evalué la tache, il sais ce qui l'attend. Donc il sais deja quel objectif doit atteindre l'assemblage de robots. Ca devient "le cerveau" du nouvel organisme. Les autres étant " asservie".

    Le choix peut etre donné par rapport a un objectif general a atteindre, par exemple equilibré ses niveau "émotif", ou garder une charge de batterie maximal, ou etre un travailleur acharné. Mais tant que cet objetif n'est pas clairement defini, je vois mal comment crée un soft s'en savoir ce qu'on veux en faire. Attention, je dit pas de choisir un objectif simple, mais un objectif general (qui sera la regle N°1). On peut prendre les 3 regle d'assimov, ou imaginé notre propre regle.

    J'imagine bien une IA dont la regle principale serais d'equilibré ses niveaux de ressource libre (genre avoir en moyen 50% de libre, 50% d'utilisé), comme la suggeré pi-r2 ou moi meme. Cette regle s'appuirais a la fois sur un critere physique (les ressources libre), mais aussi sur l'ensemble des taches deja chargée (une forme de psychologie). En parallele a ce processus, il faudrais un systeme un peu comme decrit dans le post de scientist. Un systeme qui oscille toujours entre les taches a faire selon une ponderation (qui sera utilisée par l'equilibrage pour determiné quelle tache continué ou pas, en tenant compte des ressources disponible). L'oscillateur recevrais "un compte rendu" de l'etat du systeme par l'equilibreur (si je peut me permettre), ce qui lui permet de redefinir la ponderation a chaque changement d'etat. Plus une tache a une ponderation elevé (en imaginant que plus c'est elevé, plus c'est important), moins elle a de chance d'etre interrompu. Dans l'autre sens, les taches faiblement pondérée seront vite eliminé (mais elles pourrait etre rechargée immediatement, pour a nouveau etre evaluée). Dans le cas de notre gateau, la probabilité de le manger sera defini par la ponderation, elle meme defini selon le compte rendu precedent qui présente l'etat de la batterie (et d'autre parametre dynamique). Plus la batterie est faible, plus la priorité augmente, jusqu'a depassé un seuil (qui n'est pas connu, puisque il dépend de l'instant ou on doit faire le choix) qui la fera s'executé suffisamment longtemps pour etre remplie (et recharger la batterie).

    Après, pour choisir quel tache lancé, il faudrais definir les parametre de base (manger par exemple) et laissé l'apprentissage determiné les parametre avancé (quel aliment je prefere). Dans les parametre de base pourrait etre defini un niveau de curiosité, qui s'appuyerais sur un probabilité ou sur une regle absolu, et qui serais une des tache lancée constamment, ce qui provoquerais une recherche continue de l'inconnue. Et quant il ne trouve pas de réponse, il pourrais s'appuyé sur les humains pour les trouvé. Enfin, un vrai apprentissage, ou on lui fournit des bases, meme s'il les veux pas (comme a l'ecole), et une disponibilité s'il attend des réponses. Un peu comme avec les gosses quant ils sont a leur periode "Pourquoi ....".

  27. #267
    invite6b1a864b

    Re : Intelligence Artificielle...

    Citation Envoyé par uinet_propane
    Ca, c'est l'apprentissage qui va lui dire qu'est ce qu'il prefere (le gateau) de se qu'il n'aime pas (la baffe).
    Oui et l'apprentissage, si on enlève l'apprentissage conscient, n'est ce pas l'association des causes et de leur effets ?

    Citation Envoyé par uinet_propane
    Ce que tu decrit la, c'est dans le cas ou il as "faim". Mais je pense qu'il manque un point, entre le 1 et le 2. Tu suppose qu'il va forcement manger, donc il va saisir le gateau (2). Mais je rajouterais une "instruction" qui devrait lui faire choisir entre prendre le gateau ou faire autre chose, par rapport au niveau d'energie actuel, quelle est la probabilité de devoir manger.
    Oui ça c'est parce que les premiers model que j'ai essayé de faire étaient le plus simple possible : il avait pour but de manger le plus possible. C'était un petit point dans un univers virtuel en 2d... (un bitmap)

    Citation Envoyé par uinet_propane

    Je pense qu'on est trop haut. On sais meme pas s'il sera capable, anatomiquement, de pouvoir manger. Ca implique une bouche, un appareil digestif, des fluides (qu'on devrait pouvoir fabriquer en interne, sinon, il est pas autonome). Personnellement, je m'orienterais plus vers le developpement d'un soft adaptatif pour un robot bien defini, mais polyvalent. Un robot basique, capable de s'assemblé avec d'autre robot du meme type pour faire un "transformer". Le soft doit etre capable d'evalué la tache a faire (qui peut etre un ordre ou une tache "choisie") par rapport a la capacité du robot (qui peut lui etre apprit par l'erreur). S'il est capable (ou qu'il se sente capable) de realisé la tache, il s'y met. Sinon, il fait appel a ses "copains". Vu qu'il as deja evalué la tache, il sais ce qui l'attend. Donc il sais deja quel objectif doit atteindre l'assemblage de robots. Ca devient "le cerveau" du nouvel organisme. Les autres étant " asservie".
    On est d'accord ! il s'agit surtout de faire le moteur de traitement de l'information.. manger ici était simplement l'acte à accomplir, au niveau du logiciel il s'agit surtout de faire prendre à une information entrante (le signal "faim", ou "nourriture avalé" dans le cas du petit point) la valeur voulu...
    Sinon pour l'appel à ces copain c'est déjà beaucoup plus compliqué... par contre je vois pas comment le robot pourrait avoir un apprentissage si il n'est pas capable d'établir mécaniquement des nouvelles régles sur l'information qu'il perçoit, bref sur l'évolution de la situation et la façon dont il peut intervenir dedans.
    Dans mon idée les hypothèses tel que je les ai données apparaitrait simplement comme des nouveaux neurones décrivant les situations (en intégrant l'état des capteurs, style un neurone qui s'allume dès qu'un gateau apparait parce qu'il réagira à la forme de l'image) et des hypothèses renforcées par l'expérience entre l'enchainement de ces situations (une simple observation statistique de la concordance temporelle des situations). Par exemple pour (main qui s'approche de la bonne façon)=>(douleur).... à chaque fois qu'une main s'approche elle est suivi de douleur... donc les statistiques révelerait une concommitance des situations dont la valeur apparaitrait suffisante pour qu'on évite d'arriver à cette situation.
    Citation Envoyé par uinet_propane
    Le choix peut etre donné par rapport a un objectif general a atteindre, par exemple equilibré ses niveau "émotif", ou garder une charge de batterie maximal, ou etre un travailleur acharné. Mais tant que cet objetif n'est pas clairement defini, je vois mal comment crée un soft s'en savoir ce qu'on veux en faire. Attention, je dit pas de choisir un objectif simple, mais un objectif general (qui sera la regle N°1). On peut prendre les 3 regle d'assimov, ou imaginé notre propre regle.
    Ben l'objectif au niveau du soft est simple : qu'une information d'entrée atteigne un état particulier. Par contre pour intégrer les régles d'assimov, dans ce cadre, cela va s'avérait impossible... à moins de faire une systéme parallèle fixe qui surveille les actes du systémes libre et qui détecte par exemple à quelle moment la situation tend vers le non respect de ses régles.... (chez nous, c'est précisément ce qu'on appel "le surmoi".
    Par exemple notre robot devra apparendre à caractériser les infomations qui trahissent la présence d'un humain, le concepte "humain". Ce concepte devra pour être dirigé par rapport à l'objectif particulier externe.

    Citation Envoyé par uinet_propane
    J'imagine bien une IA dont la regle principale serais d'equilibré ses niveaux de ressource libre (genre avoir en moyen 50% de libre, 50% d'utilisé), comme la suggeré pi-r2 ou moi meme. Cette regle s'appuirais a la fois sur un critere physique (les ressources libres), mais aussi sur l'ensemble des taches deja chargée (une forme de psychologie). En parallele a ce processus, il faudrais un systeme un peu comme decrit dans le post de scientist. Un systeme qui oscille toujours entre les taches a faire selon une ponderation (qui sera utilisée par l'equilibrage pour determiné quelle tache continué ou pas, en tenant compte des ressources disponible). L'oscillateur recevrais "un compte rendu" de l'etat du systeme par l'equilibreur (si je peut me permettre), ce qui lui permet de redefinir la ponderation a chaque changement d'etat. Plus une tache a une ponderation elevé (en imaginant que plus c'est elevé, plus c'est important), moins elle a de chance d'etre interrompu. Dans l'autre sens, les taches faiblement pondérée seront vite eliminé (mais elles pourrait etre rechargée immediatement, pour a nouveau etre evaluée). Dans le cas de notre gateau, la probabilité de le manger sera defini par la ponderation, elle meme defini selon le compte rendu precedent qui présente l'etat de la batterie (et d'autre parametre dynamique). Plus la batterie est faible, plus la priorité augmente, jusqu'a depassé un seuil (qui n'est pas connu, puisque il dépend de l'instant ou on doit faire le choix) qui la fera s'executé suffisamment longtemps pour etre remplie (et recharger la batterie).

    Après, pour choisir quel tache lancé, il faudrais definir les parametre de base (manger par exemple) et laissé l'apprentissage determiné les parametre avancé (quel aliment je prefere). Dans les parametre de base pourrait etre defini un niveau de curiosité, qui s'appuyerais sur un probabilité ou sur une regle absolu, et qui serais une des tache lancée constamment, ce qui provoquerais une recherche continue de l'inconnue. Et quant il ne trouve pas de réponse, il pourrais s'appuyé sur les humains pour les trouvé. Enfin, un vrai apprentissage, ou on lui fournit des bases, meme s'il les veux pas (comme a l'ecole), et une disponibilité s'il attend des réponses. Un peu comme avec les gosses quant ils sont a leur periode "Pourquoi ....".
    ... oula je vois pas trop

    c'est simple moi je vois un systéme stochastique qui fait appraitre des neurones intégrateurs ... (style qui sont relier à d'autre et s'allume si un état particulier et pris par les autres)
    Des hypothèses (des liens qui "observent" combien de fois des neurones (n'importe lequelle) différents s'allument simultanément)
    Et une remonté de l'information qui part des neurones qui collectent l'information instinct, le but, et détermine la valeur prise, à travers les hypothèses et les situations, en remontant logiquement, des neurones moteurs...

  28. #268
    invite57e4f988

    Re : Intelligence Artificielle...

    Je suis presque à 100% d'accord avec uinet_propane (normal, il reprend mon idée avec un beau plus). Par contre eye one Jack, ça me paraît trop compliqué, il n'y a en plus aucune possibilité de "liberté" (que permet l'oscillateur), donc aucune évolution (rapide au moins).

    Par contre pour l'oscillateur, il faudrait le relier au concret : comment attribuer un bénéfice ou un défaut (pour la pondération)? Il faudrait un système parallèle à la vitesse de traitement plus lent (ça devrait pas être dur) pour que l'oscillateur puisse agir. Si vous avez des idées?

  29. #269
    invite36602837

    Re : Intelligence Artificielle...

    Citation Envoyé par One Eye Jack
    Oui ça c'est parce que les premiers model que j'ai essayé de faire étaient le plus simple possible : il avait pour but de manger le plus possible. C'était un petit point dans un univers virtuel en 2d... (un bitmap)


    On est d'accord ! il s'agit surtout de faire le moteur de traitement de l'information.. manger ici était simplement l'acte à accomplir, au niveau du logiciel il s'agit surtout de faire prendre à une information entrante (le signal "faim", ou "nourriture avalé" dans le cas du petit point) la valeur voulu...
    Je suis d'accord que ton exemple est un moteur de traitement. Je sais pas quelle sont tes connaissances, mais quant j'ai fais mon "simulateur de vie artificiel" (c'est un bien grand mot pour ce que c'est), je me suis orienté vers la séparation des parametres individuel (basé sur un "genome") et les parametres physique (niveau d'energie de la nourriture, et il y avait un "poison", valeur d'energie negative). Chaque individu et "vegetaux" avait son propre niveau. Après avoir stabilisé le code, j'ai vu apparaitre du "cannibalisme" que j'avais absolument pas programmer. Les individue était des chargognard, ils trouvaient une cible (un de leur "semblable"), la suivait et attendait sa mort avant de la "manger". Bon, il y avait plein d'incoherence comme des chasseur qui meurt avant leurs proie, mais ca m'as permit de voir qu'avec des instruction hyper general (une pour la recherche de nourriture, une pour l'action "manger" et une pour la conversion d'energie), et avec une serie de moteur de choix, en l'occurenc, dans mon code, 3 "select" qui, se basant sur des "flag" d'etat interne, choississait la tache a faire, la suivait et la terminait, et ce constamment (toutes les 10 millisecond, un controle total etait effectué, sur les 50 individu, mais individuellement)

    Citation Envoyé par One Eye Jack
    Sinon pour l'appel à ces copain c'est déjà beaucoup plus compliqué... par contre je vois pas comment le robot pourrait avoir un apprentissage si il n'est pas capable d'établir mécaniquement des nouvelles régles sur l'information qu'il perçoit, bref sur l'évolution de la situation et la façon dont il peut intervenir dedans.
    Dans mon idée les hypothèses tel que je les ai données apparaitrait simplement comme des nouveaux neurones décrivant les situations (en intégrant l'état des capteurs, style un neurone qui s'allume dès qu'un gateau apparait parce qu'il réagira à la forme de l'image) et des hypothèses renforcées par l'expérience entre l'enchainement de ces situations (une simple observation statistique de la concordance temporelle des situations). Par exemple pour (main qui s'approche de la bonne façon)=>(douleur).... à chaque fois qu'une main s'approche elle est suivi de douleur... donc les statistiques révelerait une concommitance des situations dont la valeur apparaitrait suffisante pour qu'on évite d'arriver à cette situation.
    Pour rendre une information "mecanique", on a pas besoin du neurone, l'ordi le fait automatiquement. C'est son premier niveau de fonctionnement (correspondance 1 a 1), mais en etendant les principes, on peut crée des fonctions plus general, qui seront capable d'accomplir plus de tache. Et "l'interoperabilité", c'est simplement la faculté de communiquer.

    Citation Envoyé par One Eye Jack
    Ben l'objectif au niveau du soft est simple : qu'une information d'entrée atteigne un état particulier. Par contre pour intégrer les régles d'assimov, dans ce cadre, cela va s'avérait impossible... à moins de faire une systéme parallèle fixe qui surveille les actes du systémes libre et qui détecte par exemple à quelle moment la situation tend vers le non respect de ses régles.... (chez nous, c'est précisément ce qu'on appel "le surmoi".
    Par exemple notre robot devra apparendre à caractériser les infomations qui trahissent la présence d'un humain, le concepte "humain". Ce concepte devra pour être dirigé par rapport à l'objectif particulier externe.
    Surtout pas. Une regle absolu doit etre ecrire, voir meme hardcoder. Connaissant la tendance des machines a passer par dessus les soft (vue que tout est parallele), je prefere avoir un "bios" non-inscriptible, qui code les regles fondamentale (genre les regles d'asimov, qui ne doivent pas pouvoir etre transgressé, donc effacée). Mais ce "bios" ne doit pas etre lui-meme le moteur de l'IA, il ne doit etre que le surveillant, un process parallele (physiquement parlant).

    Citation Envoyé par One Eye Jack
    ... oula je vois pas trop

    c'est simple moi je vois un systéme stochastique qui fait appraitre des neurones intégrateurs ... (style qui sont relier à d'autre et s'allume si un état particulier et pris par les autres)
    Des hypothèses (des liens qui "observent" combien de fois des neurones (n'importe lequelle) différents s'allument simultanément)
    Et une remonté de l'information qui part des neurones qui collectent l'information instinct, le but, et détermine la valeur prise, à travers les hypothèses et les situations, en remontant logiquement, des neurones moteurs...
    La c'est moi qui vois plus trop ce que tu veux dire. Mais je pense, encore une fois, que la solution ne viendra pas de la simulation parfaite des neurones et autres cellules humaines intervenant dans l'IB, mais s'orienté vers l'informatique, en s'inspirant de capacité biologique, mais ecrite pour l'informatique. Il est necessaire de faire d'abord un OS standard qui se chargera des composant physique (l'electronique). Puis un ensemble de processus de niveau superieur travailleront sur cette couche d'abstraction (les fonctions LOGIQUE specialisé fournit par les cartes et les composant logiciel avancé).

  30. #270
    invite6b1a864b

    Re : Intelligence Artificielle...

    Citation Envoyé par scientist
    Je suis presque à 100% d'accord avec uinet_propane (normal, il reprend mon idée avec un beau plus). Par contre eye one Jack, ça me paraît trop compliqué, il n'y a en plus aucune possibilité de "liberté" (que permet l'oscillateur), donc aucune évolution (rapide au moins).

    Par contre pour l'oscillateur, il faudrait le relier au concret : comment attribuer un bénéfice ou un défaut (pour la pondération)? Il faudrait un système parallèle à la vitesse de traitement plus lent (ça devrait pas être dur) pour que l'oscillateur puisse agir. Si vous avez des idées?
    non aucune..

Page 9 sur 15 PremièrePremière 9 DernièreDernière

Discussions similaires

  1. Intelligence artificielle
    Par inviteec581d0f dans le forum Discussions scientifiques
    Réponses: 454
    Dernier message: 11/07/2007, 21h10
  2. Intelligence artificielle
    Par invite68b1fbe7 dans le forum [ARCHIVE] Philosophie
    Réponses: 120
    Dernier message: 05/08/2004, 09h05
  3. Intelligence artificielle
    Par Fildomen dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 19h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 10h01