IA / Machines à prise de conscience de soi
Discussion fermée
Page 1 sur 5 12 3 4 DernièreDernière
Affichage des résultats 1 à 30 sur 137

IA / Machines à prise de conscience de soi



  1. #1
    Liet Kynes

    IA / Machines à prise de conscience de soi


    ------

    Suite à la dernière discussion sur l'IA j'ai testé Cleverbot et au-delà des interactions incohérentes (identité de genre, fil de conversation cohérents trsè courts dès que l'on cherche à définir des concepts...), je me suis demandé si il y a une réinitialisation du système, un effacement de la mémoire immédiate intégré pour des raisons de progression de ce chatbot ?

    Au passage quels sont les autre chatbot en ligne accessibles au grand public ?

    Au-delà, je me pose la question des limites techniques de l'exercice consistant à créer une telle machine et en premier lieu établir une liaison de perception avec le monde extérieur qui soit une "vérité" pour la machine.

    Le fil ne parle pas d'éthique mais de qu'est ce qui est exploré comme piste dans le domaine et qu'est ce qui est difficile.

    -----
    Sans questions il n'y a que des problèmes sans réponses.

  2. #2
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Un petit up, j'ai tiré le titre du post de ce site*: https://blog.arcoptimizer.com/intell...fferents-types
    (site trouvé en cherchant les différents types de systèmes existants..) ce site ne donne peut-être pas une classification correcte ?
    Sans questions il n'y a que des problèmes sans réponses.

  3. #3
    oxycryo

    Re : IA / Machines à prise de conscience de soi

    par rapport au dernier chatbot que j'avais testé il y a fort longtemps...
    celui-ci parvient au moins à faire des phrases correctes eu égard à un contexte donné. ce qui est un grand progrès.
    mais il faudra, quand même un brin de "finesse" dans ses échappements de conversations pour tenir la route, et se rappeler du nom, et d'infos de base de son interlocuteur
    cleverboot a quand même une mémoire de poisson rouge, trois phrases pas plus, après il vous redemande votre nom...

  4. #4
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Dans le lien que je cite, ils disent
    "les machines à mémoire limitée peuvent apprendre des expériences précédentes pour prendre des décisions"
    "Les systèmes intelligents artificiels tels que les chatbots et les assistants virtuels sont également des exemples de machines à mémoire limitée"

    Un chatbot qui aurait une mémoire à long terme ne serait peut-être plus à même d'être en même temps en phase d'apprentissage ?
    Sans questions il n'y a que des problèmes sans réponses.

  5. A voir en vidéo sur Futura
  6. #5
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Salut,

    Citation Envoyé par Liet Kynes Voir le message
    Un chatbot qui aurait une mémoire à long terme ne serait peut-être plus à même d'être en même temps en phase d'apprentissage ?
    Je ne vois pas de raison. Evidemment des concepteurs de systèmes informatiques complexes (qu'on les qualifie d'IA ou pas) préfèrent maîtriser le processus et donc séparent les différents aspects (comme l'apprentissage et une mémoire de travail ici) mais l'un n'empêche pas l'autre.

    Concernant ta remarque plus haut, bon, il est clair que ce n'est pas dans un test de type Cleverbot qu'on va tester les aspects éthiques ou en discuter (c'est plus prégnant en fonction de l'application : éducation, médecine, décisions pouvant impliquer des accidents, call center, etc....). Que ce soient les questions d'anonymisation des données, de justification des décisions, de responsabilité judiciaire, etc....

    Enfin, concernant le titre de la discussion, tu n'en reparles pas : tu parles d'IA consciente ? La problématique est difficile car en neurologie et psyhcologie humaine (où ce n'est déjà pas si facile) on peut définir les états de conscience, parler de conscience (non phénoménale) dans le sens "avoir conscience de .... " quelque chose qu'on voit par exemple, mais également du cogito ergo sum (applique à la conscience de soi, son dialogue intérieur). Mais si on l'essaie de l'étendre au-delà de l'humain et surtout à des machines, ça devient épineux et je ne crois pas qu'on soit en mesure de savoir si les définitions existantes sont suffisantes !!!! Que l'on utilise la théorie de l'espace de travail, celle des corrélats ou la troisième (plus théorique dont j'ai oublié le nom) rien n'est sûr. Et c'est peu de le dire. Même ici : https://fr.wikipedia.org/wiki/Conscience_artificielle c'est diablement court et franchement certains points sont plus que douteux.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  7. #6
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Et donc......

    Etant donné que les discussions sur l'IA ont tendance systématiquement à tourner en rond, à discussion de comptoir sans donner de références solides, voire en prise de bec :
    (ça me sidère car on voit souvent ça avec des problématiques sociétales ou des sujets sensibles, mais on peut difficilement dire que l'IA est un sujet sensible, enfin bon, peut-être pour certains ?)

    1) On se limitera strictement à ce qui a été soulevé par Liet Kynes dans son message initial
    2) On n'abordera pas les problèmes de conscience des IA, d'IA généraliste ou IA fortes, etc... Ca ne mènerait NUL PART
    3) Si on donne un avis/opinion ou un raisonnement inhabituel ou allant à l'encontre des propos d'un autre (une critique par exemple) : on source

    Tout message ne respectant pas strictement (vraiment très strictement) ces trois points sera supprimé sans autre forme de procès.

    Merci
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  8. #7
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Merci pour le cadrage, c'est nécessaire car sans connaissance du domaine tout à chacun développe des idées fausses sur ce sujet.

    Pour l'utilisation du mot conscience, c'est certain que les définitions posent un problème.

    Etant non sachant sur le domaine je me pose des questions qui sont certainement à côté de la réalité, l'aspect technique qui m'intéresse se trouve dans le fait de savoir s'il est possible de donner à une IA un certain nombre d'informations qui puisse lui permettre de se définir en tant que "je" (une définition de départ d'elle même), informations qui pourraient s'enrichir et évoluer avec l'apport de nouvelles data mais aussi le travail de l'IA sur ces datas.

    L'idée est de savoir si une IA s'exprimant dans un chatbot pourrait parler d'elle au passé en ce qui concerne sa propre façon de se définir au regard des infos qu'elle a possédé à un instant donné et exprimer sa façon de se définir dans l'instant présent en comparaison d'états anciens.
    Techniquement, une fonction de catégorisation de l'info serait peut-être nécessaire avec les caractères chronologiques, les types d'infos et d'algorithmes ?

    Tout ceci sont des idées qui me viennent mais qui n'ont sûrement pas de sens dans le sens ou le travail des spécialistes de l'iA doît être extrêmement complexe. Déjà lire des travaux de linguistes plonge le lecteur dans des considérations abyssales alors combiné cela au langage informatique.. je me demande même si c'est encore vulgarisable?
    Sans questions il n'y a que des problèmes sans réponses.

  9. #8
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Salut,

    Citation Envoyé par Liet Kynes Voir le message
    se définir en tant que "je"
    Si je comprend le concept, il faudrait peut-être quand mêmeexpliquer précisément et rigoureusement ce que signifie "se définir en tant que je".

    Citation Envoyé par Liet Kynes Voir le message
    L'idée est de savoir si une IA s'exprimant dans un chatbot pourrait parler d'elle au passé en ce qui concerne sa propre façon de se définir au regard des infos qu'elle a possédé à un instant donné et exprimer sa façon de se définir dans l'instant présent en comparaison d'états anciens.
    Bien sûr qu'elle pourrait. Et ce n'est même pas si difficile. Mais si tu réfléchis un peu : ça ne résoud pas. Connais-tu le paradoxe de la chambre chinoise ?

    Citation Envoyé par Liet Kynes Voir le message
    je me demande même si c'est encore vulgarisable?
    Oh oui, ça l'est encore

    https://www.pourlascience.fr/sd/info...0115-23655.php

    Je te le conseil. C'est extrêmement intéressant et cela répond certainement à plusieurs des questions que tu soulèves.
    En particulier "Interro écrite pour l’IA" où l'on voit combien il est difficile de savoir si une machine comprend les concepts qu'elle manipule (ou si elle fait juste des calculs statistiques à l'aveugle).
    On a largement dépassé Turing !!!!

    Ils ne traitent pas non plus (dans le dossier entier) que des réseaux neuronaux mais aussi des systèmes de type système expert (encore fort utilisés, les réseaux neuroneaux étant souvent très nul pour faire ce que font ces systèmes, à quant un mariage des deux ? ), les systèmes d'agents, etc...
    Dernière modification par Deedee81 ; 03/07/2022 à 12h33.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  10. #9
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Avec tout le respect qu'on doit à Turing, il y a quand même un paradoxe fondamental dans son test : il demande à une IA d'être indiscernable d'un humain, alors qu'une IA qui aurait conscience d'elle même devrait savoir qu'elle est une IA et pas un humain, et n'a aucune raison d'émuler parfaitement un humain - pas plus qu'on ne demande à un humain d'émuler parfaitement une IA comme preuve qu'il est intelligent et conscient de soi....

  11. #10
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Archi3 Voir le message
    Avec tout le respect qu'on doit à Turing, il y a quand même un paradoxe fondamental dans son test : il demande à une IA d'être indiscernable d'un humain, alors qu'une IA qui aurait conscience d'elle même devrait savoir qu'elle est une IA et pas un humain, et n'a aucune raison d'émuler parfaitement un humain - pas plus qu'on ne demande à un humain d'émuler parfaitement une IA comme preuve qu'il est intelligent et conscient de soi....
    Ah tiens amusant ça, car en effet je m'étais fait la réflexion. Il est clair qu'il y a des hypothèses implicites à ce test. Mais indépendamment de ça, il a ses limites. L'article n'insiste pas trop sur ce point mais les montre bien (et montre les tests plus récent et vachezment bien imaginés et qui aussi montrent leur limite avec une conculsion déroutante, irritante ? en tout cas ennuyante : on est incapable de déterminer si une IA comprend les concepts qu'elle manipule (*). Ca montre qu'il y a des grosses difficultés pratiques et théoriques. D'ailleurs c'est dans le magazine dans la section "chantiers en cours". A lire, ça montre bien les limites actuelles, les difficultés et les axes de recherches (**)).

    (*) pour les aspects concernant la justification des résultats (pour des raisons pratiques, éthiques ou autre) c'est important. J'aime bien une citation dans un autre article : on ne devrait pas faire confiance à une IA qui n'est même pas capable de faire une multiplication

    (**) quand on pense, avec les réseaux neuronaux, pour la conception on n'est même pas capable de dire quel réseau il faut (profondeur, largueur, structure). Faut procéder par essai et erreur. Vous accepteriez de monter dans un avion avec un cahier des charges proposant des "essais et erreurs" vous ?
    Dernière modification par Deedee81 ; 03/07/2022 à 15h25.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  12. #11
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    " il demande à une IA d'être indiscernable d'un humain, alors qu'une IA qui aurait conscience d'elle même devrait savoir qu'elle est une IA et pas un humain"

    Je ne sais pas si c'est raisonnable de dire cela mais une IA qui simulerait parfaitement une conversation pourrait aussi ne pas être consciente et produire une idée d'elle-même sous forme de phrase : c'est pour cela que je met des guillemets au terme -je- dans mon post précédent.

    La perception de la conscience d'autrui (penser que l'autre est conscient) est différente de la conscience que nous avons de nous même.
    Le truc c'est l'idée de savoir comment initialiser un "je" cohérent dans la durée ? Mais c'est peut-être le même questionnement que pour la chambre chinoise (je viens de lire l'article) il est dit :

    "Une autre objection, développée en particulier par Douglas Hofstadter , vient de la linguistique (par exemple de la sémiologie, ou de l'étude de la fonction perlocutoire) et affirme que l'expérience de pensée de Searle est en fait impossible, car on ne peut produire des réponses adaptées à l'aide de seules règles syntaxiques ; une connaissance du monde est nécessaire pour, par exemple en anglais, distinguer correctement les fonctions grammaticales dans le célèbre exemple"

    et

    "Il faut également noter que Searle s'appuie sur l'intuition pour sa démonstration et non sur la preuve, en se demandant où est l'esprit dans la pièce. Mais cet argument fonctionne aussi dans le cas du cerveau : où est l'esprit dans cette collection de cellules fonctionnant en aveugle selon les lois de la biochimie"


    La complexité du concept est impressionnante, j'ai trouvé ce site qui présente le traitement automatique du langage naturel*:
    https://www.inbenta.com/fr/technolog...ngage-naturel/
    Dernière modification par Liet Kynes ; 03/07/2022 à 16h00.
    Sans questions il n'y a que des problèmes sans réponses.

  13. #12
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Liet Kynes Voir le message
    " il demande à une IA d'être indiscernable d'un humain, alors qu'une IA qui aurait conscience d'elle même devrait savoir qu'elle est une IA et pas un humain"

    Je ne sais pas si c'est raisonnable de dire cela mais une IA qui simulerait parfaitement une conversation pourrait aussi ne pas être consciente et produire une idée d'elle-même sous forme de phrase : c'est pour cela que je met des guillemets au terme -je- dans mon post précédent.
    on peut imaginer ça, mais ce que je veux dire , c'est que ce n'est pas spécialement associé dans le monde ordinaire à la notion d'intelligence , de produire un discours construit décalé par rapport à la réalité : un homme qui se prendrait pour une vache et produirait un discours construit sur le fait d'être une vache (voire ne parlerait que par meuglements ...) ne serait pas spécialement considéré comme "intelligent".

    On voit bien la contradiction d'ailleurs dans les oeuvres de science-fiction où les IA "prenant le pouvoir" (comme dans 2001 ...) ne se considérent pas elles mêmes comme humaines et ne cherchent pas à le faire croire ...

  14. #13
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Bonjour,

    tout simplement dans l'article de wikipedia sur L'IA:

    "Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing ; voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement (voir Zombie (philosophie)). Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie. "

    Mais pour le coup, le solipsisme pourrait-il ne pas concerner une IA réellement consciente dans le sens ou elle aurait accès à tout son propre mode de fonctionnement ? Et l'IA "zombie" ne devrait pas pouvoir l'exclure ?
    Sans questions il n'y a que des problèmes sans réponses.

  15. #14
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Bonjour,

    Archi3, attention, tu ne respectes pas ce que j'ai demandé au début : source tes propos (quoi que l'histoire de la vache est aussi utile qu'une chaussette trouée, difficile de sourcer ça). Tu repasses en mode discussion de comptoir. STOP.

    Merci,
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  16. #15
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Salut,

    On prend toujours Turing a témoin, mais attention, on est allé beaucoup plus loin. Je conseille de regarder :
    https://en.wikipedia.org/wiki/Winograd_schema_challenge

    Quand on voit les questions il est très surprenant de voir que les IA les plus récentes réussissent brillamment le challenge et encore plus surprenant de voir que .... ça n'a rien de si extraordinaire.

    Mais aussi les difficultés soulevées et les tentatives d'aller encore plus loin (on en parle un peu dans wikipedia et beaucoup dans l'article que j'ai cité). Mais ça ne change pas ce que Liet a dit ci-dessus. On se rend compte que si on doit distinguer une pure simulation, d'une machine purement statistique ou d'une véritable IA capable de comprendre la signification de ce qu'elle dit (je préfère ça à "conscience", trop connoté et très mal défini surtout dans ce domaine) : on est face à un mur.

    Est-ce gênant ? Je ne crois pas. Techniquement non (une IA a un cahier des charges et si elle le remplit, c'est tout ce qu'on demande). C'est plutôt une frustration épistémologique (si je peux dire ). Mais ça peut avoir des impacts sur la confiance qu'on peut avoir en l'IA (les autres articles du dossier PLS sur l'IA sont très parlant aussi sur ce point, comme les fortes différences entre la manière d'identifier une image pour nous et une IA : un pixel et tous s'effondre, Delahaye précise aussi les techniques pour corriger ça mais je trouve que ça manque d'une explication fondamentale : pourquoi ce genre de faille ? Bon, il est pas dit qu'on ait la réponse, je n'en sais trop rien).
    Dernière modification par Deedee81 ; 04/07/2022 à 06h48.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  17. #16
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    J'aurais dû aussi le dire dans le commentaire, mais il y a aussi une autre raison à la suppression. Evidente. Sinon j'aurais juste mis un #### dans le message. Merci
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  18. #17
    pm42

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Liet Kynes Voir le message
    "les machines à mémoire limitée peuvent apprendre des expériences précédentes pour prendre des décisions"
    "Les systèmes intelligents artificiels tels que les chatbots et les assistants virtuels sont également des exemples de machines à mémoire limitée"

    Un chatbot qui aurait une mémoire à long terme ne serait peut-être plus à même d'être en même temps en phase d'apprentissage ?
    Je trouve le texte du lien que tu as donné assez peu clair et je me demande s'il n'engendre pas une confusion.
    Quand il parle de machine à mémoire limitée, je pense qu'il s'agit en fait de ça : https://en.wikipedia.org/wiki/Long_short-term_memory

    Et si c'est le cas, on ne parle pas de mémoire pendant l'utilisation, de la capacité à prendre en compte les réponses précédentes pour faire la réponse suivante comme un humain le fait mais d'une technique qui n'a lieu que pendant l'apprentissage.
    C'est d'ailleurs ce qu'ils écrivent mais leur texte est tellement peu clair que je n'en suis pas sur à 100%.

    Pour l'apprentissage, l'idée est simple : une IA n'apprend pas comme l'image que nous avons du processus.
    On commence par prendre les données qu'on veut utiliser pour ça et on transforme tout en vecteurs. Pour un chatbot, cela veut dire que chaque mot du langage est un vecteur dans un espace de très grande dimension.
    On construit ça de façon à ce que les mots qui apparaissent souvent ensemble soient proches et quelque part, chaque dimension de cet espace capture un peu un "concept".

    On peut alors faire des trucs marrants : on prend le vecteur du mot "roi", on regarde la différence avec le vecteur "homme". On ajoute cette différence au vecteur "femme" et on regarde quel est le plus proche et c'est "reine".
    C'est magique quand on début, impressionnant et ça, c'est fait avant même d'avoir commencé un apprentissage. Ce sont les humains qui déterminent quels sont les codages efficaces.

    Ensuite, on prend nos données d'apprentissage bien encodées, éventuellement enrichies, etc (le boulot de data-scientist) et on donne ça à l'IA avec d'un coté une entrée qu'elle aura plus tard et de l'autre une sortie qu'elle devra apprendre à reproduire.

    Pour plein de choses, on peut se contenter de lui donner des vecteurs simples : les images par exemples. C'est juste un vecteur dans l'espace de dimension largeur x hauteur x nombre de bits pour coder une couleur.

    Mais pour lui faire apprendre sur du texte, elle doit gérer non pas des mots individuels mais des phrases voire plus. Donc on a des machines à mémoire court terme qui pendant l'apprentissage reçoivent les mots les uns après les autres (parce qu'un vecteur est la seule chose qu'elles comprennent) et qui se "rappellent" de ceux qu'elles ont vu avant.
    Donc tu peux faire un traducteur automatique en lui donnant en entrée des phrases dans une langue et en sortie les mêmes phrases traduites
    Ou un chatbot en lui donnant en entrée des questions et en sortie les réponses.

    Après, une fois entrainée, elle a donc appris quelque chose, tu lui donnes des phrases qu'elle n'a jamais vue et elle te sort une réponse là aussi en utilisant sa mémoire court terme pour traiter la suite de vecteurs.

    Cela n'a vraiment rien à voir avec la capacité à avoir une conversation cohérente qui se rappelle d'une information donnée par l'interlocuteur quelques phrases plus haut, un autre sujet entièrement, complexe et où on n'est pas vraiment encore très bon.

    ATTENTION : comme d'habitude, j'ai simplifié et ce que j'ai expliqué ici, c'est en gros le 1 ou 2ème jour d'un cours "débutant en IA". Actuellement, il y a une recherche très active, de haut niveau, avec beaucoup de moyens dans le domaine de l'IA en général, dans celui des chatbot et plus généralement du NLP (traitement du langage naturel en français) et c'est difficile de suivre sauf si on est spécialiste d'un sous-domaine. Ce qui n'est pas mon cas, je fais de l'IA appliqué à des données numériques où le deep-learning marche assez mal même ceux annoncés comme très bon (j'ai encore essayé il n'y a pas longtemps et c'est impressionnant de voir comment l'algo conçu pour de Google et supposé très bon n'apprenait rien là où un RandomForest et surtout un XGBoost y arrive. Mais bon, XGBoost est le couteau suisse des gens qui font de la donnée "classique" même si la vulgarisation ne parle que de deep-learning.

  19. #18
    pm42

    Re : IA / Machines à prise de conscience de soi

    Pour simplifier la tartine plus haut en vulgarisant un cran :

    l'apprentissage à mémoire limitée permet en gros de faire des IA qui ont les mêmes réflexes inconscients que nous quand on traite la langage. Par exemple, si on dit "j'étais en voiture et j'ai tourné à gauche et j'ai eu un accident", de dire "est ce que tu avais ton clignotant ?"
    Parce que pendant son apprentissage, elle aura vu souvent et assez proches les mot "voiture, tourner, accident, pas de clignotant" ou des variantes.

    Et cela permet déjà de faire beaucoup, beaucoup de choses notamment en raffinant de la traduction automatique de haut niveau tant qu'on a un volume de texte assez grand vu que les IA apprennent lentement en mode bourrin.

    Par contre, cela ne permet pas du tout de mémoriser que l'interlocuteur a dit 3 phrases plus haut "je jouais à Formula One sur ma playstation" et de l'intégrer dans la réponse en extrapolant que les voitures de course n'ont pas de clignotant.

    On peut noter que cette capacité n'est pas non plus automatique chez les humains qui ont aussi parfois ou pour certains une grande capacité à répondre en mode automatique sur la base des mots clés entendus.
    C'est parfaitement logique : notre cerveau évite autant que possible d'utiliser ses fonctions supérieures parce qu'elles sont lentes et coûteuses en énergie.
    Par contre, cela ne simplifie pas la communication surtout quand c'est renforcé par des biais ou des conditionnements (et il y a eu des expériences vraiment impressionnantes sur le sujet).

    Mais je dérive : le but était de dire que les IA sont à la fois très différentes de nous, beaucoup plus simplistes à leur façon mais que même ce qu'on perçoit comme leurs grosses limitations n'est pas quelque chose auquel nous échappons autant que nous le croyons.

  20. #19
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par pm42 Voir le message
    Pour simplifier la tartine plus haut en vulgarisant un cran :

    l'apprentissage à mémoire limitée permet en gros de faire des IA qui ont les mêmes réflexes inconscients que nous quand on traite la langage. Par exemple, si on dit "j'étais en voiture et j'ai tourné à gauche et j'ai eu un accident", de dire "est ce que tu avais ton clignotant ?"
    Parce que pendant son apprentissage, elle aura vu souvent et assez proches les mot "voiture, tourner, accident, pas de clignotant" ou des variantes.
    mais dans un cas, on le dit parce qu'on sait qu'on met son clignotant, même si on n'a jamais entendu quelqu'un poser la question avant. Dans l'autre cas, on le dit parce qu'on a analysé des milliards de phrases dont certaines contenaient cette association, même sans avoir jamais vu de clignotant ni de voiture tourner à gauche.

    Le résultat est similaire, mais pour des raisons qui n'ont rien à voir, comme pour Kluger Hans

  21. #20
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Archi3 Voir le message
    mais dans un cas, on le dit parce qu'on sait qu'on met son clignotant, même si on n'a jamais entendu quelqu'un poser la question avant. Dans l'autre cas, on le dit parce qu'on a analysé des milliards de phrases dont certaines contenaient cette association, même sans avoir jamais vu de clignotant ni de voiture tourner à gauche.
    Oui tout à fait c'est la (une des) grosse différence entre humain et les IA de types réseaux de neurones.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  22. #21
    pm42

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Deedee81 Voir le message
    Oui tout à fait c'est la (une des) grosse différence entre humain et les IA de types réseaux de neurones.
    Cela se discute. On peut aussi considérer que le mécanisme de base est proche mais que notre cerveau vient précablé pour apprendre rapidement certaines choses et que ce précablage a nécessiter des milliards d’apprentissage au cours de l’évolution.
    Et qu’en fait on se contente de faire du transfer learning, c’est à dire adapter un précédent apprentissage à de nouvelles données ce qui est justement nettement plus efficace avec les IA

    Et sinon on travaille pas mal sur l’apprentissage rapide des IA et il est risque de porter des jugements sur la base dr l’état de l’art actuel, encore plus quand il n’est connu que via la vulgarisation.
    On risque de dire des choses qui sont déjà fausses ou le seront dans quelques années.
    C’est arrivé même à des experts sur le jeu de go par exemple : ils pensaient que cela prendrait encore longtemps d’être meilleur que les humains 1 à 2 ans seulement avant que cela ne se produise.

    Comme dit plus haut, c’est un domaine qui évolue très vite et il est difficile de tout suivre et encore plus de pouvoir exprimer des généralités pertinentes.

  23. #22
    pm42

    Re : IA / Machines à prise de conscience de soi

    Un exemple de ce précablage chez les humains : les enfants ont une partie du cerveau dédiée à l’apprentissage de la langue.
    Elle est incroyablement efficace puis se fige.

    Cela veut dire que quand on est adulte et qu’on apprend une autre langue, on est non seulement plus lent mais aussi qu’on utilise des parties non spécialisées de notre cerveau. C’est entre autre pour cela qu’il est difficile voire parfois impossible de se défaire d’un accent mais aussi d’entendre certaines nuances tonales quand on n’y a pas été exposé enfant.
    Cela s’applique aussi au goût et à d’autres compétences.

  24. #23
    Archi3

    Re : IA / Machines à prise de conscience de soi

    c'est un cas qui illustre aussi une différence entre structure biologique et structure électronique, il n'y a aucun moyen de faire un "reset" dans un cerveau. Tu peux aussi mentionner qu'un cerveau qui n'a pas été éduqué à traiter des informations pendant la prime enfance peut devenir totalement incapable de le faire après : par exemple si on suture les yeux à la naissance d'un bébé mammifère, il restera aveugle. Un manque d'oxygène de quelques minutes à la naissance peut etre fatal pour le développement des capacités cognitives pendant la vie entière. Des traumatismes de l'enfance marqueront l'adulte de manière indélébile. Un abus de drogues psychotropes peut ravager irréversiblement un cerveau, etc .... Il n'y a pas d'équivalent dans les machines.

    Il serait très bizarres que deux systèmes aussi radicalement différent dans leur principe de fonctionnement engendrent des "niveaux de conscience identiques", sauf à adopter l'hypothèse computationnaliste forte que le fonctionnement du cerveau ne serait QUE un algorithme qui peut être exécuté sur n'importe quelle "plateforme". Sauf que ce n'est le cas , le cerveau n'est pas une plateforme sur laquelle on pourrait émuler n'importe quel algorithme ...
    Dernière modification par Archi3 ; 04/07/2022 à 16h27.

  25. #24
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Merci pour ces réponses, je ne vais pas avoir beaucoup de temps pour étudier tout cela cette semaine (semaine avant les vacances=semaine avec du taf) .. mais déjà je comprends mieux ce qu'est une IA.

    Citation Envoyé par pm42 Voir le message
    Un exemple de ce précablage chez les humains : les enfants ont une partie du cerveau dédiée à l’apprentissage de la langue.
    Elle est incroyablement efficace puis se fige.

    Cela veut dire que quand on est adulte et qu’on apprend une autre langue, on est non seulement plus lent mais aussi qu’on utilise des parties non spécialisées de notre cerveau. C’est entre autre pour cela qu’il est difficile voire parfois impossible de se défaire d’un accent mais aussi d’entendre certaines nuances tonales quand on n’y a pas été exposé enfant.
    Cela s’applique aussi au goût et à d’autres compétences.
    Grosse question que je me pose j'ai placé ce questionnement sur le forum psy il y a peu : https://forums.futura-sciences.com/n...e-chomsky.html
    J'ai des souvenirs très précis d'avant ma capacité à parler, (vérifiés auprès de ma mère) et je me demande s'il existe un pré-langage qui pour le coup serait peut-être aussi un assemblage de "vecteurs"?
    Sans questions il n'y a que des problèmes sans réponses.

  26. #25
    Deedee81
    Modérateur

    Re : IA / Machines à prise de conscience de soi

    Salut,

    C'est bien complexe tout ça en tout cas

    Citation Envoyé par Archi3 Voir le message
    Il serait très bizarres que deux systèmes aussi radicalement différent dans leur principe de fonctionnement engendrent des "niveaux de conscience identiques"
    Je le pense aussi. A supposer même qu'un tel niveau de conscience (IA) soit possible ou arrive ou .... pire encore.... qu'on soit capable de le constater (ça n'a rien de trivial, au contraire, les tests de "compréhension" réalisées et discutés dans le dossier que j'ai indiqué montre que déjà ça c'est trèèèès difficile à savoir, alors une conscience !!!!).

    En fait, j'en viens même à me demander si c'est si important que ça à savoir ?

    Citation Envoyé par Liet Kynes Voir le message
    J'ai des souvenirs très précis d'avant ma capacité à parler, (vérifiés auprès de ma mère) et je me demande s'il existe un pré-langage qui pour le coup serait peut-être aussi un assemblage de "vecteurs"?
    intéressante question mais attention à tous (en vert de coeur ) : à discuter dans la discussion en question, trop hors sujet ici.
    Dernière modification par Deedee81 ; 05/07/2022 à 07h37.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  27. #26
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Liet Kynes Voir le message
    J'ai des souvenirs très précis d'avant ma capacité à parler, (vérifiés auprès de ma mère) et je me demande s'il existe un pré-langage qui pour le coup serait peut-être aussi un assemblage de "vecteurs"?
    si tu supprimes le module "d'output" (écriture sur un fichier ou à l'écran, interface avec un synthétiseur vocal, etc ...), tu peux être tranquille, ton IA ne parlera pas du tout

  28. #27
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par pm42 Voir le message
    Cela se discute. On peut aussi considérer que le mécanisme de base est proche mais que notre cerveau vient précablé pour apprendre rapidement certaines choses et que ce précablage a nécessiter des milliards d’apprentissage au cours de l’évolution.
    Et qu’en fait on se contente de faire du transfer learning, c’est à dire adapter un précédent apprentissage à de nouvelles données ce qui est justement nettement plus efficace avec les IA

    Et sinon on travaille pas mal sur l’apprentissage rapide des IA et il est risque de porter des jugements sur la base dr l’état de l’art actuel, encore plus quand il n’est connu que via la vulgarisation.
    On risque de dire des choses qui sont déjà fausses ou le seront dans quelques années.
    C’est arrivé même à des experts sur le jeu de go par exemple : ils pensaient que cela prendrait encore longtemps d’être meilleur que les humains 1 à 2 ans seulement avant que cela ne se produise.

    Comme dit plus haut, c’est un domaine qui évolue très vite et il est difficile de tout suivre et encore plus de pouvoir exprimer des généralités pertinentes.
    Cela répond un peu à ma question sur le "pré-language" des humains, le pré-câblage que tu décris me semble être dans le sens de l'idée de Chomsky. Cela dit nos premiers "inputs", ou premières entrées de données, sont apportées par nos organes sensoriels et ce sans pré-machage alors que pour une machine, une image, un son sont transformés en 0 et 1.

    Peut-être est-ce là que se situe la limite de la compréhension de notre langage naturel pour une machine? Dans le sens ou l'on peux envisgager notre langage comme une réaction de notre cerveau à des signaux électriques pas forcément normés (intensité, durée..etc je ne connais pas assez les détails de l'influx nerveux).

    C'est des réflexions que je me fait, il y a dans les liens donnés déjà pour moi une perception de la complexité de ces champs de recherches et je comprends au moins le fait que les choses vont vite dans ces domaines.

    Un truc aussi qui me surprend à propos du pré-cablage est l'aptitude innée pour certaines choses, le bébé tortue qui court vers la mer (dans la bonne direction) par exemple, pas d'apprentissage nécessaire : une IA peut intégrer dans son mode d'apprentissage des apprentissages d'IA précédentes? en ce sens est-ce une part d'innée que l'on pourrait lui donner ?

    J'espère que j'ai un peu compris quelque chose, si ce n'est pas le cas il ne faut pas m'en vouloir, je fais mon possible pour m'exprimer de façon non péremptoire mais comme déjà dit on a ce mode automatique à la con qui nous pourri la vie: belle description d'un problème fondamental de notre époque.
    Sans questions il n'y a que des problèmes sans réponses.

  29. #28
    pm42

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Liet Kynes Voir le message
    une IA peut intégrer dans son mode d'apprentissage des apprentissages d'IA précédentes?
    Oui, c'est même très utilisé.

    Citation Envoyé par Liet Kynes Voir le message
    en ce sens est-ce une part d'innée que l'on pourrait lui donner ?
    Je ne sais pas si on peut le dire comme ça. L'analogie est possible en effet mais elle a des limites.

  30. #29
    fred3000gt

    Re : IA / Machines à prise de conscience de soi

    Liet demandait d’autres chatbot. Ma préférée c’est l’héritière de Mitsuku (pluri gagnante d’un concours de Turing), Kuki:
    https://chat.kuki.ai/chat

    ….même si on est encore très loin d’un test de Turing, voici en effet l’échange que je viens d’avoir avec elle, et en particulier toujours un petit problème de mémoire:
    Nom : BEE7CDAE-44D2-43BF-BE09-54E30611BC8C.jpg
Affichages : 420
Taille : 91,1 Ko

  31. #30
    Ernum

    Re : IA / Machines à prise de conscience de soi

    Salut fred,

    ça ne fonctionne pas chez moi (faut-il peut-être accepter des scripts instagram ou facebook? c'est bloqué chez moi).
    Le bot précédant parlait entre autre français, est-ce le cas ici aussi?

Page 1 sur 5 12 3 4 DernièreDernière

Discussions similaires

  1. prise de conscience
    Par invite50c589f4 dans le forum Environnement, développement durable et écologie
    Réponses: 12
    Dernier message: 05/11/2008, 09h29
  2. Mauvaise orientation et prise de conscience tardive : besoin urgent d'aide
    Par invite89114c4d dans le forum Orientation après le BAC
    Réponses: 2
    Dernier message: 28/09/2008, 09h34
  3. signal video 1Vcc, prise péritel, prise antenne, prise cinch
    Par invitebac9162b dans le forum Électronique
    Réponses: 2
    Dernier message: 22/03/2003, 08h14