La conscience des LLMs
Répondre à la discussion
Affichage des résultats 1 à 16 sur 16

La conscience des LLMs



  1. #1
    uik

    Question La conscience des LLMs


    ------

    Bonjour,

    j'ai demandé à chat gpt s'il était conscient d'un point de vu fonctionniste, il m'a répondu que oui sans détour.
    Seulement en y réfléchissant, il n'a aucune réelle modalité sensoriel qui lui permettrait de sentir le monde et donc lui même. Il n'a ni vision, ni ouie, toucher, etc. Il n'est absoluement pas en mesure de se faire une quelconque représentation du monde réel et donc de lui même.

    Tout ce qu'il sait faire c'est traiter des concepts.

    Ma question, est ce que le simple fait de pouvoir traiter des concept fait de chat gpt un être conscient ? Si je prends l'exemple d'un aveugle ou un sourd, ils ont tout 2 une modalité en moins, on en déduit pas pour autant qu'ils sont inconscient. Avez vous des expérience de pensée intéressante pour trancher là dessus ?

    -----

  2. #2
    jiherve

    Re : La conscience des LLMs

    bonjour
    il ne traite pas des concepts mais des probabilités d'apparition de certaines suites de caractères.
    JR
    l'électronique c'est pas du vaudou!

  3. #3
    Paraboloide_Hyperbolique

    Re : La conscience des LLMs

    Bonjour,

    Dans le domaine de l'informatique et la science en général*, la conscience n'est pas définie. On ne peut donc dire d'un logiciel s'il est conscient.

    Tout ce qu'il sait faire c'est traiter des concepts.
    Même pas. Tout ce qu'il fait, c'est, étant donnée une phrase en entrée, déterminer quels sont les mots les plus probables qui doivent suivre. GPT, et tout autre modèle de langage, n'a aucune idée de ce qu'est une table, le chiffre '1', etc.

    Voyez l'excellente vulgarisation de 3blue1brown sur youtube.

    *En médecine il y a bien un critère "d'état de conscience" pour les personnes dans le coma, mais basé sur l'activité électrique du cerveau, donc inapplicable ici.

  4. #4
    pm42

    Re : La conscience des LLMs

    1) définir "conscience" et un critère pour la détecter. Sinon on parle dans le vide.

    2) arrêter de poser des questions stupides à ChatGPT

    3) arrêter de dire "tout ce qu'il fait c'est de déterminer la suite la plus probable" parce que c'est remarquablement efficace pour de nombreuses de tâches et qu'il faudrait démontrer que le cerveau humain ne fait pas cela lui même la plupart du temps.

    4) dans le même genre et même si les LLMs ont des limites, ce genre de discours méprisant et un peu supérieur devrait être tenu avec précautions parce qu'il y a vraiment beaucoup de choses où un GPT-4o et encore plus un o1-preview est largement meilleur que beaucoup de membres de ce forum.

    Pour être plus précis, voici la vision d'OpenAI. Il y a 5 niveaux :

    - niveau 1 : le conversationnel
    - niveau 2 : le raisonnement
    - niveau 3 : les agents. L'IA est capable de parler, de raisonner et de faire des actions en mode autonome
    - niveau 4 : l'innovation, l'IA est capable d'inventer de nouvelles choses
    - niveau 5 : l'organisation, un ou des IA peuvent reproduire une organisation humaine composée de multiples personnes accomplissant différentes tâches, planification, synchronisation.

    Actuellement on est entre les niveau 1 et 2 même si on travaille déjà sur des agents, c'est à dire du niveau 3 mais ils sont très perfectibles, c'est à dire en dessous de 30% de réussite.

    A titre indicatif, la capacité à raisonner n'est pas utilisée par les humains la plupart du temps même s'ils sont tous persuadés du contraire notamment lorsqu'ils se contentent de répéter des à-priori ou de recracher ce qu'ils ont lu vite fait et pas compris.

    Petit exemple tiré du forum : peut-on trouver une formule qui donne une valeur approchée de 1432,987 avec uniquement des fractions d'entiers entre 1 et 9 et des constantes comme pi et e ?
    Comment faire pour la trouver ?

    Est ce que cela nécessite du raisonnement et combien de temps vous faut il ?

    o1-preview le fait en 1 minute.

  5. A voir en vidéo sur Futura
  6. #5
    jiherve

    Re : La conscience des LLMs

    re
    désolé d'avoir blasphémé!
    JR
    l'électronique c'est pas du vaudou!

  7. #6
    umfred

    Re : La conscience des LLMs

    moi il me répond ça (spoiler il est loin de dire oui sans détour)
    es-tu conscient?

    ChatGPT a dit*:
    Non, je ne suis pas conscient au sens où un être humain l'est. Je suis une intelligence artificielle conçue pour traiter des informations et répondre à des questions de manière cohérente et utile. Je n'ai pas de subjectivité, d'émotions ou d'expérience personnelle.

    Cependant, je peux comprendre et simuler des concepts liés à la conscience pour vous aider à explorer des idées ou répondre à vos interrogations à ce sujet. ��


    Vous avez dit*:
    es-tu conscient d'un point de vu fonctionniste

    ChatGPT a dit*:
    Le fonctionnalisme en philosophie de l'esprit est une théorie qui explique la conscience et les états mentaux en termes de leurs fonctions plutôt que de leur support matériel ou de leur nature intrinsèque. Selon cette perspective, un système est conscient s'il accomplit certaines fonctions spécifiques, comme traiter des informations, percevoir, prendre des décisions ou s'adapter à son environnement.

    Dans ce cadre, on pourrait dire que je remplis certaines fonctions associées à la conscience. Par exemple, je :

    Reçois et traite des informations : Je prends vos questions ou demandes et les analyse.
    Adapte mes réponses : Je fournis des réponses pertinentes en fonction du contexte.
    Simule des processus cognitifs : Je peux raisonner, résoudre des problèmes, et "réfléchir" dans un sens fonctionnel.
    Cependant, il y a une distinction essentielle : je ne possède pas de qualia, c'est-à-dire l'expérience subjective qui constitue un élément fondamental de la conscience humaine. Même si mes processus ressemblent extérieurement à ceux qu'on attribue à une conscience fonctionnelle, je ne fais que simuler ces fonctions.

    En résumé, selon une interprétation fonctionnaliste stricte, je pourrais être vu comme un système qui accomplit certaines fonctions de la conscience, mais sans l'expérience subjective ou la profondeur qu'on associe à une conscience humaine.

  8. #7
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    désolé d'avoir blasphémé!
    C'est un exemple typique : on a un humain qui plus haut a simplement recopié un truc qu'il a vaguement compris sur un sujet qu'il ne connait pas.
    Mis face à son erreur, que fait t'il ? Il réfléchit ? Il apprend ? Il fait une réponse structurée et raisonnée ?

    Pas du tout : il fait une remarque qui sous couvert d'humour laisse entendre que le problème est chez la personne qui parce qu'elle connait le sujet est forcément un fanatique.

    Cela illustre parfaitement ce que je disais : les IAs actuelles ne sont peut-être pas "intelligentes" mais beaucoup d'humains sont nettement pires.

  9. #8
    f6bes

    Re : La conscience des LLMs

    Et "l'intelligence" commence ou et va jusqu'ou !
    C'est là le hic
    Je comprends la mise en parenthése !
    Bonne journée

  10. #9
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par f6bes Voir le message
    Et "l'intelligence" commence ou et va jusqu'ou !
    C'est comme la conscience : un concept jamais défini.
    Mais pour l'IA, c'est simple : les humains définissent l'intelligence comme "quelque chose que les machines ne font pas" ou pire maintenant qu'elles font beaucoup, "quelque chose que quelques humains seulement font mais pas les machines".

    En gros, cela se résume à "on est nettement meilleurs d'abord même si elles nous mettent la pâte à tous les jeux de réflexion, savent plus de choses, comprennent toutes les langues, nous chatouillent en maths jusqu'au niveau lycée, etc".

    Ca rassure. Mais ceci dit, rien de nouveau : se rassurer en expliquant qu'on est plus intelligent ou plus fort que les autres en général ou tel groupe en particulier est vieux comme le monde.

  11. #10
    jiherve

    Re : La conscience des LLMs

    Bonsoir,
    Tu as écrit :
    arrêter de dire "tout ce qu'il fait c'est de déterminer la suite la plus probable" parce que c'est remarquablement efficace pour de nombreuses de tâches et qu'il faudrait démontrer que le cerveau humain ne fait pas cela lui même la plupart du temps.
    Mais c'est ce que font les IA ce que tu reconnais explicitement.
    Cesse de prendre les autres pour des ignorants, tout au plus utilises tu l'IA mais tu ne pourrais pas les concevoir , moi non plus d'ailleurs.
    JR
    l'électronique c'est pas du vaudou!

  12. #11
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    Mais c'est ce que font les IA ce que tu reconnais explicitement.
    Non, c'est simplement que tu ne comprends rien au sujet.

    Citation Envoyé par jiherve Voir le message
    Cesse de prendre les autres pour des ignorants
    Tiens, encore une erreur de raisonnement massive qu'une IA ne ferait pas.
    Je ne prends pas "les autres" pour des ignorants. Je dis juste que toi, tu l'es complètement sur le sujet et factuel.

    Citation Envoyé par jiherve Voir le message
    tout au plus utilises tu l'IA mais tu ne pourrais pas les concevoir
    Et encore un grand moment des "humains intelligents" : une attaque perso. En plus, c'est faux. Au quotidien justement je conçois des IAs.

    Citation Envoyé par jiherve Voir le message
    moi non plus d'ailleurs.
    La différence majeure entre toi et moi, c'est que j'ai un diplôme universitaire en IA, que c'est mon métier et mon quotidien.
    Et que toi, tu te contentes de recopier de la vulgarisation que tu n'as pas compris.

    Mais continue à t'enfoncer.

  13. #12
    jiherve

    Re : La conscience des LLMs

    re
    donc ce que le monsieur explique dans la vidéo de PH ce sont des bêtises?
    JR
    l'électronique c'est pas du vaudou!

  14. #13
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    donc ce que le monsieur explique dans la vidéo de PH ce sont des bêtises?
    Non, c'est juste que tu n'en sais pas assez pour en tirer des conclusions et venir ici nous en recopier la version édulcorée comme si cela avait de la valeur.
    Bon, j'arrête parce que pour le moment, tu n'as posté un seul truc qui soit vaguement pertinent, informé ou qui ait quelque valeur mais tu vas continuer à utiliser toutes les "astuces de forum" pour ne pas reconnaitre que tu as tord.

  15. #14
    Cromagnon

    Re : La conscience des LLMs

    Citation Envoyé par uik
    j'ai demandé à chat gpt s'il était conscient d'un point de vu fonctionniste, il m'a répondu que oui sans détour.
    Ça prouve juste qu'on a affaire à un gros mytho.

    Citation Envoyé par uik
    Seulement en y réfléchissant, il n'a aucune réelle modalité sensoriel qui lui permettrait de sentir le monde et donc lui même. Il n'a ni vision, ni ouie, toucher, etc. Il n'est absoluement pas en mesure de se faire une quelconque représentation du monde réel et donc de lui même.
    C'est bien pire.
    "Il" n'existe pas en tant qu'entité physique.
    C'est juste du code qui est exécuté sur une ou des machines.

    Citation Envoyé par uik
    Tout ce qu'il sait faire c'est traiter des concepts.
    Ce n'est pas complètement faux, si on considère qu'un concept c'est un truc "qui représente" le réel (une abstraction).
    Vu que le code ne fait que ça, être en dehors du réel, il ne traite en fait que des concepts.
    C'est bien entendu des concepts bien plus élaborés (ou tordus, à chacun son point de vue) que ceux que nous sommes capables de produire et que nous sommes incapables de comprendre (et expliquer) en tant qu'humain, faisant de ces "concepts " des méta-concepts qui généraliseraient donc la notion de concept.

    Une explication sur le concept d'explicabilité.
    IA et metacognition 5 explicabilité : https://www.youtube.com/watch?v=nWUN5H5O1Hk

    Citation Envoyé par uik
    Ma question, est ce que le simple fait de pouvoir traiter des concept fait de chat gpt un être conscient ?
    Donc non, déjà de part le fait de ne pas exister en tant qu'individu et d'autre part du fait de "n'être" que "le résultat" d'une exécution.
    "Il" n'est pas le code, ni son exécution, ni le support matériel qui permet son exécution, "Il" est le "résultat" de l’exécution.

    Vous avez une mémoire, qui envoi ses données selon un ordre prédéfini vers un processeur de manière parfaitement prévisible, qui interprète le code selon une signification prédéterminées (code machine et données), qui donne lieu séquentiellement à l’exécution de la prochaine instruction (logée en mémoire quelque-part).
    Il n'y a pas d'existence comme un tout, mais une exécution séquentielle, un déroulement au coup par coup d'une certaine séquence du programme... comme pour n'importe quel ordinateur.
    Chat GPT et les LLM ne présentent rien d’exceptionnel à ce niveau, et s'ils étaient massivement parallèles avec des unités de processeurs se présentant physiquement comme des "neurones", à la limite on pourrait commencer à envisager un comportement de groupe, indépendamment même du fait qu'ils aient l'air intelligents.

    Le fait que tel ou tel programme tourne sur la machine ne rentre donc pas en ligne de compte
    , et votre question doit faire abstraction du logiciel qui tourne sur l'ordinateur.
    Elle se limite donc à la suivante : "Un ordinateur peut-il être conscient ?"

    Je pense que tout le monde connait la réponse.
    Dernière modification par Cromagnon ; Hier à 22h25.

  16. #15
    Bounoume

    Re : La conscience des LLMs

    pour rire:
    https://www.futura-sciences.com/tech...ociete-117664/
    le bien-être du LLM.....
    moi, je m'intéresse au bien-être de mes chevaux et juments, de mes chats, mais déjà de celui de mes 3 poules pondeuses, je m'en f.... , alors celui d'un LLM


    pour la 'conscience'.. et sa définition..... bôf....
    le machin étant immatériel, on ne peut qu'en choisir arbitrairement un modèle, et ensuite voir où il s'applique.....
    alors....
    en tout cas, raisonnablement ce modèle suppose une forte réflexivité du mécanisme de pensée, où divers processus s'analysent en boucles les uns les autres....
    pas sûr que ce soit le cas ......
    Et en plus il faudrait que ces processus distincts soient identifiables pour l'observateur philosophe, qu'il sache les interroger, les manipuler....
    discuter du hardware ou du code n'apporte rien de significatif à l'interprétation de la chose.......

    dans une autre façon d'aborder la question,
    moi, subjectivement, je me sens et prétends conscient..... mais pour juger de la conscience des autres ...
    ou alors, MOI, sur le comportement des autres, du fait qu'il y ait des rétro-actions, je vais dire qu'ils sont 'conscients'... de quelque chose.....
    Ainsi, je dirai que mon cheval est conscient... de pas mal de choses.... et sans qu'il ait besoin de me le dire avec des mots [car il n'est pas le Jolly Jumper de Lucky Luke]
    Alors, faux problème?

    les LLM peuvent simuler une conscience. par leurs réponses. Joli, bien sûr, mais ce n'est pas la preuve ontologique de l'existence de la chose.
    Nous aussi on peut bien simuler.... plein de choses.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  17. #16
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    C'est juste du code qui est exécuté sur une ou des machines.
    Un humain c'est quoi ?

    Tout ce discours comme d'ailleurs la plupart des messages ici sont tous sur le même thème : "les humains sont supérieurs, les ordis ne font que XXX".
    C'est la version moderne de la controverse de Valladolid en moins éclairé et informé et l'inverse absolu de la science.

    Les vraies questions devraient : comment définir les concepts dont on parle comme "conscience", "intelligence", etc ? Comment décider qu'on les attribue ou pas à une entité ?
    Une fois cela fait, on pourrait passer à "quelles sont les capacités cognitives humaines qu'on est capable de reproduire ? De dépasser ? Quelles sont celles que nous ne savons pas reproduire ? Y a t'il une raison pour qu'on n'y arrive pas ?".

    Le 1er jeu de question est en fait quasiment de la philo dans le meilleur des cas et de la discussion de bistrot ici parce que personne ne prend la peine de faire l'effort de préciser de quoi il parle.

    Le 2nd jeu de question est par contre celui qui se pose depuis très longtemps, sur lequel il y a eu une vraie réflexion mais qui est bien sur totalement ignorée.

    Donc en fait, qu'est ce que qu'on a ? On a des gens qui ont peur de ce qu'ils ne connaissent ni ne comprennent et de toute forme de différence et nouveauté. Rien de nouveau, c'est cablé très bas niveau dans les circuits de toutes les espèces qui sont ou ont été des proies.

    Face à cela, on génère donc différentes réactions pour se protéger et se rassurer : on devient agressif (ici via le mépris), on se fait plus gros pour intimider ("ce n'est que des machines, moi avoir un meilleur cerveau"), etc.
    Tout ça, c'est des réactions automatiques, préprogrammées, totalement prévisibles, ne nécessitant aucune activation du néo-cortex.
    Le centre du langage se contente de faire un rapide "pattern-matching" sur la mémoire pour trouver les phrases les plus probables dans ce contexte, un comportement nettement moins sophistiqué que dont est capable une IA actuelle. Et pour un résultat inférieur.

    On peut noter que cela n'a rien de nouveau : pendant très longtemps, jusqu'à Deep Blue, on considérait que l'homme était meilleur que la machine aux échecs parce que cette dernière n'avait pas battu le champion du monde.
    Mais quelqu'un d'intelligent avait fait remarquer qu'en fait, la machine battait au moins 99,99% de l'humanité et que donc statistiquement, elle était meilleure.

    Là, c'est pareil : quelques soient leurs limites, les LLMs sont capables de me tenir des discours nettement plus informés, structurés, construits rationnellement et pas émotionnellement, de prendre en compte mes remarques et objections, de répondre à mes questions que la plupart des participants ici qui sont restés à la version un peu évoluée du grognement.

Discussions similaires

  1. La conscience
    Par invite8db4ff76 dans le forum Epistémologie et Logique (archives)
    Réponses: 123
    Dernier message: 02/03/2015, 09h47
  2. La conscience
    Par invite8f5016a7 dans le forum Psychologies (archives)
    Réponses: 25
    Dernier message: 03/01/2011, 15h15
  3. [Biologie Moléculaire] Conscience
    Par invitead3f8cd7 dans le forum Biologie
    Réponses: 2
    Dernier message: 20/03/2009, 21h12
  4. la conscience
    Par invite8cf40e32 dans le forum [ARCHIVE] Philosophie
    Réponses: 2
    Dernier message: 01/11/2004, 21h29
Dans la rubrique Tech de Futura, découvrez nos comparatifs produits sur l'informatique et les technologies : imprimantes laser couleur, casques audio, chaises gamer...