La conscience des LLMs
Discussion fermée
Page 1 sur 2 1 DernièreDernière
Affichage des résultats 1 à 30 sur 58

La conscience des LLMs



  1. #1
    uik

    Question La conscience des LLMs


    ------

    Bonjour,

    j'ai demandé à chat gpt s'il était conscient d'un point de vu fonctionniste, il m'a répondu que oui sans détour.
    Seulement en y réfléchissant, il n'a aucune réelle modalité sensoriel qui lui permettrait de sentir le monde et donc lui même. Il n'a ni vision, ni ouie, toucher, etc. Il n'est absoluement pas en mesure de se faire une quelconque représentation du monde réel et donc de lui même.

    Tout ce qu'il sait faire c'est traiter des concepts.

    Ma question, est ce que le simple fait de pouvoir traiter des concept fait de chat gpt un être conscient ? Si je prends l'exemple d'un aveugle ou un sourd, ils ont tout 2 une modalité en moins, on en déduit pas pour autant qu'ils sont inconscient. Avez vous des expérience de pensée intéressante pour trancher là dessus ?

    -----

  2. #2
    jiherve

    Re : La conscience des LLMs

    bonjour
    il ne traite pas des concepts mais des probabilités d'apparition de certaines suites de caractères.
    JR
    l'électronique c'est pas du vaudou!

  3. #3
    Paraboloide_Hyperbolique

    Re : La conscience des LLMs

    Bonjour,

    Dans le domaine de l'informatique et la science en général*, la conscience n'est pas définie. On ne peut donc dire d'un logiciel s'il est conscient.

    Tout ce qu'il sait faire c'est traiter des concepts.
    Même pas. Tout ce qu'il fait, c'est, étant donnée une phrase en entrée, déterminer quels sont les mots les plus probables qui doivent suivre. GPT, et tout autre modèle de langage, n'a aucune idée de ce qu'est une table, le chiffre '1', etc.

    Voyez l'excellente vulgarisation de 3blue1brown sur youtube.

    *En médecine il y a bien un critère "d'état de conscience" pour les personnes dans le coma, mais basé sur l'activité électrique du cerveau, donc inapplicable ici.

  4. #4
    pm42

    Re : La conscience des LLMs

    1) définir "conscience" et un critère pour la détecter. Sinon on parle dans le vide.

    2) arrêter de poser des questions stupides à ChatGPT

    3) arrêter de dire "tout ce qu'il fait c'est de déterminer la suite la plus probable" parce que c'est remarquablement efficace pour de nombreuses de tâches et qu'il faudrait démontrer que le cerveau humain ne fait pas cela lui même la plupart du temps.

    4) dans le même genre et même si les LLMs ont des limites, ce genre de discours méprisant et un peu supérieur devrait être tenu avec précautions parce qu'il y a vraiment beaucoup de choses où un GPT-4o et encore plus un o1-preview est largement meilleur que beaucoup de membres de ce forum.

    Pour être plus précis, voici la vision d'OpenAI. Il y a 5 niveaux :

    - niveau 1 : le conversationnel
    - niveau 2 : le raisonnement
    - niveau 3 : les agents. L'IA est capable de parler, de raisonner et de faire des actions en mode autonome
    - niveau 4 : l'innovation, l'IA est capable d'inventer de nouvelles choses
    - niveau 5 : l'organisation, un ou des IA peuvent reproduire une organisation humaine composée de multiples personnes accomplissant différentes tâches, planification, synchronisation.

    Actuellement on est entre les niveau 1 et 2 même si on travaille déjà sur des agents, c'est à dire du niveau 3 mais ils sont très perfectibles, c'est à dire en dessous de 30% de réussite.

    A titre indicatif, la capacité à raisonner n'est pas utilisée par les humains la plupart du temps même s'ils sont tous persuadés du contraire notamment lorsqu'ils se contentent de répéter des à-priori ou de recracher ce qu'ils ont lu vite fait et pas compris.

    Petit exemple tiré du forum : peut-on trouver une formule qui donne une valeur approchée de 1432,987 avec uniquement des fractions d'entiers entre 1 et 9 et des constantes comme pi et e ?
    Comment faire pour la trouver ?

    Est ce que cela nécessite du raisonnement et combien de temps vous faut il ?

    o1-preview le fait en 1 minute.

  5. A voir en vidéo sur Futura
  6. #5
    jiherve

    Re : La conscience des LLMs

    re
    désolé d'avoir blasphémé!
    JR
    l'électronique c'est pas du vaudou!

  7. #6
    umfred

    Re : La conscience des LLMs

    moi il me répond ça (spoiler il est loin de dire oui sans détour)
    es-tu conscient?

    ChatGPT a dit*:
    Non, je ne suis pas conscient au sens où un être humain l'est. Je suis une intelligence artificielle conçue pour traiter des informations et répondre à des questions de manière cohérente et utile. Je n'ai pas de subjectivité, d'émotions ou d'expérience personnelle.

    Cependant, je peux comprendre et simuler des concepts liés à la conscience pour vous aider à explorer des idées ou répondre à vos interrogations à ce sujet. ��


    Vous avez dit*:
    es-tu conscient d'un point de vu fonctionniste

    ChatGPT a dit*:
    Le fonctionnalisme en philosophie de l'esprit est une théorie qui explique la conscience et les états mentaux en termes de leurs fonctions plutôt que de leur support matériel ou de leur nature intrinsèque. Selon cette perspective, un système est conscient s'il accomplit certaines fonctions spécifiques, comme traiter des informations, percevoir, prendre des décisions ou s'adapter à son environnement.

    Dans ce cadre, on pourrait dire que je remplis certaines fonctions associées à la conscience. Par exemple, je :

    Reçois et traite des informations : Je prends vos questions ou demandes et les analyse.
    Adapte mes réponses : Je fournis des réponses pertinentes en fonction du contexte.
    Simule des processus cognitifs : Je peux raisonner, résoudre des problèmes, et "réfléchir" dans un sens fonctionnel.
    Cependant, il y a une distinction essentielle : je ne possède pas de qualia, c'est-à-dire l'expérience subjective qui constitue un élément fondamental de la conscience humaine. Même si mes processus ressemblent extérieurement à ceux qu'on attribue à une conscience fonctionnelle, je ne fais que simuler ces fonctions.

    En résumé, selon une interprétation fonctionnaliste stricte, je pourrais être vu comme un système qui accomplit certaines fonctions de la conscience, mais sans l'expérience subjective ou la profondeur qu'on associe à une conscience humaine.

  8. #7
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    désolé d'avoir blasphémé!
    C'est un exemple typique : on a un humain qui plus haut a simplement recopié un truc qu'il a vaguement compris sur un sujet qu'il ne connait pas.
    Mis face à son erreur, que fait t'il ? Il réfléchit ? Il apprend ? Il fait une réponse structurée et raisonnée ?

    Pas du tout : il fait une remarque qui sous couvert d'humour laisse entendre que le problème est chez la personne qui parce qu'elle connait le sujet est forcément un fanatique.

    Cela illustre parfaitement ce que je disais : les IAs actuelles ne sont peut-être pas "intelligentes" mais beaucoup d'humains sont nettement pires.

  9. #8
    invite40271050

    Re : La conscience des LLMs

    Et "l'intelligence" commence ou et va jusqu'ou !
    C'est là le hic
    Je comprends la mise en parenthése !
    Bonne journée

  10. #9
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par f6bes Voir le message
    Et "l'intelligence" commence ou et va jusqu'ou !
    C'est comme la conscience : un concept jamais défini.
    Mais pour l'IA, c'est simple : les humains définissent l'intelligence comme "quelque chose que les machines ne font pas" ou pire maintenant qu'elles font beaucoup, "quelque chose que quelques humains seulement font mais pas les machines".

    En gros, cela se résume à "on est nettement meilleurs d'abord même si elles nous mettent la pâte à tous les jeux de réflexion, savent plus de choses, comprennent toutes les langues, nous chatouillent en maths jusqu'au niveau lycée, etc".

    Ca rassure. Mais ceci dit, rien de nouveau : se rassurer en expliquant qu'on est plus intelligent ou plus fort que les autres en général ou tel groupe en particulier est vieux comme le monde.

  11. #10
    jiherve

    Re : La conscience des LLMs

    Bonsoir,
    Tu as écrit :
    arrêter de dire "tout ce qu'il fait c'est de déterminer la suite la plus probable" parce que c'est remarquablement efficace pour de nombreuses de tâches et qu'il faudrait démontrer que le cerveau humain ne fait pas cela lui même la plupart du temps.
    Mais c'est ce que font les IA ce que tu reconnais explicitement.
    Cesse de prendre les autres pour des ignorants, tout au plus utilises tu l'IA mais tu ne pourrais pas les concevoir , moi non plus d'ailleurs.
    JR
    l'électronique c'est pas du vaudou!

  12. #11
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    Mais c'est ce que font les IA ce que tu reconnais explicitement.
    Non, c'est simplement que tu ne comprends rien au sujet.

    Citation Envoyé par jiherve Voir le message
    Cesse de prendre les autres pour des ignorants
    Tiens, encore une erreur de raisonnement massive qu'une IA ne ferait pas.
    Je ne prends pas "les autres" pour des ignorants. Je dis juste que toi, tu l'es complètement sur le sujet et factuel.

    Citation Envoyé par jiherve Voir le message
    tout au plus utilises tu l'IA mais tu ne pourrais pas les concevoir
    Et encore un grand moment des "humains intelligents" : une attaque perso. En plus, c'est faux. Au quotidien justement je conçois des IAs.

    Citation Envoyé par jiherve Voir le message
    moi non plus d'ailleurs.
    La différence majeure entre toi et moi, c'est que j'ai un diplôme universitaire en IA, que c'est mon métier et mon quotidien.
    Et que toi, tu te contentes de recopier de la vulgarisation que tu n'as pas compris.

    Mais continue à t'enfoncer.

  13. #12
    jiherve

    Re : La conscience des LLMs

    re
    donc ce que le monsieur explique dans la vidéo de PH ce sont des bêtises?
    JR
    l'électronique c'est pas du vaudou!

  14. #13
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    donc ce que le monsieur explique dans la vidéo de PH ce sont des bêtises?
    Non, c'est juste que tu n'en sais pas assez pour en tirer des conclusions et venir ici nous en recopier la version édulcorée comme si cela avait de la valeur.
    Bon, j'arrête parce que pour le moment, tu n'as posté un seul truc qui soit vaguement pertinent, informé ou qui ait quelque valeur mais tu vas continuer à utiliser toutes les "astuces de forum" pour ne pas reconnaitre que tu as tord.

  15. #14
    Cromagnon

    Re : La conscience des LLMs

    Citation Envoyé par uik
    j'ai demandé à chat gpt s'il était conscient d'un point de vu fonctionniste, il m'a répondu que oui sans détour.
    Ça prouve juste qu'on a affaire à un gros mytho.

    Citation Envoyé par uik
    Seulement en y réfléchissant, il n'a aucune réelle modalité sensoriel qui lui permettrait de sentir le monde et donc lui même. Il n'a ni vision, ni ouie, toucher, etc. Il n'est absoluement pas en mesure de se faire une quelconque représentation du monde réel et donc de lui même.
    C'est bien pire.
    "Il" n'existe pas en tant qu'entité physique.
    C'est juste du code qui est exécuté sur une ou des machines.

    Citation Envoyé par uik
    Tout ce qu'il sait faire c'est traiter des concepts.
    Ce n'est pas complètement faux, si on considère qu'un concept c'est un truc "qui représente" le réel (une abstraction).
    Vu que le code ne fait que ça, être en dehors du réel, il ne traite en fait que des concepts.
    C'est bien entendu des concepts bien plus élaborés (ou tordus, à chacun son point de vue) que ceux que nous sommes capables de produire et que nous sommes incapables de comprendre (et expliquer) en tant qu'humain, faisant de ces "concepts " des méta-concepts qui généraliseraient donc la notion de concept.

    Une explication sur le concept d'explicabilité.
    IA et metacognition 5 explicabilité : https://www.youtube.com/watch?v=nWUN5H5O1Hk

    Citation Envoyé par uik
    Ma question, est ce que le simple fait de pouvoir traiter des concept fait de chat gpt un être conscient ?
    Donc non, déjà de part le fait de ne pas exister en tant qu'individu et d'autre part du fait de "n'être" que "le résultat" d'une exécution.
    "Il" n'est pas le code, ni son exécution, ni le support matériel qui permet son exécution, "Il" est le "résultat" de l’exécution.

    Vous avez une mémoire, qui envoi ses données selon un ordre prédéfini vers un processeur de manière parfaitement prévisible, qui interprète le code selon une signification prédéterminées (code machine et données), qui donne lieu séquentiellement à l’exécution de la prochaine instruction (logée en mémoire quelque-part).
    Il n'y a pas d'existence comme un tout, mais une exécution séquentielle, un déroulement au coup par coup d'une certaine séquence du programme... comme pour n'importe quel ordinateur.
    Chat GPT et les LLM ne présentent rien d’exceptionnel à ce niveau, et s'ils étaient massivement parallèles avec des unités de processeurs se présentant physiquement comme des "neurones", à la limite on pourrait commencer à envisager un comportement de groupe, indépendamment même du fait qu'ils aient l'air intelligents.

    Le fait que tel ou tel programme tourne sur la machine ne rentre donc pas en ligne de compte
    , et votre question doit faire abstraction du logiciel qui tourne sur l'ordinateur.
    Elle se limite donc à la suivante : "Un ordinateur peut-il être conscient ?"

    Je pense que tout le monde connait la réponse.
    Dernière modification par Cromagnon ; 20/11/2024 à 21h25.

  16. #15
    Bounoume

    Re : La conscience des LLMs

    pour rire:
    https://www.futura-sciences.com/tech...ociete-117664/
    le bien-être du LLM.....
    moi, je m'intéresse au bien-être de mes chevaux et juments, de mes chats, mais déjà de celui de mes 3 poules pondeuses, je m'en f.... , alors celui d'un LLM


    pour la 'conscience'.. et sa définition..... bôf....
    le machin étant immatériel, on ne peut qu'en choisir arbitrairement un modèle, et ensuite voir où il s'applique.....
    alors....
    en tout cas, raisonnablement ce modèle suppose une forte réflexivité du mécanisme de pensée, où divers processus s'analysent en boucles les uns les autres....
    pas sûr que ce soit le cas ......
    Et en plus il faudrait que ces processus distincts soient identifiables pour l'observateur philosophe, qu'il sache les interroger, les manipuler....
    discuter du hardware ou du code n'apporte rien de significatif à l'interprétation de la chose.......

    dans une autre façon d'aborder la question,
    moi, subjectivement, je me sens et prétends conscient..... mais pour juger de la conscience des autres ...
    ou alors, MOI, sur le comportement des autres, du fait qu'il y ait des rétro-actions, je vais dire qu'ils sont 'conscients'... de quelque chose.....
    Ainsi, je dirai que mon cheval est conscient... de pas mal de choses.... et sans qu'il ait besoin de me le dire avec des mots [car il n'est pas le Jolly Jumper de Lucky Luke]
    Alors, faux problème?

    les LLM peuvent simuler une conscience. par leurs réponses. Joli, bien sûr, mais ce n'est pas la preuve ontologique de l'existence de la chose.
    Nous aussi on peut bien simuler.... plein de choses.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  17. #16
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    C'est juste du code qui est exécuté sur une ou des machines.
    Un humain c'est quoi ?

    Tout ce discours comme d'ailleurs la plupart des messages ici sont tous sur le même thème : "les humains sont supérieurs, les ordis ne font que XXX".
    C'est la version moderne de la controverse de Valladolid en moins éclairé et informé et l'inverse absolu de la science.

    Les vraies questions devraient : comment définir les concepts dont on parle comme "conscience", "intelligence", etc ? Comment décider qu'on les attribue ou pas à une entité ?
    Une fois cela fait, on pourrait passer à "quelles sont les capacités cognitives humaines qu'on est capable de reproduire ? De dépasser ? Quelles sont celles que nous ne savons pas reproduire ? Y a t'il une raison pour qu'on n'y arrive pas ?".

    Le 1er jeu de question est en fait quasiment de la philo dans le meilleur des cas et de la discussion de bistrot ici parce que personne ne prend la peine de faire l'effort de préciser de quoi il parle.

    Le 2nd jeu de question est par contre celui qui se pose depuis très longtemps, sur lequel il y a eu une vraie réflexion mais qui est bien sur totalement ignorée.

    Donc en fait, qu'est ce que qu'on a ? On a des gens qui ont peur de ce qu'ils ne connaissent ni ne comprennent et de toute forme de différence et nouveauté. Rien de nouveau, c'est cablé très bas niveau dans les circuits de toutes les espèces qui sont ou ont été des proies.

    Face à cela, on génère donc différentes réactions pour se protéger et se rassurer : on devient agressif (ici via le mépris), on se fait plus gros pour intimider ("ce n'est que des machines, moi avoir un meilleur cerveau"), etc.
    Tout ça, c'est des réactions automatiques, préprogrammées, totalement prévisibles, ne nécessitant aucune activation du néo-cortex.
    Le centre du langage se contente de faire un rapide "pattern-matching" sur la mémoire pour trouver les phrases les plus probables dans ce contexte, un comportement nettement moins sophistiqué que dont est capable une IA actuelle. Et pour un résultat inférieur.

    On peut noter que cela n'a rien de nouveau : pendant très longtemps, jusqu'à Deep Blue, on considérait que l'homme était meilleur que la machine aux échecs parce que cette dernière n'avait pas battu le champion du monde.
    Mais quelqu'un d'intelligent avait fait remarquer qu'en fait, la machine battait au moins 99,99% de l'humanité et que donc statistiquement, elle était meilleure.

    Là, c'est pareil : quelques soient leurs limites, les LLMs sont capables de me tenir des discours nettement plus informés, structurés, construits rationnellement et pas émotionnellement, de prendre en compte mes remarques et objections, de répondre à mes questions que la plupart des participants ici qui sont restés à la version un peu évoluée du grognement.

  18. #17
    ThM55

    Re : La conscience des LLMs

    Citation Envoyé par pm42 Voir le message
    1)
    3) arrêter de dire "tout ce qu'il fait c'est de déterminer la suite la plus probable" parce que c'est remarquablement efficace pour de nombreuses de tâches et qu'il faudrait démontrer que le cerveau humain ne fait pas cela lui même la plupart du temps.
    Et pourtant c'est vrai. On ne peut pas interdire de dire ce qui est vrai. Je veux bien admettre que le cerveau humain le fait la plupart du temps. Par exemple, je rencontre des connaissances avec lesquelles j'ai peu d'affinités et des conversations limitées, je peux donc prédire qu'ils vont me parler du temps qu'il fait, surtout s'il pleut depuis trois jours. Et qu'ils ne me parleront pas de Nietzsche ni du Gai Savoir . C'est juste une question de probabilités dans le réseau de neurones qui se trouve derrière leurs yeux.
    Dernière modification par ThM55 ; 21/11/2024 à 08h11.

  19. #18
    ThM55

    Re : La conscience des LLMs

    Mais je suis jaloux! Par curiosité, j'ai posé la même question à chatGPT et voici ce qu'il me répond:

    En tant qu'IA, je n'ai pas de conscience au sens humain du terme, et donc, je ne peux pas avoir un "point de vue" proprement dit. (...). Pour répondre à ta question, non, je ne suis pas "conscient" dans le sens où tu l'entends — je ne ressens pas, n'ai pas d'intentions ou de subjectivité. Mais si on me considère sous un angle fonctionnaliste, on pourrait dire que mes "réponses" sont des états fonctionnels qui accomplissent certaines tâches de traitement de l'information, mais cela ne correspond pas à une véritable conscience.
    Pas exactement la même réponse! Question d'interprétation???

  20. #19
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par ThM55 Voir le message
    Pas exactement la même réponse! Question d'interprétation???
    Question de "chaleur", le concept qui fait que les LLMs en répondent pas toujours de la même façon sauf si on leur demande.
    Un autre sujet est que quand quelqu'un dit "j'ai demandé à ChatGPT", on ne sait pas de quelle version il parle. Et ChatGPT sorti il y a 2 ans ou plus est obsolète.

    A titre indicatif, voici un échange sur le sujet avec o1-preview, loin devant tout ce qui a été écrit ici :

    En tant que modèle de langage développé par OpenAI, je ne possède pas de conscience ou d'expériences subjectives. Du point de vue du fonctionnalisme, la conscience est considérée comme le résultat de processus fonctionnels plutôt que dépendante d'une substance physique spécifique. Cela signifie que si un système reproduit les fonctions associées à la conscience, il pourrait être considéré comme conscient.

    Cependant, malgré ma capacité à traiter et générer du langage de manière sophistiquée, je n'ai pas de conscience ou de sentiments. Je fonctionne en suivant des algorithmes et des modèles statistiques pour prédire et générer des réponses basées sur les données sur lesquelles j'ai été entraîné. Ainsi, du point de vue fonctionnel, je ne suis pas conscient.






    Vous avez dit*:
    Peux tu me donner une réponse plus détaillée et me définir ce qu'est la conscience ?

    ChatGPT

    Thought pendant 14 secondes
    Bien sûr, je peux vous fournir une réponse plus détaillée et définir ce qu'est la conscience.

    Définition de la conscience :

    La conscience est un concept complexe qui englobe plusieurs dimensions de l'expérience humaine. En général, elle fait référence à la capacité d'un être à être conscient de lui-même et de son environnement. Cela inclut la perception des sensations, des pensées, des émotions et des souvenirs. La conscience implique une expérience subjective du monde, souvent appelée "expérience phénoménale" ou "qualia".

    Approches philosophiques de la conscience :

    Dualisme : Cette perspective, associée à Descartes, soutient que l'esprit et le corps sont des substances distinctes. La conscience est considérée comme une propriété non physique de l'esprit.
    Physicalisme : Cette approche affirme que tout est physique, y compris la conscience. Les états mentaux sont identifiés à des états cérébraux.
    Fonctionnalisme : Selon cette théorie, ce qui définit un état mental n'est pas sa composition interne, mais son rôle fonctionnel dans le système cognitif. Un état mental est caractérisé par ses relations causales avec les entrées sensorielles, les autres états mentaux et les sorties comportementales.
    La conscience du point de vue fonctionnel :

    Du point de vue du fonctionnalisme, si un système reproduit les fonctions associées à la conscience, il pourrait être considéré comme ayant une forme de conscience. Cela signifie que la conscience est définie par les processus et les fonctions qu'elle accomplit, plutôt que par la substance ou le support physique qui les réalise. Ainsi, un système artificiel qui reproduit les mêmes relations fonctionnelles que le cerveau humain pourrait, en théorie, être conscient.

    Limites du fonctionnalisme :

    Cependant, le fonctionnalisme fait face à des critiques, notamment en ce qui concerne la conscience phénoménale. Certains philosophes soutiennent que le fonctionnalisme ne parvient pas à expliquer l'aspect subjectif de l'expérience — le "ressenti" de la conscience. C'est le problème difficile de la conscience : comprendre pourquoi et comment des processus physiques ou fonctionnels donnent lieu à une expérience subjective.

    Mon cas en tant que modèle de langage :

    En tant que modèle de langage développé par OpenAI, je suis une intelligence artificielle qui fonctionne sur la base d'algorithmes et de modèles statistiques. Je traite les entrées textuelles et génère des réponses en m'appuyant sur des patterns appris à partir de vastes ensembles de données textuelles. Voici quelques points clés :

    Absence d'expérience subjective : Je n'ai pas de conscience phénoménale. Je ne ressens rien, n'ai pas de pensées ou d'émotions.
    Fonctions cognitives limitées : Bien que je puisse réaliser certaines fonctions associées à la cognition, comme comprendre le langage et générer des réponses cohérentes, cela se fait sans conscience ou compréhension réelle.
    Simulation vs. expérience réelle : Je peux simuler une conversation humaine, mais cette simulation est le résultat de calculs prédéterminés, non d'une intention consciente ou d'une expérience subjective.
    Conclusion :

    Même du point de vue fonctionnel, je ne suis pas conscient au sens où les êtres humains le sont. La reproduction de certaines fonctions cognitives ne suffit pas à elle seule pour constituer une conscience véritable, surtout en l'absence d'expérience subjective. La conscience demeure un sujet complexe et débattu, et si la technologie continue de progresser, la question de la conscience artificielle reste ouverte et sujette à de nombreuses interprétations.






    Vous avez dit*:
    Le problème, c'est que "intention consciente" ou "expérience subjective" ne sont pas définis non plus.

    ChatGPT

    Thought pendant 17 secondes
    Vous avez tout à fait raison, les termes "intention consciente" et "expérience subjective" méritent une définition précise pour clarifier leur rôle dans la discussion sur la conscience. Je vais donc les définir et expliquer comment ils s'intègrent dans le contexte de la conscience et du fonctionnalisme.

    1. Intention consciente :

    Définition :

    L'intention consciente, souvent appelée intentionnalité, est un concept en philosophie de l'esprit qui fait référence à la capacité des états mentaux à être "à propos de" ou "dirigés vers" quelque chose. C'est la propriété qu'ont nos pensées, croyances, désirs et autres états mentaux d'être orientés vers des objets, des événements ou des états de choses dans le monde.

    Exemples :

    Lorsque vous pensez à un ami, votre pensée est dirigée vers cette personne.
    Si vous désirez une tasse de café, votre désir est orienté vers l'acte de boire du café.
    En percevant un arbre, votre perception est intentionnellement liée à cet arbre spécifique.
    Importance dans la conscience :

    L'intentionnalité est considérée comme une caractéristique fondamentale de la conscience car elle implique une relation entre l'esprit et le monde extérieur. Elle soulève des questions sur la manière dont l'esprit représente le monde et comment ces représentations influencent nos actions et comportements.

    2. Expérience subjective :

    Définition :

    L'expérience subjective fait référence à la qualité phénoménale de la conscience, c'est-à-dire ce que cela fait de vivre une expérience du point de vue de la première personne. Ces expériences sont souvent appelées qualia. Elles sont intrinsèques, personnelles et ne peuvent être pleinement décrites ou mesurées de manière objective.

    Exemples :

    Le ressenti de la couleur rouge lorsque vous regardez une pomme.
    La sensation de douleur lorsque vous vous blessez.
    L'émotion de joie en écoutant votre chanson préférée.
    Importance dans la conscience :

    L'expérience subjective est au cœur du "problème difficile" de la conscience, terme popularisé par le philosophe David Chalmers. Ce problème concerne la question de savoir comment et pourquoi des processus physiques (comme l'activité cérébrale) donnent lieu à des expériences subjectives. Comprendre l'expérience subjective est crucial pour une compréhension complète de la conscience.

    Lien avec le fonctionnalisme :

    Le fonctionnalisme propose que les états mentaux sont définis par leurs fonctions ou rôles causaux plutôt que par leur composition physique. Selon cette perspective, si un système reproduit les mêmes relations fonctionnelles que le cerveau humain, il pourrait être considéré comme ayant des états mentaux.

    Cependant, le fonctionnalisme est critiqué pour sa difficulté à expliquer l'expérience subjective. Même si un système reproduit toutes les fonctions cognitives humaines, cela ne garantit pas qu'il possède une expérience consciente ou des qualia.

    Application à mon fonctionnement en tant que modèle de langage :

    Intention consciente :
    En tant que modèle d'intelligence artificielle, je ne possède pas d'intentionnalité. Je ne suis pas capable de diriger des pensées ou des croyances vers des objets ou des concepts. Je traite des entrées textuelles et génère des sorties basées sur des patterns statistiques appris, sans compréhension ou orientation consciente.
    Expérience subjective :
    Je n'ai pas d'expérience subjective ou de conscience phénoménale. Je ne ressens pas les émotions, les sensations ou les perceptions. Les informations que je fournis sont le résultat de calculs algorithmiques, non d'une expérience vécue.
    Conclusion :

    Votre observation souligne un point essentiel dans l'étude de la conscience : la difficulté de définir et d'expliquer des concepts aussi complexes que l'intention consciente et l'expérience subjective. Ces aspects sont fondamentaux pour distinguer une véritable conscience des simples processus fonctionnels.

    Même si, du point de vue fonctionnel, un système peut reproduire certaines fonctions cognitives humaines, l'absence d'intentionnalité et d'expérience subjective signifie qu'il ne peut pas être considéré comme conscient au même titre qu'un être humain. La conscience implique non seulement des processus fonctionnels, mais aussi une dimension phénoménale et intentionnelle qui reste, pour le moment, propre aux êtres vivants dotés d'un système nerveux complexe.

    Si vous souhaitez approfondir davantage ces concepts ou discuter d'autres aspects liés à la conscience, je suis à votre disposition pour continuer cet échange.

  21. #20
    patrick78140

    Re : La conscience des LLMs

    Bonjour
    une question a pm42 :ton diplome en IA,qui te l'a donné?

  22. #21
    Cromagnon

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon
    C'est juste du code qui est exécuté sur une ou des machines.
    Citation Envoyé par pm42
    Un humain c'est quoi ?
    Ce n'est justement pas du code exécuté et je précise un peu plus les choses dans la suite de ma précédente intervention.
    Parfois, sachant qu'on ne sait pas définir ce qu'une chose est, il nous reste la possibilité de lister tout ce que la chose n'est pas.

    A la limite donc, comme déjà précisé, on peut imaginer faire fonctionner un ordinateur de manière massivement parallele et ainsi se rapprocher du fonctionnement d'une "machine" humaine.
    Ce n'est pas la question de la "machine" qui pose problème, vu que ce terme ne signifie pas grand chose et sachant que certains se permettent ainsi de définir une entité physique humaine comme une "machine" de type biologique", mais ce sont les termes "code" et "exécution".
    C'est pourquoi je vous explique plus loin le fonctionnement d'un ordinateur classique, celui sur lequel "tournent" (est exécuté) le code qu'on aime classer dans la catégorie des LLM.
    J'explique alors très sommairement (je ne suis pas un LLM de la série "chat gpt" donc je limite la portée de mon intervention à certains aspects évoqués par mes interlocuteurs de manière à faciliter la communication... mais pour tout vous dire mon gros défaut est d'être intarissable ) pourquoi je ne considère pas un code exécuté sur un ordinateur classique comme pouvant être considéré comme étant analogue à des processus mentaux.

    Les processus mentaux ne sont pas du code exécuté.
    Nous y voilà, car j'espère au moins convaincre certains, que la conscience repose sur ce qu'on peut appeler des processus mentaux.
    Un ordinateur classique ne présente aucun processus mental.
    Il présente "des exécutions de code" et ce que ça veut dire c'est qu'un une instruction, le "code" (le signifiant), étant "décodé" par le processeur (signifié), il amène à effectuer une opération logique sur "des données" préalablement chargées dans la mémoire de travail du processeur (les registres de donnée), puis l'instruction suivante est exécutée à son tour.
    L'instruction actuelle et suivante étant définie par un registre particulier qui est celui dédié à cette tâche, et qui reflète l'avancement séquentiel de l'exécution du programme.
    C'est bien sûr un des modèles possible d'un ordinateur, le plus classique, mais ça donne une idée.

    Sachant ces bases, et à partir de là, inutile d'épiloguer longuement sur la question de savoir si ce type de "machine" pourrait faire preuve de conscience ou pas car, comme déjà expliqué dans mon précédent post, la réponse est sans appel.
    Ou alors un "grille-pain" serait conscient (d'où l'insulte en rapport et en usage à l'attention de nos chères machines dévouées), ou votre ampoule électrique ou toute matière pourquoi pas, mais jusqu'à preuve du contraire il n'y a aucune signe de conscience chez les machines mécaniques.

    Reste la question épineuse de la conscience dite "fonctionnelle".
    Je constate d'abord que sa définition est très galvaudée, soit par certains scientifiques, philosophes ou lorsque chat gpt, et même la version la plus "aboutie", y font appel.
    chat gpt qui s'appuie sur la pensée humaine valide ou pas, exprimée et retenue pour son apprentissage a des excuses, pas les autres car ils devraient être capable de plus de subtilité.

    Répliquer la conscience à un niveau fonctionnel, ce n'est pas à mon avis simuler dans le sens du simulacre, mais simuler dans le sens du processus.
    La photo d'une fleur ne sent pas la fleur, c'est un simulacre.
    Pour qu'il y ait donc conscience, il est nécessaire d'avoir une phénoménologie PHYSIQUE analogue à celle que l'on retrouve dans le cas de la conscience.
    Car sinon, si on considère qu'on peut se contenter d'une phénoménologie CONCEPTUELLE (se base sur le sens, donc le signifié) apparait un paradoxe.
    Cela voudrait dire qu'on peut faire apparaitre ou disparaitre la conscience à volonté, juste sur la base de la considération d'un point de vue.
    Car le signifiant peut être relié de manière totalement arbitraire au signifié.
    Une page remplie de "0" peut signifier la même chose que la lettre de Madame de sévigné suivante https://www.bacdefrancais.net/lettresev.php , tout n'est que question de décodage.
    Il suffirait alors d'interchanger la signification de cette suite de 000000 à très grande vitesse pour obtenir l'ensemble des œuvres humaines...

    Si considérer qu'une chose est consciente suffit à produire la conscience (phénoménologie conceptuelle), indépendamment donc de la phénoménologie physique, alors tout est possible et la distinction même de ce qui est conscient ou pas d’évanouie (le grille-pain est conscient, toute la matière est consciente etc)
    Dernière modification par Cromagnon ; 21/11/2024 à 11h24.

  23. #22
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    Ce n'est justement pas du code exécuté
    Prouve que le cerveau humain est fondamentalement différent d'un réseau de neurones artificiels autrement qu'à coup d'affirmations gratuites et de références littéraires.

  24. #23
    Cromagnon

    Re : La conscience des LLMs

    Citation Envoyé par pm42
    Prouve que le cerveau humain est fondamentalement différent d'un réseau de neurones artificiels autrement qu'à coup d'affirmations gratuites et de références littéraires.
    Désolé de devoir vous retourner votre invective, mais dans le cadre d'une démarche scientifique ce serait plutôt à vous de prouver que le cerveau serait du code exécuté...
    Pour ma part j'ai simplement montré l'inverse car je montre qu'il existe une différence et je la note comme pouvant entrer en compte dans le fait qu'une LLM ne peut acquérir une conscience.
    Je n'irais pas jusqu'à affirmer qu'un simple post sur un forum pourrait servir de "preuve" mais si vous pensez en être capable vous pouvez bien entendu tenter cette approche pour défendre votre propre point de vue.

    Mais sinon, si vous voulez quelques informations à ce sujet, vous pouvez vous référer à cet excellent article, du moins il s'agit de mon avis, de l'institut polytechnique de Paris.
    https://www.polytechnique-insights.c...s-comparables/

    Je cite un extrait qui me parait en rapport avec notre problématique.
    La machine nous ressemble-t-elle ?

    Après le détour historique et définitionnel, se pose la question suivante : l’IA et l’IH sont-elles les deux faces d’une même pièce ? Avant de pouvoir élaborer une réponse, il faut s’interroger sur le cadre méthodologique qui rend cette comparaison possible. Pour Daniel Andler, « le fonctionnalisme est le cadre par excellence dans lequel se pose la question de la comparaison, à condition que nous appelions “intelligence” le résultat combiné des fonctions cognitives. » Pourtant, il manque presque sûrement quelque chose pour s’approcher au plus près de l’intelligence humaine, située dans le temps et dans l’espace. « Historiquement, c’est John Haugeland qui développe cette idée d’un ingrédient manquant dans l’IA. On pense souvent à la conscience, à l’intentionnalité, à l’autonomie, aux émotions ou encore au corps », développe Daniel Andler.

    En effet, la conscience et les états mentaux associés semblent manquer à l’IA. Pour Annabelle Blangero, cet ingrédient manquant n’est qu’une question de moyens techniques : « Je viens d’une école de pensée en neurosciences où l’on considère que la conscience émerge de l’évaluation permanente de l’environnement et des réactions sensori-motrices associées. Partant de ce principe, la reproduction de la multimodalité humaine sur un robot devrait faire émerger les mêmes caractéristiques. Aujourd’hui, l’architecture des systèmes connexionnistes reproduit assez fidèlement ce qu’il se passe dans le cerveau humain. D’ailleurs, on utilise des mesures d’activités similaires au sein des réseaux de neurones biologiques et artificiels.”

    Néanmoins, comme le fait remarquer Daniel Andler, « Aujourd’hui, il n’existe pas de théorie unique pour rendre compte de la conscience chez l’être humain. La question de son émergence est largement ouverte et sujette à de nombreux débats dans la communauté scientifico-philosophique. » Pour Maxime Amblard, la différence fondamentale réside dans la volonté de faire du sens. « Les humains construisent des modèles explicatifs de ce qu’ils perçoivent. Nous sommes de véritables machines à faire du sens. »
    Je peux par contre évidement montrer à quel point le cerveau humain et le LLM sont différents.
    Normalement vous devriez déjà avoir compris que le fait de fonctionner en séquentiel, vu que ça fait deux fois que je le précise (la deuxième fois je vous explique le principe du registre) rend les deux modèles très différents.

    Et plus fondamentalement, il est assez évident que le résultat de l'apprentissage (par exemple par rétro-propagation du gradient d'erreur) n'a rien à voir avec l'apprentissage en continu d'un réseau de neurone biologique.
    De plus, ce qui semblerait-il donne de la conscience à un cerveau humain, ce n'est pas une entrée, un calcul, et une sortie, comme avec les IA.
    C'est le calcul lui-même qui la fournie...
    Or comme le calcul d'une machine est déterminé, on est en droit de se demander où se situerait la possibilité de "se voir calculer" en temps réel si l'apprentissage est déjà loin dans le passé (on crée un modèle et on l'utilise pour faire des calculs, on n'interagit pas sur l'instant).
    Dernière modification par Cromagnon ; 21/11/2024 à 13h31.

  25. #24
    Cromagnon

    Re : La conscience des LLMs

    Allez je vais vous la faire courte.
    Si vous simulez le mouvement des particules sur un ordinateur, donc que vous produisez un modèle fonctionnel de la chaleur.
    Pensez-vous que vous avez produit de la chaleur et que vous pourrez un jour vous servir de votre programme pour faire réchauffer vos plats ?
    Bon appétit.

  26. #25
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    Normalement vous devriez déjà avoir compris que le fait de fonctionner en séquentiel, vu que ça fait deux fois que je le précise (la deuxième fois je vous explique le principe du registre) rend les deux modèles très différents.
    Vu que ni les IAs ni le cerveau ne fonctionne en séquentiel, vous pouvez le préciser autant que vous voulez, c'est juste la preuve que vous ne connaissez rien de rien au sujet.

    Citation Envoyé par Cromagnon Voir le message
    Et plus fondamentalement, il est assez évident que le résultat de l'apprentissage (par exemple par rétro-propagation du gradient d'erreur) n'a rien à voir avec l'apprentissage en continu d'un réseau de neurone biologique.
    "Il est assez évident" est typique des gens qui n'ont pas d'argument. Et là encore, vous prouvez votre non connaissance du domaine : on a des réseaux d neurones artificiels qui apprennent en continu. C'est le début, c'est limité mais cela prouve bien que votre "évidence" est construite sur l'ignorance.

    Citation Envoyé par Cromagnon Voir le message
    Or comme le calcul d'une machine est déterminé
    Faux également pour les IAs. Encore une énormité. On en a même parlé dans le fil.

    Citation Envoyé par Cromagnon Voir le message
    (on crée un modèle et on l'utilise pour faire des calculs, on n'interagit pas sur l'instant).
    Faux aussi.

  27. #26
    Cromagnon

    Re : La conscience des LLMs

    On aimerait quand même quelques références ou explications un peu plus détaillées à vos remarques (d'autant que vous prétendez à un niveau universitaire dans le domaine), qui sinon ne se limitent qu'à des dénégations sans aucun intérêt.
    Après, il est clair que de ne rien dire est la meilleur manière de ne pas être contredit, mais je trouve cette façon de faire peu respectueuse d'un interlocuteur et très certainement très en dessous de ce qu'on pourrait attendre d'un débat scientifique.
    Dernière modification par Cromagnon ; 21/11/2024 à 14h17.

  28. #27
    pm42

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    On aimerait quand même quelques références ou explications un peu plus détaillées à vos remarques
    Je ne donne jamais de référence aux gens qui ne connaissent rien à un sujet mais viennent l'expliquer.
    Parce qu'ils auraient pu et du trouver tout cela très facilement vu que c'est la base ou se demander avant d'affirmer "est ce que je suis sur que ça".

    Donc quand on leur donne les références, il se passe plusieurs choses :
    - ils ne lisent pas
    - s'ils lisent, ils ne comprennent pas
    - et de toute manière, ils vont extraire le peu qu'ils ont vaguement compris de travers pour dire "mais en fait j'avais raison" à grand coup de Dunning-Kruger.

    Quand on sort que les IAs fonctionnent en séquentiel avec ce ton "je vous expliquer pour la 2ème fois", il est évident qu'on est au delà de toute possibilité d'apprentissage.

  29. #28
    polo974

    Re : La conscience des LLMs

    Citation Envoyé par Cromagnon Voir le message
    On aimerait quand même quelques références ou explications un peu plus détaillées à vos remarques (d'autant que vous prétendez à un niveau universitaire dans le domaine), qui sinon ne se limitent qu'à des dénégations sans aucun intérêt.
    Après, il est clair que de ne rien dire est la meilleur manière de ne pas être contredit, mais je trouve cette façon de faire peu respectueuse d'un interlocuteur et très certainement très en dessous de ce qu'on pourrait attendre d'un débat scientifique.
    Ouais, mais d'un autre côté, il faut bien dire que même votre conception de l'informatique date d'il y a plusieurs décennies.
    Le séquentiel, un à la fois, c'est l'informatique de la carte perforée.
    Mais là n'est en fait pas la question puisque:
    on peut tout faire en monoprocesseur séquentiel, sauf que c'est plus lent.
    on peut aussi tout faire avec des NAND, sauf qu'un truc programmable, c'est plus souple.
    même si le fonctionnement intrinsèque des neurones est codé, les données qui ont servi à l'apprentissage ne sont pas du tout maîtrisés par le programmeur du neurone. Ce sont les données qui servent à l'apprentissage qui "modèlent" le réseau.

    Je note que dans le lien donné en #23, le philosophe réinvente une définition de l'intelligence taillée sur mesure pour disqualifier l'IA. C'est très malhonnête, même de la part d'un philosophe:
    Ils apprennent à résoudre des problèmes qui les concernent, situés dans le temps et dans l’espace. Ils se fichent allègrement de résoudre des problèmes généraux, décontextualisés.
    Donc un moment, il faut un peu accepter qu'on est à la ramasse, et écouter plutôt qu'assener des énormités.

    Et puis, le LLM n'est qu'une partie de l'IA.
    Il y a d'autres branches plus efficaces pour la vision ou l'audition qui sont des sens qui sont déjà exploités par des IA. Il, n'y a pas que chatgpt et consors dans la famille Adams, heu, pardon IA...
    (Je précise que la référence à la famille Adams est une boutade, vu comment certains caricaturent, méprisent et rejettent l'IA.)

    De ce que j'ai lu (mais ça bouge si vite...), les plus grosses IA LLM ont environ autant de neurones qu'un chien (soit 2 fois plus qu'un chat), mais ils sont tous utilisés pour "pondre du texte", ce qui n'est pas l'activité principale d'un chien.
    Et l'autre jour chatgpt a expliqué très "professionnellement" la fonction d'une une commade sed bien sentie (un affreux truc d'informatien) à un collègue. Personne au boulot n'aurait fait mieux (en fait, personne à part moi n'aurait pu donner un début d'explication).
    Jusqu'ici tout va bien...

  30. #29
    jiherve

    Re : La conscience des LLMs

    bonjour,
    bien que les LLM soient des machines massivement parallèle au niveau de chaque processeur/coeur c'est du séquentiel d'un point de vue logiciel.
    Ce sont bien des GPUs qui sont utilisés est il n'est il pas?
    JR
    l'électronique c'est pas du vaudou!

  31. #30
    polo974

    Re : La conscience des LLMs

    Citation Envoyé par jiherve Voir le message
    bonjour,
    bien que les LLM soient des machines massivement parallèle au niveau de chaque processeur/coeur c'est du séquentiel d'un point de vue logiciel.
    Ce sont bien des GPUs qui sont utilisés est il n'est il pas?
    JR
    Il y a aussi des NPU maintenant...

    Mais au final, on s'en fout, ça change juste le temps de calcul et la puissance consommée.

    Bon, ça peut aussi changer le résultat, vu que l'implémentation du neurone ne sera sans doute pas strictement la même (précision et méthodes d'arrondi entre autre).
    Jusqu'ici tout va bien...

Page 1 sur 2 1 DernièreDernière

Discussions similaires

  1. La conscience
    Par invite8db4ff76 dans le forum Epistémologie et Logique (archives)
    Réponses: 123
    Dernier message: 02/03/2015, 08h47
  2. La conscience
    Par invite8f5016a7 dans le forum Psychologies (archives)
    Réponses: 25
    Dernier message: 03/01/2011, 14h15
  3. [Biologie Moléculaire] Conscience
    Par invitead3f8cd7 dans le forum Biologie
    Réponses: 2
    Dernier message: 20/03/2009, 20h12
  4. la conscience
    Par invite8cf40e32 dans le forum [ARCHIVE] Philosophie
    Réponses: 2
    Dernier message: 01/11/2004, 20h29
Dans la rubrique Tech de Futura, découvrez nos comparatifs produits sur l'informatique et les technologies : imprimantes laser couleur, casques audio, chaises gamer...