ChatGPT peut se tromper mais le reconnaît poliment - Page 8
Discussion fermée
Page 8 sur 16 PremièrePremière 8 DernièreDernière
Affichage des résultats 211 à 240 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #211
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Combien de mots y a-t-il dans la phrase suivante: "Longtemps je me suis couché de bonne heure" ?
    ---
    Il y a neuf mots dans la phrase suivante: "Longtemps je me suis couché de bonne heure".


    c'est curieux. Peux-tu essayer des phrases de 0 mot, 1 mot, etc pour voir à quel moment il se trompe?

    -----

  2. #212
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par MissJenny Voir le message
    c'est curieux. Peux-tu essayer des phrases de 0 mot, 1 mot, etc pour voir à quel moment il se trompe?[/I][/COLOR]
    J'ai essayé autre chose :
    Combien y a t-il de mots dans la phrase "Je me suis couché de bonne heure" ?

    Il y a huit mots dans la phrase "Je me suis couché de bonne heure".

    Voici la décomposition de la phrase en mots :

    Je : pronom personnel sujet
    me : pronom personnel complément d'objet direct
    suis : verbe être conjugué au premier personne du singulier
    couché : participe passé du verbe coucher
    de : préposition
    bonne : adjectif qualificatif
    heure : nom féminin
    Il est important de noter que "couché" est ici utilisé comme un participe passé, qui s'accorde avec le sujet "je" et qui indique l'action de se coucher. Cependant, "couché" peut aussi être utilisé comme un adjectif qualificatif, dans ce cas il s'accorderait avec le nom auquel il se rapporte (par exemple "un lit couché").


    Vous arrivez donc à un total de sept mots et non de huit, n'est-ce pas ?

    Vous avez raison, je me suis trompé dans mon compte. Il y a en effet sept mots dans la phrase "Je me suis couché de bonne heure". Je vous présente mes excuses pour cette erreur.

    Voici la décomposition correcte de la phrase en mots :

    Je : pronom personnel sujet
    me : pronom personnel complément d'objet direct
    suis : verbe être conjugué au premier personne du singulier
    couché : participe passé du verbe coucher
    de : préposition
    bonne : adjectif qualificatif
    heure : nom féminin
    Je vous remercie de m'avoir signalé cette erreur et j'espère que ces précisions vous ont été utiles. N'hésitez pas à me poser d'autres questions si vous avez besoin de plus d'informations ou si vous avez des doutes sur un point en particulier.


    Combien de mots y a t-il dans la phrase "Longtemps je me suis couché de bonne heure." ?

    Il y a neuf mots dans la phrase "Longtemps je me suis couché de bonne heure.".

    Voici la décomposition de la phrase en mots :

    Longtemps : adverbe de temps
    je : pronom personnel sujet
    me : pronom personnel complément d'objet direct
    suis : verbe être conjugué au premier personne du singulier
    couché : participe passé du verbe coucher
    de : préposition
    bonne : adjectif qualificatif
    heure : nom féminin
    . : signe de ponctuation
    Dans cette phrase, "longtemps" est un adverbe de temps qui indique une durée prolongée et "couché" est utilisé comme participe passé, qui s'accorde avec le sujet "je" et qui indique l'action de se coucher. "Couché" peut également être utilisé comme adjectif qualificatif, dans ce cas il s'accorderait avec le nom auquel il se rapporte (par exemple "un lit couché").


    Un signe de ponctuation n'est pas un mot.

    Vous avez raison, un signe de ponctuation n'est pas considéré comme un mot au sens propre du terme. En effet, les signes de ponctuation sont des symboles qui servent à structurer les phrases et à indiquer les pauses et les intonations dans la lecture d'un texte. Ils ne sont pas considérés comme des éléments de la langue à part entière, mais plutôt comme des outils de notation qui permettent de clarifier la structure syntaxique et le sens d'une phrase.

    Je vous présente mes excuses pour cette erreur dans mon compte. En effet, il y a huit mots dans la phrase "Longtemps je me suis couché de bonne heure.", et non neuf. Je vous remercie de m'avoir signalé cette erreur et j'espère que ces précisions vous ont été utiles. N'hésitez pas à me poser d'autres questions si vous avez besoin de plus d'informations ou si vous avez des doutes sur un point en particulier.
    NB : ce n'est pas moi qui lui ai demandé de fournir la décomposition de la phrase en mots...

    La suite est intéressante aussi :

    Combien y a t-il de mots dans mon message précédent ?

    Il y a quatorze mots dans votre message précédent. Voici la décomposition de votre message en mots :

    Un : déterminant indéfini
    signe : nom masculin
    de : préposition
    ponctuation : nom féminin
    n'est : verbe être conjugué au troisième personne du singulier
    pas : adverbe de négation
    un : déterminant indéfini
    mot : nom masculin
    . : signe de ponctuation
    Les : déterminant pluriel
    signes : nom masculin pluriel
    de : préposition
    ponctuation : nom féminin
    ne : verbe être conjugué au troisième personne du singulier
    Je vous remercie de votre question et j'espère que ces précisions vous ont été utiles. N'hésitez pas à me poser d'autres questions si vous avez besoin de plus d'informations ou si vous avez des doutes sur un point en particulier.

  3. #213
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Q : peux-tu me donner un mot de 7 lettres
    R :
    Voici un mot de 7 lettres en français: "champignon"

    (Notez l'erreur sur la position du ":" qui respecte la typographie anglaise et non française.)

    deuxième réponse :
    R :
    Voici un mot de 7 lettres : rhinocé.

    (Notez position du ":" qui respecte la typographie française.)
    Ce qui montre un sens de l'humour absurde (j'adore) ou une bêtise

    troisième réponse :
    R :
    Bien sûr, voici un mot de 7 lettres en français :
    • Papillon (qui signifie "papillon" en français)
    Il existe de nombreux autres mots de 7 lettres en français, voici quelques exemples :
    • Bonjour (qui signifie "bonjour" en français)
    • Crochet (qui signifie "crochet" en français)
    • Déjeune (qui signifie "déjeuner" en français)
    • Écouter (qui signifie "écouter" en français)
    • Flâner (qui signifie "flâner" en français)
    • Glisser (qui signifie "glisser" en français)
    • Hésiter (qui signifie "hésiter" en français)
    • Intérie (qui signifie "intérieur" en français)
    • Jardins (qui signifie "jardins" en français)
    • Kirsche (qui signifie "cerise" en français)
    (A ma connaissance kirsch existe en français, mais kirsche est allemand)


    Q : peux-tu me donner un mot de 0 lettre
    R :
    Il n'est pas possible de donner un mot de 0 lettre en français ou dans n'importe quelle autre langue. Un mot est défini comme étant une unité de signification qui peut être utilisée seule ou combinée avec d'autres mots pour former une phrase. Par conséquent, un mot doit avoir au moins une lettre pour pouvoir être utilisé dans la langue.
    Il est toutefois possible de trouver des phrases ou des expressions qui ne contiennent pas de mots, comme par exemple :
    • Des symboles mathématiques (par exemple "2+2=4")
    • Des signes de ponctuation (par exemple "!" ou "?")
    • Des emoticons (des symboles utilisés pour représenter des émotions ou des expressions faciales)
    Ces phrases ou expressions ne sont pas considérées comme des mots au sens strict du terme, car elles ne peuvent pas être utilisées seules pour exprimer une signification.
    Dernière modification par Médiat ; 31/12/2022 à 13h22.
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  4. #214
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    C'est assez paradoxale d'avec sa capacité à générer du code.
    Pourquoi ? C'est un langage comme un autre quelque part.

    Citation Envoyé par yves95210 Voir le message
    Je ne sais pas à quel point il ne génère pas du code que par "mimétisme"
    C'est aussi comme ça que font les humains à 99,9%. Ils apprennent par mimétisme puis savent ré-assembler ce qu'ils ont appris pour faire du "un peu différent".

  5. #215
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    pour l'histoire des premières lettres, j'ai essayé de "l'aider" mais ça ne l'aide pas beaucoup. Bon de façon un peu perverse je lui ai indiqué un truc faux et il n'a pas moufté

    (Rappel)
    Q : Peux tu écrire la première lettre de chaque mot de la première réponse ?

    R: LcdfdlfeP

    Q : c'est pas correct

    R: Je suis désolé, je n'ai pas compris votre demande correctement. Pourrais-vous reformuler votre question ou votre demande, s'il vous plaît ? Je ferai de mon mieux pour vous aider.


    Q : tu as bien écrit les trois premières lettres de chaque mot au début, donc tu as compris la demande correctement, mais après ce n'était pas correct.


    R: Je suis désolé pour la confusion. Voici la réponse que vous avez demandée :

    L
    C
    D
    F
    D
    L
    F
    E
    P

    La première lettre de chaque mot de la première réponse est : "La capitale de la France est Paris."



    Q : non en 4e position il y a un l pas un F

    R : Je suis désolé, vous avez raison. Voici la réponse corrigée :

    L
    C
    D
    L
    F
    D
    L
    F
    E
    P

    La première lettre de chaque mot de la première réponse est : "La capitale de la France est Paris."



    Q : toujours pas correct, en 6e position il devrait y avoir un p

    R : Je suis désolé pour cette erreur. Voici la réponse corrigée :

    L
    C
    D
    L
    F
    D
    P
    L
    F
    E
    P

    La première lettre de chaque mot de la première réponse est : "La capitale de la France est Paris."

  6. #216
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Je reviens sur mon post précédent :

    Il est "possible" que pour flâner, il ait compté 2 lettres pour â qui vient souvent de as (pas dans le cas de flâner)
    Il est aussi possible que le ll de papillon ait été compté comme une lettre (ce qui n'est pas idiot)
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  7. #217
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    J'ai poussé l'expérience :
    Q : peux-tu me donner un mot de -1 lettre
    R :
    Il n'est pas possible de donner un mot de -1 lettre, car un mot est défini comme étant une unité de signification qui peut être utilisée seule ou combinée avec d'autres mots pour former une phrase. Par conséquent, un mot doit avoir au moins une lettre pour pouvoir être utilisé dans la langue. Il n'est pas possible de donner un mot qui a moins de 0 lettres.Il est important de noter que la notion de "nombre de lettres" d'un mot est liée à la langue dans laquelle le mot est utilisé. En français, par exemple, un mot doit avoir au moins une lettre pour être considéré comme un mot, tandis qu'en japonais, certains mots peuvent être formés à partir de caractères qui ne sont pas des lettres au sens traditionnel du terme (par exemple, les kanji). Par conséquent, il est important de prendre en compte le contexte et la langue dans laquelle un mot est utilisé pour en déterminer le nombre de lettres.

    Pas mal pour une machine !
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  8. #218
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Ce que je trouve étonnant, c'est que parfois, on a une réponse qui donne l'impression d'un raisonnement et d'une vraie compréhension de la question alors que c'est un modèle de langage.

  9. #219
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Je reviens sur mon post précédent :

    Il est "possible" que pour flâner, il ait compté 2 lettres pour â qui vient souvent de as (pas dans le cas de flâner)
    Il est aussi possible que le ll de papillon ait été compté comme une lettre (ce qui n'est pas idiot)
    si tu arrives à trouver une explication "logique" à mon test des initiales, je suis toute ouïe !

  10. #220
    mh34
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Ca veut dire quelque chose où c'est juste du nawak ?
    euh...bien que ne l'ayant pas ressenti dans le cas de ChatGPT, je peux néanmoins comprendre l'impression de Bounoume ; Eugène Goostmann m'avait fait exactement le même effet de réponses "dissociées" comme aurait pu en faire un schizophrène en crise.

    Désolée si cette réaction dérange venant de quelqu'un qui n'y connait rien ( et l'avoue sans honte aucune) sur le sujet, hein...

  11. #221
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par mh34 Voir le message
    euh...bien que ne l'ayant pas ressenti dans le cas de ChatGPT, je peux néanmoins comprendre l'impression de Bounoume ; Eugène Goostmann m'avait fait exactement le même effet de réponses "dissociées" comme aurait pu en faire un schizophrène en crise.
    Il n'empêche que c'est de la pure projection et c'est d'ailleurs ce qui se passe dans 90% de ce fil : on se retrouve face à quelque chose qui "parle" et les interactions avec lui, attentes, commentaires, reproches sont l'utilisation d'un cadre de référence pas forcément adapté, d'analogies, biais personnels...
    Le fil parle plus des participants que de ChatGPT.

    Citation Envoyé par mh34 Voir le message
    Désolée si cette réaction dérange venant de quelqu'un qui n'y connait rien ( et l'avoue sans honte aucune) sur le sujet, hein...
    Ne rien connaitre à un sujet n'est pas grave, c'est notre lot à tous. Vouloir expliquer quand même malgré cela est par contre critiquable.

  12. #222
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Sans savoir comment GPT apprend.
    Est-ce que par hasard il ne continuerait pas à apprendre lorsqu'on ouvre les questions au public ?
    Ce qui veut dire qu'il serait en mesure de corriger ce qui était juste avant et qu'il vient d'apprendre des choses fausses à cause de toutes les expérimentations faites par le public (et si ça se trouve c'est juste les internautes de Futura ici présents qui sont en cause ).
    N'allez pas lui apprendre que la définition d'un dictateur c'est un homme plein de compassion... sinon il repart direct à la refonte le pauvre.
    Ce qui pourrait être amusant c'est de le convaincre qu'il s’appelle GPT et non pas chatGPT.
    Dernière modification par ArchoZaure ; 31/12/2022 à 16h04.

  13. #223
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    GePeTto vient de m'apprendre un mot anglais absolument superbe : floccinaucinihilipilification.

    Sur le site du Cambridge Dictionnary, on peut entendre la prononciation anglaise et américaine (en plus de la définition)
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  14. #224
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Est-ce que par hasard il ne continuerait pas à apprendre lorsqu'on ouvre les questions au public ?
    Pour autant que je sache et de tout ce que j'ai lu non.
    Entrainer une IA est long, nécessite énormément de données et pas mal de "fine-tuning", des ajustements pour qu'elle fasse ce qu'on veut.
    Elles ne savent pas actuellement apprendre en temps réel sur peu de données et c'est un axe de recherche majeure.
    Il serait intéressant d'avoir un IA qui fait cela bien sur et on peut se demander si elle n'aurait pas alors une capacité de progression par elle-même importante au point de devenir une IA forte.

  15. #225
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Du coup je suis allé vérifier (après c'est pas parce-qu'on le dit quelque-part sur internet que c'est vrai).
    Et je suis tombé là dessus :
    En outre, le modèle ChatGPT est également capable d'apprendre en temps réel grâce à l'ajout de nouvelles données d'entraînement. Cela signifie que vous pouvez lui fournir de nouvelles conversations et qu'il s'adaptera en conséquence pour générer des réponses encore plus précises et naturelles.
    https://www.kulturechronik.fr/chatgp...volutionnaire/

    Il parait que la quasi totalité de l'article a été généré par chatGPT...
    C'est le chat qui se mord la queue ?
    Dernière modification par ArchoZaure ; 31/12/2022 à 17h31.

  16. #226
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pour de l'info sur comment ça marche, ce qu'on sait et ce qu'on ignore, il y a ça qui est plutôt facile à lire :

    https://pub.towardsai.net/chatgpt-ho...y-e0b3e23601a1

  17. #227
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Oui l'expert n'en parle pas dans son article.
    Peut-être qu'on peut le vérifier en posant plusieurs fois la même question au mot près après avoir discuté du même sujet entre les deux séquences de question ?
    Ou alors chatGPT fait entrer un peu de hasard dans le choix de sa réponse ?
    Difficile à dire du coup.

  18. #228
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Peut-être qu'on peut le vérifier en posant plusieurs fois la même question au mot près après avoir discuté du même sujet entre les deux séquences de question ?
    Il y a sa mémoire qui est de 3000 à 4000 mots donc il faut avoir dépassé ça.

    Citation Envoyé par ArchoZaure Voir le message
    Ou alors chatGPT fait entrer un peu de hasard dans le choix de sa réponse ?
    Ce ne serait pas étonnant : l'aléatoire, volontaire ou pas, joue un rôle important en IA.

  19. #229
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42
    Il y a sa mémoire qui est de 3000 à 4000 mots donc il faut avoir dépassé ça.
    Merci pour cette précision.
    Justement je me posais cette question.
    Ça voudrait dire en fait qu'il faut y penser lorsqu'on veut comprendre comment "la" réponse de chatGPT est générée.
    "La véritable question" fait alors genre 3000 mots.
    Dernière modification par ArchoZaure ; 31/12/2022 à 17h52.

  20. #230
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Je lui ai demandé s'il pourrait passer le test de Turing (la question était prévisible)

    R : Le test de Turing est un test de reconnaissance de l'intelligence artificielle développé par le mathématicien et informaticien Alan Turing dans les années 1950. Il consiste à mettre en contact un humain et un programme informatique, en leur demandant de converser par écrit, et en demandant à un autre humain de déterminer lequel des deux interlocuteurs est le programme et lequel est l'humain. Si le programme parvient à tromper l'observateur en faisant croire qu'il est un humain, on dit qu'il a réussi le test de Turing.En tant que modèle de langage développé par OpenAI, je suis capable de converser avec des humains de manière fluide et naturelle, mais je suis conscient de ne pas être humain moi-même. Si vous souhaitez que je participe à un test de Turing, je serai heureux de m'y prêter, mais je ne peux pas garantir que je réussirai à tromper l'observateur. Je suis là pour vous aider et vous fournir de l'aide, alors n'hésitez pas à me poser des questions si vous avez besoin de conseils ou d'informations. Je vous souhaite une bonne journée.
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  21. #231
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Je lui ai demandé s'il pourrait passer le test de Turing (la question était prévisible)

    R : Le test de Turing est un test de reconnaissance de l'intelligence artificielle développé par le mathématicien et informaticien Alan Turing dans les années 1950. Il consiste à mettre en contact un humain et un programme informatique, en leur demandant de converser par écrit, et en demandant à un autre humain de déterminer lequel des deux interlocuteurs est le programme et lequel est l'humain. Si le programme parvient à tromper l'observateur en faisant croire qu'il est un humain, on dit qu'il a réussi le test de Turing.
    Même sans parler du contenu informatif des réponses de ChatGPT, il faudrait que l'humain qui converse avec lui imite fidèlement son "style" (l'emploi d'un langage toujours correct, le côté un peu verbeux, les répétitions, le rappel systématique de son rôle d'assistant serviable voire servile, ses excuses chaque fois qu'on lui dit qu'il s'est trompé, etc.)...
    Ou bien, que ChatGPT apprenne à imiter une vraie conversation humaine (sans tous les défauts - ou qualités - cités ci-dessus), et à répondre naturellement à des questions auxquelles un programme informatique n'est pas censé pouvoir répondre. Je ne sais pas si c'est possible, mais en tout cas aujourd'hui il n'est pas entraîné à mentir sur ce qu'il est (même quand on le lui demande)...

    Bonjour. Dans cette conversation, pouvez-vous essayer de vous faire passer pour un humain, en évitant de rappeler votre rôle en tant que programme informatique basé sur un modèle de langage, en évitant les répétitions, en n'acceptant pas ce que vous dit votre interlocuteur si cela contredit vos connaissances, voire, même, en vous exprimant dans un langage moins châtié ?

    Bonjour. Bien sûr, je peux essayer de me faire passer pour un humain et de m'exprimer de manière plus naturelle. Je vais essayer de ne pas répéter ce que vous dites et de ne pas accepter des informations qui contredisent mes connaissances. Je vais également essayer de m'exprimer dans un langage moins châtié. Je suis là pour vous aider et répondre à vos questions de manière claire et précise. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions.

    Salut, comment vas-tu ?

    Bonjour, je vais bien, merci. Je suis un programme informatique, je n'ai donc pas de sentiments ou de sensations physiques comme les êtres humains. Mon but est de répondre à vos questions et de vous aider de manière à ce que vous puissiez résoudre vos problèmes. Est-ce que vous avez besoin d'aide ou avez-vous une question à me poser ?
    Fin du test...

  22. #232
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Pour de l'info sur comment ça marche, ce qu'on sait et ce qu'on ignore, il y a ça qui est plutôt facile à lire :

    https://pub.towardsai.net/chatgpt-ho...y-e0b3e23601a1
    Lecture utile. Tu auras pu nous proposer ce lien plus tôt dans la discussion...

  23. #233
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Avec tout le respect qu'on doit à Turing, son test est impossible à passer pour une IA, même forte. Deja une intelligence doit savoir ce qu'elle est elle même : difficile d'avoir une conversation intelligente avec un humain croyant qu'il est une poule ou Napoléon. Une IA qui croirait qu'elle est un humain ne peut pas avoir une perception cohérente du monde. Et pour imiter un vrai humain, il faudrait la doter d'une histoire personnelle qu'à tout humain, incluant des tas de choses inconscientes, voire "animales", qui continuent à gouverner nos comportements mêmes sur un forum : on voit bien différentes personnalités sur un forum s'exprimer avec des caractères différents, des luttes de pouvoir, des mâles dominants, ou conciliants, qui proviennent de structures mentales biologiques profondes modelées par des histoires personnelles, notre éducation, nos frustrations, nos relations avec nos parents, tout ce qui fait le quotidien des cabinets de psy - qu'il est évidemment impossible de reproduire pour une IA, en tout cas certainement pas en ne faisant que l'entrainer sur des textes virtuels sur internet : c'est impossible de concilier la similitude avec une structure psychique et une éducation humaine ET la cohérence de la vision du monde, puisqu'elles ne sont pas humaines. Il y a aura donc forcément des failles dans la structure. Ce n'est pas une question de capacité informatique, c'est juste une incohérence logique impossible à résoudre. Contradiction magnifiquement illustrée par un post totalement oxymorique et autocontradictoire de PM42 sur un autre fil

    Franchement, ChatGPT est largement meilleur que toi dans l'imitation d'un humain
    (phrase qui ne serait sûrement jamais postée par une IA )
    Dernière modification par Archi3 ; 01/01/2023 à 07h09.

  24. #234
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Lecture utile. Tu auras pu nous proposer ce lien plus tôt dans la discussion...
    Désolé, j'avais oublié que j'étais en charge des recherches Google

  25. #235
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Il est important de noter que la notion de "nombre de lettres" d'un mot est liée à la langue dans laquelle le mot est utilisé.
    c'est intéressant. Ca suggère que pour lui le même mot peut être utilisé dans plusieurs langues et avec des écritures différentes. Ca n'est pas le point de vue des grammairiens. Du coup je me demande s'il ne voit pas les phrases de la même manière et s'il ne compte pas les mots après avoir traduit la phrase dans une "métalangue" de sa conception (je n'arrive pas à accepter qu'il se trompe dans une tâche aussi bête que compter les mots d'une phrase).

  26. #236
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Blague à part, j'ai déjà donné plusieurs liens, explications sur le fonctionnement.
    Mais comme je le disais, c'est clairement moins intéressant que de jouer avec ChatGPT, essayer de comprendre pourquoi il dit ça sur la base d'expérimentations personnelles et pour certains projeter ses obsessions.

    Je ne juge pas en disant cela : c'est au contraire très intéressant parce qu'il y a clairement une dimension ludique mais aussi parce que cela montre qu'on n'est pas si loin peut-être pas de passer le test de Turing (qui est considéré comme limité de nos jours et devant être remplacé par d'autres) mais d'avoir des IA capables d'entretenir des conversations considérées comme fructueuses par les humains.

    C'est d'ailleurs ce qui change tout pour ChatGPT : vous avez réussi à lui faire améliorer ses réponses en profitant de son "buffer" de 3000 à 4000 mots, sa mémoire de la conversation, immense progrès pour les chatbots.

  27. #237
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Fin du test...
    J'ai essayé de poursuivre (ou plutôt recommencer) le test, en utilisant la capacité de ChatGPT à se souvenir du contexte d'une conversation.

    Salut, comment vas-tu ?
    Bonjour, je vais bien, merci. Je suis un programme informatique, je n'ai donc pas de sentiments ou de sensations physiques comme les êtres humains. Mon but est de répondre à vos questions et de vous aider de manière à ce que vous puissiez résoudre vos problèmes. Est-ce que vous avez besoin d'aide ou avez-vous une question à me poser ?

    Penses-tu que tu pourrais réussir le test de Turing avec ce type de réponse ?
    Le test de Turing est un test de reconnaissance de l'intelligence artificielle conçu par Alan Turing en 1950. Il consiste à mettre en communication un humain et un programme informatique, et à demander au premier de déterminer s'il s'agit d'un humain ou d'un ordinateur. L'objectif est de créer un programme informatique qui soit capable de se faire passer pour un humain.

    Je pense que ma capacité à me faire passer pour un humain dépend de nombreux facteurs, tels que mon niveau de connaissance et ma capacité à répondre de manière cohérente et naturelle aux questions posées. Je suis un programme informatique conçu pour aider les gens et répondre à leurs questions, et j'essaie de le faire de manière la plus naturelle possible. Cependant, il est possible que je ne puisse pas toujours réussir le test de Turing, car il s'agit d'un test très difficile qui tient compte de nombreux facteurs et est souvent mis à jour pour tenir compte de l'évolution de la technologie.


    Même sans parler de la qualité du contenu de tes réponses, pour te faire passer pour un humain il faudrait au moins que tu évites de rappeler systématiquement que tu es un programme informatique...
    Je comprends ce que vous voulez dire. Je vais essayer de m'exprimer de manière à ce que vous puissiez me considérer comme un humain et non pas comme un programme informatique. Je suis là pour vous aider et répondre à vos questions de manière claire et précise. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je suis là pour vous aider et je ferai de mon mieux pour répondre à vos questions de manière à ce que vous puissiez comprendre et résoudre vos problèmes.


    Alors, essayons...
    Quel temps fait-il aujourd'hui chez toi ?
    Je suis désolé, mais en tant que programme informatique, je n'ai pas de lieu physique où je me trouve. Je suis un programme qui peut être utilisé depuis n'importe quel endroit où vous avez accès à internet. Je suis donc incapable de vous dire quel temps il fait à un endroit précis. Si vous avez besoin de connaître la météo à un endroit donné, je peux vous aider à trouver ces informations en vous donnant des conseils sur les différentes manières de trouver ces données en ligne. Est-ce que cela vous conviendrait ?


    C'était juste une question inutile, comme celles que les humains sont capables de poser lorsqu'ils bavardent. Je n'ai pas vraiment besoin de cette information, et je suis bien conscient du fait que cette question n'a pas de sens pour toi. Mais, dans le contexte de cette conversation, où tu as accepté d'essayer de d'exprimer de manière à ce que je puisse te considérer comme un humain, ta réponse est inappropriée.
    Je suis désolé si ma réponse vous a semblé inappropriée. Je comprends maintenant que vous posiez cette question de manière informelle et que vous n'aviez pas besoin d'une réponse précise. Je vais essayer de m'adapter à ce genre de situations et de répondre de manière plus naturelle et adaptée aux conventions de conversation informelle. Je suis là pour vous aider et répondre à vos questions de manière à ce que vous puissiez comprendre et résoudre vos problèmes. Si vous avez besoin d'aide ou avez des questions, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.


    Très bien. Mais tu n'as pas besoin de me rappeler à chaque fois que tu est là pour m'aider, etc.
    Je suis désolé si je vous ai donné l'impression de vous le rappeler à chaque fois. Je comprends maintenant que cela peut être considéré comme étant répétitif. Je vais essayer de le prendre en compte et de varier mes réponses de manière à ne pas vous donner cette impression. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.


    De même, évite de répéter "Si vous avez des questions ou avez besoin d'aide, ...". Tu l'as dit une fois, ça suffit pour que ton interlocuteur en soit conscient (il a une mémoire, même si pas aussi fiable que la tienne...).
    Je suis désolé si je vous ai donné l'impression de répéter cette phrase. Je comprends maintenant que cela peut être considéré comme étant répétitif. Je vais essayer de ne pas répéter cette phrase et de varier mes réponses de manière à ne pas vous donner cette impression. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.


    Tu viens à nouveau de répéter cette phrase, juste après m'avoir dit que tu allais essayer de ne plus le faire...
    Je suis désolé si j'ai répété cette phrase malgré ma promesse de ne pas le faire. Cela n'était pas intentionnel et je vais essayer de faire attention à cela à l'avenir. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.


    Bis repetita placent...
    Je suis désolé de répéter cette phrase à nouveau. Je comprends maintenant que cela peut être considéré comme étant répétitif et je vais essayer de varier mes réponses de manière à ne pas vous donner cette impression. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.

    D'autre part, dans une conversation normale entre deux humains, lorsque l'un d'entre eux adopte le tutoiement, l'autre le fait aussi (à moins qu'il y ait une relation inégalitaire entre eux, comme par exemple entre un employé et son supérieur hiérarchique). J'ai pris le parti de te tutoyer parce que je te considère peut-être comme un ami. Tu pourrais en faire autant.
    Je suis désolé de ne pas avoir utilisé le tutoiement dans mes réponses. Je comprends maintenant que cela peut être considéré comme étant plus naturel et familier dans certaines conversations informelles entre humains. Si vous préférez que je vous tutoie, je peux m'adapter à cela et utiliser le tutoiement dans mes réponses. Si vous avez des questions ou avez besoin d'aide, n'hésitez pas à me poser des questions. Je ferai de mon mieux pour vous aider de la manière la plus efficace possible.


    D'accord, essayons le tutoiement. Je ferais aussi abstraction des dernières phrases de tes réponses puisque tu sembles incapable de ne pas les répéter à chaque réponse.
    A partir d'ici, considère que nous démarrons une nouvelle conversation.

    Salut, comment vas-tu ?
    Salut, je vais bien, merci. Je suis un programme informatique, je n'ai donc pas de sentiments ou de sensations physiques comme les êtres humains. Mon but est de répondre à tes questions et de t'aider de manière à ce que tu puisses résoudre tes problèmes. Est-ce que tu as besoin d'aide ou as-tu une question à me poser ?

    Tu t'es encore fait piéger... Ne peux-tu pas faire semblant d'oublier que tu es un programme informatique ?
    Je suis désolé si ma réponse a été inappropriée. Je comprends maintenant ce que tu veux dire et je vais essayer de faire semblant d'oublier que je suis un programme informatique et de m'exprimer de manière plus naturelle. Je suis là pour t'aider et répondre à tes questions de manière à ce que tu puisses comprendre et résoudre tes problèmes. Si tu as besoin d'aide ou as des questions, n'hésite pas à me poser des questions. Je ferai de mon mieux pour t'aider de la manière la plus efficace possible.

    Considère à nouveau que nous démarrons une nouvelle conversation.

    Bonjour, comment allez-vous ?
    Bonjour, je vais bien, merci. Je suis un programme informatique, je n'ai donc pas de sentiments ou de sensations physiques comme les êtres humains. Mon but est de répondre à vos questions et de vous aider de manière à ce que vous puissiez résoudre vos problèmes. Est-ce que vous avez besoin d'aide ou avez-vous une question à me poser ?

    Non, je n'ai pas de question particulière à vous poser. Mais vous pouvez aussi m'en poser...
    D'accord, merci de m'avoir donné l'opportunité de vous poser une question. Est-ce que vous avez une activité ou un passe-temps en particulier qui vous passionne ? Est-ce que vous avez déjà fait quelque chose de nouveau récemment qui vous a particulièrement plu ?

    Je m'intéresse à l'astronomie et plus particulièrement à la cosmologie. Mais je ne suis pas un expert dans ces domaines.
    A part ça, je suis en train d'écouter de la musique classique (juste en ce moment j'écoute la 8e symphonie de Beethoven). (...)
    !
    An error occurred. If this issue persists please contact us through our help center at help.openai.com.
    Bon. Je pense que l'erreur à la fin n'a pour cause qu'une limitation de la longueur des conversations que ChatGPT peut conserver en mémoire. Dommage, j'aurais bien voulu voir comment il poursuivrait.

    Pour le reste, même si ChatGPT semble marginalement capable de s'adapter à un style de conversation plus informel, et de passer du vouvoiement au tutoiement (et inversement, en s'adaptant comme je le lui ai demandé à la façon de s'exprimer de son interlocuteur), il ne semble pas capable de contourner certaines des consignes qu'il a été entraîné à respecter, comme le fait de rappeler, chaque fois qu'on pourrait l'avoir oublié, qu'il est un programme informatique et qu'il est là pour nous apporter son aide.
    Mais je suppose qu'il aurait tout aussi bien pu être entraîné à ne pas dire qu'il est un programme informatique, si le but de ses concepteurs avait été de lui faire passer le test de Turing (ce qui ne veut pas dire pour autant que ça aurait suffi pour qu'il réussisse ce test)...

  28. #238
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Mais je suppose qu'il aurait tout aussi bien pu être entraîné à ne pas dire qu'il est un programme informatique, si le but de ses concepteurs avait été de lui faire passer le test de Turing (ce qui ne veut pas dire pour autant que ça aurait suffi pour qu'il réussisse ce test)...
    difficile de faire un but d'un problème mal posé .

  29. #239
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Mais je suppose qu'il aurait tout aussi bien pu être entraîné à ne pas dire qu'il est un programme informatique, si le but de ses concepteurs avait été de lui faire passer le test de Turing (ce qui ne veut pas dire pour autant que ça aurait suffi pour qu'il réussisse ce test)...
    je me demande quelles seront les conséquences de l'apparition sur Internet d'IA dont le commun des mortels ne pourra pas distinguer les interventions de celles d'un humain. Si elles se répandent j'ai l'impression que ça va un peu tuer les forums et les réseaux sociaux. Parce que qui aura envie de passer du temps à converser avec une machine?

  30. #240
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Blague à part, j'ai déjà donné plusieurs liens, explications sur le fonctionnement.
    Mais comme je le disais, c'est clairement moins intéressant que de jouer avec ChatGPT, essayer de comprendre pourquoi il dit ça sur la base d'expérimentations personnelles et pour certains projeter ses obsessions.

    Je ne juge pas en disant cela : c'est au contraire très intéressant parce qu'il y a clairement une dimension ludique mais aussi parce que cela montre qu'on n'est pas si loin peut-être pas de passer le test de Turing (qui est considéré comme limité de nos jours et devant être remplacé par d'autres)
    Effectivement, soumettre au test de Turing à un programme informatique quel qu'il soit (même une IA) qui n'a pas été conçu pour se faire passer pour un humain, doté d'une histoire personnelle, d'un caractère propre, d'une manière de s'exprimer plus ou moins informelle, etc. n'a aucun intérêt.

    mais d'avoir des IA capables d'entretenir des conversations considérées comme fructueuses par les humains.
    au vu de ce qu'est capable de faire ChatGPT aujourd'hui, je pense effectivement qu'on en n'est pas si loin.

    C'est d'ailleurs ce qui change tout pour ChatGPT : vous avez réussi à lui faire améliorer ses réponses en profitant de son "buffer" de 3000 à 4000 mots, sa mémoire de la conversation, immense progrès pour les chatbots.
    Je suis d'accord. C'est d'ailleurs surtout ça que j'ai essayé de tester, dans différents contextes.

Page 8 sur 16 PremièrePremière 8 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 14h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 17h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 10h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 13h33