ChatGPT peut se tromper mais le reconnaît poliment - Page 12
Discussion fermée
Page 12 sur 16 PremièrePremière 12 DernièreDernière
Affichage des résultats 331 à 360 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #331
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Le truc c'est que l'on est confronté à une représentation assez fidèle du langage mais ce n'en est pas un. C'est un peu comme un corps sans os, cela ne tiens pas longtemps debout .

    -----
    Sans questions il n'y a que des problèmes sans réponses.

  2. #332
    ThM55

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    J'ai lu un jour que l'art de la contrepèterie resterait à jamais hors de portée de l'informatique. J'ai donc essayé ceci:

    Explique moi cette contrepèterie: "Les populations laborieuses du Cap".

    Une contrepèterie est une figure de style qui consiste à inverser l'ordre des mots dans une phrase de manière à créer un effet de surprise ou d'humour. Dans cette contrepèterie en particulier, "les populations laborieuses du Cap" devient "les populations du Cap laborieuses", ce qui peut être perçu comme amusant ou surprenant. Cette contrepèterie joue sur le fait que le mot "laborieux" est normalement utilisé pour décrire quelque chose de difficile ou d'exigeant, tandis que "le Cap" est le nom d'une région ou d'une ville. En inversant l'ordre des mots, on peut créer une phrase qui peut être interprétée de différentes manières et qui peut susciter l'intérêt ou l'amusement des lecteurs ou des auditeurs.


    ... en espérant que les censeurs ne comprendront pas mieux que chatGPT et laisseront donc ce message.

  3. #333
    ThM55

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Mais soyez rassurés, je ne vais pas m'avancer plus loin dans ce sujet, et je ne donnerai pas non plus la solution des pièges. Une référence que je recommande: "La contrepèterie", par Joël Martin, PUF Que sais-je.

  4. #334
    Deedee81
    Modérateur

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Salut,

    On peut en déduire que les I.A. ont un humour bien à elles
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  5. #335
    stefjm

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ThM55 Voir le message
    J'ai lu un jour que l'art de la contrepèterie resterait à jamais hors de portée de l'informatique. J'ai donc essayé ceci:
    ... en espérant que les censeurs ne comprendront pas mieux que chatGPT et laisseront donc ce message.
    ChatGPT n'a pas la bonne définition de la contrepèterie.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  6. #336
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ThM55
    J'ai lu un jour que l'art de la contrepèterie resterait à jamais hors de portée de l'informatique. J'ai donc essayé ceci:
    L'art de la contrepèterie je ne sais pas mais la contrepèterie en elle-même je ne vois pas la difficulté dans le cas d'une "belle" contrepèterie.
    Ici dans votre exemple la contrepèterie est "pauvre" puisqu'elle se base sur la phonétique.
    Pap c'est pas pape et on a bien compris que chatGPT ne fonctionne pas en employant la phonétique.
    Son échec n'est donc pas un exemple fiable pouvant illustrer votre théorie.
    En plus la définition de chatGPT étant fausse (il parle seulement d'inversion de mots et non pas d’inversion de lettres ou syllabes) il ne faut pas s'attendre à des miracles.
    Peut-être qu'en le guidant (sans lui parler de contrepèterie) en lui demandant d'essayer toutes le combinaisons et en lui expliquant "comment faire" ou pourrait l'amener à fournir de des belles contrepèteries.
    Lui demander de produire un programme qui fournit toutes les "contrepèteries" possibles ?

    Pour ce qui est de l'humour par contre on est d'accord que si nous les humains ne l'avons pas entrainé à produire des blague que dans notre standard nous appelons "cocasses" il n'y a aucune chance qu'il y parvienne via la théorie.
    Mais je suis sûr qu'il peut faire mieux avec de l'entrainement (ce qui n'a manifestement et à moins que je me trompe, pas été fait chez chatGPT apparemment).

    Sinon on a beaucoup parlé ici de l'incapacité de chatGPT à savoir compter les lettres d'un mot.
    Alors qu'il sait calculer.
    Je me posais la question si sa capacité à calculer n'était pas issu d'un "module" de calcul auquel il peut faire appel, ou dit plus techniquement qu'on aurait quelque-part un programme en dur (pas d'IA donc ici) qui enverrait par exemple une donnée issue de la multiplication des données en entrée (issu d'un traitement IA), réinjectés dans une de ses couches IA.
    Dans cette éventualité on peut imaginer le même style de traitement : Un module en dur (non IA) qui compte le nombre de lettres d'un mot, ou un autre module qui compte le nombre de mots, qui réinjecte les données dans l'IA.
    Dans ce cas les "déficiences" qu'on constate actuellement pour effectuer certains types de traitement ne seraient pas liées à une impossibilité structurelle mais juste au fait qu'on n'a pas encore implémenté ces traitements (d'où l’intérêt de laisser chatGPT en libre service pour voir quels sont les traitements que des humains vont demander à l'IA)
    Dernière modification par ArchoZaure ; 03/01/2023 à 10h48.

  7. #337
    Youri Gagarine

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Générateur de texte Gpt est pas mal, mais connaissez vous le Générateur d'images?
    C'est assez bluffant aussi.
    Pour ne pas faire doublon avec le fil sur Gpt, j'ai ouvert un nouveau fil.

  8. #338
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Je me posais la question si sa capacité à calculer n'était pas issu d'un "module" de calcul auquel il peut faire appel,
    Je ne pense pas.

    Il m'a dit :
    Citation Envoyé par CHATGPT
    Pour trouver la valeur de log_2((3/4) * 2^50), nous pouvons utiliser une calculatrice ou un tableau de logarithmes. La valeur de log_2((3/4) * 2^50) est environ égale à 37,4.
    Alors que non, c'est égal à 49,5849625007212.

  9. #339
    stefjm

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Ici dans votre exemple la contrepèterie est "pauvre" puisqu'elle se base sur la phonétique.
    Pap c'est pas pape et on a bien compris que chatGPT ne fonctionne pas en employant la phonétique.
    J'ai toujours cru que la contrepèterie était l'art de décaler les çon, donc phonétique.
    Ma pauvre bête n'a pas encore l'âge de l'arthrite.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  10. #340
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Une "belle" contrepèterie : La Poule qui Mue.
    Vous remarquerez qu'il s'agit aussi d'une contrepèterie et pourtant vous avez changé très exactement 2 lettres.
    Pas de phonétique dans ce cas de figure.

  11. #341
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    essaie de voir si ChatGPT la comprend si tu penses que ce n'est qu'un problème d'orthographe ...

  12. #342
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3
    essaie de voir si ChatGPT la comprend si tu penses que ce n'est qu'un problème d'orthographe ...
    Et comment je suis censé savoir si chatGPT l'a compris ?

  13. #343
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Et comment je suis censé savoir si chatGPT l'a compris ?
    Tu ne peux pas, le concept de "compréhension" ne s'applique pas ici, en tout cas pas exprimé de façon aussi naïve.
    On est encore et encore dans la projection de concepts familiers et dans le raisonnement par analogie.

    Au passage, on pourrait probablement entrainé une IA pour reconnaitre et même générer des contrepèteries. Ce n'est pas "à jamais hors de portée de l'informatique".
    Cela ne présente juste que peu d'intérêt et le plus gros boulot serait de collecter la base d'apprentissage en texte et en phonétique. Encore que le phonétique n'est pas peut-être pas indispensable.

  14. #344
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98
    Je ne pense pas.

    Il m'a dit :

    Envoyé par CHATGPT
    Pour trouver la valeur de log_2((3/4) * 2^50), nous pouvons utiliser une calculatrice ou un tableau de logarithmes. La valeur de log_2((3/4) * 2^50) est environ égale à 37,4.



    Alors que non, c'est égal à 49,5849625007212.
    C'est pas une preuve.
    A un un moment ou à un autre il fait bien appel à des calculs en dur.
    Ou alors vous pensez qu'il fait le calcul de log_2 à l'aide d'un réseau de neurone ?!!!?
    Ou même multiplier deux nombres avec des couches de réseau de neurone ?...
    Ça me paraitrai surréaliste (en tous cas je ne vois pas comment on ferait ça avec des couches de neurones) mais je veux bien qu'on me prouve le contraire.

  15. #345
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Ou même multiplier deux nombres avec des couches de réseau de neurone ?...
    Ça me paraitrai surréaliste (en tous cas je ne vois pas comment on ferait ça avec des couches de neurones) mais je veux bien qu'on me prouve le contraire.
    On sait faire : https://hal.archives-ouvertes.fr/hal-02929738/document
    Ce n'est pas ce qu'ils font le mieux comme les humains d'ailleurs et cela ne présente pas grand intérêt vu qu'on peut faire plus efficacement avec des algos classiques mais c'est possible.
    Dans le cas de ChatGPT, il ne calcule pas en effet.

  16. #346
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42
    Tu ne peux pas, le concept de "compréhension" ne s'applique pas ici, en tout cas pas exprimé de façon aussi naïve.
    On est encore et encore dans la projection de concepts familiers et dans le raisonnement par analogie.
    C'est aussi ce que je voulais dire. Merci de le confirmer.

    Citation Envoyé par pm42
    Cela ne présente juste que peu d'intérêt et le plus gros boulot serait de collecter la base d'apprentissage en texte et en phonétique. Encore que le phonétique n'est pas peut-être pas indispensable.
    Pour dialoguer avec lui en mode texte ça ne présente effectivement pas beaucoup d’intérêt, mais si on voulait passer à une interface verbale il faudrait en passer par là.
    Et quand je dis passer par là, c'est être capable de passer de la phonétique aux mots, puisque dans de nombreuses situations on peut comprendre les sons différemment.
    C'est le contexte qui nous fait choisir en tant qu'humain la bonne signification.
    L'IA peut aussi le faire sauf que le grand public ne lui pardonnera pas de ne pas comprendre (là où il n'y a rien à comprendre... des fois c'est aussi ambigu avec les humains) ou s'amusera comme ici avec chatGPT à lui faire dire des conneries.
    Histoire de dire qu'on est plus intelligent que la machine (les gens aiment bien dire ça).
    C'est comme dire : Je suis plus rapide que ma voiture puisque pour aller dans mon salon je ne suis pas obliger de défoncer le mur.

  17. #347
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    On sait faire : https://hal.archives-ouvertes.fr/hal-02929738/document
    Ce n'est pas ce qu'ils font le mieux comme les humains d'ailleurs et cela ne présente pas grand intérêt vu qu'on peut faire plus efficacement avec des algos classiques mais c'est possible.
    Dans le cas de ChatGPT, il ne calcule pas en effet.
    C'est surtout assez limité et comme vous dites très compliqué pour pas grand chose.
    Là par exemple pour 7 digit on obtient des scores d'erreur de 2%, c'est beaucoup.
    Mais si ça se trouve c'est comme ça que calcule chatGPT...
    A creuser.
    Faudrait penser à demander à Yann LeCun lorsqu'il fera une conférence.
    A ce sujet je vais regarder son interview pour voir s'il y a des infos : https://www.youtube.com/watch?v=3RPzfZIhw3s
    Dernière modification par ArchoZaure ; 03/01/2023 à 13h21.

  18. #348
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Combien fait log_2(1024/(2^1000))

    La valeur de log_2(1024/(2^1000)) est égale à -1000.

    Pour calculer ce logarithme, on peut utiliser la propriété suivante: log_a(b/c)=log_a(b)-log_a(c).

    On a donc log_2(1024/(2^1000)) = log_2(1024) - log_2(2^1000).

    Or log_2(2^1000) = 1000, donc log_2(1024/(2^1000)) = log_2(1024) - 1000.

    Et log_2(1024) = 10, donc log_2(1024/(2^1000)) = 10 - 1000 = -990.
    Pour moi, il répond "au feeling", il a vu qu'il y avait un 2^1000 dans le log donc il répond directement -1000 sans se préoccuper du 1024.
    Ensuite, il a décomposé le log et a donc pu calculer la bonne réponse.

  19. #349
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98
    Pour moi, il répond "au feeling", il a vu qu'il y avait un 2^1000 dans le log donc il répond directement -1000 sans se préoccuper du 1024.
    Ensuite, il a décomposé le log et a donc pu calculer la bonne réponse.
    Oui ça se tient.
    Donc il ferait appel à des tables préétablies et de la cuisine derrière.
    Ce qui explique les grosses erreurs de calcul des fois.
    Par exemple dans votre cas log_2((3/4)*2^50) il va faire log_2(3/4) + log_2(2^50)
    log_2(2^50) vaut 50 , ça il sait "simplifier" on ne va pas dire "calculer".
    Reste log_2(3/4) qui vaut environ -12.6 (50-12.6 = 37.4) pour lui, donc là il n'aurait pas de table et on peut se demander comment il calcule ça.
    log_2(x)=-12.6 fait que x=0.0000161073
    Faudrait lui demander.
    Dernière modification par ArchoZaure ; 03/01/2023 à 13h49.

  20. #350
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Bon j'ai posé directement la question à chatGPT.
    La réponse en gras à la fin.

    Citation Envoyé par OpenAI
    Utilisateur : que vaut log_2(3/4) ?

    chatGPT : log_2(3/4) = log_2(3) - log_2(4) = log_2(3) - 2 = -1.585.

    Utilisateur : que vaut log_2((3/4)*2^50) ?

    chatGPT : log_2((3/4)*2^50) = log_2(3/4) + log_2(2^50) = -1.585 + 50 = 48.415.

    Utilisateur : Comment fais-tu pour calculer ?

    chatGPT : Pour calculer log_2((3/4)*2^50), j'ai d'abord utilisé la propriété de logarithme qui dit que log_a(xy) = log_a(x) + log_a(y) pour tous les nombres x et y et tous les nombres a > 0. En utilisant cette propriété, j'ai écrit log_2((3/4)*2^50) comme log_2(3/4) + log_2(2^50).

    Ensuite, j'ai utilisé la propriété de logarithme qui dit que log_a(x^n) = nlog_a(x) pour tous les nombres x et n et tous les nombres a > 0. En utilisant cette propriété, j'ai écrit log_2(2^50) comme 50log_2(2).
    Pour finir, j'ai utilisé la propriété de logarithme qui dit que log_a(a^n) = n pour tous les nombres n et tous les nombres a > 0. En utilisant cette propriété, j'ai écrit log_2(2) comme 1.

    J'ai alors pu remplacer ces termes dans l'expression originale pour obtenir le résultat final : log_2((3/4)2^50) = log_2(3/4) + 50log_2(2) = log_2(3/4) + 50*1 = -1.585 + 50 = 48.415.

    Utilisateur : Oui mais comment tu sais combien vaut log_2(3) ?


    chatGPT : Je ne peux pas calculer la valeur exacte de log_2(3) car je suis un modèle de langage entraîné par OpenAI et je n'ai pas accès à une calculatrice ou à d'autres outils de calcul. Toutefois, je peux donner une approximation de cette valeur en utilisant des méthodes mathématiques ou en utilisant une table de valeurs de logarithmes.

    Voici une façon de calculer une approximation de log_2(3) en utilisant des méthodes mathématiques :
    On sait que log_a(b) = c signifie a^c = b. On peut donc écrire l'équation 2^c = 3. Si on résout cette équation pour c, on obtient c = log_2(3).
    On peut approcher la solution de cette équation en utilisant une méthode d'approximation telle que la méthode de Newton. Cette méthode consiste à déterminer une valeur initiale pour c, puis à actualiser cette valeur en utilisant l'équation suivante : c = c - (2^c - 3)/(2^c * ln(2)). On peut répéter cette étape plusieurs fois jusqu'à obtenir une précision suffisante.
    Voici une autre façon de trouver une approximation de log_2(3) : on peut utiliser une table de valeurs de logarithmes qui donne les valeurs de logarithmes pour différentes bases et différents nombres. Si on a accès à une telle table, on peut simplement chercher la valeur de log_2(3) dedans.
    Il existe également des programmes informatiques et des calculatrices qui peuvent calculer la valeur de logarithmes de manière précise. Si vous avez accès à l'un de ces outils, vous pouvez utiliser ces outils pour trouver la valeur exacte de log_2(3).

  21. #351
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Autre exemple pour une division, ici je lui demande de me calculer 1/31 et je lui demande ensuite comment il procède (je mets en spoiler pour ne pas pourrir le fil).

     Cliquez pour afficher


    Et ça donne exactement le valeur fournie lorsque je lui demande combien vaut 1/31.
    Donc il y a de très fortes probabilité que c'est comme ça qu'il procède (calcul "de tête" de manière procédurale).
    Dernière modification par ArchoZaure ; 03/01/2023 à 14h27.

  22. #352
    f6exb

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Les étudiants, faites gaffe :
    L'antidote contre ChatGPT est sorti à Noël :
    http://gptzero.me/
    Seuls les faucons volent. Les vrais restent au sol.

  23. #353
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Curieux l'analyse de gptzero.

    jJai repris le texte suivant généré par chatGPT
    Citation Envoyé par chatGPT
    Voici une façon de calculer une approximation de log_2(3) en utilisant des méthodes mathématiques :
    On sait que log_a(b) = c signifie a^c = b. On peut donc écrire l'équation 2^c = 3. Si on résout cette équation pour c, on obtient c = log_2(3).
    On peut approcher la solution de cette équation en utilisant une méthode d'approximation telle que la méthode de Newton. Cette méthode consiste à déterminer une valeur initiale pour c, puis à actualiser cette valeur en utilisant l'équation suivante : c = c - (2^c - 3)/(2^c * ln(2)). On peut répéter cette étape plusieurs fois jusqu'à obtenir une précision suffisante.
    Voici une autre façon de trouver une approximation de log_2(3) : on peut utiliser une table de valeurs de logarithmes qui donne les valeurs de logarithmes pour différentes bases et différents nombres. Si on a accès à une telle table, on peut simplement chercher la valeur de log_2(3) dedans.
    Il existe également des programmes informatiques et des calculatrices qui peuvent calculer la valeur de logarithmes de manière précise. Si vous avez accès à l'un de ces outils, vous pouvez utiliser ces outils pour trouver la valeur exacte de log_2(3).
    Le résultat :
    Your GPTZero score corresponds to the likelihood of the text being AI generated:


    92.16223618043226
    Your text is likely human generated!



    Ca bug ou c'est moi ?

  24. #354
    albanxiii
    Modérateur

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Pas de phonétique dans ce cas de figure.
    Essayez avec "il faut couper les nouilles au sécateur".
    Not only is it not right, it's not even wrong!

  25. #355
    JuanNguyen

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Quand il se trompe en vrai le problème ce n'est pas celui qui a mal posé la question

  26. #356
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ArchoZaure Voir le message
    Ca bug ou c'est moi ?
    Peut-être que cela ne marche qu'en anglais.

    The logarithm function is defined as log_b(x) = y, where b is the base of the logarithm and x is the argument. The log_b(x) is the exponent to which the base 'b' must be raised to produce the number 'x'.

    So we want to find log_2(3), which means we are looking for the exponent to which 2 must be raised to get 3.

    We know that 2^2 = 4 and 2^1.5 = 2^(3/2) = √8 = 2√2 = 2 *1.41 = 2.82
    But we are looking for the number which when raised to 2 gives 3. which is not present in above set of numbers.

    It is between 1.5 and 2. So we can say it's approximation is around 1.58496

    You can use scientific calculator or calculator that supports logarithm function to get this value.


    Your GPTZero score corresponds to the likelihood of the text being AI generated:
    21.77154105707724
    La fonction logarithme est définie comme log_b(x) = y, où b est la base du logarithme et x est l'argument. Le log_b(x) est l'exposant auquel la base 'b' doit être élevée pour obtenir le nombre 'x'.

    Donc, nous voulons trouver log_2(3), ce qui signifie que nous cherchons l'exposant auquel 2 doit être élevé pour obtenir 3.

    Nous savons que 2^2 = 4 et 2^1.5 = 2^(3/2) = √8 = 2√2 = 2 *1.41 = 2.82
    Mais nous cherchons le nombre qui, lorsqu'il est élevé à 2, donne 3, ce qui n'est pas présent dans le jeu de nombres ci-dessus.

    Il est compris entre 1,5 et 2. Donc on peut dire que c'est approximativement 1.58496

    Vous pouvez utiliser une calculatrice scientifique ou une calculatrice qui prend en charge la fonction logarithme pour obtenir cette valeur.

    Your GPTZero score corresponds to the likelihood of the text being AI generated:
    76.90708679959214
    C'est pas terrible son truc à l'étudiant. En plus tout le monde peut s'inscrire.

  27. #357
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    En plus intéressant, il y a des extensions à ChatGPT.

    "God In A Box" : il répond à votre place sur WhatsApp. J'attends la version qui pourra aller en réunion à ma place (ok, je ne vais plus dans des réunions au boulot mais vu qu'en général, la quantité d'information échangée est de 1 ou 2 bits par heure, on devrait pouvoir les faire faire par des IAs).

    Merlin : une extension de Google Chrome. Il peut faire le résumé du site sur lequel on est, générer une réponse dans gmail et si on utilise le tableur de la G-Suite, il peut générer une fonction compliquée à partir de sa description textuelle.

    Il y a aussi une extension pour les développeurs, Code GPT qui s'ajoute à VS Code et génère du code (on s'en serait douté vu les noms).
    J'ai récupéré une info suivant laquelle Microsoft aurait fait faire le même projet par 2 équipes, une sans assistant IA, l'autre avec et que le gain de productivité serait impressionnant, 40 à 70%. Mais je n'ai pas de source sous la main.

  28. #358
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Merlin : une extension de Google Chrome. Il peut faire le résumé du site sur lequel on est, générer une réponse dans gmail et si on utilise le tableur de la G-Suite, il peut générer une fonction compliquée à partir de sa description textuelle.
    Il y a des tests concernant la fiabilité ? Un peu comme un Bench test pour connaître les limites ?
    Sans questions il n'y a que des problèmes sans réponses.

  29. #359
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    On peut s'amuser à recopier des questions posées sur le forum et voir les réponses qu'il donne (pour savoir ce que deviendrait le forum si ChatGPT répondait aux questions).
    Sur ce que j'ai essayé, c'est un style "neutre" résumant les connaissances, mais avec comme souvent avec lui des erreurs factuelles. Il n'y a pas de côté "humain" . Il ne fera jamais des choses comme : poser des questions pour s'assurer du niveau de son interlocuteur avant de lui répondre, faire une blague dans la réponse, imaginer des comparaisons en prenant un autre cas similaire, s'énerver sur l'attitude de son interlocuteur, émettre des jugements favorables ou défavorables...

    Je ne sais pas comment sont vos conversations WhatsApp mais les miennes sont plus "humaines" que ça, sans compter le fait qu'on poste souvent sur WhatsApp pour apporter des informations très récentes, que par définition un outil entrainé à imiter un corpus déjà constitué ne peut pas connaitre.

  30. #360
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    par exemple, notablement, son discours est totalement dénué de toutes les marques affectives de reconnaissance (en positif ou en négatif) de son interlocuteur (du genre "merci bocou boucou", "c'est vraiment sympa" , "t'"es nul", "j'en ai marre", ou différents smileys ...) qui sont très importantes dans la communication humaine.

Page 12 sur 16 PremièrePremière 12 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 14h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 17h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 10h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 13h33