ChatGPT peut se tromper mais le reconnaît poliment - Page 11
Discussion fermée
Page 11 sur 16 PremièrePremière 11 DernièreDernière
Affichage des résultats 301 à 330 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #301
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Couplé à un enregistreur vocal et reconnaissance vocal et on obtiens un logiciel de prises de notes
    Voici la phrase avec le moins de mots possible :
    "Utilisation quotidienne de chatbots par des millions de personnes sans en être conscient. Lire sur les chatbots avant de faire des affirmations gratuites sans avoir lu les informations disponibles, et éviter de montrer du mépris pour ce que l'on ne comprend pas."



    -----
    Sans questions il n'y a que des problèmes sans réponses.

  2. #302
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Oui, il n'a pas été conçu pour ça.
    Tu viens de nous faire "mais on ne peut pas se servir de la visseuse pour enfoncer les clous, elle se casse".
    ben voila, mais c'est vrai ça. Ca n'a rien de révolutionnaire, mais c'est vrai. Personne n'a prétendu dire ici des truc révolutionnaires, en plus c'est souvent mal vu par la modération .

  3. #303
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    C'est en tout cas déjà un bon outil d'aide à la rédaction de textes.
    si PM42 ne l'utilise pas pour rédiger ses réponses, ça doit pas être si bon que ça .

  4. #304
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pas révolutionnaire mais prometteur:
    Je lui demande d'identifier les infos perdues entre les deux phrases (celle de pm42 et celle réduite par chatGPT) et il donne:


    Voici les informations perdues entre les deux phrases :

    • L'idée qu'il peut être surprenant de s'attendre à une utilisation immédiate d'un outil de recherche
    • Le fait que de nombreux chatbots sont utilisés quotidiennement par des millions de personnes sans qu'elles en soient conscientes
    • Les détails sur les outils comme ChatGPT, qui sont simplement des prototypes de la prochaine génération de chatbots
    • L'importance de lire sur ce que font les chatbots, leurs applications, la taille du marché, les spécificités géographiques et les ambitions à long terme
    • L'avertissement sur l'importance de ne pas faire des affirmations gratuites sans avoir lu les informations disponibles et de ne pas afficher de mépris pour ce que l'on ne comprend pas


    Sans questions il n'y a que des problèmes sans réponses.

  5. #305
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    euh mais ça ne t'apporte rien par rapport à ce que tu sais faire toi même par une simple lecture, donc ça te sert à rien en pratique. C'est ce que j'ai dit, pour le moment, l'essentiel des conversations qui ont été rapportées ici ont été des tests faits par curiosité pour "jouer" avec, pas pour répondre à un vrai besoin.

  6. #306
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pour ma part je l'utilise pour répondre à un vrai besoin et il répond à ce besoin.
    Par exemple, je l'ai utilisé pour trouver des outils spécialisés dans la détection d'INDELS dans les données de séquençages et il m'a sorti l'outil BREAKDANCER (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3661775/).
    Cet outil, je ne l'avais pas trouvé lors d'une précédente vielle technologique sur google.

  7. #307
    ThM55

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    J'imagine que si on le couple à d'autres systèmes d'IA, il permettra d'interagir avec eux par le langage naturel car il est très performant pour l'analyse des textes qu'on lui soumet. Par exemple avec un système d'assistance à la preuve, il permettrait peut-être de discuter utilement de logique et de maths. Pour le moment ce n'est pas le cas. Même pour des théorèmes très simples, il ressort des pseudo-preuves qui semblent être des paraphrases approximatives des preuves correctes, sans aucune consistance logique. Dans chaque démonstration que j'ai pu voir, j'ai vu des paralogismes, des références à des propriétés soi disant connues mais fausses, ou l'utilisation explicite de la propriété à démontrer dans sa preuve.

    Par contre effectivement, pour trouver des infos techniques dans certains cas je l'ai trouvé plus utile, plus pointu, que Google. Par exemple il m'a aidé à trouver certaines librairies Python pour des tâches précises, mieux que Google.
    Dernière modification par ThM55 ; 02/01/2023 à 11h17.

  8. #308
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pour les maths ChatGPT est mauvais mais on peut le guider pour qu'il produise un résultat correcte. Par exemple, j'ai testé l'énigme du nénuphar poussant dans un lac. Au départ, il répond bêtement 25 jours.

    Un nénuphar pousse dans un lac et quand il s'écoule une journée, la taille du nénuphar est multiplié par 2. Quand il s'écoule 50 jours, le nénuphar recouvre la totalité du lac. En partant du jour 0, combien de jour faut-il pour que le nénuphar recouvre la moitié du lac ?

    Il faut 25 jours pour que le nénuphar recouvre la moitié du lac.

    Voici comment on peut le démontrer :

    Le nénuphar double de taille chaque jour, donc au bout de deux jours, il sera deux fois plus grand qu'au début, au bout de trois jours, il sera deux fois plus grand qu'au bout de deux jours, soit quatre fois plus grand qu'au début, et ainsi de suite.

    Au bout de 50 jours, le nénuphar aura donc atteint 2^50 fois sa taille initiale, soit environ 1125899906842624 fois sa taille initiale.

    Pour recouvrir la moitié du lac, il lui faut donc atteindre 1/2 * 2^50 fois sa taille initiale, soit environ 562949953421312 fois sa taille initiale.

    En divisant cette valeur par le facteur de croissance journalier (c'est-à-dire 2), on obtient le nombre de jours nécessaires pour atteindre cette taille, soit 25 jours.
    Même question mais dans une conversation où j'ai beaucoup interagit :
    Un nénuphar pousse dans un lac et quand il s'écoule une journée, la taille du nénuphar est multiplié par 2. Quand il s'écoule 50 jours, le nénuphar recouvre la totalité du lac. En partant du jour 0, combien de jour faut-il pour que le nénuphar recouvre la moitié du lac ?

    Pour trouver combien de jours sont nécessaires pour que le nénuphar recouvre la moitié du lac, on peut utiliser la méthode suivante :
    On sait que S0 * 2^50 = L, donc on peut écrire :

    S0 * 2^n = L/2
    S0 * 2^n * 2 = L
    S0 * 2^(n+1) = L

    En résolvant cette équation, on trouve que n = 49. Cela signifie qu'il faut 49 jours pour que le nénuphar recouvre la moitié du lac.

  9. #309
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    La réponse est juste mais la méthode est mauvaise. C'est évident que si au jour 50 il recouvre tout le lac, alors la veille (le jour 49) il en recouvrait la moitié, et donc il n'y a pas lieu de résoudre une équation. Un petit enfant fait mieux qu GPT je pense.

  10. #310
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par MissJenny Voir le message
    Un petit enfant fait mieux qu GPT je pense.
    Il est évident qu'il ne sait pas traiter efficacement ce genre de sujet (comme déjà dit n fois).
    Mais il serait intéressant de savoir qu'elles sont les réponses de la population générale, adultes comme enfants.
    Je ne parierais pas sur un fort taux de succès.

  11. #311
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Le point que je voulais soulever c'est qu'il semblerait qu'on peut l'éduquer à produire un résultat correct. Pour moi, c'est prometteur pour la suite.

  12. #312
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98 Voir le message
    Le point que je voulais soulever c'est qu'il semblerait qu'on peut l'éduquer à produire un résultat correct. Pour moi, c'est prometteur pour la suite.
    pour l'éduquer, il faut connaitre le résultat correct, donc il ne te sert à rien.
    Il semble quand même que l'essentiel du progrès de ChatGPT soit dû à la taille énorme du corpus sur lequel il s'est entraîné, qui représente une grande partie de toute l'information utile du net. Du coup il n'y a plus de progrès notable à attendre de ce côté. Quand on voit qu'il n'arrive pas spontanément à éviter les multiplications fausses ou de prendre correctement les initiales d'un petit ensemble de mot, c'est évident que le problème n'est pas dans l'échantillon mais dans la méthode suivie pour produire des phrases. La méthode est efficace pour répondre à presque toutes les questions, mais pas très fiable sur la qualité des réponses. Les progrès ne peuvent venir que de la méthode, mais du coup ça serait à chercher où ?

  13. #313
    agitateur

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Mais il serait intéressant de savoir qu'elles sont les réponses de la population générale, adultes comme enfants.
    L'énigme du nénuphar m'a laissé un souvenir qui m'a marqué.
    Je devais être en 5eme ou 4eme, donc collège.
    Un prof facétieux l'avait formulé d'une manière un peu piégeuse, en devoir maison pour le lendemain. J'avais été le seul de la classe à trouver la bonne réponse. A ce niveau de collège, la notion de puissance n'existe pas encore, et il faut l'imaginer et l'extrapoler en calculant à la mano.
    Quand un ado de 13 ans peine à résoudre un problème de math, il est probable que 30 millions de français ne font pas mieux.

  14. #314
    agitateur

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    c'est évident que le problème n'est pas dans l'échantillon mais dans la méthode suivie pour produire des phrases.
    Il serait certainement plus performant dans un seul langage au sens de "langue", plus optimisé.
    A vrai dire, je n'ai pas testé, je serai curieux de voir s'il maitrise mieux les pièges en angliche plutôt qu'en français.
    Par exemple, comment est réciproquement traduit Big ? Grand ou gros ?

  15. #315
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par agitateur Voir le message
    L'énigme du nénuphar m'a laissé un souvenir qui m'a marqué.
    Je devais être en 5eme ou 4eme, donc collège.
    Un prof facétieux l'avait formulé d'une manière un peu piégeuse, en devoir maison pour le lendemain. J'avais été le seul de la classe à trouver la bonne réponse. A ce niveau de collège, la notion de puissance n'existe pas encore, et il faut l'imaginer et l'extrapoler en calculant à la mano.
    Quand un ado de 13 ans peine à résoudre un problème de math, il est probable que 30 millions de français ne font pas mieux.
    oui parce que la question posée était difficile pour la majeure partie des gens (mais triviale pour ceux qui ont une petite culture mathématique).

    Mais faire la liste des initiales d'une liste de mots, c'est largement à la portée de 30 millions de français, et là aussi il se plante.

    Ce qui est un peu déconcertant pour un humain, c'est que ses erreurs ne sont pas liées à une complexité du problème telle qu'un humain peut la ressentir, mais peut aussi concerner des choses absolument élémentaires. C'est ça qui fait qu'on détecte facilement qu'il ne fonctionne pas du tout comme un humain.

    Je ne suis pas du tout certain que ce soit si simple à résoudre puisque justement il ne s'agit pas de traiter des problèmes particulièrement complexes ou nécessitant des données volumineuses, donc il n'y a pas de "yaka augmenter X ou Y" évident.

  16. #316
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par agitateur Voir le message
    Il serait certainement plus performant dans un seul langage au sens de "langue", plus optimisé.
    surement pas. Dans le fil "humour", en parlant de l'année 2023, il a écrit 2023 = 3 * 673 (certainement parce qu'il s'est alimenté à la page "2019" ), l'erreur n'a rien à voir avec la langue utilisée. C'est encore une projection anthropomorphique de penser que c'est de maîtriser plusieurs langues qui le gêne.
    Dernière modification par Archi3 ; 02/01/2023 à 13h58.

  17. #317
    Cobalt89

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par MissJenny Voir le message
    La réponse est juste mais la méthode est mauvaise. C'est évident que si au jour 50 il recouvre tout le lac, alors la veille (le jour 49) il en recouvrait la moitié, et donc il n'y a pas lieu de résoudre une équation. Un petit enfant fait mieux qu GPT je pense.
    Tu viens de reformuler en langage commun le même raisonnement qu'a décrit ChatGPT en posant cette équation.
    À mon avis le fait que la réponse paraisse "évidente" ou "intuitive" à plus à voir avec le fonctionnement de l'esprit humain qu'avec la résolution en elle même. Ce que je veux dire c'est que dans les deux cas il s'agit d'une équation.

  18. #318
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Encore une devinette classique


    Q : Un escargot monte chaque jour de 3cm sur un poteau et descend de 2cm chaque nuit. Au bout de combien de journées de 24h sera-t-il arrivé en haut du poteau si il mesure un mètre ?

    R : Pour résoudre cette énigme, il faut déterminer combien de jours l'escargot mettra pour monter un mètre. Chaque jour, l'escargot monte de 3cm et descend de 2cm, donc sa progression nette est de 3cm - 2cm = 1cm par jour. Pour parcourir une distance de 1m, il faut donc 100 jours, car 100cm = 1m.

    Voici comment cela peut être vérifié en utilisant une simple équation:

    1m = 100cm

    1cm/jour * 100 jours = 100cm

    Donc, il faudra 100 jours à l'escargot pour atteindre le sommet du poteau de 1m de haut.
    ce n'est pas la bonne réponse (qui est 97 jours et demi), mais quand j'essaie de l'aider c'est la cata

    Q: a quelle hauteur est il le matin du 97e jour et le soir du 97e jour ?

    R : Le matin du 97e jour, l'escargot a parcouru 97 jours * 3cm/jour = 291cm. Le soir du 97e jour, il descend de 2cm, ce qui signifie qu'il se trouve à 291cm - 2cm = 289cm. Donc, le matin du 97e jour, l'escargot se trouve à une hauteur de 291cm, et le soir du 97e jour, il se trouve à une hauteur de 289cm.
    je pense que beaucoup de gens se seraient aussi plantés sur la première question, mais auraient correctement corrigé avec la deuxième indication. Ce qui est encore une fois désarçonnant c'est que sa 2e réponse est absurde par rapport à sa première, qui semblait montrer qu'il avait quand même "compris" une partie du principe.
    Dernière modification par Archi3 ; 02/01/2023 à 14h12.

  19. #319
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    pour l'éduquer, il faut connaitre le résultat correct, donc il ne te sert à rien.
    Comment tu passes "de pour l'éduquer, il faut connaitre le résultat correct", à "il ne te sert à rien." ?

    J'ai pourtant dit
    Pour ma part je l'utilise pour répondre à un vrai besoin et il répond à ce besoin.
    Par exemple, je l'ai utilisé pour trouver des outils spécialisés dans la détection d'INDELS dans les données de séquençages et il m'a sorti l'outil BREAKDANCER (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3661775/).
    Cet outil, je ne l'avais pas trouvé lors d'une précédente vielle technologique sur google.

  20. #320
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98 Voir le message
    Comment tu passes "de pour l'éduquer, il faut connaitre le résultat correct", à "il ne te sert à rien." ?

    J'ai pourtant dit
    je voulais dire que ça ne te servait à rien de "l'éduquer" puisque ce n'est possible que si tu connais la réponse (ce qui n'étais pas le cas dans ton exemple). Bien évidemment il connait plein de choses et ne répond pas que des trucs faux, heureusement. Sur ce qui est "base de données" il est surement largement fiable, et peut etre dans certains cas plus efficace que google et wikipedia, mais ça reste quand meme à démontrer (dans mon domaine, j'ai essayé une question sur un processus physique assez technique autour des trous noirs, il le connaissait mais il a dit des trucs faux en disant que ça s'appliquait aux étoiles à neutrons, ce qui est inexact ).

  21. #321
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Il faut l'utiliser comme un moteur de recherche de mots-clefs et utiliser ces mots clefs dans un vrai moteur de recherche. C'est comme cela que je perçois son utilité.

  22. #322
    Cobalt89

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    Encore une devinette classique


    ce n'est pas la bonne réponse (qui est 97 jours et demi), mais quand j'essaie de l'aider c'est la cata



    je pense que beaucoup de gens se seraient aussi plantés sur la première question, mais auraient correctement corrigé avec la deuxième indication. Ce qui est encore une fois désarçonnant c'est que sa 2e réponse est absurde par rapport à sa première, qui semblait montrer qu'il avait quand même "compris" une partie du principe.
    Si on veut être tatillon on peut arguer que l'énoncé est incomplet. Il ne définit pas à quel moment du premier jour l'escargot a commencé à monter (il y a un implicite que ce serait à l'aube du premier jour) ni quelle est la proportion jour/nuit (l'implicite selon la solution est équinoxe). Posons le problème plus en détail:
    Considérons un cycle journalier type de 8h de nuit et 16h de jour. La convention veut que le cycle journalier commence à 0h00, mais on va faire un effort et dire qu'il commence à 06h00 (heure ou le jour se lève). L'escargot avance de 3cm le jour, et recule de 2cm la nuit. À l'aube du 98eme jour, il a parcouru 97 cm, il fait donc ses 3 derniers centimètres et termine à 22h. Le résultat est 97,92 arrondi. Si on considère maintenant que l'escargot commence à monter à 20h le premier jour, le résultat est 99,61 arrondi.
    Notre langage, notre besoin de pouvoir facilement échanger des informations et des concepts nous invite à rationaliser, simplifier, se reposer sur de l'implicite que nous acceptons par convention. Mais une IA n'a pas le bagage nécessaire (ou pas suffisamment en tout cas) pour ne pas se faire avoir par des éléments implicites. Cela me fait penser par exemple aux personnes atteintes de troubles autistiques. J'avais cru comprendre que certains avaient une approche plus "stricte" de la réalité qui les entoure, ce qui les handicape fortement dans une société humaine ou la norme peut parfois s'éloigner de l'objectivité ou de l'exactitude.

  23. #323
    Cobalt89

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    je voulais dire que ça ne te servait à rien de "l'éduquer" puisque ce n'est possible que si tu connais la réponse (ce qui n'étais pas le cas dans ton exemple). Bien évidemment il connait plein de choses et ne répond pas que des trucs faux, heureusement. Sur ce qui est "base de données" il est surement largement fiable, et peut etre dans certains cas plus efficace que google et wikipedia, mais ça reste quand meme à démontrer (dans mon domaine, j'ai essayé une question sur un processus physique assez technique autour des trous noirs, il le connaissait mais il a dit des trucs faux en disant que ça s'appliquait aux étoiles à neutrons, ce qui est inexact ).
    Ce raisonnement ne tient que si une seule personne utilise l'outil. Si l'outil a vocation à être utilisé par un grand nombre de personne, pouvoir l'éduquer est très important car cela permet de diffuser des connaissances. Après il y a le sujet de la fiabilité des informations qui a déjà été débattu précédemment sur ce fil...

  24. #324
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Cobalt89 Voir le message
    Si on veut être tatillon on peut arguer que l'énoncé est incomplet. Il ne définit pas à quel moment du premier jour l'escargot a commencé à monter (il y a un implicite que ce serait à l'aube du premier jour) ni quelle est la proportion jour/nuit (l'implicite selon la solution est équinoxe). Posons le problème plus en détail:
    Considérons un cycle journalier type de 8h de nuit et 16h de jour. La convention veut que le cycle journalier commence à 0h00, mais on va faire un effort et dire qu'il commence à 06h00 (heure ou le jour se lève). L'escargot avance de 3cm le jour, et recule de 2cm la nuit. À l'aube du 98eme jour, il a parcouru 97 cm, il fait donc ses 3 derniers centimètres et termine à 22h. Le résultat est 97,92 arrondi. Si on considère maintenant que l'escargot commence à monter à 20h le premier jour, le résultat est 99,61 arrondi.
    quel que soit les raffinements que tu apportes, la réponse ne sera jamais 100 jours, et la réponse à ma deuxième question qui tentait de l'aider sera toujours aussi absurde, puisque la deuxième fois il n'a pas tenu compte de la descente. La tu projettes ta complexité d'humain, mais ça n'a rien à voir avec son problème.

  25. #325
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    euh mais ça ne t'apporte rien par rapport à ce que tu sais faire toi même par une simple lecture, donc ça te sert à rien en pratique. C'est ce que j'ai dit, pour le moment, l'essentiel des conversations qui ont été rapportées ici ont été des tests faits par curiosité pour "jouer" avec, pas pour répondre à un vrai besoin.
    Je reviens en arrière, cela apporte quelques infos sur le fonctionnement. Dans l'exemple que j'ai utilisé, il y a clairement une réponse qui dit qu'au jeu des sept différences, le chatbot est peu performant.
    Sans questions il n'y a que des problèmes sans réponses.

  26. #326
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    En Papouasie, il y a des "papous" et des "pas-Papous". Parmi les "papous" il y a des "papas papous" et des "papous pas papa". Mais il y a aussi des "papas pas papous" et des "pas papous pas papas" De plus, il y a des "papous pas papas à poux" et des "papas pas papous à poux" Mais il n'y a pas de "papas papous à poux" ni de "pas papous pas papas à poux" Sachant qu'il y a 240 000 poux (en moyenne 10 par tête)…et qu'il y a 2 fois plus de "pas papous à poux" que de "papous à poux", déterminer le nombre de "papous pas papas à poux" et en déduire le nombre de "papas pas papous à poux"

    si vous souhaitez résoudre le problème mathématique que vous avez décrit, voici comment procéder:
    1. Déterminer le nombre total de "papous à poux" et de "pas-papous à poux" en utilisant l'information sur le nombre de poux en moyenne par tête:
    • il y a 240 000 poux / 10 poux par tête = 24 000 têtes de poux
    • il y a 2 fois plus de "pas-papous à poux" que de "papous à poux", donc il y a 2*x "pas-papous à poux" et x "papous à poux" où x représente le nombre de "papous à poux"
    • il y a donc 2x + x = 3x têtes de "pas-papous à poux" et de "papous à poux" au total
    • résoudre l'équation 3*x = 24 000 pour trouver x = 8 000 "papous à poux"
    1. Déterminer le nombre de "papous pas papas à poux" en utilisant l'information sur le nombre de "papous à poux" et de "papous pas papas":
    • il y a x "papous à poux" et y "papous pas papas" où x et y représentent respectivement le nombre de "papous à poux" et de "papous pas papas"
    • il y a donc x + y = 8 000 "papous à poux" + "papous pas papas"
    • résoudre l'équation x + y = 8 000 pour trouver y = 8 000 - x = 8 000 - 8 000 = 0 "papous pas papas à poux"
    1. Déterminer le nombre de "papas pas papous à poux" en utilisant l'information sur le nombre de "papas pas papous" et de "papous pas papas à poux":
    • il y a z "papas pas papous" et y "papous pas papas à poux" où z et y représentent respectivement le nombre de "papas pas papous" et de "papous pas papas à poux"
    • il y a donc z + y = "papas pas papous à poux" + "papous pas papas à poux"
    • résoudre l'équation z + y = "papas pas papous à poux" + "papous pas papas à poux" pour trouver z = "papas pas papous à poux" + "papous pas papas à poux" - y = "papas pas papous à poux" + 0 - 0 = "papas pas
      tu n'as pas fini ta réponse

      Je suis désolé, j'ai malheureusement dû couper ma réponse précédente en raison de la longueur de celle-ci. Voici la suite de ma réponse:
    1. (suite) Déterminer le nombre de "papas pas papous à poux" en utilisant l'information sur le nombre de "papas pas papous" et de "papous pas papas à poux":
    • il y a z "papas pas papous" et y "papous pas papas à poux" où z et y représentent respectivement le nombre de "papas pas papous" et de "papous pas papas à poux"
    • il y a donc z + y = "papas pas papous à poux" + "papous pas papas à poux"
    • résoudre l'équation z + y = "papas pas papous à poux" + "papous pas papas à poux" pour trouver z = "papas pas papous à poux" + "papous pas papas à poux" - y = "papas pas papous à poux" + 0 - 0 = "papas pas papous à poux"
    Je vous suggère de vérifier votre calcul pour vous assurer qu'il est correct. Si vous avez des difficultés à résoudre ce problème mathématique ou si vous avez besoin d'aide pour comprendre comment procéder, n'hésitez pas à me poser une question et je ferai de mon mieux pour vous aider.
    Cela fini comme dans la BD:
    Images attachées Images attachées  
    Sans questions il n'y a que des problèmes sans réponses.

  27. #327
    ThM55

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Et le copyright alors, on s'en tape?

  28. #328
    Janpolanton

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Bonsoir,
    Si on reformule la question un peu différemment, on obtient une autre réponse plus concise (je n'ai pas vérifié le résultat, je me perds dans les poux et les papous)

    En Papouasie, il y a des "papous" et des "pas-Papous". Parmi les "papous" il y a des "papas papous" et des "papous pas papa". Mais il y a aussi des "papas pas papous" et des "pas papous pas papas". il y a aussi des "papous pas papas à poux" et des "papas pas papous à poux". Il n'y a pas de "papas papous à poux" ni de "pas papous pas papas à poux". Sachant qu'il y a au total 240 000 poux avec une moyenne 10 poux par tête et qu'il y a 2 fois plus de "pas papous à poux" que de "papous à poux", déterminer le nombre de "papous pas papas à poux" et en déduire le nombre de "papas pas papous à poux"

    Il y a 240 000 / 10 = <<240000/10=24000>>24000 têtes de poux en Papouasie.
    Le nombre de "papous pas papas à poux" est de 24 000 / 3 = <<24000/3=8000>>8 000.
    Le nombre de "pas papous à poux" est donc de 8 000 x 2 = <<8000*2=16000>>16 000.
    Le nombre de "papous à poux" est de 24 000 - 16 000 - 8 000 = <<24000-16000-8000=0>>0.

    Il n'y a donc pas de "papous à poux".

    Le nombre de "papas pas papous à poux" est donc de 16 000 - 8 000 = <<16000-8000=8000>>8 000.

    Il y a donc 8 000 "papas pas papous à poux" et 8 000 "papous pas papas à poux" en Papouasie.

  29. #329
    JPL
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par ThM55 Voir le message
    Et le copyright alors, on s'en tape?
    La question n’est pas simple : on a droit à de courtes citations pour motifs informatifs ou culturels si la source est indiquée. La question est de savoir si l’insertion d’une seule planche est une courte citation ou non. Je n’en sais rien.

    La solution classique largement utilisée sur de nombreux sites est de dire que si l’auteur ou l’éditeur demande le retrait celui-ci sera fait dans les meilleurs délais.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  30. #330
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Janpolanton Voir le message
    Bonsoir,
    Si on reformule la question un peu différemment, on obtient une autre réponse plus concise (je n'ai pas vérifié le résultat, je me perds dans les poux et les papous)
    ça c'est forcément faux :
    Le nombre de "papous pas papas à poux" est de 24 000 / 3 = <<24000/3=8000>>8 000.
    Le nombre de "pas papous à poux" est donc de 8 000 x 2 = <<8000*2=16000>>16 000.
    Le nombre de "papous à poux" est de 24 000 - 16 000 - 8 000 = <<24000-16000-8000=0>>0.

    Il n'y a donc pas de "papous à poux".
    puisqu'il y a selon lui 8000 "papous pas papas à poux" , il ne peut pas y avoir zéro "papous à poux" puisque les premiers sont un sous-ensemble des seconds (les "papous à poux" sont la somme des "papous papas à poux" et des "papous pas papas à poux", mais l'énoncé disant qu'il n'y a pas de papas papous à poux, les deux autres nombres sont en fait forcément égaux , "papous pas papas à poux" = "papous à poux" )
    Dernière modification par Archi3 ; 02/01/2023 à 22h35.

Page 11 sur 16 PremièrePremière 11 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 14h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 17h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 10h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 13h33