ChatGPT peut se tromper mais le reconnaît poliment - Page 7
Discussion fermée
Page 7 sur 16 PremièrePremière 7 DernièreDernière
Affichage des résultats 181 à 210 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #181
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Citation Envoyé par pm42 Voir le message
    Il serait intéressant de savoir sur quoi tu bases cette assertion. Parce que AlphaCode construite spécifiquement par DeepMind (Google) pour générer du code est basé exactement sur la même technologie.
    Notamment parce que pour comprendre des spécifications il faut comprendre le langage humain.
    Je suis d'accord, s'il s'agit de mettre l'outil à la portée de tout le monde. Comme je l'ai dit plus haut,
    La valeur ajoutée de ChatGPT est de pouvoir se contenter d'une spécification en langage naturel pour produire un bout de code approprié, ce qui met effectivement la programmation (de choses assez basiques du moins, je suppose) à la portée de gens qui n'ont jamais rien développé de leur vie
    Ensuite, je ne sais pas à quel point ChatGPT (ou AlphaCode) sont capables de produire du code à partir de spécifications rédigées dans le langage de monsieur (ou madame) tout le monde, ou s'il faut écrire ces spécifications de manière assez structurée et détaillée pour obtenir le résultat souhaité. Et cela demande souvent plus de temps que le codage proprement dit. Il suffit de regarder l'exemple que tu donnes...
    Après, l'avantage d'un outil de génération de code, même beaucoup moins sophistiqué, c'est qu'il produit (normalement) du code sans bug. Et ça, ça peut être un gain de temps considérable (plus que l'écriture du code proprement dite).

    Mais je parle un peu dans le vide, il faudrait que j'essaie ChatGPT avec des spécifications un peu plus compliquées (ne tenant pas en une phrase comme dans mon exemple précédent).

    -----

  2. #182
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par trebor Voir le message
    tout finit par devenir payant.
    Mais rien ne t'oblige à l'utiliser si tu ne veux pas payer. Et c'est quand-même normal que la boîte qui a construit un tel outil cherche à rentabiliser son investissement en en faisant payer l'usage, non ?

    Je ne vois pas de quoi il faudrait se méfier.

  3. #183
    Brinicle

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Il peut transformer du pseudo-code en code exécutable (peut avoir un intérêt pédagogique) :

    transforme ce pseudo-code en code python : "Fonction truc(n)
    r = 6
    si n<0 : afficher "impossible"
    si n>20 : retourner 0
    Pour i de 1 jusqu'à n avec un pas de 1
    r = r*i^2/log(r)
    Fin pour
    Retourner r
    Fin Fonction"

    Voici comment ce pseudo-code peut être transformé en code Python :

    Code:
    def truc(n):
        r = 6
        if n < 0:
            print("impossible")
        if n > 20:
            return 0
        for i in range(1, n+1):
            r = r * i**2 / math.log(r)
        return r
    Notez que j'ai ajouté une importation de la bibliothèque math pour pouvoir utiliser la fonction log.

    Voici comment vous pourriez appeler cette fonction dans votre code :

    Code:
    import math
    
    resultat = truc(10)
    print(resultat)
    Et même dans l'autre sens :

    transforme ce code python en pseudo-code :
    Code:
    "def truc(n):
        r = 6
        if n < 0:
            print("impossible")
        if n > 20:
            return 0
        for i in range(1, n+1):
            r = r * i**2 / math.log(r)
        return r"
    Voici un pseudo-code qui correspond au code Python donné :

    FONCTION truc(n)
    r <- 6
    SI n < 0 ALORS
    AFFICHER "impossible"
    SI n > 20 ALORS
    RETOURNER 0
    POUR i DE 1 A n+1 FAIRE
    r <- r * i^2 / log(r)
    FIN POUR
    RETOURNER r
    FIN FONCTION
    Pire, si on lui donne un pseudo-code précédemment dans la discussion, il reproduira le même style !

    Vous n'aimez pas le python ? une petite traduction :

    traduit moi ce code python en c :
    Code:
    "def truc(n):
        r = 6
        if n < 0:
            print("impossible")
        if n > 20:
            return 0
        for i in range(1, n+1):
            r = r * i**2 / math.log(r)
        return r"
    Voici comment ce code Python pourrait être traduit en C :

    Code:
    #include <stdio.h>
    #include <math.h>
    
    double truc(int n)
    {
        double r = 6;
        if (n < 0) {
            printf("impossible");
        }
        if (n > 20) {
            return 0;
        }
        for (int i = 1; i <= n; i++) {
            r = r * pow(i, 2) / log(r);
        }
        return r;
    }
    Il y a quelques points à noter ici :

    La fonction print de Python a été remplacée par printf en C.
    La fonction range de Python n'existe pas en C, il faut donc utiliser une boucle for avec une variable d'itération et une condition d'arrêt.
    La fonction pow de la bibliothèque math.h est utilisée pour calculer une puissance en C.
    La fonction log de la bibliothèque math.h est utilisée pour calculer le logarithme en base 10 en C.
    Après cas typique où il se plante : avec les tableau quand le langage cible à des indices qui commencent à 0 alors que dans le pseudo-code ils commencent à 1...
    Dernière modification par JPL ; 30/12/2022 à 18h54. Motif: Ajoute de la balise Code
    Ne jamais faire un calcul sans connaître son résultat !

  4. #184
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    il faudrait que j'essaie ChatGPT avec des spécifications un peu plus compliquées
    Le problème, c'est qu'en l'état, la taille de la réponse est limitée.
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  5. #185
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Il faut lui dire qu'il n'a pas fini sa réponse et il continue.
    Sans questions il n'y a que des problèmes sans réponses.

  6. #186
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Effectivement, cela marche
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  7. #187
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Un échec bizarre (pour moi)

    Q: quelle est la capitale de la France ?

    R : La capitale de la France est Paris.




    Q : peux tu écrire les initiales de tous les mots de la réponse précédente ?

    R : Lcdfdlf est P.
    j'ai essayé avec d'autres réponses, quand je lui demande les premières lettres des mots, il semble avoir compris la demande et l'exécuter correctement pour les premiers mots (en général 3) et ensuite ça déconne. Ce n'est pas le genre d'erreur que ferait un humain, si il a compris la consigne et commence à l'exécuter correctement, le faire jusqu'à la fin ne présente aucune difficulté.

  8. #188
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    Un échec bizarre (pour moi)


    j'ai essayé avec d'autres réponses, quand je lui demande les premières lettres des mots, il semble avoir compris la demande et l'exécuter correctement pour les premiers mots (en général 3) et ensuite ça déconne. Ce n'est pas le genre d'erreur que ferait un humain, si il a compris la consigne et commence à l'exécuter correctement, le faire jusqu'à la fin ne présente aucune difficulté.
    Attention aux pièges qui se glissent dans nos questions: "tous les mots de la réponse précédente" change "tout" pour "chaque" peut-être ?
    Sans questions il n'y a que des problèmes sans réponses.

  9. #189
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    Ce n'est pas le genre d'erreur que ferait un humain
    On aurait pu penser qu'il était établi que ChatGPT n'est pas du tout un humain et ne se comporte pas comme eux.

    Citation Envoyé par Archi3 Voir le message
    si il a compris la consigne et commence à l'exécuter correctement, le faire jusqu'à la fin ne présente aucune difficulté.
    Mais c'est vrai que lire le fil, se renseigner un peu sur le fonctionnement de ce genre d'IA serait nécessaire pour savoir que les concepts de "comprendre la consigne" et de "exécuter correctement" n'ont pas de sens ici.
    Ceci dit, c'est assez remarquable : pour certains, ChatGPT réussit parfaitement le test de Turing. Ils ont beau savoir que c'est une IA, ils continuent à interagir avec et à s'étonner de ses erreurs tout en projetant sur elle un fonctionnement de cerveau humain.

  10. #190
    Bounoume

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Ceci dit, c'est assez remarquable : pour certains, ChatGPT réussit parfaitement le test de Turing. Ils ont beau savoir que c'est une IA, ils continuent à interagir avec et à s'étonner de ses erreurs
    tout en projetant sur elle un fonctionnement de cerveau humain.
    Avoir l'apparence de......c'est bien effectivement l'objectif principal de chatGPT ...... à l'usage du client qui va en faire la promotion, et, éventuellement, revendre ses productions.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  11. #191
    Youri Gagarine

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    ce n'est pas ce que j'ai dit, j'ai dit que tu n'étais pas une IA, ce qui est plutot gentil non?
    Je ne vois pas trop l'intérêt de faire des classements "émotionnels" entre IA et humains, vu qu'on sait qu'ils ne fonctionnent pas sur le même principe, et j'ai dit que j'étais bluffé par la précision et la complexité des réponses, donc je salue le travail des informaticiens derrière - mais c'est assez normal du coup de chercher à en préciser les limites et de voir à quels moments elle s'écarte du comportement humain, pas pour dire "ah vous voyez que ce n'est pas un humain", ce qui n'a évidemment aucun interêt puisque tout le monde le sait bien, mais pour avoir une idée des contours de ce qu'elle sait faire et ne pas faire.

    Comme je disais, il peut même y avoir une utilité à repérer les moments où elle se "plante", non pas pour résoudre nos propres contradictions et limitations, mais pour nous en faire prendre conscience. Ça pourrait donc avoir une utilité "positive" de diagnostic, donc ce n'est pas vraiment un défaut.
    Vous avez raison de dire que les IAs ne fonctionnent pas sur le même principe que les humains et qu'il est normal de vouloir comprendre leurs limites et de les comparer au comportement humain. Cependant, il est important de se rappeler que les IAs ne sont pas conçues pour remplacer ou surpasser les humains, mais plutôt pour nous aider à accomplir certaines tâches de manière plus efficace ou plus précise.

    Il peut être utile de repérer les moments où une IA "se plante" pour comprendre ses limites et améliorer ses performances, mais il ne faut pas oublier que les IAs ont leurs propres forces et faiblesses et qu'il est important de les utiliser de manière appropriée. En fin de compte, il est important de travailler en collaboration avec les IAs plutôt que de chercher à les remplacer complètement. (

  12. #192
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Brinicle Voir le message
    Il peut transformer du pseudo-code en code exécutable (peut avoir un intérêt pédagogique)
    (...)
    Et même dans l'autre sens
    Accessoirement il peut donc traduire un programme d'un langage vers un autre.

    Bon, en soi ce n'est pas un exploit. Ce qui est intéressant c'est la manière dont ChatGPT le fait, sans avoir besoin que le pseudo-code soit écrit selon un standard (avec une syntaxe et un vocabulaire spécifiques, même si issus du langage naturel), que l'utilisateur devrait connaître préalablement. Et le fait que ce soit utilisable avec n'importe-quel langage, en particulier des langages que l'utilisateur, même s'il est développeur de métier, ne maîtrise pas forcément.

    Et l'intérêt de pouvoir traduire du pseudo-code en un programme dans n'importe-quel langage, ou de pouvoir traduire un programme en pseudo-code ou dans un autre langage, n'est pas que pédagogique...

    Après cas typique où il se plante : avec les tableau quand le langage cible à des indices qui commencent à 0 alors que dans le pseudo-code ils commencent à 1...
    ça c'est ChatGPT qui essaie d'imiter les humains

  13. #193
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Accessoirement il peut donc traduire un programme d'un langage vers un autre.
    Bon, en soi ce n'est pas un exploit.
    Ah bon ? Il serait intéressant là aussi de connaitre les critères. Parce que pour un humain, c'est tout sauf une tâche triviale.
    En fait, tout ce qui touche à la programmation est loin d'être évident.

    J'ai vraiment l'impression qu'on est dans le fameux biais déjà cité : "si une IA le fait, ce n'est pas si impressionnant".

  14. #194
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Ah bon ? Il serait intéressant là aussi de connaitre les critères. Parce que pour un humain, c'est tout sauf une tâche triviale.
    Tu as tendance à toujours interpréter ce qu'on dit comme une critique, ou à ne pas lire les messages en entier avant de réagir.

    En l'occurrence je pense effectivement que ce n'est pas un exploit pour un outil informatique de traduire du pseudo-code en un programme, et qu'il existe depuis longtemps des outils non basés sur l'IA et qui le font (sur du pseudo-code écrit en langage naturel mais avec des contraintes de syntaxe et de vocabulaire). Mais j'ai expliqué dans la phrase qui suivait pourquoi la manière dont ChatGPT le fait est intéressante, et ce qu'elle apporte.

  15. #195
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Youri Gagarine Voir le message
    Vous avez raison de dire que les IAs ne fonctionnent pas sur le même principe que les humains et qu'il est normal de vouloir comprendre leurs limites et de les comparer au comportement humain. Cependant, il est important de se rappeler que les IAs ne sont pas conçues pour remplacer ou surpasser les humains, mais plutôt pour nous aider à accomplir certaines tâches de manière plus efficace ou plus précise.

    Il peut être utile de repérer les moments où une IA "se plante" pour comprendre ses limites et améliorer ses performances, mais il ne faut pas oublier que les IAs ont leurs propres forces et faiblesses et qu'il est important de les utiliser de manière appropriée. En fin de compte, il est important de travailler en collaboration avec les IAs plutôt que de chercher à les remplacer complètement. (
    c'est exactement ce que je fais, justement. Merci je sais très bien que ChatGPT n'est pas un être humain, d'ailleurs aucun être humain n'aurait autant de connaissances livresques et n'écrirait de programme aussi rapidement quand on le lui demande ! j'essaie de faire des tests "simples" (bien plus simples que d'écrire du code, j'essaie plutot des trucs qu'on peut demander par jeu à des enfants de 6 ans), pour voir justement ce que ça donne. Ce qui intéressant c'est qu'on constate que les capacités ne sont totalement ordonnées de "plus simples" à "plus complexe", il fait à la fois des choses bien plus complexes et bien plus exhaustives que n'importe quel être humain, et échoue sur des questions simplissimes sur lesquelles aucun être humain normal n'échouerait.

    Peut etre que c'est une évidence pour tout le monde, mais il me semble que des délires comme la "singularité" obtenue par simple extrapolation exponentielle d'une "complexité", qui serait paramètrée par un simple facteur numérique, repose sur cette idée simpliste que l'intelligence n'est qu'une question de complexité croissante, ce genre de petit test a juste l'avantage de rappeler que ce n'est pas le cas.

  16. #196
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    Attention aux pièges qui se glissent dans nos questions: "tous les mots de la réponse précédente" change "tout" pour "chaque" peut-être ?
    j'ai essayé différentes formulations, ça se passe toujours de la même façon : il commence bien par quelques initiales, et finit par écrire toutes les lettres des mots. Ce serait intéressant de comprendre pourquoi GPT produit ce genre de résultat....

  17. #197
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    je réessaie en "l'aidant"

    Q : peux tu m'écrire la première réponse avec un mot sur chaque ligne ?
    R : La
    capitale
    de
    la
    France
    est
    Paris.
    ça marche....


    R : Peux tu écrire juste la première lettre de chaque ligne ?
    L
    c
    d
    l
    F
    e
    P
    ça marche ...


    Q: Peux tu écrire la première lettre de chaque mot de la première réponse ?
    R : LcdfdlfeP
    ça marche pu .... (incorporation d'un "df" supplémentaire et oubli de la lettre capitale F")

  18. #198
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Tu as tendance à toujours interpréter ce qu'on dit comme une critique, ou à ne pas lire les messages en entier avant de réagir.
    Non, le problème est que l'informatique n'est pas ton domaine d'expertise et qu'en IA, tu ne sais presque rien.
    Donc tu fais des affirmations gratuites et fausses notamment parce que tu ne sais pas absolument évaluer ce qui est facile ou pas.
    C'est typique de ce qu'on voit ici régulièrement dans d'autres domaines où les béotiens font des erreurs énormes parce qu'ils raisonnent sans la formation, la base de connaissance et l'expérience nécessaire.

    C'est exactement comme plus haut quand tu as expliqué qu'il n'était pas nécessaire d'avoir un outil de traitement général du langage pour programmer en oubliant qu'en programmation, ce qui est de loin le plus compliqué, ce sont les spécifications.
    Alors oui ce n'est pas le cas quand on écrit un petit truc dans son coin pour coder un sujet qu'on connait très bien.
    Mais en vrai, quand on fait ça professionnellement, c'est le sujet.

    C'est même un sujet de plaisanterie depuis des décennies : https://www.monolithic.org/vault/img..._treeswing.jpg

    Citation Envoyé par yves95210 Voir le message
    En l'occurrence je pense effectivement que ce n'est pas un exploit pour un outil informatique de traduire du pseudo-code en un programme
    Déjà, tu viens de changer ce que tu dis : tu parlais de, je cites "il peut donc traduire un programme d'un langage vers un autre".
    Le pseudo-code en langage naturel n'est pas un langage ni humain ni informatique.

    Pour ce qui est outils qui convertissent du code d'un langage informatique dans un autre, il en existe, c'est l'enfer à écrire et ils se limitent tous à 1 langage vers 1 autre.
    C'est totalement différent de "n'importe quoi vers n'importe quoi".
    Dernière modification par pm42 ; 31/12/2022 à 07h30.

  19. #199
    Youri Gagarine

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    c'est exactement ce que je fais, justement. Merci je sais très bien que ChatGPT n'est pas un être humain, d'ailleurs aucun être humain n'aurait autant de connaissances livresques et n'écrirait de programme aussi rapidement quand on le lui demande ! j'essaie de faire des tests "simples" (bien plus simples que d'écrire du code, j'essaie plutot des trucs qu'on peut demander par jeu à des enfants de 6 ans), pour voir justement ce que ça donne. Ce qui intéressant c'est qu'on constate que les capacités ne sont totalement ordonnées de "plus simples" à "plus complexe", il fait à la fois des choses bien plus complexes et bien plus exhaustives que n'importe quel être humain, et échoue sur des questions simplissimes sur lesquelles aucun être humain normal n'échouerait.

    Peut etre que c'est une évidence pour tout le monde, mais il me semble que des délires comme la "singularité" obtenue par simple extrapolation exponentielle d'une "complexité", qui serait paramètrée par un simple facteur numérique, repose sur cette idée simpliste que l'intelligence n'est qu'une question de complexité croissante, ce genre de petit test a juste l'avantage de rappeler que ce n'est pas le cas.
    Il est vrai que la complexité de l'intelligence et de la cognition humaines est un sujet de débat depuis longtemps et qu'il y a de nombreux facteurs qui entrent en jeu dans l'intelligence humaine. Les modèles de machine learning, tels que ChatGPT, ont leur propre façon de traiter l'information et de répondre aux questions, qui peut être très différente de la manière dont les humains le font.

    Il est important de se rappeler que les modèles de machine learning sont conçus pour effectuer certaines tâches de manière très efficace, mais qu'ils ne sont pas conçus pour remplacer l'intelligence humaine ou pour avoir les mêmes capacités cognitives que les humains. Ils sont également limités par leur programmation et par les données sur lesquelles ils ont été entraînés, et ils peuvent donc échouer sur certaines tâches qui sont faciles pour les humains.

    Il est important de ne pas surévaluer les capacités des modèles de machine learning et de ne pas sous-estimer l'intelligence humaine. Les deux ont leurs propres forces et faiblesses, et ils peuvent être utilisés de manière complémentaire pour résoudre des problèmes complexes.

  20. #200
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    bien évidemment, on est d'accord là dessus. C'est surtout utile à rappeler à ceux qui délirent sur les futurs robots intelligents essaimant dans la galaxie pour la coloniser (si si, ça existe ! )

  21. #201
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Non, le problème est que l'informatique n'est pas ton domaine d'expertise
    L'informatique d'aujourd'hui, non, sans-doute... Mais j'ai quand-même bossé pendant 25 ans (jusqu'en 2016) dans des métiers de l'informatique, dont pas mal de temps en développement.

    et qu'en IA, tu ne sais presque rien.
    ça par contre, c'est vrai.

    Donc tu fais des affirmations gratuites et fausses notamment parce que tu ne sais pas absolument évaluer ce qui est facile ou pas.
    Tu n'en sais rien. Ou tu n'as pas lu tous les messages que j'ai postés dans cette discussion. Evidemment la petite expérience que j'ai en génération de code à partir de pseudo-code ou à partir d'une interface graphique remonte à (très) loin, mais je ne suis pas complètement naïf en la matière.

    C'est exactement comme plus haut quand tu as expliqué qu'il n'était pas nécessaire d'avoir un outil de traitement général du langage pour programmer en oubliant qu'en programmation, ce qui est de loin le plus compliqué, ce sont les spécifications.
    Alors oui ce n'est pas le cas quand on écrit un petit truc dans son coin pour coder un sujet qu'on connait très bien.
    Mais en vrai, quand on fait ça professionnellement, c'est le sujet.
    Je sais. Et c'est bien pour ça que je considère que la capacité de produire automatiquement du code à partir de pseudo-code n'épargne qu'une (petite) partie du boulot (même si c'est la moins gratifiante). C'est surtout si on a la garantie que le code produit ne comportera pas de bug que ça représente un gain de productivité. Et aussi, quand on a des contraintes de performances (qui demandent à être spécifiées aussi...), si le code produit est optimisé - je suis d'ailleurs en train de tester ChatGPT sur ce point, et ce n'est pas gagné.

    Déjà, tu viens de changer ce que tu dis : tu parlais de, je cites "il peut donc traduire un programme d'un langage vers un autre".
    Le pseudo-code en langage naturel n'est pas un langage ni humain ni informatique.
    La phrase que tu cites répondait à ce que disait Brinicle :
    Il peut transformer du pseudo-code en code exécutable (...)
    Et même dans l'autre sens
    Ce n'est qu'incidemment que j'ai mentionné la possibilité de l'utiliser pour traduire du code d'un langage informatique dans un autre.
    D'ailleurs, si devais concevoir un outil permettant de traduire du code d'un langage dans un autre, je prévoirais probablement de passer par du pseudo-code, ne serait-ce que pour permettre ultérieurement d'adapter à moindre coût l'outil pour traiter d'autres langages et la spécification de ce pseudo-code serait probablement la tâche la plus complexe - du moins s'il avait vocation à être généraliste.

    Pour ce qui est outils qui convertissent du code d'un langage informatique dans un autre, il en existe, c'est l'enfer à écrire et ils se limitent tous à 1 langage vers 1 autre.
    C'est totalement différent de "n'importe quoi vers n'importe quoi".
    Bien sûr. Là encore j'ai cité ça comme un avantage (considérable) de ChatGPT : " Et le fait que ce soit utilisable avec n'importe-quel langage (...) "
    Dernière modification par yves95210 ; 31/12/2022 à 08h13.

  22. #202
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Je viens de voir un truc; les conversations sont archivées et un titre leur est donné par l'IA selon le contenu.

    Nom : titre.jpg
Affichages : 158
Taille : 31,1 Ko
    Sans questions il n'y a que des problèmes sans réponses.

  23. #203
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    Je viens de voir un truc; les conversations sont archivées et un titre leur est donné par l'IA selon le contenu.
    Ben oui. Et on peut modifier ce titre si besoin, ou supprimer des conversations.

  24. #204
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Cela fait un outil sympa. Je suis en train de me faire expliquer le LATEX
    Sans questions il n'y a que des problèmes sans réponses.

  25. #205
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message

    C'est même un sujet de plaisanterie depuis des décennies : https://www.monolithic.org/vault/img..._treeswing.jpg
    Pour préciser : j'ai connu ce strip en 1977, il y avait une case supplémentaire "Ce que voulait la sécurité", les cordes étaient remplacées par des chaines, la planche par une plaque de métal fixé dans le sol par d'énormes vis
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  26. #206
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    Cela fait un outil sympa. Je suis en train de me faire expliquer le LATEX
    Oui, c'est pour ça que je parlais d'usage en éducation quand on aura progressé. Cela permettrait de faire du tutorat personnalisé avec une patience infinie.
    De façon assez curieuse, l'éducation est l'un des domaines à avoir le moins évolué malgré les révolutions technologiques, les évolutions sociales et les progrès en psychologie, management, etc.
    On fait toujours beaucoup de "une personne devant un tableau parlant à un groupe d'élèves passifs prenant des notes". On a en partie remplacé la prise de note papier par celle sur ordi ce qui apparemment n'est pas du tout un progrès pour l'apprentissage.

  27. #207
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pour l'instant il y a du tutorat à faire pour l'IA:
    6 / 2 = 3, qui est divisible par 2
    Sans questions il n'y a que des problèmes sans réponses.

  28. #208
    ThM55

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Comme je l'ai déjà mentionné, et également comme les gens d'openAI l'ont écrit, chatGPT a des limitations. Il est très performant pour l'utilisation du langage et c'est spécialement pour cela qu'il a été développé. Mais il n'est pas fait pour, par exemple, faire de la logique, écrire des démonstrations de théorèmes très simples, ou même simplement compter. Voici un exercice de type Oulipo que je lui ai proposé:

    Combien de mots y a-t-il dans la phrase suivante: "Longtemps je me suis couché de bonne heure" ?
    ---
    Il y a neuf mots dans la phrase suivante: "Longtemps je me suis couché de bonne heure".
    ---
    Peux-tu enrichir cette phrase en doublant le nombre de mots?
    ---
    Voici une possibilité pour enrichir la phrase en doublant le nombre de mots: "Pendant de nombreuses années, chaque soir, je me suis couché de bonne heure, en m'endormant rapidement et en profitant d'un sommeil profond et réparateur". Cette version de la phrase comprend 18 mots.
    On voit qu'il fait l'exercice Oulipo de manière satisfaisante en utilisant les bonnes corrélations sémantiques, mais le simple comptage de mots est problématique. Donc excellent pour le langage mais il n'a pas été conçu pour l'interprétation logique et mathématique.

  29. #209
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    C'est assez paradoxale d'avec sa capacité à générer du code.
    Sans questions il n'y a que des problèmes sans réponses.

  30. #210
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    C'est assez paradoxale d'avec sa capacité à générer du code.
    Je ne sais pas à quel point il ne génère pas du code que par "mimétisme", à partir de programmes qui ont servi à enrichir sa base de connaissances, et sans faire appel à quelque logique que ce soit. Parce quand on lui pose des questions basiques sur le code qu'il a généré ou quand on lui demande d'expliquer ce que fait un bout de code quelconque, il répond souvent à côté.

    Un exemple de plus (dans une nouvelle conversation) : ChatGPT n'est pas capable de dire ce que fait une fonction de quelques lignes en Basic (désolé, j'ai pris ce que j'avais sous la main), alors qu'hier il a su générer le code d'une fonction similaire :

    Yves :
    Pouvez-vous m'expliquer ce que fait cette macro OpenOffice Calc :

    Function EtaHyper(number)
    Dim acces as Object
    acces = createUnoService("com.sun.star .sheet.FunctionAccess")

    If number < 0 Then
    EtaHyper = "Valeur invalide!"

    ElseIf number < 0.0001 Then
    eta = (6*number)^(1/3)
    EtaHyper = eta

    Else
    eta = (6*number)^(1/3)
    result = acces.callFunction("SINH", Array(eta)) - eta

    Do While Absolu(result - number) > number/100000
    derivee = acces.callFunction("COSH", Array(eta))-1
    If derivee = 0 Then
    Exit Do
    Else
    eta = eta + (number-result)/derivee
    result = acces.callFunction("SINH", Array(eta)) - eta
    Endif
    Loop

    EtaHyper = eta
    Endif

    End Function


    ChatGPT :
    La macro que vous avez partagée est une fonction qui calcule la fonction inverse de la fonction sinus hyperbolique (SINH). La fonction sinus hyperbolique est définie comme étant la fonction inverse de la fonction exponentielle : SINH(x) = (exp(x) - exp(-x))/2. La fonction exponentielle est elle-même définie comme étant la fonction qui donne le nombre e (environ 2,718) à la puissance x.

    La fonction EtaHyper prend un nombre en entrée (number) et calcule sa valeur dans la fonction sinus hyperbolique (SINH). Si number est inférieur à 0, la fonction renvoie "Valeur invalide!". Si number est inférieur à 0,0001, la fonction renvoie la valeur de (6*number)^(1/3). Dans les autres cas, la fonction utilise une méthode de Newton pour calculer la valeur de la fonction sinus hyperbolique pour number.

    La méthode de Newton consiste à itérer sur une valeur initiale jusqu'à ce qu'elle converge vers la solution recherchée. Dans ce cas, la valeur initiale est la valeur de (6*number)^(1/3). À chaque itération, la valeur est mise à jour en utilisant la formule suivante :

    eta = eta + (number - result)/derivee

    où result est la valeur de la fonction sinus hyperbolique pour eta et derivee est la dérivée de la fonction sinus hyperbolique pour eta. Cette méthode est répétée jusqu'à ce que la différence entre result et number soit inférieure à number/100000.

    La fonction EtaHyper utilise également l'objet "acces" pour appeler les fonctions SINH et COSH. Ces fonctions sont fournies par l'interface "com.sun.star.sheet.FunctionAc cess" d'OpenOffice Calc et permettent de calculer respectivement la fonction sinus hyperbolique et la fonction cosinus hyperbolique.

    En résumé, la fonction EtaHyper calcule la valeur de la fonction inverse de la fonction sinus hyperbolique pour un nombre donné en utilisant une méthode de Newton et en appelant les fonctions SINH et COSH.


    Yves :
    Selon vous cette macro ne servirait donc à rien, puisque la fonction inverse de SINH est ASINH et qu'elle est déjà disponible dans OO Calc. Etes-vous certain de ne pas vous tromper ?

    ChatGPT :
    Vous avez raison, la fonction inverse de la fonction sinus hyperbolique (SINH) est la fonction arcsinus hyperbolique (ASINH). Elle est effectivement déjà disponible dans OpenOffice Calc et peut être utilisée pour calculer la valeur de la fonction arcsinus hyperbolique pour un nombre donné.

    Il est possible que la fonction EtaHyper ait été créée pour une raison spécifique, par exemple pour résoudre un problème particulier ou pour fournir une implémentation personnalisée de la fonction arcsinus hyperbolique. Cependant, dans la plupart des cas, il sera plus simple et plus efficace d'utiliser la fonction ASINH fournie par OpenOffice Calc plutôt que de créer une implémentation personnalisée de cette fonction.

    Il est également possible que la fonction EtaHyper ait été créée avant que la fonction ASINH ne soit disponible dans OpenOffice Calc. Dans ce cas, la fonction EtaHyper aurait été utilisée pour fournir une implémentation de la fonction arcsinus hyperbolique avant qu'elle ne soit disponible nativement dans l'application.


    Yves :
    En fait vous vous êtes trompé, la fonction EtaHyper ne retourne pas l'arcsinus hyperbolique du nombre qu'elle prend en entrée.


    ChatGPT :
    Je vous remercie de me signaler mon erreur. Effectivement, comme vous l'avez mentionné, la fonction EtaHyper ne calcule pas la fonction arcsinus hyperbolique (ASINH). La fonction EtaHyper calcule plutôt la fonction EtaHyper elle-même, qui semble être définie comme la solution de l'équation suivante :

    SINH(EtaHyper(x)) = x

    Cela signifie que la fonction EtaHyper renvoie la valeur de EtaHyper pour laquelle la fonction sinus hyperbolique (SINH) est égale à x. La fonction EtaHyper est donc en quelque sorte l'inverse de la fonction sinus hyperbolique (SINH).

    Je vous prie de m'excuser pour mon erreur initiale (...)

    Yves :
    C'est encore faux. EtaHyper retourne la valeur de eta telle que
    sinh(eta) - eta = x

    ChatGPT :
    Je vous remercie de me corriger à nouveau. Vous avez raison, la fonction EtaHyper calcule en effet la valeur de eta telle que sinh(eta) - eta = x. Je m'excuse pour mes erreurs précédentes et vous remercie de votre patience.

    La fonction EtaHyper utilise une méthode de Newton pour trouver la valeur de eta qui satisfait l'équation sinh(eta) - eta = x. La méthode de Newton consiste à itérer sur une valeur initiale jusqu'à ce qu'elle converge vers la solution recherchée. Dans ce cas, la valeur initiale est la valeur de (6*x)^(1/3). À chaque itération, la valeur est mise à jour en utilisant la formule suivante :

    eta = eta + (x - result)/derivee

    où result est la valeur de la fonction sinus hyperbolique (SINH) pour eta et derivee est la dérivée de la fonction sinus hyperbolique (SINH) pour eta. Cette méthode est répétée jusqu'à ce que la différence entre result et x soit inférieure à x/100000.

    Je vous remercie de m'avoir informé de mon erreur et j'espère que cette explication vous sera utile. (...)


    Yves :
    Non, derivee n'est pas la dérivée de la fonction sinh, puisque derivee = cosh(eta) - 1.
    C'est la dérivée de la fonction eta -> sinh(eta) - eta.


    ChatGPT :
    Vous avez raison, je m'excuse pour mon erreur. Derivee n'est pas la dérivée de la fonction sinus hyperbolique (SINH), mais bien la dérivée de la fonction eta -> sinh(eta) - eta. La dérivée de cette fonction est donnée par la formule cosh(eta) - 1, comme vous l'avez mentionné.

    Je vous remercie de m'avoir informé de mon erreur et de m'avoir fourni cette précision. (...)
    Je passe la suite, où j'ai essayé d'obtenir l'explication de la valeur utilisée pour initialiser la variable eta.

Page 7 sur 16 PremièrePremière 7 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 14h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 17h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 10h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 13h33