ChatGPT peut se tromper mais le reconnaît poliment - Page 4
Discussion fermée
Page 4 sur 16 PremièrePremière 4 DernièreDernière
Affichage des résultats 91 à 120 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #91
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Citation Envoyé par pm42 Voir le message
    En fait, il a fait de la proximité de texte et quand tu lui as donné "Camus" comme information supplémentaire, cela lui a suffit.
    C'est ce que j'imaginais. Mais l'information supplémentaire "Camus" ne lui a pas suffi pour identifier l'œuvre dont le texte était extrait (ce que je ne lui avait d'ailleurs pas demandé initialement).


    Normal : il n'est pas optimisé pour ça mais là aussi, le fait qu'il donne un bon résultat est significatif sur le traitement du langage.
    C'est bien ce que je voulais voir.

    J'ai fait ensuite la même expérience en lui demandant de traduire le texte en espagnol, puis en allemand (les autres langues que je suis à peu près capable de lire), avec un résultat aussi bon (confirmé par une retraduction en français par DeepL assez fidèle à l'original).

    En chinois, c'est nettement plus lent et le résultat (retraduit en français par DeepL car évidemment je ne suis pas capable de le lire) est loin d'être satisfaisant. Je ne sais pas dans quelle mesure ça vient de la traduction par ChatGPT plutôt que de la retraduction par DeepL. Je soupçonnais ChatGPT mais après avoir retraduit le texte en français à l'aide du traducteur Google et obtenu un meilleur résultat, je pense que les torts sont partagés mais qu'il y a au moins un contresens qui vient de ChatGPT puisque je l'ai retrouvé dans les deux retraductions en français (le mot "homme" à la place du mot "silhouette", qui plus est quand la phrase suivante précise qu'il s'agit d'une femme).

    -----
    Dernière modification par yves95210 ; 27/12/2022 à 11h09.

  2. #92
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Tu fais la même erreur encore et encore comme plus haut quand tu as parlé d'algorithme : on ne programme pas les IAs, on les entraine et cela n'a rien à voir. Je ne sais pas combien de fois j'ai du dire ça et c'est dans tous les textes sérieux sur le sujet.
    je sais bien qu'on ne les programme pas explicitement, mais dans la phrase d'entrainement on valide quand même bien la sortie pour l'orienter sur ce qu'il dit, je ne vois pas comment sinon il "apprendrait", par exemple là il s'excuse abondamment chaque fois qu'on lui dit qu'il a fait une erreur (même quand ce n'est pas vrai !), il a bien été entrainé pour ça, sinon il n'aurait pas pu trouver ces phrases d'excuse, c'est ce que je voulais dire par "programmer". Ou par exemple on lui a "interdit" de répondre à des questions "inappropriées".

    Il y a certainement une différence de validité d'attribution quand la phrase citée "matche" exactement une phrase connue (ou une occurrence rare, par exemple une phrase contenant le capitaine Fracasse a beaucoup de chances d'être tirée du livre du même nom) ou quand c'est juste une proximité de style, ça ne me parait pas a priori excessivement difficile de lui "apprendre" à exprimer une incertitude quand c'est le cas ?

  3. #93
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    C'est quand même embêtant d'utiliser un outil de renseignement peu fiable.
    Vu que c'est précisé dès qu'on s'inscrit, ce n'est plus embêtant que de lire en boucle un humain incapable de prendre en compte les informations factuelles qu'on lui donne, qui passe son temps à dire "c'est pas 100% fiable" alors qu'on l'a prévenu et qui continue à parler de "programmer" parce que là aussi, il ignore ce qu'on lui a déjà dit je ne sais combien de fois.

    Toutes les limites reprochées à ChatGPT ici sont aussi celles qu'on voit tous les jours sur les humains.
    Et encore, lui est plus varié et reconnait quand il s'est trompé au lieu de boucler.

  4. #94
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    encore une fois il ne s'agit pas de lui donner une note comme à un élève, ma question était juste de savoir si un outil comme ça pouvait finir par avoir une véritable utilité pratique et devenir une sorte de standard utilisé couramment par la population, comme l'est devenu Wikipedia quand on cherche un renseignement, Facebook pour échanger des informations sur sa vie, ou Amazon quand on commande en ligne. Personnellement je ne me suis branché sur des site de chats que pour tester leurs capacités, par curiosité, mais je ne les ai jamais utilisés pour un vrai besoin. Mais n'étant pas vraiment un geek (j'ai pas non plus de compte Insta ou twitter), je ne suis pas une référence en la matière, donc je me posais la question de savoir si ça serait vraiment utile à quelqu'un autrement que pour l'étudier en tant qu'objet pour savoir ses performances

  5. #95
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Quand on est scientifique et que quelque chose de nouveau apparait, qui permet ce qui était impossible avant et qui est encore un travail de recherche donc imparfait, on trouve cela très bien.
    Dire "oui mais est ce que ça sert à quelque chose de concret là maintenant tout de suite comme de trouver la règle d'un jeu de société" est ironique quelque part. Et pas du tout scientifique.

    Et j'arrête là sur le sujet parce qu'on se retrouve dans ce que je disais : boucles sans fin sur le thème de "je ne veux pas apprendre, juste critiquer sans savoir".

  6. #96
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    En chinois, c'est nettement plus lent et le résultat (retraduit en français par DeepL car évidemment je ne suis pas capable de le lire) est loin d'être satisfaisant. Je ne sais pas dans quelle mesure ça vient de la traduction par ChatGPT plutôt que de la retraduction par DeepL. Je soupçonnais ChatGPT mais après avoir retraduit le texte en français à l'aide du traducteur Google et obtenu un meilleur résultat, je pense que les torts sont partagés mais qu'il y a au moins un contresens qui vient de ChatGPT puisque je l'ai retrouvé dans les deux retraductions en français (le mot "homme" à la place du mot "silhouette", qui plus est quand la phrase suivante précise qu'il s'agit d'une femme).
    En fait dans le texte original le mot était "forme" et non "silhouette", donc encore plus éloigné du sens supposé du mot chinois que les deux traducteurs ont interprété comme "homme". J'ai signalé à ChatGPT son erreur, il s'est excusé et m'a spontanément fourni une traduction "corrigée", rigoureusement identique à la première pour autant que je puisse en juger (par comparaison visuelle), et que les deux traducteurs ont retraduit en français avec la même erreur...

  7. #97
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Quand on est scientifique et que quelque chose de nouveau apparait, qui permet ce qui était impossible avant et qui est encore un travail de recherche donc imparfait, on trouve cela très bien.
    Dire "oui mais est ce que ça sert à quelque chose de concret là maintenant tout de suite comme de trouver la règle d'un jeu de société" est ironique quelque part. Et pas du tout scientifique.

    Et j'arrête là sur le sujet parce qu'on se retrouve dans ce que je disais : boucles sans fin sur le thème de "je ne veux pas apprendre, juste critiquer sans savoir".
    ça n'a rien à voir avec la question que je posais, il y a aussi des défauts dans Wikipédia, Amazon, ou twitter, ça n'empêche pas de s'en servir. Ma question était purement factuelle. Par exemple dans les moteurs de recherche, google a fini par s'imposer car il donnait des résultats meilleurs que les autres, ça ne veut pas dire qu'il est parfait et sans défaut, ce n'est pas la question.

    Ma question était juste de savoir si cet outil "conversationnel" allait s'imposer dans l'usage grâce à une supériorité manifeste sur un autre mode d'interaction, ou pas. Je n'ai pas d'avis prédéfini sur la question, je me la pose simplement.

  8. #98
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    La traduction dans des langues sans racine commune est largement plus compliquée vu que les approches par proximité dans des corpus de texte ont moins de chance de fonctionner vu que les concepts représentés sont différents, la grammaire n'a rien à voir, etc.

    On peut noter que la traduction reste un vaste sujet et il y a dans un "Un petit monde" de David Lodge quelques exemples comme ça d'un écrivain qui correspond avec son traducteur lequel a du mal avec les ambiguités inhérentes au langage humain.
    Notamment, le personnage principal dit : "Bugger me, but I feel like some faggots tonight." et le traducteur ne comprend pas du tout pourquoi il se met à dire à sa femme qu'il a envie d'une relation homosexuelle.
    Sauf que "faggots" est aussi un genre de boulette de viande mais le mot est rarement utilisé.

    Ce genre de chose peut facilement tromper les humains et donc encore plus les machines.

  9. #99
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    La traduction dans des langues sans racine commune est largement plus compliquée vu que les approches par proximité dans des corpus de texte ont moins de chance de fonctionner vu que les concepts représentés sont différents, la grammaire n'a rien à voir, etc.
    Je m'en doute.

    J'ai sorti la phrase contenant le mot "forme" de son contexte (dans lequel ChatGPT avait correctement interprété qu'il s'agissait d'une forme humaine, et l'avait traduit en chinois par un terme peut-être ambigu que DeepL et Google ont tous deux traduits par "homme"). Et pour être sûr que ChatGPT ne réutilise pas la traduction précédente, j'ai ouvert une nouvelle conversation.

    Du coup, "forme" semble traduit correctement, mais le reste de la phrase (après retraduction) ne l'est pas... L'original était :
    "Sur le pont, je passai derrière une forme penchée sur le parapet."
    Après traduction en chinois par ChatGPT ( 在桥上,我跑过一个弯腰在栏杆上的形状 ) et retraduction, ça donne :
    "Sur le pont, j'ai écrasé une forme penchée sur les rambardes." (DeepL)
    "Sur le pont, j'ai couru sur une forme penchée sur la balustrade." (Google)

    En ajoutant la fin de la phrase :
    "Sur le pont, je passai derrière une forme penchée sur le parapet, et qui semblait regarder le fleuve. "
    la traduction donnée par ChatGPT est différente :
    在桥上,我路过一个弯下身看着栏杆的人,似乎在看河 流
    et la retraduction donne bien
    "Sur le pont, j'ai croisé un homme penché sur la balustrade, semblant observer la rivière." (DeepL)
    "Sur le pont, j'ai croisé un homme penché sur la rambarde, comme s'il regardait le fleuve." (Google)
    Avec toujours l'ambiguïté sur "homme" (d'ailleurs rien dans le contexte ne permettant d'affirmer que la forme est humaine, il pourrait s'agir d'un animal); mais le reste de la traduction est quand-même meilleur...

    Bon courage aux linguistes...

  10. #100
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Bon courage aux linguistes...
    Curieusement ce n'est pas forcément eux qui apportent le plus. Il y a une citation qui est peut-être apocryphe du patron de DeepL (de mémoire) qui dit "chacun fois que je vire une linguiste et que j'embauche un mathématicien, la qualité de nos traductions progresse".

  11. #101
    mh34
    Responsable des forums

    Citation Envoyé par Archi3 Voir le message
    c'est impressionnant par rapport à ce qu'on pensait qu'une IA pourrait faire ou pas, effectivement, mais comme qualité intrinsèque, c'est quand même pas Baudelaire .
    je suis d'accord.
    C'est le même genre de succès que pourrait avoir un enfant de 10 ans qui écrit ce poème ,
    Hmmm...là je le suis moins.
    donc ça m'étonnerait qu'on "l'utilise" concrètement pour ça, il me semble encore une fois que son utilité est restreinte au côté "attraction", un peu comme les automates de Vaucanson qui ne servaient qu'à être montré dans des salons ou des musées, alors que les machines à vapeur (qui ne cherchent pas à imiter l'humain) ont révolutionné la vie.
    j'avoue ne pas m'être posé la question de son utilité concrète.

    Citation Envoyé par yves95210 Voir le message
    J'ai fait ensuite la même expérience en lui demandant de traduire le texte en espagnol, puis en allemand (les autres langues que je suis à peu près capable de lire), avec un résultat aussi bon (confirmé par une retraduction en français par DeepL assez fidèle à l'original).

    En chinois, c'est nettement plus lent et le résultat (retraduit en français par DeepL car évidemment je ne suis pas capable de le lire) est loin d'être satisfaisant.
    ca n'a rien de surprenant, le chinois fonctionne très différemment. Même avec le russe, qui est pourtant bien plus proche, c'est déjà plus compliqué

    A propos de traduction, quelle est la langue "natale" de ChatGPT?
    Dernière modification par mh34 ; 27/12/2022 à 13h02.

  12. #102
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par mh34 Voir le message
    A propos de traduction, quelle est la langue "natale" de ChatGPT?
    Il n'a pas de langue natale : on lui a donné Internet et des livres à apprendre avec un biais vers l'anglais vu la quantité de sources dans ce langage et l'origine de la société qui le conçoit.
    Plus d'infos ici : https://jilltxt.net/right-now-chatgp...g-your-values/

  13. #103
    mh34
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Ok.
    Merci beaucoup pour la référence.

  14. #104
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par mh34 Voir le message
    j'avoue ne pas m'être posé la question de son utilité concrète.
    Aider les étudiants paresseux (ou au moins les élèves du secondaire) à rédiger des exposés, dissertations ou autres textes assez généralistes sur divers sujets.
    Avec en plus l'avantage que ça leur éviterait les fautes d'orthographe ou de grammaire dont ils sont de plus en plus coutumiers. Remarque, ça sera aussi un moyen pour leurs profs de s'apercevoir que ce n'est pas eux qui ont rédigé le texte en question...

    Permettre à des média en ligne ou imprimés de pondre gratuitement des articles à l'apparence originale sur pleins de sujets (à condition qu'ils ne soient pas directement liés à l'actualité), histoire de faire du remplissage.
    Et ça vaut aussi (surtout ?) pour des média de vulgarisation scientifique. Faudrait faire l'essai en demandant à ChatGPT de rédiger un article "à la manière de Futura" (ou au moins à la manière de certains rédacteurs de Futura), en ne lui en donnant que le titre et le sujet...

    ca n'a rien de surprenant, le chinois fonctionne très différemment.
    C'est bien pour ça que j'ai voulu essayer

  15. #105
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par mh34 Voir le message
    Hmmm...là je le suis moins.
    je ne certifie pas qu'un enfant de 10 ans aurait écrit ça, et ce n'était pas le but de ma remarque : c'était juste que l'avis qu'on portait dessus était du même genre que quand on admire les oeuvres d'un enfant, la plupart du temps (Mozart excepté) , pas pour leur qualité intrinsèque exceptionnelle, mais par rapport à l'écart qu'on se faisait avec l'idée d'une performance moyenne venant de cette source. Mais ça n'a pas une qualité "professionnelle".

    Permettre à des média en ligne ou imprimés de pondre gratuitement des articles à l'apparence originale sur pleins de sujets (à condition qu'ils ne soient pas directement liés à l'actualité), histoire de faire du remplissage.
    pour ce genre d'usage, il doit y avoir des outils plus optimisés (ou il y en aura sûrement) : par exemple les réponses de ChatGPT sont plutôt verbeuses et longues pour une conversation informelle, en revanche elles sont trop courtes et peu dans le style d'un article de journal. C'est ce que je disais avec les automates, le fait de ressembler à une production humaine ne signifie pas qu'on est optimisé pour un usage, et il y a beaucoup d'outils optimisés qui sont incapables de tenir des conversations, mais ce n'est pas ce qu'on leur demande.
    De plus les articles "utiles" sont ceux qui parlent des nouveautés les plus récentes,où ChatGPT est manifestement mal à l'aise (ne serait ce que par le principe de s'alimenter à un corpus volumineux, ce qui le restreint à ne parler que de choses déjà bien discutées ailleurs) - pas forcément une actualité récente mais une idée nouvelle par exemple, ou le repérage de "signaux faibles" peu repérés avant.
    Dernière modification par Archi3 ; 27/12/2022 à 13h30.

  16. #106
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Voici par exemple la dissertation de philosophie que ChatGPT me propose sur le sujet "une proposition mathématique peut-elle être dite vraie ?" (le sujet que j'avais choisi quand j'ai passé le bac, il y a bien longtemps) :

    Introduction :

    La question de savoir si une proposition mathématique peut être considérée comme vraie est un sujet de débat depuis de nombreuses années en philosophie. En effet, alors que les mathématiques sont souvent perçues comme étant une science objective et exacte, il est possible de se demander si les propositions mathématiques sont vraies de manière absolue ou si elles ne sont que des constructions mentales humaines. Dans cette dissertation, nous allons examiner différentes approches de la vérité en mathématiques et essayer de déterminer si une proposition mathématique peut être considérée comme vraie.

    I. Les mathématiques comme science objective et exacte :

    Selon une première approche, les mathématiques sont considérées comme une science objective et exacte, c'est-à-dire qu'elles sont indépendantes de l'observateur et qu'elles décrivent de manière précise et objective la réalité. Selon cette perspective, une proposition mathématique serait donc vraie de manière absolue, indépendamment de toute considération humaine.

    Cependant, il est possible de mettre en doute cette approche en se demandant si les mathématiques ne sont pas, en fin de compte, que des constructions mentales humaines. En effet, les mathématiques reposent sur des concepts tels que les nombres, les formes géométriques et les relations logiques, qui sont tous des constructions mentales. Par conséquent, il est possible de se demander si les mathématiques ne sont pas simplement une façon de décrire et de comprendre le monde, mais pas une description objective de la réalité elle-même.

    II. Les mathématiques comme constructions mentales humaines :

    Selon une deuxième approche, les mathématiques sont considérées comme des constructions mentales humaines, c'est-à-dire que les propositions mathématiques ne sont pas vraies de manière absolue, mais plutôt que leur vérité dépend de leur utilisation et de leur pertinence dans un contexte donné. Selon cette perspective, une proposition mathématique ne serait vraie que dans la mesure où elle est utilisée de manière cohérente et appropriée dans un contexte donné.

    Cependant, il est possible de mettre en doute cette approche en se demandant si les mathématiques ne sont pas, en fin de compte, que des lois universelles et indépendantes de l'observateur. En effet, de nombreux philosophes et scientifiques ont soutenu que les mathématiques décrivent des lois universelles qui régissent le monde, indépendamment de l'observateur. Selon cette perspective, les mathématiques seraient donc vraies de manière absolue, indépendamment de leur utilisation ou de leur pertinence dans un contexte donné.

    Conclusion :

    En fin de compte, il est difficile de déterminer si une proposition mathématique peut être considérée comme vraie de manière absolue. Selon une première approche, les mathématiques sont une science objective et exacte, ce qui impliquerait que les propositions mathématiques sont vraies de manière absolue. Selon une deuxième approche, les mathématiques sont des constructions mentales humaines, ce qui impliquerait que la vérité des propositions mathématiques dépend de leur utilisation et de leur pertinence dans un contexte donné. Il est possible que la vérité en mathématiques soit quelque part entre ces deux approches, et qu'elle dépende à la fois de l'objectivité des lois universelles décrites par les mathématiques et de leur utilisation par l'observateur humain. En tout état de cause, il est clair que la question de la vérité en mathématiques est complexe et reste un sujet de débat en philosophie.
    Je lui ai demandé de compléter son texte en citant des références permettant d'étayer ses affirmations. Voici sa réponse :

    Bien sûr, voici quelques références qui pourraient étayer certaines de mes affirmations dans la dissertation :

    Pour l'idée selon laquelle les mathématiques sont une science objective et exacte, on peut citer Platoniciens comme Platon ou Plutarque, qui considéraient les mathématiques comme une source de vérité absolue et un moyen de connaître les essences des choses. Selon Platon, les mathématiques permettaient d'accéder à un monde de formes éternelles et immuables, qui seraient la véritable réalité derrière le monde sensible changeant et illusoire que nous percevons.

    Pour l'idée selon laquelle les mathématiques sont des constructions mentales humaines, on peut citer des philosophes comme Kant, qui considérait que les mathématiques ne décrivaient pas la réalité objective, mais plutôt les structures mentales que nous utilisons pour organiser notre perception du monde. Selon Kant, les mathématiques sont donc des constructions humaines qui nous permettent de comprendre et de traiter les phénomènes de manière rationnelle et cohérente, mais qui ne sont pas en elles-mêmes une description objective de la réalité.

    Pour l'idée selon laquelle les mathématiques décrivent des lois universelles indépendantes de l'observateur, on peut citer des scientifiques comme Galileo ou Newton, qui ont utilisé les mathématiques pour décrire et prédire les mouvements des corps célestes de manière précise et objective. Selon cette perspective, les mathématiques permettraient de découvrir des lois universelles qui régissent le monde, indépendamment de notre perception ou de notre utilisation de ces lois.

    Il est important de noter que ces différentes approches de la vérité en mathématiques ne sont pas mutuellement exclusives et qu'il est possible de les combiner de différentes manières. Par exemple, il est possible de considérer que les mathématiques décrivent des lois universelles qui régissent le monde, mais que ces lois sont influencées par notre perception et notre utilisation de ces lois. En tout état de cause, il est clair que la question de la vérité en mathématiques est complexe et reste un sujet de débat en philosophie.
    Faudrait voir ce qu'en pense un prof de philo ayant à corriger les copies d'élèves de terminale scientifique...

  17. #107
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    pour ce genre d'usage, il doit y avoir des outils plus optimisés (ou il y en aura sûrement) : par exemple les réponses de ChatGPT sont plutôt verbeuses et longues pour une conversation informelle, en revanche elles sont trop courtes et peu dans le style d'un article de journal. C'est ce que je disais avec les automates, le fait de ressembler à une production humaine ne signifie pas qu'on est optimisé pour un usage, et il y a beaucoup d'outils optimisés qui sont incapables de tenir des conversations, mais ce n'est pas ce qu'on leur demande.
    Mais la réponse de ChatGPT dépend de ce que tu lui demandes. Tu peux faire l'essai en prenant le titre d'un article Futura bien "bateau" (par exemple "Quels sont les cinq types d'énergie renouvable ?") et en lui demandant de rédiger un article pour un journal de vulgarisation scientifique. Le résultat ne vole pas haut (et il faut en supprimer quelques répétitions), mais pour faire du remplissage (ce à quoi semblent destinés pas mal d'articles sur Futura, non ?) ça peut faire l'affaire... Surtout que ChatGPT sera prêt à développer certaines parties de l'article si tu le lui demandes gentiment (comme je l'ai fait pour la dissert de philo ci-dessus).

    De plus les articles "utiles" sont ceux qui parlent des nouveautés les plus récentes,où ChatGPT est manifestement mal à l'aise (ne serait ce que par le principe de s'alimenter à un corpus volumineux, ce qui le restreint à ne parler que de choses déjà bien discutées ailleurs) - pas forcément une actualité récente mais une idée nouvelle par exemple, ou le repérage de "signaux faibles" peu repérés avant.
    C'est bien pour ça que je parlais d'articles "pour faire du remplissage". Je ne dis pas que ça présente une valeur ajoutée pour les lecteurs, pas plus que les marronniers habituels des média grand public. Mais avec un outil comme ChatGPT ça coûterait encore moins cher à produire...

  18. #108
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Ce ne sont pas les usages qui sont les plus prévus.
    Comme déjà dit, l'axe de recherche principal, c'est le moteur de recherche, de faire un "oracle" capable de répondre à la plupart de questions normales.

    Et l'enjeu est immense quand on voit ce que le succès dans ce domaine a permis à Google de devenir.

    Il y a également pas mal de possibilité en assistance à la programmation et là aussi, c'est un gros marché.
    La génération de texte peut être intéressante notamment compte tenu du multi-langue. Il serait intéressant de voir ce que cela peut donner comme outil de traduction en temps réel entre 2 personnes qui dialoguent, un babel-fish version texte.

    Après, il va y avoir des usages divers et variés qui vont être inventés ou qui l'ont déjà été mais que j'ai raté. Il faut aussi voir qu'on parle d'un domaine en évolution très rapide. OpenAI a été créé en 2015, GPT-2 date de 2019, GPT-3 de 2020.
    Et ils ne sont pas le seuls.
    Donc il est difficile de savoir ce qu'on fera dans 5 à 10 ans.

  19. #109
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    Ce ne sont pas les usages qui sont les plus prévus.
    Je m'en doute, et je faisais (un peu) du mauvais esprit... Mais ces usages, bien que n'étant pas "les plus prévus", ne seront pas forcément les moins utilisés par le public concerné. Au passage, si on peut déjà demander à ChatGPT de produire un texte ressemblant à une dissertation scolaire ou à un article de journal, etc., ça a bien dû être prévu pour quelque-chose...

    Comme déjà dit, l'axe de recherche principal, c'est le moteur de recherche, de faire un "oracle" capable de répondre à la plupart de questions normales.

    Et l'enjeu est immense quand on voit ce que le succès dans ce domaine a permis à Google de devenir.
    Mais comme je l'ai déjà dit, la plupart des utilisateurs d'aujourd'hui (et probablement encore plus ceux de demain) sont à l'aise avec les moteurs de recherche et n'ont pas forcément besoin d'une interface en langage naturel pour trouver ce qu'ils cherchent.

    La valeur ajoutée de ChatGPT serait plutôt d'être capable de proposer (sous forme d'une réponse unique et non d'une liste) une synthèse de plusieurs sources en évoquant éventuellement les points qui font débat (mais wikipedia le fait déjà, et indique systématiquement ses références, ce qui n'est pas le cas de ChatGPT), et de pouvoir interagir avec l'utilisateur pour approfondir la réponse ou donner des explications complémentaires en fonction des nouvelles questions posées. Mais pour ça on a pu constater que ce n'est pas encore au point, dès que les questions commencent à demander une expertise dans un domaine quelconque...
    Dans l'état actuel des choses, je pense que je continuerai à taper "wiki [n'importe quel sujet]" dans mon moteur de recherche et à cliquer sur le lien vers l'article wikipedia, sans que ça me demande plus de temps ou d'"intelligence". Puis éventuellement à suivre les liens proposés par wikipedia si j'ai besoin d'en savoir plus. Mais bon, je ne suis peut-être pas fait comme tout le monde.

    Il y a également pas mal de possibilité en assistance à la programmation et là aussi, c'est un gros marché.
    Peut-être. Mais déjà il y a 30 ans (à l'époque où les L4G étaient à la mode) j'avais développé un générateur automatique de code (à partir d'une interface tactile ou souris) qui marchait pas trop mal... C'était rudimentaire (et développé sur un coin de table en quelques semaines, uniquement pour des besoins internes à la boîte dans laquelle je travaillais, qui produisait des applications pour borne interactive), le but n'était que de générer un squelette de programme contenant la logique de navigation, qu'il fallait ensuite compléter avec les éventuels traitements nécessaires à chaque étape (faute de temps et de moyens on n'avait pas été plus loin, mais ç'aurait été possible). Je suppose qu'aujourd'hui on trouve beaucoup mieux (je n'ai plus travaillé dans ce domaine depuis).
    Je ne sais pas ce qu'un outil comme ChatGPT peut apporter dans ce domaine, à part bien sûr la possibilité d'aller pomper des bouts de programme à droite et à gauche dans une bibliothèque quasi-infinie sans avoir à les rechercher manuellement. Faudrait que tu me donnes des exemples.

    La génération de texte peut être intéressante notamment compte tenu du multi-langue. Il serait intéressant de voir ce que cela peut donner comme outil de traduction en temps réel entre 2 personnes qui dialoguent, un babel-fish version texte.
    Là aussi il me semble qu'il y a déjà des outils qui le font pas mal (comme DeepL. Je suppose du moins, car je n'ai jamais utilisé l'application payante qui permet de discuter en plusieurs langues).

    Après, il va y avoir des usages divers et variés qui vont être inventés ou qui l'ont déjà été mais que j'ai raté. Il faut aussi voir qu'on parle d'un domaine en évolution très rapide. OpenAI a été créé en 2015, GPT-2 date de 2019, GPT-3 de 2020.
    Et ils ne sont pas le seuls.
    Donc il est difficile de savoir ce qu'on fera dans 5 à 10 ans.
    C'est bien la seule chose dont on peut être sûr...

    Mais au total, tu parles d'un ensemble d'usages assez différents les uns des autres, et pour lesquels l'outil ne peut sans-doute pas être optimisé simultanément sans devenir une usine à gaz. Il me semble que (même s'ils seront basés sur une même technologie), on aura plutôt affaire à un ensemble d'outils plus orientés "métier" (et plus compétents dans leur domaine). Et il ne faut pas confondre un prototype destiné à démontrer la plus-value d'un modèle de langage (et qui aujourd'hui se prête plus à "jouer" qu'à obtenir un service réellement utile) avec les outils qui pourront être développés à partir de ce modèle.

  20. #110
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Au passage, si on peut déjà demander à ChatGPT de produire un texte ressemblant à une dissertation scolaire ou à un article de journal, etc., ça a bien dû être prévu pour quelque-chose...
    Non, c'est une conséquence du mécanisme d'apprentissage.


    Citation Envoyé par yves95210 Voir le message
    Mais comme je l'ai déjà dit, la plupart des utilisateurs d'aujourd'hui (et probablement encore plus ceux de demain) sont à l'aise avec les moteurs de recherche et n'ont pas forcément besoin d'une interface en langage naturel pour trouver ce qu'ils cherchent.
    Ce n'est pas du tout ce que pensent les gens dont c'est le métier dont Google.

    Citation Envoyé par yves95210 Voir le message
    Mais bon, je ne suis peut-être pas fait comme tout le monde.
    Je confirme et c'est sans jugement aucun.
    Par exemple, tu supposes qu'on continue à interagir en clavier/écran. Mais si on fait de la reconnaissance vocale, avoir un outil capable à partir d'une question de sortir une réponse pertinente et de la lire est un plus.
    Et c'est un usage plus fréquent qu'on le croit notamment en fonction de l'âge, des zones géographiques, etc.


    Citation Envoyé par yves95210 Voir le message
    Je ne sais pas ce qu'un outil comme ChatGPT peut apporter dans ce domaine, à part bien sûr la possibilité d'aller pomper des bouts de programme à droite et à gauche dans une bibliothèque quasi-infinie sans avoir à les rechercher manuellement. Faudrait que tu me donnes des exemples.
    Tu peux voir :
    https://www.bleepingcomputer.com/new...an-do-with-it/
    https://marketplace.visualstudio.com...vscode-chatgpt
    https://legiit.com/blog/chat-gpt-code

    Citation Envoyé par yves95210 Voir le message
    Mais au total, tu parles d'un ensemble d'usages assez différents les uns des autres, et pour lesquels l'outil ne peut sans-doute pas être optimisé simultanément sans devenir une usine à gaz. Il me semble que (même s'ils seront basés sur une même technologie), on aura plutôt affaire à un ensemble d'outils plus orientés "métier" (et plus compétents dans leur domaine). Et il ne faut pas confondre un prototype destiné à démontrer la plus-value d'un modèle de langage (et qui aujourd'hui se prête plus à "jouer" qu'à obtenir un service réellement utile) avec les outils qui pourront être développés à partir de ce modèle.
    Oui comme je le disais, on est encore dans une phase de recherche et développement. Mais le potentiel est là.

  21. #111
    Archi3

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    si ça améliore la capacité de comprendre et de répondre à une question orale posée en langage humain à un serveur téléphonique, c'est sûr que ce sera utile

  22. #112
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Google translate : "Le mousse, couvert de mousse se repose sur la mousse" --> The moss, moss covered sits on the moss.


    Chat est un mot de quatre lettres --> Cat is a four letter word
    Si quelqu'un veut essayer avec ChatGPT

    Rappelons qu'Eliza fonctionnait déjà en 1977 ce qui n'est pas si mal, même si cela n'a rien à voir avec l'IA (et j'ai réussi à lui faire dire qu'elle m'aimait)
    Dernière modification par Médiat ; 27/12/2022 à 16h44.
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  23. #113
    mh34
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message

    Chat est un mot de quatre lettres --> Cat is a four letter word
    Si quelqu'un veut essayer avec ChatGPT
    Bonjour Mediat.
    Je viens d'essayer par curiosité ; la réponse est :
    "Chat" is a word with 4 letters.
    Juste une chose à laquelle je ne m'attendais pas ;

    moi : bonjour!

    chatGPT : Bonjour! Comment puis-je vous aider aujourd'hui?

    moi : en me traduisant en anglais ; "chat est un mot de 4 lettres".

    chatGPT : "Chat" is a word with 4 letters.

    moi : merci beaucoup!

    chatGPT : You're welcome! Is there anything else I can help with?
    Il a continué en anglais au lieu de reprendre le français.
    Dernière modification par mh34 ; 27/12/2022 à 17h05.

  24. #114
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Bonjour mh, plaisir de te "revoir".

    Belle supériorité de ChatGPT.

    Et la phrase avec les mousses, tu as essayé ?
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  25. #115
    mh34
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Et la phrase avec les mousses, tu as essayé ?
    Voilà la réponse, mais tu jugeras de la pertinence, mon niveau d'anglais ne me le permettant pas ;
    "The foam, covered in foam, rests on the foam."

  26. #116
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    C'est tout aussi mauvais, une traduction (de mon fait) pourrait être : The cabin boy, covered with (bath) foam is resting on the moss
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  27. #117
    mh34
    Responsable des forums

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    C'est tout aussi mauvais, une traduction (de mon fait) pourrait être : The cabin boy, covered with (bath) foam is resting on the moss
    Ah oui en effet...

  28. #118
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Pour la blague sur le chalumeau, j'ai essayé de lui faire comprendre :
    Voila ce que j'ai obtenu au final
    Je comprends maintenant comment fonctionne la blague. Le mot "chalumeau" fait référence à un objet réel, mais sa ressemblance phonétique avec le mot "chameau" est utilisée de manière humoristique en posant la question "Qu'est-ce qu'un chalumeau ?" et en répondant "c'est un dromaludaire à deux bosses", ce qui met en avant la similarité phonétique entre les mots "chalumeau" et "chameau" en ajoutant la syllabe "lu" dans les mots "dromadaire" et "dromaludaire". C'est une blague basée sur l'homophonie et l'utilisation de mots inventés pour renforcer l'effet de ressemblance phonétique. Je suis désolé de ne pas avoir compris cela plus tôt. Si vous avez d'autres questions, n'hésitez pas à me les poser. Je suis là pour vous aider.
    C'est pas mal comme explication, je trouve.

  29. #119
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par mh34 Voir le message
    Juste une chose à laquelle je ne m'attendais pas ;

    Il a continué en anglais au lieu de reprendre le français.
    J'ai essayé aussi, en précisant que je parlais de l'animal "chat", et ça a donné un dialogue assez surréaliste :

    Yves : Pouvez-vous traduire en anglais "Chat est un mot de quatre lettres" ?
    ChatGPT : "Chat is a four-letter word."

    Yves : Je ne parlais pas de "chat" (ou tchat, discussion par écrit) mais de l'animal...
    ChatGPT : Oh, I see. In that case, "Chat" is French for "cat." So a translation of "Chat est un mot de quatre lettres" would be "Cat is a four-letter word."

    Yves : But "Cat" is not a four-letter word !
    ChatGPT : You are correct, "cat" is not a four-letter word in English. It is a three-letter word. The phrase "a four-letter word" is a colloquial expression that refers to a word that is considered vulgar, obscene, or profane, and typically consists of four letters. The phrase is often used to describe words that are considered taboo or inappropriate for polite conversation.

    It seems that there may have been a misunderstanding. If you are asking for a translation of "Chat est un mot de quatre lettres," a more accurate translation would be "Cat is a word with four letters."

    Yves : But Cat is still not a word with four letters. Aren't you able to count the letters ?
    ChatGPT : I apologize for the misunderstanding. You are correct that "cat" is not a word with four letters in English. It is a three-letter word. I apologize for any confusion that my previous response may have caused. If you have any further questions, please don't hesitate to ask.

    Yves : So, please translate "Cat is a word with three letters" in French.
    ChatGPT : "Cat is a word with three letters" can be translated to French as "Chat est un mot de trois lettres."

    Yves : Mais cette phrase n'est pas correcte puisque chat est un mot de quatre lettres.
    ChatGPT : You are correct. I apologize for the mistake in my previous response. "Chat" is indeed a four-letter word in French. If you would like to translate the phrase "Cat is a word with three letters" into French, a correct translation would be "Le chat est un mot de trois lettres."

    Yves : Ce n'est toujours pas correct : la traduction correcte est "Chat est un mot de quatre lettre".
    ChatGPT : I apologize for the mistake in my previous responses. You are correct that "Chat est un mot de quatre lettres" is the correct translation of "Cat is a word with four letters" into French. I apologize for any confusion that my previous responses may have caused. If you have any further questions, please don't hesitate to ask.

    Yves : Non : "Chat est un mot de quatre lettres" est la traduction correcte de "Cat is a word with THREE letters". Ce n'est pas qu'une question de traduction mot à mot, c'est une question de sens.
    ChatGPT : I apologize for the confusion. You are correct that "Chat est un mot de quatre lettres" is the correct translation of "Cat is a word with three letters" into French.

    In English, the phrase "a four-letter word" is often used colloquially to refer to a word that is considered vulgar, obscene, or profane. However, this phrase can also be used more broadly to refer to any word that consists of four letters, regardless of its meaning. In French, the equivalent phrase is "un mot de quatre lettres," which can also be used to refer to any word that consists of four letters.
    (son insistance au sujet du "four-letter word" est plutôt comique; mais je n'ai pas été jusqu'à lui demander quel est ce mot)

  30. #120
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98 Voir le message
    C'est pas mal comme explication, je trouve.
    En tout cas mieux que ce que j'étais arrivé à (ne pas) obtenir... Tu dois être meilleur IA-pédagogue que moi

Page 4 sur 16 PremièrePremière 4 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 15h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 18h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 11h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 14h33