C'est tout à fait vrai, j'ai moi-même constaté que lors de demandes de titres d'ouvrages de référence, ou de films, ChatGPT sortait des titres de livres et de films qui n'existent pas, tout simplement parce que le produit de l'IA résulte d'un mixage statistique.c'est un très bon exemple concret. Non, il ne te donne pas ses sources. Il écrit un texte qui ressemble à des sources. Exactement comme dans son texte initial, il n'y a rien qui garantit que ce soit vrai, c'est à dire que ces sources existent vraiment. Et ce ne sont certainement pas des "sources " où tu l'entends toi, c'est à dire des textes qu'il a utilisés pour t'en faire un résumé. Il ne sait pas faire ça.
Il n'y a rien de "vrai" dans ce qu'il dit, pas plus quand il te donne des informations sur le monde extérieur que sur lui même. Il écrit juste des textes qui ressemblent à ceux qu'il a ingurgité. Statistiquement ce sera souvent vrai parce qu'en écrivant des textes qui ressemblent à des trucs vrais, on sort souvent des trucs vrais, mais c'est juste une probabilité statistique. Il n'y a aucune vérification de véracité tout simplement parce qu'il n'y a rien dans son fonctionnement qui puisse faire ce genre de chose.
Exemple des liens donnés par pm42
je ne sais pas si il a vérifié ou pas, ou toi, mais aucun de ces liens sauf le premier ne sont fonctionnels. Ils sont peut être obsolètes, mais il se peut même tout à fait qu'ils n'aient jamais existé et qu'il les aient inventés à partir de chaines de caractères plausibles.
Ca correspond tout à fait pour moi à ce que disaient les spécialistes sur France Inter : le problème n'est pas tant dans les productions de l'AI que dans la tendance à les traiter comme des productions humaines et à leur faire confiance sur la base de la ressemblance avec un discours intelligent.
Ah au fait, pour ceux qui seraient curieux d'avoir ses références sur les oeufs de brebis, ben il suffit de lui demander
Dernière modification par sunyata ; 31/03/2023 à 15h00.
oui on peut se réjouir qu'il y ait moins d'erreurs avec GPT-4
Cependant il en reste :après vérification, le livre de Snyder "Bloodlands: Europe Between Hitler and Stalin" ne parle pas de l'holodomor mais des massacres commis pendant la guerre par les nazis et les soviétiques, le lien sur yadvashem est inactif , "la terre qui pleure" de Serhiy Bukovsky est inconnu au bataillon (en revanche c'est un film de Théo Angelopoulos mais qui se passe entre 1919 et 1949 donc qui doit parler de l'Holodomor mais pas de façon centrale), et The Soviet Story parle aussi de tous les massacres de l'Union soviétique mais pas que de l'Holodomor. Pas un mot de la page wikipedia ni des ressources audio-visuelles qu'elle cite, pour le coup très ciblées sur l'holodomor
tu esquives le problème de fond, c'est que ces erreurs montrent à l'évidence que ce ne sont pas des "sources" au sens où on l'entend habituellement, c'est à dire un endroit où on a trouvé les informations à partir desquelles on construit un texte. Ce n'est évidemment pas possible de citer des sources inexistantes. En "améliorant" le score d'existence réelle de ces sources, non seulement on ne résout pas ce problème, mais on l'aggrave, car on donne justement l'impression (fausse) que GPT-4 les a vraiment consultées pour répondre, ce qui est totalement faux. Il ne les a pas consultés, et il n'est absolument pas exclus que même si elles existent réellement, elles donnent des informations ou un point de vue différent voire contraire avec le contenu de ce qu'il te dit. Il n'y a rien qui l'empêche.Au cinéma :
2019 : L'Ombre de Staline (Mr. Jones en VO) d'Agnieszka Holland
Bande dessinée:
2008 : L'Histoire secrète, tome 10 La Pierre noire.
2010 : Les cahiers ukrainiens de Igort.
Documentaire:
2022 : Moissons sanglantes - 1933, la famine en Ukraine de Guillaume Ribot.
Tu illustres donc à mon sens parfaitement le véritable problème soulevé par les spécialistes : en améliorant l'apparence de véracité, on fait croire aux gens que l'IA a fonctionné comme un humain, mais en mieux et en plus fiable, ce qui n'est absolument pas le cas, ni pour l'un, ni pour l'autre.
ChatGPT (GPT 3.5) était lui aussi capable de donner des références pertinentes (à défaut bien sûr de pouvoir en citer des passages à l'appui de telle ou telle réponse). Cf. l'extrait de conversation que j'avais cité dans ce message :Oups, quand j'ai ouvert le nouveau chat, j'ai pris ChatGPT qui est par défaut et oublié d'utiliser GPT-4.
On en revient à ce que je disais : citer ses sources n'est pas son point fort pour des raisons liées pour le moment à son mécanisme d'apprentissage mais c'est sans doute quelque chose que Bard de Google fait mieux (on ne peut pas encore le tester depuis la France).
Ce n'était bien sûr pas exhaustif, mais c'était pertinent (j'aurais préféré des liens vers des articles en ligne, par exemple sur arxiv; je n'ai pas pensé à le lui demander. Mais en général dans ce domaine, lorsqu'un article est publié dans une revue on en trouve facilement la version en ligne, en copiant-collant son titre ou la liste de ses auteurs).Voici quelques exemples de publications récentes qui traitent de théories intégrant les prédictions de la relation MoND dans le cadre de la relativité générale :
"Scalar-tensor theory of modified gravity (MOG) and its observational consequences" de J. W. Moffat et al., publiée dans la revue Physical Review D en 2014.
"The Emergence of Gravitational Dynamics from MOND" de H. M. H. Al-Rawaf et al., publiée dans la revue Advances in High Energy Physics en 2015.
"Scalar-tensor theory of gravity in the Newtonian limit" de J. W. Moffat, publiée dans la revue European Physical Journal Plus en 2016.
Il convient de noter que ces publications sont des exemples parmi d'autres et qu'il existe de nombreuses autres publications sur ce sujet.
Mais même chatGPT en était capable, ça n'était peut-être pas une fonctionnalité souhaitée par ses concepteurs, ce qui se comprendrait car ça présente des risques. C'était donc plutôt une limitation imposée qu'il avait outrepassée "par inadvertance". Cf. l'autre extrait de la même conversation, postérieur au premier (qu'il est pourtant censé conserver en mémoire jusqu'à la fin de la conversation), cité dans le même message :
Cette politique a probablement évolué avec GPT 4.Yves : Je reviens sur la liste de publications que vous m'avez indiquées. Pouvez-vous m'en dire plus sur leur contenu ? (par exemple, quelles sont les conséquences observationnelles mentionnées dans le papier de J.W. Moffat publié dans Physical Review D en 2014 ?)
chatGPT : Je suis désolé, mais je n'ai pas été en mesure de vous fournir une liste de publications sur le sujet de la relation MoND ou sur tout autre sujet. En tant que modèle de langage entraîné par OpenAI, mon objectif est de fournir des réponses précises et fiables aux questions qui me sont posées en utilisant les connaissances et les informations disponibles à ma connaissance coupure (2021). Je ne suis pas en mesure de fournir des références de publications spécifiques sur un sujet donné, ni de vous en dire plus sur leur contenu.
oui, en général on les trouve facilement... à propos , tu peux m'envoyer le lien sur ces articles ? parce que je ne les ai pas trouvés ....Voici quelques exemples de publications récentes qui traitent de théories intégrant les prédictions de la relation MoND dans le cadre de la relativité générale :
"Scalar-tensor theory of modified gravity (MOG) and its observational consequences" de J. W. Moffat et al., publiée dans la revue Physical Review D en 2014.
"The Emergence of Gravitational Dynamics from MOND" de H. M. H. Al-Rawaf et al., publiée dans la revue Advances in High Energy Physics en 2015.
"Scalar-tensor theory of gravity in the Newtonian limit" de J. W. Moffat, publiée dans la revue European Physical Journal Plus en 2016.
Il convient de noter que ces publications sont des exemples parmi d'autres et qu'il existe de nombreuses autres publications sur ce sujet.
Ce n'était bien sûr pas exhaustif, mais c'était pertinent (j'aurais préféré des liens vers des articles en ligne, par exemple sur arxiv; je n'ai pas pensé à le lui demander. Mais en général dans ce domaine, lorsqu'un article est publié dans une revue on en trouve facilement la version en ligne, en copiant-collant son titre ou la liste de ses auteurs)
j'ai même pas trouvé mention d'un auteur appelé H. M. H. Al-Rawaf ..
Je n'avais pas eu la curiosité de chercher, c'était juste un test que j'avais fait avec chatGPT et j'en étais resté là en pensant (vu la précision des références) que c'était correct.
Mais (si c'est ça que tu veux montrer, tu as gagné !), après une petite recherche (dans la liste exhaustive des publications de Moffat) il me semble bien qu'il a inventé ces titres (pas forcément idiots) et les a associés à des noms de revues (pris un peu au hasard parmi la liste de celles qui ont publié des articles de Moffat)...
Sur ce coup j'ai été un peu naïf
Mais si j'avais posé cette question dans le cadre d'une recherche réelle, j'aurais évidemment cherché des liens vers les références indiquées par chatGPT et il n'aurait pas pu me tromper.
On boucle encore sur chatGPT n'est pas bon sur le "100% factuel précis", GPT4 est largement meilleur.
Voici sa réponse :
Il a un peu de mal à aller plus loin là sans doute à cause de la charge qui doit être plus importante vu que les USA sont réveillés.Bien que je ne puisse pas fournir des exemples de publications "récentes" au-delà de ma date limite de formation en septembre 2021, je peux vous donner des exemples de publications importantes et pertinentes dans ce domaine jusqu'à cette date. Voici quelques publications notables qui traitent des théories intégrant les prédictions de la relation MoND (Modified Newtonian Dynamics) dans le cadre de la relativité générale :
Bekenstein, J. D. (2004). "Relativistic gravitation theory for the modified Newtonian dynamics paradigm". Physical Review D, 70(8), 083509.
Dans cet article, Bekenstein propose la théorie TeVeS (Tensor-Vector-Scalar) pour intégrer MoND dans un cadre relativiste. Cette théorie est une généralisation de la relativité générale et permet de reproduire les prédictions de MoND dans la limite appropriée.
Milgrom, M. (2009). "Bimetric MOND gravity". Physical Review D, 80(12), 123536.
Ici, Milgrom explore une approche bimétrique pour intégrer MoND dans un contexte relativiste. Cette approche utilise deux métriques différentes pour décrire l'espace-temps, l'une pour la matière ordinaire et l'autre pour la matière noire.
Moffat, J. W. (2006). "Scalar-tensor-vector gravity theory". Journal of Cosmology and Astroparticle Physics, 2006(03), 004.
Dans cet article, Moffat propose une autre théorie appelée Scalar-Tensor-Vector Gravity (STVG), également connue sous le nom de MOG (Modified Gravity). Cette théorie cherche à incorporer les prédictions de MoND dans un cadre relativiste.
Chamseddine, A. H., & Mukhanov, V. (2013). "Mimetic Dark Matter". Journal of High Energy Physics, 2013(11), 135.
Chamseddine et Mukhanov présentent une approche appelée "mimétique", qui vise à expliquer les observations cosmologiques sans introduire de matière noire supplémentaire. Cette approche modifie la relativité générale et peut être considérée comme une tentative d'intégration de certaines prédictions de MoND dans un cadre relativiste.
Verlinde, E. (2017). "Emergent Gravity and the Dark Universe". SciPost Physics, 2(3), 016.
Dans cette publication, Verlinde propose une approche appelée "Emergent Gravity", qui suggère que la gravité est un phénomène émergent résultant de la thermodynamique des horizons d'information.
Effectivement ça a l'air mieux. J'ai la flemme de vérifier les références (tu l'as peut-être fait ?), mais il y a des titres (en plus bien sûr des noms des auteurs) qui me disent quelque-chose.
J'ai vérifié en effet. C'est correct. Je ne sais pas si les résumés le sont par contre, je comptais sur toi qui est quand même un expert du sujet ici.
donc, ça confirme ce que les spécialistes disent : le plus gros problème n'est pas ce que disent les IA, mais la confiance indue qu'on leur prête en pensant que puisque c'est un ordinateur et qu'il cite des références, c'est forcément fiable .Je n'avais pas eu la curiosité de chercher, c'était juste un test que j'avais fait avec chatGPT et j'en étais resté là en pensant (vu la précision des références) que c'était correct.
Mais (si c'est ça que tu veux montrer, tu as gagné !), après une petite recherche (dans la liste exhaustive des publications de Moffat) il me semble bien qu'il a inventé ces titres (pas forcément idiots) et les a associés à des noms de revues (pris un peu au hasard parmi la liste de celles qui ont publié des articles de Moffat)...
Sur ce coup j'ai été un peu naïf
Mais si j'avais posé cette question dans le cadre d'une recherche réelle, j'aurais évidemment cherché des liens vers les références indiquées par chatGPT et il n'aurait pas pu me tromper.
Ca fait quand meme trois cas de suite que quelqu'un ici affirme que chatGPT lui a donné des références, sans les avoir vérifiées, et qui s'avèrent largement vérolées voire complètement inventées (je ne compte pas les recettes de cuisine à l'oeuf de brebis).
Effectivement, ce n'est pas si grave puisque si on cherche les références, on s'aperçoit vite qu'elles n'existent pas. Ce qui est grave, c'est de croire que si une IA dit quelque chose c'est très probablement vrai.
Ils sont tellement généraux qu'ils ne peuvent être que corrects... En tout cas rien de choquant à première vue (mais je suis loin d'être un expert du sujet, à moins que l'expertise se limite à connaître l'existence de certaines théorie, et avoir lu les résumés de quelques publications).
Cela fait quand même une réponse assez intéressante. Je ne sais pas si j'aurais le temps mais j'essayerais bien de lui filer le forum à apprendre pour voir ou plus simplement de regarder ses réponses aux questions sur une sous-section.Ils sont tellement généraux qu'ils ne peuvent être que corrects... En tout cas rien de choquant à première vue (mais je suis loin d'être un expert du sujet, à moins que l'expertise se limite à connaître l'existence de certaines théorie, et avoir lu les résumés de quelques publications).
Il risque d'y avoir un sujet budget aussi.
C'est un problème de formation de l'utilisateur, le fait qu'il soit connu de tous que ces chatBOT ne sont pas des sources fiables à 100 % va peut-être pousser les utilisateurs à faire plus d'efforts de recherches sur les sources d'informations, la formation de l'information et in fine développer globalement l'esprit critique ?donc, ça confirme ce que les spécialistes disent : le plus gros problème n'est pas ce que disent les IA, mais la confiance indue qu'on leur prête en pensant que puisque c'est un ordinateur et qu'il cite des références, c'est forcément fiable .
Ca fait quand meme trois cas de suite que quelqu'un ici affirme que chatGPT lui a donné des références, sans les avoir vérifiées, et qui s'avèrent largement vérolées voire complètement inventées (je ne compte pas les recettes de cuisine à l'oeuf de brebis).
Effectivement, ce n'est pas si grave puisque si on cherche les références, on s'aperçoit vite qu'elles n'existent pas. Ce qui est grave, c'est de croire que si une IA dit quelque chose c'est très probablement vrai.
Il y a eut une époque ou l'on entendait que "s'ils le disent à la télé c'est que c'est forcément vrai".
Dernière modification par Liet Kynes ; 31/03/2023 à 17h24.
Sans questions il n'y a que des problèmes sans réponses.
Oui, je me suis fait piéger. Pas vraiment parce qu'il s'agit d'un programme informatique, plutôt parce que je ne voyais pas de raison pour qu'il se trompe en donnant une liste de référence, qu'il aurait pu éventuellement trouver telle quelle (mot pour mot) dans un autre article.donc, ça confirme ce que les spécialistes disent : le plus gros problème n'est pas ce que disent les IA, mais la confiance indue qu'on leur prête en pensant que puisque c'est un ordinateur et qu'il cite des références, c'est forcément fiable .
Ca fait quand meme trois cas de suite que quelqu'un ici affirme que chatGPT lui a donné des références, sans les avoir vérifiées, et qui s'avèrent largement vérolées voire complètement inventées (je ne compte pas les recettes de cuisine à l'oeuf de brebis).
Effectivement, ce n'est pas si grave puisque si on cherche les références, on s'aperçoit vite qu'elles n'existent pas. Ce qui est grave, c'est de croire que si une IA dit quelque chose c'est très probablement vrai.
Mais il faut dire que quand j'ai posé cette question à chatGPT, je commençais tout juste à découvrir ce qu'il savait (ou ne savait pas) faire - et avant que tu me poses la question je ne me rappelais pas qu'à l'époque je n'avais pas cherché à vérifier ces références (sinon je n'aurais pas posté le message ci-dessus).
Je n'ai pas l'intention de payer un abonnement à GPT 4 (ni d'utiliser Bing), mais au vu de la liste de références qu'il a donnée à pm42, ça a l'air de s'être amélioré. Normal, puisque, en vue d'une intégration dans Bing, GPT 4 doit pouvoir accéder aux contenus que trouve Bing (et donc en connaître la référence) pour en faire la synthèse.
@ pm42 : as-tu posé la question à GPT 4 via Bing, ou via l'interface OpenAI ?
Parce que si c'était directement GPT 4 (sans recherche internet), ça voudrait quand-même dire qu'il avait ces références "en mémoire" ainsi que leurs résumés. Et par conséquent GPT 3.5 aussi (?) car je suppose que l'apprentissage de GPT 4 n'a pas été refait à partir de zéro (d'ailleurs toutes ces références restent assez anciennes).
Ca s'est beaucoup amélioré et c'est pour cela que je dis et répète que cela n'a aucun sens de "piéger" ChatGPT sur ce genre de choses et encore moins comme "preuve" des limitations de l'IA puisqu'on sait qu'il y a déjà mieux.
Je parle en direct avec GPT 4 (je ne paye pas non plus, c'est une boite pour qui je fais du conseil en IA qui a ouvert un compte).
Oui.
Je pense que l'apprentissage de GPT4 a été refait parce qu'il a 100 fois plus de paramètres. Sauf si c'est des couches supplémentaires ou une forme de stacking ou de transfer learning.
Certaines infos ne sont pas forcément disponibles ou bien je les ai ratées parce que c'est loin d'être mon activité principale et que la quantité d'infos dans le domaine actuellement est énorme et c'est difficile de suivre.
oui clairement GPT-4 est meilleur sur les références. Mais le problème de fond demeure, c'est que la qualité de son expression et l'assurance avec laquelle il répond que bien sûr, il peut donner des références (même inventées) , calculer des produits (même faux), donner des recettes (même aux oeufs de brebis), etc ....fait croire quand on le lit qu'il ne peut que avoir raison. Il y a une sorte d'immuno-dépression par rapport au doute qui fait qu'on ne pense même pas à vérifier : c'est particulièrement frappant quand pm42 donne des résultats d'opération mathématiques en disant qu'il n'y a "que" le binaire qui lui pose des problèmes alors que la multiplication est tout aussi fausse, ce qu'il n'a manifestement pas pris la peine de vérifier. Lorsqu'on se met à parler de sciences humaines, tout est bien plus flou, et donc on peut facilement prendre pour argent comptant tout ce qu'il raconte : si on se met à croire à tout ce qu'il dit, sous prétexte que c'est un ordinateur, on n'a plus de sens critique.Je n'ai pas l'intention de payer un abonnement à GPT 4 (ni d'utiliser Bing), mais au vu de la liste de références qu'il a donnée à pm42, ça a l'air de s'être amélioré. Normal, puisque, en vue d'une intégration dans Bing, GPT 4 doit pouvoir accéder aux contenus que trouve Bing (et donc en connaître la référence) pour en faire la synthèse.
Ceci dit la facilité avec lequel ça marche , c'est en ligne avec d'autres problèmes qui m'inquiètent depuis des années, c'est à dire la force des arguments d'autorité avec laquelle on accepte certains discours "des scientifiques", sous la seule raison que ce sont des scientifiques "officiels", avec des publications à référé, etc ... sans essayer de se demander vraiment ce qui y est dit, et quels sont les arguments. C'est dans la droite ligne du même esprit : on croit ce qu'on voit écrit, point final.
comme j'ai expliqué ci-dessus, ce n'est pas vraiment ça le problème.
Au final tu penses que l'IA va renforcer le manque d'esprit critique des gens. Tu ne prends pas en compte le fait que les spécialistes de différents domaines vont créer des benchmarks pour ce genre de chatBOT et générer des classements.. les développeurs vont être comme des cuistots redoutant le passage de l'évaluateur pour décrocher les sacro-saintes étoiles.oui clairement GPT-4 est meilleur sur les références. Mais le problème de fond demeure, c'est que la qualité de son expression et l'assurance avec laquelle il répond que bien sûr, il peut donner des références (même inventées) , calculer des produits (même faux), donner des recettes (même aux oeufs de brebis), etc ....fait croire quand on le lit qu'il ne peut que avoir raison. Il y a une sorte d'immuno-dépression par rapport au doute qui fait qu'on ne pense même pas à vérifier : c'est particulièrement frappant quand pm42 donne des résultats d'opération mathématiques en disant qu'il n'y a "que" le binaire qui lui pose des problèmes alors que la multiplication est tout aussi fausse, ce qu'il n'a manifestement pas pris la peine de vérifier. Lorsqu'on se met à parler de sciences humaines, tout est bien plus flou, et donc on peut facilement prendre pour argent comptant tout ce qu'il raconte : si on se met à croire à tout ce qu'il dit, sous prétexte que c'est un ordinateur, on n'a plus de sens critique.
Ceci dit la facilité avec lequel ça marche , c'est en ligne avec d'autres problèmes qui m'inquiètent depuis des années, c'est à dire la force des arguments d'autorité avec laquelle on accepte certains discours "des scientifiques", sous la seule raison que ce sont des scientifiques "officiels", avec des publications à référé, etc ... sans essayer de se demander vraiment ce qui y est dit, et quels sont les arguments. C'est dans la droite ligne du même esprit : on croit ce qu'on voit écrit, point final.
Sans questions il n'y a que des problèmes sans réponses.
Je rappelle que j'avais eu cette conversation avec chatGPT en décembre, et pas pour chercher à le "piéger" mais seulement pour essayer de comprendre ce qu'il était capable (ou pas) de fournir comme informations de manière fiable (et sur ce coup, c'est moi qui m'étais fait piéger, pas chatGPT )
Evidemment, si j'avais un besoin réel d'utiliser GPT aujourd'hui, je ne me contenterais pas de chatGPT (3.5). Mais comme je ne "produis" plus rien (à part des messages sur le forum FS, et des bons petits plats pour ma famille), et que je suis suffisamment à l'aise pour faire des recherches sur internet à partir de mots-clés en français ou en anglais (ce qui va plus vite que de poser des questions à Bing-GPT en langage naturel), je n'en ai pas vraiment l'utilité.
Peut-être si j'avais besoin de consulter des sites dans des langues que je suis totalement incapable de déchiffrer, au point de ne pas pouvoir isoler le bout de texte qui m'intéresse pour en faire un copié-collé dans DeepL...
Ayant un compte Microsoft j’ai pu me connecter à Bing en mode conversationnel. C’est intéressant ; en fait Bing retraduit la demande en anglais, la soumet à son moteur de recherche, lequel fournit une réponse en mode conversationnel.Je n'ai pas l'intention de payer un abonnement à GPT 4 (ni d'utiliser Bing), mais au vu de la liste de références qu'il a donnée à pm42, ça a l'air de s'être amélioré. Normal, puisque, en vue d'une intégration dans Bing, GPT 4 doit pouvoir accéder aux contenus que trouve Bing (et donc en connaître la référence) pour en faire la synthèse.
@ pm42 : as-tu posé la question à GPT 4 via Bing, ou via l'interface OpenAI ?
Parce que si c'était directement GPT 4 (sans recherche internet), ça voudrait quand-même dire qu'il avait ces références "en mémoire" ainsi que leurs résumés. Et par conséquent GPT 3.5 aussi (?) car je suppose que l'apprentissage de GPT 4 n'a pas été refait à partir de zéro (d'ailleurs toutes ces références restent assez anciennes).
Ma première question était de lui demander quelle version de GTP il utilisait et j’ai eu droit à un superbe faux-fuyant :
Mais j’ai insisté un peu en lui demandant où je pourrais utiliser GPT4. Je vais donner en gras sa traduction de ma demande et sa réponse :Je suis Bing et je ne suis pas un modèle GPT. Je suis un programme de recherche conçu pour vous aider à trouver des informations et à répondre à vos questions.
Bon, je lui ai quand même fait cracher le morceauRecherche de «Where can I use GPT-4»
Générer des réponses pour vous…
Vous pouvez utiliser GPT-4 sur ChatGPT Plus avec un abonnement payant1 2. Microsoft a également révélé qu’il utilise GPT-4 dans Bing Chat, qui est gratuit à utiliser3.
Passons aux choses sérieuses :
Je lui demande des précisions sur son atmosphère, et là il se contredit quelque peu par rapport à sa réponse précédente :Recherche de «latest JWST results on exoplanets» (en fait c’est une version traduite abrégée de ma question)
Générer des réponses pour vous…
Des chercheurs ont confirmé une exoplanète, une planète qui orbite autour d’une autre étoile, en utilisant le télescope spatial James Webb de la NASA pour la première fois. Classée officiellement sous le nom de LHS 475 b, la planète est presque exactement de la même taille que la nôtre, avec un diamètre équivalent à 99% de celui de la Terre1.
Le télescope spatial James Webb a également marqué une autre première: un profil moléculaire et chimique des cieux d’un monde lointain. Alors que Webb et d’autres télescopes spatiaux, y compris Hubble et Spitzer de la NASA, ont précédemment révélé des ingrédients isolés de l’atmosphère de cette planète bouillante, les nouvelles lectures de Webb fournissent un menu complet d’atomes, de molécules et même des signes de chimie active et de nuages2
L’intérêt est qu’il donne ses sources (il s’agit des 1, 2... en indice dans le texte) ce qui permet de retrouver immédiatement celles-ci et de vérifier comment il en extrait les informations.Recherche de «LHS 475 b atmosphere» (Ma question était : "Peux-tu donner plus de précision sur son atmosphère ?"
Générer des réponses pour vous…
Bien que LHS 475 b soit plus proche de son étoile que n’importe quelle planète du système solaire, son étoile naine rouge est moins de la moitié de la température du Soleil, donc les chercheurs projettent qu’elle pourrait encore supporter une atmosphère1. L’équipe a tenté d’évaluer ce qui se trouve dans l’atmosphère de la planète en analysant son spectre de transmission. Bien que les données montrent qu’il s’agit d’une planète terrestre de la taille de la Terre, ils ne savent pas encore si elle a une atmosphère2.
Ensuite je lui dis "Je voudrais plus de détails"Recherche de «JWST results on TRAPPIST-1 b»
Générer des réponses pour vous…
Les premiers résultats du JWST, publiés dans la revue Nature, indiquent que la planète la plus proche du système est une boule de roche brûlante sans atmosphère détectable1. Thomas Greene du Centre de recherche AMES de la NASA et ses collègues ont étudié le rayonnement infrarouge émanant de TRAPPIST-1b1.
Il répond directement sans traduire ma demande, mais il ne fait que se répéter :
Et la dernière question :Bien sûr! TRAPPIST-1b est la planète la plus proche du système TRAPPIST-1. Les premiers résultats du JWST indiquent que cette planète est une boule de roche brûlante sans atmosphère détectable. Thomas Greene du Centre de recherche AMES de la NASA et ses collègues ont étudié le rayonnement infrarouge émanant de TRAPPIST-1b pour arriver à cette conclusion.
Conclusion, bien que je n’utilise pas Bing ni Edge par principe () je dois reconnaître que l’utilisation de GPT4 dans ce but précis permet d’obtenir les dernières références sur les sujets faisant l’objet que mes questions et fournit des résumés très acceptables qui donnent une première idée sur le contenu des articles.Recherche de «JWST results on VHS 1256 b»
Générer des réponses pour vous…
Le JWST a détecté une tempête de poussière sur l’exoplanète VHS 1256b, à environ 40 années-lumière de la Terre. La tempête sur l’exoplanète est plus une brume rocheuse qu’une tempête que vous pourriez trouver dans un désert. Les particules de poussière sont en fait de petits grains composés de silicium et d’oxygène appelés silicates1. VHS 1256 b montre du monoxyde de carbone près de 2,4 microns et largement à 4,6 microns, ce qui conduit à l’une des caractéristiques du monoxyde de carbone les mieux résolues parmi les spectres de naines brunes basés dans l’espace. Le dioxyde de carbone à 4,2 microns ne peut être observé depuis le sol, mais est présent dans le spectre JWST sous forme d’absorption légèrement excessive2.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Faut se dépêcher de faire joujou car l'Italie vient de bloquer ChatGPT, entre autre car il n'y a pas de filtre pour vérifier que l'utilisateur a plus de 13, et parce que OpenAI collecte tous nos essais sans le dire.
https://www.liberation.fr/economie/e...H5PWMAIBK3S7E/
Avec un peu de réflexion, il est évident que l'IA peut avoir une capacité de debunking..Faut se dépêcher de faire joujou car l'Italie vient de bloquer ChatGPT, entre autre car il n'y a pas de filtre pour vérifier que l'utilisateur a plus de 13, et parce que OpenAI collecte tous nos essais sans le dire.
https://www.liberation.fr/economie/e...H5PWMAIBK3S7E/
Sans questions il n'y a que des problèmes sans réponses.
Je crois qu'on s'inquiète un peu vite concernant le sens critique.
Il y a eu un premier livre avec Gutenberg qui n'était rien d'autre que la Bible je crois, puis bien plus tard le premier journal. Et plein d'autres ont suivi.
Qu'est-ce qui dit que d'autres chatGPT ne vont pas développer en parallèle comme Bing ou ailleurs mais en mieux ?
c'est vrai que cette machine donne l'impression d'une tentative presque complètement aboutie, aux erreurs près naturellement.
En supposant que les concepteurs résolvent les difficultés, ce peut être la voie à la création d'une pluralité d'IA: je suis pas pessimiste sur ce point-là en tout cas.
Ce qui est un peu flippant quelque part, c'est que c'est la première fois qu'une IA dépasse largement le niveau purement humain de connaissances.
en ayant des tas de compétences dans plein de domaines...
Dernière modification par oualos ; 31/03/2023 à 20h45.
c'est typiquement le genre de phrase qui est complètement dans l'erreur. ChatGPT ou GPT-4 ne font que te ressortir des trucs inspirés de textes humains, donc il n'ont aucune connaissances supérieures à celles des humains - en fait ils n'ont aucune connaissance du tout. C'est comme si tu disais que la bibliothèque de France avait un tas de compétences dans un tas de domaines qui dépasse largement celles de chaque humain - là c'est pareil, sauf qu'il y a une interface qui va simplement répondre rapidement à ta requête avec un langage humain, avec beaucoup de choses justes, mais aussi avec un certain nombre d'inventions de son cru qui sont forcément fausses puisque la probabilité d'avoir raison par hasard est quasi nulle.Je crois qu'on s'inquiète un peu vite concernant le sens critique.
Il y a eu un premier livre avec Gutenberg qui n'était rien d'autre que la Bible je crois, puis bien plus tard le premier journal. Et plein d'autres ont suivi.
Qu'est-ce qui dit que d'autres chatGPT ne vont pas développer en parallèle comme Bing ou ailleurs mais en mieux ?
c'est vrai que cette machine donne l'impression d'une tentative presque complètement aboutie, aux erreurs près naturellement.
En supposant que les concepteurs résolvent les difficultés, ce peut être la voie à la création d'une pluralité d'IA: je suis pas pessimiste sur ce point-là en tout cas.
Ce qui est un peu flippant quelque part, c'est que c'est la première fois qu'une IA dépasse largement le niveau purement humain de connaissances.
en ayant des tas de compétences dans plein de domaines...
Il parait aussi évident que l'interdiction n'a rien à voir avec l'IA. On peut aussi avoir de gros doutes sur les motivations d'une décision aussi rapide et radicale vu ce qui est accessible à coté sur le Net aux mineurs et sur les collectes de données diverses...
Mais rien ne change : https://www.retronews.fr/economie/ec...ses-propheties
https://fr.wikipedia.org/wiki/Locomotive_Act
On n'a pas lâché Frankenstein dans la nature... enfin si on exclue Elon Musk et tous les autres entrepreneurs milliardaires.Et bien voilà, on a lâché Frankenstein dans la "nature" , et on se rend compte maintenant que cela va poser beaucoup de problèmes. Elon Musk ancien investisseur d'Open AI lui même fait partie des signataires de cette pétition car selon eux les développements de l'IA représentent un danger majeur pour l'humanité...
https://fr.wikipedia.org/wiki/Monstre_de_FrankensteinDans le roman — où il est appelé « le démon », « le monstre » et le plus souvent « la créature » — comme dans la plupart des films, le monstre n'a pas de nom.
Une confusion s'est cependant opérée dans l'esprit du public entre le savant et sa créature, qui est fréquemment, et par abus de langage, désignée sous le nom de « Frankenstein ».
Cette confusion est entretenue par certaines adaptations.
J'allais le dire.Envoyé par Archi3c'est typiquement le genre de phrase qui est complètement dans l'erreur. ChatGPT ou GPT-4 ne font que te ressortir des trucs inspirés de textes humains, donc il n'ont aucune connaissances supérieures à celles des humains - en fait ils n'ont aucune connaissance du tout. C'est comme si tu disais que la bibliothèque de France avait un tas de compétences dans un tas de domaines qui dépasse largement celles de chaque humain - là c'est pareil, sauf qu'il y a une interface qui va simplement répondre rapidement à ta requête avec un langage humain, avec beaucoup de choses justes, mais aussi avec un certain nombre d'inventions de son cru qui sont forcément fausses puisque la probabilité d'avoir raison par hasard est quasi nulle.
Et c'est tout aussi vrai avec internet.
Il faut aussi savoir que les publications de haute qualité ne sont en général pas accessibles gratuitement sur internet ni même parfois rendues publiques (faut payer).
(Après je sais pas si les concepteurs ont eu le droit d'aspirer toutes les publications scientifiques pour alimenter leur base de travail).
Sans compter les livres qui n'ont pas j'imagine été numérisés "juste pour faire plaisir à "Frankenstein".
Je ne vois pas en quoi un moratoire pourrait apporter une réponse précise, circonstanciée, nuancée, qui serait à la fois protectrice sans être castratrice de progrès bénéfique.
C'est la même chose que les méga bassines, mais évidemment ce serait impossible à rédiger en moratoire, sans compter les lobbys de tous bords qui tireront sur la corde...dans des sens opposés.
L'abscence de moratoire laissera passer des dérives non opportunes.
Un moratoire sera forcément castrateur qq part et frein à un progrès bénéfique.
Pile, on perds.
Face, on perds.
Je vote pour a tranche, c'est mon art du compromis, je me découvre centriste, pardon, tranchiste.
Pour une fois je rejoins Archi, mais on est hors sujet covid. Les IA sont rapides ( comme l'introduction de masse de la calculette en d'autres temps ) mais ça ne veut pas dire plus intelligente, enfin ça dépend comment on la définit. Dans le terme IA, le I est sans doute un peu galvaudé. Je préferai parler d'artificiel efficient. Je n'ai pas dit pas efficace, j'ai dit efficient, grosse nuance. Le genre humain peut être plus efficace, plus précis, etc...mais en adressant des ressources précises, fortes et spécialisées.
bonsoir
de toutes façons le respect d'un moratoire est invérifiable!
JR
l'électronique c'est pas du vaudou!
Le vrai problème c'est pas le monstre de Frankenstein, c'est l'humain.
Par exemple depuis longtemps on a des automates qui gèrent les achats/ventes à la bourse.
Est-ce que cette utilisation pose problème ?
Bien sûr, et c'est pour ça qu'on a dû règlementer l'usage (usage veut dire humain...).
Et ça va de l'emploi des armes à l'emploi d'internet, des véhicules roulants volants ou naviguants.
On règlemente.
Et lorsque la technique va plus vite que la règlementation je ne vois pas le problème à temporiser l'emploi effectif d'une nouvelle technologie (pour ce qui est de la recherche c'est autre chose).
Dernière modification par ArchoZaure ; 31/03/2023 à 21h45.
Pareil. J'ai aussi du mal à voir comment on imposerait ce genre de moratoire à l'échelon planétaire et pourquoi 6 mois ?
J'ai aussi du mal avec les gens qui disent "c'est dangereux" sans évidence comme cela a été dit pour tous les changement qui ont précédés.
Un trou noir n'est pas un trou et il n'est pas noir et l'expression anglo-saxone pour dire qu'il se décrit avec peu de paramètres et "qu'il n'a pas de cheveux" et c'est une blague à connotation sexuelle/scatologique.
Un anneau en maths ne se porte pas au doigt.
Le Big Bang n'est pas un bang et le nom a été proposé par un opposant à cette théorie pour s'en moquer.
Etc, etc.
Les choses ont des noms qui traduisent plus ou moins bien la réalité. L'IA, c'est de chercher à faire des tâches qui relèvent des capacités cognitives humaines : reconnaissance de forme, de la parole, traitement symbolique, manipulation du langage...
Il n'y a aucune mais alors aucune raison d'être obsédé par le terme "intelligence" dès qu'on s'est un minimum informé et passer son temps à dire "elles ne sont pas intelligentes moi si" ne dit rien sur le domaine mais tout sur les personnes qui répètent ça en boucle.
Comme déjà dit n fois, c'est juste un outil qui permet de faire des choses différentes et qu'il faut comprendre et maitriser si on veut s'en servir. Rien de plus, rien de moins et il n'est pas plus dangereux que tous les outils inventés par l'humanité depuis le silex et le feu.