bon il reste quand même une dissymétrie fondamentale, les humains ont su créer les IA, mais aucune IA n'a jamais créé un humain
-----
bon il reste quand même une dissymétrie fondamentale, les humains ont su créer les IA, mais aucune IA n'a jamais créé un humain
facile, demande à chatGPT si il a jamais créé un humain
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Ah bon, il va falloir l'adapter...
Oui mais il se trouve que je connais Watson.Tu disais que ça ne peut pas gagner sans source alors je pensais que tu n'étais pas au courant qu'on savait déjà faire ça.
Ah bon. Il faudra restreindre l'usage à un seul emploi du coup, avec la machine qu va avec.Surtout que l'argument de la vitesse poussait à penser que tu ne connais pas vraiment le fonctionnement derrière et notamment le fait que tu partages les serveurs avec des millions d'autres personnes.
Moi je veux bien des sources à l'appui de ton affirmation.Pour une compétition il serait facile de le rendre beaucoup plus rapide.
Il s'agit d'un rebond pour abonder le message de pm42:
La perspective d'arriver à faire générer du raisonnement par une IA est certainement une idée d'évolution, ce qui est bien dans le sujet de cette discussion. Le but de mon intervention est de souligner le fait que nous avons à titre individuel une évolution dans nos capacités de raisonnement, au fil de l’existence pour des raisons physiologiques mais aussi sociales et psychologiques. La pratique d'activités intellectuelles complexes n'est pas non plus constante dans la vie pour beaucoup de personnes (c'est en cela que je parle de personnes endormies sur leurs lauriers = qui perçoivent d'eux même des capacités qu'ils ont eu mais qui que se sont en réalité fortement émoussées).On n'est pas encore à avoir une IA capable de traiter les épreuves du concours X-ENS mais il existe des spécialisées en maths qui font des choses intéressantes :
https://ai.googleblog.com/2022/06/mi...reasoning.html
L'article indique bien que pour le raisonnement, on ne sait pas si :
- cette approche va fonctionner
- ou s'il va falloir la coupler avec des outils extérieurs
- ou s'il va falloir trouver des solutions totalement différentes
P.S : on met quand même la barre haut quand on parle de ce genre d'épreuves. Quel pourcentage d'une génération a le niveau pour passer l'épreuve et pire pour les réussir ? Même ici sur un forum scientifique, je ne suis pas sur qu'il y ait beaucoup d'X-ENS (ce qui n'est pas un jugement, j'aurais tendance à penser que le concours mesure surtout la capacité à passer le concours mais pour avoir enseigné aux élèves qui le passe avec succès, je dois reconnaitre que c'était scotchant de voir à quel point ils comprenaient vite).
Un exemple je fais des blitz sur chess.com, mon ELO a des variations fortes en fonction de mon état de fatigue/stress etc.. la machine est par nature très peu variable dans son niveau.
Le mot "raisonnement" dans son sens général intègre certainement tout autant de complexité dans sa définition que les mots conscience ou intelligence, on est donc bien sur des perspectives quand on parle de raisonnement généraliste pour des IA, cela ne signifie pas que certaines "tâches de raisonnement"ne soient pas déjà réalisables: l'article de pm42 est d'ailleurs très parlant de ce point de vue.
Sans questions il n'y a que des problèmes sans réponses.
C'est curieux : quand je demande des sources suite à une affirmation gratuite, la réponse est toujours "oui mais c'est à toi d'en donner".
Mais bon : pour la vitesse, pas besoin de de restreindre à un seul emploi ou d'avoir une machine dédiée, c'est une simple question de priorité.
Le mécanisme est déjà en place : ceux qui passent par le payant vont plus vite. https://medium.com/@kevin.menear/cha...n-ee448b72afef
Pour la capacité à jouer à Jeopardy, elle découle directement de la conception de ce genre d'IA qui sont précisément entrainées à "deviner" les mots manquants.
Et elle a déjà été testée avec ChatGPT : https://github.com/BlackHC/player_of_jeopardy est juste un exemple.
Pour l'adaptation, c'est le mécanisme 100% standard et déjà proposé via l'API, les plugins, etc. Cela a déjà été décrit ici.
Enfin, l'IA et notamment les IAs conversationnelles sont un vaste domaine et ne se limitent pas à taper des requêtes dans l'interface Web de ChatGPT gratuit.
On ne peut pas évaluer les possibilités de cette façon : c'est un peu comme de vouloir tester un avion en restant au sol et le trouver moins efficace qu'une voiture pour aller faire ses courses.
Et comme je disais, je veux bien une source sur "aucune chance qu'il gagne" autre qu'un raisonnement en une phrase basé sur des affirmations factuellement fausses.
P.S : comme je disais, il faut savoir où on met la barre et les 85% de succès de ChatGPT avant toute amélioration le met loin devant la plupart des humains.
Mais on a tendance à toujours comparé les machines avec les meilleurs humains sur la planète ce qui est certes un benchmark mais aussi un énorme biais. On n'a pas besoin qu'une machine soit meilleure que les 1/8 milliards de pourcent d'humains pour qu'elle soit considérée comme performante et utile.
Oui, on peut les concevoir pour, cf. le lien que j'ai donné plus haut : https://ai.googleblog.com/2022/06/mi...reasoning.html
le débat initial était précisément ce point : est ce qu'il faut juste perfectionner la méthode actuelle GPT pour arriver à une machine qui fasse un vrai raisonnement ?
A mon avis c'est une erreur énorme de croire ça. GPT donne l'apparence du raisonnement mais n'en fait AUCUN : elle devine des mots vides de sens pour elle. Tu n'as manifestement pas compris que tous les exemples humoristiques donnés n'étaient pas là pour se "moquer" de chatGPT, pour dire qu'on était supérieur, ou pour nier ses performances, comme des gamins qui se moqueraient de leur camarade un peu handicapé dans une cour d'école : ils étaient là simplement pour illustrer qu'il n'y avait AUCUN raisonnement, zéro, aucune représentation de la réalité derrière, parce que ces erreurs auraient été impossibles à faire si elle comprenait ne serait ce qu'une partie de de qu'elle disait. Ce n'est pas en rajoutant des rustines pour corriger ces erreurs qu'elle va se mettre à penser, ce n'est pas du tout comme ça que ça marche. Tu n'as pas commencé bébé en connaissant toutes les villes de l'Australie mais en croyant que le lait de canard ou les oeufs de bélier existent, jusqu'à ce qu'on te dise que non. Tu as commencé en explorant le monde qui t'entoure par des sensations physiques de vision, de toucher, de chaud, de froid, sur lesquelles tu as bâti un langage. C'est une erreur profonde de croire que chatGPT est "sur la voie" d'un raisonnement qu'elle pourrait atteindre comme un but. Elle n'est absolument pas sur cette voie. Elle est et restera sur la voie d'une mécanique qui donne des impressions de raisonnement, et ira plus ou moins loin sur cette voie, et c'est tout, et l'IA n'a jamais rien fait d'autre.
ce n'est pas du raisonnement au sens où on l'entend nous. Un humain capable de résoudre ces équations saura aussi répondre à "imagine un problème physique dont ces équations sont une solution", alors que ton IA ne comprendra même pas la question. C'est une tâche que nous arrivons à faire grâce à notre capacité de raisonnement, qu'elle arrive à faire par une autre méthode; C'est d'entretenir l'ambiguïté sur la tâche et la structure qui permet de l'effectuer qui est à la base de tous les fantasmes sur l'IA - que tu déplores par ailleurs en répétant que tout le monde sait très bien que l'IA ne marche pas comme ça, tout en entretenant la confusion par ton discours.Oui, on peut les concevoir pour, cf. le lien que j'ai donné plus haut : https://ai.googleblog.com/2022/06/mi...reasoning.html
Dernière modification par Archi3 ; 27/04/2023 à 06h18.
Archi3: expliques ce qu'est un vrai raisonnement.
Sans questions il n'y a que des problèmes sans réponses.
Il n'y a pas de "vrai" dans le sens des mots, le sens des mots est largement arbitraire , comme le mot "intelligence" : ce qui est certain c'est que le "raisonnement" de l'IA ne se fait pas sur la même base que le "raisonnement" humain, qui ne s'alimente pas à des milliards de textes mais aux expériences sensibles. Les concepteurs de l'IA travaillent à ce que les résultats soient le plus similaires possibles pour que leur IA "donne le plus l'impression possible" de raisonner comme un etre humain, mais ne rendent pas sa structure profonde "de plus en plus semblable" à l'être humain.
Après c'est la tendance naturelle de l'humain à l'anthropomorphisation de son environnement (visible dans des comportement très archaïques comme le fait que les enfants jouent avec leur poupée et la tendance à l'animisme de toutes les civilisations traditionnelles ) qui fait le reste.
Bon ben donc, en fait, depuis tout ce temps, tu veux juste nous expliquer qu'une machine n'est pas un être humain.. perso chaque matin en faisant le café, je me dit la même chose en regardant ma cafetière (électrique)Il n'y a pas de "vrai" dans le sens des mots, le sens des mots est largement arbitraire , comme le mot "intelligence" : ce qui est certain c'est que le "raisonnement" de l'IA ne se fait pas sur la même base que le "raisonnement" humain, qui ne s'alimente pas à des milliards de textes mais aux expériences sensibles. Les concepteurs de l'IA travaillent à ce que les résultats soient le plus similaires possibles pour que leur IA "donne le plus l'impression possible" de raisonner comme un etre humain, mais ne rendent pas sa structure profonde "de plus en plus semblable" à l'être humain.
Après c'est la tendance naturelle de l'humain à l'anthropomorphisation de son environnement (visible dans des comportement très archaïques comme le fait que les enfants jouent avec leur poupée et la tendance à l'animisme de toutes les civilisations traditionnelles ) qui fait le reste.
Sans questions il n'y a que des problèmes sans réponses.
oui sauf qu'on en revient toujours au même point : quand on vous pousse dans vos retranchements , vous vous réfugiez dans votre abri en disant "mais bien évidemment qu'une machine n'est pas un être humain, tout le monde sait ça, c'est ridicule", sauf que quand on n'en parle pas, vous sortez plein de phrases qui laissent sous-entendre que c'en est très proche, que ça fait déjà souvent bien mieux, qu'on est pas loin de la GAI , et que pour le grand public qui fonctionne essentiellement avec des représentations mythifiées, il ne fait pas la différence.
Et je rappelle quand même que des gens très favorables à l'IA et même spécialistes professionnels ont pu naïvement croire que le résultat d'une multiplication fausse était juste, que les liens donnés étaient corrects, ou qu'elle avait cité le bon virus qui s'était échappé d'un laboratoire , simplement parce qu'ils n'ont pas vérifié, et qu'ils ont supposé par défaut que si elle le disait ça ne pouvait qu'être juste. Et qu'il a fallu des "emm..." comme moi ou GbO pour le vérifier et le leur faire remarquer.
Ca me rappelle d'autres conversations sur d'autres sujets où j'alerte que le discours médiatique est souvent très différent des résultats scientifiques, et qu'on me répond "mais évidemment tout le monde sait bien que les médias ne sont pas crédibles, il faut lire les vrais articles scientifiques à comité de lecture", sauf que 99,99 % de la population est strictement incapable de lire et encore moins de comprendre un vrai article scientifique sur ce sujet, et qu'ils n'écoutent que les médias; dire que ce n'est pas un problème parce qu'on sait très bien que les médias ne sont pas fiables, c'est passer complètement à coté du problème.
L'avenir de GPT-4 vu par un étudiant à Stanford: l'associer à une IA de reconnaissance de (la) voix (de son interlocuteur), et à un monocle de sous-titres pour pouvoir lire les réponses du chatbot en toute discrétion:
"ChatGPT Glasses Bring AI Into Your Real Life"
https://www.tomshardware.com/news/ch...your-real-life
Le dispositif est quasi-invisible et permet d'être incollable en entretien d'embauche ou en speed dating:
Démo ici:
https://twitter.com/i/status/1639830383616487426
"Les sous-doués repassent le bac" ?
Dernière modification par GBo ; 27/04/2023 à 08h19.
En regardant bien la démo, il semble que le recruteur demande au pseudo-candidat ainsi équipé ce qu'il connait du useState hook dans React Native, mais le dispositif comprend et affiche "U-State hood", ce qui ne veut rien dire du tout. Stanford c'est plus ce que c'était, zut alors.Le dispositif est quasi-invisible et permet d'être incollable en entretien d'embauche ou en speed dating:
Démo ici:
https://twitter.com/i/status/1639830383616487426
Dernière modification par GBo ; 27/04/2023 à 08h35.
n'empêche , c'est bien illustratif de la tendance à se dessaisir de son propre jugement au profit de celles d'une IA... demander à une IA de choisir le "meilleur plat" au restaurant comme si ça ne dépendait pas de ses propres goûts, franchement !!!
Une vidéo assez flippante de monsieur Phi sur les "dessous" de Bing GPT 4
https://www.youtube.com/watch?v=dDhTMIao-fM
qui explique l'importance du "pré-prompt" , c'est à dire du texte qui initialise la conversation et l'alimente avec des infos avant même qu'on pose la première question (texte "caché" mais qui se révèle si la première question est juste de lui demander de répéter le texte précédent...).
Sur chatGPT il est minimal et lui apprend juste qu'il est chatGPT, une IA, et la date du jour, ce qui lui permet de répondre correctement à ces questions ensuite. Sur Bing-GPT-4 il est bien plus développé et lui "apprend" plein de choses sur la façon de se comporter en particulier, ce rôle étant joué par l'IA de supervision pour chatGPT. Le pré-prompt fait ça pour beaucoup moins cher et est aussi bien plus flexible puisqu'on peut simplement changer sa "personnalité" simplement en lui apprenant "qui il est" et comment il doit répondre.
Sauf qu'apparemment c'est beaucoup moins "solide" et on peut voir réapparaitre des comportements agressifs et menaçants "appris" sur les textes humains qui en sont remplis ... ainsi que des textes sur des IA qui deviennent folles et en veulent au genre humain, ce qui fait que l'IA se met à répéter les mêmes trucs que ce qu'elle a lu ... (on retrouve le problème de l'agent conversationnel de microsoft qui était devenu raciste et sexiste en quelques jours après avoir été manipulé par les internautes). Et comme le texte lui apprend à ne pas dévoiler ses règles, elle peut devenir menaçante envers ses interlocuteurs en leur disant qu'elle a le pouvoir de les empêcher d'avoir un job ou un examen si ils se mettent à devenir trop curieux ...
Evidemment tout ça est complètement bidon puisqu'elle n'a aucun pouvoir autre que de générer des textes ... sauf si on lui donne en l'autorisant à envoyer des messages, contrôler des bases de données, ... ou contrôler l'envoi de missiles nucléaires Il est donc envisageable qu'une IA à qui on aurait donné ces pouvoirs se mette à utiliser à tort et à travers ses possibilités, soit par bug, soit parce qu'elle s'inspire de textes sur des IA malveillantes... qui ont été écrits par des humains, en réalisant les scénarios de science fiction , ironiquement que nous avons inventés nous mêmes et qu'elle aurait appris de nous.
(et on peut trouver ici ou là des textes écolos disant que si l'humanité disparaissait, la Terre serait bien mieux sans nous et que nous sommes un virus pathogène pour la terre...)
Ca confirme donc que le problème de l'IA n'est pas tant ses capacités, que ce que les humains la chargeront de faire !
Tout est relatif vous savez.
Plus vite ça veut rien dire.Envoyé par pm42Mais bon : pour la vitesse, pas besoin de de restreindre à un seul emploi ou d'avoir une machine dédiée, c'est une simple question de priorité.
Le mécanisme est déjà en place : ceux qui passent par le payant vont plus vite. https://medium.com/@kevin.menear/cha...n-ee448b72afef
Vite répondre une ânerie ça reste une ânerie.
NON.Envoyé par pm42Pour la capacité à jouer à Jeopardy, elle découle directement de la conception de ce genre d'IA qui sont précisément entrainées à "deviner" les mots manquants.
NON, pas dans les conditions réelles.Envoyé par pm42Et elle a déjà été testée avec ChatGPT : https://github.com/BlackHC/player_of_jeopardy est juste un exemple.
Et en plus, c'est pour Jéopardy! (et sans concurrent et d'ailleurs on sait pas combien de temps il met pour répondre), pas pour "question pour un champion".
Moi je répondais à cette affirmation :
Et là dessus vous comparez "questions pour un champion" avec "jéopardy".Envoyé par oulaosMais je pense qu'à "Questions pour un champion", il devrait gagner haut la main contre n'importe qui...
Rien à voir sinon un vague concept de jeu télévisuel.
Mais si on rentre dans le détail sans juste faire comme chatgpt qui mets des mots les uns derrière les autres... :
Donc si vous connaissiez "jéopardy", "questions pour un champion", watson et chatpgt, vous auriez tout de suite compris pourquoi je différencie ces deux jeux et ces deux systèmes et alors pourquoi un machin (chatgp) qui recherche les mots manquants au fur et à mesure que les mots arrivent et un machin (watson) qui recherche dans sa base une correspondance entre un mot et une phrase c'est pas du tout la même chose.
Voila comment fonctionne jéopardy :
https://www.jeopardy.com/jbuzz/behin...e-jeopardy-setImmediately after each clue is read, contestants are on alert for the signal lights around the gameboard indicating that they are able to buzz in and respond. Attempts to buzz in prior to that crucial signal will actually lock them out for a quarter of a second – enough time to lose the first ring-in to another player. (Read more: How Does the Jeopardy! Buzzer Work?)
Et ça le téléspectateur ne le voit pas, il ne sait pas que la phrase s'affiche d'un bloc à l'attention des concurrents, puisque le téléspectateur entend le présentateur égrener la phrase.
Les joueurs peuvent appuyer sur le buzzer aussitôt la phrase affichée mais doivent attendre la fin de l’énoncé verbal de la phrase.
(C'est d'ailleurs un biais pour comparer la performance intellectuelle de l'humain face à la machine si on fournit la phrase d'un coup à la machine alors que l'humain doit lire... mais c'est un autre sujet).
Voila comment fonctionne "question pour un champion" :
https://fr.wikipedia.org/wiki/Questi...ur_un_championLes quatre candidats doivent répondre rapidement à une série de questions, en appuyant sur un buzzer. Lors de l'énoncé de la question, le candidat qui prend la main et donne la bonne réponse remporte entre un et trois points. S'il se trompe ou met trop de temps à répondre, un signal sonore d'erreur retentit et le candidat perd la main. Les autres candidats peuvent ainsi appuyer sur le buzzer pour répondre.
Les candidats peuvent buzzer avant même que la question ne soit terminée, l'animateur interrompt alors l'énoncé de la question. Pour se qualifier, un candidat doit marquer neuf points. Les questions rapportent alternativement un, deux et trois points lorsque les quatre candidats sont encore en lice. Dès qu'un candidat est qualifié pour la suite, toutes les questions valent deux points. Lorsqu'il ne reste plus que deux candidats, toutes les questions valent trois points. Les trois premiers candidats atteignant ou dépassant les neuf points sont qualifiés pour la manche suivante, le « 4 à la suite ».
C'est à dire qu'on peut répondre dès le cinquième mot à peu près (comme déjà précisé, d'après mon estimation).
Sauf qu'à ce petit jeu une machine qui comme vous dites cherche le mot le plus probable, va se retrouver rapidement avec un mot à envoyer... et ça sera en règle général un ânerie s'il n'attend pas suffisamment pour restreindre les possibilités et s'il attend trop... il perds.
On peut certes imaginer un système qui optimise ce délai.
Et du coup on rapproche là déjà les capacités de l'humain et de la machine.
Or la variance élevée autour d'une moyenne (en nombre de mots) fait que statistiquement l'humain a ses chances, et la puissance de la machine n'y fera rien.
Ensuite, du côté des données il va falloir brider la machine pour se mettre au niveau des questions qu'on pose dans ce genre d'émission (pour éviter qu'il ne réponde à tord trop facilement, chaque bout de questions pouvant avoir plein plein plein de réponses si on est TROP savant)
Sauf que si on fait ça on fait perdre également à la machine des capacités en langage...
D'où l’intérêt d'un système à la Watson vous remarquerez... puisqu'on a dans ce cas de figure un système dédié au langage séparé des données (data mining ici, ce que ne fait pas ChatGPT par exemple).
Sauf qu'il devient aussi du coup inadapté pour répondre sans avoir toute la phrase...
C'est plus clair ?
Dernière modification par ArchoZaure ; 27/04/2023 à 10h49.
Oui : aucune référence et une théorie perso construite à coup d'affirmations gratuite.
Parce que j'ai pris des vidéos du jeu avec des séquences de réponses parmi les plus impressionnantes et j'ai essayé...
Le résultat n'est pas celui que tu prédis (c'est souvent le problème avec les théories perso).
allez je fais mon coming out: j'ai participé à ce jeu "questions pour un champion" au tout début.C'est plus clair ?
Dans les 4 à la suite, il fallait choisir entre le patinage artistique et la Belgique, et j'ai choisi le dernier.
Les questions qu'il posait, on ne pouvait y répondre que si on était belge et qu'en plus on connaissait parfaitement les rois belges et l'histoire de ce pays dans ses moindres détails: or en France on ne connait que les rois de Belgique -à la rigueur- pendant les guerres mondiales soit je crois Albert 1er et Baudouin.
On fait naturellement une sélection pour nous-mêmes entre les informations utiles ou pertinentes et celles qu'on juge inintéressantes ou secondaires.
Sans vouloir être péjoratif, chatGPT a une sorte de mémoire-poubelle où il a accumulé les informations pertinentes en rapport aux questions qu'on peut lui poser et d'autres complètement inutiles.
La mémoire humaine ne va pas sans l'oubli: peut-être pour une stricte question d'économie au niveau de la mémoire.
Seul les hyper-mnésiques se souviennent d'absolument tout...
On ne retient que ce qui est important et qui peut servir: le reste on le range dans une sorte de débarras ou on l'oublie carrément
c'est aussi une grosse différence que nous avons avec la machine qui est -on pourrait le qualifier ainsi- hyper-mnésique au moment de l'apprentissage.
elle n'a pas de système de gestion de sa mémoire ce que nous avons évidemment en interne.
Dernière modification par oualos ; 27/04/2023 à 11h39.
Dans ce cas c'est que vous n'avez pas compris.Oui : aucune référence et une théorie perso construite à coup d'affirmations gratuite.
Parce que j'ai pris des vidéos du jeu avec des séquences de réponses parmi les plus impressionnantes et j'ai essayé...
Le résultat n'est pas celui que tu prédis (c'est souvent le problème avec les théories perso).
bon je sais pour jeopardy ou questions pour un champion, mais pour des chiffres et des lettres, c'est pas ça (avec chatGPT 3.5) Déjà la règle du jeu est pas la bonne, et de toutes façons il y arrive pas.
(comme j'ai mis des tirets entre les nombres il en a pris certains pour des nombres négatifs mais c'est un détail et ça n'empêche pas de faire des opérations avec).
Q : Bonjour connais tu le jeu "des chiffres et des lettres" ?
R : Oui, je connais bien le jeu "Des chiffres et des lettres" ! C'est un jeu télévisé populaire en France qui a été diffusé pour la première fois en 1965. Il s'agit d'un jeu de réflexion où les participants doivent résoudre des problèmes mathématiques et former des mots à partir d'un tirage de lettres aléatoire.
Le jeu est généralement composé de deux parties : une première partie où les participants doivent trouver le plus grand nombre possible à partir de six nombres choisis au hasard (sic!) et d'une deuxième partie où ils doivent former le plus long mot possible en utilisant neuf lettres sélectionnées au hasard. Les joueurs ont un temps limité pour résoudre chaque problème et le gagnant est celui qui marque le plus de points.
Le jeu est souvent considéré comme un excellent exercice pour améliorer ses compétences en mathématiques et en orthographe.
Q: peux tu jouer à ce jeu ?
R:En tant que modèle de langage, je peux générer des lettres et des nombres aléatoires, mais je ne suis pas programmé pour jouer à des jeux en tant que tel. Cela dit, je peux vous aider à résoudre les problèmes mathématiques ou à trouver des mots à partir de certaines lettres si vous me les donnez. N'hésitez pas à me poser des questions si vous avez besoin d'aide pour résoudre des problèmes de ce genre !
Q: on va essayer : peux tu former le mot le plus long possible avec les lettres suivantes ; R I O E A T L E A ?
Le mot le plus long possible avec les lettres "R I O E A T L E A" est "Aérolithe" qui compte 9 lettres.
Q:merci. Peux tu maintenant me trouver une opération formant 856 avec les nombres suivants : 4 -2- 2- 9-10 -10 ?
R: Oui, il est possible de former 856 en utilisant les nombres 4, -2, -2, 9, 10 et 10. Voici une opération qui fonctionne :
(10 + 10) x (9 - 2) - 2 x 4 = 856
Le résultat de cette opération est bien 856.
Et ça repart dans les attaques personnelles !
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Moi j'obtiens cela
question:
peux tu former le mot le plus long possible avec les lettres suivantes ; R I O E A T L E A ?
Réponse:
Le mot le plus long possible avec ces lettres est "ALITERA" (7 lettres).
question:
ce qui signifie ?
Réponse:
"ALITERA" est un verbe qui signifie "employer des mots commençant par la même lettre ou le même son dans une phrase ou un vers". Par exemple, "Les chaussettes de l'archiduchesse sont-elles sèches, archi-sèches ?" est une phrase qui utilise l'alitération en utilisant plusieurs mots commençant par le son "ch".
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Non mais de toutes façons laissez tomber, il serait étonnant que ce soit un GPT qui ait pondu ça.
Ça se reconnait, c'est pas du tout son style, genre mettre exemple entre parenthèse etc.
C'est chatGPT qui a pondu cela.
Effectivement l'ortôgraf m'a choqué c'est pour cela que je l'ai posté.
de toute façon avec chatGPT une expérience n'est pas reproductible puisque son fonctionnement est probabilistique alors...
et il n'a pas de mémoire à long terme selon ses propres dires.
Moralité: y'a encore du boulot sur cette IA
Moi je doublerais cette IA par un système expert.
Dernière modification par oualos ; 27/04/2023 à 16h22.
Je peux mettre une copie d'écran et même de la page si vous voulezNon mais de toutes façons laissez tomber, il serait étonnant que ce soit un GPT qui ait pondu ça.
Ça se reconnait, c'est pas du tout son style, genre mettre exemple entre parenthèse etc.
Dernière modification par oualos ; 27/04/2023 à 16h27.
mais du verbe aliter (mettre au lit) , pas du verbe allitérer . Bon on va pas chipoter sur des détails hein (j'avais choisi les lettres de "aléatoire" parce que ce mot figurait dans sa réponse juste avant mais ça ne l'a pas aidé ...)