Mais qu’est-ce que c’est cette obsession pour ChatGPT ? !!!!!! C’est ridicule à la fin.
-----
Mais qu’est-ce que c’est cette obsession pour ChatGPT ? !!!!!! C’est ridicule à la fin.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
C'est le sujet du fil non? si vous trouvez cela hors charte, fermez ce fil, sinon vous n'êtes pas obligez d'y participer, mais vous pouvez toujours intervenir de façon constructive, mais là je vois pas...
La question de JPL serait constructive si elle était posée sur les fils où on pose des questions à GPT-x en semblant penser qu'on va y trouver une réponse sérieuse....
Est-ce que tu connais la charte ? Lis :
Je n’ai donc fait qu’exprimer mon opinion face à ce déferlement de discussions sur ChatGPT. Elles évoluent toutes de la même façon alors que cela fait longtemps qu’elles ont fait le tour de ses performances, et surtout de ses limites. Mais c’est vrai que j’aurais pu poster également ce message ailleurs. Personnellement, en l’état je pense que cet "outil" ne mérite pas qu’on en parle tant.Tout acte de modération est écrit en vert ; dans les autres cas les modérateurs s’expriment à titre personnel.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Je pense au contraire que ces fils passent à coté de 99% du sujet vu qu'ils sont tous construits sur le même principe qui est poser que l'outil devrait faire certaines choses pour lesquelles il n'est pas conçu puis d'essayer de le coincer.
Ce qu'il peut faire de vraiment nouveau est massivement ignoré.
La technologie derrière, les progrès qu'elle représente, les débats sur ce qu'elle représente notamment l'existence de propriété émergentes, les évolutions attendues, les moyens de dépasser les limitations, bref tout l'aspect scientifique est lui ignoré totalement avec une absence de curiosité que je trouve impressionnante.
Tel qu'il est présenté ici oui. D'autres (dont des scientifiques, informaticiens, etc) pensent que cet outil et ceux qui vont suivre vont avoir un impact très important sur de nombreuses activités et qu'on n'est pas encore préparé (ce qui est hors charte même si déjà abordé donc je ne vais pas détailler).
je ne pense pas que Liet Kynes cherchait à le coincer en l'interrogeant sur le second principe appliqué aux atomes. En revanche, il l'a clairement utilisé pour un usage pour lequel il n'était pas conçu, c'est à dire dire des choses intelligentes sur une question "non standard". Ce serait une faute grave si ceux qui connaissent un peu le sujet laissent passer les âneries qu'il a pu sortir sans les rectifier.
mon message devient incompréhensible car dans l'intervalle, toute la partie de la discussion où Liet Kynes a posé des questions à GPT-4 et où celui ci a sorti des énormités a été purement et simplement complètement effacée, et je ne peux plus éditer mon message. Ce qui est certainement favorable à la qualité scientifique du forum mais perd le côté pédagogique de pourquoi il ne faut PAS poser ce genre de question à GPT si on veut des réponses sérieuses : il avait quand même sorti que l'équation de Schrödinger indépendante du temps servait à décrire comment un système quantique évoluait dans le temps (!), donné une forme complètement fausse à cette équation, et prétendu qu'il fallait éclairer des atomes avec un laser pour les amener dans leur état fondamental, en confondant le refroidissement de l'énergie translationnelle avec l'état interne. Bref un tissu d'âneries sans queue ni tête, que la modération a préféré pudiquement effacer.
J'ai pas pu amener la démo non plus mais il est vrai que le HS était terrible
J'en étais à écrire une réponse qui rappelait dans l'échange avec BING le " " que j'avais bien placé. Le but du truc était simplement de dire qu'il s'agisse du faux discours de BING ou du vrai d'un expert, si le lecteur n'a rien capté (d'où mon sarcasme dans l'autre post avec "j'y vois plus clair ") on peut tout de même lui accorder ce minimum d'intelligence de savoir ne pas absorber l'info qui est vide de sens pour lui.
Sans questions il n'y a que des problèmes sans réponses.
Je veux bien, mais qui parmi nous a une expertise suffisante pour faire plus que bavarder à propos de quelques essais mené dans une logique (ou absence de logique) qui n’a rien à voir avec celle de l’outil ? Voire plus lui poser des questions délibérément absurdes pour le piéger et s’étonner qu’il donne avec un grand sérieux des réponses tout aussi absurdes. C’est puéril.Je pense au contraire que ces fils passent à coté de 99% du sujet vu qu'ils sont tous construits sur le même principe qui est poser que l'outil devrait faire certaines choses pour lesquelles il n'est pas conçu puis d'essayer de le coincer.
Ce qu'il peut faire de vraiment nouveau est massivement ignoré.
Personnellement, dans l’état actuel des choses cet outil ne peut rien m’apporter et je ne peut rien apporter en en discutant. Donc je pense sage de m’en abstenir. Ceci ne signifie nullement que j’estimee que c’est une voie sans issue pour en faire quelque chose de puissant et d’utile. Je n’aurai pas cette outrecuidance.
Pour moi c’est un jalon d’étape vers quelque chose d’autre, à condition de l’employer à ce pour quoi il est fait.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Je suis bien sur d'accord et c'est aussi pour cela que je poste des liens vers des articles variés.Je veux bien, mais qui parmi nous a une expertise suffisante pour faire plus que bavarder à propos de quelques essais mené dans une logique (ou absence de logique) qui n’a rien à voir avec celle de l’outil ? Voire plus lui poser des questions délibérément absurdes pour le piéger et s’étonner qu’il donne avec un grand sérieux des réponses tout aussi absurdes. C’est puéril.
C'est tout à fait possible mais autour de moi, l'utilisation professionnelle devient assez importante et surtout très variée.
On est d'accord là aussi.
Il est sur que ce n'est qu'un jalon puisqu'il est déjà dépassé et que certaines évaluations indiquent que les progrès vont être impressionnants. Le patron de Nvidia dont les GPUs sont derrière toutes les IAs en gros pense qu'on va suivre une loi de Moore ou plus rapide encore.
Mais je pense aussi que l'image et les exemples donnés ici masquent largement le potentiel de ce qui existe déjà et qu'effectivement, la réaction a été plus de chercher à l'évaluer en mode très, très critique ou de le piéger que de chercher des usages intéressants.
Je relate juste une expérience.
J'ai pris le concours d'entrée à Polytechnique pour la partie math et ai copié les 10 premières questions dans le corps du message.
J'appuie sur la touche <Enter> et en l'espace d'un instant il me résout les 10 premières questions du concours d'entrée le plus prestigieux et difficile de France.
En un clin d'œil, les 10 premières questions du concours d'entrée à l'X pour la partie math...
Rien à dire d'autre: je suis soufflé car j'ai jamais vu ça de ma vie sur ou avec aucune autre IA.
Mais c'est possible qu'elle existe: j'ai pas essayé avec Bing ou d'autres...
donc c'est normal qu'on en parle beaucoup car je trouve que cette IA conversationnelle représente une vraie révolution.
Lorsque je faisais des études d'informatique en fac, on étudiait les réseaux de neurones lesquels existent depuis longtemps déjà: personne surtout moi n'aurait pu prévoir qu'on arriverait à ce résultat aujourd'hui!
ce qui arrive aujourd'hui représentait de la SF à l'époque.
Hum hum... les épreuves de mathématiques de ce concours comme celui des autres écoles d'ingé (que j'ai passé en son temps) contiennent toutes des notations et symboles (ensembles, fonctions, séries, matrices, polynômes, appartenance, application...) que ChatGPT sous sa forme actuelle (uniquement textuelle) ne comprend pas, déjà car il ne peut pas les lire. Donc comment serait-ce possible ?Je relate juste une expérience.
J'ai pris le concours d'entrée à Polytechnique pour la partie math et ai copié les 10 premières questions dans le corps du message.
J'appuie sur la touche <Enter> et en l'espace d'un instant il me résout les 10 premières questions du concours d'entrée le plus prestigieux et difficile de France.
En un clin d'œil, les 10 premières questions du concours d'entrée à l'X pour la partie math... [...]
https://gargantua.polytechnique.fr/s...rer/fVaJZhYYYS
Dernière modification par GBo ; 24/04/2023 à 19h26.
bonne question je me suis gouré quelque part alors
Tu peux lui faire lire du latex si tu indique qu'il y en a dans la page, pour des PDF en mode image c'est pas possible sauf à rédiger soi-même les formules en latex et le texte. J'ai fait quelques essais maths mais cela ne donne pas grand-chose (aussi du fait de mon maigre niveau); un peu de mieux avec GPT4/BING par rapport à chatGPT mais cela donne des idées, pas des solutions, retenons quand même que cela va venir, les solutions techniques, elles, sont déjà là.Hum hum... les épreuves de mathématiques de ce concours comme celui des autres écoles d'ingé (que j'ai passé en son temps) contiennent toutes des notations et symboles (ensembles, fonctions, séries, matrices, polynômes, appartenance, application...) que ChatGPT sous sa forme actuelle (uniquement textuelle) ne comprend pas, déjà car il ne peut pas les lire. Donc comment serait-ce possible ?
https://gargantua.polytechnique.fr/s...rer/fVaJZhYYYS
Dernière modification par Liet Kynes ; 24/04/2023 à 20h28.
Sans questions il n'y a que des problèmes sans réponses.
j'ai fait une erreur c'est touten fait tu racontes n'importe quoi c'est bien ça ?
sinon je préfère qu'on se vouvoie monsieur
Rappel de la charte du forum :
Par ailleurs sans être obligatoire le tutoiement est depuis toujours l’usage sur les forums francophones et n’implique aucune marque de familiarité.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
je ne vois pas comment tu as pu faire "une erreur" en déclarant que tu as recopié les 10 premières questions dans le corps du message d'un sujet plein de formules mathématiques (tu les as rentrées comment? en LaTeX ?) , que tu aurais " appuyé sur la touche <Enter>" (qui, entre parenthèses, dans la fenêtre de prompt ne fait qu'aller à la ligne et n'envoie pas le message ), et que "en l'espace d'un instant il me résout les 10 premières questions du concours d'entrée le plus prestigieux et difficile de France."
C'est pas "une erreur", c'est juste que tu racontes n'importe quoi, reconnais le ...Ou alors tu souffres d'hallucinations, il y a des médecins pour ça.
Je préfère éviter les médecins en ce moment vu mes finances d'autant que le prix de la consultation vient d'augmenter.
Pas de beaucoup, d'un euro cinquante... Mais comme motif pour consulter, mon cher médecin traitant risque de trouver cela léger!
(On peut continuer une conversation comme ça pendant longtemps mais je sais pas si les modérateurs et participants jugeront cela productif. J'en sais rien, je sais pas grand chose en fait.)
Dernière modification par oualos ; 24/04/2023 à 22h22.
En effet, arrêt immédiat de cette dérive où une personne est ciblée plus que le fond. De plus on n’est pas là pour refaire des tests montrant les qualités et les limites de l’utilisation de GPT, mais pour envisager des avenirs possible... si on a la compétence pour le faire.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Pour revenir au côté après chatGPT on parle déjà d'un GPT 5 mais google est peu évoqué, pourtant en matière de données, ils doivent en avoir sous le pied, je pense aux bouquins numérisés entre autre (les images street view par exemple peuvent être aussi une source).
Sans questions il n'y a que des problèmes sans réponses.
Il y a quelques décennies un prof d'info avait dit "s'il suffisait d'avoir de l'argent et des équipes pour faire du logiciel, IBM serait le 1er éditeur mondial".
C'était à l'époque où ils étaient 10 fois plus gros que le n° 2 et en fait, ils étaient bien 1er mondial mais artificiellement (via les ventes liées).
Cela s'applique aussi à l'IA et à chaque changement : il ne suffit pas d'avoir tout ce qu'il faut sur le papier pour sortir en tête du prochain virage technologique.
Cela a même été théorisé dans un bouquin qui s'appelle "The Innovator Dilemma" (et si tu as vu le film Glass Onion, le bouquin est dedans).
Dans le cas présent, il est difficile de dire si Google qui a en effet tout ce qu'il faut va réussir à le transformer en un succès et garder sa position où s'il va lui arriver ce qu'eux ont fait à Altavista et Yahoo, que Microsoft a fait à IBM, etc.
On peut aussi remarquer que la techno de ChatGPT est connue et pas du tout unique à OpenAI (cf. ce que dit Yann le Cun).
Mais leur force c'est d'avoir fait un outil qui est bien accepté socialement et qu'ils ne sont pas obligé de retirer au bout de 3 mois comme d'autres.
Bref et comme pour leurs prédécesseurs, il ne suffit d'avoir la technologie, il faut aussi savoir l'imposer sur le marché (et là aussi, il y a plein d'histoires intéressantes mais qui ne relèvent pas de la thématique du forum).
tout le monde peut se tromper, et il arrive même que certaines erreurs soient très instructives si on les analyse correctement : il y a des exemples fameux comme la découverte de la radioactivité par Becquerel où il a développé "par erreur" des plaques photo qui n'avaient pas été exposées au soleil mais qui avaient reçu des rayonnements du minerai d'uranium, et jackpot !
. Pourrais tu nous copier "in extenso" ce que tu lui as demandé au juste, et quelle a été sa réponse, ce serait intéressant de le savoir ?
Il y a quand même peut-être un start départ différent entre ceux qui entraînent leur modèle sur des données gratuites et ceux qui possèdent, livres, audio, vidéos, images numérisés mais non libre de droits ?Il y a quelques décennies un prof d'info avait dit "s'il suffisait d'avoir de l'argent et des équipes pour faire du logiciel, IBM serait le 1er éditeur mondial".
C'était à l'époque où ils étaient 10 fois plus gros que le n° 2 et en fait, ils étaient bien 1er mondial mais artificiellement (via les ventes liées).
Cela s'applique aussi à l'IA et à chaque changement : il ne suffit pas d'avoir tout ce qu'il faut sur le papier pour sortir en tête du prochain virage technologique.
Cela a même été théorisé dans un bouquin qui s'appelle "The Innovator Dilemma" (et si tu as vu le film Glass Onion, le bouquin est dedans).
Dans le cas présent, il est difficile de dire si Google qui a en effet tout ce qu'il faut va réussir à le transformer en un succès et garder sa position où s'il va lui arriver ce qu'eux ont fait à Altavista et Yahoo, que Microsoft a fait à IBM, etc.
On peut aussi remarquer que la techno de ChatGPT est connue et pas du tout unique à OpenAI (cf. ce que dit Yann le Cun).
Mais leur force c'est d'avoir fait un outil qui est bien accepté socialement et qu'ils ne sont pas obligé de retirer au bout de 3 mois comme d'autres.
Bref et comme pour leurs prédécesseurs, il ne suffit d'avoir la technologie, il faut aussi savoir l'imposer sur le marché (et là aussi, il y a plein d'histoires intéressantes mais qui ne relèvent pas de la thématique du forum).
Dans la variante amazone est aussi équipé. Rien n'empêche d'intégrer tout les bouquins à la base de connaissance pour l'apprentissage ?
Sans questions il n'y a que des problèmes sans réponses.
Si on parle des IAs générationnelles généralistes type ChatGPT non. Parce qu'on les entraine uniquement sur du texte et que l'Internet contient déjà largement assez d'informations.
Dans d'autres domaines, cela peut faire la différence en effet : j'avais donné un article sur une IA générationnelle typée finance et entrainée par Bloomberg sur leurs données. Là effectivement, ils ont un avantage.
Certains pensent que c'est aussi le cas de Tesla en conduite autonome parce qu'ils ont tout qu'ils ont collecté de leur flotte de véhicules mais actuellement, on constate plutôt le contraire, que les concurrents progressent plus vite (mais c'est sans doute du à autre chose, des décisions non optimales de Tesla).
Et il y a des domaines où la collecte et l'accès aux données est une immense sujet et pas du tout facile à régler : dans le médical par exemple.
Cela me fait penser à l'article que Deedee81 a proposé sur les publications scientifiques, dans des domaines de pointe cela risque de rebattre les cartes sérieusement, on parlera peut-être de pollution informative?
Sans questions il n'y a que des problèmes sans réponses.
Tous les bouquins? Y compris ce genre là?
https://www.amazon.fr/D%C3%A9codage-.../dp/2840586606
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
C'est l'équivalent des sectes cette "littérature"...
Comme celles qui prescrivent un jeune pour guérir des cancers et qui a conduit des patients à la fin lorsqu'ils ont arrêté chimie et radiothérapie sur les conseils du gourou..
Les responsables sont d'ailleurs en procès et il existe un comité de lutte anti-dérive sectaire
https://fr.wikipedia.org/wiki/Missio...ives_sectaires
Je suppose qu'il existe des filtres pour les IA conversationnelles pour stopper ce genre de thèses.
Jusqu'ici je n'ai jamais pris chatGPT en défaut ni sur ce sujet ni sur d'autres.
Malheureusement il paraît qu'on assiste en ce moment à une prolifération de sectes en tout genre.
Comme la Famille à Paris regroupant plus de 3000 personnes qui se marient entre elles, mangent et se voient uniquement entre elles...
rien que la définition sur Google fait peur
Secte Famille Paris
La Famille est une communauté religieuse familiale française d'inspiration chrétienne, issue du jansénisme convulsionnaire, créée en 1819. Elle regroupe huit patronymes qui représentent environ 4 000 personnes en 2021, habitant presque toutes dans trois arrondissements de l'est parisien.
Dernière modification par oualos ; 25/04/2023 à 11h29.
Oui :Tous les bouquins? Y compris ce genre là?
https://www.amazon.fr/D%C3%A9codage-.../dp/2840586606
Quand à utiliser les livres non domaine public mais qu'Amazon a via les Kindle, je pense que c'est un gros vide juridique dans l'absolu mais il est également possible que les éditeurs aient blindé ça. Ou qu'ils aient raté le truc et qu'Amazon le puisse.Que penser du livre de Christian Flèche "Décodage biologique des maladies" ?
Étant une intelligence artificielle, je n'ai pas de sentiments personnels ou d'opinions. Cependant, je peux vous fournir des informations générales sur le livre "Décodage biologique des maladies" de Christian Flèche et vous laisser former votre propre opinion.
Le livre de Christian Flèche, "Décodage biologique des maladies," est un ouvrage qui traite de la compréhension des maladies à partir d'une perspective psychobiologique. L'auteur soutient que les maladies sont des réponses biologiques aux événements et situations vécus par les individus, et qu'elles ont des significations émotionnelles et psychologiques profondes.
Le décodage biologique propose que le corps utilise les symptômes pour communiquer des messages cachés liés à des conflits émotionnels non résolus. Flèche présente des explications pour de nombreuses affections courantes et explore comment résoudre ces conflits émotionnels pour retrouver la santé.
Ce livre a suscité des réactions diverses de la part des lecteurs et des professionnels de la santé. Certains trouvent cette approche intéressante et prometteuse, tandis que d'autres critiquent le manque de preuves scientifiques et le fait que le décodage biologique pourrait détourner les patients de traitements médicaux conventionnels éprouvés.
Il est important de garder un esprit critique et de ne pas accepter les affirmations de l'auteur sans évaluer les preuves disponibles. Comme pour tout sujet, il est essentiel de consulter plusieurs sources d'information et de discuter avec des professionnels de la santé pour prendre des décisions éclairées concernant les soins de santé personnels.
Ce n'est pas un sujet scientifique ceci dit.