D'accord avec toi. Je n'utilise Google que par (très vieille) habitude et par flemme de changer, mais en en connaissant à peu près les défauts. Et je n'ai utilisé Bing (et Edge) qu'à l'occasion de l'essai de quelques minutes que j'ai fait avec GPT.
Salut JPL, j'ai pris le temps de lire ton post et refaire l'expérience avec Google Search (en anglais)
Première recherche:[...]
Conclusion, bien que je n’utilise pas Bing ni Edge par principe () je dois reconnaître que l’utilisation de GPT4 dans ce but précis permet d’obtenir les dernières références sur les sujets faisant l’objet que mes questions et fournit des résumés très acceptables qui donnent une première idée sur le contenu des articles.
Le premier lien trouvé est celui de l'article de la NASA, il contient les infos que tu as obtenues mais en plus détaillées et plus justes car il ne saute pas du coq à l'âne de façon très discutable comme le résumé que tu as obtenu.latest JWST results on exoplanets
NASA’s Webb Confirms Its First Exoplanet
https://www.nasa.gov/feature/goddard...rst-exoplanet/
La deuxième requête:
Le premier lien trouvé est l'article de Nature dont j'ai pu lire l'abstract, si on veut un résumé, rien ne vaut l'original.JWST results on TRAPPIST 1-b
"Thermal Emission from the Earth-sized Exoplanet TRAPPIST-1 b using JWST"
https://www.nature.com/articles/s41586-023-05951-7
Enfin:
Là encore, premier lien :JWST results on VHS 1256 b
"Gritty, swirling clouds of silica surround exoplanet VHS 1256 b"
https://www.popsci.com/science/jwst-...d-clouds-nasa/
Donc je ne comprends pas bien ton point, désolé ! En plus utiliser GPT-x en conjonction de Bing consomme environ 5 fois plus d'énergie que la recherche classique, rapide et précise.
Dernière modification par GBo ; 01/04/2023 à 18h14.
Je fais simplement la requête "Corrige le texte suivant du point de vue de la grammaire,l'orthographe et la syntaxe:"
Dans les usages que tu décris, le programme spécialisé est le moteur de recherche (ce qui justifie effectivement l'utilisation d'une IA disposant de connaissances encyclopédiques), ou c'est toi qui fais l'interface entre un programme spécialisé et GPT (un éditeur LaTeX, un traitement de texte, etc.). Si demain ton éditeur LaTeX intègre une IA permettant de convertir des formules en LaTeX (ou ton traitement de texte un correcteur de grammaire-orthographe-syntaxe, voire une aide à la rédaction), ça ne sera probablement pas une IA aussi généraliste.
Et quand je demande quelles sont les corrections effectuées:
et à la question "est-ce que tu corriges en utilisant ces sites ou par toi même ?" :Message reçu. Les corrections effectuées sont principalement des corrections d'orthographe, de ponctuation et de typographie. Par exemple, j'ai ajouté des virgules, des points et des majuscules là où il en manquait. J'ai aussi respecté les règles d'usage des espaces avant et après les signes de ponctuation. J'ai également corrigé quelques accords de verbes et de noms. Enfin, j'ai supprimé les espaces inutiles et les répétitions. Si vous voulez vérifier vous-même les corrections, vous pouvez utiliser un outil en ligne comme Reverso, Scribens ou LanguageTool qui vous indiqueront les fautes détectées et les corrections proposées.
En savoir plus :1. reverso.net2. scribens.fr
Pour le latex je fais la requête "convertis cette formule " (x*(2^(2*(3^(a-1))))+((((3^a-2^a)*2^(((2*(3^(a-1)))-a))*2^a)-(3^a-2^a))/3^a)=y" : en latex compatible avec ce forum https://forums.futura-sciences.com/m...ues-superieur/Je corrige par moi-même, en utilisant mes propres connaissances et compétences en français. Je ne me base pas sur ces sites, mais je les cite comme des sources possibles pour vous aider à vérifier et à améliorer vos textes
réponse :
Voici la formule convertie en LaTeX compatible avec ce forum :[ x \cdot 2^{2 \cdot 3^{a-1}} + \frac{(3^a - 2^a) \cdot 2^{(2 \cdot 3^{a-1} - a) \cdot 2^a} - (3^a - 2a)}{3a} = y ]
Pour l’afficher correctement sur le forum, il faut l’entourer de balises TEX.
Résultat après quelques ajustements demandé du fait qu'il a utilisé la balise [SUP] qui apparaissait tel quel:
C'est déjà pas si mal quand on ne connais pas le latex. Pour des formules plus courtes cela va tout seul. Je vérifie ensuite si il n'y a pas d'erreur avec wolfram.
Et si on demande s'il converti par lui même :
Je convertis par moi-même, en utilisant mes propres connaissances et compétences en LaTeX. Je ne me base pas sur un éditeur externe, mais je peux vous en recommander quelques-uns si vous le souhaitez.
Dernière modification par Liet Kynes ; 01/04/2023 à 19h12.
Sans questions il n'y a que des problèmes sans réponses.
Je suis assez dubitatif sur le fait qu'on puisse demander à ce type d'IA comment elle fonctionne sachant que la machine ne raisonne pas mais se base sur des documents qu'elle a intégré à une base de travail, pas forcément à jour ni forcément corrects.
Après, peut-être que dans des sujets de niche, comme l'est peut-être GPT, moins on a de documents relatifs à un sujet précis et plus on aura de réponses qui ressemblent aux maigres sources.
Dans le cas extrême où un sujet n'a été proposé qu'une seule fois dans sa base de travail, peut-être que GPT va la citer quasiment mot pour mot ?
Par exemple ici, sur ce forum, si j'invente un nouveau mot et que j'explique ce que c'est, est-ce qu'il ne va pas le prendre pour argent comptant ?
Ça pose d'ailleurs aussi la question du copyright des données, employées actuellement pour produire la base de travail et dont le produit fini est GPT (commercial) sans avoir demandé le consentement.
D'où aussi la nécessité je pense à faire un moratoire sur l'emploi (pas sur la recherche) de GPT et des GPT like, pour clarifier les limites légales.
Dernière modification par ArchoZaure ; 01/04/2023 à 19h40.
Je ne défend aucun point de vue, j’ai juste fait une expérimentation pour voir si ça pouvait être utile à quelque chose d’autre que les amusements qu’en font certains. Je n’ai pas fait ces recherches par hasard, mais parce que je connaissais les résultats récents. Est-ce que ça pourrait m’aider sur des sujets que je ne connais pas ? Je n’en sais rien.
Pour la question énergétique, bien sûr elle se pose mais je ne sais pas dans quelques proportions. Il faudrait aussi savoir si certains moteurs de recherche natifs sont plus ou moins gourmands que d’autre, et je ne pense pas qu’il y ait ici quelqu’un capable de répondre à cette question.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
La question énergétique est compliquée (comme toujours sur ce sujet).Pour la question énergétique, bien sûr elle se pose mais je ne sais pas dans quelques proportions. Il faudrait aussi savoir si certains moteurs de recherche natifs sont plus ou moins gourmands que d’autre, et je ne pense pas qu’il y ait ici quelqu’un capable de répondre à cette question.
Si on fait moins de recherches et qu'on clique sur moins de liens, cela peut être un gain. Idem pour les gains de productivité, etc.
Et aussi à la vitesse à laquelle évolue la technologie, on sait faire des gains spectaculaires.
L'autre question qui se pose est : "est ce que c'est les IAs qui consomment assez d'énergie pour avoir un impact planétaire ou est ce que c'est juste une accusation bien pratique ?".
Par exemple, l'Internet consomme pas mal mais il permet aussi de diminuer les trajets, etc.
Et ce qui consomme de loin le plus sur le Net, c'est les vidéos, le porno, le fait que les gamins mettent YouTube pour avoir de la musique gratos (et oui, les clips permettent ça), etc.
Donc sauf à avoir plusieurs études sérieuses sur le sujet et sur une période assez longue pour être significative, on va avoir du mal à savoir quelque chose scientifiquement.
Et à coté des centrales au charbon en Chine et en Inde, les IAs qui tournent dans des datacenter aux USA et en Europe ne doivent pas peser lourd. D'autant que la tendance est de les construire économiques et à plus faible impact environnemental.
personnellement, je m'en fiche complètement qu'on utilise chatGPT quand on a envie. Si ca te plait d'utiliser une interface qui te fait un résumé approximatif et des références incomplètes au lieu de faire une biblio "professionnelle" et de prendre connaissance des vrais résultats scientifiques (ce qui ne nécessite aucunement de les mettre sous une forme rédigée , si ce qui t'intéresse est de juste comprendre le fond des découvertes), grand bien t'en fasse. Si Liet Kynes préfère passer par chatGPT et corriger ensuite ses formules Latex plutot que de les taper lui même, c'est aussi son affaire. Ca ne me regarde absolument pas, et je ne vois aucun danger derrière.
La seule chose qui me parait problématique, et qui est soulevée par les spécialistes, c'est qu'on confonde la correction de la forme linguistique qu'il atteint, avec des capacités de raisonnement, et qu'on se mette à "croire" à ce qu'il dit en pensant que si il le dit c'est que ça doit etre vrai parce que c'est un ordinateur qui connait plein de chose, ou de "suivre" ses avis. Si ce n'est pas votre cas, c'est parfait, il n'y a rien à vous apprendre, mais ça ne garantit pas que ce ne soit jamais le cas pour d'autres dans la société. Les réponses "aberrantes" que je cite ne sont absolument pas pour lui faire de la peine (il s'en fout bien évidemment), mais juste pour rappeler que ce sont des réponses qui prouvent qu'il n'a aucune logique et aucun raisonnement propre, qu'il ne fait que ressortir des textes moyens - bien sûr la plupart du temps juste mais simplement parce que c'est l'expression d'humains qui ont en majorité un raisonnement juste, pas parce qu'il a ses capacités propres de raisonnement.
Après le problème comme j'ai dit me semble augmenté par le coté "affectif" que je sens dans vos réponses, où vous (surtout PM42, Liet Kynes et quelques autres) vous irritez qu'on relève ses erreurs , comme si vous défendiez quelqu'un à qui vous êtes attachés : et de ce côté là, contrairement aux arguments qu'on présente à des "fausses sciences" comme le terraplatisme, qui contredisent les arguments , le type de réponse "énervée" qu'on reçoit, ça va plutot dans le sens des arguments présentés , et des craintes d'une trop grande anthropomorphisation de ce genre d'outil.
Moi aussi ça me parait problématique.La seule chose qui me parait problématique, et qui est soulevée par les spécialistes, c'est qu'on confonde la correction de la forme linguistique qu'il atteint, avec des capacités de raisonnement, et qu'on se mette à "croire" à ce qu'il dit en pensant que si il le dit c'est que ça doit etre vrai parce que c'est un ordinateur qui connait plein de chose, ou de "suivre" ses avis. Si ce n'est pas votre cas, c'est parfait, il n'y a rien à vous apprendre, mais ça ne garantit pas que ce ne soit jamais le cas pour d'autres dans la société. Les réponses "aberrantes" que je cite ne sont absolument pas pour lui faire de la peine (il s'en fout bien évidemment), mais juste pour rappeler que ce sont des réponses qui prouvent qu'il n'a aucune logique et aucun raisonnement propre, qu'il ne fait que ressortir des textes moyens - bien sûr la plupart du temps juste mais simplement parce que c'est l'expression d'humains qui ont en majorité un raisonnement juste, pas parce qu'il a ses capacités propres de raisonnement.
D'autant que le résultat n'a pas besoin d'être expliqué "vu qu'on sait" que l'IA est censé fonctionner comme une boite noire (après c'est pas tout à fait juste, sachant qu'il existe des méthodes permettant de retracer l'origine du résultat et c'est un domaine de recherche).
De là à ce que le résultat puisse être influencé à dessein (qui va vérifier ce qu'il se passe "en coulisse" ?)... il n'y a qu'un pas et ça pose des questions.
C'est même Yann Le Cun qui le dit : Le gros biais c'est la base de travail.
https://intelligence-artificielle.de...aisees-dit-il/
Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs,
Les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il
Yann LeCun, lauréat du prix Turing et responsable scientifique de la division IA chez Facebook, a tout récemment supprimé son compte Twitter à la suite d’une longue et acharnée dispute concernant les préjugés raciaux dans le domaine de l'IA. Cette conversation remet encore une fois sur la table les préoccupations au sujet des biais occasionnés par les algorithmes d’IA et les préoccupations autour de la mise en place d’IA éthiques dans les organisations. Tout ceci représente des préoccupations auxquelles le privé et les gouvernements tentent de trouver une réponse rapide.
Selon un rapport de Synced, contrairement à la majorité des autres chercheurs en intelligence artificielle, Yann LeCun a souvent exprimé ses opinions politiques sur les plateformes de médias sociaux. Ce faisant, il se serait déjà engagé dans des querelles publiques avec des collègues comme Gary Marcus. Cette fois, cependant, Synced explique que le penchant de LeCun pour le débat l'a amené à se heurter à ce qu'il a appelé « les codes linguistiques de la justice sociale moderne ». Le sujet qui divise ici est un nouveau modèle de recréation de photo dénommé “Pulse AI”.
Et à ce niveau on peut tout à fait imaginer qu'on biaise même volontairement une base de travail à des fins divers.
Dernière modification par ArchoZaure ; 01/04/2023 à 22h28.
Une libre opinion : plutot un moratoire sur le "techno-bullshit"
https://www.heidi.news/cyber/moratoi...source=twitter
Si tu as un truc qui te mâche le travail pourquoi s'en priver? Je n'écris que très rarement en LATEX donc j'utilise l'IA et cela me rend service, au passage le fait de vérifier sur wolfram que la forme de la formule générée par l'IA est juste me fait gagner du temps; quand il y a une erreur le cherche pourquoi (il y a une phase d'analyse et de travail intellectuel) et j'utilise le chatBOT pour améliorer en lui soumettant le problème: au passage je mémorise des règles de rédaction.personnellement, je m'en fiche complètement qu'on utilise chatGPT quand on a envie. Si ca te plait d'utiliser une interface qui te fait un résumé approximatif et des références incomplètes au lieu de faire une biblio "professionnelle" et de prendre connaissance des vrais résultats scientifiques (ce qui ne nécessite aucunement de les mettre sous une forme rédigée , si ce qui t'intéresse est de juste comprendre le fond des découvertes), grand bien t'en fasse. Si Liet Kynes préfère passer par chatGPT et corriger ensuite ses formules Latex plutot que de les taper lui même, c'est aussi son affaire. Ca ne me regarde absolument pas, et je ne vois aucun danger derrière.
L'intérêt de la démarche est multiple, je n'ai pas carrément pas le temps d'apprendre le LATEX et mon travail pompe pas mal de mes ressources, donc des capacités de rédactions parfois très amoindries le soir où à certaines périodes. La maitrise d'une langue est directement liée au fait de la pratiquer régulièrement, si je dois entretenir l'ensemble des connaissances qui sont de ce type je n'aurai quasiment plus de temps pour découvrir de nouvelles choses.
Le fait de vérifier ce que dis l'IA permet de développer des compétences d'analyse et développe le sens critique, c'est une compétence que j'ai naturellement et ainsi les erreurs de l'IA ne me gênent pas.
Un exemple: je suis une bille en maths mais si je suis un cours (vidéo, bouquins etc..) je ne rate pas les erreurs qui sont produites (tant que je n'ai pas décroché), si quelqu'un a suivi le MOOC d'il y a deux ans pour les maths à destination des élèves entrant en prépa , il n'aura pas raté l'énorme erreur concernant la double inclusion.
lorsque tu dis;On ne fais que rester dans l'éternelle problématique du développement du sens critique. L'IA est comme wikipedia, des corrections et des améliorations seront toujours nécessaires et brandir cela comme argument c'est peut-être vouloir garder comme règle que seul fait foi l'argument d'autorité. Que des "stars de leurs domaines " défendent cette position n'est pas nouveau et il s'agit de créer le plus souvent des polémiques sans fondements dont le but est la conservation d'une position stratégique ou de gagner du temps.La seule chose qui me parait problématique, et qui est soulevée par les spécialistes, c'est qu'on confonde la correction de la forme linguistique qu'il atteint, avec des capacités de raisonnement, et qu'on se mette à "croire" à ce qu'il dit en pensant que si il le dit c'est que ça doit etre vrai parce que c'est un ordinateur qui connait plein de chose, ou de "suivre" ses avis.
Il y a simplement une expérimentation et une réflexion sur les tâches que nous effectuons au quotidien, pm42 le développe dans son fil https://forums.futura-sciences.com/a...s-chatgpt.htmlAprès le problème comme j'ai dit me semble augmenté par le coté "affectif" que je sens dans vos réponses, où vous (surtout PM42, Liet Kynes et quelques autres) vous irritez qu'on relève ses erreurs , comme si vous défendiez quelqu'un à qui vous êtes attachés : et de ce côté là, contrairement aux arguments qu'on présente à des "fausses sciences" comme le terraplatisme, qui contredisent les arguments , le type de réponse "énervée" qu'on reçoit, ça va plutot dans le sens des arguments présentés , et des craintes d'une trop grande anthropomorphisation de ce genre d'outil.
L'idée est de vivre en ne perdant pas de temps dans des actions adaptées à des contextes ponctuels mais de développer des compétences bien plus essentielles. Donc si tu perçois de l'affectif, c'est peut-être que l'on a pas envie de changer la calculette pour le boulier et que je ne me met pas à courrir quand on cri "au loup" mais je me pose la question "un loup? ou ça?"
Sans questions il n'y a que des problèmes sans réponses.
Bien sûr.Et à ce niveau on peut tout à fait imaginer qu'on biaise même volontairement une base de travail à des fins divers.
Volontairement, que ce soit dans un but malveillant (pas la peine de donner des exemples...) ou "bienveillant" dans l'esprit des instructeurs(*) de l'IA, mais pouvant être vu comme nuisible par d'autres humains (les exemples ne sont pas difficiles à trouver non plus).
Ou involontairement en soumettant à l'IA durant son apprentissage un ensemble de contenus biaisé car sélectionné par des humains eux mêmes forcément biaisés par leur appartenance sociale, culturelle, idéologique, etc. C'est inévitable si une sélection doit être faite, ne serait-ce que pour des raisons de volume des données, plutôt que de laisser l'IA absorber l'ensemble des contenus auxquels elle peut accéder par internet.
Mais ces biais existent déjà dans la masse des contenus accessibles par tout un chacun sur internet (ne serait-ce que par la présence bien plus massive de textes, vidéos, etc. dans certaines langues, favorisant la culture des pays dont elles sont la langue officielle ou la langue maternelle d'une majorité de la population), et dans les algorithmes des moteurs de recherche.
(*) Tiens, au fait, y a-t-il un nom consacré pour cette activité ?
ça ne ferait pas de mal...Une libre opinion : plutot un moratoire sur le "techno-bullshit"
https://www.heidi.news/cyber/moratoi...source=twitter
L'étiquetage, ou data labeling : Data Labeling : tout savoir sur l'étiquetage de données pour Machine Learning (lebigdata.fr)
Sans questions il n'y a que des problèmes sans réponses.
Et ce n'est qu'une partie du travail sur les données qui est le plus gros sur les projets d'IAs. Parfois, labéliser est un gros boulot quand il ne peut être fait que par des humains et parfois pas grand chose quand on peut dériver le label des données existantes.L'étiquetage, ou data labeling : Data Labeling : tout savoir sur l'étiquetage de données pour Machine Learning (lebigdata.fr)
En pratique, il faut :
- récupérer les données qui vont éventuellement venir de plusieurs sources, être dans différents formats, incomplètes, peu facilement accessibles, poser des problèmes juridiques (médical, vie privée, etc)
- les analyser pour mesurer leur qualité : combien sont clairement fausses, manquantes, etc
- les filtrer transformer pour avoir tout dans un format utilisable et de bonne qualité
- commencer à les travailler : qu'est ce qu'on garde dans ces données, avec lesquelles va t'on entrainer le modèle et lesquels l'évaluer ? (c'est l'équivalent de donner des exos aux élèves en en gardant qu'ils n'ont jamais vu pour le jour de l'examen)
- les labéliser si nécessaire
- les transformer en partie si on constate que cela peut permettre au modèle de mieux apprendre
Et une partie de ce boulot, nettoyage/labélisation/transformation peut être fait en cycle jusqu'à ce qu'on ait un apprentissage qui fonctionne.
C'est un peu différent d'un type d'IA à l'autre mais le principe reste la même. C'est pour ça qu'on a forgé les néologisme "Data Science" et "Data Scientist" parce que c'est vraiment un boulot en soi et à très forte valeur ajoutée, souvent même la plus importante d'un projet IA.
On peut dire que c'est de faire tout le boulot qui va de préparer un cours en cherchant les infos, le mettre en forme pour qu'il soit plus le compréhensible, le donner aux élèves, faire des contrôles de validation et adapter en fonction de ce qu'ils n'ont pas compris, faire un exam final pour valider le tout avant de les envoyer dans la nature.
Et curieusement, il y a le même problème : il est possible de faire un apprentissage qui donne de bons résultats aux tests mais pas dans la vie réelle.
On utilise différentes techniques pour éviter ça mais principalement de faire un examen qui mesure la capacité des élèves à extrapoler leurs connaissances à des cas vraiment jamais rencontrés et pour les IA, on appelle ça diviser les données en apprentissage, validation et test : https://fr.wikipedia.org/wiki/Jeux_d...ion_et_de_test
Pour rentrer un peu plus dans le détail, on a moins besoin de labéliser dans le cas de l'apprentissage des outils comme ChatGPT parce qu'on fait de "l'auto-supervisé".
Un exemple tout bête et simplifié : on va donner au modèle beaucoup, beaucoup de phrases où on a à chaque fois retiré un mot et lui demander de le prédire. Le "label" est en fait le mot manquant mais on n'a pas besoin de faire ce travail à la main.
D'autres techniques consistent à labéliser une toute petite partie des données puis d'entrainer le modèle à prédire. Une fois qu'il le fait correctement, il peut labéliser le reste des données.
Pour en revenir à ChatGPT, on n'a toutefois pas pu échapper aux étapes manuelles pour traiter la "qualité" des données ingurgitées et lui apprendre à reconnaitre les contenus problématiques.
J'ai trouvé deux articles d'introduction à l'apprentissage auto-supervisé qui sont relativement abordables :
https://dataanalyticspost.com/appren...uto-supervise/
https://hellofuture.orange.com/fr/la...a-de-bon-sens/
Il faut noter que tout autant que les modèles de transformers, l'architecture du réseau de neurones (combien de couches, de quel type, taille, connectées comment...) et la puissance brute, c'est ce genre d'évolution sur la préparation des données qui rend ces nouvelles IAs possibles.
Est-ce que l'on peut envisager une extension du modèle d'apprentissage du type de celui de Alpha Go zéro aux LLM ?
Sans questions il n'y a que des problèmes sans réponses.
Pas exactement, dans le cas de ChatGPT on parle de Reinforcement Learning with Human Feedback (RLHF), ce n'est pas pareil. On n'étiquette pas les données de base comme dans l'IA plus classique, mais on (on = des humains mal payés en Afrique et en Inde) note les réponses du modèle déjà pré-entrainé massivement sans supervision sur des grandes quantités de texte (presque tout le web, y compris des fora comme reddit pourvu que les questions/réponses aient trois "plus" ou davantage- ce qui n'est pas une garantie de leur innocuité).L'étiquetage, ou data labeling : Data Labeling : tout savoir sur l'étiquetage de données pour Machine Learning (lebigdata.fr)
Dernière modification par GBo ; 02/04/2023 à 10h38.
Pas que je sache parce que l'apprentissage par renforcement est adapté aux "suites de tâches" comme les jeux mais je peux me tromper pour 2 raisons :
- je suis loin de tout connaitre et ce que je fais en IA n'est pas la même chose que ça (c'est un vaste domaine)
- tout change très vite et il y a beaucoup de créativité
Donc, on peut dire que l'on est en plein boum du développement avec des inventions permanentes et un panel très large de techniques en croissance. Un moratoire est complètement illusoire car ce serait comme si on avait décidé de ne pas mettre en place les réseaux d'électricité au prétexte que l'on n'avait pas la liste de tout ce que l'électricité allait permettre en terme d'applications.
Sans questions il n'y a que des problèmes sans réponses.
Oui. C'est totalement ridicule à tous les niveaux, inapplicable, etc.Donc, on peut dire que l'on est en plein boum du développement avec des inventions permanentes et un panel très large de techniques en croissance. Un moratoire est complètement illusoire car ce serait comme si on avait décidé de ne pas mettre en place les réseaux d'électricité au prétexte que l'on n'avait pas la liste de tout ce que l'électricité allait permettre en terme d'applications.
C'est comme l'argument du "oui mais les IAs apprennent à partir des oeuvres des autres".
D'abord, elles apprennent à partir de ce qui est en accès libre sur le Net.
Ensuite, les humains apprennent aussi comme ça. Et les "artistes" à succès ne payent pas de royalties à leurs anciens profs ni à tout ceux qui on créé avant eux et qu'ils ont étudié.
La question peut se poser si on demande à des IAs de faire du "tel quel" du genre "fais moi une nouvelle chanson de Rihanna" mais actuellement, on est plutôt dans le préventif du genre "oups, il y a un nouveau truc qui menace mon business donc expliquons que c'est dangereux et que c'est mal et qu'on va me voler ma cassette pour que je sois protégé et que je garde ma rente de situation".
Encore une fois, rien de nouveau : tout ça est déjà arrivé je ne sais combien de fois dans le passé (et je parle en millénaires).
Bonjour
cet argument est creux et m'exaspère car d'aucuns auraient pu dire avant l'apparition des armes nucléaires, voyons mon bon il y eu déjà le coup de poing, la massue, l'épée, l'arc, l’arbalète, le fusil donc rien de bien différent c'est le progrès.Encore une fois, rien de nouveau : tout ça est déjà arrivé je ne sais combien de fois dans le passé (et je parle en millénaires).
il y a peut être au passage un changement de nature!
JR
l'électronique c'est pas du vaudou!
Tu veux dire qu'il s'agirait d'appliquer un principe de précaution mais en ce sens et en élargissant l'idée on peux le faire aussi pour les sciences fondamentales.Bonjour
cet argument est creux et m'exaspère car d'aucuns auraient pu dire avant l'apparition des armes nucléaires, voyons mon bon il y eu déjà le coup de poing, la massue, l'épée, l'arc, l’arbalète, le fusil donc rien de bien différent c'est le progrès.
il y a peut être au passage un changement de nature!
JR
Sans questions il n'y a que des problèmes sans réponses.
Un problème certain dont nous mesurons les conséquences aujourd'hui est de ne pas savoir anticiper: ça a été le cas pour la société de consommation et des avertissements existaient dès les années 60 aux USA.Donc, on peut dire que l'on est en plein boum du développement avec des inventions permanentes et un panel très large de techniques en croissance. Un moratoire est complètement illusoire car ce serait comme si on avait décidé de ne pas mettre en place les réseaux d'électricité au prétexte que l'on n'avait pas la liste de tout ce que l'électricité allait permettre en terme d'applications.
On réagit quand les problèmes sont là.
Bien avant les années 60, dès le début de l'ère industrielle certains pointaient le problème des ressources qui ne sont pas extensibles, mais vous savez quoi? on leur a dit que ils étaient anti-progrès, qu'on arrête pas le progrès, que des gens peureux comme eux ont toujours existés, que cela fait des millénaires que c'est pareil, ect ect...
Comme sur ce fil, ne parler que de l'idée d'un moratoire irrite certains, à croire que les "contre" ont un affecte qui leur fait perdre capacité au dialogue serein.
L'IA peut amener à des problèmes, l'Anthropomorphisation de cet outil peut se discuter par exemple, sur plusieurs domaines il pourrait y avoir réflexion sur le bien fondé de l'outil, et ce n'est pas parce que pendant des millénaires on a pas écouté et on s'est même moqués des "opposants à un nouvel outil" qu'il faut continuer pareil. Bon après pour discuter et argumenter, faut le vouloir et sortir d'un certains manichéisme (Tu veux dire qu'il s'agirait d'appliquer un principe de précaution mais en ce sens et en élargissant l'idée on peux le faire aussi pour les sciences fondamentales)
Dernière modification par Avatar10 ; 02/04/2023 à 12h45.
Voilà une autre façon de poser le débat de façon totalement déformée...il ne s'agit pas de faire ce que vous dites, mais de pouvoir poser des problèmes éventuels ( et avoir le droit d'en discuter s'en être pris pour un peureux anti-progrès!!!), dont certains peuvent se poser aujourd'hui, et pour cela pas la peine d'avoir la liste de tout ce que va permettre l'outil en terme d'application....votre argument est assez fallacieux.Donc, on peut dire que l'on est en plein boum du développement avec des inventions permanentes et un panel très large de techniques en croissance. Un moratoire est complètement illusoire car ce serait comme si on avait décidé de ne pas mettre en place les réseaux d'électricité au prétexte que l'on n'avait pas la liste de tout ce que l'électricité allait permettre en terme d'applications.
Re
oui dans certains cas dont nous sommes incapables de mesurer les conséquences ex "gain of function" des virus ou autres .Tu veux dire qu'il s'agirait d'appliquer un principe de précaution mais en ce sens et en élargissant l'idée on peux le faire aussi pour les sciences fondamentales.
Ce n'est pas parce que l'on peut le faire qu'il faut le faire.
JR
l'électronique c'est pas du vaudou!
Oui, il aurait fallu interdire à un employé du bureau des brevets à Berne d'écrire E=mc2 et toute la recherche sur l'atome.
Au passage, il oublie que pratiquement toutes les inventions depuis le silex et le feu ont été utilisées dans les 2 sens : comme arme et comme outil de progrès.
On vit largement mieux que les hommes préhistoriques donc on peut aussi faire une évaluation globale du rapport gain/coût.
On remarquera aussi le "cet argument m'exaspère" : on n'est pas dans l'échange d'idées, la réflexion, le rationnel. On est effectivement pour certains (et comme déjà dit) dans l'émotionnel, la peur, le rejet de l'autre suivi de jugements de valeurs gratuits et bien sur d'absence d'argument.
Là aussi, rien de nouveau : il est presque impossible de parler à quelqu'un qui a peur.
Dernière modification par JPL ; 02/04/2023 à 14h49. Motif: correction d’une balise
re
il n'est pas question de peur mais d'arguments creux qui ne valent rien!
JR
l'électronique c'est pas du vaudou!
On peut très bien accepter qu'un nouvel outil puisse être sujet à réflexions et discussions, s'en que cela implique une interdiction du nouvel outil pour toutes ces utilisations...d'ailleurs cela se fait sur plein de sujet, c'est assez binaire et fallacieux cette présentation que vous faites et cela montre que l'émotionnel est des deux cotés, le rejet ect, vous en tirerez les conclusions sur l'impossibilité de discuter.Oui, il aurait fallu interdire à un employé du bureau des brevets à Berne d'écrire E=mc[UP]2[/UP] et toute la recherche sur l'atome.
Au passage, il oublie que pratiquement toutes les inventions depuis le silex et le feu ont été utilisées dans les 2 sens : comme arme et comme outil de progrès.
On vit largement mieux que les hommes préhistoriques donc on peut aussi faire une évaluation globale du rapport gain/coût.
On remarquera aussi le "cet argument m'exaspère" : on n'est pas dans l'échange d'idées, la réflexion, le rationnel. On est effectivement pour certains (et comme déjà dit) dans l'émotionnel, la peur, le rejet de l'autre suivi de jugements de valeurs gratuits et bien sur d'absence d'argument.
Là aussi, rien de nouveau : il est presque impossible de parler à quelqu'un qui a peur.
Et sur le nucléaire vous remarquerez que des instances internationales ont cadrés l'utilisation sans pour autant interdire la recherche (après que le cadre soit de façade ou que son application soit très difficile, c'est autre chose, il n'empêche qu'il y a bien eu discussions puisqu'elles ont menées a des interdictions). et c'est pareil pour beaucoup d'inventions. Donc vos arguments ci ne tiennent pas la route...
@jiherve : en effet personne n'a peur ici, il faut que pm42 arrête avec cet argument (il me m'a sorti également, à moi qui suit contre le moratoire qui est juste une tartufferie pour rattraper Microsoft).
Bref pour détendre l'atmosphère, cela se passe à la maison blanche et la réaction de la porte-parole aux mots du journaliste (un certain Peter) qui reprend les termes d'un chercheur alarmiste sur les dangers de l'IA me redonne confiance dans le genre humain:
https://www.reddit.com/r/singularity...e_white_house/
Dernière modification par GBo ; 02/04/2023 à 14h46.