Non le problème des hallucinations vient de la structure des réseaux de neurones actuels. Ce n'est pas lié à labellisation.
-----
Non le problème des hallucinations vient de la structure des réseaux de neurones actuels. Ce n'est pas lié à labellisation.
On comprends l'enjeu du moratoire demandé, la notion de liberté d'expression n'est pas la même partout dans le monde. La demande de moratoire vise à éviter la mise en place de règles.
Sans questions il n'y a que des problèmes sans réponses.
La supervision ne résout pas le problème des hallucinations, qui est un problème de "mismatch" entre des phrases "probables" et le monde réel. Pour s'en rendre compte, il faut connaitre le monde réel, ce qu'aucune IA ne connait, pas plus chatGPT que son IA de supervision. C'est fondamentalement impossible de résoudre ce problème sans avoir une connaissance du monde réel justement, et les hallucinations peuvent que les IA n'en ont pas. C'est pour ça que je suis d'accord avec pm42, le discours d'E Musk est totalement pipeau, une IA ne peut pas "s'en prendre à des humains" tout simplement parce qu'elle ne "sait" même pas que le monde (ni les humains) existe : elle ne fait que manipuler des chaines de caractères ou des pixels , selon des règles contrôlées par les humains et c'est tout. Elle n'a pas plus de chance de se révolter qu'une tondeuse à gazon (qui est très efficace pour tondre le gazon).
Dernière modification par Archi3 ; 19/04/2023 à 08h12.
Salut,
J'avais entendu exactement l'inverse (à la radio). La demande de moratoire faites par les scientifiques était "le temps de mettre en place des règles". Ca montre une belle cacophonie dans tout ce qu'on lit
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Il n'y a pas de cacophonie, c'est juste Liet qui n'a pas bien compris ou a écrit l'inverse de ce qu'il voulait écrire.
Rappel:
https://futureoflife.org/open-letter...i-experiments/
Et dans l'interview chez Fox dont j'ai donné le lien hier, Musk ne dit rien d'autre, il dit qu'il faut réguler l'IA, un peu comme on régule les aliments et les médicaments par la Food and Drug Administration, pour protéger le grand public vu que ChatGPT a été laché dans la nature pour tout le monde."At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now."
Dernière modification par GBo ; 19/04/2023 à 09h39.
Ah d'accord, merci GBo
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Ah ah ah, la méthode d'Archi3.
"Vous n'avez pas de réponse donc j'ai raison..."
Mais de toute façon, c'est IMPOSSIBLE que ça ne coûte rien.
Et beaucoup de fois un petit peu, ça finit toujours par faire un peu beaucoup.
Mais d'un autre côté, continuer à insister à vouloir faire faire des math à une machine à causer, ca bouffe aussi un paquet de joules pour pas grand chose...
Jusqu'ici tout va bien...
En fait non je ne m'emmêle pas les pinceaux, MUSK a un objectif en attaquant ce qu'il appelle le wokisme (qui est potentiellement l'application des règles existantes en matière de communication definie par l'OCDE).Il n'y a pas de cacophonie, c'est juste Liet qui n'a pas bien compris ou a écrit l'inverse de ce qu'il voulait écrire.
Rappel:
https://futureoflife.org/open-letter...i-experiments/
Et dans l'interview chez Fox dont j'ai donné le lien hier, Musk ne dit rien d'autre, il dit qu'il faut réguler l'IA, un peu comme on régule les aliments et les médicaments par la Food and Drug Administration, pour protéger le grand public vu que ChatGPT a été laché dans la nature pour tout le monde.
Il y a des jeux stratégiques et d'influence intenses dans ce genre de situation et j'attends de voir les prochaines assertions des longs termistes: il s'agit d'une idéologie assez radicale.
Sans questions il n'y a que des problèmes sans réponses.
non ma méthode c'est juste "si tu ne sais pas justifier tes assertions, j'ai pas de raison de te croire". Bon d'accord "ne rien coûter", c'est métaphorique, faut peut etre dix minutes de travail pour un informaticien pour que la machine écrive une phrase standard à la fin de chaque post ...
Le présupposé de fond de ta phrase est une position idéologique qui va très au-delà de la problématique abordée ici, ce n'est pas l'endroit pour y répondre.non ma méthode c'est juste "si tu ne sais pas justifier tes assertions, j'ai pas de raison de te croire". Bon d'accord "ne rien coûter", c'est métaphorique, faut peut etre dix minutes de travail pour un informaticien pour que la machine écrive une phrase standard à la fin de chaque post ...
Sans questions il n'y a que des problèmes sans réponses.
je ne vois pas trop quelle "idéologie" tu vois en demandant que les sites d'IA conversationnelles fassent un rappel à la fin de chaque message d'un avertissement qu'elles donnent déjà sur le site, mais que beaucoup auraient pu avoir négligé de lire; c'est juste une redondance d'information pour être sûr que tout le monde l'a bien lu, c'est plutôt standard et je ne vois vraiment pas ce que ça a "d'idéologique".
C'est bien là le problème.je ne vois pas trop quelle "idéologie" tu vois en demandant que les sites d'IA conversationnelles fassent un rappel à la fin de chaque message d'un avertissement qu'elles donnent déjà sur le site, mais que beaucoup auraient pu avoir négligé de lire; c'est juste une redondance d'information pour être sûr que tout le monde l'a bien lu, c'est plutôt standard et je ne vois vraiment pas ce que ça a "d'idéologique".
Sans questions il n'y a que des problèmes sans réponses.
le problème chez qui ?
Est-ce que cette petite guégerre sur une suggestion pour laquelle aucun d’entre vous n’a la main pourrait s’arrêter ? C’est lassant et dérisoire.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
un rappel à la fin de chaque message ça fait beaucoup quand même, par contre à l'ouverture de chaque nouvelle discussion se rapprocherait des avertissements qu'on trouve sur les paquets de cigarettes par exemples, sans qu'il soit nécessaire que sur chacune d'entre elle il soit marquer "Fumer tue".
Salut,
Parfois quand je vois les factures dans ma boite aux lettres, j'aimerais bien avoir des coûts métaphoriques
(P.S. j'ai compris ce que tu as dis, c'est juste qu'écrit comme ça, c'est quand même très humoristique, surtout qu'il y a une expression correcte à la place, mais tu n'as probablement pas fait exprès)
EDIT a bien y réfléchir, moi avec mes belgicismes, je ne devrais pas en rire mais c'était trop tentant
Dernière modification par Deedee81 ; 20/04/2023 à 11h44.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Petite anecdote : depuis que j'ai écouté sur France Inter une intervenante, Asma Mhalla , sur l'IA, je suis un peu son fil twitter;
Elle se plaint que sa fiche biographique créée par google soit fausse: pas le bon âge, pas les bonnes études...
https://twitter.com/AsmaMhalla/statu...13466050207780
sur certains sites on dit qu'elle est née au Pakistan et s'est fait connaitre par ses créations de mode vestimentaire ...
https://superstarsblog.fr/asma-mhalla-origine-parents/
très probablement des sites créés par une IA, qui ont dû se mélanger les pinceaux quelque part (homonymes?).
Le futur va être très cool je pense : on aura des IA qui créeront des sites où on dit n'importe quoi, des IA qui détecteront des erreurs et lanceront des plaintes en justices automatiques (elles mêmes comportant des erreurs), des IA qui feront les avocats de la défense et les procureurs, des IA qui jugeront les affaires .... on va bien s'amuser.
tant qu'on a pas d'IA président, ça peut aller
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Non mais on a un roi, qui pourrait sans doute être aisément remplacé par une IA.
Plus sérieusement, une info qui me semble significative: https://www.rtbf.be/article/contre-l...ancee-11163375
Cela me semble très intéressant et sensé; en effet, si des oeuvres de créateurs sont utilisées pour entraîner des IA sans faire attention aux questions de copyright et de droits d'auteurs, il s'agit de piratage. Je pense que si tous les auteurs s'opposent explicitement au mining de leurs oeuvres, les créateurs d'IA auront de sérieux problèmes.
L'article dit explicitement le contraire : que le droit le permet.
Absolument pas. Déjà parce que cela ne toucherait qu'une toute petite partie des IAs (vaste domaine que certains semblent confondre avec "les trucs dont on parle dans la presse en ce moment), ensuite parce que ce qui est 100% libre de droits est énorme et qu'ensuite, l'hypothèse "si tous les auteurs" n'est absolument pas crédible.
C'est exactement la thèse d'un certain Matthew Butterick, programmeur et avocat, qui est à la l'initiative de la plainte contre l'outil à base d'IA "Copilot". Les accusés démentent le bien fondé de l'accusation pour piratage:[...] si des oeuvres de créateurs sont utilisées pour entraîner des IA sans faire attention aux questions de copyright et de droits d'auteurs, il s'agit de piratage. Je pense que si tous les auteurs s'opposent explicitement au mining de leurs oeuvres, les créateurs d'IA auront de sérieux problèmes.
https://intelligence-artificielle.de...urs-collectif/
Je ne sais pas où cela en est, en tout cas OpenAI a arrêté Codex ...du jour au lendemain.
https://news.ycombinator.com/item?id=35242069
cdlt,
GBo
Dernière modification par GBo ; 02/05/2023 à 13h31.
C'est très très drôle parce que ce n'est pas comme si des parties d'open-source n'étaient pas déjà massivement dans les code commerciaux sans respect des licences.
Mais bon, les néo-luddites sont impayables.
Pas sûr qu'il soit néo-luddite comme tu dis, tu le connais ? En tout cas il faudrait au moins changer les termes des licences en disant que le code uploadé sur GitHub est susceptible de servir d'entrainement à une IA qui effacera alors toute référence aux auteurs de part le "moyennage" statistique inhérant au LLM. Là on est clairement devant le fait accompli.
Salut,
Geoffrey Hinton, pionnier de l’IA, quitte Google et dit « regretter » son invention.
Mais il doit aussi s'agir d'un néo-luddite...L’un des pionniers de la recherche sur l’intelligence artificielle (IA) a démissionné de Google pour alerter sur les menaces potentielles de cette technologie. Geoffrey Hinton, 75 ans, a annoncé au New York Times son départ de la firme de Mountain View, où il était employé à mi-temps depuis 2013. Dans un article publié lundi 1er mai par le quotidien américain, il avance que « les futures versions de cette technologie pourraient être un risque pour l’humanité ».
Le chercheur canado-britannique, formé aux neurosciences et à la psychologie, a joué un rôle de premier plan dans la percée des IA utilisant des réseaux de neurones. En 2012, épaulé par deux de ses élèves de l’université de Toronto, il démontre la supériorité de cette approche, qui imite le fonctionnement du cerveau, en battant les meilleurs algorithmes de reconnaissance d’images.
Cela le conduit à recevoir en 2019 le prix Turing, la récompense la plus prestigieuse pour un chercheur en informatique, qu’il partage avec deux autres pionniers de l’IA, le Français Yann Le Cun et un ancien collaborateur, le Canadien Yoshua Bengio. Dix ans plus tard, ce sont ses travaux qui ont permis d’élaborer les IA conversationnelles ChatGPT et Bard ou bien l’IA de création d’images Midjourney.
Désormais, les perspectives d’avenir de l’IA sont « plutôt effrayantes » pour les humains, a également déclaré le scientifique sur la BBC, la chaîne publique britannique. « Pour le moment, elles ne sont pas plus intelligentes que nous, pour ce que j’en sais. Mais je pense qu’elles pourront bientôt l’être », poursuit-il. En l’état actuel des choses, ses craintes portent sur la création massive de vidéos, photos et articles fallacieux sur Internet. Il redoute ainsi que « les gens normaux ne puissent plus distinguer le vrai du faux ».
Complètement. Son argumentaire est totalement délirant :
- "les gens normaux ne puissent plus distinguer le vrai du faux" : pas besoin d'IA, c'est déjà le cas et bien documenté. Il oublie également qu'on peut très bien faire des IAs pour informer justement qui iraient chercher l'information à plein de sources dans plein de langues et qui présenteraient les différents points de vue de façon synthétique.
Perso, je rêve de ça vu que même ce qu'on appelle "la presse de référence" est massivement biaisée (et je lis déjà celle de 3 ou 4 pays).
- "il dit anticiper des scénarios « cauchemardesques » si une puissance conquérante comme la Russie de Vladimir Poutine avait accès à des versions améliorées des technologies actuelles" : ce qu'il dit s'applique au silex taillé et tout ce qui été inventé depuis, et on se demande ce que Poutine pourrait faire avec des IAs qu'il ne peut pas faire avec des armes nucléaires. Et il oublie bien sur que les IAs peuvent aussi servir à se défendre justement.
Bref, on est dans le classique "les trains sont dangereux" d'Arago et le coté "oh mon dieu, quelque chose est apparu qui n'existait pas quand j'étais jeune, je vais dire que c'est la fin de la civilisation" multi-millénaire.
Je te laisse à tes jugements binaires, certainement mieux informés et plus pertinents que celui "délirant" du "néo-luddite" Geoffrey Hinton, qui selon toi n'est visiblement qu'un vieux gâteux dont la pensée se résume "oh mon dieu, quelque chose est apparu qui n'existait pas quand j'étais jeune, je vais dire que c'est la fin de la civilisation".
ça me semble bien cadrer le problème : non pas celle d' IA super intelligentes qui tromperaient les humains en étant très méchantes comme dans 2001 ou Terminator, mais d'une IA pas très futée finalement, mais à laquelle on laisserait tout faire, par paresse mentale et appât du gain (bien sûr que ça coûte moins cher que de payer des vrais humains).En l’état actuel des choses, ses craintes portent sur la création massive de vidéos, photos et articles fallacieux sur Internet. Il redoute ainsi que « les gens normaux ne puissent plus distinguer le vrai du faux
Pour le moment on reconnait les fausses "photos" de midJourney, grâce aux mains difformes par exemple, mais c'est en train d'être amélioré. Ce que ne voit pas pm42 c'est l'ECHELLE que va prendre le fake puisqu'il suffit d'un bon prompt (fait en 5 minutes, il y a des cours en ligne pour ça) pour générer l'image "photo" d'un personnage public en situation compromettante, contre auparavant des heures de Photoshop et pas par n'importe qui (et encore ça reste un montage donc ça se voit avec un oeil expert). Donc le fake n'est pas nouveau, c'est vrai, mais la facilité d'en faire des (bientôt) parfaits et en MASSE est désormais à portée de clic.
Dernière modification par GBo ; 02/05/2023 à 15h56.
A part une attaque perso et un argument d'autorité, j'ai du mal à voir autre chose dans cette phrase.Je te laisse à tes jugements binaires, certainement mieux informés et plus pertinents que celui "délirant" du "néo-luddite" Geoffrey Hinton, qui selon toi n'est visiblement qu'un vieux gâteux dont la pensée se résume "oh mon dieu, quelque chose est apparu qui n'existait pas quand j'étais jeune, je vais dire que c'est la fin de la civilisation".
On aurait pu attendre une démonstration d'un danger de l'IA qui ne soit pas quelque chose qui existe déjà depuis des millénaires.
Ou une démonstration que l'IA aurait pu aider un pays déjà surarmé à attaquer son voisin mais pas celui-ci à se défendre (sans même parler de l'ironie parce que si l'Ukraine se défend actuellement, c'est justement avec entre autres de la technologie moderne contre de la masse à l'ancienne).
Et sinon ici on lit en permanence que l'IA est primitive du genre "c'est un Eliza à peine amélioré" (Eliza était un programme ultra-simpliste qui émulait un psy freudien avec quelques phrases et retournement de questions), "ça ne marche pas", "ça ne sert à rien", "c'est vraiment nul, ça ne compte pas les voyelles et ça ne connait pas toutes les films d'Arletty" sans parler du fabuleux "c'est honteux, ça ne règle pas tous les problème sociaux et scientifiques d'un coup de baguette magique".
Mais chaque fois quelqu'un dit que c'est dangereux parce que trop puissant sans jamais dire en détail pourquoi, c'est aussi utilisé comme "argument".
Donc il faudrait savoir parce que soit c'est nul, faiblard et inutile, soit c'est tellement efficace que c'est terriblement dangereux.
Mais quand on utilise les deux arguments, on fait des erreurs de raisonnement largement pire que celles qu'on reproche aux IAs.
P.S : et le jours où certains participants ici sortiront un article scientifique sur le sujet, pas de la presse grand public sur les impacts sociaux "anticipés" de l'IA et systématiquement négatifs ou pire des opinions personnelles sans aucune expérience concrète du sujet, ce sera plus intéressant.