Bonjour,
Un réseau de neurone entraîné a optimisé les poids et les biais.
Mais peut-on «*lire*» cette modélisation ?
Par exemple : la reconnaissance du chiffre huit repose-t-elle sur l’identification de deux boucles superposées ?
Bonne journée
-----
Bonjour,
Un réseau de neurone entraîné a optimisé les poids et les biais.
Mais peut-on «*lire*» cette modélisation ?
Par exemple : la reconnaissance du chiffre huit repose-t-elle sur l’identification de deux boucles superposées ?
Bonne journée
Salut,
Je suppose que oui au moins en partie.
Mais la question générale c'est "peut-on décrypter l'ensemble des poids optimisés du réseau".
Je pense que ce n'est pas du tout facile car une des difficultés est qu'il est très difficile avec le deep learning de justifier le résultat. C'est-à-dire "je donne ce résultat car la règle xyz s'applique". Chose que fait très bien un système expert (mais ceux-ci ont d'autres limitations). Or c'est important dans certains domaines : juridique, médical,...
Un exemple de difficulté : https://www.maddyness.com/2019/08/20...-artificielle/
Bon, attend d'avoir d'autres infos car je ne suis pas spécialiste du deep learning et c'est en plus un domaine en évolution rapide (et l'article ci-dessus date de 5 ans).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Non pas vraiment.
Non, elle repose sur le fait que le réseau a appris à reconnaitre des trucs qui ressemblent à un 8 sur une grande base d'images,
Comme il est probable que dans cette base d'images, tu as des gens qui font leur 8 en serrant tellement une des 2 boucles qu'elle devient un trait, cela va marcher quand même.
Il y a plein d'exemples comme ça : le réseau qui avait appris à reconnaitre les canards mais qui en fait reconnaissait les becs. Si tu lui donnais juste un bec, il te disait "c'est un canard". Si tu lui donnais un canard sans bec ou plus exactement une photo où on ne voyait pas le bec, il te disait "ce n'est pas un canard".
Bon, ça, c'est caricatural mais il y a largement plus subtil : un réseau entrainé à reconnaitre les animaux a été trompé par la modification de quelques pixels seulement et on arrivait en changeant quelque chose d'invisible à l'humain à lui faire croire qu'un cheval était en fait une vache.
C'est ici :
https://www.pourlascience.fr/sd/info...fond-13441.php
ou :
https://stephane-legros.pagesperso-o...Delahaye88.pdf (en accès libre).
Le cerveau humain à première vue ne fait pas d'erreur aussi grossières mais je me demande si le même mécanisme n'est pas à l'oeuvre avec un seuil plus élevé ou dans des cas plus subtils.
Bref, on tombe sur le problème de l'explicabilité de l'IA, vaste sujet faisant l'objet de nombreuses recherches avec des techniques variées. Mais où rien n'est simple.
L'idéal serait effectivement de marier différentes techniques. Il me semble que c'est Stockfisch (à confirmer) qui marie deep learning et algorithme arborescent classique. Avec une belle réussite. Mais sur un problème (les échecs) aussi bien cerné c'est sans doute plus facile. Pour des IA plus généralistes, les difficultés sont considérables.
Autre domaine (en plus des deux cités) où c'est essentiel : les finances.
Merci pm42 pour "explicabilité" plus efficace pour google. Il y a en effet beaucoup d'articles universitaires sur le sujet :
https://scholar.google.be/scholar?q=...=1&oi=scholart
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Même les algos arborescents classiques ne sont pas facilement interprétables. Si tu fais un arbre de décision, tu sais l'expliquer et il y a des softs qui te font même une jolie visualisation.L'idéal serait effectivement de marier différentes techniques. Il me semble que c'est Stockfisch (à confirmer) qui marie deep learning et algorithme arborescent classique. Avec une belle réussite. Mais sur un problème (les échecs) aussi bien cerné c'est sans doute plus facile. Pour des IA plus généralistes, les difficultés sont considérables.
Sauf que ça n'apprend pas grand chose.
Donc on fait du Random Forest qui est déjà assez puissant et qui consiste à moyenner le résultat de centaines d'arbres. C'est une technique ultra-classique : on prend plein de prédicteurs faibles et on les assemble pour en faire un prédicteur fort.
Sauf que là, comment tu fais pour "expliquer" ? (je me suis coltiné avec ça il n'y pas longtemps).
Bref, on termine sur des trucs comme SHAP : https://www.quantmetry.com/blog/valeurs-de-shapley/
Cela dépend du domaine des finances. Pas mal de gens essaient de "prédire les cours" et à mon avis, ils se moquent bien de savoir comment ça marche si ça marche (mais je ne suis pas sur que ça marche).
Mais pour bosser actuellement sur le sujet (pas la prédiction des cours, autre chose en finance), c'est vrai que de ne pas pouvoir expliquer rend les financiers nerveux.
Ce qui me laisse perplexe : la plupart des experts humains à qui on fait confiance sont bien incapables d'expliquer comment ils arrivent à leurs conclusions, ce qu'on avait constaté quand on a fait des systèmes experts (je crois que c'était 1/3 qui y arrivait plus ou moins).
Et je pense que ceux qui justifient le font à postériori comme le cerveau humain est bien connu pour le faire.
Oui, je n'y pensais pas. Ceci dit je le donnais juste comme réussite d'un mariage de techniques.
Oui, ça dépend du domaine des finances. Mais aussi de la médecine : par exemple on utilise le deep learning pour analyser certaines radios. Mais pour prendre des décisions de traitement par exemple, tintin, faut pouvoir justifier. Dur dur la vie d'une I.A.
Bien vu sur le domaine d'expertise humaine. Mais il est vrai qu'on en demande plus aux machines, ça aussi c'est humain.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Bjr à tous,
Ca aussi c'est .."huit"....aussi... VIII..et certainement d'autres variantes.
Bonne journée
Bonjour,
Merci beaucoup pour vos réponses.
Pouvez-vous donner des exemples de systèmes experts très élaborés ?
Cela fait longtemps que je n'ai plus entendu parler de systèmes experts. C'est une technologie qui a connu son heure de gloire dans les années 80/90 où on en attendait beaucoup et qui depuis est tombé un peu en désuétude.
Il y a encore des usages apparemment même si le nom a un peu changé : https://ai.stackexchange.com/questio...l-in-use-today
Il y a tout de même eu un prix Nobel pour le "décodage" (je ne sais pas si le terme est adéquat, d'où les guillemets) du processus neuronal effectué dans le cortex visuel humain pour détecter des éléments graphiques tels que des lignes, des courbes, des angles, .... J'ai malheureusement oublié les détails, les noms, l'année, mais j'ai encore le souvenir d'avoir lu un article sur le sujet. Si quelqu'un ici a une bonne connaissance de ces questions, il ou elle devrait savoir de quoi je veux parler.
Ce ne serait pas ça ?
https://www.nobelprize.org/prizes/me...1/hubel/facts/
Ceci dit, aussi intéressant que ce soit, ce n'est pas la même chose que ce qu'on essaie de faire avec l'explication des IAs.
je suis peut-être à côté de la plaque.... mais je rêve depuis longtemps , et encore maintenant, d' un système qui émule notre 'raisonnement' et nos inférences logiques (déductions à partir de faits déjà admis, ET d' inductions +/- risquées, inductions décidées sur des catégories définies elle aussi par le système....)
Ce 'truc', il devrait réussir à réaliser seul le travail que prétend effectuer le système 2 de Kahenman.... alors que dans notre petit cerveau ce n' est que l' émergence et la discrétisation du travail du système 1.....
Mais je suppose qu' actuellement n' est pas l' objet de recherches. l' émulation de la 'pensée logique' représentable en propositions interdépendantes, un peu organisées en une sorte de 'réseau' d' associations .....
Pour aboutir en pratique, il faudrait que la base de connaissances déjà acquise puisse 'apprendre' et se réorganiser ..... ce que" sait faire l' IA connectiviste, mais pas le SE classique....
Il faudrait aussi que le système sache évaluer et limiter le foisonnement des déductions automatiques qu' il ferait à partir d' une proposition un peu générale.... conséquences dont très peu sont pertinentes (je crois qu' en matière de déductions en cascade, les sytèmes de démonstrations automatiques actuels ne sont pas un exemple de triage optimum)
l' intérêt d' un tel engin hypothétique est qu' il construirait et appliquerait explicitement des propositions dont les paramètres seraient nos concepts humains (et, si possible, avec la syntaxe du langage courant......)
Mais ce n' est pas d' actualité?
Qu' en dis-tu?
Dernière modification par Bounoume ; 22/03/2022 à 00h29.
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
Si, on a fait beaucoup de recherches sur le sujet et je suppose que cela continue. On est tombé sur plein d'obstacles.
Mais ce n'est pas le sujet du fil.
Salut,
Difficile de "classer" les élaborés, mais il y a beaucoup d'applications au deep learning parfois très complexes :
https://fr.wikipedia.org/wiki/Appren...39;application
Et pour les systèmes experts : https://fr.wikipedia.org/wiki/Syst%C...ert#Historique
il y en a des très sophistiqués, ils citent par exemple Mycin que j'avais vu à l'époque, capable sur base de données médicales d'en inférer des diagnostics avec pourcentages de vraisemblance (et justifications). Le médecin restant évidemment seul juge.
Il y a aussi d'énormes réseaux de neurones comme :
https://www.lemonde.fr/sciences/arti...2_1650684.html
(bon ça reste une actu, faut vérifier ce qu'il y a vraiment derrière, mais si c'est juste c'est très impressionnant)
Un autre exemple est l'IA de google capable de prendre rendez-vous par téléphone à ta place :
https://www.lemonde.fr/pixels/articl...1_4408996.html
C'est impressionnant. Quand on voit la coiffeuse qui fait une remarque comme "je dois regarder dans l'agenda" et l'IA qui répond "Hmmm hmmm". Quand on entend ça, qui douterait qu'on a affaire à un humain. On voit bien que ces interlocuteurs ne se sont jamais rendu compte qu'ils parlaient avec une machine !!!!!!!
Cela a entrainé un énorme débat éthique. Quid du prosélytisme politique (ou autre) ? Certains utilisent des groupes d'une vingtaine d'opérateurs téléphoniques appelant les gens pour dire "Utilisez vous un four à micro-onde ? Que pensez-vous de la marque Quicuittout ?" (marketting). Mais une IA pourrait appeler un million de personnes en même temps. Or, il est certain que la personne cible ne réagirait pas de la même manière face à un humain ou face à une machine.
Donc, le débat à surtout porté sur : "doit-on légiférer pour exiger que l’interlocuteur soit prévenu qu'il parle à une machine ?" Une question que personne n'aurait jamais devoir poser si vite. Je ne sais pas où en sont les débats légaux (et c'est quelque peu hors charte d'en discuter ici, on doit se cantonner au caractère scientifique).
Mais des trucs très élaborés, il y a ! Ca va vite, très vite, parfois trop vite (comme certaines IA dont a découvert qu'elles faisaient de la .... discrimination, notamment aux USA avec une IA analysant des résultats scolaires. On s'est rendu compte que cela venait des données utilisées pour l'apprentissage. Zont voulu aller trop vite et depuis on sait que la rigueur, la qualité et les critères d'exigences techniques ou éthiques pour l'IA doivent s'appliquer dès le début, y compris dans les données de base).
Dernière modification par Deedee81 ; 22/03/2022 à 07h59.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Tu as déjà appelé un salon de coiffure ? pas de bruit de fond, rien... Cela a été bidonné en studio, après moultes essais sans doute, et c'est surtout ça qui devrait poser un problème éthique.Salut,
C'est impressionnant. Quand on voit la coiffeuse qui fait une remarque comme "je dois regarder dans l'agenda" et l'IA qui répond "Hmmm hmmm". Quand on entend ça, qui douterait qu'on a affaire à un humain. On voit bien que ces interlocuteurs ne se sont jamais rendu compte qu'ils parlaient avec une machine !!!!!!!
Dernière modification par GBo ; 22/03/2022 à 08h18.
Je n'en sais rien, mais le "tripotage marketting" c'est une autre question
En tout cas les progrès sont énormes, ça c'est indéniable, hors toute manipulation de google
un truc assez amusant (si ce n'est étonnant) c'est de voir que les IA analysant des images sont aussi sujettes aux paréidolies :
https://www.pourlascience.fr/sd/info...elles-8589.php
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
"What Google isn't telling us about its AI demo"
https://www.axios.com/google-ai-demo...5b619283e.html
Le fait que le standard du salon ne demande même pas le nom de famille ou le téléphone de la personne à coiffer devrait quand même achever de te convaincre que c'est bidon.
D'ailleurs Google n'a toujours pas révélé le nom du salon de coiffure ou du resto soi-disant appelé par une IA...
Dernière modification par GBo ; 22/03/2022 à 08h32.
J'ai interprété sa question avec "système expert" dans le sens litéral donc règles, moteur d'inférence, etc.
Ce qui exclue les réseaux de neurones.
Si on les inclut, il y a effectivement GPT-3 et ses concurrents en pleine évolution et bien sur AlphaGo et toute la série. C'est très impressionnant.
P.S : l'article du Monde sur GPT-3 est moyen je trouve. Il est intéressant de voir les applications à la source
https://gpt3demo.com
Notamment :
https://gpt3demo.com/apps/essay-writing-by-eduref
https://gpt3demo.com/apps/10-thought-experiments
J'ai toujours pensé que ce passage avait été coupé pour des raisons de confidentialité. Mais je n'ai pas dit non plus que tu as tort, au contraire, je ne suis pas si surpris. C'est juste que ça ne change pas grand chose au débat iciLe fait que le standard du salon ne demande même pas le nom de famille ou le téléphone de la personne à coiffer devrait quand même achever de te convaincre que c'est bidon.
D'ailleurs Google n'a toujours pas révélé le nom du salon de coiffure ou du resto soi-disant appelé par une IA...
(à part que de fait cet exemple n'était sans doute pas le meilleur, mais il y en a pleins d'autres )
EDIT croisement, merci pm42 pour ces références
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Comme exemple de système expert, il y bakeryScan (https://insideangle.3m.com/his/blog-...ased-policing/), un programme utilisant des algos de computer vision pour scanner des pâtisseries.
effectivement les architectures des "transformer" donnent de super résultats.....
j' avis perdu un lien sur GPT3 (ou 4...) , la [self]attention, et les systèmes à encodage puis décodage.... je viens de trouver ça, mieux que ce que j' avais perdu
https://ledatascientist.com/a-la-dec...u-transformer/
en traduction automatique, c' est bluffant .... quoique il y ait davantage de contresens qu' avec un traducteur..... expert dans le domaine concerné.
Mais quand le traducteur est très ignare (par exemple dans une traduction d' un sujet scientifique.... et là, honni soit qui mal y pense ...je ne vise personne....)
ça donne la même quantité d' inepties que le traducteur automatique.... grrrrrrr
Cependant, je suppose encore que cette architecture ne sait pas (encore?) conduire un raisonnement..... ni expliquer les règles de syntaxe, ni les relations sémantiques entre les mots élémentaires.....
Dernière modification par Bounoume ; 22/03/2022 à 11h39.
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
Merci à tous.
Vous maîtrisez à fond
C’est vraiment intéressant !
Salut,
A fond je dirais pas ça, sur un sujet aussi spécifique (*). Mais le fait qu'ici c'est très fréquenté, qu'il y a beaucoup de scientifiques et de passionnés des sciences, donc en cumulant.... l'union fait la force, vive Futura Science
(*) au niveau technique précis, j'en étais resté aux techniques de calcul des poids sur un réseau à trois couches... la "révolution" du deep learning je connais plus qualitativement et aussi à travers les actualités ou quelques articles de vulgarisation.
Surtout qu'à une époque j'étais passionné de programmation I.A. (j'ai beaucoup "joué" avec diverses techniques ainsi que les systèmes experts, prolog a chauffé avec moi ) mais depuis je suis plutôt passé à la physique théorique.
Mais intéressant ça oui, c'est indéniable
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Ce qui est intéressant c’est que à côté du deep learning qui a permis de grosses avancées sur les données non structurées comme l’image, le son et le texte on a aussi fait d’énormes progrès avec des algorithmes d’apprentissage statistiques comme les Gradient Boosting par exemple.
Et sur pas mal de sujets notamment les données structurées que sont les tableaux de chiffres ils sont meilleurs que le deep.
Il y a d’ailleurs des articles sur «la déraisonnable inefficacité des réseaux de neurones sur les données tabulaires».
P.S : et par coïncidence j’ai vérifié ça hier sur le sujet sur lequel je travaille.
Ah bien voilà qui prouve que je ne suis plus "à la page", je ne connaissais pas. Je te remercie.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Une énorme partie de l’IA se fait via les compétitions Kaggle : des gens soumettent un problème, souvent des entreprises et donnent une récompense au meilleur modèle. Stage, offre d’emploi, cash.
C’est très actif, les solutions sont publiées et commentées.
C’est fabuleux comme outil de recherche et d’échange et cela fournit un benchmark permanent des meilleures solutions et des astuces pour en tirer le meilleur.
Bonjour,
Je reviens sur la discussion car il y a quelque chose qui me chiffonne.
Dans certains articles cités, le réseau de neurones est décrit comme une*«*simple*» approche statistique recherchant des similitudes et, grâce à la puissance de traitement et au volume de données d’entraînement, les trouvant de plus en plus efficacement, sans pour autant les expliciter.
Devons-nous avoir une vision aussi réductrice que ça ?
L’IA ne peut-elle pas, via les réseaux ou d’autres approches, modéliser et nous aider à comprendre ?
"Simple" est un bien grand mot.Dans certains articles cités, le réseau de neurones est décrit comme une*«*simple*» approche statistique recherchant des similitudes et, grâce à la puissance de traitement et au volume de données d’entraînement, les trouvant de plus en plus efficacement, sans pour autant les expliciter.
En quoi est ce réducteur ?
On n'en est absolument pas là au sens où ce que tu décris est très proche de ce qu'on appelle une IA forte.
Mais globalement, il t'arrive ce qui est fréquent quand on découvre l'IA par le biais de la vulgarisation : on s'imagine un truc très impressionnant parce qu'on a une vision mythifiée de l'intelligence.
Et on est étonné que les IA démystifie ça en quelque sorte vu qu'elles paraissent simples.
Mais c'est comme ça depuis toujours : tout ce qui nous entoure nous semble "normal" alors qu'une calculatrice, un GPS ou un avion serait passé pour de la magie il y a 2 siècles.
cette IA forte..... phantasme de SF, Dieu ou démon, assistant zélé ou disciple qui dépassera le maître,
entité qui pourrait hériter de la 'sagesse' (???) humaine, ou plus sûrement des connaissances humaines..... qui pourrait les retravailler, les réévaluer..... indiquer explicitement des solutions [ou plutôt des recommandations en vue d' atteindre des objectifs décidés par l' animal 'sapiens'.....
effectivement il n' en existe que fausse apparences......... même si les traducteurs automatiques (et les transformers capables de 'répondre' à des questions en langue naturelle) sont bluffants ......
mais cette IA qui émule la pensée structurée par notre culture ( et notre langage), manquons-nous irrémédiablement des connaissances nécessaires pour la faire fonctionner , ou bien seulement n' avons nous par encore fait l' effort pour assembler les modules nécessaires à sa construction?
ps.... et quand cela se produira, quelles en seront les conséquences ..... mais ceci est un autre problème......
Dernière modification par Bounoume ; 31/03/2022 à 00h34.
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
Illustration de ce que je disais : on se retrouve avec des références religieuse et mystiques et des peurs par quelqu'un qui semble refuser de s'informer et fait plusieurs contresens sur "IA forte".
On aurait pu rester dans le factuel et la science mais à la place, on est dans la mauvaise science-fiction.
Et le discours sur l'IA oscille entre "ce n'est que ça" et "SkyNet et HAL 9000 sont au coin de la rue et vont tous nous tuer" (mais en version moins bonne que les originaux).
Dernière modification par pm42 ; 31/03/2022 à 06h50.