intelligence artificielle (présentation par l' epita...) aller + loin? - Page 2
Discussion fermée
Page 2 sur 12 PremièrePremière 2 DernièreDernière
Affichage des résultats 31 à 60 sur 353

intelligence artificielle (présentation par l' epita...) aller + loin?



  1. #31
    Bounoume

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?


    ------

    Citation Envoyé par RiketRok Voir le message
    Si l'émulation du cerveau semble encore si loin, pourquoi ne pas s'atteler aux alternatives ? Peut-être aux modèles neurosymboliques qui essaient de coupler réseaux neuronaux avec une architecture symbolique ? Il me semble que certains chercheurs influents s'orientent sur cette piste à l'heure actuelle.
    C 'est précisément mon idée.... avec l' arrière-pensée: au prix de la limitation du champ d' application de l' 'intelligence', réduire la consommation de ressources

    Le système purement symbolique (programme et data représentés par des 'mots' de codes) ça existe.... c' est même la base des OS, SE, SGBD, WEB....
    Sauf programmeurs délirants, l' occupation mémoire et les flops ne sont pas monstrueux (tant que les données concernées ne sont pas monstrueuses... et finalement superflues.....)

    De leur côté, ce que je sais des ANN, RNN, convolutifs et autres.... c 'est qu' ils effectuent des tâches irréalisables à partir de systèmes symboliques...... entre autres qu' ils savent faire des choix sans exiger préalablement de les programmer explicitement (ce qui serait quasi impossible dans les cas auxquels je pense...).
    Ils me semblent ajouter aux systèmes symboliques l' 'intuition' que les systèmes symboliques ne peuvent obtenir, ni par l' apprentissage, ni par le travail des programmeurs......

    Par contre..... en volume de données (les poids de connexion....) et d' opérations, c' est très lourd.....

    Pour l' avenir +-- lointain, je me demande (mais c' est un autre problème, de la SF ? ) si, au prix d' une dimension monstrueuse.... par rajout d' une multiplication et d' un fractionnement en sous-réseaux organisés, on ne pourra pas aboutir avec eux à une simulation acceptable du traitement 'brain-like' de notre pensée......
    En espérant que ce ne sera pas demain la veille, parce que, si c' est réalisé, ces systèmes seront la PROPRIETE exclusive de certains groupes fermés ... très peu motivés par l' intérêt commun des bipèdes ordinaires......
    Citation Envoyé par RiketRok Voir le message
    Je vois bien réussir un système purement symbolique avec simulation 3D, la complexité du monde étant finie, je ne vois pas pourquoi l'on ne pourrait pas créer un système rigide qui serait au moins capable de naviguer notre monde ? Il aurait du mal à pondre une interprétation de la physique quantique certes, mais devrait au moins pouvoir assister sur/automatiser bon nombre de tâches. L'avantage du symbolique c'est que l'on peut estimer que le hardware actuel est largement suffisant.
    Pourquoi la simulation 3D?
    Il me semble que se suffirait à lui-même un système nativement symbolique faisant appel au connexionnisme pour lui proposer les choix critiques qu' il est incapable de faire seul.

    La simulation 3 D..... ça me semble simplement un complément facultatif..... et indispensable dès lors qu' on n' accepte pas de se cantonner au (déjà vaste) domaine du Verbe et des Idées......
    Pour être utile, ce complément devait bien sûr intégrer tout ce qui est reconnaissance et simulation des formes...... dont les images ....
    nb j' aurais plutôt parlé de la modélisation temporo-spatiale des objets dans le mode réel....

    -----
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  2. #32
    FinalSpark

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Bounoume Voir le message
    à propos de GPT3....
    survol: https://siecledigital.fr/2020/07/21/...turel-dopenai/
    l' essentiel: https://fr.yeeply.com/blog/gpt-3-rev...nnaire-de-lia/
    et: https://www.quantmetry.com/blog/analyse-gt3/ +++++

    non seulement Elon Musk veut coloniser Mars, mais il cherche à posséder l' IA humanoïde .....
    Son engin= 175. 10^6 paramètres.... en mémoire vive! traduit, résume, recherche des réponses construites à des questions .... après avoir digéré Wikipedia et autres sources de connaissances...
    ça suscite quelques inquiétudes, déjà.....
    https://www.lebigdata.fr/eleuther-alternative-gpt-3
    Je ne connaissais pas, merci. Mais il me semble qu'il y a peu de chances de faire un système intelligent de cette façon, je ne pense d'ailleurs pas que ce soit leur ambition. C'est un peu comme simuler un CPU en collant des décalcomanies de lettres sur un écran d'ordinateur.


    Citation Envoyé par RiketRok Voir le message
    Citation Envoyé par Finalspark
    Je ne sais pas, et les état d'âme de ma petite personne me semblent anecdotiques par rapport à l'objectif.
    En effet, participer à l'entrée dans d'une nouvelle ère technologique ça semble pas mal comme ambition.
    Oui, j'ai une chance extraordinaire de vivre un peu comme dans un film de science fiction... (un peu barbant le film parfois quand même... )

    Citation Envoyé par RiketRok Voir le message
    Je trouve ça encourageant que l'on ne sache pas par quel bout prendre le problème, m'est d'avis que c'est un signe que le problème est potentiellement petit, qu'il suffit de quelques algorithmes bien rôdées pour qu'une IA "apparaisse". Le problème est potentiellement d'ordre créatif et à la portée de tous, même avec de faibles moyens.
    Il y a beaucoup de gens intelligents et créatifs dans le monde. S'ils ont tous échoués pendant si longtemps, je ne pense pas que "quelques algorithmes bien rodés" vont régler le probléme Par contre, je suis d'accord que le problème est relativement accessible (par rapport à la conquête spatiale par exemple ou les ordinateurs quantiques), quant aux moyens, si tu veux persévérer pendant des années ca finit quand même par chiffrer... (c'est du vécu...)

    Citation Envoyé par RiketRok Voir le message
    Si l'émulation du cerveau semble encore si loin, pourquoi ne pas s'atteler aux alternatives ? Peut-être aux modèles neurosymboliques qui essaient de coupler réseaux neuronaux avec une architecture symbolique ? Il me semble que certains chercheurs influents s'orientent sur cette piste à l'heure actuelle.
    Ce n'est pas une alternative nouvelle... tiens voici une petite thèse de 1995 sur le sujet, en francais même....

    Personnellement, je crois beaucoup aux applications industrielles de modèles mélangeant réseaux bayésiens et réseaux de neurones. Mais ce n'est pas le sujet ici, qui est la recherche d'une intelligence générale.

    En fait, je ne connais aucune alternative qui n'ait pas été explorée... mais je suis intéressé par toute alternative que je connaitrais pas encore!

    Citation Envoyé par RiketRok Voir le message
    Je vois bien réussir un système purement symbolique avec simulation 3D, la complexité du monde étant finie, je ne vois pas pourquoi l'on ne pourrait pas créer un système rigide qui serait au moins capable de naviguer notre monde ? Il aurait du mal à pondre une interprétation de la physique quantique certes, mais devrait au moins pouvoir assister sur/automatiser bon nombre de tâches. L'avantage du symbolique c'est que l'on peut estimer que le hardware actuel est largement suffisant.
    Aucun problème en principe pour faire cela, tu as depuis longtemps des systèmes qui apprennent à jouer à des jeux dans un environnement virtuel (deepmind par exemple). Mais ils ne pensent pas....

    Citation Envoyé par Bounoume Voir le message
    C 'est précisément mon idée.... avec l' arrière-pensée: au prix de la limitation du champ d' application de l' 'intelligence', réduire la consommation de ressources
    [/U]
    Je crois que si tu limite le champ d'application, tu obtiens un système idiot (au sens Turing), par contre cela tient tout à fait la route dans une démarche industrielle (par exemple, la réduction du champ d'application à la reconnaissance d'image fonctionne bien)
    Dernière modification par FinalSpark ; 11/04/2021 à 13h30.
    FinalSpark, Building a thinking machine.

  3. #33
    Bounoume

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par FinalSpark Voir le message
    Je crois que si tu limites le champ d'application, tu obtiens un système idiot (au sens Turing), par contre cela tient tout à fait la route dans une démarche industrielle ***(par exemple, la réduction du champ d'application à la reconnaissance d'image fonctionne bien)
    Pas forcément idiot.....

    Initialement oui, très idiot....
    Comme un méga-jeu de la vie, où un réseau de propositions (avec des sous-réseaux contradictoires quand à leurs effets sur d' autres sous-réseaux) va évoluer plus ou moins spontanément.......
    Encore idiot, quand 'on' a trouvé un paramétrage permettant au système d' aller vers des états transitoirement stables (comme nos conclusions logiques après examen d' un problème.... conclusions par essence réfutables après ré-examen suivant un chemin un peu différent....)....
    Intéressant, quand le dit système sera nettement gouvernable par l' initialisation de certaines valeurs: 'on' peut lui enseigner des choses.....
    Encore plus, si on réussit à lui donner une configuration qui lui permette d ''apprendre" ..... des 'connaissances' totalement arbitraires.....

    Au-delà, on peut espérer lui 'enseigner' aussi le feed-back de l' auto-ré-évaluation sur des critères.... qui pourraient être adaptés à la nature des 'connaissances' acquises.....
    A ce stade seulement, on pourrait alors le faire évoluer dans des représentations diverses issues du monde réel..... et en espérer des retours un peu adaptés à la dite réalité.....
    Ce qui est quand même le début de l' Intelligence, selon moi....

    Citation Envoyé par FinalSpark Voir le message
    Ce n'est pas une alternative nouvelle... tiens voici une petite thèse de 1995 sur le sujet, en francais même....

    Personnellement, je crois beaucoup aux applications industrielles de modèles mélangeant réseaux bayésiens et réseaux de neurones. Mais ce n'est pas le sujet ici, qui est la recherche d'une intelligence générale.
    Je vais essayer de consulter la thèse... mais dès à présent j' ai la conviction qu' un système uniquement symbolique est incapable de choisir 'seul' entre la multitude de chemins d' inférence possibles dans la construction d'un 'raisonnement' *, ce qui rend indispensable le recours à un niveau 'inférieur' régissant certains choix, et là, ce sont effectivement les réseaux de neurones (+- Vord2Vec), et les réseaux bayésiens qui rendraient un bien meilleur résultat qu' un choix simplement aléatoire....



    *** là, pas d' accord: le système industriel n' est pas idiot. Ok, il est rigide, figé, d' adaptabilité strictement limitée..... cependant il reflète quand même très bien.... l'intelligence de ses concepteurs et programmeurs, même si 'il' n' y ajoute aucune intelligence autonome.....:
    *même le vieux Prolog de Colmerauer aurait des problèmes pour évaluer complètement sa base, dès qu' il y a beaucoup de faits et règles....
    Dernière modification par Bounoume ; 11/04/2021 à 16h24.
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  4. #34
    tixelauren

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Qu'est-ce que l'intelligence ? N'est-ce pas une bonne entrée en matière avant de parler d'intelligence artificielle ? Pour moi (car je crois qu'il peut y avoir autant de définitions que d'individus) l'intelligence doit être en priorité réservée à la notion d'adaptabilité. Le vivant s'adapte, et notamment aux nouveautés, aux imprévus ! Sinon, le vivant ne le serait pas longtemps car il serait dépassé par les situations nouvelles... Or, que constate-t-on avec les robots ? Ils font des calculs, rien de plus ! Des calculs à partir de données enregistrées préalablement, qui installent un cadre dans lequel le robot peut exercer ses talents. Mais, s'il a affaire à quelque chose d'imprévu, une évolution du cadre, il est perdu. A l'inverse du vivant qui a la capacité de réagir ! Il a à sa disposition des outils dont le robot ne peut disposer : la sensibilité et l'intuition (celle qui fit dire à M. Einstein que la mécanique quantique était intéressante, mais que son petit doigt lui disait qu'elle était incomplète). Le robot, devant une situation nouvelle, ne peut réagir ; il aura toujours une situation de retard, car il lui faudra au préalable qu'on lui intègre des données liées à ces nouvelles situations...
    Un autre aspect que le robot aura toujours du mal à être comparé au vivant : la duplicité. Prenons l'exemple d'une personne fatiguée, à qui le robot propose de se reposer... Sauf que la personne, quoique fatiguée, doit faire une courses urgente. Comment le robot peut comprendre qu'une personne qu'elle analyse comme étant fatiguée, puisse vouloir encore travailler ? On pourrait, en reprenant cet exemple dire ceci : cette personne est fatiguée, elle aime bien le thé, le robot le sait, et lui propose de boire du thé. Sauf, que cette fois-ci cette personne, au lieu de vouloir boire, préfère aller s'allonger un temps. Comment le robot peut analyser la duplicité ou l'ambivalence humaine ? Ce qui fait qu'un humain peut changer d'avis sans raison apparente ? Tout simplement, car il en a envie, ou qu'il est poussé par une intuition que le robot ne peut capter forcément ? On pourra bourrer autant qu'on veut ledit robot de données qui lui permettront de calculer un nombre invraisemblable de situations, il ne pourra jamais faire face à l'imprévu et à l'ambivalence... C'est pourquoi je pense que le terme d'intelligence ne devrait pas s'appliquer à un objet dépourvu de sensibilité et d'intuition...

  5. #35
    Liet Kynes

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par tixelauren Voir le message
    Or, que constate-t-on avec les robots ? Ils font des calculs, rien de plus !
    Bonjour,

    Plus aucun être humain ne bat l'IA aux échecs.. https://mbamci.com/alpha-zero-ai-autodidacte/
    Sans questions il n'y a que des problèmes sans réponses.

  6. #36
    RiketRok

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Bounoume Voir le message
    De leur côté, ce que je sais des ANN, RNN, convolutifs et autres.... c 'est qu' ils effectuent des tâches irréalisables à partir de systèmes symboliques...... entre autres qu' ils savent faire des choix sans exiger préalablement de les programmer explicitement (ce qui serait quasi impossible dans les cas auxquels je pense...).
    Ils me semblent ajouter aux systèmes symboliques l' 'intuition' que les systèmes symboliques ne peuvent obtenir, ni par l' apprentissage, ni par le travail des programmeurs......
    A quelles tâches pensent-tu à part la vision, qui seraient irréalisables par un système symbolique ? Un système symbolique devrait pouvoir apprendre en mettant à jours ses connections, ses poids, ses références... J'ai cette impression qui me hante chaque jour que le paradigme connectioniste n'est même pas nécessaire pour créer une intelligence potable. Je vais probablement devoir mettre les mains dans le cambouis, me casser les dents, et revenir ici pour commencer à râler qu'une IA c'est impossible ça n'arrivera jamais.

    Citation Envoyé par Bounoume Voir le message
    Pour l' avenir +-- lointain, je me demande (mais c' est un autre problème, de la SF ? ) si, au prix d' une dimension monstrueuse.... par rajout d' une multiplication et d' un fractionnement en sous-réseaux organisés, on ne pourra pas aboutir avec eux à une simulation acceptable du traitement 'brain-like' de notre pensée......
    C'est certain, tous les réseaux neuronaux qui révolutionnent le monde ont encore une architecture rudimentaire qui essaie d'optimiser au maximum une seule tâche, tu n'es pas d'accord ? Le cerveau semble bien plus complexe, il est donc naturel que les IA modernes ne soient pas vraiment capable de s'adapter : il reste encore un énorme champ de combinaisons complexes qui n'a guère été visité.


    Citation Envoyé par Bounoume Voir le message
    En espérant que ce ne sera pas demain la veille, parce que, si c' est réalisé, ces systèmes seront la PROPRIETE exclusive de certains groupes fermés ... très peu motivés par l' intérêt commun des bipèdes ordinaires......
    Tu en es sûr ? Imaginons, Facebook donnait naissance à une IA générale, je vois très mal Facebook l'utiliser seulement à des noirs desseims, Mark Zukerberg est déjà beaucoup trop riche, quel intérêt pour lui de mourir dans la honte ? Les équipes de développement de ces boîtes ont souvent une morale assez aiguisée aussi (lanceurs d'alertes, démissions, refus de projets militaires...), et surtout, le code source d'une telle IA tiendrait soit sur un disque dur, soit sur une feuille. Bonne chance pour le cacher longtemps. Et puis beaucoup de la recherche en IA avance à monde ouvert aujourd'hui. Personnellement je suis optimiste sur ce sujet, le plus gros problème qu'on pourrait avoir, c'est si la Chine devait l'inventer en première.

    Citation Envoyé par Bounoume Voir le message
    Pourquoi la simulation 3D?
    Pour être utile, ce complément devait bien sûr intégrer tout ce qui est reconnaissance et simulation des formes...... dont les images ....
    nb j' aurais plutôt parlé de la modélisation temporo-spatiale des objets dans le mode réel....
    Mon interprétation est que quasiment tout se rapporte au visuospatial, les autres sens y étant auxiliaires. Si une machine devait concorder verbes/mots/idées + visuospatial, il deviendrait difficile d'affirmer qu'elle ne pense pas...

    Citation Envoyé par FinalSpark Voir le message
    Il y a beaucoup de gens intelligents et créatifs dans le monde. S'ils ont tous échoués pendant si longtemps, je ne pense pas que "quelques algorithmes bien rodés" vont régler le probléme
    Tu n'as pas cette intuition que la complexité du problème n'est pas si énorme que ça, qu'une fois la logique d'apprentissage cernée, l'IA va juste apparaître d'elle-même ? Les réseaux neuronaux semblent déjà reproduire des discernements complexes de "features" qu'on semble nous même faire dans notre cerveau, sans pour autant être trop complexes (les RN). Si on divise le cerveau en différents tissus, y-en-a-t-il tant que ça qui semblent impliqués dans la pensée?

    Citation Envoyé par FinalSpark Voir le message
    quant aux moyens, si tu veux persévérer pendant des années ca finit quand même par chiffrer... (c'est du vécu...)
    Si seulement on pouvait te convaincre que tes années furent bien utilisées, même en vain, quand une multitude de personnes explorent un terrain inconnu, on se souviendra tous de celui qui a déterré le trésor, mais quelle négligence d'oublier tous ceux qui lui ont indiqué le chemin en marquant les impasses...


    Citation Envoyé par FinalSpark Voir le message
    Mais ils ne pensent pas....
    Qu'est-ce que penser ? Si on montre une vidéo à une IA où un chat s'approche d'une gammelle, quelle y discerne les différents éléments (chat, gamelle, carellage, motifs, ombres, couleurs...), qu'on lui demande ce qu'il va se passer, qu'elle analyse la scène (chat, mammifère, gamelle remplit, humain ont tendance à y déposer la nourriture d'animaux de compagnies, parmi comportements typiques d'un chat : manger, gamelle est distante, chat se dirige vers la gamelle...) et l'IA nous répond que le chat va s'approcher de la gamelle pour manger et assouvir sa faim, n'est-ce pas penser ? L'IA pourrait même rajouter (scène analogue: chat, gamelle, chat se dirige gamelle): "ça me rappelle cette scène ou un chat de la même couleur se rapproche d'une gamelle et se fit tirer dessus avec un pistolet à eau", ou encore "je ne donnerais pas cette marque de nourriture à mon chat si j'en avais un (= si je voulais maximiser le comfort de mon animal de compagnie), elle contient trop d'additifs potentiellement néfastes et les nutriments n'y sont pas équilibrés (boîte ouverte du le comptoire, proximité spatiale, tolérance d'incertitude/absence de preuves)".

    Ces raisonnements sont complexes ne semblent pas hors de portée d'une IA symbolique rigide, le problème majeur et vieux comme le monde étant bien sûr de réussir à réduire le champ de réflexion de l'IA aux éléments pertinents...
    Mais ne serait-ce pas penser ? A partir de quelle complexité d'un raisonnement est-ce qu'une IA penserait ?




    Citation Envoyé par Bounoume Voir le message
    Je vais essayer de consulter la thèse... mais dès à présent j' ai la conviction qu' un système uniquement symbolique est incapable de choisir 'seul' entre la multitude de chemins d' inférence possibles dans la construction d'un 'raisonnement' *, ce qui rend indispensable le recours à un niveau 'inférieur' régissant certains choix, et là, ce sont effectivement les réseaux de neurones (+- Vord2Vec), et les réseaux bayésiens qui rendraient un bien meilleur résultat qu' un choix simplement aléatoire....
    Es-tu sûr qu'une surcouche au noyau symbolique ne permettrait pas d'apprendre à choisir les bonnes inférences ? Par exemple, l'IA pourrait apprendre d'exemples typiques et tous les chemins qui n'étaient pas nécessaire pour arriver à la "bonne inférence" verraient leur poids diminué dans "certaines conditions" (mais là on la sent arriver l'explosion combinatoire..). Ou peut-être des règles générales d'inférences (soit apprises, soit transmises) ? (bonjour le boulot si on doit écrire tous les cas typique à la main aka Cyc)

    Citation Envoyé par tixelauren Voir le message
    Un autre aspect que le robot aura toujours du mal à être comparé au vivant : la duplicité. Prenons l'exemple d'une personne fatiguée, à qui le robot propose de se reposer... Sauf que la personne, quoique fatiguée, doit faire une courses urgente. Comment le robot peut comprendre qu'une personne qu'elle analyse comme étant fatiguée, puisse vouloir encore travailler ?
    J'aimerais répondre à votre message point par point mais je dois filer au lit, pensez à la capacité de calcul d'un robot : un robot qui penserait comme ça : {employé 121, état : "fatigué", souhaite:"faire courses"} -> ("requête n'a pas de sens au vu de l'état binaire fatigué/non fatigué), c'est un robot datant de la guerre froide.
    Un robot d'aujourd'hui ferait des milliards de calculs, comparerait la demande de l'employé avec des millions de cas similaires, ferait preuve d'empathie envers l'employé en se mettant à sa place au travers d'un modèle précis de la vie typique d'une personne (verrait plusieurs cas où ne pas faire des courses, même fatigué, est généralement considéré comme néfaste), analyserait les derniers rapports médicaux de l'employé... la réflexion d'un robot moderne (enfin, supermoderne) serait hyper nuancée.
    Quant à l'adaptation, les robots s'adaptent déjà, un aspirateur peut s'adapter à de nouveaux éléments mobiles en développant une intuition de leurs mouvements typiques, mais une adaptation complexe nécessite quelque chose que les robots n'ont pas encore : un modèle précis du monde qui les entour. Ca ne semble pas hors de portée pour autant.

  7. #37
    Bounoume

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par RiketRok Voir le message
    A quelles tâches pensent-tu à part la vision, qui seraient irréalisables par un système symbolique ? Un système symbolique devrait pouvoir apprendre en mettant à jours ses connections, ses poids, ses références... J'ai cette impression qui me hante chaque jour que le paradigme connexionniste n'est même pas nécessaire pour créer une intelligence potable.
    Je pense qu' un système 'symbolique', par des opérations logiques élémentaires successives, ne pourrait pas non plus effectuer certains choix de façon pertinente ('intuitive')...
    Par exemple il ne réussirait pas à repérer, parmi de nombreux 'possibles', ceux qui 'semblent' proches de l' objectif assigné......

    En particulier, le système symbolique seul aurait de grandes difficultés à évaluer la 'distance' entre deux "mots" (ou entre des n-uplets de "mots"....)
    Pour ça, un calcul de 'distance' entre vecteurs, ça me conviendrait.... peut-être mieux d' ailleurs que le verdict d' un ANN dans ce cas.....

    Mais ensuite, ce serait le système symbolique qui déciderait lesquels des 'possibles' sont conformes aux règles imposées.....

    Quant à l' apprentissage, il faudrait distinguer la découverte directe de régularités (par fourniture d' exemples étiquetés ou non) et l' internalisation de faits et règles à partir d' une suites de signes, régie par une grammaire et une sémantique se référant aux signes déjà acquis..... avec nécessité de les connecter avec les acquis résidents.....
    Pour moi, la découverte ex nihilo, c' est les ANN et dérivés, alors que pour constituer la base de connaissances..... l' aspect symbolique va prédominer.... et surtout décider de la validité de chaque acquisition.....
    Citation Envoyé par RiketRok Voir le message
    Je vais probablement devoir mettre les mains dans le cambouis, me casser les dents, et revenir ici pour commencer à râler qu'une IA c'est impossible ça n'arrivera jamais.
    Tu envisages de concevoir un prototype exécutable? En C++ ? Dans un premier temps, d' en définir spécifications et fonctionnement?

    Citation Envoyé par RiketRok Voir le message
    C'est certain, tous les réseaux neuronaux qui révolutionnent le monde ont encore une architecture rudimentaire qui essaie d'optimiser au maximum une seule tâche, tu n'es pas d'accord ? Le cerveau semble bien plus complexe, il est donc naturel que les IA modernes ne soient pas vraiment capable de s'adapter : il reste encore un énorme champ de combinaisons complexes qui n'a guère été visité.
    Ce que j' en crois connaître c 'est qu' une fois l' apprentissage terminé, ils vont répondre en une seule passe à la question posée.
    Au contraire de notre 'esprit' qui ne donne 'sa' réponse qu' après avoir effectué un grand nombre d' opérations neuronales intermédiaires.... opérations effectuées en parallèle sur plusieurs threads, qui eux-même sont interactifs et +- concurrents....
    Avec un système symbolique, émuler cela me semble réalisable.... une fois qu' on aura défini la constitution des objets à manipuler, et les méthodes.....
    Il serait même alors assez facile de définir des structures spécialisées (et accessibles depuis l' interface extérieure) qui simuleraient les aires cérébrales spécialisées dans certains traitements de certaines informations.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  8. #38
    aygline

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Bonjour,

    Plus aucun être humain ne bat l'IA aux échecs..
    C’est absurde de dire ça comme ça car l’intelligence d’un être humain n’est pas comparable à celle d’une IA, encore que ce soient des êtres humains qui l’aient fabriquée, conçue et réalisée (l’IA !

    Les IA sont des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela.

    Elles obéissent aveuglément à des injonctions genre à des algorithmes ensuite programmés, qui ont été pensés en amont par des ingénieurs.

    Donc à bien y réfléchir une IA, quelque qu'elle soit, a été pensée en amont en vue de faire ceci cela mais ... elle ne pense pas du tout elle-même

  9. #39
    aygline

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    … lors d’une partie de « bras de fer » https://fr.wikipedia.org/wiki/Bras_de_fer il est légitime de compare les performances des athlètes car elle est d’égal à égal (la partie) mais il n’est pas légitime de comparer de la même façon les performances des « belligérants » en quelque sorte ou des protagonistes, lors une partie d’échecs entre un ordinateur et une personne humaine !

  10. #40
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par aygline Voir le message
    C’est absurde de dire ça comme ça
    En quoi est absurde ? C'est factuel : aucun humain ne peut battre les IA actuellement aux échecs. C'était un sujet de débat il y a encore quelque temps, on se posait la question de savoir si on y arriverait dans un horizon de temps prévisible.
    En fait, il y avait le même débat sur le go il y a juste quelques années qui était considéré comme très difficile pour les machines.

    Citation Envoyé par aygline Voir le message
    Les IA sont des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela.
    Elles obéissent aveuglément à des injonctions genre à des algorithmes ensuite programmés, qui ont été pensés en amont par des ingénieurs.
    Ce n'est absolument pas comme cela que fonctionnent les IA actuelles et ce contresens est étonnant.
    La moindre des choses serait peut-être de se renseigner un minimum sur le domaine avant de sortir des énormités comme ça.

    Citation Envoyé par aygline Voir le message
    Donc à bien y réfléchir une IA, quelque qu'elle soit, a été pensée en amont en vue de faire ceci cela mais ... elle ne pense pas du tout elle-même
    Il faudrait déjà donner la définition de "penser elle même" parce que là, on est dans des phrases très générales qui utilisent des concepts mal définis pour faire une critique qui passe complètement à coté à la fois du fonctionnement des IAs mais aussi de leur but.

  11. #41
    Deedee81
    Modérateur

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Salut,

    La remarque de pm42 étant juste quelques explications sont de bon aloi.

    Citation Envoyé par aygline Voir le message
    Les IA sont des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela.
    C'est vrai et faux (pas assez précis).

    C'était vrai pour les anciens systèmes d'IA basés sur, par exemple, les systèmes experts. Des spécialistes (informaticiens, techniciens, cogniticiens...) devaient formaliser l'ensemble des règles de raisonnement. Et L'IA ne faisait plus que les exécuter. A une époque je me suis beaucoup amuser à programmer des trucs ainsi en PROLOG

    Mais avec les réseaux de neurones formels ce n'est plus les cas. Ce que fait le spécialiste est juste dire "je vais faire une IA pour la reconnaissance d'images" ou "pour jouer aux échecs".... Mais il ne dit plus comment il faut analyser l'image ou le jeu pour arriver au bon résultat. Tout au plus va-t-il donner une base de données de cas déjà traités (images identifiées, jeux annotés) pour que l'IA puisse apprendre. Mais même là on arrive à faire mieux avec, par exemple, AlphaZero auquel on ne donne absolument rien comme données (à part les règles du jeu) : l'IA va jouer contre elle-même et apprendre toute seule.

    Il est d'ailleurs à noter que cette façon de fonctionner peut être problématique car on ne sait pas dire (la plupart du temps) pourquoi l'IA est arrivée à telle ou telle conclusion. Or pour certains usage, c'est utile voire indiespensable ou obligatoire. Deux exemples : dans le domaine médical, un diagonostic ou un traitement doit être justifié/expliqué car c'est au médecin que revient la décision finale et à moins de faire une confiance aveugle à la machine il doit comprendre pourquoi celle-ci fait telle ou telle proposition. Dans le domaine juridique une IA ne doit pas juste dire "coupable/responsable/..." elle doit aussi le justifier pour une raison analogue à la précédente.

    A l'inverse les systèmes experts sont capables de dire précisément quelles inférences conduisent au résultat. Un des objectifs est donc le mariage des deux technologies.... ce qui n'a rien d'évident !

    Deux autres détails :
    - Bien sûr que l'intelligence humaine n'est pas comparable à l'IA, personne n'a dit le contraire
    - Et "penser par soi-même", idem pm42, c'est une expression totalement creuse, on peut lui faire dire tout et son contraire.
    EDIT deux exemples : si on veut dire "la déduction se fait purement en interne en partant des données au résultat" alors tous les cerveaux et toutes les IA même les plus anciennes pensent par elle-même. Si c'est "sans faire appel à une information supplémentaire plus ancienne qui viendrait modifier le résultat" alors aucun cerveau ne pense par lui-même car nous dépendons tous de notre éducation, de notre formation scolaire, etc... Il ne resterait plus que les réactions de type réflexe (qui ne passent même pas par le cerveau d'ailleurs). Quand on voit ces deux extrêmes on comprend que cette expression est passe partout et sans utilité.
    Dernière modification par Deedee81 ; 10/05/2021 à 11h42.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  12. #42
    Bounoume

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Voilà.... L' essentiel est dit.....
    Citation Envoyé par Deedee81 Voir le message
    Mais il ne dit plus comment il faut analyser l'image ou le jeu pour arriver au bon résultat. Tout au plus va-t-il donner une base de données de cas déjà traités (images identifiées, jeux annotés) pour que l'IA puisse apprendre. Mais même là on arrive à faire mieux avec, par exemple, AlphaZero auquel on ne donne absolument rien comme données (à part les règles du jeu) : l'IA va jouer contre elle-même et apprendre toute seule.
    Pourtant ......
    obtenir un résultat satisfaisant n' est pas du tout automatique.... Encore faut-il utiliser (ou concevoir/adapter) le type de réseau adéquat au problème (depuis celui de Hopfield,aux RNN, LSTM, convolutifs....etc...) avec le nombre de couches, les paramètres de rétropropagation....
    Une fois le meilleur compromis choisi, l' IA pourra "apprendre" de façon efficace, à partir des jeux d' exemples (eux-mêmes bien construits...) proposés.....
    C' est alors seulement qu' elle répondra au problème, la plupart du temps bien mieux que l' humain de base.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  13. #43
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Bounoume Voir le message
    obtenir un résultat satisfaisant n' est pas du tout automatique....
    Apprendre quelque chose à un être humain non plus et le taux de succès est très loin de 100%.

  14. #44
    tixelauren

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Bonsoir Liet Kynes,
    et alors ? Le robot peut très bien, dès lors qu'il connait les règles du jeu, calculer toutes les combinaisons possibles à chaque coup... C'est justement là sa force. Son unique force ! En dehors de cela, il ne peut rien faire, sauf emmagasiner des expériences... Que voyez-vous donc d'autre dans le jeu d'échecs, qu'un ensemble de combinaisons ?

  15. #45
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par tixelauren Voir le message
    et alors ? Le robot peut très bien, dès lors qu'il connait les règles du jeu, calculer toutes les combinaisons possibles à chaque coup...
    Pour la plupart des jeux intéressants et notamment les échecs, il est justement impossible de calculer toutes les combinaisons parce qu'elles sont trop nombreuses.
    C'est très connu, bien documenté.

    Citation Envoyé par tixelauren Voir le message
    C'est justement là sa force. Son unique force !
    Là aussi, la moindre des choses serait de se renseigner un minimum avant de faire des affirmations à ce point fausses.


    Citation Envoyé par tixelauren Voir le message
    Que voyez-vous donc d'autre dans le jeu d'échecs, qu'un ensemble de combinaisons ?
    De la stratégie, de l'évaluation de positions et plein de choses. N'importe quel joueur de club ou un peu motivé sait ça. Il y a même des parties célèbres justement parce que le coup gagnant n'a pas du tout été joué sur une évaluation de combinaison mais uniquement sur des critères de position.

  16. #46
    Liet Kynes

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par pm42 Voir le message
    De la stratégie, de l'évaluation de positions et plein de choses. N'importe quel joueur de club ou un peu motivé sait ça. Il y a même des parties célèbres justement parce que le coup gagnant n'a pas du tout été joué sur une évaluation de combinaison mais uniquement sur des critères de position.
    Tout à fait, d'ailleurs pour bien s'en rendre compte il est intéressant de suivre des parties commentées ou de lire des analyses de parties.
    Sans questions il n'y a que des problèmes sans réponses.

  17. #47
    Bounoume

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par pm42 Voir le message
    De la stratégie, de l'évaluation de positions et plein de choses. N'importe quel joueur de club ou un peu motivé sait ça. Il y a même des parties célèbres justement parce que le coup gagnant n'a pas du tout été joué sur une évaluation de combinaison mais uniquement sur des critères de position.
    Serait-ce que les Maîtres ès échecs ont élaboré une théorie du jeu, théorie dont les conséquences leur ont permis de 'deviner', à chaque étape, en fonction de l' état de la partie (en intégrant le jeu des adversaires)??
    Auraient-ils construit un automate abstrait ('la théorie du jeu') qui va bien au-delà de la simple succession des coups, et dont la manipulation leur aurait indiqué la stratégie gagnante? En déduiraient-ils ensuite, pas à pas...... quelles suites d' actions leur permettraient la victoire?......
    Ma façon de voir l' intervention d' une structure 'intelligente' construite au-delà de la simple identification statique des faits est-elle acceptable?
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  18. #48
    Liet Kynes

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Bonjour,

    petite illustration, ici c'est l'être humain qui développe "quelque chose" contre la machine, "chose" que la machine fait mieux aujourd'hui

    https://www.youtube.com/watch?v=ymZhMcbWG74

    (Le commentaire de cette partie est un vrai bonheur)
    Sans questions il n'y a que des problèmes sans réponses.

  19. #49
    Deedee81
    Modérateur

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Salut,

    Citation Envoyé par Bounoume Voir le message
    obtenir un résultat satisfaisant n' est pas du tout automatique....
    Je n'ai pas dit que c'était simple même si mon explication donnait sans doute une fausse impression de "yakafokon" Désolé

    Citation Envoyé par pm42 Voir le message
    C'est très connu, bien documenté.
    En effet. Et d'ailleurs même sans aller jusqu'au deep learning, même les méthodes "classiques" de programmation des jeux ne consistent pas à tout calculer. Le principe repose sur une analyse partielle, voir par exemple :
    https://fr.wikipedia.org/wiki/Algorithme_minimax
    https://fr.wikipedia.org/wiki/%C3%89...lpha-b%C3%AAta
    et c'est loin d'être complet (il faut tenir compte des bibliothèques d'ouvertures et de finales, des méthodes spéciales : coup meurtrier, tris, églagages à priori, stratégie de type B, etc....)

    Le tout combine :
    - un calcul incomplet d'une position (car tout bonnement impossible de le faire de manière complète)
    - une évaluation bien foutue (une grande partie du savoir faire de l'analyste est là)
    - des techniques diverses et variées intelligemment combinées
    - un processeur puissant si possible

    J'ai beaucoup développé ce genre de trucs (par contre je n'ai jamais touché personnellement au deep learning). C'est loin d'être évident. Y compris pour les techniques d'apprentissages.

    Il y a peu de jeux pour lesquels un calcul exhaustif est possible : le tic tac toe (évidemment, tout programmeur passionné de ce genre de chose l'a fait), et avec des bécanes monstrueuses : morpion et sa variante go moku, dames (cherckers ou françaises) et presque l'othello reversi

    Mais aux échecs faut pas rêver. Idem le Shogi. Et encore moins au go. Notons d'ailleurs que les outils d'analyse sont formidables car si on regarde le nombre de stratégies possibles (une stratégie en théorie des jeux est du style : "au premier coup je joue X, si l'adversaire répond Y, alors je réponds Z, s'il répond X, alors je réponds U, etc..."' même au tic tac toe, le nombre est astronomique. Et pourtant on arrive à programmer des stratégies optimales (pour ce jeu, pas au échec !).

    Et bien entendu on a découvert que ce genre de techniques c'est simpliste face au deep learning.

    Il faut donc éviter de simplifier le débat. Ca n'est rien de simple.

    Citation Envoyé par Bounoume Voir le message
    Serait-ce que les Maîtres ès échecs ont élaboré une théorie du jeu, théorie dont les conséquences leur ont permis de 'deviner', à chaque étape, en fonction de l' état de la partie (en intégrant le jeu des adversaires)??
    Auraient-ils construit un automate abstrait ('la théorie du jeu') qui va bien au-delà de la simple succession des coups, et dont la manipulation leur aurait indiqué la stratégie gagnante? En déduiraient-ils ensuite, pas à pas...... quelles suites d' actions leur permettraient la victoire?......
    Bien malin celui qui comprendrait comment fonctionne le cerveau d'un maître dans ce domaine. J'ai vu des études tant théoriques que pratiques (par exemple des analyses de position en "pensant tout haut") mais c'est loin d'être simple à comprendre même approximativement. Et moi même joueur d'(échec je serais bien en peine de dire comment ma grosse éponge grise trouve le bon coup. Ca combine mémoire, analyse rationnelle, reconnaissance des structures... une bonne partie du cerveau "fume" quand on joue au échec (on peut même perdre pas mal de poids pendant un tournoi ).

    Anecdote : un curieux demandait à un Grand Maître (sais plus qui, peut-être Bogoliubov) combien de coup il analysait avant de jouer (question posée dans le même style qu'un ordinateur examinant un milliard de coups ), sa réponse fut :
    "un seul, le bon"
    Dernière modification par Deedee81 ; 11/05/2021 à 06h53.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  20. #50
    Deedee81
    Modérateur

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    On s'est croisé.

    Citation Envoyé par Liet Kynes Voir le message
    (Le commentaire de cette partie est un vrai bonheur)
    Superbe. Je trouve la voix monocorde mais sur le fond on se régale très vite

    Mais c'est mieux que mes propres vidéos sur les échecs avec des "Chappie, rend moi ce pion !"

    J'avais vu il y a longtemps un superbe match sur internet de plusieurs joueurs (maître et grand maître) contre une machine (deep blue).
    Les joueurs s'étaient tous fait écraser.... sauf un qui avait gagné haut la main. Je ne me souviens plus de son nom mais il se fait que ce grand maiîre collaborait avec une société de conception de jeux d'échecs. Et ils savait parfaitement comment raisonne un ordinateur, en particulier son problème d'analyse limité favorisant pour le joueur humain les positions très fermées nécessitant de longues manoeuvres stratégiques. Il faisait attention pour choisir ses ouvertures en "verrouillant" je jeu puis en prenant un avantage positionnel petit à petit jusqu'à mettre la machine face à sa mise à mort (évidemment, même en sachant "comment jouer", faut être un jouer d'échec émérite, j'en serais totalement incapable).

    Evidemment quand on voit AlphaZero (il y a de très bonnes vidéos sur youtube autant de parties contre humains que contre d'autres machines comme Stockfish), ces lacunes stratégiques son plus que comblées (certains coups de AlphaZéro sont dignes d'une créativité humaine surprenante). Mais il reste que machine contre humain reste intéressant pour voir à quel point la manière de raisonner est très différente.
    Dernière modification par Deedee81 ; 11/05/2021 à 07h29.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  21. #51
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Deedee81 Voir le message
    pour voir à quel point la manière de raisonner est très différente.
    C'est une remarque pertinente parce que dans les sujets sur l'IA, on lit souvent "oui mais les ordinateurs ne pensent pas comme nous donc ils ne pensent pas vraiment".
    Au contraire, on devrait trouver très intéressant ces différences qui sont scientifiquement plus enrichissantes.

    D'autant que les ordinateurs ne calculent pas comme nous mais cela ne les empêchent pas d'être infiniment plus efficaces, ils ne gèrent pas des données comme nous non plus, etc.

  22. #52
    Deedee81
    Modérateur

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par pm42 Voir le message
    C'est une remarque pertinente parce que dans les sujets sur l'IA, on lit souvent "oui mais les ordinateurs ne pensent pas comme nous donc ils ne pensent pas vraiment".
    Au contraire, on devrait trouver très intéressant ces différences qui sont scientifiquement plus enrichissantes.
    D'autant qu'on pourrait faire ce genre de raisonnement avec les animaux.

    Dans un article que j'ai lu récemment sur les théories de la pensée ils disent qu'il y a deux groupes de théories. Celles qui identifient le raisonnement/l'intelligence/la conscience à ses propriétés, règles de fonctionnement,... et celles qui l'identifient à la structure (notre encéphale). La premières s'étendent "sans difficulté" aux IA mais pas les deuxièmes (si on dit "l'intelligence c'est raisonner comme un humain", alors forcément ce qui n'est pas humain ne peut être intelligent dans ce sens restrictif !!!!). Tout n'est donc que question de définition. L'article mettait juste l'accent sur la difficulté qui fait qu'on ne peut pas faire appel aux techniques habituelles (IRMf, etc...) avec l'IA. Mais je trouve plus enrichissant de choisir une définition qui permet d'élargir le débat et l'analyse, même si cela complexifie fortement autant le débat que les approches expérimentales.

    Citation Envoyé par pm42 Voir le message
    D'autant que les ordinateurs ne calculent pas comme nous mais cela ne les empêchent pas d'être infiniment plus efficaces, ils ne gèrent pas des données comme nous non plus, etc.
    Et ils ont une prise, quand ils font ch... suffit de tirer dessus, ça marche pas avec mon voisin. Non je rigole là (il est clair que je suis d'accord avec ça)
    Dernière modification par Deedee81 ; 11/05/2021 à 08h06.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  23. #53
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Deedee81 Voir le message
    quand ils font ch... suffit de tirer dessus
    Les humains, c'est pareil : il suffit de tirer dessus mais il faut vivre aux USA pour que ce soit autorisé

  24. #54
    Deedee81
    Modérateur

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par pm42 Voir le message
    Les humains, c'est pareil : il suffit de tirer dessus mais il faut vivre aux USA pour que ce soit autorisé

    Celle-là je note.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  25. #55
    Amanuensis

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Deedee81 Voir le message

    Citation Envoyé par aygline Voir le message
    Les IA sont des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela.
    C'est vrai et faux (pas assez précis).
    Pour moi, c'est vrai (= factuel), et c'est suffisamment précis.

    Le terme "IA" est strictement équivalent à "algorithme", et l'emploi d'un autre terme correspond à un biais d'interprétation, pas à un quelconque fait. Et ce biais affecte toute discussion sur le sujet, forçant une interprétation qui dénote rien de plus qu'une opinion.

    C'était vrai pour les anciens systèmes d'IA basés sur, par exemple, les systèmes experts. Des spécialistes (informaticiens, techniciens, cogniticiens...) devaient formaliser l'ensemble des règles de raisonnement. Et L'IA ne faisait plus que les exécuter.
    Mais c'est toujours comme ça !

    Mais avec les réseaux de neurones formels ce n'est plus les cas.
    C'est toujours le cas. La seule différence est que dans le premier cas l'intégralité des "paramètres" de l'algorithme est présent dès le début, et (souvent mais pas nécessairement) sous total contrôle du concepteur humain. Pour les algorithmes plus sophistiqués certains paramètres sont entrés par la suite, automatiquement, suivant des instructions précises indiquant où et comment récupérer des informations qui vont permettre de fixer ces paramètres.

    On va appeler cela "apprentissage" par extension de ce mot, originellement appliqués aux humains et d'autres êtres vivants. Sauf que pour l'apprentissage au sens humain, l'enseignant (quand il y en a un) n'indique pas, ne restreint pas, ne guide pas dans les moindres détails comment procéder à "l'apprentissage".

    Autrement dit l'apprentissage lui-même reste dans le "premier cas". Et dans la phase d'application de l'algorithme (une fois l'apprentissage fait, c'est à dire après la fixation des paramètres) on est aussi dans le "premier cas". Une différence est que le programmeur n'ayant pas suivi en détail le processus d'apprentissage n'a pas d'idée précise sur ces paramètres.

    Au final, on a toujours et encore "des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela."


    Ce que fait le spécialiste est juste dire "je vais faire une IA pour la reconnaissance d'images" ou "pour jouer aux échecs"....
    Ben non. La programmation par les buts n'est pas (encore) dans les faits.

    C'est l'aspect important de l'affirmation d'Aygline : le "but", la "volonté", est toujours dans la tête des analystes-programmeurs. On a pas "passé" à l'algorithme une sémantique, une signification en termes de but. Il n'y a nulle part dans l'algorithme de portion qui scannerait la phrase "pour la reconnaissance d'images" pour en tirer un sens qui dicterait un but, un choix d'action.

    Mais il ne dit plus comment il faut analyser l'image ou le jeu pour arriver au bon résultat.
    Ben si. Le coeur de l'algorithme est là, conçu pour arriver à cela. Il manque des paramètres, qu'une autre partie de l'algorithme va remplir. L'analyste a bien "dit" comment analyser l'image. Et il pourrait le faire lui-même, en suivant mécaniquement la recette qu'est le coeur de l'algorithme, une fois qu'il (l'analyste) a accès aux paramètres remplis par apprentissage. Et il aurait pu aussi remplir ces paramètres lui-même en suivant mécaniquement la recette programmée.

    Le fait que l'analyste ne va pas prendre le temps (si tant est qu'il vive assez longtemps) de le faire est non seulement peu pertinent, mais c'est exactement l'intérêt de fabriquer ce genre de machine : de ne pas perdre son temps à une tâche mécanique qu'une machine peut faire plus vite et plus "consciencieusement" (= avec moins d'erreurs causées par des tas d'influx parasites) qu'un humain.

    ----

    Le point de fond est que ce qu'on constate actuellement est un progrès technique. Et certains extrapolent ce progrès jusqu'à un futur imaginaire, et chargent une expression ("intelligence artificielle") avec cet imaginaire, et ainsi manipulent, dans les discussions sur le sujet, la manière d'en discuter.

    Le factuel est que le progrès actuel se limite à quelques marches sur un escalier dont on a aucune idée du nombre de marches. Et la dernière marche ne constitue pas, qu'on le proclame ou pas, une étape conceptuellement significative : c'est toujours des recettes suivies mécaniquement, le but est toujours seulement dans la tête des analystes-programmeurs. Le reste est de l'extrapolation, du fictif. Et on peut se demander ce que teinter le factuel par du fictif apporte précisément.
    Dernière modification par Amanuensis ; 11/05/2021 à 09h36.
    Pour toute question, il y a une réponse simple, évidente, et fausse.

  26. #56
    GBo

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Bonjour Ama, content de te lire avec la finisse habituelle de ton esprit de contradiction.
    Sauf qu'en tant qu'ex-softeux ayant usé mes fonds de culotte en compilant le C (pas de contrepèteries SVP ), quand je vois une architecture de Machine Learning (ou de Deep Learning, encore plus), cela me fait penser à une architecture d'électronique (amplis OP ?) et non à un algorithme. En outre un apprentissage de ML ou DL ne ressemble en rien à une programmation au sens où tout le monde l'entend quand on parle d'analyste-programmeur (sic).
    Donc le message d'aygline n'est pas assez précis pour lever l'ambiguïté, même s'il reste dans le vrai vu d'avion, faute de sa part, c'est en tout cas l'impression que ça donne, d'avoir fait l'effort de regarder le fameux diable qui se cache dans "les détails" du ML/DL, forme d'IA dont on est sûrement en train de parler, sans le dire.
    Dernière modification par GBo ; 11/05/2021 à 10h01.

  27. #57
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par Amanuensis Voir le message
    Pour moi
    Tout est dit : "pour moi".

    Citation Envoyé par Amanuensis Voir le message
    Le terme "IA" est strictement équivalent à "algorithme", et l'emploi d'un autre terme correspond à un biais d'interprétation, pas à un quelconque fait. Et ce biais affecte toute discussion sur le sujet, forçant une interprétation qui dénote rien de plus qu'une opinion.
    Bien sur, ton opinion "pour toi" est la vérité et les autres ont forcément tord.



    Citation Envoyé par Amanuensis Voir le message
    La seule différence est que dans le premier cas l'intégralité des "paramètres" de l'algorithme est présent dès le début, et (souvent mais pas nécessairement) sous total contrôle du concepteur humain. Pour les algorithmes plus sophistiqués certains paramètres sont entrés par la suite, automatiquement, suivant des instructions précises indiquant où et comment récupérer des informations qui vont permettre de fixer ces paramètres.
    Cela revient à confondre l'écriture d'un programme, son exécution initiale et dans le cas de l'IA l'exécution du modèle résultant.

    Citation Envoyé par Amanuensis Voir le message
    l'enseignant (quand il y en a un) n'indique pas, ne restreint pas, ne guide pas dans les moindres détails comment procéder à "l'apprentissage".
    Cela tombe bien, dans les IA non plus et c'est pour cela qu'on a eu des problèmes bien connus (dérive des chatbot, reconnaissance des canards que par leur bec, etc).

    Citation Envoyé par Amanuensis Voir le message
    Au final, on a toujours et encore "des mécaniques, des automatismes pensés et fabriqués par des analystes-programmeurs et par des techniciens en vue de, faire ceci cela."
    A part que plus personne ne parle d'analyse-programmeur et qu'en IA, ce n'est vraiment pas le sujet.
    Au passage, on en fait même sans une seule ligne de code.



    Citation Envoyé par Amanuensis Voir le message
    C'est l'aspect important de l'affirmation d'Aygline : le "but", la "volonté", est toujours dans la tête des analystes-programmeurs. On a pas "passé" à l'algorithme une sémantique, une signification en termes de but. Il n'y a nulle part dans l'algorithme de portion qui scannerait la phrase "pour la reconnaissance d'images" pour en tirer un sens qui dicterait un but, un choix d'action.
    C'est l'argument ressassé "puisqu'on ne fait pas de l'IA forte, ce qu'on fait n'est pas vraiment de l'IA". Cela revient à choisir une définition très limitante et intrinsèquement fausse de ce qu'est l'IA pour montrert



    Citation Envoyé par Amanuensis Voir le message
    L'analyste a bien "dit" comment analyser l'image. Et il pourrait le faire lui-même, en suivant mécaniquement la recette qu'est le coeur de l'algorithme, une fois qu'il (l'analyste) a accès aux paramètres remplis par apprentissage. Et il aurait pu aussi remplir ces paramètres lui-même en suivant mécaniquement la recette programmée.
    Comme déjà dit plus haut, je me demande comment on peut ignorer à ce point le fonctionnement des IAs modernes et faire ce genre d'affirmation.


    Citation Envoyé par Amanuensis Voir le message
    Et certains extrapolent ce progrès jusqu'à un futur imaginaire, et chargent une expression ("intelligence artificielle") avec cet imaginaire, et ainsi manipulent, dans les discussions sur le sujet, la manière d'en discuter.
    C'est une variante des phrases du début qui se résument à "moi savoir, moi avoir point de vue pertinent et les autres ne sont pas à la hauteur".

  28. #58
    pm42

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par GBo Voir le message
    Sauf qu'en tant qu'ex-softeux ayant usé mes fonds de culotte en compilant le C (pas de contrepèteries SVP ), quand je vois une architecture de Machine Learning (ou de Deep Learning, encore plus), cela me fait penser à une architecture d'amplis OP et non à un algorithme. En outre un apprentissage de ML ou DL ne ressemble en rien à une programmation au sens où tout le monde l'entend quand on parle d'analyste-prgrammeur (sic).
    Tout à fait. Le problème, c'est que plein de gens n'ayant jamais essayé d'en faire concrètement mais ayant lu 2 ou 3 articles de vulgarisation se croient capables de dire ce qu'est l'IA et ce qu'elle n'est pas et souvent sans même avoir une expertise en informatique classique.

    Par exemple, quand je lis "analyste-programmeur", je me dis que la personne en question n'a pas vu un projet info depuis les années 80 en gros.

  29. #59
    Amanuensis

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    Citation Envoyé par GBo Voir le message
    cela me fait penser à une architecture d'amplis OP et non à un algorithme.
    Je comprends. Mais maintenant le traitement du signal ne se fait plus avec des amplis OP, mais avec des algorithmes numériques. Ce que "ce à quoi fait penser" n'est qu'une analogie (avec jeu de mots).

    Et l'analogie est applicable peut-être pour les "réseaux de neurones", mais pas pour tous les algorithmes d'apprentissage qu'on développe actuellement.

    En outre un apprentissage de ML ou DL ne ressemble en rien à une programmation au sens ou tout le monde l'entend quand on parle d'analyste-prgrammeur.
    Ah bon ?? C'est très poussé comme affirmation un "en rien", surtout associé à un verbe ("ressembler") dont la sémantique inclut fortement l'idée de subjectivité ! Bref, au-delà d'une affirmation assenée gratuitement, par rhétorique, il serait intéressant de développer, c'est à dire de prendre toutes les "ressemblances" affirmées par d'autres et de réfuter leur "droit", en tant que personne subjective, d'y voir une ressemblance. Cela risque d'être difficile...

    Précisément, je ne vois pas en quoi il serait faut de dire que les "analystes-programmeurs" programment (automatisent) un processus d'apprentissage au même sens qu'on programme (automatise) une action "plus directe".

    Donc le message d'aygline n'est pas assez précis pour lever l'ambiguïté, même s'il reste dans le vrai vu d'avion, faute d'avoir fait l'effort de regarder le fameux diable qui se cache dans "les détails".
    Je ne suis pas convaincu, et pense plutôt que c'est dans l'autre sens. Ce dont je parle est bien de l'ordre des "détails" qu'on ne fait pas l'effort de regarder.

    ---

    Le fond de la question est la notion "d'apprentissage". Qu'est-ce que c'est en terme de "tâche", de suite d'action ? Et est-ce que cela entre dans la catégorie des tâches automatisables, c'est à dire décomposables (réductionnisme) à une suite d'actions élémentaires que l'on sait déjà être automatisables.

    Mon opinion est que l'examen du vivant (domaine où l'idée générale d'apprentissage est essentielle) montre qu'il y a des tas de méthodes d'apprentissage, et que pour le moment seules certaines sont automatisables, et certaines d'entre elles sont effectivement automatisée (ce qu'on va "étiqueter", sans détail et de manière très pompeuses, "Machine Learning" ou "Deep Learning").

    Le "détail" important est que c'est extrêmement restreint par rapport à la notion générale d'apprentissage, et qu'il serait utile de ne pas tout amalgamer.

    ---

    D'un autre côté, des réflexions sur l'idée d'apprentissage éclairent un point fort important : la simplicité d'une méthode d'apprentissage et ce qu'elle permet d'apprendre ne sont pas directement corrélées. La dimension manquante, et peut-être la plus importante est le temps et ce qu'on pourrait appeler (en généralisant) le "nombre de calcul".

    Car le principal algorithme d'apprentissage du vivant (appliqué par l'ensemble du vivant) est "essais et erreurs", on essaye n'importe quoi et on garde seulement "ce qui marche". C'est très brutal, cela entraîne une perte colossale, mais répétée un nombre astronomique de fois ("nombre de calculs") et pendant très longtemps, les résultats sont extraordinaires.

    En conséquence, il ne faut pas se laisser impressionner par les résultats des apprentissages automatisés, et y voir quelque chose de conceptuellement différent de l'automatisation d'autres tâches.

    Et ne pas non plus sauter (par rhétorique) à des comparaisons avec des processus d'apprentissage bien plus sophistiqués (chez les animaux, chez les vertébrés, chez les tétrapodes, et les humains en particulier) qui ne sont PAS automatisables pour le moment.

    Dans cette histoire le diable est dans les détails du processus d'apprentissage et la comparaison avec ceux (multiples) que le cerveau humain met en oeuvre. Et pour l'IA le fait fondamental est que l'apprentissage est automatisé, comme toute autre tâche l'est par l'usage d'un calculateur automatique puissant (= très grand nombre de calculs élémentaires par unité de temps) et (car là est le progrès) connecté à une quantité énorme d'information sous forme numérique.

    Donc le message d'aygline [...] même s'il reste dans le vrai vu d'avion, faute d'avoir fait l'effort de regarder le fameux diable qui se cache dans "les détails".
    Bref, pour moi il s'applique même vu à la loupe, car l'effort proposé n'y verra que des tâches automatisées, qu'on peut réduire à des actions élémentaires extrêmement simples, triviales à comprendre, s'enchaînant de manière automatique, répétitives et imitables. Soit rien de plus ce que le message d'aygline invoque.
    Dernière modification par Amanuensis ; 11/05/2021 à 10h36.
    Pour toute question, il y a une réponse simple, évidente, et fausse.

  30. #60
    mh34
    Responsable des forums

    Re : intelligence artificielle (présentation par l' epita...) aller + loin?

    A toutes fins utiles ; j'ai fait du nettoyage.
    Je ne veux pas avoir à recommencer.
    C'est bien clair?

Page 2 sur 12 PremièrePremière 2 DernièreDernière

Discussions similaires

  1. Aller plus loin en math?
    Par Theblackrideur dans le forum Mathématiques du supérieur
    Réponses: 10
    Dernier message: 20/03/2017, 19h49
  2. Aller plus loin que le penteract ?
    Par Kanshu dans le forum Mathématiques du collège et du lycée
    Réponses: 6
    Dernier message: 20/06/2015, 15h41
  3. Intelligence artificielle vs intelligence humaine
    Par invitea36fe8cf dans le forum TPE / TIPE et autres travaux
    Réponses: 0
    Dernier message: 25/11/2012, 11h36
  4. Intelligence humaine vs. intelligence artificielle
    Par Sans Nom dans le forum Discussions scientifiques
    Réponses: 449
    Dernier message: 10/04/2012, 15h33
  5. livre pour aller plus loin...
    Par invite6c146f6c dans le forum Mathématiques du collège et du lycée
    Réponses: 11
    Dernier message: 16/04/2010, 14h35