...émerge naturellement.
...soit crée par l'homme.
...soit impossible.
Je n'en sais rien.
Le 1er lien donné par noir_ecaille pose à nouveau le problème de la définition de l’intelligence…Qu’est-ce l’intelligence ? Evoquée aussi par Jean-GUERIN en page 2 de ce fil.
Pourra t-il y avoir un jour un programme égalant TOUTES les composantes de l’intelligence humaine ? (créativité par exemple, évoquée dans le test Lovelace 2.0).
Cdt.
Trouver Pourquoi et Comment l'Univers, après ça une petite sieste.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
mode humour obligatoire :
j'essaye d'imaginer un scenario ou tous les métiers à fort stress ( relationnel ) serait remplacés par des IA.
vous pouvez les lister avec moi.......
dans un premier temps, on aurait donc en face de soi une entité impassible qui non seulement vous parle courtoisement, vous écoute et ensuite vous balance son discours programmé ( même s'il est fin ).
je me demande si au bout de 3 RV, ce n'est pas le client qui le fracasse avec le marteau de Thor.
J’ai eu recours à l’assistance en ligne de free il y a quelques années suite à un problème de freebox. Je pense que ça aurait été la même chose que d’avoir affaire à un bot. Au fur et à mesure de mes échanges avec différents interlocuteurs, où je leur décrivais mes problèmes, ils me sortaient des réponses toutes faites en me demandant d’effectuer différents tests. Je les ai envoyé « promener » quand ils m’ont fait une « erreur de redondance cyclique » au bout de plusieurs semaines en me redemandant des choses déjà demandées au par avant !!! J’en garde un très mauvais souvenir…
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
Avec le chatbot doppé au deep learning de google il n'y a pas de programmation
Il apprend tout seul puis s'améliore en dialoguant avec des humains
Par exemple pour une assistance en ligne, il peut apprendre seul avec les enregistrements des assistances qui ont déjà eu lieu avec des humains compétant.
Salut,
Les dernières explications me rappellent "la chambre chinoise". Une expérience de pensée assez intéressante. Si vous ne connaissez pas :
https://fr.wikipedia.org/wiki/Chambre_chinoise
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Je ne suis pas spécialement convaincu. Pour passer un test de Turing, il faut faire preuve de beaucoup plus de choses que de simuler une conversation pendant quelques minutes et un grand nombre des objections que j'ai lu ici semblent vouloir ignorer ce fait.Les dernières explications me rappellent "la chambre chinoise". Une expérience de pensée assez intéressante. Si vous ne connaissez pas :
https://fr.wikipedia.org/wiki/Chambre_chinoise
Notamment, si mon interlocuteur n'est pas capable d'apprendre, de gérer l'ambiguité, de poser des questions pertinentes pour mieux comprendre, de maitriser des raisonnements symboliques, etc, alors il va échouer. On pourrait arguer que certains humains ont du mal mais justement, on parle d'intelligence artificielle, pas de "bétise".
Dans la chambre chinoise, on suppose déjà qu'il existe un jeu de règles permettant la transformation sur une base syntaxique qui suffise à tromper un humain. C'est assez contradictoire avec ce qu'on sait et notamment sur le fait qu'au contraire, nous décodons les phrases à partir du contexte, de la sémantique attendue...
Ensuite, la chambre chinoise n'a justement aucune capacité d'apprentissage, ne peut pas poser des questions par elle même, apprendre une autre langue...
Si je commence à apprendre le français à un chinois, il finit par répondre en français et même à savoir traduire tout en m'expliquant ce qu'il ne sait pas traduire et pourquoi. Une machine passant le test de Turing devrait savoir faire cela. La chambre chinoise va avoir du mal.
Merci pour ce lien Deedee81
Peut on considérer le deep learning comme générateur d'un catalogue de règles ?Dans cette expérience de pensée, Searle imagine une personne qui n’a aucune connaissance du chinois (en l’occurrence, lui-même) enfermée dans une chambre. On met à disposition de cette personne un catalogue de règles
Pour que le chatbot apprenne une langue, il doit lire beaucoup de texte chinois et leur traduction dans une autre langue pour obtenir les "poids" de ses réseaux de neurones mais ça ne ressemble pas à des règles.
Quand il a fait cette expérience de pensée en 1971 les réseaux de neurones ne semblaient plus une issus possible à l'IA forte
En 1969, un coup grave fut porté à la communauté scientifique gravitant autour des réseaux de neurones : Marvin Lee Minsky et Seymour Papert publièrent un ouvrage mettant en exergue quelques limitations théoriques du Perceptron, et plus généralement des classifieurs linéaires, notamment l’impossibilité de traiter des problèmes non linéaires ou de connexité. Ils étendirent implicitement ces limitations à tous modèles de réseaux de neurones artificiels. Paraissant alors dans une impasse,, la recherche sur les réseaux de neurones perdit une grande partie de ses financements publics, et le secteur industriel s’en détourna aussi. Les fonds destinés à l’intelligence artificielle furent redirigés plutôt vers la logique formelle et la recherche piétina pendant dix ans.
https://fr.wikipedia.org/wiki/R%C3%A...els#Historique
C’est justement un point qui me semble important : le fait que l’IA doive être mise en situation pour s’améliorer. J’ai lu qu’il y avait des théories disant que l’IA forte ne pourrait survenir que par l’apprentissage d’un « robot » mis dans différents environnements pour apprendre et avec le bon logiciel (un peu comme dans le film Chappie) et que ce serait impossible en se contentant de piocher dans des bases de données (aussi complètes soient elles).Avec le chatbot doppé au deep learning de google il n'y a pas de programmation
Il apprend tout seul puis s'améliore en dialoguant avec des humains
Par exemple pour une assistance en ligne, il peut apprendre seul avec les enregistrements des assistances qui ont déjà eu lieu avec des humains compétant.
Je pense qu’il y a un fantasme d’une IA forte qui dépasserait celle de l’homme pour lui donner des réponses qu’il n’arrive pas à trouver par lui même (genre une IA qui sort une théorie d’unification des forces fondamentales…). J’y vois plein de limitations, ne serait-ce que pour égaler l’intelligence humaine.
Même dans un environnement, le robot n’aura pas les capteurs nécessaires que l’homme possède et qui influencent sur son apprentissage et donc sur son intelligence. Par exemple, comment faire un capteur de douleur sur une machine, modéliser l’attachement, la tristesse, la joie, … ?
J’imagine que la seule IA forte qui puisse voir le jour serait plus une encyclopédie des savoirs humains pouvant donner les réponses déjà connues mais en un temps record et pas trouver de réponses à des questions encore en suspend ni avoir de sentiments (un jarvis dans iron man).
Dernière modification par vinssss ; 20/11/2015 à 08h51.
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
Ce n'est qu'une expérience de pensée, donc pas nécessairement réaliste. On peut toujours perfectionner :
La chambre contient les réponses à donner à toute suite de questions possibles (une TRES grande chambre ). Elle contient donc ainsi implicitement le résultat de tout apprentissage ou mémoire. Dans ce cas, on discute avec une chambre alors qu'on a l'impression de discuter avec quelqu'un d'intelligent. Sans pouvoir trancher.
Note que j'ai aussi une objection : dans cette formulation on ne précise pas volontairement comment on a remplit la liste des réponses. La chambre chinoise et le dialogue avec celle-ci ne fait donc que refléter l'intelligence de celui qui a remplit cette liste (humain, machine, jeux de règles, peu importe ce qu'on imagine).
La chambre chinoise ne devient donc qu'une interface particulièrement élaborée entre un "système intelligent" (un chinois qui avait beaucoup de temps devant lui ) et un autre interlocuteur.
Je trouve tout de même que cette expérience de pensée est fort enrichissante et un bon outil de réflexion. En particulier, si on a affaire à une "machine intelligente" la question se pose : n'a-t-on juste affaire qu'à une machine reflétant l'intelligence de son concepteur ou la machine contient-elle réellement les mécanismes nécessaires à tout système intelligent ? (reste à définir "mécanismes nécessaires" )
Des tests permettant de déterminer cela ne doivent pas être si évidents à imaginer.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
C'est une expérience de pensée qui nécessite plus que ce que contient l'Univers sans doute. Par exemple, tu veux lui apprendre à jouer aux échecs et elle devrait connaitre toutes les réponses possibles quand ensuite tu joue avec elle ?La chambre contient les réponses à donner à toute suite de questions possibles (une TRES grande chambre ). Elle contient donc ainsi implicitement le résultat de tout apprentissage ou mémoire. Dans ce cas, on discute avec une chambre alors qu'on a l'impression de discuter avec quelqu'un d'intelligent. Sans pouvoir trancher.
Une TRES TRES gande chambre
Ca reste juste un exercice de pensée amusant (mais qui fait réfléchir. Non pas à sa faisabilité mais ses implications).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Certes. Personnellement, j'ai une préférence pour le test Lovelace parce qu'on peut plus difficilement programmer une "chambre chinoise" ou même "Googler" des données, pour peu que l'évaluateur soit en plus cultivé.
Le problème avec la chambre chinoise c'est que les règles qui permettent de construire une réponse à une phrase donnée n'existent pas. Et comme on peut former une infinité de phrases différentes, un simple catalogue de réponses ne peut pas tenir dans une chambre, aussi grande soit-elle.
Le principe (l'analogie?) de la chambre chinoise s'attache moins au "catalogue" de réponses possibles qu'au fait de ne pas comprendre ni les entrées, ni les sorties, tout en simulant un dialogue.
Mais si on n'a pas d'algorithme pour construire la réponse chinoise à une phrase chinoise, ça suppose qu'il y a une intelligence humaine qui fournit ces réponses à la demande. Et donc la personne qui se trouve dans la chambre ne joue qu'un rôle de scribe, ce qu'un ordinateur fait très bien. Bref, je ne vois pas ce que cette "expérience de pensée" démontre.
Traiter des entrées et sorties est ce que fait un algorithme. De fait c'est le principe d'une chambre chinoise. Dans le genre, y'a ça :
http://www.pipotron.free.fr/
http://www.indicateur.com/thematique...ge_naturel.asp
Sans oublier la possibilité de combiner des deux (+ quelques algorithmes d'apprentissage entraînés avec plusieurs pré-testeurs) pour pousser plus loin (= chatbots).
Sauf que supposer l'existence d'un algorithme sans savoir s'il est réalisable théoriquement ou techniquement est le problème ici.
L'expérience de pensée ne fonctionne que s'il existe un algorithme qui permet de générer les réponses à toutes les phrases uniquement en les analysant syntaxiquement.
Rien ne le prouve (cf. plus haut).
EDIT: message croisé avec MinusHabens.
Est-ce que vous pouvez m'expliquer ce que vous cherchez à démontrer avec cette chambre chinoise? Qu'un non-locuteur d'une langue qui dispose d'un nombre suffisamment grand de données "syntaxiques" peut faire croire à un locuteur de cette même langue, qu'il la comprend? Et ça prouverait quoi sur l'intelligence artificielle?
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Je suppose : qu'un chatbot n'est pas assimilable à une intelligence comparable à l'humain.
L'analyse des motifs syntaxiques me semble pourtant centrale dans les moteurs de recherches en langage naturel.Sauf que supposer l'existence d'un algorithme sans savoir s'il est réalisable théoriquement ou techniquement est le problème ici.
L'expérience de pensée ne fonctionne que s'il existe un algorithme qui permet de générer les réponses à toutes les phrases uniquement en les analysant syntaxiquement.
Rien ne le prouve (cf. plus haut).
bjr,Est-ce que vous pouvez m'expliquer ce que vous cherchez à démontrer avec cette chambre chinoise? Qu'un non-locuteur d'une langue qui dispose d'un nombre suffisamment grand de données "syntaxiques" peut faire croire à un locuteur de cette même langue, qu'il la comprend? Et ça prouverait quoi sur l'intelligence artificielle?
moi je le prend avec une certaine dérision.
a savoir qu'un algorithme peut faire semblant d'être intelligent sans ne rien y comprendre du tout.
c'est un peu ironique, mais montre aussi qu'une pseudo intelligence artificielle peut être totalement stupide.
Elle ne démontre rien amha. C'est juste un outil de réflexion que certains aiment bien utiliser. Moi-même je trouve l'expérience de pensée assez sympa, et c'est pour ça que je l'ai cité (plus ma petite analyse que j'ai donné après et qui va d'ailleurs dans le sens de ce que tu dis).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Oui mais c'est très différent de générer des réponses.L'analyse des motifs syntaxiques me semble pourtant centrale dans les moteurs de recherches en langage naturel.