En quoi cela n' est il pas satisfaisant ?Parce que la définition "l'intelligence est la capacité à résoudre des problèmes" n'est clairement pas satisfaisante. Si on utilise cette définition, alors quasiment tous les être vivants de cette planète sont intelligents, car, ils résolvent énormément de problèmes, à longueur de journée! (et 100 fois plus que le plus puissant des ordinateurs modernes)
Pourquoi une grenouille n' aurait pas d' intelligence ?
Salut,
Pour moi ce n'est pas insatisfaisant mais très insuffisant.
C'est vrai ? La vache, ils ont fait des progrès. A l'époque où je jouais au go contre une machine ils n'auraient même pas osé y rêver.
Pour info, le poker Texas Holden Sans Limite est aussi entièrement résolu. Une belle prouesse car l'intervention du hasard complique terriblement l'analyse.
A noter que le programme utilisant cette résolution ainsi qu'un calcul sans faille des probabilités est ..... un peu moins bon que les meilleurs programmes du marché (utilisant des heuristiques).
Comme quoi dans les jeux de hasard, rien n'est simple.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Pas satisfaisant, dans le cadre d'une discussion sur l'IA par exemple ahma.
Alors ça! Je suis le premier à défendre ce point de vue!
Mais disons qu'en général on considère l'intelligence comme l'attribut de l'Homme ... et on la recherche chez les autres animaux (ou les machines que l'on crée), et on se dit "ah mais en fait, seul l'Homme est intelligent!" ...
Il y a une interview de Laborit sur YouTube ou il dit à un moment "l'intelligence de ma cellule hépatique n'est pas la même que la mienne [...] et il faudrait que je sois très prétentieux pour penser que seul mon intelligence est la "meilleure" ou "la dernière"". Au début, cette phrase fait sourire, mais au final je trouve qu'elle s'intègre parfaitement dans un réflexion sur l'intelligence et sa définition.
Pour revenir sur la discussion, j'ai le sentiment qu'on a deux choix:
- 1) Soit on dit que l'intelligence est l'attribut de l'Homme. Alors dans ce cas, créer une machine intelligente revient à créer un Homme. (On ne s’embarrasse pas de la définition de l'intelligence)
- 2) Soit on essaye de définir l'intelligence. Et si on se base sur "la capacité à résoudre des problèmes", alors bien des choses sont intelligentes parmi le monde vivant.
Reste peut être à définir l'intelligence autrement ... qui se lance?
Certes, mais en même temps ce n'est pas une position majoritaire chez ceux qui redoutent une singularité technologique. Les idées principales sont plutôt:
- l'accident bête. Robot rumba veut enlever la poussière. On lui donne accès aux moyens de se modifier lui-même. Il progresse assez contourner les meubles. C'est bien, mais ce n'est pas assez. Alors il se modifie pour atteindre les coins. C'est bien, mais ce n'est pas assez. Un jour, il découvre qu'il découvre qu'il suffit de chasser les chiens pour ne pas avoir de trace de chien à nettoyer. C'est bien, mais ce n'est pas assez. La source majoritaire de la poussière est trouvée, et éliminée proprement. C'était nous.
-variante auto-réplicatrice: une machine industrielle est programmée pour produire le plus de trombones possibles. Elle réussit très bien, mais elle n'est pas programmée pour comprendre que c'est suffisant pour le propriétaire de l'usine. Alors elle ouvre une mine de fer pour augmenter sa production. Bien sur il y a des problèmes à surmonter, tremblement de terre, inondation de mines, etc.. mais elle progresse assez pour circonvenir ces problèmes. Elle découvre d'ailleurs que des trombones, ça peut être fait en plastique et le bois c'est une source possible de plastique. Alors elle se met à cultiver des forêts. Bien sur, il y a des problèmes à surmonter, termites, herbivores, écosystème, etc. mais elle progresse assez pour circonvenir ces problèmes. Elle découvre d'ailleurs que les voitures, c'est une source de fer, le blé, une source d'amidon, le soleil, une source d'énergie. Bien sur, il y a des problèmes à surmonter, propriétaires de voitures, agriculteurs, assauts militaires, etc. mais elle progresse assez pour circonvenir ces problèmes. An 3000, la totalité du matériel accessible sur Terre est sous forme de trombone, et la machine tourne ces yeux vers les étoiles...
Sûr de ça ? Il me semblait que seul limit hold'hem l'était.
Pour info, le poker Texas Holden Sans Limite est aussi entièrement résolu. Une belle prouesse car l'intervention du hasard complique terriblement l'analyse.
A noter que le programme utilisant cette résolution ainsi qu'un calcul sans faille des probabilités est ..... un peu moins bon que les meilleurs programmes du marché (utilisant des heuristiques).
Comme quoi dans les jeux de hasard, rien n'est simple.
Tu as raison que Deedee parle probablement de la version Heads-up limit hold’em poker, mais en fait c'est techniquement faux dans les deux cas (hint: solved dans le titre, essentially weakly solved dans l'abstract, il faut comprendre essentially pas solved pantoute ).
Salut,
D'accord, merci de ces précisionsTu as raison que Deedee parle probablement de la version Heads-up limit hold’em poker, mais en fait c'est techniquement faux dans les deux cas (hint: solved dans le titre, essentially weakly solved dans l'abstract, il faut comprendre essentially pas solved pantoute ).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Idées et scénarios dont la SF est très friande, au passage...en fait je soupçonne carrément les auteurs de SF d'être les principaux responsables des peurs et des fantasmes au sujet de l'IA. ( au passage, j'ai bien aimé ton histoire de trombone! bravo l'artiste! )
Maintenant si quelqu'un peut démonter ces scénarios proprement en expliquant pourquoi c'est impossible qu'une telle évolution puisse se produire? ( je ne parle pas des cas précis inventés par Jiav, hein...)
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Par rapport à la dernière question de mh34, il me semble que la réponse devrait se trouver dans des hypothétiques "règles" qui seraient implantées dans les algorithmes pour limiter la chose.
Ça me fait penser aux fameuses trois lois de la robotiques d'Asimov, non?
Grosse erreurs de programmation
Les lois d' Asimov (améliorées vu qu' elles datent un peu) restent incontournables .
Comme quoi la SF n' a pas que des effets néfastes .
Les lois d'Assimov sont nées dépassées...
Depuis de nombreuses années avant l'évocation de ces lois, les mines et autres pièges automatiques déjà, fonctionnaient laissant la vie des humains à la merci de quelques mécanismes tels que les portes Nor ou Nand...
L' intelligence des mines , c' est très limité
Sauf pour les ingénieurs qui en sortent .
Ce qui ne répond pas à la question de la valeur dans le monde réel des dites lois d'Asimov... La moquerie est facile mais l'argument de Mct92mct est pertinent : dès lors qu'il y a une nouvelle technologie et qu'elle a des usages militaires ou "totalitaires", personne ne s'en prive.
Pourquoi serait ce différent pour l'IA ? Parce qu'un auteur de SF a écrit que cela devrait être différent ?
Il y a clairement eu une "fertilisation croisée" à partir des années 80-90 (Gérard Klein la raconte très bien dans sa préface à l'édition française de Le problème de Turing, par Harrison et Minsky), mais l'influence initiale est en fait dans l'autre sens. Mon histoire du trombone est un pastiche de l'histoire du paperclip, due à Bostrom, mais en réalité son histoire est elle-même une simple variante de la gelée grise, dont le concept est popularisée par Drexler dans les années 80. Mais les concepts de singularité et de machines auto-réplicatrices remontent au minimum à Von Neumann (le père de l'architecture Von Neumann). A cette époque, la science-fiction est un phénomène encore très confidentiel, et il y faudra presque quarante ans avant que ces idées ne soient reprises dans un best-seller (on trouve des nouvelles entre les deux, mais à la diffusion plus restreinte).
Je ne pense pas qu'il y a qui que ce soit qui défende que ces scénarios sont littéralement impossibles, de même qu'il n'est pas littéralement impossible que des fourmis mutantes deviennent l'espèce la plus intelligente sur Terre d'ici 20-50 ans. Amha, ceux qui craignent cette perspective ne se rendent à quel point les humains, malgré tout leurs défauts, représentent une bande de teigneux beaucoup plus difficile à tuer qu'ils n'en n'ont l'air.
Yep, mais comme c'est un langage naturel il y a des tas de trous permettant de les mettre en défauts en pratique. En fait, pas mal toutes les failles possibles ont été exploité/exploré pour une nouvelle ou un roman d'Asimov.
Ma compréhension est que c'était une simple blague sur l'école des mines.
Nous avons bien compris la moquerie. Mais plus haut, vous avez dit :
J'ai du mal à comprendre comment un esprit aussi affuté et plein d'humour n'arrive pas à nous expliquer pourquoi.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Par "langage naturel", tu sous-entends "non-informatique" je suppose?
Cela me fait penser aux drones et autres armes semi-automatiques utilisées aujourd'hui. J'avais vu une conférence très intéressante donnée par un philosophe spécialiste de ces armes, et ils appuyait pas mal sur le fait que "le droit de la guerre n'est pas implémentable". En clair, des règles morales ne peuvent pas être codées dans un algorithme.
Un exemple: le droit de la guerre dit qu'on a pas le droit de tuer une personne non impliquée dans le conflit. Le conférencier disait qu'il serait très compliqué d'implémenter cette règle en langage informatique. Certes, on peut spécifier des règles simples type "l'individu porte-il une arme ou pas"? Mais quid d'un enfant qui porte une arme en plastique? Quid de l'individu qui ne porte pas d'arme, mais qui conduit un camion chargée de nourriture pour ravitailler le camp adverse? etc ...
Dans ce cas, tu n'étais pas très clair en les décrivant comme "incontournables" puisqu'il est clair qu'elles vont être massivement ignorées.
Mais si tu as des arguments contraires, je suis curieux de les connaitre et notamment de savoir pourquoi les IA ne seraient pas utilisées par les militaires compte tenu du travail qu'ils font dans ce sens.
Je ne vois pas sur quoi tu te base pour dire "il est clair que" .
Aucune raison à cela .
C' est les premiers à s' y intéresser .
Salut,
Mon avis est qu'on n'implémente pas vraiment les lois d'Assimov actuellement, pour deux raisons :
- D'une part, on conçoit les robots pour des tâches précises, qui peuvent être plus ou moins complexes (et même impliquer des mécanismes d'apprentissages). Les concepteurs (scientifiques, ingénieurs, techniciens mais aussi les clients) détestent ce qu'ils ne contrôlent pas. Ils ne fabriquent pas une machine en disant "bon, on la fait et puis on verra bien à quoi elle sert" Par conséquent, d'éventuelles lois devraient être discutées au niveau des tâches et non dans leur implémentation. Si on conçoit une machine pour sauver des vies et si la machine est "bien conçue" (un grand SI, c'est toujours avec les dysfonctionnements et les bugs qu'on a des emm....) alors la question des lois ne se pose pas. De même, si on conçoit une machine pour tirer sur tout ce qui bouge la question des lois ne se pose pas non plus !!!!!
- D'autre part, pour que les lois soient fonctionnelles dans la machine (dans son implémentation et non sa conception), la machine doit être vachement sophistiquée. Une machine pourrait couper un humain en deux et dire "il avait besoin d'aller en deux endroits et la première loi m'obligeait à l'aider". Le degré de sophistication pour être capable de vraiment appliquer les lois est vraiment élevé et je ne suis même pas sûr que des machines assez sophistiquées existent déjà. D'autant que ces lois ne doivent pas s'altérer, se modifier, voir leur interprétation "mal" évoluer ("Non, non, je respecte les trois lois, tout ce sang vient des robots de chairs que j'ai tué et j'ai protégé les humains métalliques" ). Ca doit être du hardware inamovible et passant au-dessus de la partie proprement informatique.
Franchement, plutôt que d'implémenter les trois lois, il vaut beaucoup mieux :
- discuter des règles éthiques dans la conception et l'usage des machines (ce que je disais plus haut concernant les tâches assignées à une machine)
- prévoir un bon gros bouton stop, bien visible et facile à utiliser
Dernière modification par Deedee81 ; 25/09/2015 à 08h14.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
J'arrive un peu tard et j'en rajoute une couche...
On ne programme/implémente que des algorithmes. Un algorithme est la formalisation d'un traitement de données. On peut par exemple implémenter un arbre décisionnel (algorithme discriminant) de diagnostique médical. Par contre on ne découpe pas en algorithme le traitement éthique des sentiments (comme la gestion d'un décès de patient et côté médecins et côté proches du patient décédé) parce que ça fait partie des aspects subjectifs difficilement formalisables.
Alors est-ce qu'on "risque" un genre d'apocalypse à la Matrix ou à la Terminator ? Pas pire que voir une espèce animale mutante nous reléguer au rang de bestiaux de compagnie ou d'élevage alimentaire.
et les couches de réseaux de neurones qui servent à l'apprentissage automatique, ce sont des algorithmes ?On ne programme/implémente que des algorithmes.
Des chercheurs américains ont réussi à faire apprendre un geste à un robot en le laissant visualiser une série de 12 vidéos sur ce geste.
...
Le secret de cet apprentissage se situe bien sûr dans l’ordinateur de bord de ce robot. Il comprend deux modules d’apprentissage, appelés "convolutional neural network" réseau de neurones "convolutionnel". Définition : le réseau de neurones convolutionnel est un arrangement de neurones artificiels qui cherche à imiter une fonction cérébrale.
http://www.sciencesetavenir.fr/high-...r-youtube.html
Sur quoi se base cette affirmation ? Connaissez vous les robots qui justement détectent les émotions humaines ? Le cas déjà cité des 1ers passages du test du Turing ?
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)