Non c'est faux, exemple simple : un escargot ne pourra jamais tuer un homme !L'inverse est tout aussi vrai.
Il y a une juste mesure et la notion de dangerosité est un perpétuel déséquilibre où la notion de réciprocité n'a pas sa place sauf dans l'imaginaire et l'irrationnel !
Cordialement
Bonjour,
Comme promis voici un dernier volet qui traitera de la programmation multi-agents. Il s'agit d'une autre technique utilisée pour aborder un problème complexe. Imaginons un programme pouvant superviser la gestion complète d'une exploitation forestière. Il faudra tenir compte d'un nombre épouvantable de paramètres qui tous s'influencent les uns les autres. La solution peut consister en une approche multi-agents.
Un agent est un tout petit programme qui effectue un traitement simple. Il sait reconnaître les données qu'il doit traiter et sait à qui présenter les résultats de son travail. Ainsi dans notre exploitation forestière, on pourrait imaginer une série de petits programmes dont chacun traite d'un thème particulier.Ainsi le programme qui s'occupe de la gestion de scierie va chercher certaines informations auprès de l'agent de gestion de la capacité de coupe. Il traite ses dernières selon ses propres paramètres (vitesse d'opération, nombre de préposés disponibles, état de la machinerie) et fournit ses résultats à l'agent des ventes et à celui de l'inventaire.
- L'agent de l'état des camions de transport
- L'agent en charge du nombre et du coût des bûcherons
- L'agent chagé d'évaluer la capacité de coupe
- L'agent de la gestion de la capacité de transformation (scierie)
- L'agent de la gestion de l'inventaire (entreposage)
- L'agent des ventes
- Etc.
Chaque agent procède de la même façon. De son côté, l'agent de la gestion de la coupe du bois va chercher des informations auprès de l'agent des bûcherons et celui de l'état des camions avant de répondre à la requête de l'agent de la scierie.
- Il n'y donc pas vraiment moyen de prédire le résultat final de l'association de tous ces agents.
- Par contre, il est très facile de lancer des simulations du genre "que se passerait-il si j'achetais un camion de plus?" Il n'y a qu'à paramétrer l'agent en charge de l'état des camions de transport et attendre le résultat.
- De plus un tel type de programmation est extrêmement souple, il est très facile d'améliorer le logiciel par l'ajout d'un nouvel agent. Par exemple si on désire ajouter un agent qui contrôle l'état du marché pour épauler celui des ventes, une fois l'agent du marché au point il ne reste qu'à indiquer à l'agent des ventes comment traiter cette nouvelle information.
Voilà. Il ne faut pas perdre de vue qu'il s'agit là de processus d'apprentissage. Parler d'intelligence est une tout autre paire de manches. À commencer par la définition de cette dernière...
André
Sans la liberté de blâmer, il n'est point d'éloge flatteur. (Beaumarchais)
Bonjour,
[mode avocat du diable ON]
Sauf si l'affreux et pernicieux escargot maudit, porteur de virus mortels pour l'homme (mais inoffensifs pour lui), réussit à se coller à sa victime humaine et à lui injecter le fatal poison via la membrane épidermique de son innocente cible si vulnérable (la peau du mec quoi).
[mode avocat du diable OFF]
[mode question existentielle ON]
Il parait que poser la question, c'est y répondre. Comment appréhender la réponse si la question est incompréhensible ?
[mode question existentielle OFF]
Votre bien mélangé (et fortement ironique)
André
Sans la liberté de blâmer, il n'est point d'éloge flatteur. (Beaumarchais)
Je ne parlais pas de l'escargot mais de tous les animaux (sauf l'homme). Pour reprendre ta logique : un enfant de 5 ans ne pourra jamais tuer un chien ! Sache que ce qui est petit n'est pas forcémment inoffensif (c'est même rarement le cas..).
Cela semble se rapprocher de la théorie du flou, une facette de l'intelligence artificielle. Zadeh avait posé la première pièce de l'édifice en 1965 par la théorie mathématiques des sous-ensembles flous.
Une application courante d'une programmation basée sur un apprentissage par des réseaux neuronaux se retrouve dans les logiciels de reconnaissance de caractères. Si vous scannez un texte, le programme reconnait l'image d'un caractère et la convertit en un caractère d'ordinateur. Lorsqu'il n'arrive pas à bien traduire un caractère il demande conseil à un humain et apprend ainsi une nouvelle conversion. Si vous l'induisez en erreur (par exemple, déclarer que "a" est "f") au fil du temps il va bien voir que cette interprétation est systématiquement corrigée et finira par oublier cette mauvaise association…
Les concepts de logique flou ont ils été repris dans les réseaux neuronaux ?
Patrick
Si je me souviens bien, on distingue l'apprentissage implicite de l'apprentissage explicite. Ces études se situent dans la première catégorie.Voilà. Il ne faut pas perdre de vue qu'il s'agit là de processus d'apprentissage. Parler d'intelligence est une tout autre paire de manches. À commencer par la définition de cette dernière...
L'intérêt étant qu'on peut étudier des processus d'apprentissage indépendamment du problème de la conscience. Cela étant, le propos dénote tout de même une certaine forme d'intelligence au sens où il y a adaptation à des situation... Donc une intelligence "implicite" en quelques sortes.
Le point intéressant c'est que des processus semblables d'apprentissage implicite semblent impliqués dans notre propre apprentissage étant donné que nous apprenons bien avant de savoir que nous apprenons. Nous sommes encore loin des machines conscientes mais ce sont déjà des bases prometteuses.
Le niveau suivant serait, par exemple, qu'un agent A tienne compte du fait que l'agent B tient compte du fait que le premier tient compte du second; mais sans certitude que A ait tout à fait compris B et réciproquement. Ce que Alexandre Kojève, se référant à Hegel, appelait le "Désir de Désir": des sortes de meta-relations entre les agents véritéblement autonomes. Car on peut se demander si l'apprentissage explicite ne commence pas à partir du moment où se pose le problème non seulement d'avoir appris (implicite) mais aussi d'avoir "bien appris" (explicite), donc la prise en compte de la possibilité de communications dysfonctionnelles. Ces possibilités de dysfonctionnements prises en compte par l'agent étant source en elle même de dysfonctionnements...
Comment un tel processus peut-il être implémenté? Peut-être des recherches ont-elles été faites dans ce champ? Ou bien de tels processus sont ils déjà en cours dans ce processus multi-agents?
Cordialement.
Bizare que sa soit si compliquer, la science trouve pas mal de formule dans tout les sens, mais bloque complétement la dessus.
Meme un petit animal est innacesible, par exemple une souris
Aussi je parlait de robots qui évolue plus vite que nous et nous dépasserait et serait donc pas danguereux
Le vrai risque serait justement qu'il soit pas si intelligent qu'on le voudrait
soyons serieux et n'ayons crainte, un robot, ne pourra jamais depasser la connerie, la mechanceté, humaineLes animaux par exemples peuvent apprendre, mais reste bien souvent tout de même plus limité que nous.
Peut être due a la taille du cerveau ? Si un jour on pourra donner la capacité a un robot d'apprendre et en plus une capacité de calcul beaucoup plus grande que la notre, il devrait alors évoluer plus vite et plus que nous. Il pourrait avoir le prix nobel de la paix a l'age de 2 ans tellement il aura d'expérience et nous sera supérieur en tout point
Bonjour
Tel pére, tel fils, il saura de qui tenir puisque qu'on lui apprendra tout.
Quand il sera au commande d'avion de chasse armée de missile nucléaire ou d'un nanodrone armée d'une seringue empoisonné là on en reparlera ...
ce n'est pas le robot qui est dangereux c'est l'humain qui va le programmer ou l'éduquer, c'est comme nimporte quel outils, il servira aussi à maintenir l'équilibre de la population humaine par la force tant qu'elle n'aura su le faire par nescessité.
Cordialement
Bonjour,
Bonne question ! Il semble en effet y avoir des similitudes. Mais mes connaissances sur ce sujet sont trop limitées pour poser un jugement éclairé.
C'est bien vrai. Cette distanciation de l'apprentissage et de la conscience (et de l'intelligence) est intéressante. Des organismes aussi simples que les vers ont la capacité d'apprendre (sensibilité à un conditionnement) mais je doute fortement que la conscience ne puisse émerger d'une petite poignée de cellules neurales.Si je me souviens bien, on distingue l'apprentissage implicite de l'apprentissage explicite. Ces études se situent dans la première catégorie.
L'intérêt étant qu'on peut étudier des processus d'apprentissage indépendamment du problème de la conscience. Cela étant, le propos dénote tout de même une certaine forme d'intelligence au sens où il y a adaptation à des situation... Donc une intelligence "implicite" en quelques sortes.
Le point intéressant c'est que des processus semblables d'apprentissage implicite semblent impliqués dans notre propre apprentissage étant donné que nous apprenons bien avant de savoir que nous apprenons. Nous sommes encore loin des machines conscientes mais ce sont déjà des bases prometteuses.
Malheureusement, on touche encore aux limites de votre serviteur.
Cependant on peut imaginer un mélange de plusieurs techniques. Par exemple monter un réseau neuronal dont certaines neurones sont constitués de programmes multi-agent. On peut aussi imaginer un réseau multi-agents dont certains agents sont en fait un petit réseau neuronal. Une telle synergie pourrait nous réserver d'heureuses surprises.
Il faut laisser aux découvertes le temps nécessaire pour se révéler. Personnellement je trouve que ça avance pas mal vite…
J'avoue ne pas bien saisir le lien entre la dangerosité du robot et le fait qu'il nous dépasserait
Je crois surtout que l'intelligence artificielle sera différente de nous. De toute façon, je ne suis pas sûr que l'objectif soit de créer un robot intelligent, ce qu'on désire vraiment, c'est qu'il soit compétent.
Sans la liberté de blâmer, il n'est point d'éloge flatteur. (Beaumarchais)
Cela semble se rapprocher de la théorie du flou, une facette de l'intelligence artificielle. Zadeh avait posé la première pièce de l'édifice en 1965 par la théorie mathématiques des sous-ensembles flous.
Les concepts de logique flou ont ils été repris dans les réseaux neuronaux ?
Patrick
Oui, c'est un type de réseaux particulier que l'on nomme RBF (radial basis function).
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++
Si le sujet t'intéresse il faut lire le dernier ouvrage de Cardon "Modéliser et concevoir une machine pensante". Il propose une approche holistique basée sur un système mutli-agents qu'il détaille de façon très précise.
GCS/S s: a C++ DI++>+++ UL++A++HIS++$ P++>+++$ E+>++$ W+>++$ N+ Y+ e++++ t+++ y+++