Non mais bon j'arrête, là...je croyais que la situation que je décrivais était claire, particulièrement " il n'y a pas plus d'informations disponibles", mais visiblement ça ne passe pas.Ah, c'est le cas concret où le vendeur a une arme à feu pointée sur vous et va vous tuer si vous ne répondez pas oui ou non tout de suite ? Le cas concret où on ne peut pas se renseigner un peu si a un doute avant d'acheter un jouet ?
Effectivement, j'avais oublié ce cas concret là qui d'ailleurs me fait penser qu'à l'approche de Noel, il ne faut pas que j'oublie mon gilet pare-balle avant d'aller dans les magasins de jouet dès fois que je tombe sur un vendeur intransigeant.
Tant pis.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Merci de vouloir faire baisser la pression, j'apprécie. Je m'excuse aussi pour les explications superflues qui n'ont visiblement pas fait avancer le smilblick. Je pense que c'est un défaut que j'ai, j'essaie d'expliquer, en répétant s'il le faut ... mais je comprends que ça peut saouler à la longue, surtout si le message répété n'est pas plus clair la troisième fois que la première.
C'est dur de communiquer ...
Je signale juste en passant qu'on est parti sur un aspect très restreint du sujet parce qu'au message 232 hlbnet a dit :
Suite à quoi j'ai donné une réponse dans le message 233 que j'ai précisée dans le message 250. Or nous en sommes au message 304. Je donne ces précisions parce que je suis en partie responsable de l'orientation de la discussion sur un point particulier d'un sujet bien plus vaste.Est-ce gênant que des gens préfèrent des robots aux autres gens ?
Je précise : il est clair que dans le futur tout comme aujourd'hui, il y aura des lois que chacun devra respecter pour garantir le droit de chacun. Tant que les lois sont respectées, si quelqu'un ou même une majorité de personnes préfèrent n'interagir qu'avec des robots parce qu'ils jugent que c'est plus agréable pour eux, pourquoi redouter cela ?
Cela me fait penser à la chanson de Brassens "La mauvaise réputation" :
https://www.youtube.com/watch?v=dxP6yuplGHs
"Au village sans prétention, j'ai mauvaise réputation, que je m'démène ou que j'reste coi je passe pour un je ne sais quoi, je ne fais pourtant de tort à personne en suivant mon ch'min de petit bonhomme"
Dernière modification par JPL ; 05/10/2015 à 23h09.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Mon "faux" s'adresser à l'adossement addiction/effort. Pas à la recherche de plaisir. C'est justement parce qu'un jeu procure du plaisir en plus d'être chronophage qu'on peut provoquer une addiction. Pas parce que la difficulté d'un jeu serait "élevé" (plutôt le contraire).Si, il y a bel et bien la notion de recherche de plaisir dans l'apparition des addictions. C'est justement parce que le circuit de la récompense est perturbé et déréglé qu'on en arrive à être en permanence en recherche de plaisirs, à négliger tout le reste et à perdre la notion du temps. Ce n'est parce que c'est chronophage que c'est addictif (le repassage est chronophage, curieusement, je ne connais pas de cas d'addiction à cette activité )
Question de pédagogie. C'est une influence extérieur qui va contraindre (contrôler?/diriger?) l'intérêt de l'enfant. Et aussi le discipliner (ce qui ne veut pas dire être violent) pour canaliser tout ça.
Vi. On aura sans doute d'autres fils et d'autres occasions pour ça
@ JPL
Certes. Cela a permis de soulever quelques points relatifs à l'interaction avec des IA.
Pourquoi pas, c'est opératoire et il faut bien une définition.
La, c'est moi qui décroche car si le résultat est la meilleure solution par rapport à des critères objectifs et connus précis, je ne vois pas comment ils ne pourraient pas tous être prévus donc prévisibles (sinon, on ne peut pas savoir que ces résultats sont les meilleures solutions), à moins que cette intelligence connaisse des faits ou des théories scientifiques qui nous soient inconnus à nous, les humains et, forcément, qu'on ne sache pas trouver ces solutions.Je précise que, pour autant, je ne considère pas qu'une intelligence artificielle soit prévisible. C'est-à-dire que deux machines déroulant le même algorithme à partir des mêmes données n'aboutiront pas obligatoirement au même résultat. Idem pour la même machine déroulant deux fois un même algorithme à partir des mêmes données. Je n'associe pas intelligence artificielle avec prévisibilité du résultat.
Oui mais la, la question demandait une réponse par oui ou non et si j'ai bien compris, tu nous dis que non, ce n'est pas possible de répondre oui ou non sur ce fil ?
C'est une question et la réponse est ?
J'ai donné une réponse plus haut de cas où cela se produit même actuellement : recherche d'extrémum local avec parallélisme.La, c'est moi qui décroche car si le résultat est la meilleure solution par rapport à des critères objectifs et connus précis, je ne vois pas comment ils ne pourraient pas tous être prévus donc prévisibles (sinon, on ne peut pas savoir que ces résultats sont les meilleures solutions), à moins que cette intelligence connaisse des faits ou des théories scientifiques qui nous soient inconnus à nous, les humains et, forcément, qu'on ne sache pas trouver ces solutions.
Par contre, cela nécessite de s'intéresser un peu à l'informatique, à l'IA, etc. Cela permet de savoir que cela fait longtemps qu'on n'utilise plus les ordinateurs uniquement pour rechercher "la meilleure solution par rapport à des critères objectifs et connus précis" et que ce n'est pas le fonctionnement d'une intelligence.
Au demeurant, il faudrait savoir : la plupart des posts par les non informaticiens nous expliquent l'importance des émotions, de la rétroaction corps-cerveau (souvent en supposant qu'un informaticien n'en a jamais entendu parlé) et là, on se retrouve avec une définition au contraire ultra-rationnelle...
Je n'ai jamais dit cela. Comme plus haut, cela revient à prendre un argument précis adapté à un cas particulier et à le généraliser pour le rendre faux. Ce n'est pas très rigoureux.
C'était, il me semble, la définition de l'intelligence donnée dans le message auquel je répondais, je n'ai pas dit que c'était la définition que tout le monde donnait, toi en particulier, à l'intelligence artificielle, ni celle qui était utilisée en informatique et donc que ma réponse était universelle.J'ai donné une réponse plus haut de cas où cela se produit même actuellement : recherche d'extrémum local avec parallélisme.
Par contre, cela nécessite de s'intéresser un peu à l'informatique, à l'IA, etc. Cela permet de savoir que cela fait longtemps qu'on n'utilise plus les ordinateurs uniquement pour rechercher "la meilleure solution par rapport à des critères objectifs et connus précis" et que ce n'est pas le fonctionnement d'une intelligence.
Si on change de définition, il est bien entendu que la réponse change mais elle ne s'adressera donc plus au message pour lequel cette réponse a été prévue (je peux même trouver des définitions pour lesquelles toutes ces réponses ne conviennent pas non plus).
Oui, et ils expliquent cette importance, encore par définition, dans l'intelligence humaine pourvue d’émotions qui n'est pas celle des intelligences qui en sont dépourvues (je ne peux que répéter que les émotions ne vont intervenir que s'il y a émotions et que si une intelligence en est dépourvue, elle n'en a pas: j'ai l'impression que tout le monde n'est pas d'accord avec ça et j'aimerais bien qu'on m'explique en quoi Mr De Laplisse se trompe ici).Au demeurant, il faudrait savoir : la plupart des posts par les non informaticiens nous expliquent l'importance des émotions, de la rétroaction corps-cerveau (souvent en supposant qu'un informaticien n'en a jamais entendu parlé) et là, on se retrouve avec une définition au contraire ultra-rationnelle...
Et comme je l'ai précisé, je répondais au message d'hibnet dans le cadre de la définition qu'il avait choisi, pas dans le cadre d'une intelligence humaine.
Je n'ai pas trouvé les passages ou il est supposé que les informaticiens n'aient pas entendu parler des émotions et des rétroactions corps-cerveau et rien n'empêche qu'ils soient aussi ou travaillent avec des neuro-psy dans le cadre de certaines recherches mais ça n'a pas plus à voir avec le sujet que la façon dont ils s'habillent.
En fait, j'ai déformé ta réponse, désolé (tu as bien écrit que c'était possible "mais") et en utilisant cette double contrainte, je voulais souligner que la réponse serait quand même oui ou non et rien d'autre sans trahir son opinion et que je ne généralise pas un cas.
Dans ce cas particulier, la question posée était: achèterais tu (faire l'action d'acheter) le robot, oui ou non ?
On peut s'affranchir des deux items de la réponse et répondre ce qu'on veut mais de toutes façons, le robot ne sera acheté uniquement que si la réponse est "oui" et il ne sera pas acheté pour toutes les autres réponses, y compris non (le vendeur ne vend que si on lui dit "oui, j'achète").
Le robot n'a pas été acheté, la réponse est donc "non", l'action d'acheter n'a pas été effectuée (ou j'ai mal suivi et le robot à finalement été acheté et la réponse a été "oui").
Cette définition me semble en effet beaucoup trop restrictive, basée sur une vision "raisonnement mathématique" de l'intelligence naive comme toutes celles inspirées d'un rationnalisme/positivisme fin du XIXème, début du XXème.C'était, il me semble, la définition de l'intelligence donnée dans le message auquel je répondais, je n'ai pas dit que c'était la définition que tout le monde donnait, toi en particulier, à l'intelligence artificielle, ni celle qui était utilisée en informatique et donc que ma réponse était universelle.
Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".
Au demeurant, même un mathématicien ne cherche pas "la meilleure solution". Quand il s'agit de démontrer quelque chose, on prend "la 1ère solution trouvée qui est correcte", pas forcément la démonstration la plus concise, la plus générale... Cela vient éventuellement après.
Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).Oui, et ils expliquent cette importance, encore par définition, dans l'intelligence humaine pourvue d’émotions qui n'est pas celle des intelligences qui en sont dépourvues ([SIZE=1]je ne peux que répéter que les émotions ne vont intervenir que s'il y a émotions et que si une intelligence en est dépourvue, elle n'en a pas:
Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?
Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.
Dans le cas présent, la réponse est "on ne sait pas ce qu'il a répondu". Il a expliqué que quand on lui a proposé le jouet, il n'avait pas d'objection de principe mais qu'il a décidé de se renseigner. Il peut très bien le faire sur place avec son smartphone et décider en quelques minutes de répondre oui ou non.Dans ce cas particulier, la question posée était: achèterais tu (faire l'action d'acheter) le robot, oui ou non ?
On peut s'affranchir des deux items de la réponse et répondre ce qu'on veut mais de toutes façons, le robot ne sera acheté uniquement que si la réponse est "oui" et il ne sera pas acheté pour toutes les autres réponses, y compris non.
Le robot n'a pas été acheté, la réponse est donc "non", l'action d'acheter n'a pas été effectuée (ou j'ai mal suivi et le robot à finalement été acheté et la réponse a été "oui").
Compte tenu de à priori favorable, je dirais qu'il a répondu oui majoritairement et non minotairement. On est dans une superposition d'états, rien de nouveau.
A myoper
Tu parles de trouver une solution optimale à un problème posé à partir de données.
Or, il faut savoir que dans la quasi-totalité des utilisations de l'intelligence artificielle, trouver une solution optimale (et savoir qu'elle l'est) est inenvisageable en pratique. C'est trop long. Même avec des problèmes d'apparence simple, on se retrouve avec un temps de calcul qui dépasserait l'age de l'univers, même en mettant toute la puissance de traitement mondiale. Il n'y a guère que quelques cas d'écoles (donc pas intéressants) dans lesquels on peut envisager une résolution optimale d'un problème.
C'est pour ça que j'ai tendance (par déformation professionnelle sans doute), à ne jamais envisager la résolution optimale d'un problème. C'est pour ça aussi que dans certaines définitions sur ce fil, j'ai dit que l'intelligence artificielle consistait à rechercher des "bonnes" solutions à un problème, dans d'autres j'ai parlé de solutions "acceptables" à un problème.
Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.
Ceci précisé, je pense que tu comprends du coup pourquoi je parle de résultats non prévisibles. Parce que c'est vrai qu'il y une idée fausse assez répandue qui consiste à penser que si c'est un ordinateur qui traite, alors, le résultat est prévisible.
C'est moi, mais ce n'était absolument pas avec cette idée implicite, vu que je ne crois pas une seconde qu'une machine puisse être perverse, la perversité étant un travers humain.
Effectivement, c'est difficile de communiquer...
Dernière modification par mh34 ; 06/10/2015 à 09h57.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Je pense que le mot "acceptable" n'avait pas été compris, ou interprété de manière différente de ce que j'avais voulu dire. C'est pour ça que je l'ai enlevé par la suite pour simplifier la définition que je proposais et essayer d'être mieux compris, mais, du coup, myoper a pensé que je me limitais aux résolutions optimales (ce qui n'a jamais été le cas, dans mon esprit).
Pour être franc, je n'ai pas bien compris ta remarque "acceptable pour qui, pour l'homme ou pour la machine". J'ai la vague impression qu'il y a dans cette phrase une idée sous-jacente que la machine aurait un "intérêt" qui serait divergent de celui de l'homme, et je ne sais pas ce que recouvre la notion d'intérêt de la machine. Surtout, ne prends pas cette analyse de ta phrase au pied de la lettre, je ne cherche pas à te faire dire ce que tu n'as pas dit. Dans le fond, je ne comprends pas cette remarque, c'est tout ce que je peux en dire, si j'en dis plus, je vais m'enfoncer davantage.
Si je n'ai pas relevé, c'est parce que le mot "acceptable" voulait juste évoquer qu'un problème d'optimisation ne peut quasiment jamais être résolu de manière optimale, donc on se contente d'une solution qui est une meilleure parmi celles qu'on a eu l'occasion d'explorer. Alors, je ne voulais pas me lancer dans une discussion dans laquelle j'allais décrocher très vite (par incompétence). J'ai préféré enlever le mot qui posait problème.
Effectivement, c'est difficile de communiquer ...
Je suis partie du principe qu'une machine ne pouvait prendre que des décisions rationnelles. Dans certaines circonstances ce n'est pas la voie que va privilégier l'humain. Il me semble qu'on en avait donné un exemple sur le forum, avec un bus sur une route de montagne longeant un précipice et un piéton qui traverse inopinément devant lui...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
tu ne connais pas la chatte de mes voisins...
pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.
Ça y est, je comprends ; merci de la précision.A myoper
Tu parles de trouver une solution optimale à un problème posé à partir de données.
Or, il faut savoir que dans la quasi-totalité des utilisations de l'intelligence artificielle, trouver une solution optimale (et savoir qu'elle l'est) est inenvisageable en pratique. C'est trop long. Même avec des problèmes d'apparence simple, on se retrouve avec un temps de calcul qui dépasserait l'age de l'univers, même en mettant toute la puissance de traitement mondiale. Il n'y a guère que quelques cas d'écoles (donc pas intéressants) dans lesquels on peut envisager une résolution optimale d'un problème.
C'est pour ça que j'ai tendance (par déformation professionnelle sans doute), à ne jamais envisager la résolution optimale d'un problème. C'est pour ça aussi que dans certaines définitions sur ce fil, j'ai dit que l'intelligence artificielle consistait à rechercher des "bonnes" solutions à un problème, dans d'autres j'ai parlé de solutions "acceptables" à un problème.
Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.
Ceci précisé, je pense que tu comprends du coup pourquoi je parle de résultats non prévisibles. Parce que c'est vrai qu'il y une idée fausse assez répandue qui consiste à penser que si c'est un ordinateur qui traite, alors, le résultat est prévisible.
Pour la forme (au moins pour la compréhension des humains ), quand tu qualifies une solution de bonne ou d'acceptable, il faudrait non seulement préciser pour qui ou quoi mais par rapport à qui ou quoi (j'aurais pensé que c'était pareil pour la programmation par exemple) et j'ai comblé à tort par rapport à ton message la lacune en interprétant bonne comme bonne par rapport à certains critères donnés, quels qu'ils soient et le temps en faisant partie, donc optimale (qui voudrait dire: "on ne peut avoir une autre solution opératoire avec ce dont on dispose").
Tous ces qualificatifs ne qualifient que pour quelqu’un et par rapport à quelque chose et si on change ce quelque chose, la qualification change (par exemple, une solution optimale pour le temps (et les éléments) dont l'intelligence dispose peut être très mauvaise et donc loin d'être optimale par rapport aux critères ou aux résultats recherchés par un utilisateur).
Il faudrait dire que le programme donne des résultats acceptés par l'utilisateur.
Nous sommes d'accord (bien qu'il n'y ai pas d'anatomie particulière à faire intervenir puisque toutes les parties du cerveau sont impliquées dans tous les processus même si certaines parties sont plus sollicitées dans certain cas - c'est pour ça que j'en suis resté à ce qui est "observable" et fonctionnel, émotions ou pas et qui était uniquement la réponse que j'ai donné dans ma première intervention).Cette définition me semble en effet beaucoup trop restrictive, basée sur une vision "raisonnement mathématique" de l'intelligence naive comme toutes celles inspirées d'un rationnalisme/positivisme fin du XIXème, début du XXème.
Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".
Au demeurant, même un mathématicien ne cherche pas "la meilleure solution". Quand il s'agit de démontrer quelque chose, on prend "la 1ère solution trouvée qui est correcte", pas forcément la démonstration la plus concise, la plus générale... Cela vient éventuellement après.
Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).
Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?
Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.
Si, on sait ce qu'il a répondu et même très précisément puisqu'il l'a écrit (et qu'il suffit de le lire).Dans le cas présent, la réponse est "on ne sait pas ce qu'il a répondu". Il a expliqué que quand on lui a proposé le jouet, il n'avait pas d'objection de principe mais qu'il a décidé de se renseigner. Il peut très bien le faire sur place avec son smartphone et décider en quelques minutes de répondre oui ou non.
Compte tenu de à priori favorable, je dirais qu'il a répondu oui majoritairement et non minotairement. On est dans une superposition d'états, rien de nouveau.
Tant qu'il ne sait pas s'il achète le robot, le robot n'est pas acheté et la réponse est non à 100% et si le robot est acheté, la réponse est oui à 100 %.
L'achat n'est pas quantique: on pose la question à l’intéressé qui a plein de façons de savoir ce qu'il a fait. On ne pose pas la question a quelqu'un d'autre qui calcule d'éventuelles probabilités (sur quels critères ?).
Et bien si elle est élaborée au point ou implique d'avoir des émotions, elle pourra l'être et si elle n'en a pas, les zumains pourront toujours projeter ces traits émotionnels qui lui seront étrangers .tu ne connais pas la chatte de mes voisins...
pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.
Ce n'est pas ce que je comprends du fonctionnement de Deep Blue, où c'est justement "de la force brute" en parallélisant le traitement des entrées + la recherche dans la base de données (dont toutes les parties jamais jouées, etc). Même à supposer que Deep Blue ouvre le bal, on peut randomizer un choix d'ouverture parmi toutes celles ayant le ou les scores les plus élevés en terme d'arbres des possibilités menant à des mat voire pat victorieux pour les blancs.Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".
Bah justement la "première solution" n'est pas forcément démonstration, si on ne peut la généraliser. C'est au mieux un cas particulier.
Et est-ce que la simulation ne serait pas biaisée par le ressenti d'un informaticien ? Au sens qu'il pourrait vouloir projeter sa propre subjectivité (pourquoi pas) mais échouer sans le savoir par simple anthropomorphisme (ce n'est pas forcément l'informaticien qui percevra l'échec, surout dans un cas "boîte noire" où il ne peut expliquer/élucider tout ou parti du traitement algorithme, mais par exemple un client/utilisateur).Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).
Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?
Certes. On retombe sur des IA plus classiques sinon actuelles. Point n'est besoin que ces IA soient "humaines" ou approchant.Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.
Bonjour à toustu ne connais pas la chatte de mes voisins...
pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.
La perversion est caractérisée par la soumission radicale à une Loi (morale) qui contraint le sujet à la jouissance (c'est en cela qu'elle serait purement humaine: la loi morale apparaît sous la forme d'un énoncé impératif).
J'ignore si une machine peut éprouver une jouissance (j'en doute a priori, mais n'en sais rien) et si elle peut percevoir une loi comme un impératif, dicté par un autre (les pervers évoquent souvent la "Nature") auquel il est possible de se dérober - mais auquel elle ne veut pas faire défaut.
Mais peut être ne parlez vous pas de perversion au sens clinique ?
Non, ce principe me semble faux. Ce que je veux dire, c'est qu'il y a généralement une part d'aléa dans la réponse de la machine. Ce n'est pas obligatoire, mais c'est le plus souvent le cas dans les problèmes réels.
L'humain peut aboutir à la même solution que la machine ou pas. Mais il est clair que son raisonnement sera très différent de celui de la machine car les machines qui font de l'intelligence artificielle ne cherchent pas à simuler un cerveau humain, mais à déterminer une bonne solution à un problème en fonction de contraintes. C'est comme un oiseau et un avion. Ils peuvent tous les deux aller d'un point A à un point B en volant, mais leur technique de vol est différente, même s'ils aboutissent au même point.
Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.
Donc, deux machines ne trouveront pas nécessairement la même solution, soit parce qu'on ne leur a pas donné les mêmes contraintes de départ, soit parce qu'elles n'ont pas exploré les mêmes branches dans l'arbre de décision.
Quant à l'humain, il peut aussi trouver une troisième solution, différente de celles des deux machines, ou bien tomber sur la même solution qu'une des deux machines. Il est probable qu'il ne prenne pas en compte les mêmes contraintes que la machine et même en supposant qu'il prenne en compte les mêmes contraintes que la machine, le cheminement de son raisonnement sera différent. D'ailleurs, il peut aboutir au même résultat que la machine malgré le fait qu'il a pris en compte des contraintes différentes et malgré un cheminement de son raisonnement qui est différent.
En tout cas, il n'y a aucune raison que l'humain aboutisse obligatoirement à une "meilleure" solution que la machine (selon des critères donnés), et il n'y a aucune raison aussi que la machine aboutisse à une meilleure solution que l'humain.
Les machines d'aujourd'hui n'éprouvent pas d'émotions, c'est clair. Si les émotions sont une propriété émergente du fonctionnement du cerveau et si on cherche à imiter ce fonctionnement (et si on y parvient) les machines pourraient éprouver des émotions, en tout cas je n'y vois pas d'impossibilité. Mais on peut arguer qu'une machine intelligente n'a pas à imiter parfaitement le fonctionnement du cerveau, mais seulement son comportement (comme par exemple un orgue électronique imite le son d'un orgue sans employer de tuyaux).
Sans parler d'optimum des solutions -- il peut même y en avoir plusieurs -- c'est le critère d'acceptabilité qui est à définir. En biologie, peut-être par recherche de l'objectivité, on évite un maximum les jugements de valeurs via vocables hédonistes tels que bon/mauvais, bien/mal, gentil/méchant, etc. On précise/objective le critère et on décrit en termes plus concrets (ex : favorable/défavorable, adapté/inadapté, pathologique/sain, usuel/particulier, etc) les conséquences relativement à chaque protagoniste. Parce qu'un effet favorable pour l'un peut l'être pour d'autres, ou au contraire être dommageable (ex : symbiose versus parasitisme).Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.
Il ne s'agit pas de "perversion" de la machine mais ce qu'on entend en termes plus conrets dans des solutions "acceptables" ou "bonnes", qui ça concerne, de quelle manière, etc.
Après on peut discuter "un logiciel est-il apte à la perversité ?" mais à part dire que tout peut devenir une arme par destination, le reste a trait à l'anthropomorphisme.
Tout dépend de l'algorithme mais surtout du résultat qu'on recherche. Si c'est un petit code pour une machine à café, on fait du prévisible un max côté résultat. Si on cherche à simuler le climat, on veut au contraire des effets aléatoires voire stochastiques pour approcher les émergences constatées.
Dans le traitement IA, si on prend les jeux vidéos, il est amplement plus facile de simuler un ennemi qui fait mouche à tous les coups qu'un ennemi plus faillible, ce qui rendrait le jeu injouable. Ergo : l'IA ne soit pas donner de solutions optimales de visée. Mais un ennemi complètement inefficace n'est pas intéressant. Ergo : l'IA doit donner des solutions cohérentes avec un objectif : atteindre/toucher le(s) personnage(s) du joueur. D'où sans doute implémentation de valeurs aléatoires pour rendre l'entrée/sortie moins linéaire + un peu de stochastique pour ne pas faire viser le PNJ ennemi aux antipodes. Ça simule mieux un comportement ennemi "réaliste" selon la subjectivité des gamers (= le critère de solutions du cas présent).
Dernière modification par Flyingbike ; 06/10/2015 à 12h21. Motif: a la demande de l'auteure
Question de curiosité : comment s'effectue cette exploration/comparaison ? Au sens : quid de la taille du pool de solutions à explorer avant décision ? Quid de la construction des solutions avant évaluation ? Et cætera.Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.
Exactement. Mais intrinsèquement cela admet des dérives possibles comme dans le cas exploré plus tôt dans la discussion -- où un environnement "trop" IA pourrait conduire à un éventuel repliement sur soi.
Tu fais bien de préciser parce que c'est justement ce que veut dire optimal (d’où certaines incompréhensions).Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.
Je ne suis pas certain de comprendre les questions, donc je ne peux pas répondre précisément.
Quand un problème est trop complexe pour pouvoir ne serait-ce que lister tous candidats à évaluation, c'est-à-dire à peu près dans tous les cas un peu complexe, on sait bien qu'on ne va lister qu'un tout petit sous-ensemble des candidats. Les candidats listés vont être analysés et on va retenir un meilleur parmi ceux-là, en fonction de critères.
Du coup, la question est de savoir quels candidats on va choisir pour être évalués. On est souvent tenté d'utiliser des heuristiques, ça peut être bien, si on en a des bonnes. Mais, il vaut mieux faire confiance au hasard plutôt que de vouloir a tout prix utiliser une heuristique douteuse. Les heuristiques douteuses amènent souvent à des résultats stéréotypés ou tout simplement mauvais en moyenne. Au moins, avec le hasard, on sait qu'on n'a pas influencé le résultat par un a priori supposément merveilleux mais basé sur une réelle incompréhension de l'espace des candidats.
En plus, le fait d'utiliser le hasard pour choisir les candidats à analyser, plutôt que d'utiliser des heuristiques, permet d'avoir un résultat différent à chaque fois qu'on pose la même question. Ce qui peut être souhaité.
Ça répond quand même en partie à mes questions. Ce qui est le but ^^
Comment sont construites les solutions "hors heuristiques" ?
Comment sont "listés" les candidats avant analyse ?
Tout repose sur l'exploration d'un arbre des décisions possibles. C'est particulièrement clair pour les programmes de jeu d'échec. Il y a un théorème dit minimax défini par von Neumann. Il montre qu'il est possible de ne pas explorer toutes les branches de l'arbre si l'on constate rapidement qu'une branche ne peut donner qu'un résultat inférieur à celui des autres. Malgré tout cela fait encore trop et on peut simplifier davantage par un élagage dit alpha-bêta mais dans un jeu d'échec ce n'est pas encore suffisant. On cherche donc à élaguer davantage par des heuristiques qui donnent de bons résultats dans une grande majorité de cas. Si en plus, comme vient de le dire hlbnet on introduit un choix aléatoire quand le programme se trouve dans une situation indécidable (indécidable dans le temps imparti) cela peut introduire beaucoup de variantes possibles.
En outre chaque pièce a un "poids" a priori qui est défini à partir de l'expérience des très bons joueurs et je pense qu'il y a un certain consensus sur ces valeurs de départ. Mais le poids d'une pièce peut varier en cours de partie en fonction de sa position et de la présence ou l'absence d'autres pièces du joueur et de son adversaire. Tout ceci fait que certains programmes sont meilleurs que d'autres à contraintes de temps égales.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Merci pour ces précisions délicieuses Je vais jeter un œil