Intelligence artificielle (question aux programmeurs). - Page 11
Répondre à la discussion
Page 11 sur 11 PremièrePremière 11
Affichage des résultats 301 à 329 sur 329

Intelligence artificielle (question aux programmeurs).



  1. #301
    pm42

    Re : Intelligence artificielle (question aux programmeurs).


    ------

    Citation Envoyé par kcnarf07 Voir le message
    - Addiction ?
    On parlait d'humains qui se couperaient des autres humains pour ne rester qu'avec des robots/IA. .
    Non, on parlait de votre affirmation sur "l'addiction généralisée aux portables". Mais effectivement, on est H.S. mais vu que c'est le cas de 90% du fil...

    -----

  2. #302
    mh34
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Ah, c'est le cas concret où le vendeur a une arme à feu pointée sur vous et va vous tuer si vous ne répondez pas oui ou non tout de suite ? Le cas concret où on ne peut pas se renseigner un peu si a un doute avant d'acheter un jouet ?

    Effectivement, j'avais oublié ce cas concret là qui d'ailleurs me fait penser qu'à l'approche de Noel, il ne faut pas que j'oublie mon gilet pare-balle avant d'aller dans les magasins de jouet dès fois que je tombe sur un vendeur intransigeant.
    Non mais bon j'arrête, là...je croyais que la situation que je décrivais était claire, particulièrement " il n'y a pas plus d'informations disponibles", mais visiblement ça ne passe pas.

    Tant pis.
    "Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
    Rachmaninoff

  3. #303
    invitebdf515f4

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    Je rajoute quand même à l'attention d'hblnet qu’effectivement je n'aurais pas dû me permettre interpréter son message comme ça. Je lui présente mes excuses pour ça.
    Merci de vouloir faire baisser la pression, j'apprécie. Je m'excuse aussi pour les explications superflues qui n'ont visiblement pas fait avancer le smilblick. Je pense que c'est un défaut que j'ai, j'essaie d'expliquer, en répétant s'il le faut ... mais je comprends que ça peut saouler à la longue, surtout si le message répété n'est pas plus clair la troisième fois que la première.
    C'est dur de communiquer ...

  4. #304
    JPL
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Je signale juste en passant qu'on est parti sur un aspect très restreint du sujet parce qu'au message 232 hlbnet a dit :

    Citation Envoyé par hlbnet Voir le message
    Est-ce gênant que des gens préfèrent des robots aux autres gens ?

    Je précise : il est clair que dans le futur tout comme aujourd'hui, il y aura des lois que chacun devra respecter pour garantir le droit de chacun. Tant que les lois sont respectées, si quelqu'un ou même une majorité de personnes préfèrent n'interagir qu'avec des robots parce qu'ils jugent que c'est plus agréable pour eux, pourquoi redouter cela ?

    Cela me fait penser à la chanson de Brassens "La mauvaise réputation" :
    https://www.youtube.com/watch?v=dxP6yuplGHs
    "Au village sans prétention, j'ai mauvaise réputation, que je m'démène ou que j'reste coi je passe pour un je ne sais quoi, je ne fais pourtant de tort à personne en suivant mon ch'min de petit bonhomme"
    Suite à quoi j'ai donné une réponse dans le message 233 que j'ai précisée dans le message 250. Or nous en sommes au message 304. Je donne ces précisions parce que je suis en partie responsable de l'orientation de la discussion sur un point particulier d'un sujet bien plus vaste.
    Dernière modification par JPL ; 05/10/2015 à 23h09.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  5. #305
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par vep Voir le message
    Si, il y a bel et bien la notion de recherche de plaisir dans l'apparition des addictions. C'est justement parce que le circuit de la récompense est perturbé et déréglé qu'on en arrive à être en permanence en recherche de plaisirs, à négliger tout le reste et à perdre la notion du temps. Ce n'est parce que c'est chronophage que c'est addictif (le repassage est chronophage, curieusement, je ne connais pas de cas d'addiction à cette activité )
    Mon "faux" s'adresser à l'adossement addiction/effort. Pas à la recherche de plaisir. C'est justement parce qu'un jeu procure du plaisir en plus d'être chronophage qu'on peut provoquer une addiction. Pas parce que la difficulté d'un jeu serait "élevé" (plutôt le contraire).

    Citation Envoyé par vep Voir le message
    Alors là je ne suis pas du tout d'accord !
    Évidemment qu'un enfant apprend à lire parce qu'il y prend du plaisir (plaisir de réussir, de faire plaisir, de grandir en accédant au savoir ...)
    Question de pédagogie. C'est une influence extérieur qui va contraindre (contrôler?/diriger?) l'intérêt de l'enfant. Et aussi le discipliner (ce qui ne veut pas dire être violent) pour canaliser tout ça.

    Citation Envoyé par vep Voir le message
    Mais c'est hors sujet.
    Ce serait bien d'arrêter là les HS d'ailleurs
    Vi. On aura sans doute d'autres fils et d'autres occasions pour ça

  6. #306
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    @ JPL

    Certes. Cela a permis de soulever quelques points relatifs à l'interaction avec des IA.

  7. #307
    invite6f9dc52a
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Pour moi, l'intelligence artificielle c'est l'activité d'une machine qui essaie de résoudre des problèmes complexes, comme jouer au jeu d'échec ou chercher un bon chemin au voyageur de commerce.
    Pourquoi pas, c'est opératoire et il faut bien une définition.

    Je précise que, pour autant, je ne considère pas qu'une intelligence artificielle soit prévisible. C'est-à-dire que deux machines déroulant le même algorithme à partir des mêmes données n'aboutiront pas obligatoirement au même résultat. Idem pour la même machine déroulant deux fois un même algorithme à partir des mêmes données. Je n'associe pas intelligence artificielle avec prévisibilité du résultat.
    La, c'est moi qui décroche car si le résultat est la meilleure solution par rapport à des critères objectifs et connus précis, je ne vois pas comment ils ne pourraient pas tous être prévus donc prévisibles (sinon, on ne peut pas savoir que ces résultats sont les meilleures solutions), à moins que cette intelligence connaisse des faits ou des théories scientifiques qui nous soient inconnus à nous, les humains et, forcément, qu'on ne sache pas trouver ces solutions.


    Citation Envoyé par pm42 Voir le message
    Non, on peut répondre par oui ou par non mais on peut également faire des réponses plus nuancées et notamment dire qu'on ne sait pas, ou qu'on a une réponse mais qu'il manque des informations pour qu'elle soit certaine.
    Oui mais la, la question demandait une réponse par oui ou non et si j'ai bien compris, tu nous dis que non, ce n'est pas possible de répondre oui ou non sur ce fil ?
    C'est une question et la réponse est ?

  8. #308
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    La, c'est moi qui décroche car si le résultat est la meilleure solution par rapport à des critères objectifs et connus précis, je ne vois pas comment ils ne pourraient pas tous être prévus donc prévisibles (sinon, on ne peut pas savoir que ces résultats sont les meilleures solutions), à moins que cette intelligence connaisse des faits ou des théories scientifiques qui nous soient inconnus à nous, les humains et, forcément, qu'on ne sache pas trouver ces solutions.
    J'ai donné une réponse plus haut de cas où cela se produit même actuellement : recherche d'extrémum local avec parallélisme.
    Par contre, cela nécessite de s'intéresser un peu à l'informatique, à l'IA, etc. Cela permet de savoir que cela fait longtemps qu'on n'utilise plus les ordinateurs uniquement pour rechercher "la meilleure solution par rapport à des critères objectifs et connus précis" et que ce n'est pas le fonctionnement d'une intelligence.
    Au demeurant, il faudrait savoir : la plupart des posts par les non informaticiens nous expliquent l'importance des émotions, de la rétroaction corps-cerveau (souvent en supposant qu'un informaticien n'en a jamais entendu parlé) et là, on se retrouve avec une définition au contraire ultra-rationnelle...


    Citation Envoyé par myoper Voir le message
    Oui mais la, la question demandait une réponse par oui ou non et si j'ai bien compris, tu nous dis que non, ce n'est pas possible de répondre oui ou non sur ce fil ?
    Je n'ai jamais dit cela. Comme plus haut, cela revient à prendre un argument précis adapté à un cas particulier et à le généraliser pour le rendre faux. Ce n'est pas très rigoureux.

  9. #309
    invite6f9dc52a
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    J'ai donné une réponse plus haut de cas où cela se produit même actuellement : recherche d'extrémum local avec parallélisme.
    Par contre, cela nécessite de s'intéresser un peu à l'informatique, à l'IA, etc. Cela permet de savoir que cela fait longtemps qu'on n'utilise plus les ordinateurs uniquement pour rechercher "la meilleure solution par rapport à des critères objectifs et connus précis" et que ce n'est pas le fonctionnement d'une intelligence.
    C'était, il me semble, la définition de l'intelligence donnée dans le message auquel je répondais, je n'ai pas dit que c'était la définition que tout le monde donnait, toi en particulier, à l'intelligence artificielle, ni celle qui était utilisée en informatique et donc que ma réponse était universelle.
    Si on change de définition, il est bien entendu que la réponse change mais elle ne s'adressera donc plus au message pour lequel cette réponse a été prévue (je peux même trouver des définitions pour lesquelles toutes ces réponses ne conviennent pas non plus).


    Au demeurant, il faudrait savoir : la plupart des posts par les non informaticiens nous expliquent l'importance des émotions, de la rétroaction corps-cerveau (souvent en supposant qu'un informaticien n'en a jamais entendu parlé) et là, on se retrouve avec une définition au contraire ultra-rationnelle...
    Oui, et ils expliquent cette importance, encore par définition, dans l'intelligence humaine pourvue d’émotions qui n'est pas celle des intelligences qui en sont dépourvues (je ne peux que répéter que les émotions ne vont intervenir que s'il y a émotions et que si une intelligence en est dépourvue, elle n'en a pas: j'ai l'impression que tout le monde n'est pas d'accord avec ça et j'aimerais bien qu'on m'explique en quoi Mr De Laplisse se trompe ici).
    Et comme je l'ai précisé, je répondais au message d'hibnet dans le cadre de la définition qu'il avait choisi, pas dans le cadre d'une intelligence humaine.

    Je n'ai pas trouvé les passages ou il est supposé que les informaticiens n'aient pas entendu parler des émotions et des rétroactions corps-cerveau et rien n'empêche qu'ils soient aussi ou travaillent avec des neuro-psy dans le cadre de certaines recherches mais ça n'a pas plus à voir avec le sujet que la façon dont ils s'habillent.

    Citation Envoyé par pm42 Voir le message
    Je n'ai jamais dit cela. Comme plus haut, cela revient à prendre un argument précis adapté à un cas particulier et à le généraliser pour le rendre faux. Ce n'est pas très rigoureux.
    En fait, j'ai déformé ta réponse, désolé (tu as bien écrit que c'était possible "mais") et en utilisant cette double contrainte, je voulais souligner que la réponse serait quand même oui ou non et rien d'autre sans trahir son opinion et que je ne généralise pas un cas.

    Dans ce cas particulier, la question posée était: achèterais tu (faire l'action d'acheter) le robot, oui ou non ?
    On peut s'affranchir des deux items de la réponse et répondre ce qu'on veut mais de toutes façons, le robot ne sera acheté uniquement que si la réponse est "oui" et il ne sera pas acheté pour toutes les autres réponses, y compris non (le vendeur ne vend que si on lui dit "oui, j'achète").
    Le robot n'a pas été acheté, la réponse est donc "non", l'action d'acheter n'a pas été effectuée (ou j'ai mal suivi et le robot à finalement été acheté et la réponse a été "oui").

  10. #310
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    C'était, il me semble, la définition de l'intelligence donnée dans le message auquel je répondais, je n'ai pas dit que c'était la définition que tout le monde donnait, toi en particulier, à l'intelligence artificielle, ni celle qui était utilisée en informatique et donc que ma réponse était universelle.
    Cette définition me semble en effet beaucoup trop restrictive, basée sur une vision "raisonnement mathématique" de l'intelligence naive comme toutes celles inspirées d'un rationnalisme/positivisme fin du XIXème, début du XXème.
    Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".

    Au demeurant, même un mathématicien ne cherche pas "la meilleure solution". Quand il s'agit de démontrer quelque chose, on prend "la 1ère solution trouvée qui est correcte", pas forcément la démonstration la plus concise, la plus générale... Cela vient éventuellement après.


    Citation Envoyé par myoper Voir le message
    Oui, et ils expliquent cette importance, encore par définition, dans l'intelligence humaine pourvue d’émotions qui n'est pas celle des intelligences qui en sont dépourvues ([SIZE=1]je ne peux que répéter que les émotions ne vont intervenir que s'il y a émotions et que si une intelligence en est dépourvue, elle n'en a pas:
    Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).
    Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?

    Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.


    Citation Envoyé par myoper Voir le message
    Dans ce cas particulier, la question posée était: achèterais tu (faire l'action d'acheter) le robot, oui ou non ?
    On peut s'affranchir des deux items de la réponse et répondre ce qu'on veut mais de toutes façons, le robot ne sera acheté uniquement que si la réponse est "oui" et il ne sera pas acheté pour toutes les autres réponses, y compris non.
    Le robot n'a pas été acheté, la réponse est donc "non", l'action d'acheter n'a pas été effectuée (ou j'ai mal suivi et le robot à finalement été acheté et la réponse a été "oui").
    Dans le cas présent, la réponse est "on ne sait pas ce qu'il a répondu". Il a expliqué que quand on lui a proposé le jouet, il n'avait pas d'objection de principe mais qu'il a décidé de se renseigner. Il peut très bien le faire sur place avec son smartphone et décider en quelques minutes de répondre oui ou non.
    Compte tenu de à priori favorable, je dirais qu'il a répondu oui majoritairement et non minotairement. On est dans une superposition d'états, rien de nouveau.

  11. #311
    invitebdf515f4

    Re : Intelligence artificielle (question aux programmeurs).

    A myoper

    Tu parles de trouver une solution optimale à un problème posé à partir de données.

    Or, il faut savoir que dans la quasi-totalité des utilisations de l'intelligence artificielle, trouver une solution optimale (et savoir qu'elle l'est) est inenvisageable en pratique. C'est trop long. Même avec des problèmes d'apparence simple, on se retrouve avec un temps de calcul qui dépasserait l'age de l'univers, même en mettant toute la puissance de traitement mondiale. Il n'y a guère que quelques cas d'écoles (donc pas intéressants) dans lesquels on peut envisager une résolution optimale d'un problème.

    C'est pour ça que j'ai tendance (par déformation professionnelle sans doute), à ne jamais envisager la résolution optimale d'un problème. C'est pour ça aussi que dans certaines définitions sur ce fil, j'ai dit que l'intelligence artificielle consistait à rechercher des "bonnes" solutions à un problème, dans d'autres j'ai parlé de solutions "acceptables" à un problème.

    Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.

    Ceci précisé, je pense que tu comprends du coup pourquoi je parle de résultats non prévisibles. Parce que c'est vrai qu'il y une idée fausse assez répandue qui consiste à penser que si c'est un ordinateur qui traite, alors, le résultat est prévisible.

  12. #312
    mh34
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix.
    .
    C'est moi, mais ce n'était absolument pas avec cette idée implicite, vu que je ne crois pas une seconde qu'une machine puisse être perverse, la perversité étant un travers humain.
    Effectivement, c'est difficile de communiquer...
    Dernière modification par mh34 ; 06/10/2015 à 09h57.
    "Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
    Rachmaninoff

  13. #313
    invitebdf515f4

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    C'est moi, mais ce n'était absolument pas avec cette idée implicite, vu que je crois pas une seconde qu'une machine puisse être perverse, la perversité étant un travers humain.
    Effectivement, c'est difficile de communiquer...
    Je pense que le mot "acceptable" n'avait pas été compris, ou interprété de manière différente de ce que j'avais voulu dire. C'est pour ça que je l'ai enlevé par la suite pour simplifier la définition que je proposais et essayer d'être mieux compris, mais, du coup, myoper a pensé que je me limitais aux résolutions optimales (ce qui n'a jamais été le cas, dans mon esprit).

    Pour être franc, je n'ai pas bien compris ta remarque "acceptable pour qui, pour l'homme ou pour la machine". J'ai la vague impression qu'il y a dans cette phrase une idée sous-jacente que la machine aurait un "intérêt" qui serait divergent de celui de l'homme, et je ne sais pas ce que recouvre la notion d'intérêt de la machine. Surtout, ne prends pas cette analyse de ta phrase au pied de la lettre, je ne cherche pas à te faire dire ce que tu n'as pas dit. Dans le fond, je ne comprends pas cette remarque, c'est tout ce que je peux en dire, si j'en dis plus, je vais m'enfoncer davantage.

    Si je n'ai pas relevé, c'est parce que le mot "acceptable" voulait juste évoquer qu'un problème d'optimisation ne peut quasiment jamais être résolu de manière optimale, donc on se contente d'une solution qui est une meilleure parmi celles qu'on a eu l'occasion d'explorer. Alors, je ne voulais pas me lancer dans une discussion dans laquelle j'allais décrocher très vite (par incompétence). J'ai préféré enlever le mot qui posait problème.

    Effectivement, c'est difficile de communiquer ...

  14. #314
    mh34
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message

    Pour être franc, je n'ai pas bien compris ta remarque "acceptable pour qui, pour l'homme ou pour la machine". .
    Je suis partie du principe qu'une machine ne pouvait prendre que des décisions rationnelles. Dans certaines circonstances ce n'est pas la voie que va privilégier l'humain. Il me semble qu'on en avait donné un exemple sur le forum, avec un bus sur une route de montagne longeant un précipice et un piéton qui traverse inopinément devant lui...
    "Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
    Rachmaninoff

  15. #315
    invite9dc7b526

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    (...) la perversité étant un travers humain.
    tu ne connais pas la chatte de mes voisins...

    pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.

  16. #316
    invite6f9dc52a
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    A myoper

    Tu parles de trouver une solution optimale à un problème posé à partir de données.

    Or, il faut savoir que dans la quasi-totalité des utilisations de l'intelligence artificielle, trouver une solution optimale (et savoir qu'elle l'est) est inenvisageable en pratique. C'est trop long. Même avec des problèmes d'apparence simple, on se retrouve avec un temps de calcul qui dépasserait l'age de l'univers, même en mettant toute la puissance de traitement mondiale. Il n'y a guère que quelques cas d'écoles (donc pas intéressants) dans lesquels on peut envisager une résolution optimale d'un problème.

    C'est pour ça que j'ai tendance (par déformation professionnelle sans doute), à ne jamais envisager la résolution optimale d'un problème. C'est pour ça aussi que dans certaines définitions sur ce fil, j'ai dit que l'intelligence artificielle consistait à rechercher des "bonnes" solutions à un problème, dans d'autres j'ai parlé de solutions "acceptables" à un problème.

    Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.

    Ceci précisé, je pense que tu comprends du coup pourquoi je parle de résultats non prévisibles. Parce que c'est vrai qu'il y une idée fausse assez répandue qui consiste à penser que si c'est un ordinateur qui traite, alors, le résultat est prévisible.
    Ça y est, je comprends ; merci de la précision.
    Pour la forme (au moins pour la compréhension des humains ), quand tu qualifies une solution de bonne ou d'acceptable, il faudrait non seulement préciser pour qui ou quoi mais par rapport à qui ou quoi (j'aurais pensé que c'était pareil pour la programmation par exemple) et j'ai comblé à tort par rapport à ton message la lacune en interprétant bonne comme bonne par rapport à certains critères donnés, quels qu'ils soient et le temps en faisant partie, donc optimale (qui voudrait dire: "on ne peut avoir une autre solution opératoire avec ce dont on dispose").
    Tous ces qualificatifs ne qualifient que pour quelqu’un et par rapport à quelque chose et si on change ce quelque chose, la qualification change (par exemple, une solution optimale pour le temps (et les éléments) dont l'intelligence dispose peut être très mauvaise et donc loin d'être optimale par rapport aux critères ou aux résultats recherchés par un utilisateur).
    Il faudrait dire que le programme donne des résultats acceptés par l'utilisateur.


    Citation Envoyé par pm42 Voir le message
    Cette définition me semble en effet beaucoup trop restrictive, basée sur une vision "raisonnement mathématique" de l'intelligence naive comme toutes celles inspirées d'un rationnalisme/positivisme fin du XIXème, début du XXème.
    Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".

    Au demeurant, même un mathématicien ne cherche pas "la meilleure solution". Quand il s'agit de démontrer quelque chose, on prend "la 1ère solution trouvée qui est correcte", pas forcément la démonstration la plus concise, la plus générale... Cela vient éventuellement après.



    Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).
    Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?

    Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.
    Nous sommes d'accord (bien qu'il n'y ai pas d'anatomie particulière à faire intervenir puisque toutes les parties du cerveau sont impliquées dans tous les processus même si certaines parties sont plus sollicitées dans certain cas - c'est pour ça que j'en suis resté à ce qui est "observable" et fonctionnel, émotions ou pas et qui était uniquement la réponse que j'ai donné dans ma première intervention).


    Citation Envoyé par pm42 Voir le message
    Dans le cas présent, la réponse est "on ne sait pas ce qu'il a répondu". Il a expliqué que quand on lui a proposé le jouet, il n'avait pas d'objection de principe mais qu'il a décidé de se renseigner. Il peut très bien le faire sur place avec son smartphone et décider en quelques minutes de répondre oui ou non.
    Compte tenu de à priori favorable, je dirais qu'il a répondu oui majoritairement et non minotairement. On est dans une superposition d'états, rien de nouveau.
    Si, on sait ce qu'il a répondu et même très précisément puisqu'il l'a écrit (et qu'il suffit de le lire).

    Tant qu'il ne sait pas s'il achète le robot, le robot n'est pas acheté et la réponse est non à 100% et si le robot est acheté, la réponse est oui à 100 %.
    L'achat n'est pas quantique: on pose la question à l’intéressé qui a plein de façons de savoir ce qu'il a fait. On ne pose pas la question a quelqu'un d'autre qui calcule d'éventuelles probabilités (sur quels critères ?).

  17. #317
    invite6f9dc52a
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par minushabens Voir le message
    tu ne connais pas la chatte de mes voisins...

    pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.
    Et bien si elle est élaborée au point ou implique d'avoir des émotions, elle pourra l'être et si elle n'en a pas, les zumains pourront toujours projeter ces traits émotionnels qui lui seront étrangers .

  18. #318
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Dans certains cas simples, on peut effectivement rechercher "la meilleure solution" mais quand on fait jouer un ordinateur aux échecs, ce n'est pas ce qu'on fait pour prendre un exemple simple. Le jeu n'étant pas résolu "algébriquement" et ne pouvant pas l'être par force brute, on recherche des "solutions aussi bonnes que possible dans le temps imparti".
    Ce n'est pas ce que je comprends du fonctionnement de Deep Blue, où c'est justement "de la force brute" en parallélisant le traitement des entrées + la recherche dans la base de données (dont toutes les parties jamais jouées, etc). Même à supposer que Deep Blue ouvre le bal, on peut randomizer un choix d'ouverture parmi toutes celles ayant le ou les scores les plus élevés en terme d'arbres des possibilités menant à des mat voire pat victorieux pour les blancs.

    Citation Envoyé par pm42 Voir le message
    Au demeurant, même un mathématicien ne cherche pas "la meilleure solution". Quand il s'agit de démontrer quelque chose, on prend "la 1ère solution trouvée qui est correcte", pas forcément la démonstration la plus concise, la plus générale... Cela vient éventuellement après.
    Bah justement la "première solution" n'est pas forcément démonstration, si on ne peut la généraliser. C'est au mieux un cas particulier.

    Citation Envoyé par pm42 Voir le message
    Je suis parfaitement d'accord, au demeurant le sujet est bien connu (incapacité à prendre une décision sans émotion, décisions prises par le cerveau limbique mais "post-datées" par le néo-cortex...).
    Comme on cherche à créer des intelligences artificielles, je pense que se posent alors plusieurs questions : Quel part d'émotions doivent elle incorporer ? Peuvent elle utiliser un autre mécanisme que les humains pour arriver au même résultat ? Doivent elle juste "simuler" des émotions pour interagir avec les humains ? Ou doivent elle réellement les "ressentir" ou ce qui serait équivalent pour elles ?
    Et est-ce que la simulation ne serait pas biaisée par le ressenti d'un informaticien ? Au sens qu'il pourrait vouloir projeter sa propre subjectivité (pourquoi pas) mais échouer sans le savoir par simple anthropomorphisme (ce n'est pas forcément l'informaticien qui percevra l'échec, surout dans un cas "boîte noire" où il ne peut expliquer/élucider tout ou parti du traitement algorithme, mais par exemple un client/utilisateur).

    Citation Envoyé par pm42 Voir le message
    Je n'ai pas les réponses et je ne crois pas qu'elles soient connues avec certitude. Tout dépend aussi de ce qu'on attend d'une IA : celle qui fera des recherches ultra-pertinentes de données en comprenant ce qu'elle trouve aura des besoins différents de celle qui pilotera un drone militaire autonome ou de celle qui prendra soin de personnes fragiles par ex.
    Certes. On retombe sur des IA plus classiques sinon actuelles. Point n'est besoin que ces IA soient "humaines" ou approchant.

  19. #319
    karlp

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par minushabens Voir le message
    tu ne connais pas la chatte de mes voisins...

    pour en revenir aux machines toute la question est de savoir si une machine ayant un fonctionnement aussi élaboré que celui du cerveau d'un vertébré (disons) ne pourrait pas être perverse. Hlbnet n'est pas d'accord avec cette idée mais il n'a pas fourni d'arguments.
    Bonjour à tous

    La perversion est caractérisée par la soumission radicale à une Loi (morale) qui contraint le sujet à la jouissance (c'est en cela qu'elle serait purement humaine: la loi morale apparaît sous la forme d'un énoncé impératif).
    J'ignore si une machine peut éprouver une jouissance (j'en doute a priori, mais n'en sais rien) et si elle peut percevoir une loi comme un impératif, dicté par un autre (les pervers évoquent souvent la "Nature") auquel il est possible de se dérober - mais auquel elle ne veut pas faire défaut.
    Mais peut être ne parlez vous pas de perversion au sens clinique ?

  20. #320
    invitebdf515f4

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    Je suis partie du principe qu'une machine ne pouvait prendre que des décisions rationnelles.
    Non, ce principe me semble faux. Ce que je veux dire, c'est qu'il y a généralement une part d'aléa dans la réponse de la machine. Ce n'est pas obligatoire, mais c'est le plus souvent le cas dans les problèmes réels.

    Citation Envoyé par mh34 Voir le message
    Dans certaines circonstances ce n'est pas la voie que va privilégier l'humain.
    L'humain peut aboutir à la même solution que la machine ou pas. Mais il est clair que son raisonnement sera très différent de celui de la machine car les machines qui font de l'intelligence artificielle ne cherchent pas à simuler un cerveau humain, mais à déterminer une bonne solution à un problème en fonction de contraintes. C'est comme un oiseau et un avion. Ils peuvent tous les deux aller d'un point A à un point B en volant, mais leur technique de vol est différente, même s'ils aboutissent au même point.

    Citation Envoyé par mh34 Voir le message
    Il me semble qu'on en avait donné un exemple sur le forum, avec un bus sur une route de montagne longeant un précipice et un piéton qui traverse inopinément devant lui...
    Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.

    Donc, deux machines ne trouveront pas nécessairement la même solution, soit parce qu'on ne leur a pas donné les mêmes contraintes de départ, soit parce qu'elles n'ont pas exploré les mêmes branches dans l'arbre de décision.

    Quant à l'humain, il peut aussi trouver une troisième solution, différente de celles des deux machines, ou bien tomber sur la même solution qu'une des deux machines. Il est probable qu'il ne prenne pas en compte les mêmes contraintes que la machine et même en supposant qu'il prenne en compte les mêmes contraintes que la machine, le cheminement de son raisonnement sera différent. D'ailleurs, il peut aboutir au même résultat que la machine malgré le fait qu'il a pris en compte des contraintes différentes et malgré un cheminement de son raisonnement qui est différent.

    En tout cas, il n'y a aucune raison que l'humain aboutisse obligatoirement à une "meilleure" solution que la machine (selon des critères donnés), et il n'y a aucune raison aussi que la machine aboutisse à une meilleure solution que l'humain.

  21. #321
    invite9dc7b526

    Re : Intelligence artificielle (question aux programmeurs).

    Les machines d'aujourd'hui n'éprouvent pas d'émotions, c'est clair. Si les émotions sont une propriété émergente du fonctionnement du cerveau et si on cherche à imiter ce fonctionnement (et si on y parvient) les machines pourraient éprouver des émotions, en tout cas je n'y vois pas d'impossibilité. Mais on peut arguer qu'une machine intelligente n'a pas à imiter parfaitement le fonctionnement du cerveau, mais seulement son comportement (comme par exemple un orgue électronique imite le son d'un orgue sans employer de tuyaux).

  22. #322
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Mais, je ne sais plus qui m'avait répondu "acceptables pour qui, pour l'homme ou pour la machine", avec l'idée implicite que la machine pourrait être perverse dans son choix. Vu l'incompréhension que ça suscitait, j'ai arrêté de préciser "acceptables" ou "bonne", mais j'aurais peut-être du conserver l'adjectif, vu que tu as compris que je ne parlais que de solutions optimales.
    Sans parler d'optimum des solutions -- il peut même y en avoir plusieurs -- c'est le critère d'acceptabilité qui est à définir. En biologie, peut-être par recherche de l'objectivité, on évite un maximum les jugements de valeurs via vocables hédonistes tels que bon/mauvais, bien/mal, gentil/méchant, etc. On précise/objective le critère et on décrit en termes plus concrets (ex : favorable/défavorable, adapté/inadapté, pathologique/sain, usuel/particulier, etc) les conséquences relativement à chaque protagoniste. Parce qu'un effet favorable pour l'un peut l'être pour d'autres, ou au contraire être dommageable (ex : symbiose versus parasitisme).

    Il ne s'agit pas de "perversion" de la machine mais ce qu'on entend en termes plus conrets dans des solutions "acceptables" ou "bonnes", qui ça concerne, de quelle manière, etc.

    Après on peut discuter "un logiciel est-il apte à la perversité ?" mais à part dire que tout peut devenir une arme par destination, le reste a trait à l'anthropomorphisme.


    Citation Envoyé par hlbnet Voir le message
    Ceci précisé, je pense que tu comprends du coup pourquoi je parle de résultats non prévisibles. Parce que c'est vrai qu'il y une idée fausse assez répandue qui consiste à penser que si c'est un ordinateur qui traite, alors, le résultat est prévisible.
    Tout dépend de l'algorithme mais surtout du résultat qu'on recherche. Si c'est un petit code pour une machine à café, on fait du prévisible un max côté résultat. Si on cherche à simuler le climat, on veut au contraire des effets aléatoires voire stochastiques pour approcher les émergences constatées.

    Dans le traitement IA, si on prend les jeux vidéos, il est amplement plus facile de simuler un ennemi qui fait mouche à tous les coups qu'un ennemi plus faillible, ce qui rendrait le jeu injouable. Ergo : l'IA ne soit pas donner de solutions optimales de visée. Mais un ennemi complètement inefficace n'est pas intéressant. Ergo : l'IA doit donner des solutions cohérentes avec un objectif : atteindre/toucher le(s) personnage(s) du joueur. D'où sans doute implémentation de valeurs aléatoires pour rendre l'entrée/sortie moins linéaire + un peu de stochastique pour ne pas faire viser le PNJ ennemi aux antipodes. Ça simule mieux un comportement ennemi "réaliste" selon la subjectivité des gamers (= le critère de solutions du cas présent).
    Dernière modification par Flyingbike ; 06/10/2015 à 12h21. Motif: a la demande de l'auteure

  23. #323
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.
    Question de curiosité : comment s'effectue cette exploration/comparaison ? Au sens : quid de la taille du pool de solutions à explorer avant décision ? Quid de la construction des solutions avant évaluation ? Et cætera.

  24. #324
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Il faudrait dire que le programme donne des résultats acceptés par l'utilisateur.
    Exactement. Mais intrinsèquement cela admet des dérives possibles comme dans le cas exploré plus tôt dans la discussion -- où un environnement "trop" IA pourrait conduire à un éventuel repliement sur soi.

  25. #325
    invite6f9dc52a
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Il est clair que la machine prendra une décision qui dépends des contraintes qu'on lui a donné. Mais cette solution ne sera pas obligatoirement optimale (quasiment jamais, même). La machine combinera les contraintes qu'on lui a donné et choisira une solution en tenant compte de ces contraintes. Mais, à cause du fait que la machine ne peut jamais calculer une solution optimale en pratique sur un problème réel (c'est trop long, car il y a généralement une explosion combinatoire), elle prendra une décision qui, parmi celles qu'elle a eu le temps d'explorer, est la meilleure selon les critères qu'on lui a donné.
    Tu fais bien de préciser parce que c'est justement ce que veut dire optimal (d’où certaines incompréhensions).

  26. #326
    invitebdf515f4

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par noir_ecaille Voir le message
    Question de curiosité : comment s'effectue cette exploration/comparaison ? Au sens : quid de la taille du pool de solutions à explorer avant décision ? Quid de la construction des solutions avant évaluation ? Et cætera.
    Je ne suis pas certain de comprendre les questions, donc je ne peux pas répondre précisément.

    Quand un problème est trop complexe pour pouvoir ne serait-ce que lister tous candidats à évaluation, c'est-à-dire à peu près dans tous les cas un peu complexe, on sait bien qu'on ne va lister qu'un tout petit sous-ensemble des candidats. Les candidats listés vont être analysés et on va retenir un meilleur parmi ceux-là, en fonction de critères.

    Du coup, la question est de savoir quels candidats on va choisir pour être évalués. On est souvent tenté d'utiliser des heuristiques, ça peut être bien, si on en a des bonnes. Mais, il vaut mieux faire confiance au hasard plutôt que de vouloir a tout prix utiliser une heuristique douteuse. Les heuristiques douteuses amènent souvent à des résultats stéréotypés ou tout simplement mauvais en moyenne. Au moins, avec le hasard, on sait qu'on n'a pas influencé le résultat par un a priori supposément merveilleux mais basé sur une réelle incompréhension de l'espace des candidats.

    En plus, le fait d'utiliser le hasard pour choisir les candidats à analyser, plutôt que d'utiliser des heuristiques, permet d'avoir un résultat différent à chaque fois qu'on pose la même question. Ce qui peut être souhaité.

  27. #327
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Ça répond quand même en partie à mes questions. Ce qui est le but ^^

    Comment sont construites les solutions "hors heuristiques" ?
    Comment sont "listés" les candidats avant analyse ?

  28. #328
    JPL
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par noir_ecaille Voir le message
    Question de curiosité : comment s'effectue cette exploration/comparaison ? Au sens : quid de la taille du pool de solutions à explorer avant décision ? Quid de la construction des solutions avant évaluation ? Et cætera.
    Tout repose sur l'exploration d'un arbre des décisions possibles. C'est particulièrement clair pour les programmes de jeu d'échec. Il y a un théorème dit minimax défini par von Neumann. Il montre qu'il est possible de ne pas explorer toutes les branches de l'arbre si l'on constate rapidement qu'une branche ne peut donner qu'un résultat inférieur à celui des autres. Malgré tout cela fait encore trop et on peut simplifier davantage par un élagage dit alpha-bêta mais dans un jeu d'échec ce n'est pas encore suffisant. On cherche donc à élaguer davantage par des heuristiques qui donnent de bons résultats dans une grande majorité de cas. Si en plus, comme vient de le dire hlbnet on introduit un choix aléatoire quand le programme se trouve dans une situation indécidable (indécidable dans le temps imparti) cela peut introduire beaucoup de variantes possibles.

    En outre chaque pièce a un "poids" a priori qui est défini à partir de l'expérience des très bons joueurs et je pense qu'il y a un certain consensus sur ces valeurs de départ. Mais le poids d'une pièce peut varier en cours de partie en fonction de sa position et de la présence ou l'absence d'autres pièces du joueur et de son adversaire. Tout ceci fait que certains programmes sont meilleurs que d'autres à contraintes de temps égales.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  29. #329
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Merci pour ces précisions délicieuses Je vais jeter un œil

Page 11 sur 11 PremièrePremière 11

Discussions similaires

  1. Intelligence artificielle vs intelligence humaine
    Par invitea36fe8cf dans le forum TPE / TIPE et autres travaux
    Réponses: 0
    Dernier message: 25/11/2012, 12h36
  2. Intelligence humaine vs. intelligence artificielle
    Par Sans Nom dans le forum Discussions scientifiques
    Réponses: 449
    Dernier message: 10/04/2012, 16h33
  3. TPE: Intelligence artificielle
    Par invite9e71be9f dans le forum TPE / TIPE et autres travaux
    Réponses: 0
    Dernier message: 10/10/2011, 10h20
  4. Intelligence artificielle
    Par invitec37f3680 dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 20h30
  5. intelligence artificielle
    Par invite242c100d dans le forum Logiciel - Software - Open Source
    Réponses: 5
    Dernier message: 12/09/2003, 00h16