Intelligence artificielle (question aux programmeurs). - Page 9
Répondre à la discussion
Page 9 sur 11 PremièrePremière 9 DernièreDernière
Affichage des résultats 241 à 270 sur 329

Intelligence artificielle (question aux programmeurs).



  1. #241
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).


    ------

    Citation Envoyé par pm42 Voir le message
    et un système 100% rationnel, donc sans défaut, n'aura peut être pas le statut d'intelligence (anthropomorphique).
    On ne parlait pas d'un système 100% rationnel mais d'un système sans agressivité, "ou désir de pouvoir, sadisme, méchanceté, égoïsme, etc" pour citer exactement.
    Vu que ces caractéristiques sont parfois très basses chez certains humains sans pour autant qu'on puisse dire qu'ils manquent d'intelligence, on peut au contraire supposer une IA anthropomorphique qui en serait largement dépourvue.
    Ce qui d'ailleurs diminuerait le danger qu'elle pourrait représenter.
    Oui, c'est justement, ce que je voulais dire, c'est que s'il est complétement rationnel, il sera par définition dépourvu d’agressivité, de sadisme et de toutes ces déviances ou interprétations émotionnelles possibles.
    S'il est pourvu d'émotions, il sera sujet à leur subjectivité et à l'interprétation par autrui de ces manifestations, c'est à dire tous les défauts que vous citez, sinon, non.

    Ce n'est pas l'individu qui se juge agressif (sadique, etc.) car il agit au mieux en fonction de ses connaissances et de sa personnalité et de sa perception du monde mais c'est un tiers observateur ou "subissant" qui jugera ainsi la conduite et son auteur. Si l'auteur est dépourvu d'émotions, on ne peut lui attribuer ce qui en découle et il n'aura que des réactions logiques.

    -----
    Dernière modification par myoper ; 05/10/2015 à 08h51.
    Pangolito et Pangolita sont dans un bateau...

  2. #242
    minushabens

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    En version courte, ma réponse est qu'il n'y a aucun lien entre intelligence et agressivité (ou désir de pouvoir, sadisme, méchanceté, égoïsme, etc). Ce sont des choses indépendantes, mais, comme on a l'habitude de les voir toujours associées dans le "truc" intelligent qu'on fréquente le plus souvent (les humains), alors, on a tendance à penser que toutes ces capacités forment un tout inséparable. Mais, il n'y a aucune raison rationnelle que se soit le cas.
    Ca ne me semble pas si clair. Agressivité et intelligence ont coévolué chez les humains (et d'autres animaux) et on ne sait pas très bien sous quelles forces (sélection naturelle ou sélection sexuelle). Ce qu'on sait c'est que la domestication des animaux conduit simultanément à une pert d'agressivité et une perte d'intelligence (on le voit en comparant le chien au loup par exemple).

    Maintenant, une machine intelligence ne sera pas obtenue par sélection naturelle et encore moins par sélection sexuelle, mais peut-être via une forme d'évolution (?)

  3. #243
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Ce n'est pas l'individu qui se juge agressif (sadique, etc.) car il agit au mieux en fonction de ses connaissances et de sa personnalité et de sa perception du monde
    Je ne pense pas que cela soit une règle générale : ce cas existe bien sur mais tout autant que l'agressivité assumée par exemple. Là encore, il existe des humains chez qui l'agressivité est très faible mais l'empathie, le dialogue très élevés.

    Je pense qu'il s'agit de dosage, pas de 100% ou 0%.

  4. #244
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Je ne pense pas que cela soit une règle générale : ce cas existe bien sur mais tout autant que l'agressivité assumée par exemple. Là encore, il existe des humains chez qui l'agressivité est très faible mais l'empathie, le dialogue très élevés.

    Je pense qu'il s'agit de dosage, pas de 100% ou 0%.
    Un peu ou beaucoup, ce n'est pas mon propos. Je dis juste que ces traits émotionnels dépendent justement de la possibilité de ressentir des émotions: pas d'émotions, pas de traits de caractères émotionnels (0%), c'est aussi simple que cela.
    Et inversement, il sera toujours possible pour quelqu'un d'attribuer un caractère émotionnel (à tort ou à raison) chez une intelligence faisant preuve d'émotions.
    Et je rappelle que ce n'est pas un individu ou une machine qui est sadique ou agressif ou ce qu'on veut, à 10 ou 100 % mais ce sont d'autres intelligences qui le jugent ainsi, la différence est fondamentale.
    Dernière modification par myoper ; 05/10/2015 à 10h31.
    Pangolito et Pangolita sont dans un bateau...

  5. #245
    vep
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Je n'ai pas tout lu en détail, mais il est possible d’avoir un comportement (perçu comme) sadique, ou agressif ou manipulateur, sans pour autant l'être.

  6. #246
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par vep Voir le message
    Je n'ai pas tout lu en détail, mais il est possible d’avoir un comportement (perçu comme) sadique, ou agressif ou manipulateur, sans pour autant l'être.
    Bien sur. Mais il est également possible d'avoir un comportement qui n'est pas du tout perçu comme cela, en tout cas par l'immense majorité des humains. C'est même comme cela que nous arrivons à définir ce genre de comportement et à faire la différence entre Hannibal Lecter et Gandhi pour prendre un exemple extrême.

  7. #247
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    Tu n'as toujours pas répondu à la question que je t'avais posée dans le fil sur le dino cogni toy ; laisserais-tu ton enfant jouer avec? Oui? Non?
    Je te parle de concret ; pas de grands principes.
    J'avais répondu : ça dépends de ce que fait précisément ce jouet. Il faut voir dans le détail. On ne peut pas répondre sur la base des informations dont on dispose sur ce jouet pour l'instant, c'est à dire un jouet qui se connecte à un serveur avec un grosse puissance de traitement derrière pour "s'adapter aux habitudes de l'enfant". C'est vraiment trop vague.

    On peut avoir à faire à un jouet qui chante des chansons pour enfant, joue à des jeux anodins comme ni oui ni non ou chiffoumi (pierre-feuilles-ciseaux) lorsque l'enfant le lui propose, raconte quelques histoires pour enfant ou devinettes lorsqu'on le lui demande ou donne la date et l'heure, est capable d'avoir une discussion basique genre "comment ça va ce matin", "comme ci, comme ça", "et toi as tu bien dormi ?". Bref, rien de méchant.

    On peut aussi avoir à faire à un jouet pervers qui explique aux enfants comment mettre un sceau d'eau au dessus de la porte d'entrée ou comment noyer sa petite sœur dans la cuvette des WC ou qui leur explique toutes les positions du kamasutra.

    Je me doute bien que ce sera plutôt la premier type, car les fabriquant veulent vendre leur jouet. C'est pour ça qu'à priori, je ne suis pas particulièrement inquiet. Je demande à voir, mais je pense qu'il n'y a pas matière à s'inquiéter à priori. En fait, le principal risque que j'imagine concrètement pour ce jouet serait qu'il incite l'enfant à consommer, à demander à ses parents d'acheter d'autres jouets ou des services additionnels pour le jouet. Je sais bien que c'est dans l'intérêt du fabriquant de le faire, donc, ce n'est pas un hypothèse gratuite. Bref, c'est davantage le coté publicité plus ou moins cachée qui fait que je demande à voir. Mais, de toute façon, il faut juger sur pièce, pas sur une vague description d'un projet.

    Et, finalement, je reviens à mon idée. Ce n'est pas l'intelligence artificielle en soit qui doit être redoutée, mais ce qu'on en fait, comment on l'exploite en pratique.

  8. #248
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Pour l'instant, l'intelligence telle que conçue par les humains est animale et provient d'un système cognitif rassemblant rationalité et émotions avec une grande partie des données traitées de façon inconsciente, alors il y a forcément une partie de l'intelligence qui ne l'est pas (intelligente ) et un système 100% rationnel, donc sans défaut, n'aura peut être pas le statut d'intelligence (anthropomorphique).
    Il y a toujours ce problème de réussir à se comprendre. Pour moi, l'intelligence artificielle, c'est juste la capacité trouver des bonnes solutions à des problèmes complexes. Par exemple, un ordinateur qui joue aux échecs est intelligent, c'est de l'intelligence artificielle. Aussi, j'ai déjà signalé que pour moi le projet de simuler un cerveau humain n'est pas un projet d'intelligence artificielle, au sens habituel du terme. Simuler un cerveau humain, c'est un projet destiné à mieux comprendre le cerveau, pour faire avancer l'état des connaissances et aussi d'envisager des applications médicales (aider à traiter certaines maladies du cerveau). Je ne minimise pas du tout ce projet passionnant, et qui me semble intéressant, utile et d'une complexité inimaginable. Mais, je veux pointer que le cerveau humain simulé n'est pas destiné à résoudre des problèmes concrets. En supposant qu'on arrive à en fabriquer un, on ne va pas chercher à l'utiliser pour calculer la météo dans trois semaines, ou le climat futur, ou pour jouer au jeu de go, ou pour faire de la traduction en simultané, ou raconter de histoires aux enfants, ou surveiller la maison lorsque je suis absent, etc, ce n'est pas du tout son but. Je suis convaincu que le projet de simulation d'un cerveau humain est infiniment plus complexe à mener à bien que d'essayer de résoudre les problèmes dont j'ai donné quelques exemples en utilisant des techniques d'intelligence artificielle sans vouloir simuler le cerveau humain. Le projet de simulation d'un cerveau humain ne doit pas être confondu avec l'intelligence artificielle. L'intelligence artificielle cherche plutôt à résoudre des problèmes pratique que l'on se pose.

  9. #249
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Il y a toujours ce problème de réussir à se comprendre. Pour moi, l'intelligence artificielle, c'est juste la capacité trouver des bonnes solutions à des problèmes complexes. Par exemple, un ordinateur qui joue aux échecs est intelligent, c'est de l'intelligence artificielle. Aussi, j'ai déjà signalé que pour moi le projet de simuler un cerveau humain n'est pas un projet d'intelligence artificielle, au sens habituel du terme.
    Tout à fait et si on regarde la capacité qu'on les humains à régler les problèmes par rapport à ce qu'ils sont, il est même difficile de les qualifier d'intelligent (si, un peu mais beaucoup moins que des systèmes experts qui ne se laisseront pas manipuler par leur inconscient/émotions).

    Citation Envoyé par pm42 Voir le message
    Bien sur. Mais il est également possible d'avoir un comportement qui n'est pas du tout perçu comme cela, en tout cas par l'immense majorité des humains. C'est même comme cela que nous arrivons à définir ce genre de comportement et à faire la différence entre Hannibal Lecter et Gandhi pour prendre un exemple extrême.
    Hannibal Lecter n'est pas sadique de son point de vue (et de celui de ses admirateurs) et Gandhi n'est pas admirable vu du sien : ils ont tous les deux le comportement normal qu'ils doivent avoir.
    Ils sont différents certes mais nous les qualifions avec notre vécu émotionnel propre et nous leur prêtons d'autres état émotionnel que nous préjugeons qu'ils doivent avoir.
    Pour s'en convaincre, il suffit de définir les différents termes et leurs critères d'attribution.
    Je répète donc que sans émotions, pas de comportement émotionnel même si d'autres pourront en prêter, et même de façon contradictoire , suivant le point de vue (à force de planter, je trouve que mon ordinateur est sadique).
    Pangolito et Pangolita sont dans un bateau...

  10. #250
    JPL
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Citation Envoyé par JPL Voir le message
    Simplement : nous faisons partie d'une société d'être humains.
    Cette réponse est étrange, je ne comprends pas bien l'intention.

    Je sais que nous faisons partie d'une société d'êtres humains (ça me fait bizarre d'avoir à dire ça). Et je ne vois pas du tout pourquoi ceci changerait à cause de machines même très intelligentes. A moins que certains veuillent donner des droits et des devoirs aux machines, leur permettre de voter, etc. Je trouverais cela parfaitement stupide et je pense que ce point n'est pas vraiment en discussion, personne ne défendant cet avis.

    Bref, je ne vois pas ce que cette remarque apporte à la question posée.
    Bien que de l'eau ait coulé sous les ponts depuis ce message j'y répondrai brièvement. En fait je répondais à ton message précédent qui dit :


    Citation Envoyé par hlbnet Voir le message
    Est-ce gênant que des gens préfèrent des robots aux autres gens ?

    Je précise : il est clair que dans le futur tout comme aujourd'hui, il y aura des lois que chacun devra respecter pour garantir le droit de chacun. Tant que les lois sont respectées, si quelqu'un ou même une majorité de personnes préfèrent n'interagir qu'avec des robots parce qu'ils jugent que c'est plus agréable pour eux, pourquoi redouter cela ?
    Il est fondamental d'assumer que comme tous les animaux sociaux nous ne sommes pas des individus juxtaposés par la force des choses mais une société qui ne peut fonctionner que grâce aux interactions et coopérations entre les membres. Donc le fait de trop se détourner des interactions envers nos semblables est un dysfonctionnement qui peut être pathologique dans certains cas et qui nuit dans une certaine mesure à la société, surtout dans l'hypothèse que tu évoques : "ou même une majorité". Ceci ne concerne pas que les robots ; on peut en dire autant de l'attachement excessif aux animaux de compagnie, aux jeux vidéos, à la lecture, à la solitude...

    Mais je parle bien d'attachement excessif.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  11. #251
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par minushabens Voir le message
    Pour moi la question se pose comme ça: est-ce que l'agressivité et la perversité sont des sous-produits obligés de l'intelligence? en d'autres termes, est-ce qu'on peut créer une machine qui simule l'intelligence humaine d'assez près mais sans qu'elle ne développe un comportement agressif à notre endroit?
    Si par "agression" ou "perversité", on entend "intention de nuire" avec un "libre arbitre", alors les machines -- n'étant que des outils éventuellement évolués -- sont censément dénuées dudit libre arbitre (c'est l'intention/orientation implémentée par un programmeur).

    Maintenant, est-ce que l'agression ou la perversion sont fruit de l'intelligence ? Pas sûr non plus. Tout dépend encore une fois de la définition qu'on incluera dans le signifiant "intelligence".
    "Deviens ce que tu es", Friedrich W. Nietzsche

  12. #252
    minushabens

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par noir_ecaille Voir le message
    Si par "agression" ou "perversité", on entend "intention de nuire" avec un "libre arbitre", alors les machines -- n'étant que des outils éventuellement évolués -- sont censément dénuées dudit libre arbitre (c'est l'intention/orientation implémentée par un programmeur).
    justement je pense qu'une machine qui ne serait qu'un outil, au sens où elle ne ferait que résoudre des problèmes posés par des humains, ne mériterait pas d'être qualifiée d'intelligence artificielle. Une intelligence artificielle devrait selon moi résoudre les problèmes qu'elle se pose elle-même, par exemple développer des mathématiques nouvelles et non pas simplement effectuer des calculs mathématiques pour résoudre nos problèmes. Qu'est-ce qui fait que certains humains choisissent de créer des mathématiques (par exemple)? une forme de curiosité, mais peut-être aussi chez certains le désir de surpasser les autres, auquel cas on ne serait peut-être pas si loin de comportements agressifs.

  13. #253
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par JPL Voir le message
    Mais je parle bien d'attachement excessif.
    Excessif ou "déréalisé", relatif à un quelconque syndrome dissociatif et/ou de la preception. Comme par exemple le fétishisme/obsession ou la schizophrénie.


    Par ailleurs ce n'est même pas "prouvé" que laisser un sujet à son obsession/retranchement/autre le renderait "heureux". En réalité on retombe sur d'autres soucis comme les TOC, l'aboulie, l'apragmatisme, la neurasthénie, la lycantropie, le hikikomorisme, le suicide... Que de "bonnes choses" quoi

    Je pense donc en toute logique qu'un objet (robot ou autre) qui renforcerait activement ou même passivement la distorsion perceptuelle ou sociale et encouragerait le retrait de la société, sera in fine plus source de souffrances encore.
    "Deviens ce que tu es", Friedrich W. Nietzsche

  14. #254
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par minushabens Voir le message
    justement je pense qu'une machine qui ne serait qu'un outil, au sens où elle ne ferait que résoudre des problèmes posés par des humains, ne mériterait pas d'être qualifiée d'intelligence artificielle. Une intelligence artificielle devrait selon moi résoudre les problèmes qu'elle se pose elle-même, par exemple développer des mathématiques nouvelles et non pas simplement effectuer des calculs mathématiques pour résoudre nos problèmes. Qu'est-ce qui fait que certains humains choisissent de créer des mathématiques (par exemple)? une forme de curiosité, mais peut-être aussi chez certains le désir de surpasser les autres, auquel cas on ne serait peut-être pas si loin de comportements agressifs.
    Ça s'éloigne de l'intelligence artificielle telle qu'évoquée/définie par les intervenants "informatiques" (hlbnet, wipe, etc).
    "Deviens ce que tu es", Friedrich W. Nietzsche

  15. #255
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    J'avais répondu : ça dépends de ce que fait précisément ce jouet. Il faut voir dans le détail. On ne peut pas répondre sur la base des informations dont on dispose sur ce jouet pour l'instant, c'est à dire un jouet qui se connecte à un serveur avec un grosse puissance de traitement derrière pour "s'adapter aux habitudes de l'enfant". C'est vraiment trop vague.
    Pourtant quand un enfant joue ou du moins interagit avec un camarade, on ne dispose pas non plus d'informations exhaustive sur ledit camarade de jeu/classe. Faut-il garder l'enfant d'interagir ?

    Citation Envoyé par hlbnet Voir le message
    On peut avoir à faire à un jouet qui chante des chansons pour enfant, joue à des jeux anodins comme ni oui ni non ou chiffoumi (pierre-feuilles-ciseaux) lorsque l'enfant le lui propose, raconte quelques histoires pour enfant ou devinettes lorsqu'on le lui demande ou donne la date et l'heure, est capable d'avoir une discussion basique genre "comment ça va ce matin", "comme ci, comme ça", "et toi as tu bien dormi ?". Bref, rien de méchant.
    Sauf que certains neurologues préviennent à l'encontre de ces jouets "éducatifs" et surtout "interactifs" du fait d'une baisse de performance des bambins. Voire ce qu'en dirait/dit Michel Desmurget par exemple.

    Citation Envoyé par hlbnet Voir le message
    On peut aussi avoir à faire à un jouet pervers qui explique aux enfants comment mettre un sceau d'eau au dessus de la porte d'entrée ou comment noyer sa petite sœur dans la cuvette des WC ou qui leur explique toutes les positions du kamasutra.
    C'est prêter des intentions à une machine. Il faut plutôt voire côté programmeur/gestionnaire des données et du logiciel.

    Citation Envoyé par hlbnet Voir le message
    Je me doute bien que ce sera plutôt la premier type, car les fabriquant veulent vendre leur jouet. C'est pour ça qu'à priori, je ne suis pas particulièrement inquiet. Je demande à voir, mais je pense qu'il n'y a pas matière à s'inquiéter à priori. En fait, le principal risque que j'imagine concrètement pour ce jouet serait qu'il incite l'enfant à consommer, à demander à ses parents d'acheter d'autres jouets ou des services additionnels pour le jouet. Je sais bien que c'est dans l'intérêt du fabriquant de le faire, donc, ce n'est pas un hypothèse gratuite. Bref, c'est davantage le coté publicité plus ou moins cachée qui fait que je demande à voir. Mais, de toute façon, il faut juger sur pièce, pas sur une vague description d'un projet.
    On peut aussi juger "sur possibilités". Par exemple un jouet de chimie amusante n'est pas destiné à faire des bêtises, mais on le réserve souvent à une tranche d'âge plutôt qu'une autre pour essayer de "prévenir" les mésusages... Sans compter certains détournements comme le neuromareting évoqué ou d'autres

    Citation Envoyé par hlbnet Voir le message
    Et, finalement, je reviens à mon idée. Ce n'est pas l'intelligence artificielle en soit qui doit être redoutée, mais ce qu'on en fait, comment on l'exploite en pratique.
    ... ou "qui" exploite "qui"
    "Deviens ce que tu es", Friedrich W. Nietzsche

  16. #256
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Hannibal Lecter n'est pas sadique de son point de vue (et de celui de ses admirateurs) et Gandhi n'est pas admirable vu du sien :
    Oui et comme on ne définit par les comportements à partir du point de vue d'une seule personne et encore moins de leur auteur, cela ne prouve rien.

  17. #257
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Oui et comme on ne définit par les comportements à partir du point de vue d'une seule personne et encore moins de leur auteur, cela ne prouve rien.
    Je prouve au contraire (et tu approuves) que ce sont les émotions qui proviennent des individus qui les projettent indépendamment des émotions ou de l'absence d'émotion de "l'intelligence" visée et CCQFD.

    Par ailleurs, "on" définit les comportement par rapport à "on" (n'est ce pas ?) et "on" peut représenter une seule personne ou tous ceux ceux qui trouvent ce comportement "normal" ou au contraire "anormal" et parfois, ces comportements sont comparés arbitrairement à une norme sociale fondée également principalement sur des émotions (qui va donc varier suivant les populations) et enfin, comme expliqué, sans émotions, pas de conduite ni de projection émotionnelle: pas d'agressivité, pas de sadisme, rien de tout cela (sinon j'aimerai que tu m'expliques comment il pourrait en être autrement).
    Seul l'humain va projeter ses émotions.
    Dernière modification par myoper ; 05/10/2015 à 15h02.
    Pangolito et Pangolita sont dans un bateau...

  18. #258
    pm42

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Je prouve au contraire
    J'ai un peu de mal à comprendre comment on peut dire "je prouve" quand on a juste mis quelques phrases dans un forum.

    Citation Envoyé par myoper Voir le message
    (et tu approuves)
    J'ai encore plus de mal à comprendre comment on peut dire cela alors qu'il est évident que je n'approuve pas.

    Là encore, on est dans l'affirmation gratuite de certitudes et autres, loin de toute tentative de discours scientifique.

  19. #259
    mh34
    Responsable des forums

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    J'avais répondu : ça dépends de ce que fait précisément ce jouet. Il faut voir dans le détail. On ne peut pas répondre sur la base des informations dont on dispose sur ce jouet pour l'instant, c'est à dire un jouet qui se connecte à un serveur avec un grosse puissance de traitement derrière pour "s'adapter aux habitudes de l'enfant". C'est vraiment trop vague.
    Donc pour l'instant, au vu des éléments à ta disposition, ta réponse à ma question est "non je ne laisserais pas mon enfant jouer avec ça". Ca prouve que toi non plus tu n'es pas complètement rassuré sur ce que peut provoquer chez l'humain ( et là surtout chez l'enfant) l'interaction avec une IA . C'est tout ce que je voulais savoir.
    "mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus

  20. #260
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Là encore, on est dans l'affirmation gratuite de certitudes et autres, loin de toute tentative de discours scientifique.
    Alors dis nous comment un système dépourvu d'émotion va avoir des émotions.

    Citation Envoyé par pm42 Voir le message
    J'ai un peu de mal à comprendre comment on peut dire "je prouve" quand on a juste mis quelques phrases dans un forum.
    Quand ces phrases forment une démonstration: n'est ce pas évident ?

    Citation Envoyé par pm42 Voir le message
    J'ai encore plus de mal à comprendre comment on peut dire cela alors qu'il est évident que je n'approuve pas.
    Si tu préfères, ta réponse valide ma démonstration.
    Pangolito et Pangolita sont dans un bateau...

  21. #261
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par pm42 Voir le message
    Oui et comme on ne définit par les comportements à partir du point de vue d'une seule personne et encore moins de leur auteur, cela ne prouve rien.
    La subjectivité ne peut se définir/décrire que par l'individu qui la ressent
    "Deviens ce que tu es", Friedrich W. Nietzsche

  22. #262
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par JPL Voir le message
    Il est fondamental d'assumer que comme tous les animaux sociaux nous ne sommes pas des individus juxtaposés par la force des choses mais une société qui ne peut fonctionner que grâce aux interactions et coopérations entre les membres. Donc le fait de trop se détourner des interactions envers nos semblables est un dysfonctionnement qui peut être pathologique dans certains cas et qui nuit dans une certaine mesure à la société, surtout dans l'hypothèse que tu évoques : "ou même une majorité". Ceci ne concerne pas que les robots ; on peut en dire autant de l'attachement excessif aux animaux de compagnie, aux jeux vidéos, à la lecture, à la solitude...

    Mais je parle bien d'attachement excessif.
    Le mot "excessif" nuit à ton point de vue. Lorsqu'on cherche à savoir si quelque chose est néfaste, on peut toujours répondre "Oui, si c'est excessif". Du coup, on ne dit rien de la chose elle-même. On a juste transformé un peu la question, qui devient "A partir de quel degré la chose est-elle excessive ?", ce qui peut faire penser qu'on a avancé, alors qu'en fait, on n'a pas apporté le moindre élément de réponse.

    A part ça, tu dis que nous vivons dans une "société qui ne peut fonctionner que grâce aux interactions et coopérations entre les membres". Reste à définir de quel type d'interactions ou de coopération entre les membres la société a besoin pour "fonctionner". S'agit-il d'interaction directe, c'est-à-dire deux personnes qui se parlent directement en étant dans la même pièce, les yeux dans les yeux ? Ou bien une interaction via un téléphone ou une visioconférence ? Ou bien interaction comme celle que nous avons en ce moment, beaucoup moins directe, via clavier et écran ? Ou bien encore, une interaction codifiée, comme celle que j'ai avec les personnels des administrations ou avec mon banquier, qui passe par des formulaires avec des cases à cocher sur un site Web ? Bref, je pense que tu as compris le point. Je ne suis pas convaincu qu'il soit absolument nécessaire à la société pour fonctionner que les gens se fréquentent physiquement. Je suis d'accord qu'il y a obligatoirement un certain lien entre les membres d'une même société (ne serait-ce parce que la liberté des uns s'arrête là ou commence celle des autres, que chacun a des droits et des devoirs qu'il doit satisfaire), mais rien n'empêche, pour que la société "fonctionne", que les interactions soient indirectes ou codifiées et pas du tout sous la forme d'un contact direct d'humain à humain.

    Bref, je ne suis pas d'accord pour dire que le fait qu'une majorité de gens choisissent de n'interagir qu'avec des robots, aurait pour conséquence que l'interaction entre les citoyens nécessaire à la société pour fonctionner, disparaîtrait. Ce sont deux choses indépendantes.

    Quant à la "pathologie" qui surviendrait nécessairement du fait qu'une personne n'aurait pas de contact direct avec d'autres humains, je vois cela comme une idée reçue. Sur l'article dont on discute dans cette "sous-conversation", il est question de robots intelligents, capables de solliciter et d'interagir avec la personne (même de manière très intime si j'ai bien compris). Donc, non, je ne vois pas pourquoi l'interaction avec des robots serait par définition insatisfaisante, au point de provoquer une pathologie.

    Au final, je ne vois pas de risque spécifiques inhérent au fait que des gens, et même une majorité de gens, préfèrent s'entourer de robots plutôt que d'autres humains.

  23. #263
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message

    Bref, je ne suis pas d'accord pour dire que le fait qu'une majorité de gens choisissent de n'interagir qu'avec des robots, aurait pour conséquence que l'interaction entre les citoyens nécessaire à la société pour fonctionner, disparaîtrait. Ce sont deux choses indépendantes.

    Quant à la "pathologie" qui surviendrait nécessairement du fait qu'une personne n'aurait pas de contact direct avec d'autres humains, je vois cela comme une idée reçue.
    Ce n'est vrai que pour notre société fondée sur cette culture occidentale actuelle mais on peut imaginer une société avec d'autres interactions totalement différentes (comme Solaria, d'Asimov) mais le fait est que notre société occidentale actuelle réclame un certain nombre d'interactions que l'isolement ne permet plus (contacts visuels ou physiques directs qui fondent nos perceptions du monde), en conséquence ces comportements seraient considéré comme hors norme (actuelle), voire pathologique dans notre société du fait du problème qu'ils poseraient aux autres s'ils n'en ont pas eux même (la pathologie pouvant être définie du point de vue psychologique comme un état posant problème à l’intéressé ou son entourage).

    Le comportement humain est essentiellement dirigé par ses émotions (ou si on veut, sa subjectivité) sinon tout le monde ferait toujours tout le temps objectivement tout ce qu'il faut par rapport à l'état des connaissances actuelles et des buts déterminés en toute rigueur scientifique et en particulier, on serait absolument tous totalement d'accord ici.
    Ces émotions sont fondées sur la perception de notre environnement et de notre entourage. Changer ça, revient à changer la psyché de la population.
    Pangolito et Pangolita sont dans un bateau...

  24. #264
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par mh34 Voir le message
    Donc pour l'instant, au vu des éléments à ta disposition, ta réponse à ma question est "non je ne laisserais pas mon enfant jouer avec ça". Ca prouve que toi non plus tu n'es pas complètement rassuré sur ce que peut provoquer chez l'humain ( et là surtout chez l'enfant) l'interaction avec une IA . C'est tout ce que je voulais savoir.
    Tu as déformé mon propos pour former ta conclusion prévue à l'avance et contraire à tout ce que j'ai dit sur ce fil et sur l'autre.

    Ce jouet est un jouet innovant, utilisant une technologie avancée (intelligence artificielle Watson d'IBM), pour s'adapter aux réactions de l'enfant, c'est à peu près tout ce qu'on en sait.
    Tu me demandes si je laisserais mon enfant jouer avec.
    Je réponds : "Je ne sais pas, c'est quoi au juste les fonctions de ce jouet, à part d'être hautement technologique et de s'adapter aux réactions de l'enfant ?"
    Et là, tu conclues "Pour l'instant, au vu des éléments à ta disposition, ta réponse à ma question est "non je ne laisserais pas mon enfant jouer avec ça"".
    Tu parles à ma place en disant à peu près l'inverse de ce que je me tue à expliquer.

    En plus, j'ai détaillé ma réponse, en donnant d'autres éléments pour me faire bien comprendre : je m'attends à priori à ce que le jouet pour jeunes enfants ait des fonctions anodines, pas inquiétantes du tout (j'ai donné une liste d'exemples). J'ai émis une réserve sur la publicité embarquée, qui justifie que je demande à en savoir un peu plus sur l'objet. Quand je vois ce que mon avis devient dans ta retranscription, ça ne me donne pas envie de communiquer avec toi. J'espère que tu comprends ma réaction, qui n'est pas celle d'une machine .

    Moi aussi je flippe pour mes enfants mais plutôt avec l'idée qu'ils accèdent à des "jouets" qui ne sont pas conçus pour eux. Par exemple, certains sites internet. Mais un jouet conçu pour les enfants, même hautement technologique, même avec une intelligence artificielle derrière, non, ça ne m'inquiète pas à priori. En fait, le mot "intelligence artificielle" ne m'inquiète pas du tout, même lorsqu'il s'agit de mes enfants. Toutes mes interventions vont dans le même sens : non je ne vois pas de dangers spécifiques de l'intelligence artificielle, les seuls risques que je vois sont lié à l'utilisation qu'on en fait. Inclure mes enfants dans l'affaire ne me fait pas changer d'avis. Vraiment désolé de ne pas répondre dans le sens que tu voudrais.

  25. #265
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Quant à la "pathologie" qui surviendrait nécessairement du fait qu'une personne n'aurait pas de contact direct avec d'autres humains, je vois cela comme une idée reçue.
    Au contraire : un enfant ou même un adulte en manque d'interactions humaines (et d'affection) présente systématiquement des retards/baisses de performances cognitives (notamment sévères en cas de dépression mais pas seulement).
    http://www.ncbi.nlm.nih.gov/pubmed/26386294
    http://www.ncbi.nlm.nih.gov/pubmed/24741664
    De même qu'il y a des aspects sociaux qui ne s'apprennent que par le jeu, les contacts directs/physiques. En particulier la violence et la désinhibition, qui ne sont contrôlables que ajustements relationnels au contact (interactions, rétroactions).

    Citation Envoyé par hlbnet Voir le message
    Sur l'article dont on discute dans cette "sous-conversation", il est question de robots intelligents, capables de solliciter et d'interagir avec la personne (même de manière très intime si j'ai bien compris). Donc, non, je ne vois pas pourquoi l'interaction avec des robots serait par définition insatisfaisante, au point de provoquer une pathologie.
    Parce qu'on vend mieux un produit flatteur. C'est d'ailleurs un gros problèmes avec tous ces "programme de développement personnel" qui causent plus de retards que de "précocité" promise. C'est un critère insatisfaisant.

    Un enfant qui ne connaît pas de challenge social (un robot qui fait toujours plaisir, ça n'est pas un challenge mais ça se vendra a priori mieux), va végéter ou même louper le coche dans certains aspect du développement.

    Un adulte qui cesse d'interagir (ex : passivité et/ou repliement/isolement dépressifs) va aussi régresser. Il y a même une morbidité lors de telles régressions quand elles sont prolongées et/ou répétées.

    Si on prend un adulte et qu'on lui présente des robots plus "faciles" (car plus vendeurs) dans les ersatz d'interaction sociale, interagir avec des humains pourrait devenir "traumatisant" car moins "faciles" (relatif à des aspects comme la réciprocité mais aussi la différence/individualité). On risque un repliement psychologique sur soi par nombrilisme. Nombrilisme qui peut quand même déboucher sur un ressenti de solitude dès le moment où l'humain ne se sentira plus "entouré" d'un point de vue affectif/émotionel/social. Avec toutes les conséquences que la solitude peut induire sur le plan cognitif.
    Dernière modification par noir_ecaille ; 05/10/2015 à 16h09.
    "Deviens ce que tu es", Friedrich W. Nietzsche

  26. #266
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Ce n'est vrai que pour notre société fondée sur cette culture occidentale actuelle mais on peut imaginer une société avec d'autres interactions totalement différentes (comme Solaria, d'Asimov) mais le fait est que notre société occidentale actuelle réclame un certain nombre d'interactions que l'isolement ne permet plus (contacts visuels ou physiques directs qui fondent nos perceptions du monde), en conséquence ces comportements seraient considéré comme hors norme (actuelle), voire pathologique dans notre société du fait du problème qu'ils poseraient aux autres s'ils n'en ont pas eux même (la pathologie pouvant être définie du point de vue psychologique comme un état posant problème à l’intéressé ou son entourage).

    Le comportement humain est essentiellement dirigé par ses émotions (ou si on veut, sa subjectivité) sinon tout le monde ferait toujours tout le temps objectivement tout ce qu'il faut par rapport à l'état des connaissances actuelles et des buts déterminés en toute rigueur scientifique et en particulier, on serait absolument tous totalement d'accord ici.
    Ces émotions sont fondées sur la perception de notre environnement et de notre entourage. Changer ça, revient à changer la psyché de la population.
    Là, je met un joker. J'ai décroché. Jusque là, j'avais l'impression de comprendre nos échanges, malgré nos divergences, et d'être en mesure de développer mes arguments.
    Surtout, ne te sens pas blessé, c'est quelque chose d'assez courant sur les forums que des gens ne parviennent pas à communiquer faute d'avoir les mêmes références, connaissance ou centres d'intérêt.
    Je suis intervenu sur ce fil parce que le primo posteur s'adressait aux programmeurs, or, c'est mon métier depuis 25 ans. Mais, c'est sûr que j'ai des lacunes par ailleurs ...

  27. #267
    illusionoflogic

    Re : Intelligence artificielle (question aux programmeurs).

    Je préfère 1000x un robot qui constate, qu'un groupe d'humains qui jugent.

    Citation Envoyé par noir_ecaille Voir le message
    Excessif ou "déréalisé", relatif à un quelconque syndrome dissociatif et/ou de la preception. Comme par exemple le fétishisme/obsession ou la schizophrénie.


    Par ailleurs ce n'est même pas "prouvé" que laisser un sujet à son obsession/retranchement/autre le renderait "heureux". En réalité on retombe sur d'autres soucis comme les TOC, l'aboulie, l'apragmatisme, la neurasthénie, la lycantropie, le hikikomorisme, le suicide... Que de "bonnes choses" quoi

    Je pense donc en toute logique qu'un objet (robot ou autre) qui renforcerait activement ou même passivement la distorsion perceptuelle ou sociale et encouragerait le retrait de la société, sera in fine plus source de souffrances encore.
    Si c'est pas de l'amalgame c'est quoi ? Non mais sérieux !
    Lisez mes propos. Je suis pas là.

  28. #268
    noir_ecaille

    Re : Intelligence artificielle (question aux programmeurs).

    Ya pas d'amalgame Des études montrent qu'il faut éviter l'enfermement psychologique, ne serait-ce parce que c'est dommageable d'un point de vue strictement individuel et sanitaire.

    Or dans l'interrogaton/proposition :
    Citation Envoyé par hlbnet Voir le message
    Est-ce gênant que des gens préfèrent des robots aux autres gens ?

    Je précise : il est clair que dans le futur tout comme aujourd'hui, il y aura des lois que chacun devra respecter pour garantir le droit de chacun. Tant que les lois sont respectées, si quelqu'un ou même une majorité de personnes préfèrent n'interagir qu'avec des robots parce qu'ils jugent que c'est plus agréable pour eux, pourquoi redouter cela ?
    ... on tombe bien sur un cas de repliement sur soi.

    Il ne s'agit pas d'éviter une ou deux personnes avec qui on n'aurait pas d'atome crochu, mais bien tous les humains.
    Dernière modification par noir_ecaille ; 05/10/2015 à 17h16.
    "Deviens ce que tu es", Friedrich W. Nietzsche

  29. #269
    myoper
    Modérateur

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par hlbnet Voir le message
    Là, je met un joker. J'ai décroché. Jusque là, j'avais l'impression de comprendre nos échanges, malgré nos divergences, et d'être en mesure de développer mes arguments.
    Surtout, ne te sens pas blessé, c'est quelque chose d'assez courant sur les forums que des gens ne parviennent pas à communiquer faute d'avoir les mêmes références, connaissance ou centres d'intérêt.
    Je suis intervenu sur ce fil parce que le primo posteur s'adressait aux programmeurs, or, c'est mon métier depuis 25 ans. Mais, c'est sûr que j'ai des lacunes par ailleurs ...
    Je ne suis pas en désaccord ; je précise seulement que la discussion se base sur l'intelligence humaine qui comporte (au moins) deux versants: la rigueur, la logique et l'objectivité qu'on va pouvoir même programmer et le versant émotionnel qui sous tend pourtant la plupart de nos actions et réactions (dans lesquelles on trouve par exemple l'agressivité, le sadisme, les désirs, le pouvoir, la peur etc. qui, par construction, n’existeraient donc pas chez une intelligence dépourvue d'émotion et qui ne peuvent être attribués que par une "intelligence" pourvue d'un "système émotionnel").
    Reste à déterminer (consensus ?) si une intelligence sans émotions, donc parfaitement prévisible avec les connaissances qu'elle possède en serait une.

    Par ailleurs, notre système social se fonde sur cet ensemble d’interactions (basées sur les émotions) qui sont donc fondamentales dans sa genèse sa conservation et son évolution et si tu modifies ces interactions, tu modifies ce système social et donc la psyché de ses participants (qui se construit dessus pour la plus grande part) au point qu'on risque de ne plus les (se) reconnaitre (en se déplaçant sur le globe et sur un tout autre registre (religieux, par exemple), on trouve des populations (jugées par nous comme) agressives, barbares alors qu'elles ont, de leur point de vue et de leurs références un comportement absolument normal et elles jugent les populations et individus occidentaux au contraire - c'est une divergence de perceptions émotionnelles).
    Il est à noter que les individus, quoiqu'ils fassent, font toujours ce qu'ils jugent le mieux par rapport à leur compréhension du monde et force est de constater que dans une situation donnée, il y a presque autant de comportement que d'individus alors que si on considérait une intelligence qui soit seulement logique, on aurait que quelques comportements stéréotypés (basés sur la logique) qui ne dépendraient que des connaissances factuelles ou scientifiques du sujet.

    Pour se donner une idée de l'importance du versant émotionnel, il suffit de se demander pourquoi on a fait ou pas fait telle ou telle chose et à tel ou tel moment (alimentation, travail, exercice physique, études, travaux divers et ménagers, réponse ou réaction dans des situations données, procrastination, loisirs, etc) alors que "l'intelligence logique" fondée sur les faits objectifs nous donne la conduite à tenir qu'on ne suit pourtant pas.
    Dernière modification par myoper ; 05/10/2015 à 17h48.
    Pangolito et Pangolita sont dans un bateau...

  30. #270
    hlbnet

    Re : Intelligence artificielle (question aux programmeurs).

    Citation Envoyé par myoper Voir le message
    Je ne suis pas en désaccord ; je précise seulement que la discussion se base sur l'intelligence humaine qui comporte (au moins) deux versants: la rigueur, la logique et l'objectivité qu'on va pouvoir même programmer et le versant émotionnel qui sous tend pourtant la plupart de nos actions et réactions (dans lesquelles on trouve par exemple l'agressivité, le sadisme, les désirs, le pouvoir, la peur etc. qui, par construction, n’existeraient donc pas chez une intelligence dépourvue d'émotion et qui ne peuvent être attribués que par une "intelligence" pourvue d'un "système émotionnel").
    Reste à déterminer (consensus ?) si une intelligence sans émotions, donc parfaitement prévisible avec les connaissances qu'elle possède en serait une.

    Par ailleurs, notre système social se fonde sur cet ensemble d’interactions (basées sur les émotions) qui sont donc fondamentales dans sa genèse sa conservation et son évolution et si tu modifies ces interactions, tu modifies ce système social et donc la psyché de ses participants (qui se construit dessus pour la plus grande part) au point qu'on risque de ne plus les (se) reconnaitre (en se déplaçant sur le globe et sur un tout autre registre (religieux, par exemple), on trouve des populations (jugées par nous comme) agressives, barbares alors qu'elles ont, de leur point de vue et de leurs références un comportement absolument normal et elles jugent les populations et individus occidentaux au contraire - c'est une divergence de perceptions émotionnelles).
    Il est à noter que les individus, quoiqu'ils fassent, font toujours ce qu'ils jugent le mieux par rapport à leur compréhension du monde et force est de constater que dans une situation donnée, il y a presque autant de comportement que d'individus alors que si on considérait une intelligence qui soit seulement logique, on aurait que quelques comportements stéréotypés (basés sur la logique) qui ne dépendraient que des connaissances factuelles ou scientifiques du sujet.

    Pour se donner une idée de l'importance du versant émotionnel, il suffit de se demander pourquoi on a fait ou pas fait telle ou telle chose et à tel ou tel moment (alimentation, travail, exercice physique, études, travaux divers et ménagers, réponse ou réaction dans des situations données, procrastination, loisirs, etc) alors que "l'intelligence logique" fondée sur les faits objectifs nous donne la conduite à tenir qu'on ne suit pourtant pas.
    Pour moi, l'intelligence artificielle c'est l'activité d'une machine qui essaie de résoudre des problèmes complexes, comme jouer au jeu d'échec ou chercher un bon chemin au voyageur de commerce. Dès qu'on me sort de ce schéma, je décroche. S'il y a d'autres définitions, je ne les connais pas ou je ne les comprends pas. Ce n'est pas faute de faire des efforts.

    Je précise que, pour autant, je ne considère pas qu'une intelligence artificielle soit prévisible. C'est-à-dire que deux machines déroulant le même algorithme à partir des mêmes données n'aboutiront pas obligatoirement au même résultat. Idem pour la même machine déroulant deux fois un même algorithme à partir des mêmes données. Je n'associe pas intelligence artificielle avec prévisibilité du résultat.

Page 9 sur 11 PremièrePremière 9 DernièreDernière

Discussions similaires

  1. Intelligence artificielle vs intelligence humaine
    Par invitea36fe8cf dans le forum TPE / TIPE et autres travaux
    Réponses: 0
    Dernier message: 25/11/2012, 11h36
  2. Intelligence humaine vs. intelligence artificielle
    Par Sans Nom dans le forum Discussions scientifiques
    Réponses: 449
    Dernier message: 10/04/2012, 15h33
  3. TPE: Intelligence artificielle
    Par I424 dans le forum TPE / TIPE et autres travaux
    Réponses: 0
    Dernier message: 10/10/2011, 09h20
  4. Intelligence artificielle
    Par Fildomen dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 19h30
  5. intelligence artificielle
    Par invite242c100d dans le forum Logiciel - Software - Open Source
    Réponses: 5
    Dernier message: 11/09/2003, 23h16