Intelligence artificielle

Affichage des résultats du sondage: Pensez-vous qu'une intelligence artificielle proche de l'intelligence de l'homme pourrait ressentir

Votants
91. Vous ne pouvez pas participer à ce sondage.
  • Oui

    51 56,04%
  • Non

    34 37,36%
  • Sans opinion

    6 6,59%
Page 1 sur 5 12 3 4 DernièreDernière
Affichage des résultats 1 à 30 sur 121

Intelligence artificielle



  1. #1
    invite68b1fbe7

    Pensez-vous qu'une intelligence artificielle proche de l'intelligence de l'homme pourrait ressentir des sentiments?

    -----

  2. #2
    invitefae0b27c

    Ca me semble un critère indispensable pour parler d'intelligence.

    MKBJ, convaincu (et un peu inquiet) qu'on y parviendra un jour où l'autre.

  3. #3
    invitee369853d

    Surement... quand on aura bien capté toutes les meandres de notre cerveau, et qu'on sera capable de les reproduire en synthetique...

  4. #4
    invitea4a042cf

    quand on aura bien capté toutes les meandres de notre cerveau
    Est-on sûr qu'on en sera capable ?
    Ca rejoint un autre fil : pourra-t-on un jour tout comprendre. Je pensais notamment à notre propre fonctionnement, manière de penser et de ressentir...

  5. A voir en vidéo sur Futura
  6. #5
    kinette

    Bonjour,
    J'ai déjà testé des logiciels de conversation (des logiciels programmés pour discuter avec les gens et faire des réponses cohérentes).
    L'expérience est assez effarante, parce que certains logiciels sont carrément "doués" et on pourrait vraiment croire qu'on discute avec quelqu'un (si parfois il n'y avait pas quelques imperfections).

    Du coup je me pose la question: les machines qu'on construira pourront mimer des émotions, mais à partir de quand pourra-t-on considérer que ce sont des émotions???

    K.aos
    Nomina si nescis, perit et cognito rerum.

  7. #6
    invitea0e2a2c5

    Bien sûr, parce que si cette forme superficielle d'intelligence est proche de l'intelligence de l'homme, je ne vois pas pourquoi ses sentiments ne seraient pas pareils (nos sentiments prennent aussi leur source dans le cerveau même si couramment on parle du coeur!)

  8. #7
    invitefae0b27c

    Citation Envoyé par sai
    Surement... quand on aura bien capté toutes les meandres de notre cerveau, et qu'on sera capable de les reproduire en synthetique...
    Je ne pense pas qu'il soit nécessaire d'attendre d'en arriver là. En donnant à une machine un "corps" pour ressentir le monde extérieur (pourquoi pas internet, qui est une source d'informations quasiment illimitée ?) et la faculté de recevoir, choisir, stocker, analyser, interpréter, apprendre et évoluer. Bien qu'encore rudimentaires, certains programmes sont déjà capables d'apprendre, d'évoluer et de s'adapter à partir de données sur leur environnement. Exemple.

    Cf. : - Le cycle d'Ender, d'Orson Scott Card. Dans un des tomes (je ne sais plus lequel) un des personnages est une intelligence née spontanément dans l'océan d'information d'un gigantesque réseau interplanétaire.
    - Même principe dans the Ghost in the Shell de Shirow Masamune. Le film qui en a été tiré (réal. Oshii Mamoru) est très convaincant.[/url]

  9. #8
    invitea1519de5

    une fois un systeme assez evolué pour eprouver des sensations, des sentiments humains, ceux-ci ne seront que des informations electroniques arrivant au cerveau de la machine qui va par la suite, physiquement, exprimer son emotion. Mais ne somme nous pas nous même des machine ? machine crée par mêre nature, machine crée par l'evolution d'une simple cellule vivante.

  10. #9
    invite67d96d45

    "Pensez-vous qu'une intelligence artificielle proche de l'intelligence de l'homme pourrait ressentir des sentiments?"

    Salut,

    Je crois qu'il faut distinguer:
    >Intelligence
    >Sens
    >Sentiments

    Car ce n'est pas la même chose. En effet, il est trés facile, en éléctronique, de créer des capteurs capable d'évaluer une température(ctn), de voir (caméra), d'entendre (micro), de restituer du son (haut-parleur), de sentir (on commence à créer des capteurs, capable de détceter des gazs de plus en plus variés).

    Mais ce qui est plus difficile c'est de faire le lien entre l'information capté, et l'effet qu'elle va avoir sur l'être humain, en sachant que chaque être humain est différent !

    Car si un capteur détécte une forte chaleur, il faut une "intelligence artificielle" capable de déterminer les effets que cela va produire sur la personne (si on peut dire ainsi !), tout en tenant compte de sa résistance à la chaleur.

    Alors les sentiments, c'est totalement autre chose, car les SENS sont des choses de concrètes (on respire de l'air, on entends du son, etc...), mais pour les sentiments c'est:
    >Abstraits
    >Indépendant de notre volonté

    Prenons l'exemple de l'amour, on ne choisit pas qui on va aimer, et pourtant on aime (je parle, aimer au sens d'aimer LA personne de notre vie ), donc je ne vois vraiment pas comment, dans la pratique, on pourrais faire ressentir à une intelligence artificielle des sentiments !!

    Et si c'est une intelligence artificielle, elle va ressentir des sentiments artificiels !!!!!

    On a 5 sens, et cela, tout le monde en est convaincu, mais on a pas 3 sentiments, ou 10... le nombre de sentiments n'est pas fini, et chaque personne les ressent différements !!!

    Pour finir, je dirais, que j'espère que les IA n'éprouveront jamais de sentiments, car je ne voudrais pas qu'une intelligence artificielle éprouve des sentiments pour moi !!!!!!!!!!!!!!!!!!!!

    Amitiés philosophiques !

  11. #10
    invitefae0b27c

    Citation Envoyé par 14bds75_cb
    Je crois qu'il faut distinguer:
    >Intelligence
    >Sens
    >Sentiments

    Car ce n'est pas la même chose.
    En effet ce n'est pas la même chose, mais c'est indissociable. Pas d'intelligence sans sensation ni sentiment. Ce que tu appelles "intelligence artificielle" dans ton exemple du capteur thermique, je l'appelle "expérience" (confrontation d'une donnée nouvelle avec celles contenues en mémoire) et ça ne suffit pas pour faire une intelligence. C'en est un des ingrédients.

    En fait, tout bien réfléchi, je pense que l'expérience est un élément particulier, parce que c'est un peu le point de départ. Ce sont sa richesse et sa complexité qui aboutiront à la naissance de l'intelligence.


    Citation Envoyé par 14bds75_cb
    chaque être humain est différent !
    Mais qu'est-ce qui nous différencie les uns des autres (intrinsèquement parlant, au niveau de notre personnalité et de notre intelligence) sinon notre expérience ?

    Comme le dit Rictus, l'homme n'est rien d'autre qu'une "machine naturelle". Elle est juste infiniment plus complexe que ce que nous somme capables de construire artificiellement à l'heure actuelle.

    Pour faire un parallèle entre la biologie et la technologie, je crois que la différence entre le comportement-réflexe d'un insecte et l'intelligence humaine est qualitativement la même qu'entre une montre à quartz et un ordinateur. Tout est question de complexité et d'organisation.


    Citation Envoyé par 14bds75_cb
    Pour finir, je dirais, que j'espère que les IA n'éprouveront jamais de sentiments, car je ne voudrais pas qu'une intelligence artificielle éprouve des sentiments pour moi !!!!!!!!!!!!!!!!!!!!
    Tu attaches moins d'importance aux sentiments eux-mêmes qu'à la forme que prend l'intelligence qui te les porte ?


    MKBJ, le robot qui rêvait.

  12. #11
    invited516b136

    Citation Envoyé par rm1
    Pensez-vous qu'une intelligence artificielle proche de l'intelligence de l'homme pourrait ressentir des sentiments?
    Je pense que ca doit etre possible techniquement... parcontre je me demande si c'est vraiment utile?

    La plupart des applications de l'IA concernent des domaines ou les humains sont mediocres (rapidité d'execution, gestion de grandes quantite d'informations, ...), qui voudra investir dans un domaine ou l'humain est tres bon?

    Ben

  13. #12
    invited490d7b4

    je pense que les sentiments aident les choix à faire pour n'importe kel intelligences qu'elle soit artificiel ou non, mais d'un autre point de vue pourkoi en doter l'intelligence artificielle si c'ent pour k'elle facent la même tache ke l'homme !!! (ds ces cas la rien ne nous différencie sur le plan intelligence )

  14. #13
    invitefae0b27c

    Citation Envoyé par Ben
    parcontre je me demande si c'est vraiment utile?
    Oui, pour pallier à toutes les faiblesses de l'être humain.
    Imagine par exemple un vaisseau spatial aussi intelligent que l'équipe de savants qui l'a conçu, mais qui n'aurait pas besoin d'emporter tous les vivres, l'eau, l'air, l'énergie et tous les sytèmes de sécurité nécessaires au transport d'humains dans l'espace.
    De tels engins intelligents seraient très utiles pour explorer sans risque toutes sortes de milieux hostiles à l'homme.
    Dans un domaine moins réjouissant, on peut imaginer des armes intelligentes qui rempliraient le travail ordinairement confié aux soldats sans mettre ceux-ci en danger (du coup on en arrive à des guerres robots contre robots, ce qui devient encore plus absurde ).

    En fait l'intérêt de l'intelligence artificielle ne serait pas l'intelligence elle-même, mais de douer d'intelligence des machines qui n'en ont pas. En pratique (et en résumé) ça reviendrait à copier l'esprit humain pour le mettre dans un corps non humain.


    MKBJ, robocop.

  15. #14
    invited516b136

    Salut M. Kiwi B-J,

    en fait c'est des sentiments que je parlais, je vois tres bien a quoi peut servir l'IA mais les sentiments sont ils vraiment nécéssaires? en quoi est ce qu'ils seront utiles au vaisseau spatial en question?

    Un système expert pourrait deja faire ce genre de travail, non ?

    Ben

  16. #15
    invitefb2fcd53

    Personnellement, je pense que si des sentiments (réels) sont éprouvés par une machine, ce serait plutôt une conséquence pas forcément voulue (mais envisagée) de la création d'une IA relativement évoluée.

    Par "sentiments (réels)", j'entends des sentiments éprouvés spontanément, pas par exemple un programme où toutes les situations auront été programmées, qui dirait "j'éprouve quelque chose" uniquement parce qu'on lui a appris à dire ca dans certaines situations.


    Imaginez par exemple que quelqu'un programme un cerveau (puissance de calcul demandée phénoménale, car il faut gérer les neurones en parallèle, et non linéairement, donc purement hypothétique pour le moment). La machine (un ordinateur) qui le portera pourrait très bien "grandir" telle un être humain, mais doté de facultés supplémentaires (dique dur = information écrite à jamais, au contraire de notre mémoire lacunaire, processeur = calcul mathématique quasi instantané, cerveau informatique = capacité de raisonnement tel un humain). Et qui l'empêcherait donc d'éprouver plus tard des sentiments? Après tout, si cette machine a été programmée comme un cerveau, elle réagit pareil.

    Je ne parle pas ici bien sûr d'autres problèmes : une machine qui grandirait sans contact extérieur ne pourrait forcément jamais acquérir une réelle intelligence, mais on va faire comme si ce problème était résolu...

    Donc ainsi, on aurait bien une IA qui éprouve des "sentiments (réels)", puisque ces comportements n'ont pas été programmés par les inventeurs, mais ils ont été acquis par l'expérience et l'apprentissage...


    Après tout, qu'est-ce qui nous différencie alors de cette machine?
    Si on veut plutôt critiquer sur le point "acquis par l'expérience", alors on peut critiquer les sentiments humains : quand j'avais 2 ans, je ne pouvais pas aimer (au sens avec lequel je l'entends....), et aujourd'hui je peux, c'est donc bien que moi aussi j'ai appris à "aimer" grâce à mon expérience, et surtout, j'ai appris que ce que je ressentais en voyant cette personne qui m'attire, c'était un sentiment, que certains appellent "l'amour".

    Voilà, je vais m'arrêter là, et attendre vos critiques/remarques pour repartir dans mes délirs....

    Goulou

  17. #16
    kinette

    Bonjour Goulou,

    Donc ainsi, on aurait bien une IA qui éprouve des "sentiments (réels)", puisque ces comportements n'ont pas été programmés par les inventeurs, mais ils ont été acquis par l'expérience et l'apprentissage...
    En fait je pense plutôt que le cerveau humain est programmé pour avoir cette évolution vers certains sentiments. Bref il y a une part d'apprentissage mais fortement guidé par des structure préexistantes (sinon tous les humains n'auraient pas à la sortie des composantes invariantes dans les sentiments, cad la capacité de ressentir de la haine dans telle situation, de l'amour dans telle situation, etc...). Les molécules et structures responsables des émotions sont à l'avance "prévues" par le code génétique par exemple.

    Je ne suis pas sûre que les sentiments soient une propriété "émergente" de la simple complexité d'un programme.

    K. haut l'air!
    Nomina si nescis, perit et cognito rerum.

  18. #17
    invitefb2fcd53

    Citation Envoyé par kinette
    Bonjour Goulou,
    En fait je pense plutôt que le cerveau humain est programmé pour avoir cette évolution vers certains sentiments.
    Effectivement, le cerveau humain a une certaine architecture auquel des milliers d'années d'évolution ont abouti (ce cher Darwin....).
    Mais il n'est pas dit qu'elle soit impossible à copier dans un programme capable de gêrer les millions (milliards? je ne sais plus, j'ai oublié ma bio....) de neurones.

    Citation Envoyé par kinette
    Bref il y a une part d'apprentissage mais fortement guidé par des structure préexistantes (sinon tous les humains n'auraient pas à la sortie des composantes invariantes dans les sentiments, cad la capacité de ressentir de la haine dans telle situation, de l'amour dans telle situation, etc...).
    Justement, je pense que certaines personnes peuvent éprouver de la haine dans un cas où une autre éprouve de la compassion...
    Exemple, quelqu'un qui hait les mendiants en voit un, il éprouve de la haine (ca existe....), alors quelqu'un qui n'a pas reçu la même éducation trouvera ca triste, et lui donnera quelque chose...

    Citation Envoyé par kinette
    Les molécules et structures responsables des émotions sont à l'avance "prévues" par le code génétique par exemple.
    Oui, mais à mon avis, pas les situations dans lesquels ils sont déclenchés, qui dépendent plutôt de notre milieu, de l'éducation reçue, de l'état psychologique, etc....

    Citation Envoyé par kinette
    Je ne suis pas sûre que les sentiments soient une propriété "émergente" de la simple complexité d'un programme.

    K. haut l'air!
    Pas forcément de sa complexité, je dirais plutôt de son rapprochement du modèle humain.

  19. #18
    invitefae0b27c

    Salut !

    Kinette, je suis d'accord avec Goulou. Je pense que tu donnes trop de place à la génétique dans ce domaine (mais je suis qui pour oser te dire ça moi ?!!).
    Après tout un ordinateur aussi est constitué d'éléments prédéfinis. Pourtant on peut lui "enseigner" toutes sortes de réactions face aux mêmes stimuli. Tout dépend du programme (son éducation), qui a été déterminé par l'utilisateur (son environnement).

    Une constatation qui me fascine : quelle est la seule différence entre un disque dur vierge, un disque dur plein d'images de manga, et un disque dur plein de jeux ? Rien d'autre que la disposition des particules magnétiques à la surface des disques. Aucune différence de masse ou de composition chimique.
    Je pense que le principe est le même pour le cerveau. Tout est question d'organisation (je l'ai pas déjà dit ça ? ops


    MKBJ, Thufir Hawat.

  20. #19
    invitefb2fcd53

    Citation Envoyé par M. Kiwi Blanc-Jaune
    Salut !

    Kinette, je suis d'accord avec Goulou. Je pense que tu donnes trop de place à la génétique dans ce domaine (mais je suis qui pour oser te dire ça moi ?!!).
    Après tout un ordinateur aussi est constitué d'éléments prédéfinis. Pourtant on peut lui "enseigner" toutes sortes de réactions face aux mêmes stimuli. Tout dépend du programme (son éducation), qui a été déterminé par l'utilisateur (son environnement).
    Je pense quand même que l'architecture de départ a une grande importance : cf l'expérience de je sais plus qui qui a élevé en même temps un singe et un bébé : le singe était très débrouillard au début, mais il n'a jamais réussi à parler, alors que le bébé a mis un peu plus de temps, mais dès qu'il a acquis la parole, il a largué le singe....
    Et pourtant, les deux êtres sont tellement semblables...

    Je pense donc que l'éducation a une très grosse place, mais si j'avais une IA à programmer (comme celle que je décrivais plus tôt), je ne sais pas comment je m'y prendrais pour lui donner une architecture lui permettant de devenir "intelligente".

    Citation Envoyé par M. Kiwi Blanc-Jaune
    Une constatation qui me fascine : quelle est la seule différence entre un disque dur vierge, un disque dur plein d'images de manga, et un disque dur plein de jeux ? Rien d'autre que la disposition des particules magnétiques à la surface des disques. Aucune différence de masse ou de composition chimique.
    Je pense que le principe est le même pour le cerveau. Tout est question d'organisation (je l'ai pas déjà dit ça ? ops
    MKBJ
    Pas tout

    Il y a donc l'organisation de départ (agencement des molécules selon une architecture définie génétiquement, en Aire visuelles primaires, secondaires, cortex, etc etc) et tout ce qui est acquis par l'expérience : les connexions entre les neurones, leur importance, ainsi que la disparition des neurones inactifs.


    Goulou

  21. #20
    kinette

    Hello!

    Salut !

    Kinette, je suis d'accord avec Goulou. Je pense que tu donnes trop de place à la génétique dans ce domaine (mais je suis qui pour oser te dire ça moi ?!!).
    Après tout un ordinateur aussi est constitué d'éléments prédéfinis. Pourtant on peut lui "enseigner" toutes sortes de réactions face aux mêmes stimuli. Tout dépend du programme (son éducation), qui a été déterminé par l'utilisateur (son environnement).
    Je suis d'accord mais dans ce que tu expliques, les sentiments ne seront pas une conséquence vraiment involontaire due à la compexité de ton système, non?
    Ca serait plus une conséquence d'avoir voulu reproduire le type de réaction qu'a un humain (?).

    Je ne donne pas trop d'importance à la génétique je pense... j'expliquais simplement qu'à la base un a une sorte de "préprogramme" qui fait en sorte que les sentiments soient quelque chose qui puisse se développer et apparaître.

    Une constatation qui me fascine : quelle est la seule différence entre un disque dur vierge, un disque dur plein d'images de manga, et un disque dur plein de jeux ? Rien d'autre que la disposition des particules magnétiques à la surface des disques. Aucune différence de masse ou de composition chimique.
    Je pense que le principe est le même pour le cerveau. Tout est question d'organisation (je l'ai pas déjà dit ça ? )
    Ca m'intéresserait que tu expliques un peu mieux...

    Mais en fait je ne suis pas sûre que l'analogie DD/cerveau soit bonne.
    Le cerveau a déjà une architecture "de base" avec des centres qui vont être dédiés à différentes activités, différents niveaux de traitement de l'information. En ce qui concerne la mémoire une chose intéressante est que la mémoire du cerveau est quelque chose de beaucoup plus dynamique qu'un DD (bon j'espère ne pas dire de conneries mais il me semble que la mémoire est pas mal conditionnée par les circuits qui sont le plus souvent activés...).
    Dans un cerveau, il y a par exemple certaines parties qui sont le siège de certaines émotions (c'est assez perturbant de savoir que des personnes qui ont une tumeur à certains niveaux, ou un autre problème qui atteint spécifiquement une zone émotionnelle vont se retrouver avec une personnalité "modifiée", avec des émotions ou traits de caractère exacerbés ou diminués...).

    Bref on est bien peu de choses...

    K.ontrôle...
    Nomina si nescis, perit et cognito rerum.

  22. #21
    invitefae0b27c

    OK pour le rôle de la génétique. Je crois que j'avais mal compris la première fois. Finalement nous sommes d'accord : les neurones du cerveau sont pré-organisés en "équipes" dédiées à des tâches bien définies. Donc l'organisation a son importance. :P
    Je crois moins à cette histoire de pré-programme, mais peut être qu'il faudra que tu me l'expliques plus en détails. Pour moi le pré-programme qui gère l'apprentissage n'est rien d'autre que le fonctionnement du cerveau (d'une manière plutôt que d'une autre) induit par sa propre structure (son organisation !).


    Citation Envoyé par Kinette
    Ca m'intéresserait que tu expliques un peu mieux...
    Ce que je voulais dire, c'est que l'information (et par extension, selon ma conception de la chose, l'intelligence) n'existe pas par elle-même. Elle est impalpable et elle a besoin d'un support matériel pour exister. D'un autre côté, la nature de l'information ne dépend pas de la nature de son support.
    C'est cette idée qui me fascine.


    Citation Envoyé par Kinette
    Ca serait plus une conséquence d'avoir voulu reproduire le type de réaction qu'a un humain (?).
    Ca c'est une question intéressante. J'ai beau me creuser la tête de fond en comble, j'avoue que je n'arrive pas à concevoir une intelligence qui soit fondamentalement différente de l'intelligence humaine. J'en viens à me demander si c'est possible (et ça c'est un scoop !). Dans ma tête ça revient à essayer d'inventer des sentiments qui n'existent pas...
    En fait j'aimerais que tu me dises quelle est ta définition de l'intelligence et si tu penses qu'elle est possible sans sentiments (fallait pas me provoquer ).


    Pour en revenir à mon vaisseau spatial intelligent, je crois que l'utilité d'éventuels sentiments qu'il pourrait ressentir serait tout simplement la bonne marche de sa mission : peur de mourir (l'instinct de survie : éviter de se faire détruire par manque de vigilance ou par imprudence), envie de réussir sa mission au mieux, curiosité face à un élément inconnu d'un intérêt potentiel pour l'humanité qu'il sert, prudence face à ce même élément, faim (s'il est capable de collecter lui-même son carburant)...

    Après tout, nous sommes déjà capable de programmer ces comportements liés à des besoins dans une machine. Le moment où ils s'appelleront des sentiments sera peut-être celui où la machine en aura elle-même conscience.

    Je crois qu'il va être temps que nous nous demandions quel est, de notre point de vue d'êtres vivants, l'intérêt biologique du plaisir, de la douleur, de l'amour...


    MKBJ, qui n'est pas sûr d'avoir envie de démystifier l'amour en répondant à cette question.

  23. #22
    invitefb2fcd53

    Plutôt que de "définir" l'intelligence, je pense qu'il est plus facile d'énnoncer des "comportements" nécessaires à un système dit intelligent.

    -L'un des plus importants selon moi : la faculté d'adaptation : par exemple, dans une fabrique à la chaîne, si un robot voit une pièce qui n'a rien à faire là (par exemple un boulon qui est tombé sur le tapis), il va dire "y a un problème" et va tout arrêter. Un homme qui fait le même travail va voir le boulon, va le prendre, et se dire "il n'a rien à faire là", donc il va appeler le responsable, et expliquer en détail le problème, il va ensuite juger (2e point important) la situation pour décider s'il va continuer ou non son travail plutôt que de tout bloquer.

    -Le jugement (et la capacité de *décision*) : c'est ce qui permet à la machine de s'adapter : elle peut elle-même décider ce qu'elle doit faire.

    -La généralisation : ca s'illustre par un exemple simple (comme souvent dans l'intelligence artificielle, on comprends des comportements à partir de personnes présentant des pathologies du cerveau) : Un jour une personne a eu un accident qui lui a altéré une partie du cerveau (je n'ai plus le bouquin sous la main, je ne peux pas vous dire laquelle), et il avait perdu cette faculté. Par exemple, on lui montrait plusieurs chien, on lui dit "ce sont des chiens". On lui montre ensuite un autre chien, il est incapable de dire que c'est un chien... Par contre, si on lui remontre un chien qui faisait partie de ceux qu'on lui avait montré au départ, il est capable de dire que c'est un chien...
    Cette faculté est pour le moment très complexe à programmer : on arrive par exemple à programmer des réseaux de neurones qui peuvent reconnaitre de manière (presque) sans faute des objets, et peuvent les classer dans des classes d'objet (je n'ai pas d'exemples sous la main, mais ca doit pouvoir se trouver moyennant quelque reflexion à une heure plus raisonnable). Mais si un objet inconnu se présente, la grande question est : le système va-t-il être capable de classer cet objet dans une classe, de manière cohérente avec les autres objets??
    Par exemple : des classe "petit objet", "gros objet", "très gros objet", on "apprends" des formes au réseau : mais subtilement, on lui apprends plus de petits cubes que de petites boules, etc. =>Si on lui présente un gros cube, le système comprendra-t-il que les classes sont des tailles et non des formes?? Va-t-il classer le gros cube dans les gros objets??
    (hé ben voilà, je l'ai trouvé mon exemple.....)


    -La conscience de soi : gros problème.... Est-ce parfaitement nécessaire à un système intelligent? Personnellement, je pense que non...


    J'arrête de réfléchir, si vous voyez d'autres points, n'hésitez pas à les donner (je ne me retiendrai pas non plus....)




    Pour répondre à une autre question de MKBJ (ou plutôt pour faire une objection) :
    Je crois moins à cette histoire de pré-programme, mais peut être qu'il faudra que tu me l'expliques plus en détails.
    Dans le cerveau, ce pré-programme est défini dès la naissance (et même avant), et sa présence n'est plus révocable.
    Cependant, le cerveau lui même s'adapte à son environnement : on a ainsi remarqué (cf S&V hors série sur le cerveau je crois) que chez des personnes aveugles, les aires habituellement affectée à la vue ("aires visuelles", logique....) ont été recyclées, et sont actives lorsque la personne parle ou écoute quelqu'un!!!!
    J'avoue que c'est quelque chose d'assez dingue quand même, et qui montre la complexité de cette machine!!
    De même, des "cobayes" (volontaires) ont eu les yeux bandés pendant une semaine (ca doit être assez marrant à faire, ca), et ben au bout de ce temps, pourtant très court, on a observé le même phénomène!! =>rapidité de réorganisation!

    Ces 2 choses montrent donc bien que l'architecture originelle (originale aussi, certes, mais ce n'est pas le propos (c'était juste pour le jeu de mots....)), aussi importante soit elle, n'est pas immuable....

    En fait, l'organisation de départ n'est qu'une base, il est vrai que sans elle, rien ne peut fonctionner (d'où le retard du singe dans un msg précédent), mais ensuite, c'est comme tout, si ca ne marche pas bien, et si le cerveau arrive quand même à produire un être "intelligent", il s'adapte pour l'être encore plus!



    Goulou, en plein délire, faut pas lui parler d'IA.....

  24. #23
    invitefb2fcd53

    Citation Envoyé par M. Kiwi Blanc-Jaune
    Pour en revenir à mon vaisseau spatial intelligent, je crois que l'utilité d'éventuels sentiments qu'il pourrait ressentir serait tout simplement la bonne marche de sa mission : peur de mourir (l'instinct de survie : éviter de se faire détruire par manque de vigilance ou par imprudence), envie de réussir sa mission au mieux, curiosité face à un élément inconnu d'un intérêt potentiel pour l'humanité qu'il sert, prudence face à ce même élément, faim (s'il est capable de collecter lui-même son carburant)...

    [couic]
    Je crois qu'il va être temps que nous nous demandions quel est, de notre point de vue d'êtres vivants, l'intérêt biologique du plaisir, de la douleur, de l'amour...
    MKBJ
    Mais alors, c'est quoi les sentiments???
    la peur, l'envie, la curiosité, la prudence, la faim, dans quelle mesure sont-ils des sentiments?

    On peut très bien programme cela de manière "systématique" (j'entends pas là la méthode qui consiste à programmer des tas de cas de figure)
    La peur, on peut la définir pour le système comme un état d'alerte à enclencher lorsque la probabilité de "mort" (perte du vaisseau) dépasse une certaine barre.
    L'envie de réussi la mission, inhérente à l'objectif
    La curiosité : contrebalançant les autres paramètres : si la peur n'est pas enclenchée, c'est la curiosité qui domine, donc la poursuite de la mission, jusqu'à ce que la prudence ne craigne un dépassement de ces limites, et ne rende les commandes plus "raisonnables"
    La faim : programmée comme un but parralère à la mission : tant que les reserves sont suffisantes, on continue, si elles s'épuisent, on envisage de s'écarter de la mission pour faire le plein.


    Je crois qu'il va être temps que nous nous demandions quel est, de notre point de vue d'êtres vivants, l'intérêt biologique du plaisir, de la douleur, de l'amour...
    A mon sens, les voilà les sentiments!
    Le plaisir et l'amour sont beaucoup moins définissables : pourquoi l'amour porte sur telle personne et pas telle autre?? Il ne suffit pas de faire un random(humanité) !!

    (je mettrai plutôt la douleur dans la première catégorie)


    Goulou, ca s'arrange pas....

  25. #24
    invite5ef698cd

    Mais en fait quand on aime quelqu'un ne serais-ce pas parce que cette personne , inconsciemment , correspond à notre idéal génétique ?

    En fait, l'être de qui nous sommes amoureux comblerait les "defauts" génétique dont nous sommes victimes où complementerait notre perfection .Donc ce serait une forme d'intelligence génétique inconsciente qui agirait en fonction du milieu de vie présent et qui aussi pourrait être prévisionnel en fonction des informations que nous aurions receuillit et analysées au cour de notre vie.

    La consience du soit est bien assez limité je pense.

    Si c'est le cas l'amour comme tout les autres sentiments pourrait être reproduit.
    Pour reproduire une telle intelligence ,il faudrait travailler en collectivité et rassembler toutes les connaissances déjà disponibles ...C'est pas gagné...

    Je pense aussi que pour arriver à ca il faudrait litteralement "copier " le cerveau humain avec une sorte de scanner et d'utiliser les mêmes matériaux à quelques choses près...Tout commence par une copie...

    La nature n'aurait pas choisie les meilleurs matériaux pour créer la vie et aussi ce que l'on appel l'intelligence ?
    Est-ce possible de créer une vie artificielle humaine et une intelligence humaine artificielle sur un autre support?
    Hum...

    @+


    Tesla

  26. #25
    invitefd5c905b

    Bonjour,
    Citation Envoyé par rictus8D
    Mais ne somme nous pas nous même des machine ? machine crée par mêre nature, machine crée par l'evolution d'une simple cellule vivante.
    Intelligence artificielle, excitant, car tentative de reproduction d'une faculté déjà mise en oeuvre par la nature ? Je ne résiste pas à proposer le rapprochement avec le sujet "A-t-on étudié l'intelligence des cellules" du forum "Biologie".

  27. #26
    invitefb2fcd53

    Citation Envoyé par Tesla
    La nature n'aurait pas choisie les meilleurs matériaux pour créer la vie et aussi ce que l'on appel l'intelligence ?
    Est-ce possible de créer une vie artificielle humaine et une intelligence humaine artificielle sur un autre support?
    Pour la vie, peut-être, mais alors, pourquoi a-t-elle choisi les neurones pour faire du calcul? Ce n'est pourtant pas la meilleure solution....
    Sauf si on considère l'homme comme faisant partie intégrante de la "Nature" (Providence divine, appelez la comme vous voulez : celle qui selon Kant guide nos actions pour aller vers son but), à ce moment là, il a participé à cette évolution et a inventé la puce...

    Goulou

  28. #27
    Invité
    Ce forum est passionnant,bravo,la science évolue ce qui est un bien ou un mal selon les points de vue,la connaissance du cerveau aussi
    Pour moi une intelligence en vase clos évolue peu ou pas,pour évoluer il faut un environnement,càd la nature,les contacts humains avec leurs contradictions, les forums ,la lecture des penseurs et à ce sujet,il y a deux bons quoique un peu anciens:"L'esprit,l'ordinateur et les lois de la physique".(THE Empror's New Mind, cocerning computers...)de Roger Penrose et "Gödel,Escher,Bach"de Douglas Hofstdter,bonne lecture.

  29. #28
    invite09c6c378

    Intéressant tout ce fil... si je peux rajouter...
    Pour qu'une intelligence artificielle puisse éprouver des sentiments... (la palette est large entre le plaisir et la souffrance) il faudra qu'elle s'affranchisse de son créateur et prenne conscience d'elle même... ou alors ce ne seront pas de vrais sentiments... mais des sentiments artificiels... programmés pour atteindre un but particulier ...

    Citation Envoyé par Goulou
    quand j'avais 2 ans, je ne pouvais pas aimer (au sens avec lequel je l'entends....), et aujourd'hui je peux, c'est donc bien que moi aussi j'ai appris à "aimer" grâce à mon expérience, et surtout, j'ai appris que ce que je ressentais en voyant cette personne qui m'attire, c'était un sentiment, que certains appellent "l'amour".
    Non, là je ne suis pas d'accord, on n'apprend rien en amour...

  30. #29
    Eilura'
    Invité
    Je n'ai pas eu le courage de tout lire (j'ai survolé), désolée donc si je répete, mais,
    est-ce que l'on ne connaît pas nos sentiments à travers les sensations qui les acompagnent (coeur qui palpite, transpiration, tremblements)? Je ne crois pas que l'on sait que l'on est amoureux parce le cerveau nous le dit mais parce qu'on sait par instinct que les "maux" auquels on est sujets sont dus à l'amour...
    Or une machine dépourvue de nerfs ne pourra jamais resentir ces "maux" et donc avoir des sentiments.
    D'un autre coté il me semble avoir lu quelque part qu'après des accidents ayant affecté une partie de leur cerveau certaines personnes ne ressentent plus rien face aux événements (attention je ne me souviens plus du tout où j'ai vu ça).
    Je crois en fait que le sentiment est le résultat d'un tas de choses qui ne pourront être reproduites dans leur totalité chez une machine.

  31. #30
    invite9597353e

    Citation Envoyé par Eilura'
    est-ce que l'on ne connaît pas nos sentiments à travers les sensations qui les acompagnent (coeur qui palpite, transpiration, tremblements)? Je ne crois pas que l'on sait que l'on est amoureux parce le cerveau nous le dit mais parce qu'on sait par instinct que les "maux" auquels on est sujets sont dus à l'amour...
    Or une machine dépourvue de nerfs ne pourra jamais resentir ces "maux" et donc avoir des sentiments.
    Ce que tu es en train de dire si je comprend bien c'est que si on est incapable de ressentir les conséquences d'une chose, cette chose n'existe pas? Pas très logique non?
    Curieusement, ma conclusion est la même que la tienne (les robots ne pourront ressentir les même sentiments que nous) mais pour une raison contraire: ils sont à mon avis tout à fait capable de reproduire les ocnséquences, jusqu'aux très poussées ("désir" de voir la personne aimée, ça doit pas être impossible à traduire) mais pas les sentiments eux même, car une IA même très perfectionnée ne peut faire que ce qu'elle a été programmée pour faire, et si il y a bien quelque chose de totalement illogique, irrationnel, incompréhensible, ce sont les sentiments... (enfin c'est mon opinion et elle n'engage que moi...)

Page 1 sur 5 12 3 4 DernièreDernière

Discussions similaires

  1. Intelligence artificielle
    Par inviteec581d0f dans le forum Discussions scientifiques
    Réponses: 454
    Dernier message: 11/07/2007, 22h10
  2. Intelligence Artificielle...
    Par inviteba0a4d6e dans le forum [ARCHIVE] Philosophie
    Réponses: 445
    Dernier message: 06/11/2004, 18h38
  3. Intelligence artificielle
    Par invitec37f3680 dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 20h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 11h01