Oui, bien sur. En fait ma question ne portait pas sur le fonctionnement, mais sur l'origine : Pourquoi ressent-on du plaisir à manger, à caliner sa douce, ou à vivre dans les conditions de confort que l'on désire, et pourquoi ne ressent-on pas de plaisir quand on s'arrache un bras ou quand on a la grippe ? Ces phénomènes biochimiques sont bien présents parce qu'ils encouragent des comportements bénéfiques pour survivre et assurer la survie de sa descendance, c'est à dire pour passer au travers des mailles du filet de l'évolution. Tout ce que l'on considère comme agréable et désagréable n'est qu'une conséquence de ce que nos instincts nous dictent de faire parce que c'est ce qui a permis à toute notre ascendance de nous faire exister. Comme on fait évoluer l'IA pour nous être utile, les critères d'évolution par sélection artificielle sont tout autres, et il me parait donc logique qu'une IA ressente l'équivalent de notre plaisir quand elle se montre utile et dévouée à l'Homme.Envoyé par uinet_propane
Je pense que je comprends bien ton raisonnement, et il me semble tout à fait cohérent. La seule chose qui ne me convient pas se situe à la base. Tu sembles considérer l'IA comme une forme d'intelligence qui se serait développée de par elle-même, et sur laquelle l'Homme n'aurait a priori aucun droit. Moi je pars du principe que l'on développe l'IA pour nous être utile, et que ça sera par conséquent son unique objectif. Il ne s'agit pas d'une quelconque forme de ségrégation, mais simplement d'un rôle différent. Je pense que ton propos (désolé de multiplier les allegories) reviendrait à considérer que les femmes subissent une ségrégation par rapport aux hommes (hum... je ne parle pas de la réelle ségrégation misogyne, qui n'a pas encore disparue il me semble) du fait qu'elles sont obligées d'assumer les rêgles, et de porter les enfants. Ca fait partie de leur nature, et même si c'est une épreuve douloureuse elle est quand même très motivante pour la plupart. Celles qui y renoncent ne propagent pas leur patrimoine génétique, et dans l'ensemble elles continuent donc d'assumer ce rôle sans le considérer comme une privation de liberté ou comme un esclavage.J'ai de la peine a voir ce qui différencie un homme d'un ETI ou d'une IA. Quant je reflechit a ces elements, je me place dans un angle de vue scientifique opposé a la religion. Pendant des millenaire, les hommes on cru qu'ils était les seul a etre intelligent. Puis est venu une histoire sur l'origine de la vie (la genese). Petit a petit, les sciences on permit d'explorer ces aspect pour finalement arrivé a la conclusion (pt etre un peu rapide, mais correct, il me semble) que la vie avait une origine tout ce qu'il y a de plus cartesienne (acide aminé dans l'espace, ensemmencement par des cometes, je fais court, parce que ce n'est pas le sujet). A chaque etat, l'homme a toujours chercher un element qui lui permettrait de se placer a part des autres forme de vie. On as eu Dieu, la conscience, l'ame, l'etincelle d'intelligence, etc... Je doit preciser que je ne croit pas a l'ame (ce qui peut expliquer certaine chose).
Enfin bref, tout ca pour arrivé a la conclusion qu'il n'y a pas de différence objective entre ETI et humain (et si on est correct du point de vue theologique, un ETI n'est pas une creature de Dieu, mais autre chose). Et si on parle d'IA, donc d'intelligence comme celle de l'homme ou d'hypothetique ETI, alors je ne vois pas pour quel raison on jugerais une IA différemment des autre forme d'intelligence. Si on fais ca, ca signifie qu'on fais de la segregation, du racisme basé sur un critère non-controlable, le code machine (code assembleur ou reseau de neurone).A mon avis, pas du tout. A mon sens la seule motivation d'une IA est d'accomplir sa tâche, tout comme l'Homme. Mais cette tâche n'est tout simplement pas la même, et il n'y a aucune raison pour qu'une IA ne se satisfasse pas d'une situation qui serait pour un humain de l'esclavage.(..)L'IA qui serais au service des hommes (donc une esclave) sera dans la meme situation intellectuel.Je suis d'accord. Et donc, si on laisse l'IA développer un intérêt propre distinct de celui de l'être humain, on crée simplement un parasite qui va pomper nos ressources énergétiques pour, à terme, ne plus rien nous apporter. Le parasitage sera donc mutuel, et donc... nous sommes morts.Et comme je l'ai mis plus haut, une IA a un potentiel de destruction bien superieur a l'homme. Rien qu'en pratiquant le piratage informatique (et je pense que les meilleurs hacker seront des IA, dans le futur).Oui, et toujours dans un but qui a un intérêt, en terme d'espèce, d'entourage, ou simplement de menace. Le tout est une question de balance de priorités, et le sacrifice personnel est tout à fait compréhensible. Mais comme toujours, il entre dans le cadre des priorités propres à l'être humain.Cet exemple demontre une chose, qu'une intelligence peut aller a l'encontre de ses instinct animale, simplement a cause d'un interet intellectuel (une personne trouvera plus d'interet a faire une greve de la faim que de manger, simplement parce que ca lui permet d'avoir une "force moral" plus elevé que son adversaire).Tu soulignes là le point crucial : l'IA n'a aucune raison d'avoir un objectif personnel distinct de celui de l'être humain.Je ne suis pas d'accord. Pour une IA comme une IB (d'ailleurs, ca ne touche pas que les I), il y a certain imperatif commun :
La recherche d'energie
Le maintient de l'integrité physique
La realisation d'objectif personnel (dicté par les instinct ou par l'intelligence)Alors tu peux essayer de continuer dans cette voie, et d'aller encore plus loin : les notions de liberté, d'accomplissement personnel et tout ça, sont purement des notions liées à l'intelligence humaine (ou biologique). L'IA a d'autres priorités.Et ca, c'est pas l'homme ou Dieu qui la decidé, mais l'univers physique dans lequel on vis. Il faut séparer la forme (batterie, decomposition chimique, conversion solaire - electrique) et le fond (avoir de l'energie). Une IA pourra utilisé une autre forme d'energie, mais elle utilisera de l'energie. Et parce qu'elle utilisera de l'energie, certain contrainte sont donc commune. Et c'est la dessus qu'on peut s'appuyé pour developper un moteur.
Effectivement, je ne me sépare jamais du modele biologique. Par contre, j'essaye de faire abstraction le plus possible de mon "humanité" pour ne garder que les imperatif biologique.Aïe, sujet piquant sur lequel je ne vais pas te suivre : je ne sais pas ce qu'est le libre arbitre (ce n'est pas une demande d'explication)Le fait de chercher a s'emancipé ou non n'as rien a voir. L'important pour l'IA, c'est le libre arbitre.Tu te doutes bien que l'idée même de donner un territoire aux IA est pour moi absolument absurde.Comme je l'ai mis dans l'autre fil, si on imagine donner un territoire aux IA, elles pourront y dicté leur lois. Si un humain va dans ce pays (matrixland), il devra se soumettre aux lois en vigeur. Si une IA viens dans un pays d'homme, elle devra se soumettre aussi. Mais si on leur laisse pas le choix, c'est comme acculé un homme contre le mur. Et en general, ca fini mal ce genre de situation. Je ne suis pas contre une forme d'esclavage, mais pas imposée. De tout facon, nous aussi on est esclave, puisque aujourd'hui pour vivre, on doit vendre sa force de travail. Mais c'est de l'esclavagisme legal, parce qu'on est tous d'accord de vivre comme ca. Si on impose une solution aux IA, il faudra s'attendre a ce qu'elles refuse, et c'est legitime. C'est la meme chose avec les humains.
J'ai bien compris que c'était le fond de ta pensée. Ma question est : pourquoi ?Et je le repete, on ne peut pas faire 2 poids 2 mesure pour les forme de vie intelligente (ce qui englobe les forme de vie terrestre, artificielle et extraterrestre).
-----




