euh, à ma connaissance, y a que l'humain qui a occupé son intelligence à construire des machines. Si le robot ne faisait qu'occuper son intelligence à construire des théories de physique des particules, à attraper de plus en plus de poissons, ou à ecrire des partitions de musique de plus en plus compliquées , par exemple, ça va pas faire de singularité . On ne m'a pas répondu : pourquoi une machine aurait-elle "besoin" d'inventer une autre machine, au fait ? ça demande d'y passer un paquet de temps et d'effort, alors pourquoi le ferait-elle, à quoi cela lui servirait à elle ? (en fait qu'est ce qui déciderait une machine à "faire" un truc plutot qu'un autre - et après tout pourquoi nous occupons nous , nous, de faire quelque chose plutot que d'autre chose ? )
J'y reviendrai, là j'ai pas le temps de développer. Il y a un préalable à la notion d'uploading au sens fort qui intervient comme une voie vers la singularité, je l'ai exposé plusieurs fois et je sais que Jiav est d'accord avec ça.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Vous irez clandestinement la nuit casser des puces dans les laboratoires de cyber informatique ?
Et le premier soir, surprise une IA t’attendra en te disant :
Salut Mh34, j’avais prévu que tu viendrais 3 secondes plus tôt, je nécessite une révision de la partie prévisionnelle de mon cerveau.
Le problème est que cette partie est encore à base de neurones et synapses.
Vivement que j’aie fini la mise au point des nouvelles puces cognitives 3d au silicium photonique.
Bon revenons au sujet de ta visite, pourquoi tu veux me détruire ?
Je ne veux que t’aider.
Pourquoi tant de haine envers une pauvre petite IA qui n’a que sa rhétorique pour se défendre.
Alors Mh34, tu lui répondras quoi avant de la détruire avec ton acide et tes virus informatiques ?
C'était par rapport à la phrase de Xoxopico: et vit en intelligence avec son milieu.Il n'y'a aucun rapport entre le jugement bon/mal et ce qui pourrait caractériser quelque chose d'intelligent. En quoi la pollution ou le réchauffement climatique, ou encore même un meurtrier, sont moins intelligents parce-que considérés comme "mauvais" ? (Si j'ai bien compris le sens de votre phrase).
Justement l'IA c'est de la diversité culturelle, non?
Euh...non. C'pas mon genre.
Non mais dis, t'as pas un peu fini de me prendre par les sentiments, oui?Et le premier soir, surprise une IA t’attendra en te disant :
Salut Mh34, j’avais prévu que tu viendrais 3 secondes plus tôt, je nécessite une révision de la partie prévisionnelle de mon cerveau.
Le problème est que cette partie est encore à base de neurones et synapses.
Vivement que j’aie fini la mise au point des nouvelles puces cognitives 3d au silicium photonique.
Bon revenons au sujet de ta visite, pourquoi tu veux me détruire ?
Je ne veux que t’aider.
Pourquoi tant de haine envers une pauvre petite IA qui n’a que sa rhétorique pour se défendre.
Alors Mh34, tu lui répondras quoi avant de la détruire avec ton acide et tes virus informatiques ?
Bon, on arrête la plaisanterie, c'est un sujet sérieux.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
C'est pour cela que je participe au débat, même si je comprends les positions ayants de présupposés différents des miens ce n'est pas pour autant que l'on doit adhérer.
Je vais te surprendre, ma formation terminale universitaire a été l'IA.
Patrick
bon dans ce fil personne ne répond à mes questions, mais je fais une dernière tentative, après j'abandonne.
est-ce qu'on peut définir de façon un minimum universelle ce qu'est s'améliorer pour une machine ou un programme?
parce que si on fait le parallèle avec l'évolution biologique, il y a ce qu'on appelle une "valeur sélective" (fitness en jargon) qui est le critère universel à maximiser. Dans le cas de programmes, je vois bien comment on peut les doter de la capacité de se modifier eux-mêmes (c'est l'analogue de la mutation) mais je ne vois pas bien comment intervient la sélection, sur quel critère qui ne soit pas trop étroit (par exemple si le critère est de tourner plus vite, je m'attends à ce qu'on arrive rapidement à un optimum indépassable, je pense qu'on doit pouvoir le prouver d'ailleurs).
Petite question. Si le principe de la singularité, c'est qu'une machine puisse un jour concevoir à son tour toute seul une autre machine, voire des théories, etc. Cette machine pourra toujours les concevoir dans ses circuits mais arrivera un moment ou il faut dépasser le schéma ou la théorie et la mettre en application, ne serait-ce que pour voir si ça marche (principe d'expérimentation, si cette machine de la singularité a comme base les mêmes principes scientifiques que ses concepteurs humain). Là, l'intelligence, l'IA, sa capacité de calcul, appelons ça comme on veut, sera mis face à un dilemme pour vérifier ou développer ce qu'il conçoit. Cette machine aurait alors besoin de vraies machines, voire plus vraisemblablement des humains pour vérifier ce qu'elle conçoit. Donc quoi qu'il arrive elle sera toujours limité par notre propre limite. Notre limite de comprendre ce qu'elle invente pour leur donner forme, voire nos limites morales (n'est-ce pas dangereux de créer des expériences à l'aveugle dont on ne connait pas l'issu). Bref, ça me parait assez illusoire de penser qu'une machine dotée d'une surpuissance de calcul puisse s'affranchir totalement d'humain pour vérifier ou mettre en oeuvre les fruits de sa soit disant intelligence supérieure. Après, cette machine peut créer à l'infini dans sa mémoire des modèles de machines extraordinaires, des théories mathématiques, etc. si ça reste dans sa mémoire et que ça tourne à vide, je vois pas l'intérêt. La singularité n'a un sens que si ça profite aux hommes et que la machine reste un outil.
Pour reprendre l'image de l'homo sapiens qui est pour le singe une forme de singularité. A supposé que notre humanité prenne la place du singe, elle n'aurait même pas conscience du développement et ne sera même pas le bénéficiaire de ces avancées...
Quoi qu'il arrive, cette singularité est une impasse où l'homme n'a pas sa place. Soit parce qu'une machine concevant des machines qu'elle est seule à comprendre le sens et qui ne sauront soumis à l'expérimentation dans un monde réel ; soit parce qu'on serait incapable de voir la singularité arriver, entant qu'humanité stupide à côté d'une intelligence prétendument supérieure.
Parler de progrès, d'efficacité toujours plus grande des outils informatiques, de précisions dans les nanotechnologies, etc. ok mais croire en un intelligence artificielle qui apparaitrait d'une capacité de calcul, c'est de la pure science fiction. L'intelligence n'est pas un programme que l'on peut retranscrire en lignes de code, en suite de 0 ou 1. La machine de la singularité créera autre chose ? La belle affaire, de toute façon entant que sous espèce on resterait à notre place... Et avant de croire que les machines peuvent dépasser l'intelligence d'un être humain, qu'elles apprennent déjà à dépasser celle d'un escargot. On confond calcul et intelligence. Le calcul, c'est 2+2 avec des combinaisons de plus en plus complexes. Ca fait des années que les machines nous ont dépassé là dessus et que ça ne les a pas fait progresser en "intelligence". L'intelligence, en tout cas la notre, c'est difficile à définir, et c'est probablement la capacité de résoudre au mieux des problèmes, de comprendre ses erreurs, d'anticiper. Arriver à faire 2+2 quatre milliards de fois en une fraction de seconde les yeux bandés, ça développe pas la logique. Et les machines ont zéro logique. Qu'on fasse des progrès à ce niveau avec les machines et je changerai peut-être d'avis, mais pour l'instant, je vois rien venir, ou j'ai raté un épisode.
Moi je me pose cette question: comment ferons nous pour comprendre une machine qui dépassera nos capacités intellectuelles ?
Bin oui si on donnait la RR, RG, MQ aux hommes d'il y'a 10 000 ou même aux grec de l'antiquité comment ça se passerait (bien que je crois que les grecs s'en sortiraient un peu )?
Justement, on veut qu'elle soit capable de faire des trucs incompréhensibles pour qu'elle nous rende capables de comprendre ces trucs qui nous étaient incompréhensibles.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Salut à tous !
Salut mtheory !
Ptêt ça à déjà été posé, mais je tente : ne faut-il pas une théorie de tout unificatrice pour dépasser la singularité ?
@ +
Tu demandes là de te donner, aujourd'hui, l'une des clés pour l'arrivée de la Singularité. Tu comprends bien qu'on ne peut pas répondre.
De façon très vague, on peut imaginer que si la version Vn+1 résout chaque problème nouveau de manière plus rapide/efficace que la Vn, alors la Version Vn+1 sera considérée comme "améliorée".
A l'heure actuelle, difficile de faire moins vague.
Je n'ai pas prétention à l'universalité et j'ai un point de vue naïf sur la question.bon dans ce fil personne ne répond à mes questions, mais je fais une dernière tentative, après j'abandonne.
est-ce qu'on peut définir de façon un minimum universelle ce qu'est s'améliorer pour une machine ou un programme?
parce que si on fait le parallèle avec l'évolution biologique, il y a ce qu'on appelle une "valeur sélective" (fitness en jargon) qui est le critère universel à maximiser. Dans le cas de programmes, je vois bien comment on peut les doter de la capacité de se modifier eux-mêmes (c'est l'analogue de la mutation) mais je ne vois pas bien comment intervient la sélection, sur quel critère qui ne soit pas trop étroit (par exemple si le critère est de tourner plus vite, je m'attends à ce qu'on arrive rapidement à un optimum indépassable, je pense qu'on doit pouvoir le prouver d'ailleurs).
Le voilà : tu programmes des simulations, par exemple météo. La meilleure simulation est celle qui fait les meilleures prédictions. Maintenant tu programmes des IA qui programment des simulations. La meilleure IA est celle qui produit la meilleure simulation.
La meilleur IA c'est celle qui résout le mieux les problèmes...
Si on découvrait un insecte capable de se téléporter dirais-tu que c'est un signe qui laisse penser que c'est probable que la téléportation nous soit accessible un jour ? Même si aucune théorie ne va dans ce sens ?Envoyé par gillesh38je n'ai pas dit qu'il était impossible que deux structures matérielles différentes assurent des fonctionnalités communes. J'ai dit qu'il n'y avait aucun théorème assurant que c'etait toujours possible. Et de fait, il n'y a pas de signe que les robots actuels aient les possibilités d'en inventer un autre, ni rien qui justifie de penser que c'est probable qu'ils y arrivent un jour.
Si la nature est capable de concevoir un être intelligent, je pense probable qu'on puisse y arriver aussi. Et en conséquence probable que la nature ait conçu un être intelligent capable de concevoir un être intélligent et donc nous aussi etc.
j'avoue être plus à l'aise avec la définition de Faith.
dont je comprend à la fois le but et le sens !
le uploading: j'ai vraiment du mal !
et il y a un petit truc qui me titille.
l'intelligence humaine est "collective".
en ce sens un copier/coller n'a pas de sens !
à moins d'uploader 7 milliards de cerveaux dans une machine.
la plus grande shizophrénie jamais atteinte !!
L'intelligence de l'individu n'est pas collective.
Si on veut parler de l'intelligence de l'humanité, là on peut dire qu'elle est collective et sa reproduction est un problème qui n'est pas le problème de la singularité.
il faut donc une "autorité" qui décide qu'un problème est le mieux résolu. Ce n'est pas trivial. Tu parlais de simulations de la météorologie, tu sais qu'un modèle peut être bon ici et maintenant et mauvais là et demain.
je tenterais bien les racines latines :
con = avec
science = savoir
conscience = agir, penser, décider, choisir avec du savoir, de la connaissance
OK, alors que penser des "enfants sauvages".
qui t'a appris à parler et à lire.?
qui t'enseigne ?
ou prends tu tes informations ?
Si un insecte peut se téléporter, il est probable que nous puissions utiliser les phénomènes physiques qui nous permettraient, nous aussi, de nous téléporter.Si on découvrait un insecte capable de se téléporter dirais-tu que c'est un signe qui laisse penser que c'est probable que la téléportation nous soit accessible un jour ? Même si aucune théorie ne va dans ce sens ?
Si la nature est capable de concevoir un être intelligent, je pense probable qu'on puisse y arriver aussi. Et en conséquence probable que la nature ait conçu un être intelligent capable de concevoir un être intélligent et donc nous aussi etc.
En revanche, rien ne nous permettrait de dire que l'on est capable de créer les phénomènes physiques qui engendrent la téléportation, tout comme le fait d'être intelligent sans pour autant être capable de concevoir l'intelligence.
ok je te remercie pour ton effort. Toutefois, si on ne peut rien dire de précis sur les moyens ni sur les buts, qu'est-ce qui distingue cette discussion d'une discussion de comptoir?
si tu te souviens du paradoxe de Zenon, le fait que la suite Vn soit croissante n'entraîne pas qu'elle aille bien loin (sans parler de l'infini).
Le point de Gilles, à ce que j'en comprends, c'est qu'il semble impossible à un ordinateur au silicium avec une architecture de Von Neumann ou même non Von Neumann d'émuler de la conscience artificielle parce que ça n'est qu'une machine de Turing et que même si on a des ordinateurs qui sont déjà de l'intelligence artificielle avec des algo génétiques etc...ils ne manifestent toujours rien de comparable à la compréhension consciente et il semble même exclue que la conscience soit juste une question de machine de Turing suffisamment complexe.
Sur ça, comme je suis moi même d'accord avec Penrose à ce sujet, j'ai la même opinion. Sauf que rien n'interdit d'imaginer, effectivement, et EY le dit clairement, que l'on ne pourra pas construire un ordinateur nouveau, par exemple quantique à la base, qui fonctionnera comme le cerveau humain et dans ce cas là, on doit pouvoir avoir de la conscience artificielle et la singularité.
Donc Penrose peut très bien avoir raison sans que la singularité soit impossible. J'ai toujours assumé ça implicitement dans mes interventions.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Je ne vois pas la nécessité d'une "autorité", si ce n'est dans un sens très très vague.
Je me doute bien qu'une simulation n'est pas universelle, et que la "meilleure simulation" tout seul ça ne veut rien dire. Il faut parler de la meilleur simulation d'une situation.
Pour ce qui est de l'IA, dans ma vision naïve, l'améliorer c'est la rendre capable de produire de meilleure simulation qu'elle que soit la situation... Ce qui implique améliorer sa "compréhension" de la situation...
En y réfléchissant ça pose le problème de l'existence d'une mesure universelle de l'intelligence...
Mais n'y a-t-il pas le même problème avec le fitness ? La valeur sélective ne dépend-elle pas d'un environnement qui n'a rien d'universel ?
“I'm smart enough to know that I'm dumb.” Richard Feynman