“I'm smart enough to know that I'm dumb.” Richard Feynman
Toute la culture, qui évolue, joue sur le raisonnement, IA ou pas.Envoyé par ZombiliclasSi on admet que l'environnement d'Einstein est important pour sa découverte, l'intelligence n'est plus la seule variable et tous le raisonnement conduisant à la singularité n'est plus qu'un acte de foi.
Déja, quelle serait la culture AVEC l'IA ?
Je n'en ai aucune idée.
Comment l'IA serait influencé par la culture et qu'apportera-t-elle ?
Je n'en ai aucune idée.
De quelle culture se doterais une IA (imaginons qu'on les place sur une planete, pour voir) ?
Je n'en ai toujours pas la moindre idée.
Peut-être qu'ils seraient totalement insensibles à la vie qui y règne, voir "émerveillés" dans le sens IA (), et feraient leur petit bout de chemin, pour finalement nous retrouver et nous détruire, nous, qui les avons créés aussi imparfaits.
Tres risqué cette affaire quand même.
Une machine, ça peut être dangereux, bien que ce ne soit qu'une machine.
On ne peut pas faire autrement que l'admettre.Si on admet que l'environnement d'Einstein est important pour sa découverte,
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
J'attends alors un exposé plus explicite de ce qu'est cette démarche de singularité car à la lecture des différents partisans de ce concept je suis plutôt perdue dans la diversité parfois contradictoire des propos tenues.
Patrick
Non, ça serait vrai si la singularité c'était je sais tout de l'Univers, de la biologie, de la physique etc....Pour lui c'est l'intelligence qui est la seule variable. Des singes ne découvriraient jamais la relativité générale. Donc la seule donnée pertinente dans la découverte de la RG c'est l'intelligence d'Einstein.
Ca c'est un biais logique classique. C'est un faux raisonnement par l'absurde, il fait comme s'il suffisait d'éliminer une hypothèse absurde pour démontrer son hypothèse.
Si on admet que l'environnement d'Einstein est important pour sa découverte, l'intelligence n'est plus la seule variable et tous le raisonnement conduisant à la singularité n'est plus qu'un acte de foi.
ça n'est pas ça du tout ! Le problème de la singularité c'est l'auto perfectionnement de ses capacités intelligence-conscience.
Si l'on est capable de créer un système conscient égale à l'intelligence humaine c'est qu'on a toutes les lois de bases pour le hardware et le software avec des processus par exemple de nanotechnologie. Donc l'IA va se mettre à réfléchir sur la façon d'utiliser au mieux les connaissance déjà acquises en physique du solide, biologie moléculaire, fabrication de composants avec des machines déjà connues et avec des simulations numériques de matériaux bien au-delà de celle qu'elle connait.
Elle n'a pas besoin de chercher des nouvelles lois physiques profondes et de toute façon elle pense de plus en plus vite pour concevoir les améliorations de ses composants HW et SW.
Ok, ce que dit EY est un ordre de grandeur mais le fait est qu'à chaque incrément l'IA fait de la recherche théorique à un niveau très accéléré y compris sur la façon de fabriquer ses éléments. Donc ça va bien aller en s'accélérant. Mais on est bien d'accord que le raisonnent de EY est une approximation d'une loi avec de multiples variables à prendre en compte.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Quel sont les éléments scientifiques qui permettent de s'assurer un degré de confiance suffisant dans ces présupposés pour engager un investissement de recherche dans ce sens ?
Patrick
De toute façon, imaginons même une technologie pour ordinateur conscient qui double seulement tous les mois du fait des temps de synthèse irréductibles des composants ou des expérimentions réels à faire ( je pense que si un ordinateur est assez puissant pour simuler un cerveau, il est assez puissant pour simuler des puces au silicium ou quantique ou je ne sais quoi d'autre pour voir comment les améliorer et les fabriquer), les capacités de l'IA en question explosent tout de même très vite.Non, ça serait vrai si la singularité c'était je sais tout de l'Univers, de la biologie, de la physique etc....
ça n'est pas ça du tout ! Le problème de la singularité c'est l'auto perfectionnement de ses capacités intelligence-conscience.
Si l'on est capable de créer un système conscient égale à l'intelligence humaine c'est qu'on a toutes les lois de bases pour le hardware et le software avec des processus par exemple de nanotechnologie. Donc l'IA va se mettre à réfléchir sur la façon d'utiliser au mieux les connaissance déjà acquises en physique du solide, biologie moléculaire, fabrication de composants avec des machines déjà connues et avec des simulations numériques de matériaux bien au-delà de celle qu'elle connait.
Elle n'a pas besoin de chercher des nouvelles lois physiques profondes et de toute façon elle pense de plus en plus vite pour concevoir les améliorations de ses composants HW et SW.
Ok, ce que dit EY est un ordre de grandeur mais le fait est qu'à chaque incrément l'IA fait de la recherche théorique à un niveau très accéléré y compris sur la façon de fabriquer ses éléments. Donc ça va bien aller en s'accélérant. Mais on est bien d'accord que le raisonnent de EY est une approximation d'une loi avec de multiples variables à prendre en compte.
“I'm smart enough to know that I'm dumb.” Richard Feynman
“I'm smart enough to know that I'm dumb.” Richard Feynman
Qu'est-ce qu'on appelle singularité ?
A)La création d'une IA plus intelligente que l'humain ?
B)La conséquence selon EY à savoir en un temps fini une augmentation de l'intelligence qui la rend "infinie ou presque" ?
C)La phase de transition ?
Le problème c'est que c'est de cette approximation, qui à mon sens est délirante, que vient la singularité au sens B), qui est le sens dans lequel je la comprends.Ok, ce que dit EY est un ordre de grandeur mais le fait est qu'à chaque incrément l'IA fait de la recherche théorique à un niveau très accéléré y compris sur la façon de fabriquer ses éléments. Donc ça va bien aller en s'accélérant. Mais on est bien d'accord que le raisonnent de EY est une approximation d'une loi avec de multiples variables à prendre en compte.
Si les contraintes sont suffisantes le gain intellectuel n'a que peu d'influence sur le gain intellectuel et il n'y a pas de singularité au sens B)
Et même réfléchir aux conséquence de la singularité au sens A) dépend complètement de ce qu'on croit sur cette approximation...
Pour moi le concept de singularité et sa "fulgurance" tient à qqch comme l'extrapolation d'un taux de fécondité de 2,1 sur 200 000 ans.
Non, la singularité c'est un point ou l'intelligence et la conscience du système sont tellement élevées qu'elles en deviennent incompréhensibles pour un humain et capables de produire des technologies qui nous échappent.
Pour un primate, le premier homo habilis était un point de singularité grosso-modo
“I'm smart enough to know that I'm dumb.” Richard Feynman
Mais doubler tous les mois est-ce bien une hypothèse conservatrice ? Pourquoi n'y aurait-il pas un mur, énergétique, de chaleur, ou de complexification exponentielle du problème d'augmenter l'intelligence ?De toute façon, imaginons même une technologie pour ordinateur conscient qui double seulement tous les mois du fait des temps de synthèse irréductibles des composants ou des expérimentions réels à faire ( je pense que si un ordinateur est assez puissant pour simuler un cerveau, il est assez puissant pour simuler des puces au silicium ou quantique ou je ne sais quoi d'autre pour voir comment les améliorer et les fabriquer), les capacités de l'IA en question explosent tout de même très vite.
Le monde est limité et les boucles de rétroaction positives ont tendance à s'arrêter. La queue des paons ne se mesure pas en kilomètre, la température de Vénus en millions de degrès.
Après je veux envisager une hypothèse de doublement régulier de l'intelligence, mais pour moi c'est vraiment plus qu'hypothétique.
On est d'accord, tout ça ce sont des spéculations genre de celles de Léonard de Vinci ou Tsiolkosky, ou effectivement des alchimistes...Mais doubler tous les mois est-ce bien une hypothèse conservatrice ? Pourquoi n'y aurait-il pas un mur, énergétique, de chaleur, ou de complexification exponentielle du problème d'augmenter l'intelligence ?
Le monde est limité et les boucles de rétroaction positives ont tendance à s'arrêter. La queue des paons ne se mesure pas en kilomètre, la température de Vénus en millions de degrès.
Après je veux envisager une hypothèse de doublement régulier de l'intelligence, mais pour moi c'est vraiment plus qu'hypothétique.
“I'm smart enough to know that I'm dumb.” Richard Feynman
j'ai tout de même un soucis... tu fais bien confiance au résultat produit par une calculatrice non ? et du coup c'est moi qui m'interrogeOui ils sont capables de faire tout ça parce que nous les avons programmés pour. Mais une IA comme celle que vous imaginez, tu crois vraiment qu'elle ne prendrait pas les commandes? Et qui te dit que ça l'intéresserait de continuer à nous aider? Peut-être qu'elle n'en aurait rien à fiche après tout, même si on réussit à lui implanter un esprit humain, puisque ce ne serait pas un être humain.
Non non, moi je ne fais confiance qu'à un être humain bien humain, en chair et en os, si j'ose dire...
cette IA n'est elle pas une calculatrice complexe chargé de résoudre un problème complexe de décision ?
c'est pas du tout impossible, ça n'a juste pas aucune chance de produire un esprit humain, vu que l'esprit humain etait fait pour piloter un corps plongé dans des conditions de vie qui n'ont rien à voir avec le robot.
si tu m'expliques d'abord comment tu vas faire pour guider "par petites touches" l'éducation d'un enfant pour le faire se conduire comme une grenouille, et je pourrais peut etre te répondre ....b) explique-nous en quoi l'évolution est inapplicable si "quelqu'un la guide" par petites touches (genre, un bon gros astéroïde pour relancer l'évolution au bon moment, faire disparaître une forêt pour forcer le retour à la terre, etc...)
peut être que les problèmes complexes ne sont pas que "calculatoires".
sinon, on se marie comme au moyen age , avec "le parti" qui va bien.
on oublie nos émotions, les aleas, notre générosité gratuite, l'amour, .... !
voir tu es coté en bourse à l'age de 5 ans en fonction de ton QI !
et il ne sers plus à rien de rever, puisque tout est programmé.
pour moi , c'est l'arret de l'évolution , tout simplement.
effrayant.
ben ça me pose cette question : comment le cerveau humain prends une décision pour un choix binaire, c'est là où j'ai un soucis, d'autant plus que je réfléchi dans un contexte de libre arbitrepeut être que les problèmes complexes ne sont pas que "calculatoires".
sinon, on se marie comme au moyen age , avec "le parti" qui va bien.
on oublie nos émotions, les aleas, notre générosité gratuite, l'amour, .... !
voir tu es coté en bourse à l'age de 5 ans en fonction de ton QI !
et il ne sers plus à rien de rever, puisque tout est programmé.
pour moi , c'est l'arret de l'évolution , tout simplement.
effrayant.
Dernière modification par xxxxxxxx ; 25/08/2011 à 02h04.
En ce qui concerne les choix réfléchis, il me semble que c'est souvent en essayant d'envisager les conséquences de la décision puis en jugeant subjectivement de ces conséquences
une IA ou humaine ne devrait elle pas être plutot objective pour mesurer les conséquences ?
le hic c'est qu'on va vite tomber sur des conflits type "mon objectivité est meilleure que la tienne"
Dernière modification par xxxxxxxx ; 25/08/2011 à 02h17.
Pour ma part le hic c'est de parler de ce genre de question alors que l'humanité na qu'une intuition de ce que certain termes sinifie comme;
-l'intelligence
-le temps
-l'information
et non pas un système formel pour les définir rigoureusement!!
donc oui!! nous somme face a un problème d’objectivités si nous voulons débattre "rigoureusement" de la situation.
mais on peu voire la singularité comme une suite logique de la théorie de l’évolution de Darwin dans le sens ou un jour,
il existera un être(une intelligence) singulier(e) fruit de la technologie mais surtout d'un "coup de chance" qui serra plus apte a "comprendre le monde" que l’homo sapiens sapiens.
maintenant question suivante , est il possible de dépasser l'homme et sont outils alors que l'homme peu relier n'importe quelles conséquences a n'importe quelle cause(d’ailleurs énormément d'homme sont considérer comme fou car il le font de manière irréaliste) et que l'outil de l'homme peut interagir avec tous se que l'homme connais (car l'homme découvre avec ses outils)
cela en gardant a l'esprit que le produit de la technologie est un outil de l'homme.
Ben oui, on l'a programmée NOUS pour ça, et ce qu'elle a à faire est basique quand même. Pas de décision fondamentale, non?tu fais bien confiance au résultat produit par une calculatrice non ?
Ouh là... désolée, mais là on entre dans un domaine qui dépasse DE TRES LOIN mes capacités intellectuelles, je vais vous laisser en discuter avec la première IA que ces messieurs vont bien finir par nous pondre!cette IA n'est elle pas une calculatrice complexe chargé de résoudre un problème complexe de décision ?
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Bon c'est dit de façon un peu brutale (et un tantinet exagérée quand même, hein ), mais je suis en gros de son avis. (tu veux la batte de Richard pour nous remettre les idées en place, Laurent? )peut être que les problèmes complexes ne sont pas que "calculatoires".
sinon, on se marie comme au moyen age , avec "le parti" qui va bien.
on oublie nos émotions, les aleas, notre générosité gratuite, l'amour, .... !
voir tu es coté en bourse à l'age de 5 ans en fonction de ton QI !
et il ne sers plus à rien de rever, puisque tout est programmé.
pour moi , c'est l'arret de l'évolution , tout simplement.
effrayant.
Ansset et moi on va fonder le parti des rétrogrades anti-singularité! Qui c'est qui vient?
p.s : pour ceux qui ne connaissent pas la batte de Richard:
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
qui te dit qu'on n'est pas en train de la pondre avec des serveurs web qui ont une mémoire des capacités de calculs et des algos pour faire des choix et un tri dans l'information pour proposer ce qu'elle pense être sa meilleure solution (donc faire des choix) à l'homme
bon j'avoue que j'exagère, surtout pour quelqu'un qui y a pas un jour voyait en L'IA , l'homme tout simplement (et la femme pour pas m'attirer leur foudres ^^)
Dernière modification par xxxxxxxx ; 25/08/2011 à 07h26.
Non mais c'est bon...ça ira.(et la femme pour pas m'attirer leur foudres ^^)
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Il nous manque une inconnu de taille la compréhension du passage de l'inerte au vivant dans lequel est certainement inclus des formes d'intelligences du vivant et la conscience.
Nous avons actuellement le carbone + une inconnue on ne pourra pas construire avec HW + SW un équivalent évoluant vers plus d'intelligence et un meilleur contrôle de soi sans avoir dévoilé au préalable le mystère de cette inconnue.
Patrick
Ca tombe bien, fabriquer un esprit humain n'est pas le sujet de ce fil.
Prière d'arrêter avec ce Hors Sujet.
Pour Albert d'accord, mais si tu lâche son frère Frank, il sera plus doué que les indiens du coin qui ont une frousse bleu du jaguar.Mais pas d'accord! Comment peux-tu savoir si une forme d'intelligence qui sera différente, obligatoirement, puisque ce ne sera pas nous, sera apte à résoudre des problèmes pareils qui nous sont propres? Enfin quoi! Tu lâches Einstein dans la forêt pluviale amazonienne, il sera moins doué pour sa survie que n'importe quel indien du coin, et moins apte à résoudre les problèmes qui vont se poser à lui dans ces circonstances!
Frank lui, pas du tout.
Et les futurs IA seront justement une sorte de FRANK!