Idem. Si l'on entend bien le "A" de IA – c'est-à-dire une forme d'intelligence qui ne sera pas la réplication d'une intelligence humaine (ou animale quelconque), mais qui sera probablement familière à certains traits cognitifs humains.
en fait c'est un peu ce que je voulais dire en disant qu'on "extrapole zéro". Extrapoler zéro ne veut pas dire que c'est impossible, ni que c'est possible : ce n'est pas parce qu'il n'y avait pas de voitures au néolithique qu'il ne pouvait pas y en avoir. C'est juste qu'on ne peut pas raisonnablement prévoir la voiture à partir de l'extrapolation du néolithique - c'est la présentation du raisonnement à partir de l'extrapolation de ce que sont les robots actuels qui me parait injustifiée.
Pour moi, de plus, il manquera toujours l'aspect psychique indispensable au processus d'assimilation et d'accommodation permettant de construire de nouvelle connaissance, c'est à dire le sujet conscient de soi.
il pourra y avoir une conformité à une certaine définition de l'intelligence, mais qui ne sera pas couvrante de l'ensemble des formes d'intelligences humaines.
Patrick
Quoi, quoi, quoi tu tapes encore avec les doigts sur un clavier.
ça fait 10 ans que je parle à mon "PC amélioré".
Tu connais pas "dragon point and speak" ?
Oui, absolument, mais l'eugénisme des alpages de Fmurr, qui est la bd la plus géniale du millénaire !
http://www.google.ch/search?q=le+g%C...w=1006&bih=586
Un expert en IA me balancerait une telle affirmation, je le trouverais un peu trop catégorique, mais son avis pèserait.
Mais quand un mec qui n'a jamais touché à un algo d'IA balance ça, je ris à gorge déployée
Pas bien sur qu'il y ait une version Linux, mais je vais voir ça
Reste à voir ce que ça donne pour coder... Merci en tout cas, c'est vrai que cette techno m'était sortie de l'esprit (après de nombreux tests peu concluants il y a une dizaine d'années)
Pour moi l'intelligence entraine forcément la conscience de soi, non ?
Ces futurs IA peuvent aussi ouvrir la porte à de nouvelles formes d'intelligence qui nous dépasserons complètement.
Mais faire une IA pour imiter l'homme ne sert à rien, puisque justement l'homme est là.
Les futurs IA seront faites pour aller bien plus loin dans le pouvoir d'abstraction !
Désolé mais pour moi, vous extrapolez complètement dragounet et rentrez dans le domaine de la SF, quand même.
De plus, créer quelque chose qui nous dépasse ? Ca revient à créer quelque chose qu'on ne connait pas, non ? Comment fait on ça ???
Ces futures IA raisonneront elles dans un univers à 50 dimensions ? Super mais quel en serait alors l'intérêt ?
Imiter l'homme a de gros intérêts pour envoyer ces IA là où l'homme ne peut aller sans prendre d'énormes risques (espace, coeur d'une centrale nucléaire, et la liste peut s'allonger). Enfin gros intérêts financiers je veux dire, et c'est quand même pratique d'avoir des gens qui vous financent pour développer quelque chose.
Pas besoin d'un sonar artificiel. Tu peux en faire un avec ta langue : http://www.pourlascience.fr/ewb_page...gles-27193.phpc'est donc le corps qui fait le boulot, pas la prothèse. La prothèse émule des organes sensitifs, elle n'émule pas du tout les sens ! le sens est déjà dans le cerveau - sinon essaye de greffer un sens du sonar de la chauve souris chez un humain - suffit d'interfacer un récepteur aux ultrasons avec le cerveau, tu crois ?
C'est une croyance qui montre un pessimisme vis à vis du potentiel d'évolution de l'humain en s'inventant un super humain. Une fuite en avant pour masquer certaines des angoisses sur la non maîtrise d'un devenir.
Patrick
Mais justement la singularité c'est de l'extrapolation et pour le moment de la SF.
Il faut permettre des débranchements sur des routines aléatoire selon la réponse d'un système quantique.
Puis comme pour tous les êtres vivants si le résultat est favorable cette IA se répliquera dans la prochaine génération (Firmware et software, new Version Release Modification Level) sinon cette IA sera recyclée comme système expert.
Une vrai IA doit avoir un pouvoir créatif.
Il est certain que plus elles se perfectionneront, plus le dialogue sera difficile.
Ces IA seront là pour nous permettre de comprendre notre univers.
Si il est en 10 à 26 dimensions, seules ces IA et Mthéory se comprendrons.
Elles nous ouvrirons la porte des voyages interstellaires plus rapidement que ne pourra le faire l'homme (si les lois de l'univers le permettent).
Imiter l’homme ce sont les systèmes experts ou l'IA recyclée ci-dessus.Imiter l'homme a de gros intérêts pour envoyer ces IA là où l'homme ne peut aller sans prendre d'énormes risques (espace, coeur d'une centrale nucléaire, et la liste peut s'allonger). Enfin gros intérêts financiers je veux dire, et c'est quand même pratique d'avoir des gens qui vous financent pour développer quelque chose.
Les purs IA ce sera pour la recherche et financé comme tel.
Peut être qu'on pourra acheter une petite IA miniature spécialisée dans la philosophie, la médecine, la physique, la biologie, etc...
On aura des dialogues passionnants, sauf pour Mh34 qui dira à son IA qu'elle ne peut pas exister, qu'elle n'est pas vivante.
Pauvre petite IA, il y aura de nouveaux jobs comme psychologue pour IA.
Si un jour une IA vient se plaindre que je lui dis qu'elle n'est pas vivante, je reconsidérerai la question, promis!
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Je n'ai jamais dis que l’homme est arrivé au bout de son évolution.
Je ne suis pas non plus certain que l’homme soit l’étape ultime, pas plus que ne l’étaient les dinosaures.
Comme on est égocentrique (par construction), on a tendance à se croire l’ultime évolution de l’intelligence et de la conscience.
On est que de la poussière d’étoile un poil organisée par les lois du hasard.
Si les constantes physiques avaient été un poil différentes nous ne serions même pas là !
Le potentiel d'évolution de l'humain c'est justement cette capacité à prendre son évolution en main, par exemple avec la singularité, et donc c'est tout le contraire, ceux qui croient en la singularité pour d'en 20 à 40 ans font preuve d'un optimisme de bisounours (ceci dis, j'aimerai bien qu'il ait partiellement raison) pour l'évolution humaine.
De plus, pourquoi attendre une évolution à l'échelle des dizaines de milliers d'années alors qu'on pourra la faire en quelques décennies ? Les problèmes de l'humanité deviennent de plus en plus urgents et complexes, il semble clair que seule une humanité 2.0 sera vraiment capable d'y faire face.
j'ai pas le temps d'intervenir plus pour aujourd'hui
“I'm smart enough to know that I'm dumb.” Richard Feynman
Voici ce que pourrait être un dialogue désespéré avec une IA implémentée dans une bombe à antimatière.
C’est inspiré d’un extrait de film des Monty Pythons je crois.
J’avais trouvé l’idée géniale, mais je ne l’ai pas retrouvé.
J’ai recréé le texte dans l’esprit, la lettre est certainement totalement différente, car j’ai fait ce texte 20 ans plus tard et j’ai perdus de milliards de neurone depuis, avec en plus 2 AVC qui m’ont fortement amoindri intellectuellement.
D’où la pauvreté de ma syntaxe et de ma rhétorique.
J’aimerais bien trouver le dialogue original.
Le problème de la Singularité est qu'elle se présente comme discours quasi-religieux – il n'est pas trop difficile de voir les purs esprits éternels et uploadés comme un transfert symbolique à l'âge de la machine des âmes filant au paradis, ou bien encore de voir dans la Singularité elle-même une métaphore du Dieu omniscient ou omnipotent appelé à régner sur l'Univers, sur fond tacite de finalisme.
Si l'on dit que, plus modestement et difficilement depuis 50 ans, on réfléchit à des méthodes, programmes et modèles en vue de produire des machines sémantiques capables d'utiliser le langage courant pour dialoguer, ou des machines intentionnelles susceptibles de trouver une solution optimale à un problème simulé, ou des machines apprenantes capables de trier la pertinence ce qu'elles doivent mémoriser, etc. on est plus proche de la vérité. C'est moins excitant et moins vendeur que certaines envolées lyriques de Kurzweil ou Moravec, mais c'est pourtant très intéressant et très légitime comme champ de recherche. Comme le sont la robotique, l'interface homme-machine, la neurostimulation, la nano- et microprothétique, l'optogénétique, etc.
Il le fait, mais sans avoir besoin de s'inventer un guide "spirituel".
C'est une croyance dans un espoir qu'une machine artificielle, construite sur les bases de nos connaissances actuelles de ce que nous pensons maîtriser, comblera nos ignorances pour aller plus loin, plus vite. Dans qu'elle finalité ?De plus, pourquoi attendre une évolution à l'échelle des dizaines de milliers d'années alors qu'on pourra la faire en quelques décennies ?
Patrick
bonjour,
j'essaye d'être réaliste. et je ne suis pas capable de me projeter dans 500 ans ( c'est de la SF).
en toute logique , les ordinateurs/robots evolueront, mais pour des buts précis.
donc j'imagine plutôt des "spécialistes" très precis dans leur domaines.
simplement parce que c'est le plus utile !
je ne vois auun intérêt à créer un simulacre d'être humain....
L'angoisse du mythe d'Icare ? Une proposition au suicide collectif pour remplacer l'humanité par une autre chose artificielle ?
... ?
Patrick
La même que celle que nous poursuivons déjà avec la technologie et la science mais en mieux et plus rapide.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Pourquoi ne pas accepter tout simplement que l'humanité aura une fin (si possible naturelle) et que d'autre choses apparaîtront tout aussi naturellement que notre apparition sans vouloir invoquer Frankenstein ?
Patrick
Pourquoi ne pas accepter que l'humanité peut résoudre ses problèmes et passer à un état supérieur ? Où est le problème ? Je n'en vois aucun.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Parce que plus rien n'est "simple" depuis que nous sommes conscient, justement. Nous n'acceptons pas, ou pas aisément, notre mort individuelle, celle de nos proches, celle de notre espèce : cela provoque de la peur, de la tristesse, de la colère, toutes sortes d'émotions négatives qui nous indiquent qu'il y a là une anomalie à cerner, à fuir ou à combattre (c'est un rôle des émotions d'attirer notre attention sur ce genre de choses). Si l'évolution avait produit un Homo sapiens stoïque, cela s'observerait dans la grande facilité avec laquelle nous accepterions la fatalité, et notamment la fugacité de nos existences. Ce stoïcisme est en réalité très minoritaire, et je ne crois pas un instant à la perspective de son universalisation – la progression culturelle vers une humanité pleine de sagesse, vivant sur le fragile équilibre d'un "sentiment tragique de la vie". De ce point de vue, le discours technoscientifique moderne n'est pas trop différent des discours métaphysiques traditionnels : non seulement il veut donner du sens (pourquoi, comment), mais il entend aussi donner de l'espoir. Il est très facile de déraper de l'un à l'autre et la Singularité en est (parfois) un exemple : aidez-nous à développer des programmes hypersophistiqués et vous gagnerez la vie éternelle – la très vieille promesse des croyances et des églises n'a pas de mal à se trouver des habits nouveaux, tant les esprits sont disposés à rechercher de genre de messages consolateurs. Je ne les en blâme pas, la maladie, la sénescence et la mort n'ont rien de désirable.
PS : je parle plutôt des machins genre extropiens, transhumanistes, mutants et autres groupes, pas de l'hypothèse scientifique de la Singularité (si elle existe d'ailleurs, ce qui n'est toujours pas clair dans mon esprit). Mais enfin, j'observe que des gens comme Kurzweil (supposé être "théoricien") développent toutes sortes de business autour leur réflexion. Cela ne m'inspire pas trop confiance.
Pour moi le premier problème amont à résoudre est de trouver un consensus sur une organisation qui offrirait à chacun de nous une existence la plus équitable et agréable possible pour nous accompagner durant de notre bref passage. L'intelligence artificielle peut être une assistance, mais j'ai du mal a comprendre pourquoi vouloir en faire un substitut.
Patrick
“I'm smart enough to know that I'm dumb.” Richard Feynman
^
j'ai du mal à comprendre pourquoi nous aurions besoin d'une IA... les ordi et le net nous permettent de communiquer à la vitesse de la lumière... notre cerveau fonctionne à la une vitesse qui semble aussi être assez proche. ce qui va moins vite c'est l'action qui en résulte. sauf à greffer des cerveaux sur de la robotique je vois guère comment améliorer cet état de fait. est ce que ce serait souhaitable ? j'en doute