Est-ce déjà un état ou un processus, car pour un état je ne vois pas comment le concept de développement de la conscience de soi défini dans les principes Extropiens puisse s'appliquer ?
Patrick
-----
Est-ce déjà un état ou un processus, car pour un état je ne vois pas comment le concept de développement de la conscience de soi défini dans les principes Extropiens puisse s'appliquer ?
Patrick
??? en quoi ne l'est-il pas ?
même si de nombreux logiciels utilisent des variables stochastiques pour certaines simulations ( textures, fumée, explosion, gestion d'une foule, effets atmospheriques, ..... )
bref, ça reste déterministe mais ça peut être imprédictible au pixel près.
Tu ne t'intéresse qu'à la surface. T'es-tu posé la question des lags ou plus généralement de la vitesse de rafraîchissement de l'affichage ?
Un lag fait parfois la différence entre la vie et la mort (tu avoueras que c'est assez important), et repose sur des phénomènes d'embouteillages, dont l'instant de survenue dépend énormément des delta de temps de traitement entre les différents coeurs CPU et coeurs GPU. Temps de traitement eux-même dépendant des températures de chacun de ces coeurs (entre autres)
Le ton vaguement ironique est certes amusant mais ne constitue pas un argument. L'indéterminisme décrit ci dessus est expérimenté chaque jour par des millions d'utilisateurs.
Et concernant mes programmes, il s'agit du même thème que les tiens: création d'un monde avec plantes et animaux disposant d'une génétique propre. Le traitement hautement parallèle de ce monde, sur une mémoire commune, entraine une forte influence de ces question d'indéterminisme (qui ne me pose pas de problème, voir qui sont un plus)
oui , c'est un phénomène d'embouteillage, bien connu des systèmes "multi-joueurs".Tu ne t'intéresse qu'à la surface. T'es-tu posé la question des lags ou plus généralement de la vitesse de rafraîchissement de l'affichage ?
Un lag fait parfois la différence entre la vie et la mort (tu avoueras que c'est assez important), et repose sur des phénomènes d'embouteillages, dont l'instant de survenue dépend énormément des delta de temps de traitement entre les différents coeurs CPU et coeurs GPU. Temps de traitement eux-même dépendant des températures de chacun de ces coeurs (entre autres)
mais que l'on retrouve aussi sur internet.
je n'y vois aucn rapport avec la "température".
alors on ne poursuit pas les mêmes buts : pour moi ce serait ennuyeux d'avoir de l'alea incontrôlé dans mes simulations.T
Et concernant mes programmes, il s'agit du même thème que les tiens: création d'un monde avec plantes et animaux disposant d'une génétique propre. Le traitement hautement parallèle de ce monde, sur une mémoire commune, entraine une forte influence de ces question d'indéterminisme (qui ne me pose pas de problème, voir qui sont un plus)
l'environnement externe d'un jeu 3D c'est la manette controlée par l'homme qui interagit avec la machine... a un moment il a été proposé que nous serions des deus ex machina de ces IA si elles venaient à arriver.
Rien à voir avec le multi-joueur.
Alors je n'ai rien à rajouter. J'ai tout détaillé, je ne peux pas aller plus loin.je n'y vois aucn rapport avec la "température".
Et si la température ne te va pas, on peut aussi citer les variations du Vcore... ou des autres tensions de la machine.
Probablement. Dans ce cas tes simulations sont programmées pour éviter ce que les ordis font naturellement. C'est cet usage qui est spécifique (quoique le plus fréquent), et qui va à l'encontre du fonctionnement de base d'un ordinateur.Envoyé par ambrosioalors on ne poursuit pas les mêmes buts : pour moi ce serait ennuyeux d'avoir de l'alea incontrôlé dans mes simulations.
Mais bon, revenons à la Singularité.
ah mon avis, c'est une extension injustifiée de la notion d'ordinateur, ou alors, le concept même d'ordinateur perd son interêt : dans ce cas tout, y compris un humain, est un ordinateur (tu peux passer à la limite humain +ordinateur où l'ordinateur ne fait plus rien !). Mais ça ne correspond pas à l'interêt de définir la notion, qui est justement celle d'une machine de Turing. Une notion n'est utile que si elle est restrictive ....
pour un processeur unique et si tu te donnes les inputs d'entrée, il me semble que oui. En faisant interagir plusieurs processeurs sans doute non. Mais il n'y a pas de réel problème à dire que les ordinateurs "réels" sont des machines analogiques - c'est simplement qu'on perd l'argument de duplicabilité (y compris même entre deux ordinateurs !)Exemple typique: le rendu d'un jeu 3D. Crois tu que ce soit déterministe ?
Un dernier point expérimental. Le fait que tu en arrive à te pose une telle question par rapport à tes propos initiaux montre me semble t-il que la prise de conscience en soi est bien un processus évolutif et non un état de fait
Patrick
mthéory semble pense que oui notamment dans ce post
je serais assez d'accordL'hypothèse que j'ai dans la tête c'est qu'ultimement, le cerveau repose sur des propriétés quantiques de ses composants mais qu'une grande partie de ce qu'il fait repose sur l'aspect semi-classique du cerveau et est effectivement parfaitement reproductible par un ordinateur de Von Neumann. C'est ce qui fait que les ordinateurs existants sont capables de reproduire des taches du cerveau humain, que l'on a de l'intelligence artificielle et que l'on a des systèmes informatiques capables d'apprendre.
Si on arrive à avoir une modélisation très complète des neurones et que l'on réalise un ordinateur incorporant des éléments quantiques, pour peut que l'on comprenne l'interation entre ces éléments quantiques dans le cerveau suffisamment bien, il n'est plus nécessaire, si la puissance de traitement de l'information est suffisante, d'avoir une compréhension de tout ce qui se passe dans un cerveau qui devient conscient. Il devrait suffire de scanner un vrai cerveau pour reproduire sa structure dans le système de simulation de l'ordinateur pour que celui-ci pense, de la même manière qu'il n'y avait pas besoin de connaitre les détails de la structures des molécules pour avoir des réactions chimiques sous contrôle.
Non pas du tout. Je me demande s'il y a une place pour la notion de conscience dans la théorie physique actuellement dominante. Ou dans une autre qui reste scientifique.
Cela parce que je remarque un blanc dans ce fil de discussion. Ou peut-être ai-je raté quelque chose. Mais je ne vois pas de définition physique de la conscience au sens où un objet matériel comme une particule donnée ou un type d'astre est défini ou paramétré par la physique.
Comme je n'ai pas de connaissances suffisantes mes références sont floues, j'en suis désolé. Ce que je constate effectivement, c'est qu'aucun n'intervenant que je considère comme expert ne semble avoir une idée claire, où même un début d'idée de comment transcrire la notion de conscience dans un formalisme physique (que ce soit classique, quantique relativiste ou autre).
Comme je suppose qu'il y a des physiciens naturalistes pour lesquels la conscience doit être un objet de la nature et donc sujet à une modélisation par la théorie, je suis surpris.
Je ne réponds pas à la première question parce que je ne la comprends pas et parce que je me demande justement s'il y a une définition formelle de la conscience pour les physiciens et que je ne me sens pas compétent pour juger si elle est processus ou état.
Je viens de relire une partie de tes messages. Si je te posais des questions qui te paraissent bizarre ou blessante (ce n'était pas mon intention) c'est parce que je ne comprends à peu près rien de ce que tu écris. Quand c'est comme ça généralement je pose des questions, en l'occurrence ça ne m'a pas aider à comprendre.
Et le blanc que je constate c'est surtout l'absence de réponse.
Ceci étant je ne comprends toujours pas qu'on pose la même question , mais je veux bien te croire.
Non, pas de haut niveau. Mais si tu ne comprends pas ce que j'explique ici, je n'y peux rien.
Réfléchis-y posément, calmement. Si tu as des questions supplémentaires, n'hésite pas (plutôt par MP puisqu'on est quand même largement HS dans ce fil).
oui c'est HS !
revenons au sujet, personne n'a repondu à mon mess 718 !
salutje reviens sur un point.
"lhomme en mieux ou l'homme en différent ?"
cas N1) dans l'absolu il faudrait déjà uploader la "totalité" d'un cerveau, mais se pose le problème de savoir lequel !!!!
si j'upload Freud ou Jung, je n'ai pas le même "avatar".
ensuite s je "l améliore", je le fait par rapport au modèle initial, par par rapport à "lhomme" au sens large.....impasse.
cas N2) "lhomme en différent".
alors en quoi est-ce une singularité au sens V2.0.
plutôt une pale copie qui pour être modélisable serait une sorte de PGCD de certaines facultés humaines,avec eventuellement l'ajout de fonctions spécifiques dans un but donné ( calcul, reconnaisance de l'evironnement, etc ..)
je continue à me questionner sur l'émergence spontanée de cette intelligence artificielle...
notre savoir n'est t' il déjà pas codé de façon binaire dans des machines et dans le réseau internet pour une trés large part. pourquoi vouloir a tout prix faire un upload unique ?
cordialement
Admettons que le cerveau soit "uploadé". (thèse à laquelle je n'adhère pas)Envoyé par Anssetcas N1) dans l'absolu il faudrait déjà uploader la "totalité" d'un cerveau, mais se pose le problème de savoir lequel !!!!
si j'upload Freud ou Jung, je n'ai pas le même "avatar".
ensuite s je "l améliore", je le fait par rapport au modèle initial, par par rapport à "lhomme" au sens large.....impasse.
Il ne serait pas fonctionnel.
Le cerveau n'est pas un circuit electrique, il ne fonctionne pas simplement par influx nerveux.
Il a une "humeur".
Les cellules interagissent biochimiquement.
Elles sont imparfaites, elles ont "faim", demandent des nutriment, des soins etc.
Le corps lui-même agissant sur le cerveau par le bias d'hormones et nutriments, maintiennent celui-ci en vie.
Les cellules migrent, meurent, sont remplacées, sont en relation avec des cellules gliales etc.
Elles s'organisent à partir de quasi-rien.(tube neural)
C'est un organe.
Qui plus est, les capteurs physiques ne sont pas dans le cerveau.
Il faut donc, pour rendre cette thèse valide, uploader l'ensemble d'un corps.
Sinon "Freud V2" va bugger.
Bonne chance pour reproduire un corps humain...
L'interet de tout ceci, finalement, serait uniquement de reproduire par simulation de la fonction ce qui existe déja.
On ne peut pas, je pense, augmenter l'influx entrant d'informations sans restructurer profondement le cerveau.
Comme l'original d'un cerveau "surpuissant" n'existe pas, la copie n'existe pas. Il faudrait produire l'original, non pas l'uploader.
Maintenant, je suis d'accord pour dire qu'une machine ayant un fonctionnement logique imitant le cerveau peut être interressant.
La reconnaissance vocale, visuelle etc.
L'inférence à partir de bases de données étendues qui ne sont pas structurées peut être réalisé de la sorte.
On peut donc produire des IA, qui sont des machines.
Donner l'impression d'une humanité.
Un robot ++.
Un robot ne peut craindre la mort par exemple, pour cela il faudrait que les simulations à sélection generationelle aient inclus ce trait à son comportement.
La conscience, est un faux problème puisque l'état conscient ne représente qu'une des manifestations du fonctionnement cérébral. Nous n'avons absolument pas conscience de la majeur partie des processus cérébraux.
Il n'est pas prouvé que c'est un état. Si on ne prend pas conscience des connaissances que l'on construit comment pouvons nous nous comprendre et faire évoluer notre l'intelligence ?
De plus nous pouvons constater au travers de ce fil les difficultés que nous avons à nous comprendre, alors si nous n'avions pas de conscience
Patrick
Dernière modification par invite6754323456711 ; 26/08/2011 à 20h41.
Tout à fait,Envoyé par ù100filIl n'est pas prouvé que c'est un état. Si on ne prend pas conscience des connaissances que l'on construit comment pouvons nous nous comprendre et faire évoluer notre l'intelligence ?
j'ai d'ailleurs hésité à employer ce mot.
Il est à prendre ici dans le sens basique; nous faisons l'experience de la conscience.
Sans cette experience, il n'y aurait pas lieu de nommer cet "etat".
Cette manière de nommer la conscience est donc réstrictive et se confond quelque peu avec l'état éveillé.
C'est en quelque sorte la manifestation de l'observation de l'environnement et de nous-même.
Ce n'est donc pas à proprement parlé un état, mais un processus, dont les interactions avec la partie "inconsciente" du cerveau (et du corps) ne peuvent être décrits, formulés simplement.
Il n'existe pas de concept, à mon avis, qui se rapporte à un phénomène qui ne se rapporte pas à l'action dirigée, tel que nous en avons l'habitude avec notre corps en tant qu'outil de notre pensée.
Tout concept humain, conscient donc, nécessite je pense, un parallele possible avec une action formalisée.
L'information et l'action sont liés.
Une action "invisible", car non formalisable ne peut être exprimée, ni a autrui, ni à "soi-même".
Le détail d'un réseau neuronal est inaccessible à notre entendement, notre formalisation.
On ne peut en comprendre que son résultat émergent.
"Sois-même" étant, à l'etat d'éveil, la partie consciente de notre Etat.
C'est ce que je voulais exprimer ici.
A tord ou à raison, mais du moins c'est ce que je pense.
Cela s'applique de manière générale au réel en soi, nous accédons qu'aux résultats de nos actions que nous formalisons par rapport à ce que l'on imagine (ce qui nécessite une conscience).
Sans conscience comme la fait remarqué Gilles on n'est pas capable de comprendre vraiment le sens d'une simple phrase et c'est l'état actuel de l'IA. Bien que la syntaxe soit nécessaire, elle n'est pas suffisante il faut la coupler à la sémantique (ce qui est le rôle de la conscience).
Patrick
C'est bien résumé.Envoyé par ù100filSans conscience comme la fait remarqué Gilles on n'est pas capable de comprendre vraiment le sens d'une simple phrase et c'est l'état actuel de l'IA. Bien que la syntaxe soit nécessaire, elle n'est pas suffisante il faut la coupler à la sémantique (ce qui est le rôle de la conscience).
D'ailleurs, de quoi sont faits les programmes sinon de langage.
C'est la raison qui me fait penser que vouloir produire une IA, sur la base d'un langage, ne ferait qu'éffleurer la notion même de conscience.
Ce serait un robot évolué, mais sans Etat de conscience véritable.
Pour y pallier, il serait alors, comme je le disais plus avant, nécessaire de générer, comme le fait le vivant, la structure même qui n'est pas langage mais qui la porte. Un corps.
Ceci est utopique à mon sens, hors de portée de l'être humain, si on s'attache à toutes les interactions qui ont ammené à créer le notre.
On peut simplifier, mais le résultat serait, je le pense, (ca se discute évidement), décevant.
Comme une étape indispensable, seule capable de nous prouver qu'on a bien compris le truc, truc étant le hard problème au sens de Chalmers.
Oui, comme toi hier et toi demain.
Pour l'instant on ne peut que constater les échecs récurrents de l'intelligence artificielle à émuler une conscience, même élémentaire, malgré des puissances de calcul toujours en croissance exponentielle.
Patrick
Je ne connaissais pas vraiment Chalmers, je crois que je vais m'y intéresser de plus prèsComme une étape indispensable, seule capable de nous prouver qu'on a bien compris le truc, truc étant le hard problème au sens de Chalmers.
Oui, comme toi hier et toi demain.
“I'm smart enough to know that I'm dumb.” Richard Feynman
Perso cela me parait la meilleure, sinon la seule en >40 pages, critique sérieuse du mécanisme supposé conduire à une singularité. Il y a des éléments pour défendre ce point de vue en termes de théorie de la complexité. Spécifiquement, si on fait la série de conjecture suivante:Et sinon qu'est ce que vous penser du problème de considérer l'augmentation de l'intelligence comme une fonction linéaire de l'intelligence ?
Parce qu'il y a 2 volets tout à fait distinct dans la singularité.
1) On va créer quelque chose de plus intelligent que nous.
2) Une fois ceci fait l'intelligence va exploser et en 4 ans (prévision pessimiste) il y aura des intelligences infinies ou seulement limitées par les lois de la physique, mais quelque chose comme 3^^^^3 fois plus intelligente que nous. ^au sens de la notation de Knuth (ou Conmay je ne sais plus).
Autant je trouve 1) probable sur plusieurs siècles, possible sur quelques décennies.
Autant 2) me parait être un calcul tout à fait ridicule avec des prémisses tout à fait ridicules. Que l'intelligence d'une IA soit une fonction croissante de l'intelligence de son créateur, avec toutes les difficultés de mesure de l'intelligence que cela implique, je veux bien le concevoir, voir le prendre comme hypothèse a priori en attendant mieux. Mais pourquoi une fonction linéaire ???
-produire une intelligence est un problème NP-hard
-la conjecture suivante est juste
-et s'applique à l'average-case autant qu'au worst-case
alors produire une intelligence de plus en plus puissante est exponentiellement de plus en plus difficile, et le gain pourrait tendre vers 0.
Cela fait beaucoup de conjectures par contre, et même si elles étaient toutes juste il est possible que le gain reste linéaire (cela dépendrait des constantes exactes des fonctions exponentielles).
tu emploies le jargon de la théorie de la complexité, c'est bien, ça fait savant, mais qu'est-ce que ça a à voir avec la question de la création d'une intelligence artificielle? Ce problème est selon toi non polynomial en quelle taille de quelle donnée?.Spécifiquement, si on fait la série de conjecture suivante:
-produire une intelligence est un problème NP-hard
-la conjecture suivante est juste
-et s'applique à l'average-case autant qu'au worst-case
alors produire une intelligence de plus en plus puissante est exponentiellement de plus en plus difficile, et le gain pourrait tendre vers 0.