Qu'est-ce que j'ai dit de si particulier dans les phrases que vous avez citées et qui justifie cette réponse ?
le problème n'est pas ce que vous dites mais les connaissances réelles, pratiques, qu'on a. A un moment, les expériences de pensées ont...leurs limites. Ca s'apparente à de la SF, quoi...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
ici par exemple :
Ce qui sous entend très clairement que vous placer la "conscience" dans le champ des possibles au nom de ce principe "physico-mathématico-informatique".C'est une plaisanterie ? Le principe dit que tous les processus physiques sont simulables sur un ordinateur. Donc, vous dites bien que la conscience est hors du monde physique.
Qui lui même, énonce clairement une simulation parfaite.
Et maintenant, Jiav et toi-même semblent faire 3 pas en arrière en disant ( un peu comme qcq qui s'est fait prendre avec la main dans le pot de confiture ) que "jamais, au grand jamais", vous n'aviez évoqué cela....."juré craché".
De surcroit, de dire maintenant qu'il ne s'agirait que "d'approches de simulation" c'est un peu fort de café.
Je vous renvoie dans ce cas , aux automates des siècles précédents.
Ce qui est fort enrichissant n'est ce pas ?
Si tu dis "les physiciens/mathématiciens à l'origine du CT/CTD n'ont JAMAIS parlé de conscience", c'est une bêtise. Si tu dis "je n'ai pas vu qu'ils parlaient de conscience, mais bon j'ai juste lu le wiki en français", pas de problème et la réponse est simplement "Si si, regardes les textes originaux ils n'arrêtent pas d'en parler".
Cette phrase est parfaitement correcte, et n'est pas équivalente à dire que "le fameux "principe" (...) suppose (...) l'accès à une connaissance totale pour être applicable"m'enfin, est ce une manière de dire, "on me fait dire ce que je n'ai pas dit" alors que c'est implicitement l'argument de base que tu as mis en avant depuis le début et qu'a repris Topix à la lettre.
Par exemple ici :Envoyé par TopixLe principe dit que tous les processus physiques sont simulables sur un ordinateur.
Archi3 n'a cessé de dire des bêtises, avec une constance assez impressionnante. Que tu n'ai pas encore cessé de le croire est également impressionnant.
Il y a des pages et des pages que je l'ai expliqué: cela signifie "approchable d'aussi près qu'on veut" dans le cas d'un nombre calculable et "pas différenciable mieux que le hasard" dans le cas d'un système bruité. Ansset le comprend comme "prédire n'importe quel chiffre de la température à la météo dans trois semaines". Je ne suis pas complêtement certain que tu partages cette incompréhension particulière ou c'est simplement un des artifices sophistiques de ton argumentaire, mais ce qui est certain c'est que tu n'aides pas à la corriger.
Vous parlez d'IA à base d'algorithme, cela fait 250 ans que l'on a inventé la régression linéaire. Maintenant on en est plus vraiment là : par exemple : le deep Learning et l'apprentissage non supervisé, résultat il est apparue le concept de boite noire.
Des ingénieurs se reposent sur le fait que les résultats que donnent certaines IA sont ce qu'ils cherchaient à obtenir mais ils sont incapables d'expliquer comment.
Un ingénieur Google parlait même d'alchimie, les IA sont en train de nous dépasser dans tous les domaines petit à petit.
Vous pouvez vous reposer sur notre fameuse " conscience " pour continuer à rendre l'humain infaillible et supérieur face à une IA. Mais une singularité technologique pourrait apparaître n'importe quand ou pas, on en sait rien. Justement à cause de ce fameux concept de boite noire.
On pourrait très bien avoir une IA qui nous sort une équation qui résout les problèmes de la matière noire sans jamais pouvoir comprendre comme elle y est arrivée.
Pas plus que votre chien comprend comment vous faites pour conduire votre voiture.
La discussion est trop anthropocentré et s'assimile à la terre plate et au soleil qui nous tourne autour d'il y a quelques siècles.
Un dauphin comprend jusqu'à 200 mots humains ? Un humain comprend combien de " mot " de dauphin ?
Comme je l'ai lu, effectivement les dauphins ne nous enferment pas dans un aquarium pour amuser leur petite famille mais ils en ont peut-être rien à cirer comme nous on accepte notre sort, dodo, métro, boulot et mort sans avoir aucune idée sur le sens de notre existence.
On y est peut-être aussi dans cet aquarium.
La prochaine révolution technologique viendra surement des IA.
Et pour en revenir au sujet, des IA peuvent déjà traduire des textes à partir d'une compréhension sémantique de celui-ci, voyez cette vidéo pour vous faire une idée :
https://www.youtube.com/watch?v=L_LpNAXmrJk&t=0s&list= PLtzmb84AoqRTl0m1b82gVLcGU38mi qdrC&index=21
Dernière modification par mood8moody ; 12/05/2018 à 12h36.
Alors, il est très fort ! il ne sais pas comment cela fonctionne mais il est capable d'en faire une simulation "parfaite".Pour ma part, je n'ai jamais remis en cause les progrès dans cette matière.Vous parlez d'IA à base d'algorithme, cela fait 250 ans que l'on a inventé la régression linéaire. Maintenant on en est plus vraiment là : par exemple : le deep Learning et l'apprentissage non supervisé, résultat il est apparue le concept de boite noire.
Des ingénieurs se reposent sur le fait que les résultats que donnent certaines IA sont ce qu'ils cherchaient à obtenir mais ils sont incapables d'expliquer comment.
(.....)
La prochaine révolution technologique viendra surement des IA.
Simplement les dires de certains qui justement étaient dans une proposition de copie parfaite de la conscience humaine.
C'est à eux de dire qu'ils sont anthropocentrés.
J'ai cité pour ma part LeCun qui justement évoque les perspectives possibles sur la base de l'apprentissage non-supervisé.
Là, pour moi, on parle de choses concrètes.
IL précise d'ailleurs à raison que cela n'est pas de l'ordre d'une reproduction humaine.
Donc pas d'une sorte de projection assez difficilement justifiable. ( au nom d'un principe machin-truc )
Excellente vidéo!
(mon côté chieur: il est plus correct de dire que les IA actuelles traduisent des phrases plutôt que du texte, et les boites noires sont un concept qui nous vient de l'informatique théorique plutôt que du machine learning)
La suivante est une excellente popularisation des réseaux sémantiques qui seraient directement utiles au projet de Bounoume.
https://www.youtube.com/watch?v=r4Et...iqdrC&index=21
non ça n'a rien à voir et je ne vois pas où vous voyez des "critères". Je vous ai dit que le cerveau recevait constamment des informations proprioceptives, (ce qui était le point important) en provenance du corps biologique , qui ne pouvaient pas etre simulées sur un autre support (voir par exemple https://fr.wikipedia.org/wiki/Proprioception) . Et je mentionne un a coté, qui est que le cerveau vous alerte en cas de signal anormal. Vous traduisez ça en : "Vous aimez exclure des gens de l'humanité, je l'ai déjà dit. " en citant les cas de gens insensibles à la douleur. Ce qui n'a strictement rien à voir avec mon propos - je n'ai jamais dit nulle part qu'il n'y avait nulle part des anomalies de perception (merci je sais qu'il y en a), et encore moins que ceux qui avaient des anomalies seraient "exclus de l'humanité". C'est de la malhonnêteté rhétorique pure de prétendre ça, je n'ai jamais rien dit de tel. Du coup vous répondez complètement à coté, en laissant de coté le problème principal que j'ai soulevé , c'est que le cerveau analyse constamment des signaux en provenance du corps (ce qui n'exclut nullement qu'il puisse y avoir des défauts d'alerte) et que donc la simulation d'un cerveau qui n'est pas branchée sur un corps ne peut nullement analyser ce type de signaux; Bref votre réponse n'a rien à voir avec ma remarque.
Meme technique : vous commencez par dire :Je ne vais pas continuellement répéter ce que je dis. Voir mon message 472, paragraphe 4 : http://forums.futura-sciences.com/de...ml#post6146599
et je répondsIl n'y a que vous qui parlez d'une simulation exacte.
jusque là c'est clair : VOUS prétendez que je suis le seul (!) à parler d'une simulation exacte, et je vous dis que non, c'est aussi ce que dit CTD quand il dit explicitement "perfectly simulated" et là ... vous renvoyez à un message qui n'a strictement rien à voir avec la question !non, c'est emprunté à CTD que vous citez tout le temps , alors que moi je vous dit que CTD n'est pas pertinent.
vous ne savez faire que de l'obstruction rhétorique en noyant complètement chaque point jusqu'à ce que plus personne ne sache de quoi on parle .
toujours la même technique : vous m'accusez de mentir, mais en quoi est ce que votre lien est contraire à ce que j'ai dit ? vous répondiez à :Et comme vous êtes acculé, vous mentez : http://forums.futura-sciences.com/de...ml#post6141901
j'ai jamais dit qu'on ne pourrait pas avoir de conscience, vous ne comprenez juste rien à ce qu'on vous dit. Je vous ai dit qu'on ne peut pas avoir LA MEME conscience, et donc que vous ne pouvez pas réaliser une simulation EXACTE (donc IDENTIQUE) (ce qui est concernée par CTD) sur un support DIFFERENT.
en quoi est ce contradictoire avec le lien que vous rappelez, où je dis la chose suivante :
j'ai beau écarquiller les yeux, je ne vois absolument aucune contradiction entre ces deux phrases ni aucun "mensonge" (sic) . Si vous en voyez vous, c'est vraiment que vous ne comprenez rien du tout à ce que je dis (ce qui dans l'état actuel de la discussion me semble le plus probable).sauf que toutes les IA "réelles" n'ont strictement rien à voir avec la simulation physique d'un cerveau humain réel (qui par ailleurs ne peut justement fonctionner que connecté à un corps physique réel et des sensations réelles), et que donc que ce principe (qu'il soit vrai ou faux) n'est absolument d'aucune utilité pour la discussion d'un cas réel du type de celui introduit dans le premier post.
c'est quand même extraordinaire. Evidemment que je pense qu'on ne peut pas obtenir de conscience sur un ordinateur, c'est ce que je me tue (littéralement) à vous expliquez. Si je me place dans le cas où il y aurait une conscience , c'est que j'adopte VOTRE hypothèse pour montrer une contradiction flagrante. Vous ne connaissez pas les bases du raisonnement par l'absurde, ou pour démontrer qu'une hypothèse est fausse, on commence par supposer qu'elle est vraie , pour aboutir ensuite à une contradiction ?
Vous dites que c'est impossible en simulant un cerveau humain tout court, pourtant vous admettez la définition d'un cerveau parmi d'autres dans votre message 402, paragraphe 4 : http://forums.futura-sciences.com/de...ml#post6145958
D'autre part, si même avec une simulation exacte d'un cerveau humain on ne peut pas obtenir de conscience, comment pourrait-on obtenir une conscience sur un ordinateur ? Vous allez dire que c'est parce que ce cerveau pense qu'il est humain alors qu'il ne l'est pas. Mais penser, c'est déjà être conscient. Non seulement cette affirmation est de base totalement arbitraire, mais c'est en plus une contradiction logique flagrante.
gros lol , là . Mais franchement quel rapport là ? que ça se passe 10 secondes après ou avant ou pendant, c'est toujours aussi contradictoire de penser que la machine pourrait à la fois penser etre un humain , et penser être une machine, je ne vois vraiment pas le rapport à avec la choucroute. Vos réponses sont de moins en moins cohérentes ....Et vous continuez dans l'aberration logique... et si ma simulation inexacte d'un cerveau humain à l'instant 0 sera sa simulation exacte à un instant ultérieur ? C'est-à-dire que j'aurais simulé une déclinaison exacte de son cerveau qu'il atteindra 10 secondes plus tard.
enfin sérieusement, vous ne voyez pas le problème dans ces deux phrases ? vous ne voyez pas que "une simulation exacte" qui "n'aurait pas la même conscience", ça ne veut strictement rien dire et ça n'a ni queue ni tete ? et c'est moi en plus que vous accusez "d'aimer [me] contredire"*?Je retiens surtout que vous aimez vous contredire... qu'elle est donc votre problème avec une simulation exacte ? Cette dernière n'aura pas la même conscience,
si la simulation n'a pas la même conscience, elle ne peut en aucun cas etre qualifiée "d'exacte", vous ne comprenez pas le sens du mot "exact" ? (ou "perfect", parfait ?) vous voulez un dictionnaire ?
il n'y a que vous qui puissiez le savoir ...
Comment peut-on atteindre de tels niveaux de contradiction de façon répétée ?
le rapport, c'est : pour vous une limace ou un nuage sont ils "algorithmiques", et si oui, c'est quoi l'algorithme d'un nuage ou d'une limace ?
"bon, une limace ou un nuage fait des hypercalculs, ravi de l'apprendre."
Le rapport ?
Non personne n'a dit ça sur ce fil. Du moins je ne crois pas l'avoir lu.
C'est un des points d'achoppement qui fait que finalement....ben toutes ces digressions ne riment pas à grand chose.Mais une singularité technologique pourrait apparaître n'importe quand ou pas, on en sait rien.
(Et Bounoume n'a toujours pas sa réponse, au passage...au bout de 18 pages. Finalement c'est peut-être pas si simple, ce qu'il demande. )
On fait comment pour la "désanthropocentrer"? Vous avez une idée?La discussion est trop anthropocentré et s'assimile à la terre plate et au soleil qui nous tourne autour d'il y a quelques siècles.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Bounoume a eu rapidement la réponse à sa question : on ne sait pas si on peut faire une IA forte et encore moins comment.
Dans ces conditions la supposer uniquement verbale ne change rien : on sait encore moins.
On peut trouver des arguments pour et contre mais on n’a pas les moyens de les départager. D’où des pages de «*c’est moi qui ait raison*» auxquels répondent des «*non c’est moi*», plus ou moins argumentés et rationnels.
encore une fois transformer les phrases pour ne pas y répondre. Ce que j'ai dit moi c'est que "le principe CTD ne parle pas de conscience". Ca ne veut nullement dire "les physiciens/mathématiciens à l'origine du CT/CTD n'ont JAMAIS parlé de conscience".
redis nous l'énoncé du principe CTD et met en gras le mot "conscience" alors, qu'on vérifie ce qu'ils disent ...Si tu dis "je n'ai pas vu qu'ils parlaient de conscience, mais bon j'ai juste lu le wiki en français", pas de problème et la réponse est simplement "Si si, regardes les textes originaux ils n'arrêtent pas d'en parler".
c'est sans doute que tu n'as pas pu en contredire une seule sans avoir besoin de transformer mes propos, ou de prétendre en donner une interprétation qui n'était absolument pas la mienne, ce qui a été un peu trop visible pour les autres lecteurs ? et que quand je t'ai demandé de donner la référence d'un message où tu aurais présenté une objection à laquelle je n'avais pas répondu, tu l'as constamment simplement ignoré ?Archi3 n'a cessé de dire des bêtises, avec une constance assez impressionnante. Que tu n'ai pas encore cessé de le croire est également impressionnant.
ceci expliquant cela ...
et bien j'entends "exact" dans le même sens , et c'est évidemment contradictoire de prétendre qu'une simulation du cerveau "approchable d'aussi près qu'on veut" aurait néanmoins une "conscience différente" de celui -ci !!! si la conscience est différente, bien évidemment que les résultats en seront différents, ce qui est totalement contradictoire avec "approchable d'aussi près qu'on veut" : d'où la machine devrait avoir conscience d'être humaine, et ne peut donc pas logiquement avoir en même temps conscience d'être une machine - ce qui veut dire que la machine ne répondrait à aucun critère habituel qu'on attend de la conscience.Il y a des pages et des pages que je l'ai expliqué: cela signifie "approchable d'aussi près qu'on veut" dans le cas d'un nombre calculable et "pas différenciable mieux que le hasard" dans le cas d'un système bruité.
Ok, merci! Dans le flot des 18 pages je n'avais même pas réussi à comprendre cela...Bounoume a eu rapidement la réponse à sa question : on ne sait pas si on peut faire une IA forte et encore moins comment.
Dans ces conditions la supposer uniquement verbale ne change rien : on sait encore moins.
On peut trouver des arguments pour et contre mais on n’a pas les moyens de les départager. D’où des pages de «*c’est moi qui ait raison*» auxquels répondent des «*non c’est moi*», plus ou moins argumentés et rationnels.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Désolé pour l'auteur du sujet, mais au vu des digressions diverses et variées, nous fermons ce fil.