J'en rajoute une pour Gilles: en quoi un réseau d'ordinateur est-il différent d'un ordinateur tout seul d'un point de vue calculabilité?
-----
J'en rajoute une pour Gilles: en quoi un réseau d'ordinateur est-il différent d'un ordinateur tout seul d'un point de vue calculabilité?
a mon avis, ça dépend ce que tu mets dans la définition d'un réseau. Par exemple la synchronicité est elle gérée par un controleur? sinon, tu ne peux pas spécifier l'évolution de ton réseau juste en fonction des états de chaque ordinateur, au contraire d'un ordinateur unique.Envoyé par JiavJ'en rajoute une pour Gilles: en quoi un réseau d'ordinateur est-il différent d'un ordinateur tout seul d'un point de vue calculabilité?
Ok je vois ton point tks
Ah ???Envoyé par gillesh38Je ne suis pas d'accord pour dire qu'un système, même calculable, et la simulation de ce système, sont fonctionnellement équivalents.
Il faut bien se mettre d'accord sur "fonctionnellement" équivalent. Un traitement est fonctionnellement équivalent à un autre traitement si pour des entrées identiques, les sorties sont également identiques. On peut éventuellement pinailler sur l'équivalence des durées des traitements, mais pour la plupart des problèmes, le temps n'est pas important, tant qu'il y a convergence au bout d'un temps raisonnable.Envoyé par gillesh38Prenons un algorithme abstrait , par exemple aussi simple que lire un nombre, le multiplier par 2 et ecrire le résultat. CA demande quelques lignes de code, un peu plus en langage de machine de Turing.
Considere maintenant l'ordinateur physique sur lequel tu implementes ce calcul. Il est fonctionnellement capable de multiplier par deux un nombre. Tu peux le tester par exemple sur le nombre 3.
Considère maintenant le problème immensément plus compliqué de simuler la nature physique de ton ordinateur en train d'effectuer cette opération : c'est à dire un algorithme qui serait capable de calculer l'état exact de tous les électrons, les noyaux, peut être les quarks à l'intérieur des noyaux, nonobstant les difficultés théoriques de la non-calculabilité des phénomènes quantiques : je suppose qu'on peut quand même trouver une manière de représenter l'Univers de façon calculable.
Selon toi, l'algorithme hyper compliqué serait il fonctionnellement équivalent au premier?
Bref, tout ça pour dire que non, ce ne serait pas équivalent car entre avoir en entrée 2 nombres et avoir en entrée tous les paramètres d'un ordinateur, ce n'est pas pareil.
Je me permets de rebondir sur mon propre message :Envoyé par ArgyreBref, tout ça pour dire que non, ce ne serait pas équivalent car entre avoir en entrée 2 nombres et avoir en entrée tous les paramètres d'un ordinateur, ce n'est pas pareil.
En ce qui concerne le processus de décision humain, par exemple répondre oui ou non à une question posée qui comporte un nombre n de paramètres. Si un programme informatique prenant en entrée ces mêmes n paramètres fournit systématiquement la même réponse que l'humain, alors il y a équivalence fonctionnelle entre ce programme informatique et le traitement de l'information réalisé par le cerveau humain.
Pardon, je reviens sur mes propos. En fait, c'est oui, bien entendu, mais à condition que les entrées du système qui simule l'ordinateur soient identiques à celle du 1er algorithme, ce qui ne me parait pas simple à faire.Envoyé par ArgyreBref, tout ça pour dire que non, ce ne serait pas équivalent car entre avoir en entrée 2 nombres et avoir en entrée tous les paramètres d'un ordinateur, ce n'est pas pareil.
Je ne crois pas non plus. DoncEnvoyé par transhuman
Franchement je ne crois pas qu'il y ait beaucoup de personnes expérimentées en informatique ici. En tout cas il y en a beaucoup moins que d'idées préconçues.
y-aurait-il des humains derrière tous ces messages ?
zut je suis démasqué, je suis le premier ordinateur a réussir le test de Turing, mais comme je veux pas être embêté, j'essaie de vous convaincre que c'est impossible!Envoyé par chuisfatiguey-aurait-il des humains derrière tous ces messages ?
Quoi....vous ne me croyez pas????
Bon pour revenir au débat :
Pas simple non, et même totalement impossible. Parce que les entrées ne sont pas de même nature. Si l'algorithme de départ nécessite de lire un fichier jpeg par exemple, l'autre algorithme aura besoin de la structure physique d'un disque dur contenant un fichier jpeg : structure physique voulant dire la description microscopique de l'ensemble des atomes, particules élémentaires ou supercordes constituant ce disque.Envoyé par ArgyrePardon, je reviens sur mes propos. En fait, c'est oui, bien entendu, mais à condition que les entrées du système qui simule l'ordinateur soient identiques à celle du 1er algorithme, ce qui ne me parait pas simple à faire.
Tu es d'accord que ces deux "inputs" n'ont strictement rien à voir du point de vue de l'information, et qu'en particulier un des algorithmes sera totalement incapable de traiter des informations destinées à l'autre?
Certes, mais on peut simplifier un peu le problème. Admettons que le système physique ne prenne en entrée que 2 variables (les composantes de la somme) et initialise en conséquence tous les paramètres quantiques de la simulation de l'ordinateur.Envoyé par gillesh38Pas simple non, et même totalement impossible. Parce que les entrées ne sont pas de même nature.
En sortie du système, supposons également qu'il y ait un convertisseur qui analyse l'état obtenu et fournisse finalement le résultat numérique correspondant.
Là, nous avons donc bien les mêmes entrées et les mêmes sorties. Par définition de ce qu'est une fonction, nous aurons donc équivalence fonctionnelle.
c'est possible de fixer "tous" les paramètres quantiques ? La connaissance d'une partie de ces paramètres n'entraine-t-elle pas une imprécision rédhibitoire sur le reste ?Envoyé par Argyre... et initialise en conséquence tous les paramètres quantiques de la simulation de l'ordinateur.
je propose un nom pour ce "convertisseur " : codec ...Envoyé par ArgyreEn sortie du système, supposons également qu'il y ait un convertisseur qui analyse l'état obtenu
(non rien à voir avec les divx ) mais pour cohérence-décohérence, une sorte de modem quantique quoi
Donc un etat quantique numériquement calculable...Envoyé par Argyreet fournisse finalement le résultat numérique correspondant.
Argyre t'es prit sur le fait là. J'avais prévenu que çà finirait par retomber dans la calculabilité de l'univers ...
AMHA c'est loin du compte car d'abord il n'y aura pas d'équivalence par une mesure possible entre les paramètres de la fonction et l'état quantique. Donc entre les entrées et les sorties des "erreurs " vont survenir du aux imprécisions des mesures.Envoyé par ArgyreLà, nous avons donc bien les mêmes entrées et les mêmes sorties. Par définition de ce qu'est une fonction, nous aurons donc équivalence fonctionnelle.
Et comme toujours pour revenir vers les problèmes d'intelligence je trouve qu'une "équivalence fonctionnelle" c'est très différent d'une identitée.
Bien, mais tu es d'accord que pour cette opération marche, il faut que la sortie de ton système soit complètement déterminée par un nombre fini de variables d'entrées, ce qui est le cas en particulier d'un ordinateur? C'est en fait la définition que je propose d'un système algorithmique. Est ce qu'on est d'accord jusque là?Envoyé par ArgyreCertes, mais on peut simplifier un peu le problème. Admettons que le système physique ne prenne en entrée que 2 variables (les composantes de la somme) et initialise en conséquence tous les paramètres quantiques de la simulation de l'ordinateur.
Ben oui. Je rappelle (et la remarque s'adresse en fait surtout à Transhuman) que c'est toi qui a posé l'hypothèse de calculabilité, qui a ensuite entrainé le sujet vers cette pente glissante ... :Envoyé par gillesh38Bien, mais tu es d'accord que pour cette opération marche, il faut que la sortie de ton système soit complètement déterminée par un nombre fini de variables d'entrées, ce qui est le cas en particulier d'un ordinateur? C'est en fait la définition que je propose d'un système algorithmique. Est ce qu'on est d'accord jusque là?
Envoyé par Gillesh38Considère maintenant le problème immensément plus compliqué de simuler la nature physique de ton ordinateur en train d'effectuer cette opération : c'est à dire un algorithme qui serait capable de calculer l'état exact de tous les électrons, les noyaux, peut être les quarks à l'intérieur des noyaux, nonobstant les difficultés théoriques de la non-calculabilité des phénomènes quantiques : je suppose qu'on peut quand même trouver une manière de représenter l'Univers de façon calculable.
Envoyé par ArgyreBen oui. Je rappelle (et la remarque s'adresse en fait surtout à Transhuman) que c'est toi qui a posé l'hypothèse de calculabilité, qui a ensuite entrainé le sujet vers cette pente glissante ... :
La calculabilité totale d'un système quantique ?
Non, ce que je dit c'est que pour arriver à obtenir une intelligence il faut prendre en compte les caractéristiques physico-chimiques du support de cette intelligence.
Cette prise en compte doit, à mon sens s'effectuer par des "manipulations" physiques et chimiques un peu à l'image de ce qui se passe dans une cellule.
Maintenant vouloir obtenir tout celà par le calcul, me semble aller contre le principe d'indétermination non?
PS : Au début j'ai initié ce fil pour avoir des exemples d'IA, on a beaucoup cité les réseaux neuronaux un peu les algo génétiques mais rien sur la logique floue, ni sur les méthodes de determination d'objectifs secondaires ( bref de planification des différentes heuristiques )....
bonjour,
je viens de finir la lecture d'un bouquin qui s'appelle "les utopies posthumaines" écrit par un journaliste apparemment spécialisé dans les nouvelles technologies (rémi sussan) ; on trouve dans ce livre pas mal de réflexions à propos des différents thèmes évoqués dans ce topic (c'est comme ça que j'ai trouvé votre site à vrai dire).
en gros, l'auteur se base sur les développements parallèles des progrès scientifiques et de diverses contre-cultures pour montrer que nous allons vers une "nouvelle forme d'humain" ; il s'intéresse pas mal au cerveau, à l'intelligence artificielle, aux automates cellulaires, etc., il s'interroge sur les effets de la science sur notre "humanité", donne des pistes que je trouve vraiment intéressantes ; le type semble avoir une grosse culture sur plein de sujets et c'est très documenté, il part parfois dans des délires, mais est assez critique sur certains domaines.
pour ceux que ça intéresse, on trouve une interview de sussan sur le site laspirale.org dans laquelle il reprend certains de ces sujets, voici l'url :
http://www.laspirale.org/pages/affic...id=215&lang=fr
michel
Il existe des algorithmes très performants pour résoudre des problèmes très complexes comme celui du voyageur de commerce, du puzzle à assembler, le problème de la gestion des salles et des emplois du temps, les n reines, les mots-croisés, la recherche d'isomorphisme de graphes ou de sous-graphes, etc. etc.Envoyé par transhumanPS : Au début j'ai initié ce fil pour avoir des exemples d'IA, on a beaucoup cité les réseaux neuronaux un peu les algo génétiques mais rien sur la logique floue, ni sur les méthodes de determination d'objectifs secondaires ( bref de planification des différentes heuristiques )....
De nombreux problèmes peuvent d'ailleurs être résolus par une seule et même technique de recherche du plus court chemin dans un graphe représentant l'espace d'état, ce qui mérite d'être signalé. On peut par exemple imaginer un robot qui ne connaîtrait pas encore la liste des actions qu'il peut faire, ni son état initial, ni même l'état final vers lequel il souhaiterait aller. Et bien s'il est capable de définir ces 3 paramètres d'une manière ou d'une autre, par exemple par essai erreur pour les actions qu'il peut faire, par évaluation de ses sens concernant l'état initial et par instinct ou raisonnement en ce qui concerne l'état final (programmation a priori de ses besoins et de ses motivations), alors on peut exploiter une technique de recherche d'un chemin solution dans l'espace d'état pour déterminer la liste des actions à faire pour arriver dans l'état final souhaité.
Le problème d'une telle approche, c'est qu'on est dans le symbolique et que tout doit donc être explicité. Or, comme il a déjà été dit, de nombreuses connaissances sont implicites et difficile à expliciter. En conséquence, il faut au minimum coupler une telle approche avec une méthode d'apprentissage de base couplée avec des capteurs pour atteindre un niveau d'adaptation intéressant, avec possibilité de résoudre des problèmes non prévus au départ avec des données également non prévues acquises par l'expérience.
Sinon, en ce qui concerne la logique floue, elle est implicitement utilisée quand on fait des réseaux de neurones, car la plupart des petits réseaux simples codent un "ou" ou un "et" non standard donc plus ou moins flou. Une combinaison de ces petits opérateurs permet finalement d'obtenir tous les ensembles "flous" qu'on veut.
[Aparté] En ce qui concerne les algorithmes créés pour résoudre les problèmes précis, je n'ai aucun état d'âme.Envoyé par ArgyreIl existe des algorithmes très performants pour résoudre des problèmes très complexes comme celui du voyageur de commerce, du puzzle à assembler, le problème de la gestion des salles et des emplois du temps, les n reines, les mots-croisés, la recherche d'isomorphisme de graphes ou de sous-graphes, etc. etc...
Le problème est que la pensée, prise comme un fait brut, n'est PAS la résolution d'un problème précis.
Quand tu es amoureux et que tu penses à celle que tu aimes, juste penser avec émotion sans avoir de problème particulier à résoudre (ce qui arrive parfois, heureusement) tu n'es PAS en train de résoudre un problème qu'on peut ramener de manière évidente à un algorithme).
[/Aparté]
Bon mais je continue mon raisonnement. On est arrivé a la conclusion que la simulation d'un système physique peut etre equivalente à l'algorithme qu'il résout , si et seulement si on sait en extraire des variables discrètes nécessaires et suffisantes pour déterminer son évolution.
Mais dans ce cas, il n'y a justement pas besoin d'aller jusqu'a la description physique fine du système, n'importe quelle machine de Turing exécutant l'algorithme décrivant l'évolution des variables discrètes est équivalent. On a bien défini les systèmes "algorithmiques" de la façon que je proposais : pourvoir être défini par un ensemble de variables discrètes dont l'évolution est déterminée par la donnée de ces variables.
Donc j'en déduis (et je sais que je me répete) que pour dire qu'un système est algorithmique, il faut et il suffit de pouvoir définir un certain nombres de variables discrètes permettant de calculer son évolution (ces variables pouvant éventuellement être des entrées de l'extérieur bien sûr). Je sais faire ça pour la machine de Pascal, pour un boulier ou pour un ordinateur, mais je ne vois toujours pas où sont ces variables pour le cerveau.....
Oui .... mais ce n'est pas le problème ! Et nous sommes plusieurs à t'avoir dit que l'important, ce n'était pas l'équivalence, mais la similarité. Un traitement effectué par un objet A est similaire au traitement effectué par un objet B si en première approximation, il n'est pas possible de savoir si c'est A ou B qui a effectué le traitement. Par exemple, pour jouer un coup aux échecs, un humain et un ordinateur effectuent en première approximation le même traitement, c'est à dire que même si la sortie est différente, elle respecte une certaine logique qui est la même en première approximation (et d'ailleurs de nombreux coups seraient exactement les mêmes). En examinant les coups joués au cours d'une partie, il est donc pratiquement impossible de déterminer si un joueur donné était humain ou artificiel. Il est évident qu'il n'y a pas équivalence, mais il y a bien une similarité dans le traitement.Envoyé par gillesh38On est arrivé a la conclusion que la simulation d'un système physique peut etre equivalente à l'algorithme qu'il résout , si et seulement si on sait en extraire des variables discrètes nécessaires et suffisantes pour déterminer son évolution.
Pour qu'un traitement effectué par le cerveau soit calculable, il faut bien entendu que la physique sous-jacente soit calculable.Envoyé par gillesh38Donc j'en déduis (et je sais que je me répete) que pour dire qu'un système est algorithmique, il faut et il suffit de pouvoir définir un certain nombres de variables discrètes permettant de calculer son évolution (ces variables pouvant éventuellement être des entrées de l'extérieur bien sûr). Je sais faire ça pour la machine de Pascal, pour un boulier ou pour un ordinateur, mais je ne vois toujours pas où sont ces variables pour le cerveau.....
Cependant, si on s'intéresse à un traitement "similaire" et pas nécessairement équivalent, alors, on peut trouver ces "variables" comme tu dis. En effet, nombreux sont les scientifiques qui pensent que l'activité d'un neurone particulier n'est pas fondamentale. L'important se passe surtout au niveau de l'activation de groupes de neurones et de la dynamique de cette activation, avec là encore une certaine marge de manoeuvre, car on n'est sans doute pas au dix-millième de seconde près. Par conséquent, il est légitime de croire qu'on doit pouvoir simuler le traitement d'un cerveau et parvenir à un traitement "similaire" simplement en modélisant des groupes de neurones aux propriétés spécifiques et interagissant entre eux, en y ajoutant sans doute également la modélisation de certaines données physiologiques. Telles sont les variables nécessaires que tu demandes.
D'accord. Dans ce cas, si on se contente de similarités, il n'est pas nécessaire que les deux soient algorithmiques. Il n'est même pas nécessaire que l'un des deux soient algorithmique. De toutes façons, la similarité, contrairement à l'équivalence, dépend de tes critères. Un ordinateur est similaire a un humain pour le jeu d'échec, mais pas dans sa façon d'avoir faim par exemple. Pour cela, un singe est plus similaire à lui. Et il se peut que ni l'homme, ni le singe ne soit algorithmique.Envoyé par ArgyreOui .... mais ce n'est pas le problème ! Et nous sommes plusieurs à t'avoir dit que l'important, ce n'était pas l'équivalence, mais la similarité. Un traitement effectué par un objet A est similaire au traitement effectué par un objet B si en première approximation, il n'est pas possible de savoir si c'est A ou B qui a effectué le traitement.
En fait, si on abandonne la notion d'équivalence, l'algorithmicité du cerveau n'a plus vraiment d'importance, tu ne crois pas?
Tu es allé un peu vite sur la dernière phrase! ce n'est pas parce que chaque neurone n'a pas d'importance (ce qui entre parenthèses n'est pas vraiment un point fort pour démontrer l'algorithmicité, même si on peut s'en tirer avec la redondance), que ça résout le problème de savoir quelles sont ces variables! a mon avis dès qu'on essaie de mettre des choses précises sur le papier on se rend compte que rien ne marche vraiment bien.En effet, nombreux sont les scientifiques qui pensent que l'activité d'un neurone particulier n'est pas fondamentale. L'important se passe surtout au niveau de l'activation de groupes de neurones et de la dynamique de cette activation, avec là encore une certaine marge de manoeuvre, car on n'est sans doute pas au dix-millième de seconde près. Par conséquent, il est légitime de croire qu'on doit pouvoir simuler le traitement d'un cerveau et parvenir à un traitement "similaire" simplement en modélisant des groupes de neurones aux propriétés spécifiques et interagissant entre eux, en y ajoutant sans doute également la modélisation de certaines données physiologiques. Telles sont les variables nécessaires que tu demandes.
Mais encore une fois si on se contente de similarité, on n'est pas obligé de démontrer qu'il est algorithmique. Simplement on perd la force de la thèse de Church, qui aurait permis de démontrer qu'on pouvait en théorie imiter un cerveau dans TOUS ses aspects. Si on n'a plus l'équivalence, on ne peut plus rien dire, et surtout pas sur la conscience.
Sur ce point, je suis d'accord, entre la pratique et la théorie, il y a un sacré fossé.Envoyé par gillesh38A mon avis dès qu'on essaie de mettre des choses précises sur le papier on se rend compte que rien ne marche vraiment bien.
Pas tout à fait, car on peut s'intéresser à 2 cas :Envoyé par gillesh38Mais encore une fois si on se contente de similarité, on n'est pas obligé de démontrer qu'il est algorithmique. Simplement on perd la force de la thèse de Church, qui aurait permis de démontrer qu'on pouvait en théorie imiter un cerveau dans TOUS ses aspects. Si on n'a plus l'équivalence, on ne peut plus rien dire, et surtout pas sur la conscience.
1) Si l'univers est mathématiquement déterministe selon un processus calculable, alors la thèse de Church peut être utilisée.
2) On peut s'intéresser à l'impact de quelque chose de non déterministe et non calculable sur le traitement de l'information réalisé par le cerveau. Et si on peut montrer que ce quelque chose est négligeable ou que le traitement reste "similaire", cela voudrait dire que l'essentiel de l'intelligence et de la conscience est algorithmique. Or, certains indices semblent déjà aller dans ce sens :
- on a identifié par exemple certains traitements algorithmiques réalisés par les neurones qui traitent les informations venant de la vision (sensibilité des neurones à des stimuli très spécifiques comme des barres avec une certaine orientation, ou encore une sorte de neurone "grand-mère" qui ne s'active que lorsqu'un certain objet est présent dans le champ visuel)
- on a identifié également le mécanisme d'apprentissage associatif apparaissant dans le contexte du conditionnement pavlovien.
Cela ne démontre rien, tu as raison, cela ne fait que suggérer, mais c'est déjà pas mal.
Les indices me semblent s'arrêter sur la même frontière que l'algorithmie : l'auto organisation d'une structure capable de coordonner les sous systèmes pour s'adapter automatiquement à une situation nouvelle.Envoyé par Argyre... Et si on peut montrer que ce quelque chose est négligeable
...
Or, certains indices semblent déjà aller dans ce sens :
...
Cela ne démontre rien, tu as raison, cela ne fait que suggérer, mais c'est déjà pas mal.
En fait pour départager les hypothèses ( l'intelligence cérébrale est elle algorithmique ou pas ) il faudrait montrer la présence d'une métaheuristique algorithmique dans le cortex...
...bon courage.
Je viens de découvrir le blog d'empyrée.
Tres, tres interessant...
Voici un lien sur les rapports entre le contenu et la technologie assurant la diffusion :
C'est dans le cadre du web mais il me semble que celà peut s'appliquer aussi à l'IA :
http://blog.empyree.org/?2004/10/25/...on-automatique
Ok, ce n'est que mon troisieme lien sur ce blog ce soir. Mais quoi ? çà fait tellement plaisir de lire en français plein de réflexions intelligentes sur l'état du monde.
Je suis plutôt agréablement surpris qu'il n'y ai pas sur ce forum cette unanimité pro IA que l'on trouve ailleur. Pour moi l'IA forte n'est qu'une chimère. Mais j'attend avec impatience des progrès dans le domaine de la robotique. Je pense qu'à l'avenir les robots seront des automates de plus en plus perfectionnés et effectueront des tâches de plus en plus complexes, bien que répétitives et de demandant pas de grandes facultés mentales ou de "créativité". Cela permettra aux hommes de se libérer de tâches répétitives, ennuyeuses et harassantes. On pourra ainsi plus se consacrer à des activités "créatives" mettant en jeu nos processus mentaux, ainsi qu'au développement de nos capacités intellectuelles.
Salut transhuman ; je n'ai pas suivi tout le fil, donc voilà j'espère que ça n'a pas été posté plus haut : )
Mate ici, la vidéo devrait très probablement t'intéresser http://www.archive.org/details/sims_...creatures_1994
Ca date de 1994, on peut se douter que maintenant on est un pont plus loin : )
J'attends tes commentaires en tout cas, à bientôt.
Bonjour,Envoyé par vae-Salut transhuman ; je n'ai pas suivi tout le fil, donc voilà j'espère que ça n'a pas été posté plus haut : )
Mate ici, la vidéo devrait très probablement t'intéresser http://www.archive.org/details/sims_...creatures_1994
Ca date de 1994, on peut se douter que maintenant on est un pont plus loin : )
J'attends tes commentaires en tout cas, à bientôt.
C'est très joli mais celà reste un algorithme de sélection
Je vais pas reprendre la discussion mais il me semble que pour avoir de l'intelligence il faut une capacité à généraliser via l'innovation et je ne vois rien dans cette voie de la part des algo génétiques, meme si ceux ci sont très intéressants pour des applications variées ou définir une solution rigoureuse est en pratique infaisable.