tes "règles d'inférences" ne sont jamais que des suites de 1 et de 0.
Je génère toutes les suites possibles d'une certaines longueur et je les fait entrer en compétition dans un mécanisme de sélection des règles apportant la meilleure réponse. (nous sommes d'accord que 99.99% de ces règles aléatoires ne veulent absolument rien dire).
Je crée ainsi des règles nouvelles.
évidemment pour le faire il faut programmer à un niveau bas dans la machine (et pas confortablement en java) et on perd la capacité de transférer ce programme d'une machine à l'autre (surtout après sélection des règles).
Tiens c'est exactement ce qui se passe entre deux cerveaux humains...
En tout cas, le comportement n'est pas la bonne observation.
Quoi que....dans intelligence animal sur wiki, la partie "conscience" :
http://fr.wikipedia.org/wiki/Intelligence_animaleUn courant de recherche récent en psychologie animale, initié en 1978 par Premack et Woodruff[44], envisage la question des attributions de savoirs et de pensées chez les animaux et en particulier chez les primates. Dans cette perspective, le chercheur tente de déterminer si, par exemple, des chimpanzés pensent que leurs congénères ont des intentions. Ce type de question est abordé dans le cadre de la théorie de l’esprit (theory of mind).
Deux raisons permettent de parler de « théorie ». La première tient au fait que les états mentaux ne sont pas des phénomènes directement observables et qu’il faut donc les inférer. De plus, l’existence de ces systèmes inférentiels permet à celui qui les possède de réaliser des prédictions à propos du comportement d’autres individus[45].
Le thème de l’attribution des savoirs concerne en premier lieu les connaissances qu’un individu peut élaborer à propos de lui-même. Une méthode pour évaluer ces connaissances se rapporte par exemple aux réactions que cet individu manifeste devant son image dans un miroir.
L'un des tests les plus usités pour vérifier l'intelligence d'un animal est l'épreuve du miroir, qui consiste à placer l'animal à tester seul devant un miroir pour voir s'il se "reconnaît", s'il a conscience de lui-même[46]. Pour ce faire, l'animal est marqué avec de la peinture à un endroit où il ne peut pas s'observer lui-même, par exemple sur le front pour un chimpanzé. Ensuite, l'observateur étudie le comportement de l'animal : s'il attaque son reflet ou le fuit, c'est signe qu'il ne comprend pas que c'est lui qu'il voit dans le miroir et non pas un autre animal. Par contre, s'il tente de savoir ce qu'il y a derrière le miroir, s'il touche la marque de peinture avec insistance et s'il inspecte diverses autres parties de son corps qu'il ne peut observer par lui-même, c'est signe qu'il comprend que c'est lui qu'il voit dans le miroir, et donc cela prouve qu'il a conscience de lui-même. À ce jour, seuls les grands singes, le dauphin, l'orque, la pie et l'éléphant[47],[48] ont passé avec succès le test du miroir. Les premiers tests faits avec les grands singes n'ont pas été concluants car les chercheurs plaçaient la caméra en face de l'animal. Or, les grands singes détestent se regarder dans les yeux. Ils détournaient donc le regard de l'écran. Si l'on place la caméra de côté, le grand singe se reconnaît aisément.
Si un ordinnateur se reconnait dans un mirroir, je veux bien reconnaitre qu'il pense. Mais il ne doit pas être conçu expressement pour cette tâche, sinon c'est trop simple
L'algorithme est le même. Elle génère toutes les phrases d'une certaine longueur (correspondant à ses capacités) et teste celles qui sont utiles.
La difficulté n'est pas dans la génération des axiomes, mais dans la notion de tri de ce qui est utile.
Edit: avant que tu me le demandes, je ne dispose pas encore de la liste des algorithmes complets pour faire une machine intelligente. J'ai juste un gros tas de contre exemples.
C'est plus facile à dire qu'a réaliser. Il faut déjà définir la syntaxique d'un langage qui permet de construire correctement des termes et les formules qui désignent des propriétés de ces termes ou des assertion à propos de ceux-ci. C'est à dire identifier des symboles qui seront spécifiques au domaine étudié, que l'on appelle signature du langage (partie non logique du langage).
Puis générer un ensemble de proposition bien formé dans lequel sera choisi un certain nombre d'axiomes (système d'axiome qui peut être infini), à vérifier qu'ils ne sont pas contradictoires les uns avec les autres.
Après reste toute la problématique de donner un sens/sémantique à cette axiomatique donc fabriquer des modèles ....
Patrick
Je n'ai pas dit le contraire, sinon 1/ je l'aurais fait et 2/ceux qui se penchent sur le sujet de l'IA en gros depuis qu'on fait des ordinateurs l'auraient fait aussi.
Mais on chercher trop compliqué par rapport à la biologie, ça c'est une certitude.
Mais on peut déjà simplifier en se débarrassant d'un certain nombre de choses superflues. Le jeune enfant qui apprend à parler ne commence pas par définir la syntaxique d'un langage et ne s'embarrasse pas du soucis de produire des phrases correctes... Et pourtant ça marche.
En résumé, tu as une vision top down et moi bottom up
Bonjour,
mais je doute qu'il arrive à un résultat efficient uniquement parce qu'il a tout essayé au hasard et qu'il n'a retenu que les systèmes qui marchent. En d'autres mots, il me semble que c'est donner un trop beau rôle à la sélection naturelle. Or il m'a toujours semblé qu'une petite poignée de milliards d'années ne fait pas le poids en face du gigantisme de la combinatoire (le vieil argument du singe devant la machine à écrire...)
Of course deux fois. Mon point n'est pas qu'un esprit humain pourrait ne pas produire de signaux détectables (si c'est le cas, on est hors sciences...). Mon point est qu'un esprit humain pourrait ne pas produire de signaux que l'on sache reconnaitre.
L'exemple de l'IRM comme interface humain-machine de communication est très approprié encore une fois. Pourquoi est-ce qu'on a reconnu que des gens classifiés végétatifs ont une pensée? Parce qu'ils ont été capables de contrôler leur hémodynamique (la source du signal en IRMf) d'une manière à produire des signaux que l'on a reconnu. Étant donné l'état de l'art sur les interfaces humain-machine (dès fois ça marche bien, dès ça marche pas bien, y compris chez des sujets sans incapacité neurologique), il me semble clair qu'il doit exister des personnes diagnostiquées comme végétatif, capable de pensées, et incapable de contrôler leur hémodynamique d'une façon que l'on sache reconnaitre. Problème! Il faudrait être capable, non pas de détecter leurs activités cérébrales (on sait déjà le faire, même si cela reste grossier), mais surtout de savoir comment les interpréter.
Ces personnes posent le même problème que de détecter si une entité non humaine à des pensées. A ceci près que la question n'est ni théorique, ni réservée à un futur plus ou moins lointain.
ça va beaucoup plus vite qu'on ne pense si à chaque étape on interagit avec un adulte qui valide ou invalide les essais (ou pour la partie commande motrice du cerveau quand on reçoit ou non le feedback d'un mouvement).Bonjour,
mais je doute qu'il arrive à un résultat efficient uniquement parce qu'il a tout essayé au hasard et qu'il n'a retenu que les systèmes qui marchent. En d'autres mots, il me semble que c'est donner un trop beau rôle à la sélection naturelle. Or il m'a toujours semblé qu'une petite poignée de milliards d'années ne fait pas le poids en face du gigantisme de la combinatoire (le vieil argument du singe devant la machine à écrire...)
C'est la différence de probabilité entre lancer 100 dés jusqu'à qu'on obtienne 100 fois 1 et lancer 100 dés, garder les 1, et relancer le reste jusqu'à ce qu'on obtienne 100 fois 1.
Tu réalises les implications de ce que tu as écris, évidemment...il me semble clair qu'il doit exister des personnes diagnostiquées comme végétatif, capable de pensées, et incapable de contrôler leur hémodynamique d'une façon que l'on sache reconnaitre. Problème!
Jusqu'à quel stade de coma a-t-on réalisé des IRMf?
Parce que pour le coup, il n'y a pas de raison de s'arrêter aux comas végétatifs.
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus
si on revient à la notion intuitive "petit Robert" de la pensée, je pense qu'on sera tous d'accord pour dire qu'elle inclut de manière centrale la représentation catégorisée d'une réalité ambiante (ou d'un souvenir de cette réalité). Si nous n'avions pas nos catégories mentales, le monde serait comme dit Kant un ensemble informe de sensations auquel nous ne saurions donner aucune interprétation. Nous savons que nous sommes quelqu'uns, qu'il y a d'autres quelqu'uns que nous savons reconnaitre, dont nous attribuons des rôles mentalement, des origines, des histoires. Il y a une organisation mentale du réel.
Est ce qu'un ordinateur organise le réel, sait qu'il est un ordinateur construit et utilisé par des humains ?
ben... y a qu'à lui demander pour savoir !
pareil pour le web : demandez lui ce que ça lui fait d'avoir été créé par des humains, par exemple ?
à qui je pose la question ?
Plus je lis ce fil, avec beaucoup d'intérêt, plus j'ai l'impression que certains font une sorte de blocage psychologique.
Pour moi, la différence entre un humain et une machine, c'est seulement le "mode de fabrication".
Un humain est le résultat d'une évolution de plusieurs milliards d'année à partir du premier être vivant.
Une machine est conçue et fabriquée par nous, à partir des matériaux à notre disposition et des techniques de fabrication à notre portée.
Donc, clairement, les deux objets (homme et machine) n'ont pas la même histoire, les processus de conception et de fabrication sont très différents.
En revanche, je ne vois pas du tout pourquoi, sous prétexte qu'ils sont fabriqués de manière totalement différente, il y aurait une impossibilité à ce que ces deux objets partagent les mêmes fonctions.
Nous ne sommes qu'une construction comme une autre, de la matière organisée d'une manière particulière (et complexe). Toutes les fonctions que nous avons ne sont que le résultat strict de l'agencement de la matière dans notre corps. Notre "intelligence", notre "conscience", notre "pensée", nos "émotions" ne sont que le résultat de l'organisation de la matière de nos corps ... de la même manière que les fonctions d'un grille pain sont le résultat de l'organisation de la matière dans le grille pain.
On constate que la nature construit quotidiennement 350000 nouveaux objets (nombre de naissances chaque jour dans le monde) présentant un certain nombre de fonctions évoluées.
Qui peut prétendre que l'homme ne pourra jamais construire des objets ayant une ou plusieurs de ces fonctions évoluées, quelle est la loi de la nature qui interdirait cela ?
C'est à dire ?
Parce que je crois que ça serait bien de pouvoir comprendre de quoi il retourne. Est-ce que ça implique la définition de mort clinique ?
Ou je fais un contresens ?
Oui, mais cela n'implique-t-il pas une sorte de "volonté" de préserver les solutions qui marchent? On pourrait imaginer que le hasard les fasse perdre aussi facilement qu'il les fait trouver, avant qu'elles aient eu le temps de s'inscrire durablement dans le comportement. Et cette "volonté" n'est-elle pas tout simplement ce qu'on appelle le "désir de vivre", qu'on aura plus de mal à mettre en évidence chez une machine?ça va beaucoup plus vite qu'on ne pense si à chaque étape on interagit avec un adulte qui valide ou invalide les essais (ou pour la partie commande motrice du cerveau quand on reçoit ou non le feedback d'un mouvement).
C'est la différence de probabilité entre lancer 100 dés jusqu'à qu'on obtienne 100 fois 1 et lancer 100 dés, garder les 1, et relancer le reste jusqu'à ce qu'on obtienne 100 fois 1.
PS un bon critère serait d'ailleurs de pouvoir demander à une machine si elle craint... la déconnexion!
Exactement la même "volonté" que ce dont la théorie de l'évolution a besoin: une simple pression de sélection.
Attention, le "désir de vivre" est une conséquence de l'évolution (et de la vie), pas son moteur.Et cette "volonté" n'est-elle pas tout simplement ce qu'on appelle le "désir de vivre"
Pourquoi, tu crains de dormir ?PS un bon critère serait d'ailleurs de pouvoir demander à une machine si elle craint... la déconnexion!
dans une autre discussion pour clarifier l'apparition de la conscience à un moment du développement humain j'ai fait l'analogie avec l'apparition des battements cardiaques. je pense que cette analogie est assez instructive. Et comme là il s'agit de "mécanique" ça ne déclenche pas de questions métaphysiques sur la nature de la pensée. Ce qui fera battre le cœur est entièrement codé dans l'œuf initial, mais il y a un instant où ce phénomène se manifeste assez brutalement.
un exemple typique de news sur le sujet
http://fr.news.yahoo.com/79/20100920...r-be0b1cf.html
à part le lapsus rigolo de l'introduction "Les robots dont les capacités physiques et intellectuelles sont supérieures aux humains finissent pas [sic] en prendre conscience.", l'arnaque intellectuelle est visible : à partir d'un fait, qui est qu'on sait programmer des algorithmiques conduisant à un comportement observable, auquel un humain trouvera des similitudes avec certains comportements intelligents (la seule chose que produit l'IA en fait), on conclut "Les robots sont donc capables de mentir et de duper sciemment un adversaire. Nous pouvons commencer à nous inquiéter."
le "sciemment" est quand même absurde : en quoi le robot SAIT-il qu'il ment ? et en quoi SAIT-il quoi que ce soit d'ailleurs ? il ne peut évidemment répondre à aucune question sur ce qu'il fait, et ne savait absolument pas que d'autres robots allaient choisir le chemin, il n'y a que l'homme qui était derriere qui savait ce qui se passait !
et puis , ça fait tres longtemps que les ordinateurs mentent "ce programme va vous aider à résoudre le problème ... "
Mmm... ça pourrait à mon avis se discuter!
Non, mais de mourir, certainement, comme tout être.Pourquoi, tu crains de dormir ?
Bien sûr on peut toujours dire que la pression de sélection fait que nous avons cette crainte, car ceux qui ne l'auraient pas eu n'ont pas survécu longtemps... Cependant, je ne vois guère en quoi elle est indispensable (je veux dire la peur, quasi-obsessionnelle).
ben rien, il en construit tout le temps avec ses propres enfants ....
le problème est posé par la question initiale que j'ai posé : c'est quoi une machine? si on prend "machine" dans un sens restrictif, proposé par d'autres ici, on restreint l'espace des possibles. Si on prend la condition de "penser" comme un être humain, on apporte une autre restriction. Y a-t-il un théorème permettant d'assurer que deux restrictions ont une intersection non nulle? pas à ma connaissance.
Tu vas me dire : il n'y en a pas non plus qui démontrent qu'il y a toujours une intersection nulle, ce qui est vrai. N'empêche que les éléments de réalité peuvent tout à fait conduire à une conclusion raisonnable. Par exemple : existent-ils des rennes volants ? pas à ma connaissance. En théorie , il est peut etre possible d'imaginer une sorte de renne, avec une énorme cavité interne et des organes comprimés dans la peau autour , remplis par exemple de méthane (plus léger que l'air), qui pourraient peut etre voler, mais ce n'est en rien garanti et c'est très improbable compte tenu de ce qu'on sait de la physiologie non?
donc compte tenu des éléments de réalité déjà connus sur ce qu'on fait en IA et ce que font des robots, y a-t-il des éléments de réalité supposant qu'il est plausible que des robots se rendent compte ce qu'ils sont, et en parlent à des êtres humains? pour moi non.
Ce que je conteste surtout, c'est que les choses qu'on réalise vraiment (c'est à dire des robots qui donnent l'apparence de faire des choses humaines), constituent ce genre d'éléments de réalite, c'est à dire rendent probables que ça existera un jour, et constituent une preuve qu'on s'en approche - ce qui transparait souvent dans les compte rendus qu'on en donne. Pour moi , ça n'est aucunement un début de commencement de quelque chose qui pense. Mais on peut etre d'un avis différent : à part proposer un pari comme il m'est arrivé de le faire, je n'ai pas d'autre argument.
Non, pas de la mort clinique en tout cas, puisque celle-ci est définie par l'arrêt cardio-respiratoire.
Par contre, le critère utilisé pour la mort cérébrale, c'est-à-dire l' EEG plat, n'est peut-être pas bon...
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus
Ne devrait-on pas alors simplement en déduire que l'activité de penser n'est pas le fait exclusif du cerveau ?
Et ça ramène alors sur l'aspect purement "mécanique" de la totalité du corps humain, y compris le cerveau, ce qui revient à dire que l'interrogation sur la capacité à penser de toute entité mécanique ou animale (suffisamment complexe) est une question pertinente, non ?
Pour ma part, je défini la machine comme "non vivant" et je défini le vivant comme "basé sur la molécule d'ADN". Donc, la machine, ça deviendrait "Non basé sur la molécule d'ADN". Je sais bien que c'est attaquable comme définition (à plusieurs titres, en particulier pour classer tout ce qui découle du "génie génétique") ... mais ça me va pour le moment. Sans chercher à être précis, la machine ici, c'est un truc constitué de plastique, de métal, de silicium et qui est fabriqué des humains aidés par d'autres machines (outils).
Moi, en fait, je ne cherche pas à trop préciser les définitions de "penser", "penser comme un humain", "être conscient de ce qu'on fait", "être intelligent". Je préfère dire : donnez moi une fonction ou propriété que vous attribuez aux être humains. Appelons cette propriété la propriété X. Ensuite, je me fiche de savoir ce que c'est, mais je dis : Quelle loi de la nature empêcherait de construire une machine ayant la propriété X alors que la nature créée chaque jour des objets (les humains) ayant la propriété X ?
Oui, je vais dire cela. Et je vais prendre un exemple pour appuyer cela.
Supposons que je demande à Newton de répondre à cette question:
"Est-il possible de projeter cette balle de golf à la vitesse de 400000 km/s (dans le vide) ?"
Là, Newton va certainement me répondre: "D'après ma théorie et mes expériences, si vous transmettez suffisamment d'énergie à cette balle (pas trop brutalement), elle peut atteindre la vitesse de 400000 km/s."
En fait, il se trompe, mais il ne peut pas le savoir. Donc, par rapport à ses connaissances et ses expériences, il est cohérent.
Mais, imaginons que Newton me réponde: "Aucune loi connue ne l'interdit, mais je doute que ce soit possible. Dans le doute, j'imagine qu'il doit y avoir une loi de la nature que je personne n'a pas mis en évidence jusque là et qui doit interdire d'atteindre une telle vitesse".
En fait, il a raison, mais il ne peut pas le savoir. Donc, par rapport à ses connaissances et ses expériences, il n'est pas cohérent. Il exprime une conviction, qui n'a pas de valeur scientifique.
Pour moi, la cohérence voudrait qu'il donne la première réponse, tout en sachant bien qu'aucune connaissance n'est certaine et qu'il peut très bien se tromper.
En disant cela, tu fais dire à Newton "Ma théorie n'interdit pas que la balle de golf se déplace à 400000 km/s, mais comme je ne vois autour de moi aucun mobile qui se déplace à une vitesse proche de cette valeur, alors je considère que ce n'est pas possible jusqu'à ce qu'on arrive au moins à approcher cette vitesse."N'empêche que les éléments de réalité peuvent tout à fait conduire à une conclusion raisonnable. Par exemple : existent-ils des rennes volants ? pas à ma connaissance. En théorie , il est peut etre possible d'imaginer une sorte de renne, avec une énorme cavité interne et des organes comprimés dans la peau autour , remplis par exemple de méthane (plus léger que l'air), qui pourraient peut etre voler, mais ce n'est en rien garanti et c'est très improbable compte tenu de ce qu'on sait de la physiologie non?
donc compte tenu des éléments de réalité déjà connus sur ce qu'on fait en IA et ce que font des robots, y a-t-il des éléments de réalité supposant qu'il est plausible que des robots se rendent compte ce qu'ils sont, et en parlent à des êtres humains? pour moi non.
Pour moi, cette position n'est pas cohérente.
La position cohérente consiste à dire "A priori, c'est possible ... jusqu'à preuve du contraire" pas "A priori, c'est impossible jusqu'à preuve de réalisation".
Je vois ... je trouve ta position très acceptable et je comprends ta réaction par rapport à certains préjugés rationalistes. Sache qu'il existe aussi le préjugé inverse : "Aucune machine ne pourra être aussi intelligente qu'un humain, car ... l'homme a été créé par Dieu ... ou parce que c'est évident ... ou parce qu'une machine n'a pas d'ame, etc".Ce que je conteste surtout, c'est que les choses qu'on réalise vraiment (c'est à dire des robots qui donnent l'apparence de faire des choses humaines), constituent ce genre d'éléments de réalite, c'est à dire rendent probables que ça existera un jour, et constituent une preuve qu'on s'en approche - ce qui transparait souvent dans les compte rendus qu'on en donne. Pour moi , ça n'est aucunement un début de commencement de quelque chose qui pense.
Mais, je ne suis pas loin de te rejoindre ... même si mon coeur balance. Je trouve à la fois que les ordinateurs sont parfois bluffants et parfois, je les trouve stupide comme de vieilles casseroles.
Disons que je trouve les expériences qui sont faites actuellement très intéressante et très encourageantes (la traduction automatique de Google FR-EN est loin d'être ridicule) ... mais encore très loin de me convaincre qu'on arrivera un jour à résoudre des problèmes complexes qu'un humain peut traiter.
Néanmoins, je pense que la cohérence devrait nous faire dire:
A priori, c'est possible compte tenu de nos connaissances actuelles (quoique difficile), sachant que cet à priori peut être remis en cause si on découvre plus tard une nouvelle loi de la nature qui l'empêcherait.
bon, mais je n'exclus pas non plus totalement qu'il existe des rennes volants, gonflés au méthane (ou qu'ils puissent exister un jour), ni même que des OVNIs puissent être des vaisseaux extraterrestres qui nous surveillent, ou que les tours du WTC aient été détruites par le gouvernement américain. A priori c'est possible, jusqu'à preuve du contraire. Mais tout compte fait compte tenu des éléments de réalité que je connais, je n'engagerais rien de sérieux là-dessus. Pas plus que sur l'existence de robots intelligents.
Je ne pense pas l'avoir déjà discuté avec toi, mais j'aime bien (trop pour certains) donner un contenu concret à la croyance en essayant de la quantifier par ce qu'on serait prêt à risquer matériellement . C'est à dire un pari. Par exemple serais tu prêt à signer un papier par lequel tu t'engagerais à renoncer à ta retraite, mais à bénéficier gratuitement d'un robot intelligent quand tu y seras, dont tu pourrais toucher les bénéfices du travail ? moi pas. Et je pense personne de raisonnable. Ce qui veut dire en réalité qu'on ne croit qu'à ce qui coûte rien (ça ne coûte rien de dire " on peut pas l'exclure, c'est toujours possible"), mais on ne le croit plus quand ça commence à potentiellement coûter quelque chose - c'est ce que j'appelle une croyance faible. Mais tu n'hésiterais pas à prendre un pari couteux à 1000 contre un sur l'apparition réelle d'une éclipse prédite dans deux ans, comme Tintin - ça c'est une croyance forte.
sur ce genre de critère d'apparence , les ordinateurs sont très bons, et ça fait longtemps qu'ils calculent bien mieux que les humains ! mais essaye de discuter avec Google FR-EN de pourquoi il a choisi une traduction plutot qu'une autre, de lui demander son avis sur comment traduire un mot difficile (je me souviens d'un exemple donné par un prof d'anglais : comment traduire en anglais "ah ben décidément !" quand il t'arrive la 3e tuile de la journée ?), bref le quotidien des vrais traducteurs? quel avis il a sur la question ?Disons que je trouve les expériences qui sont faites actuellement très intéressante et très encourageantes (la traduction automatique de Google FR-EN est loin d'être ridicule) ... mais encore très loin de me convaincre qu'on arrivera un jour à résoudre des problèmes complexes qu'un humain peut traiter.
c'est pour ça que je dis que ce genre de critère (la ressemblance extérieure avec le résultat humain) n'est en rien un indice qu'on s'est approché du mécanisme intime de la pensée humaine - qui est bien la question initiale non ? quelle que soit la position "théorique" sur "on ne peut pas l'exclure", je pense qu'il est incorrect de prétendre qu'on s'en approche.
Je ne vois pas bien pourquoi ; ce que dit Jiav ( signaux qu'on ne sait pas détecter et/ou interpréter) ne remet pas en cause le fait que la pensée soit une production du cerveau uniquement...le cas du "locked in" me parait fournir un argument dans ce sens. Maintenant, à quel point le "cerveau isolé" existe en neuropatho, c'est ce que j'ignore.Ne devrait-on pas alors simplement en déduire que l'activité de penser n'est pas le fait exclusif du cerveau ?
Je suis tout à fait d'accord avec ça ;mais j'ai du mal à le relier avec le début de la phrase.l'interrogation sur la capacité à penser de toute entité mécanique ou animale (suffisamment complexe) est une question pertinente, non ?
"mal nommer un objet, c'est ajouter au malheur de ce monde". Albert Camus