Effectivement, le vouloir, l'intentionnalité font partie des caractéristiques de la conscience humaine.il me semble qu'un critère simple de conscience, c'est l'intentionnalité. Quand on veut quelque chose, la conscience, c'est ce "je" qui veut quelque chose. C'est l'auteur de ce vouloir.
(toute la question étant de déterminer à partir de quand un automate se met à "vouloir" ce qu'il fait)
Mais pourquoi chercher, à mettre sur un même plan, la conscience humaine, et la conscience-artificielle de l'ordinateur ?
Je pense que c'est justement ce qu'il faut éviter...Et c'est là que nous nous fourvoyons...Car des lors nous tombons dans un débat sans fin, consistant à savoir à partir de quand un ordinateur est conscient.
La conscience-artificielle, d'un ordinateur, a les caractéristiques permises par sa structure, son harware, et ses ou ses softwares et un certain degré d'autonomie...très relatif.
Selon mon point de vue, à partir du moment ou une structure, peut-être caractérisée d'un point de vue fonctionnel, et doté d'une certaine autonomie, d'un objectif implicite ou explicite, on peut la qualifier de consciente...
( Un logiciel par exemple a une certaine autonomie, et porteur d'un projet, peut-être capable de communiquer, et d'apprendre,etc... )
Un arbre est porteur d'un projet implicite lié à des critères de survie dans l'environnement, donc pour moi l'arbre est conscient, et de part son degré d'autonomie, beaucoup plus conscient que le plus puissant de nos ordinateurs...
Mais pour un ordinateur il s'agit d'une conscience-artificielle, ayant ses caractéristiques spécifiques, qui n'ont rien à voir avec les possibilités de la conscience humaine.
De même qu'un vers de terre peut être décrit fonctionnellement, il a une attitude cohérente, réagit à son environnement en fonction d'un projet de survie, etc....Donc il est une forme-de-conscience.
Cordialement,
Korzibsk
-----