oui mais là tu supposes que les "mécanismes de la conscience" ne sont qu'algorithmiques et uniquement décrits par la structures des milliards de synapses. Explique moi comment en te bornant à une telle description tu vas pouvoir décrire l'effet sur la conscience de l'absorption d'un verre d'alcool, puis de deux verres, puis d'une bouteille (ou d'autres substances plus fortes !!) par exemple, ou l'effet d'une maladie d'Alzheimer. Encore une fois les ordinateurs qui réussissent des prouesses partagent sans doute certains traits de l'intelligence humaine, tout comme les caméras ont des optiques et des récepteurs photosensibles comme un oeil, mais ça ne prouve nullement qu'ils peuvent devenir identiques , ni qu'on ait vraiment avancé sur "ce qui fait la conscience", puisqu'encore une fois leurs performances ont été obtenues SANS avoir à reproduire cette conscience justement. C'est comme si tu disais qu'en ayant fait des progrès spectaculaires sur la couleur et la texture d'une peau artificielle en plastique, tu avances sur le problème de savoir comment elle peut cicatriser toute seule !
-----



un tas de pétabrique c'est violent, et pour les exabriques, ça fait des pyramides !
)

)

) Donc c'est pas pour (dé)moraliser, mais il se pourrait que l'IA trouve une porte de sortie, pas dérobée, mais empêchant de l'arrêter facilement (ne serait-ce parce que même des humains seraient prêts à l'aider par confiance ou convictions aveugles, et si le programme en question supervise des installations de type centrale énergétique (car c'est bien là qu'est le nerf de la guerre) genre stellarator, par exemple, l'arrêter serait catastrophique pour notre organisation dont celle-ci dépend). Donc, c'est pas totalement biscornu !