Ce sujet aurait plutôt sa place dans Ethique, mais cette rubrique n'existe plus... Le thème a été recentré.
Depuis quelques années, le concept de "Guerre automatisée", associé à celui de "guerre propre", a commencé à prendre une forme concrète avec l'apparition des premiers programmes de drones offensifs opérationnels (en particulier en ce qui concerne l'arme aérienne).
Sans aller jusqu'à évoquer l'idée d'une guerre prenant la forme d'un grand "WarGame" peuplé de drones et de machines de Turing/Von Neumann, je me permets de soulever un problème éthique (qui ne se pose pas encore, sachant que ces machines ne sont pas dotée de la capacité de "décision") :
Peut-on laisser à un système offensif automatisé
le choix d'ouvrir ou non le feu dans le cadre d'un conflit ?
Ou alors doit-on laisser dans la chaîne de décision la présence d'un opérateur physiquement présent, validant ou non le choix de la machine ?
Quel est votre avis, voire mieux, votre position face à ce problème ?
Comme tu le vois, la section Ethique a été rouverte
Sujet déplacé
vince
-----