Bonsoir !
En tant que programmeur amateur j'ai été très choqué par le film "I, robot" (j'espere que vous l'avez vu ) qui révele une véritable faille, un danger potentiel dans les fameuses 3 lois de la robotique, sois disant parfaites...
De fait, si un robot se doit de porter secour à un humain, même contre la volonté de ce dernier qu'est ce qui empechera dès lors le robot de nous supprimer toute liberté ? Rien qu'en mangeant des frites vous vous mettez en danger : risque de cholestérol à long terme et donc de mort. Prendre sa voiture releve statistiquement aussi du suicide, votre robot domestique pourrait vous l'interdire, vous forçant à aller à pied, moyen de transport le plus sur ! On pourrait faire une liste de ce genre de situation mais dès lors la question tombe : que faire pour éviter ce genre de problème ?
Comment pouvons nous programmer un robot pour qu'il nous protège d'abord et nous obéisse ensuite sans supprimer nos libertés ? Il faudrait lui insuffler une sorte de limitation morale signalant ce qui est exageré et ce qui ne l'est pas, mais comment voulez vous introduire dans la robotique des critères aussi subjectif, parfois incomplets et dépendants des faits de la vie de tous les jours ??? En tant que programmeur amateur je suis totalement dépassé dans l'imagination de tels algorithmes... Ca me parait inimaginable...
-----