Les problèmes du programmeur d'IA et la probabilité d'un programme "néfaste".
Les problèmes classiques du programmeur qui se limite aux algorithmes et aux calculs sont connus par tous ceux qui écrivent (avec succès) des programmes simples, même si ces programmes comportent des dizaines de milliers de lignes.
Écrire un programme d'IA ou de système expert offre beaucoup plus d'occasions de se planter, pour la simple raison qu'on est obligé à certains moments de "laisser la bride" au programme qui peut éventuellement avoir envie de créer une base de données excédant les possibilités de la machine, ou d'effectuer des itérations sans fin, ne débouchant pas sur une valeur fixe, mais oscillant dans une zone d'incertitude. Il peut aussi s'inspirer de la théorie du chaos et conduire à des conclusions folles. Pour cette raison on est obligé d'installer des "garde-fous" un peu partout pendant l'écriture et le "rodage" du programme.
Ce sont les problèmes principaux que j'ai rencontré. Depuis les méthodes ont évolué et d'autres problèmes ont pu émerger, surtout dans les systèmes comme le pilotage (d'avion) informatique où tout erreur est prohibée, au point qu'on utilise trois ou plusieurs calculateurs avec décision majoritaire et signalisation bruyante en cas de panne de l'un d'eux.
Dans tous les cas c'est le programmeur et ceux qui valident son programme qui sont responsables de son bon fonctionnement. Dans l'état actuel des choses il est hautement improbable qu'un "docteur Folamour" écrive un programme d'IA "néfaste" et que ce programme franchisse toutes les barrières qui sont opposées aux bogues et aux folies informatiques.
Les programmes d'IA ne sont pas comme les programmes "grand public" vite faites qui, même chez les grandes firmes, restent bourrés de bogues même après une longue diffusion, au point qu'on est obligé de faire des mises à jour périodiques.
Amicalement paulb.
-----