Bonjour,
Les IA évoluent très très vite. Y a-t-il une instance, un groupe de scientifiques ou tout autre organisme qui prévoient comment doit se comporter l'IA?
Dans le temps il y avait 3 règles qu'avait prévu Asimov concernant les robots:
-Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
-Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
-Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
Depuis, a-t-on déterminé d'autres règles?
-----

