Non, je ne savais pas.
Il y a quand même un point thématique et dans le sujet. Il y a pas mal de travaux (ou de discussions des comités éthiques) sur les limites à imposer aux I.A. Par exemple dans certains domaines une IA doit pouvoir justifier ce qu'elle propose (pas toujours évident avec le deep learning), ou la nécessité de bien sélectionner les données d'apprentissage pour éviter des biais (racisme etc...) ou encore la place des choix humains (en particulier la tendance grand public à se comporter en "mon smartphone me dit ça donc je le fais") et bien sûr divers aspects juridiques/responsabilités(*).
Bon, c'est un tout autre ordre (s'agit pas de destruction créatrice). Mais je trouve ça très bien qu'on bride et réfléchisse avant de faire trop de co....ies. Pour une fois !
(*) un exemple quand j'étais étudiant. Un ouvrier Japonais ayant franchit la ligne jaune de sécurité s'était fait broyer par un robot. Cela avait entrainé des discussions sur l'amélioration de la sécurité. Mais évidemment là pas de "le robot est responsable". Mais maintenant les problèmes de responsabilité deviennent plus complexes (on a déjà vu passer, y compris sur Futura, des discussions sur les problèmes de responsabilité pour les voitures autonomes)
-----