effectivement la voiture est un bon exemple qui illustre à quel point la perception d'un "problème" et d'un "danger" est dépendant du contexte social - par exemple les engagements pour remplacer les véhicules thermiques par des véhicules électriques semblent indiquer qu'on perçoit actuellement les inconvénients de l'usage des combustibles fossiles comme très supérieurs à ceux des voitures en général, et que si on n'avait que des VE on n'aurait "presque plus de problème", ce qui ne résisterait probablement pas à une analyse rationnelle.
Les "dangers de l'IA" sont essentiellement des peurs projetées. Les spécialistes savent très bien que l'idée d'une IA qui "prendrait le pouvoir" et ferait une suite d'actions logiques pour contrôler le monde est totalement fantasmatique et que les IA n'ont aucune "connaissance globale" du monde réel qui leur permette de vivre dans un monde réel - je rappelle que dès qu'on suspecte un problème d'attaque de hacker, on déconnecte un réseau de l'extérieur et que bien sur rien n'a jamais empêché de couper le courant à un ordinateur.
Les "dangers" qui sont déjà en partie réalisés me semblent être plutot dans la trop grande délégation de tâches à des systèmes qui sont d'une part susceptibles de "hackage" (cf la mésaventure du chatBot de Microsoft ayant appris à être raciste en quelques jours), d'autre part incapables de s'adapter à des circonstances exceptionnelles et même inatteignables pour corriger des erreurs : il y a déjà eu le cas d'une spécialiste de l'IA ayant vu une biographie pleine d'erreur apparaître sur un site, probablement générée par IA , et elle demandait : mais à qui je m'adresse pour faire rectifier ?
Mais ce n'est probablement des menaces "existentielles" pour notre société, juste une cascade de situations énervantes et de procès à prévoir ....
-----