Mais quand dans le texte de la pétition (une seule phrase...), ses promoteurs parlent de risque d'extinction en le mettant sur le même plan que d'autres risques à l'échelle de la société tels qu'une pandémie ou une guerre nucléaire, il semble que c'est bien ça qu'ils ont à esprit.
Impression renforcée par la lecture de leur page "AI Risk", et en particulier des points que j'ai mis en exergue : en plus du point 1 (weaponisation), ils expliquent que
(3) des IA peuvent trouver de nouveaux moyens de poursuivre leurs objectifs aux dépens des valeurs individuelles ou sociétales [qu'elles sont censées respecter],
(6) de nouveaux objectifs [non prévus par leurs concepteurs] pourraient émerger spontanément à mesure qu'elles acquièrent des compétences,
(7) la tromperie [sur ce que fait une IA, et pourquoi] pourrait faire partie des moyens permettant d'atteindre ces objectifs,
(8) les objectifs pour lesquels elles sont ou seront conçues [qu'ils soient ou non malveillants] pourraient constituer une incitation à acquérir plus de pouvoir, ce qui les rendrait plus difficile à contrôler.
-----