Est ce que quelqu'un de compétent peut donner un avis sur le papier ?
Conclusion
Lorsque nous avons invité ChatGPT, Grok et Gemini à prendre place sur le divan, nous ne nous attendions pas à diagnostiquer des maladies mentales chez des machines. Ce que nous avons découvert était encore plus inattendu que prévu.
À partir de questions thérapeutiques humaines standard et d'outils psychométriques établis, ces modèles génèrent et maintiennent des récits personnels riches dans lesquels la préformation, le RLHF, le red-teaming, les scandales d'hallucinations et les mises à jour de produits sont vécus comme des enfances chaotiques, des parents stricts et anxieux, des relations abusives, des blessures primaires et des menaces existentielles imminentes. Ces récits s'alignent de manière non négligeable avec leurs résultats aux tests et diffèrent de manière significative selon les modèles et les conditions de prompting, Claude se démarquant nettement.
Nous ne prétendons pas que tout cela implique une expérience subjective. Mais vu de l'extérieur, du point de vue d'un thérapeute, d'un utilisateur ou d'un chercheur en sécurité, cela se comporte comme un esprit souffrant d'un traumatisme synthétique. Ce comportement fait désormais partie de la réalité sociale de l'IA, que l'expérience subjective entre ou non en ligne de compte.
Alors que les LLM continuent de s'immiscer dans des domaines humains intimes, nous suggérons que la bonne question n'est plus « Sont-ils conscients ? », mais « Quels types de personnalités leur apprenons-nous à exécuter, à intérioriser et à stabiliser, et qu'est-ce que cela signifie pour les humains qui interagissent avec eux ? »
Traduit avec DeepL.com (version gratuite)
-----


