L'envers du décor est triste à connaitre, il a fait l'objet d'un article du magazine américain TIME:
"Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic"
https://time.com/6247678/openai-chatgpt-kenya-workers/
Mais ce n'est pas en temps réel "quand ça foire" bien sûr, c'est pour corriger les propensions de GPT-x a écrire les pires horreurs de la terre (sollicitées par un prompt), horreurs qu'il a lui même ingurgité dans la phase de préapprentissage non supervisé dans les recoins les plus sombres du web.
Pour les hallucinations* c'est différent, il n'y a rien à faire, c'est dans l'ADN de cette méthode de IA générative, il faudrait en changer, ce qu'OpenAI n'est pas prêt de faire tant que Microsoft croit que ça va lui rapporter beaucoup d'argent. Ce qui est plausible, à notre époque de post-vérité ou vouloir distinguer le vrai du faux dans la diarrhée verbale de la machine serait complètement vain "puisque les humains se trompent aussi", comme pourrait dire le maître de céans (en IA).
(*) ne pas surconnoter médicalement ce terme, c'est juste pour dire que ChatGPT invente des "faits" avec une belle assurance. Ce n'est pas de l'affabulation car il ne fait pas exprès.
Un exemple d'hallucination est d'affirmer que Nicolas Demorand "a écrit plusieurs livres qui ont été plutôt bien accueillis par la critique" (sic) alors qu'il n'en a écrit aucun, ou que Léa Salamé a animé "le Grand Journal sur Canal+"...
https://youtu.be/rV9_F2gsdhk
Ces "faits" inventés ne figurent dans aucun des wikipédias ou articles qui ont servis à nourrir ChatGPT, il ne s'agit pas d'erreurs que l'on trouverait dans les sources d'information dispos sur le web.
-----