suite
à suivre.Les grands modèles de langage ne permettent pas de résoudre des problèmes ou de planifier. Mais vous pouvez leur demander de créer des plans et de résoudre des problèmes. Je vais couper les cheveux en quatre. La résolution de problèmes et la planification sont des termes réservés par certains groupes de la communauté des chercheurs en IA pour signifier quelque chose de très spécifique. En particulier, ils signifient avoir un objectif - quelque chose que vous voulez accomplir dans le futur - et travailler pour atteindre cet objectif en faisant des choix entre des alternatives qui sont susceptibles de vous rapprocher de cet objectif. Les grands modèles de langage n'ont pas d'objectifs. Ils ont un objectif, qui consiste à choisir un mot qui apparaîtrait très probablement dans les données d'apprentissage compte tenu d'une séquence d'entrée. Il s'agit d'un modèle d'appariement. La planification, en particulier, implique généralement ce que l'on appelle une anticipation. Lorsque les humains planifient, ils imaginent les résultats de leurs actions et analysent ce futur par rapport à l'objectif. Si une action semble se rapprocher de l'objectif, c'est qu'elle est bonne. Dans le cas contraire, nous pourrions essayer d'imaginer les résultats d'une autre action. Il y a beaucoup plus que cela, mais les points clés sont que les grands modèles de langage n'ont pas d'objectifs et ne font pas de prospective. Les transformateurs sont tournés vers le passé. L'auto-attention ne peut être appliquée qu'aux mots déjà apparus. Les grands modèles de langage peuvent générer des résultats qui ressemblent à des plans parce qu'ils ont vu beaucoup de plans dans les données d'apprentissage. Ils savent à quoi ressemblent les plans, ils savent ce qui devrait apparaître dans les plans sur certains sujets qu'ils ont vus. Le modèle va faire une bonne supposition à propos de ce plan. Le plan peut ignorer certains détails du monde et tendre vers le plan le plus générique. Les grands modèles de langage n'ont certainement pas "réfléchi aux alternatives" ou essayé une chose et fait marche arrière pour en essayer une autre. Il n'existe aucun mécanisme à l'intérieur d'un transformateur que l'on pourrait citer et qui permettrait d'effectuer un tel va-et-vient dans la prise en compte de l'avenir. (Il y a une mise en garde à ce sujet, qui sera abordée dans la section suivante.) Vérifiez toujours les résultats lorsque vous demandez des plans.
Mais j'ai atteint la limite autorisée par tranche de 24 heures pour un usage gratuit de DeepL. Donc il faudra patienter un peu... à moins que quelqu'un ait la gentillesse de poster la suite de la traduction (le chapitre: 9. What Makes ChatGPT so Special?).
-----