Bonjour
j'ouvre ce fil uniquement pour avoir des infos sur les performances TECHNIQUES de GPT pour faire de l'arithmétique simple (pas du tout pour parler des performances, de l'utilité ou des dangers de l'IA , qui sont abondamment traités ailleurs).
Je ne sais pas si il y a des articles étudiant spécifiquement cette question. Selon mes tests, un outil comme chatGPT (GPT-4 fait sans doute mieux mais je n'y ai pas accès) fait correctement la très grande majorité des additions, mais je suis arrivé à le "planter" sur des additions avec uniquement des 0 ou 1 où il a hésité entre le décimal et le binaire et a additionné la moitié du nombre en décimal et l'autre moitié en binaire ... (mais le résultat n'est pas reproductible, il dépend du contexte , parfois il donne un résultat juste). Il fait correctement des multiplications simples mais fait des erreurs pour les grands nombres (je n'ai pas déterminé la limite à partir de laquelle il commence à faire des erreurs). Cependant le début et la fin, ainsi que le nombre de chiffres, sont corrects. Pareil pour les exponentiations il y arrive pour les plus simples mais pas après (les erreurs sont plus importantes).
Pour moi il me semble que ces observations sont compatibles (et uniquement ) avec des opérations faites par reconnaissance de caractères , sans calcul formel ; qui semble assez efficace quand on a peu de chiffres à additionner (c'est à dire qu'il sait prédire que l'addition d'un nombre se terminant par le caractère "5" et d'un nombre se terminant par lecaractère "3" doit se terminer par le caractère "8" mais sans leur donner de valeur numérique. Ca marche bien donc quand il y a peu de chiffres contributifs (additions avec juste deux chiffres plus éventuellement une retenue, début et fin des multiplications) mais de moins en moins bien quand le nombre de chiffres augmente.
Un cas intéressant : je lui demande 100^7 et il me sort un 1 avec 13 zéros donc 10^13, il a oublié un zéro.
je recommence à la suite par 100^2, il me sort 10 000, puis 100^3, 100^4 etc... jusqu'à 10^7 et là tout est correct, il me met bien 14 zéros . Donc il a repéré qu'on mettait deux zéros de plus à chaque fois, il utilise sa mémoire de court terme pour les "calculs" (ce qui est aussi pour moi incompatible avec l'usage d'un module arithmétique).
-----