Salut,
J'avais un peu étudié l'informatique théorique à la fac et il y avait des idées tournant autour de ça (ainsi que sur la "programmation automatique", le problème de l'arrêt, la chasse aux bugs). Mais faut avouer que ça n'a jamais été bien loin. 'informatique ne se laisse pas facilement mathématiser. Et les problèmes d'optimisations informatiques sont à des années-lumière de l'optimisation mathématique. Pour donner une idée, le problème P!=NP est une gentille promenade à coté des problèmes de mathématisation de l'informatique et de son optimisation. Quand des problèmes algorithmiques sont rencontrés, dans presque tous les cas, l'approche est par l'utilisation de recettes et essais-erreurs ainsi que par plans d'exécution/traçage/etc....
Il m'est arrivé fréquemment de travailler sur de l'algorithmique particulièrement complexe (même en gestion parfois c'est cinglé). Et bien sûr leur optimisation (là aussi on a rencontré des trucs cauchemardesques et je suis même tombé une fois sur un problème NP complet sans le vouloir, évidemment j'ai modifié les objectifs dont j'avais heureusement la maîtrise, j'allais pas attendre que quelqu'un gagne le million de dollars en prouvant P=NP ). Et je dois dire que les fois où j'ai formulé certaines choses avec des outils mathématiques doivent se compter sur les doigts d'une main.
Ca doit être un peu plus courant pour ceux qui font des statistiques, des calculs numériques de style Monte-Carlo en physique des particules, ... Mais juste un peu.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Argh! Croisement Deedee
Je suis preneur d'un peu plus pour comprendre en quoi une méthode assez générale d'optimisation (celle que j'ai donnée n'en est qu'une parmi plein d'autres) n'est pas applicable dans ce cas particulier?
Je suis surpris pas le fait que le classement de l'informatique soit à ce point sorti du champ des mathématiques.
Je suis intéressé par un petit (dé)briefing.
Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».
Faudrait ouvrir un fil dédié pour ça. dans un forum informatique de préférence. Et le mieux serait sans doute de donner des références permettant de comparer car le sujet n'est pas simple.Je suis preneur d'un peu plus pour comprendre en quoi une méthode assez générale d'optimisation (celle que j'ai donnée n'en est qu'une parmi plein d'autres) n'est pas applicable dans ce cas particulier?
Je suis surpris pas le fait que le classement de l'informatique soit à ce point sorti du champ des mathématiques.
Je suis intéressé par un petit (dé)briefing.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
En pratique, je doute qu'on puisse expliquer à quelqu'un qui ne connait pas du tout l'informatique ce que c'est que l'optimisation pointue des programmes sauf à en écrire des tartines avec illustration qui auraient du mal à rentrer dans ce forum.
C'est pas faux, c'est pour ça que je parlais de donner des références permettant de comparer. Mais le constat sera juste simple : c'est pas la même chose
(déjà j'ai regardé wikipedia et ça ne convient pas : trop généraliste au sens vraiment très large)
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Bon, je propose d'en rester là sur le rapprochement informatique/mathématique. On est Hors Sujet depuis trop longtemps. Celui qui veut continuer sur l'un ou l'autre des aspects tournant autour de ça peut ouvrir une discussion.
Je rappelle que le sujet est le récent record du calcul des décimales de pi et l'intérêt d'avoir fait ça.
MErci,
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Pour recentrer le débat, je suis d'ailleurs étonné que personne n'ai donné la réponse principale :
C'est en général pour tester les nouveaux supercalculateurs qu'on vient d'installer, on les mobilise quelques jours sur ce problème, on regarde si les décimales qu'on a trouvé correspondent à celles trouvées précédemment, et on en profite pour en calculer un peu plus.
Cela permet de valider que le supercalculateur fonctionne correctement.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
oui ce sont des benchmark propre à chaque nouveau supercalculateur, ça permet aussi, et surtout, de vérifier qu'il n'y a pas de problème de communication inter-noeud, et que la vitesse de calcul observée est conforme à la vitesse annoncée (que ce soit en vitesse de transfert infiniband, de flop ou de stockage).
En général on fait ça avec des codes un peu plus "utiles" (quitte à cramer des heures de CPU), mais bon...
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
Rappelons-nous le bug du pentium
C'est pas facile à tester tout ça.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Pour info pour ceux qui ignorent :
https://fr.wikipedia.org/wiki/Bug_de...ion_du_Pentium
Je travaillais à Mons à l'époque
On avait annoncé une erreur minuscule ne se produisant que trèèèèèèèèèèèèèèèèèèès rarement. Mais très vite il y a eut des soucis avec en particulier du calcul numérique. Avec les grosses bécanes, très rarement devient vite très souvent
Et depuis, on fait des tests plus "massifs" comme c'est le cas ici.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Parce que ce n'est pas la réponse principale. Cela permet certes de tester les calculateurs mais aussi d'améliorer les algos (le dernier en date est 3 fois plus rapide que le précédent) et de tester toujours plus loin des stats sur la fréquence des chiffres de pi par ex (même si c'est plus anecdotique).
Un petit article rapide sur le sujet : https://theconversation.com/why-both...inating-166271
Okayyyyy, j'avais pas rêvé.
Donc il y a bien les deux (le hardware et les algos). Merci pm42
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Merci pour le lien. Effectivement, on y trouve la justification. Cependant, quand on apprend qu'on a mobilisé plus de 100 jours un supercalculateur, et qu'ensuite, on va encore mobiliser ces belles machines pour éplucher les données à chercher d'éventuelles divergences dans la répétition d'un nombre, suites, etc., le quidam se demande si un seul milliard de chiffre n'est pas suffisant pour tester cela ainsi que l'efficacité des nouveaux algorithmes. Bref, la réponse est peut-être qu'il faut être dans la peau d'un mathématicien pour le comprendre, et qu'il y a suffisamment de supercalculateurs disponibles pour des domaines qui peuvent nous sembler davantage vitaux.
Ca me semble normal (comme interrogation). On est là dans des aspects un peu techniques, mal connus du grand public et avec des chiffres parfois monstrueux difficiles à appréhender (enfin, sauf pour Chuck Noris )
De plus d'un point de vue plus expert cette fois il est assez facile de comprendre la nécessité de tester/optimiser tant les machines que les algos.
Par contre si on ne précise pas, même un expert d'un autre domaine va se demander "pourquoi ils font ces calculs idiots", on est tous le quidam de quelque chose
Quand un quidam voit les ingénieurs radiographier les piliers d'un pont pour voir s'il est toujours en bon état, il ne se dit pas "bizarre qu'ils fassent ça". Là, pour le quidam, c'est plus facile à comprendre
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Mouais, y a toujours une anecdote comme ça qui va bien...
J'ai beaucoup de mal à imaginer comment les chiffres de pi (complètement dépendant de la représentation donc pas intrinsèque) vont participer à l'évolution de l'humanité.
La vérité c'est que c'est de la recherche fondamentale qui ne sert à rien. Ce qui me convient personnellement puisque je fais de la recherche fondamentale
Dernière modification par coussin ; 27/10/2021 à 14h35.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Les chiffres de pi, on ne sait pas mais les méthodes, pas forcément. Déjà posté en début de fil :
Dans le dernier Pour la Science, Jean-Paul Delahaye explique ainsi que chercher a calculer de plus en plus d'orbites de la conjecture de Syracuse
a permis de concevoir une nouvelle méthode de multiplication, une technique de marquage d’images pour les signer et les protéger de la copie, une méthode de chiffrage des fichiers sonores et un générateur de suites pseudoaléatoires.Elle ne sert à rien la plupart du temps en effet mais pas tant que ça.La vérité c'est que c'est de la recherche fondamentale qui ne sert à rien. Ce qui me convient personnellement puisque je fais de la recherche fondamentale
Dernière modification par Deedee81 ; 27/10/2021 à 14h59. Motif: petite correction quote
Ce texte de Delahaye me fait penser aux trucs qu'on met en avant dans une demande de financement quand on fait de la recherche fondamentale
Je parle par expérience
C'est pas faux
Le LHC par exemple a créé beaucoup d'emplois, amélioré les techniques de fabrication des aimants supras, permis d'établir des grilles de calcul très puissantes.....
Appolo a permit la conception du scanner (sais pas si c'est vrai, j'avais entendu ça quekpart)
etc....
Mais de là à justifier ces projets par ce genre de retombée il y a peut-être une marge. Enfin, il me semble.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Qui dit décimales dit base 10 comme les doigts de la main.
pas tres fondamental tour ca.
et a propos l'ordi quantique il travaille dans quelle base?
Ou sont les particules? On est la! On est la! (deux fentes de Young)
Comme tout ordinateur : en binaire.
Mais bon après l'ordi quantique ça va être une révolution pour un nombre restreint de problèmes algorithmiques, mais ça ne va certainement pas révolutionner la très très grande majorité des problèmes que l'on a actuellement.
Pour revenir aux décimales de pi, il ne faut pas perdre de vue que des codes qui font ça sont clairement des codes HPC, et qui à ce titre utilisent des bibliothèques qui font du massivement parallèle. Et ces bibliothèques sont utilisées dans quasiment tous les codes scientifiques. Ca permet de faire des bench, par exemple des écritures disque (genre HDF5 parallèles, utilisées dans tous les codes "sérieux"), du MPI, de l'OMP (s'ils sont hybrides) et j'en passe.
Bref, même si le résultat lui-même n’entraînera pas une révolution, l'informatique, les mathématiques et l'algorithmique sous-jacentes par contre, vont clairement en profiter.
Dernière modification par obi76 ; 30/10/2021 à 12h56.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/