Bonjour
le point de départ de cette réflexion (qui est venu "cristalliser" des réflexions déjà anciennes ) est la lecture des propos du président de la République qui a justifié son action (ou son inaction) de janvier de la façon suivante :
https://www.francetvinfo.fr/sante/ma...s_4351033.html
il ne s'agit pas de lancer une discussion politique et de polémiquer sur le bien fondé de ces propos, simplement de les prendre comme un fait et de s'interroger sur ces qu'ils disent de l'impact sociétal de produire des simulations scientifiques d'un problème complexe."L'unanimité scientifique n'a jamais été au rendez-vous (...). Certains nous disaient : ’En février vous allez prendre le mur.’ On ne s'est pas pris le mur (...). On a pris des mesures proportionnées à la situation"
Par problème complexe, j'entends un problème multifactoriel dont on ignore les mécanismes exacts, ou quand on les connaît, la valeur des paramètres pertinents, ce qui fait que toutes les simulations, quelle que soit leur complexité, entrainent une barre d'erreur importante. Un exemple concret est donc donné par les prévisions de l'évolution de l'épidémie, un autre est celui par exemple des prévisions climatiques, les deux ayant le point commun d'avoir un fort impact dans la société et de motiver des décisions politiques. Il est courant d'entendre qu'améliorer les simulations va aider la prise de décision, mais la question que je pose ("sans tabou" comme on dit) est : est ce que c'est vraiment le cas ? est ce que la décision est VRAIMENT aidée (ou même influencée) par la complexité des simulations qu'on peut faire ?
L'examen des différentes simulations fait apparaitre plusieurs niveaux de complexité possible, qui requièrent toutes un minimum de compétence scientifique (par exemple savoir ce qu'est un logarithme ou une exponentielle) mais à des niveaux très différents
* il y a des estimations "basiques", analytiques, qui peuvent être faites à la main ou au pire à la calculette, qui cherchent à extraire l'essentiel de l'information et à le ramener à un très petit nombre de paramètres. Il n'y a donc pas d'études détaillée, et la valeur des paramètre est simplement étalonnée sur la réalité observée. C'est à peu près ce qu'on appelle les "estimations à la Fermi", grand amateur de ce genre d'estimation (par exemple il a pu évaluer assez correctement la puissance d'une explosion nucléaire en observant la distance à laquelle le souffle avait entrainé des petits morceaux de papier qu'il avait jeté en l'air) https://fr.wikipedia.org/wiki/Estimation_de_Fermi
Pour une épidémie, ce sera typiquement une extrapolation exponentielle à taux constant (le taux étant évalué par le temps de doublement observé ). Pour le climat, on fait une estimation de la sensibilité climatique à partir des données déjà connues et on paramétrise la prédiction en fonction du cumul attendu des émissions.
* il y a un niveau intermédiaire de modèles "simples" (pour quelqu'un ayant quand même une formation scientifique), où on met des choses plus compliquées, par exemple des équations différentielles couplées qu'on résout pas à pas. Ca peut se faire par un tableur Excel programmé ou un petit programme simple, ça demande typiquement quelques heures ou quelques jours de travail pour une personne ayant l'habitude de ça : typiquement un modèle SEIR pour une épidémie , ou un modèle "climatique simple" où on essaiera de décrire les échanges avec l'océan par exemple de manière simplifiée. La description est meilleure, mais on a aussi besoin de paramètres supplémentaires (en général inconnus et qu'on doit fixer plus ou moins arbitrairement). On commence à rentrer dans le problème du "jeu de paramètres", et on va jouer avec différentes valeurs pour voir ce que ça donne.
C'est le genre de démarche qu'on verra régulièrement postée sur des forums comme celui ci ou des sites web perso : en effet ça demande un public "averti" pour s'y intéresser, mais ce n'est pas assez "professionnel" pour etre publiable. (pas de jugement péjoratifs la dedans, c'est simplement une description sociologique de la praxis habituelle)
* enfin le niveau professionnel où là on entre dans la simulation "lourde", le but étant d'intégrer le maximum de paramètres possibles compatible avec les capacités de simulations professionnelles, qui peuvent être grandes. On entre là dans la démarche scientifique, avec du travail d'équipe, des thèses, des financements, des méthodes numériques élaborées, des publications scientifiques.
Toutes ces démarches appliquées à un problème complexe ont un point commun : elles ne peuvent être mises en oeuvre qu'en fixant la valeur de paramètres mal connus, et plus le modèle est complexe, plus le nombre de paramètres est grand (ce qui augmente la dimensionnalité du problème et donc le nombre potentiel de solutions possibles) . De fait on aura toujours un intervalle de prédictions, de plus en plus complexe à décrire quand le nombre de paramètres est grand.
La conséquence de ça, c'est que la complexification de la description du problème ne réduit souvent pas l'intervalle d'incertitude, et même paradoxalement peut l'augmenter. On a un écart croissant entre l'évaluation de la qualité du travail sur des standards scientifiques (la communauté scientifique valorisant positivement le caractère "compliqué" de la théorie, l'intelligence des solutions trouvées aux problèmes numériques, l'épaisseur de l'article avec le nombre de solutions étudiées, voire la finesse et le caractère esthétique de la présentation graphique des résultats , et le montant des financements obtenus sur le projet - ce n'est pas de l'humour, c'est typiquement le genre de choses importantes à faire apparaitre dans un dossier de candidature à un poste de professeur ou de directeur de recherche ), et l'utilité des résultats obtenus pour un décideur qui est à peu près totalement insensible à ces beautés et demande juste qu'on lui dise ce qu'il doit faire.
De plus, plus l'intervalle de possibilités est grande, plus on a tendance à inclure des "extrêmes", d'une part pour se "couvrir" en prévoyant le plus grand nombre de possibilités, pour ne pas risquer d'en louper, d'autre part car inclure les extrêmes permet aussi de faire apparaitre les scénarios les plus graves, et donc de justifier l'importance de faire ce travail - c'est humain, on a tous envie de penser qu'on sert à quelque chose, et on rêvait tous de sauver le monde , ou au moins une jeune fille (pour la plupart des garçons) quand on était petit.
Le résultat final est décrit dans la phrase du début ; ""L'unanimité scientifique n'a jamais été au rendez-vous (...). Certains nous disaient : ’En février vous allez prendre le mur.’ On ne s'est pas pris le mur (...)." qui exprime paradoxalement une défiance accrue devant le nombre croissant de scénarios décrits et le fait que les catastrophes annoncées ne se produisent le plus souvent pas. L'autre paradoxe étant que la complexité du modèle fait que tout le gain qu'on pense pouvoir faire en mettant de plus en plus de processus est souvent annihilé par l'incertitude qu'il y a sur les paramètres, et l'examen pragmatique des intervalles d'incertitude entre les trois niveaux de complexité montrent qu'ils ne changent pas du tout.
Est ce qu'il n'y a pas là un malentendu fondamental entre scientifiques et société ? les scientifiques bénéficient de 'l'aura" acquis historiquement sur leur pouvoir de prédiction accru pour les systèmes simples (mouvement des planètes, retour des comètes), puis de plus en plus complexes (réalisation d'appareils hautement complexes comme des centrales nucléaires ou des accélérateurs de particules géants), mais n'arrive-t-on pas un peu au bout de ces capacités lorsqu'il s'agit de systèmes naturels complexes ? Et la prétention à "guider la société" est-elle réellement justifiée ?
J'ai bien conscience naturellement du caractère provocateur de ces questions .
-----