Bon allez, je laisse parler, j'ai effectivement assez nourri le troll là, il va finir par avoir une indigestion.
-----
Bon allez, je laisse parler, j'ai effectivement assez nourri le troll là, il va finir par avoir une indigestion.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
Un exemple dans cette page (dans la section "Principales limitations des modèles de type SIR"), où tu trouveras un graphique montrant les courbes obtenues à partir d'itérations de la même simulation (même Ro) implémentant un modèle stochastique, et où tu peux voir que ni la hauteur du pic ni sa date ne sont identiques d'une itération à l'autre.
Et donc, qu'avec un Ro' (un peu) supérieur à Ro ça peut aussi bien produire des cas où le pic obtenu sera moins haut que certains de ceux obtenus avec Ro.
PS (que je n'ai pas eu le temps d'ajouter au message précédent) :
Mais ça n'implique évidemment pas "qu'augmenter le Ro pourrait étaler le pic épidémique , alors que le réduire pourrait augmenter ce pic", c'est juste une question de probabilités. Et il est bien sûr très probable qu'augmenter le Ro augmentera le pic.
Pour moi cette partie de la réponse de Obi76 est la plus éclairante ...Je vais vous donner un exemple tout bête : avec le modèle le plus réaliste qui existe actuellement (et très probablement le plus lourd, où le R n'est pas une variable d'entrée), à partir d'exactement les mêmes conditions initiales, les mêmes habitudes, tous paramètres égaux par ailleurs, "juste" en appliquant un confinement dès que le nombre de réa atteint une certaine valeur (la même pour toutes les simus), en répétant les simulation un grand nombre de fois, on a minimum un facteur 5 sur l'amplitude du pic observé. Et ça, ce n'est pas un problème de R ou de quoique ce soit (le R n'est pas une donnée d'entrée, tous les autres paramètres sont égaux), c'est uniquement dû au caractère aléatoire d'une épidémie. (et j'anticipe la question, dans ce modèle la seule chose aléatoire, c'est qu'un individu A infecte un individu B lorsqu'ils se rencontrent)
A partir de là, dire "en faisant ça on réduira l'amplitude du pic" ou "on réduira le nombre de décès", je vous répond : en moyenne oui, mais avec une sacré barre d'incertitude (qui fait que la réalité peut montrer qu'un scénario en moyenne optimal a quand même une chance non négligeable d'être pire qu'un scénario qui était envisagé comme moins bon initialement). Mais ça à un moment il faut se résigner : on ne peut estimer par avance l'efficacité d'un scénario qu'à priori, avec des chances de se tromper non négligeables. Ca reste un indicateur.
R0 n'est pas tout car on ne peut pas définir de relation univoque entre ce paramètre et la probabilité qu'une situation donnée soit infectante, R0 ne décrit qu'en moyenne cette probabilité mais sa variabilité n'est pas décrite.
Du coup il est assez facile de comprendre que ce n'est qu'en moyenne que la simulation avec un R0 plus faible conduira à un pic plus faible et que celle avec R0 plus élevé à un pic plus élevé.
Si on fait un grand nombre de simulations et qu'on fait la moyenne des résultats on n'aura pas d'inversion bien sûr, mais sur une simulation donnée, oui ça peut être ça. Si j'ai bien compris le paramètre aléatoire qui va varier dans tes simulations Obi76 c'est la probabilité qu'une situation donnée soit infectante. Du coup j'imagine que tu attribue une distribution de probabiliité et que tu fais des tirages aléatoires de ce paramètre (genre avec une méthode de Monte Carlo ?) puis que tu vas regarder les propriétés des simulations obtenues et c'est comme ça que tu obtiens des hauteurs de pic de 1 à 5 ?
Bon ça c'est ce que je comprends de l'affaire, hein ? C'est possible que je sois à côté de la plaque, moi j'ai fait de la modélisation en physique de l'environnement pas en épidémiologie.
FabiFlam
Dernière modification par FabiFlam ; 30/01/2021 à 18h24.
OK ça j'accepte c'est ce que je disais la
Evidemment si il y a un dispersion statistique dans l'amplitude du pic c'est facilement compréhensible qu'une petite différence en Ro peut etre compensée par une fluctuation plus grande en sens inverse. Mais ce n'est pas vrai en espérance mathématique je suppose. Ceci dit ce serait intéressant de quantifier ces fluctuations, je doute qu'elles soient plus importantes que les fluctuations naturelles de Ro , ou même celles venant de l'incertitude du nombre de décès attribués à la maladie ! (un problème loin d'être négligeable).
A mon avis on est là dans des considérations théoriques de modélisateurs qui font des calculs avec 10 décimales, mais qui n'ont en fait aucun impact sur les décisions réelles, tout le monde est d'accord je suppose pour dire qu'il faut baisser le Ro pour étaler le pic , pas le contraire ...
C'est exactement ça. Pour être plus précis, par interaction sociales, il y a une probabilité qu'un individu A émette le virus (qui n'est pas la même avec et sans distanciation sociale), que B le reçoive (pour les mêmes raisons) et un dernier paramètre qui tient compte de l'infectiosité (c'était dans un des premiers papier sur le sujet sorti en mars de mémoire : H. Nishiura, N.M. Linton, A.R. Akhetzhanov. Serial interval of novel coronavirus (covid-19) infections. International Journal of Infectious Deseases, 2020, pour que Archi arrête de m'emmerder.).Si on fait un grand nombre de simulations et qu'on fait la moyenne des résultats ce ne sera pas le cas bien sûr, mais sur une simulation donnée, oui ça peut être ça. Si j'ai bien compris le paramètre aléatoire qui va varier dans tes simulations Obi76 c'est la probabilité qu'une situation donnée soit infectante. Du coup j'imagine que tu attribue une distribution de probabiliité et que tu fais des tirages aléatoires de ce paramètre (genre avec une méthode de Monte Carlo ?) puis que tu vas regarder les propriétés des simulations obtenues et c'est comme ça que tu obtiens des hauteurs de pic de 1 à 5 ?
Bon ça c'est ce que je comprends de l'affaire, hein ? C'est possible que je sois à côté de la plaque, moi j'ai fait de la modélisation en physique de l'environnement pas en épidémiologie.
Après comme un évènement rare fera bifurquer les chaines de contamination, on laisse couler chaque simu jusqu'au bout. On relance les simus intégralement pas mal de fois pour voir ce que ça donne (à noter que les interactions sociales sont les mêmes entre chaque simu, pour dire à quel point c'est chaotique...)
Dernière modification par obi76 ; 30/01/2021 à 18h35.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
un facteur 5 est quand meme surprenant, comment ça se traduit sur le nombre final de malades et le taux d'immunité collective final ?
difficile de discuter puisqu'Obi ne donne pas de détails sur ce qu'il y a dans son modèle : je ne sais pas trop ce que ça veut dire "le plus réaliste qui existe actuellement"... c'est "celui avec le plus grand nombre de processus inclus dans la simulation " ? (ce qui n'est pas synonyme pour moi).
Si tu as fait des modélisations pour l'environnement, je ne serais pas étonné que tu aies rencontré des occasions où compliquer un modèle , en y incluant plus de processus , détériore son accord avec les observations .
Bon, le malentendu est levé ?
Considérations théoriques qui peuvent avoir leur importance pour déterminer la marge d'incertitude sur le résultat d'une simulation. Et cette marge n'est pas un détail quand elle se traduit par exemple dans un risque de débordement de la capacité des hôpitaux, même si ce n'est pas le résultat le plus probable.A mon avis on est là dans des considérations théoriques de modélisateurs qui font des calculs avec 10 décimales, mais qui n'ont en fait aucun impact sur les décisions réelles, tout le monde est d'accord je suppose pour dire qu'il faut baisser le Ro pour étaler le pic , pas le contraire ...
tu veux dire que les différentes simulations se terminent avec des taux d'immunité collectives tres différents à la fin ?C'est exactement ça. Pour être plus précis, par interaction sociales, il y a une probabilité qu'un individu A émette le virus (qui n'est pas la même avec et sans distanciation sociale), que B le reçoive (pour les mêmes raisons) et un dernier paramètre qui tient compte de l'infectiosité (c'était dans un des premiers papier de l'Imperial Colege sur le sujet sorti en mars de mémoire).
Après comme un évènement rare fera bifurquer les chaines de contamination, on laisse couler chaque simu jusqu'au bout. On relance les simus intégralement pas mal de fois pour voir ce que ça donne (à noter que les interactions sociales sont les mêmes entre chaque simu, pour dire à quel point c'est chaotique...)
comme je disais cependant, je n'ai pas vu de cas réel où des décisions politiques ont été influencées par des aspects "subtils" des modélisations et dépassent le stade des résultats d'extrapolations exponentielles "au doigt mouillé". Le problème commence déjà par le fait que les politiques acceptent de prendre en compte les extrapolations exponentielles "au doigt mouillé", et déjà ça c'est pas gagné !Bon, le malentendu est levé ?
Considérations théoriques qui peuvent avoir leur importance pour déterminer la marge d'incertitude sur le résultat d'une simulation. Et cette marge n'est pas un détail quand elle se traduit par exemple dans un risque de débordement de la capacité des hôpitaux, même si ce n'est pas le résultat le plus probable.
je pourrais vous raconter une anecdote sur une conversation que j'ai eue avec une modélisatrice des systèmes de production d'énergie, pour guider le choix du futur mix énergétique en France, et ses rapports avec les politiques, mais on s'écarterait du sujet .
Tout a été spécifié dans les précédents messages. Pour la seconde partie, merci de ne pas me faire dire ce que je n'ai pas dit, et à minima de ne pas le déformer. En plus d'être malhonnête, c'est un procédé dégueulasse (et qui m'oblige à ré-intervenir pour corriger vos dires, ce qui commence à franchement me gonfler).difficile de discuter puisqu'Obi ne donne pas de détails sur ce qu'il y a dans son modèle : je ne sais pas trop ce que ça veut dire "le plus réaliste qui existe actuellement"... c'est "celui avec le plus grand nombre de processus inclus dans la simulation " ? (ce qui n'est pas synonyme pour moi).
Que ce soit les modélisateurs, les modèles individu-centrés, ou les modèles champ-moyen, aucun d'entre eux n'est une "approche exponentielle". C'est une expression journalistique récurrente qui est factuellement fausse. Alors c'est sûr que si vous vous basez là dessus...
Dernière modification par obi76 ; 30/01/2021 à 18h47.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
désolé, je ne comprends pas ce que tu appelles la seconde partie, ni en quoi j'aurais déformé tes dires. En revanche question déformation de ce que je dis, je peux t'en dresser aussi une liste si tu veux (pas que de toi mais de toi aussi).Tout a été spécifié dans les précédents messages. Pour la seconde partie, merci de ne pas me faire dire ce que je n'ai pas dit, et à minima de ne pas le déformer. En plus d'être malhonnête, c'est un procédé dégueulasse (et qui m'oblige à ré-intervenir pour corriger vos dires, ce qui commence à franchement me gonfler).
je ne sais pas ce que tu veux dire par "une approche exponentielle", l'exponentielle est une solution d'un modèle hyper simple, j'admets volontiers que les solutions d'un modèle plus réaliste ne sont pas des exponentielles jusqu'au bout, mais ce n'est pas ce que j'ai dit : j'ai dit que je ne voyais pas de cas où des décisions politiques n'avaient pas été motivées par des résultats, qui auraient été trouvés aussi bien par une simple extrapolation exponentielle.Que ce soit les modélisateurs, les modèles individu-centrés, ou les modèles champ-moyen, aucun d'entre eux n'est une "approche exponentielle". C'est une expression journalistique récurrente qui est factuellement fausse. Alors c'est sûr que si vous vous basez là dessus...
Non ce n'est pas si surprenant. Ca indique juste que les phénomènes en jeu sont bien mal connus et très variables. Du coup leur modélisation se fait via un modèle stochastique et les résultats sont d'autant plus dispersés qu'il n'y a pas de rappel aux observations ce qui pourrait resserrer un peu l'espace des paramètres.
Oui ça va influer in fine sur le nombre de malades et le taux d'immunité obtenue. On a déjà eu un peu cette discussion où un intervenant (Myoper je crois) indiquait qu'avec un même R0 on avait un développement épidémique totalement différent selon l'homogénéité/hétérogénéité du nombre de personnes infectées par un individu: avec un même R0 c'est la dispersion autour de cette valeur qui va être déterminante.
Mais sinon en pratique, on est bien d'accord: le pic atteint son maximum quand R passe au dessous de 1 et c'est bien ça qu'il s'agit d'atteindre par les mesures prises. Le problème c'est que si la valeur obtenue autorise des fluctuations jusqu'à 1 et plus, on n'est sûr de rien: c'est pour cela que des mesures de distanciation/barrière/confinement ne donnent pas systématiquement les mêmes résultats d'une fois sur l'autre: on ne peut s'affranchir de cette part d'aléatoire.
FabiFlam
a noter que dans le lien que tu as indiqué, les fluctuations statistiques sont importantes pour des populations très faibles (200 personnes) . Avec 2000 personnes on n'observe presque plus rien, et en France on parle de 67 millions de personnes ... ce serait donc intéressant de voir sur quelle population on a le facteur 5 dont parle Obi, et comment ca se comporte en fonction de la population (habituellement la dispersion décroit en 1/racine(N) )Un exemple dans cette page (dans la section "Principales limitations des modèles de type SIR"), où tu trouveras un graphique montrant les courbes obtenues à partir d'itérations de la même simulation (même Ro) implémentant un modèle stochastique, et où tu peux voir que ni la hauteur du pic ni sa date ne sont identiques d'une itération à l'autre.
Et donc, qu'avec un Ro' (un peu) supérieur à Ro ça peut aussi bien produire des cas où le pic obtenu sera moins haut que certains de ceux obtenus avec Ro.
la population simulée, c'est 67 millions de personnes.a noter que dans le lien que tu as indiqué, les fluctuations statistiques sont importantes pour des populations très faibles (200 personnes) . Avec 2000 personnes on n'observe presque plus rien, et en France on parle de 67 millions de personnes ... ce serait donc intéressant de voir sur quelle population on a le facteur 5 dont parle Obi, et comment ca se comporte en fonction de la population (habituellement la dispersion décroit en 1/racine(N) )
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
ah ?
dit comme ça, ça semble vouloir dire qu'aucune stratégie de réduction de Ro ne peut avoir d'influence mesurable , si de toutes façons les incertitudes statistiques sont d'un facteur 5 (c'est à dire bien plus grandes que celles attendues d'une variation de Ro ) ?
y a un truc que je pige pas là ....
est ce que les simulations s'éteignent sans que le seuil d'immunité de groupe soit atteint alors ?
à la réflexion, la variation de la hauteur maximale du pic peut effectivement se comprendre sans que le nombre total d'infectés soit très différent à la fin : on peut imaginer par exemple plusieurs populations qui auraient leur dynamique épidémique propre, et suivant le hasard de l'histoire des contaminations, seraient infectées à des temps différents. Dans ce cas on peut imaginer que dans certaines solutions les pics soient tous en phase et provoque un pic global important, alors que dans d'autres il y ait un décalage temporel qui les étale dans le temps. J'imagine que c'est une explication possible.
Rien que quand on compare les différentes régions françaises on voit bien que l'épidémie ne s'est pas propagée de la même façon aux différents endroits.
Dernière modification par Archi3 ; 30/01/2021 à 19h25.
Je ne vois pas où j'ai pu ne serai-ce qu'un seul instant évoquer cela.
Oui (la répartition démographique implique un moins grand nombre de contaminés à la fin - que celle obtenue théoriquement par la formule donnée pas mal de réponses avant - en général).
Dernière modification par obi76 ; 30/01/2021 à 20h21.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
Ok bon finalement je n'ai pas de souci avec ça.
On s'est quand meme éloigné de mon sujet initial, qui était la possibilité et l'intérêt d'une stratégie de lutte contre la contamination par paliers programmés .
Ben pourtant, il faudrait. Parce que quand, dans le panel de résultats des simulations, le gouvernement choisit celui qui l'arrange (parce que n'obligeant pas à prendre des mesures encore plus impopulaires) sans tenir compte de l'incertitude sur ce résultat, il prend un risque inconsidéré (y compris politiquement). Rendez-vous dans deux semaines pour voir si le pari a de réelles chances d'être gagnant…
Content de te l'entendre dire. Parce que ça avait tout l'air d'un faux débat.
Hier soir j'avais essayé (en vain) de recentrer la discussion sur ce sujet…On s'est quand meme éloigné de mon sujet initial, qui était la possibilité et l'intérêt d'une stratégie de lutte contre la contamination par paliers programmés .
Effectivement je pense que ça serait un moindre mal. A condition que les paliers soient
1) assez longs pour avoir le temps de constater l'effet des mesures (l'écart entre le R espéré et celui constaté, conduisant à un écart croissant exponentiellement entre le nombre de cas à la fin du palier et celui qui était espéré);
2) pas trop, pour que les projections ne soient pas entachées d'une trop grande incertitude, de manière que la correction à apporter lors du palier suivant ne soit pas trop violente par rapport à ce qui était prévu.
En supposant bien sûr qu'il n'y ait pas d'imprévu, genre émergence d'un nouveau variant, plus contagieux (ça on y est déjà confronté) ou favorisant les réinfections. Et que le planning de la campagne de vaccination puisse être à peu près respecté au moins pour les 15 millions de personnes les plus vulnérables.
ça serait intéressant de savoir ce qu'en pense un vrai modélisateur en épidémiologie
Que tout ce qui est gestes barrière, confinement, vaccination, on sait bien ce que ça implique (ou est censé impliqué) sur les paramètres des modèles.
Pour le couvre-feu et la réouverture des écoles / universités, des commerces "non essentiels" etc., aucune idée : on sautait dans l'inconnue. On saut juste que ça avait un impact bénéfique (et encore ça dépend), mais de quel ordre, là à part en observant ce que ça faisait... pas trop moyen de savoir (et encore, comme les mesures étaient cumulées avec d'autres, pour estimer l'impact "réel", encore plus chaud...).
Pour le moment ce que l'on connaît bien en terme de données d'entrée, ce sont les périodes de confinement et la vaccination. Rien qu'avec ces 2 méthodes on peut déjà inventer un sacré tas de méthodes de contrôle différentes (périodiques, à seuil de déclenchement, hétérogène géographiquement par région/département/villes, avec vaccination ciblée par région/départements/ville, etc.). Pour trouver le plus efficace, comme déjà dit, c'est déjà pas simple parce que les moyens combinés sont en très, très grand nombre... :-/
Pour en revenir à la question initiale : c'est déjà assez compliqué et long comme ça, on ne va pas non plus perdre de temps à essayer tout et n'importe quoi, à croiser 50 trucs différents au bon vouloir de n'importe qui "pour voir". Ca n'est pas en mélangeant n'importe quoi dans un coin de cuisine "pour voir" qu'un vaccin a été trouvé, c'est pareil avec les méthodes de contrôle épidémiques.
Dernière modification par obi76 ; 30/01/2021 à 21h02.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
de toutes façons les modèles épidémiologiques ne prédiront jamais les conséquences psychologiques et l'acceptibilité des populations, or les décisions réelles doivent tenir compte de ces facteurs.
le schéma que je proposais partait de la constatation qu'après la fin des confinements, on n'avait pas observé de reprise brutale des contaminations, comme si les gens mettaient du temps à reprendre petit à petit des comportements à risque (j'imagine, en particulier, des reprises de repas et de fêtes entre amis). C'est pour ça que des périodes limitées de reprises, pourraient permettre de souffler un peu mais sans reprendre une courbe ascendante trop forte, avant une nouvelle période de décroissance.
L'explication la plus simple c'est que pour remettre en place des chaines de contamination il faut du temps (x1.qque chose sur une durée totale de contamination, donc sur plusieurs semaines : c'est lent). A ca on peut ajouter que la topologie des infections est grandement modifiée en sortie de confinement (par exemple si un foyer est touché et que tout le monde dans ce foyer est ou a été contaminé, ça ajoute de l'hétérogénéité sur la dynamique globale : des relais de contamination dans ces foyers ne sont plus possibles, au détriment des autres où le terrain est vierge. Et cet impact ne doit pas être très linéaire...). Que les gens "reprennent leurs habitudes" ne me semble pas le facteur majeur de ce délai.le schéma que je proposais partait de la constatation qu'après la fin des confinements, on n'avait pas observé de reprise brutale des contaminations, comme si les gens mettaient du temps à reprendre petit à petit des comportements à risque (j'imagine, en particulier, des reprises de repas et de fêtes entre amis). C'est pour ça que des périodes limitées de reprises, pourraient permettre de souffler un peu mais sans reprendre une courbe ascendante trop forte, avant une nouvelle période de décroissance.
\o\ \o\ Dunning-Kruger encore vainqueur ! /o/ /o/
c'est possible, mais ça ne change pas la constatation, que les contaminations mettent plusieurs semaines à recroitre : du coup il me semble que la succession d'étapes que je propose pourrait à la fois maintenir un taux de contamination faible (voire décroissant) tout en laissant respirer la société.
Fin du nourrissage.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac