Le problème avec les modèles, c’est qu’entre le moment où ils sont mis au point et la réalité, les choses ont changé.
Le problème avec les modèles, c’est qu’entre le moment où ils sont mis au point et la réalité, les choses ont changé.

COVID-19: la dure vie des modélisateurs

Jean-François Cliche
Jean-François Cliche
Le Soleil
«Je me souviens d’avoir assisté, il n’y a pas très longtemps, à une présentation sur un modèle qui tentait de prévoir si un vaccin contre la COVID-19 allait stopper la transmission de la maladie. Donc on faisait des hypothèses sur le taux d’efficacité du vaccin et sur la proportion de la population qui se ferait vacciner. [...] Et la conclusion, c’était qu’il fallait vacciner plus que 100 % de la population pour stopper la transmission. Bref, que le vaccin n’allait pas arrêter le virus», relate Jacques Bélair, spécialiste des modélisations épidémiologiques de l’Université de Montréal.

Or cette projection a rapidement connu le même sort que tant d’autres modélisations sur la COVID-19 : la désuétude. Au moment de faire ces prévisions, en effet, il n’existait aucune donnée sur l’efficacité des vaccins contre le coronavirus, «alors les auteurs du modèle se sont basés sur ce qu’on savait au sujet du vaccin contre la grippe, et ils ont présumé que l’efficacité [NDLR : le pourcentage de réduction des infections] serait de 35 % chez les personnes âgées, et pas beaucoup plus chez les plus jeunes», explique M. Bélair. Mais cela s’est par la suite avéré beaucoup, beaucoup trop pessimiste : depuis deux semaines, les résultats des premiers grands essais cliniques ont été dévoilés et suggèrent un taux d’efficacité de près de 95 % pour deux vaccins contre la COVID-19, et de 60 à 90 % pour un troisième.

Tout indique donc maintenant que le vaccin arrêtera bel et bien la transmission, et les conclusions initiales de la projection dont parle M. Bélair sont donc bonnes pour les poubelles.

Les modélisations sur la COVID-19, par lesquelles on simule la réalité dans un ordinateur afin de «prévoir» ou de faire différents scénarios, ont connu leur lot de railleries depuis le début de la pandémie. Ces critiques ne sont pas toujours justes, il faut le dire. Par exemple, une influente modélisation de l’Imperial College de Londres, réalisée à la mi-mars, a été maintes fois tournée en ridicule parce qu’elle avait prévu que le nouveau coronavirus ferait 2,2 millions de morts aux États-Unis seulement et qu’on est encore très, très loin du compte — 260 000 en date de cette semaine. Mais on «oublie» que ce modèle tentait d’évaluer les décès au bout de deux ans (qui ne sont pas encore écoulés) et si aucune mesure sanitaire n’était prise, alors que des gestes nombreux et parfois draconiens ont été posés.

Mais il est aussi vrai que certaines projections ont complètement manqué leur cible, du moins en apparence. On trouve des pages très critiques à leur propos dans le livre Pandémie : quand la raison tombe malade, du physicien de l’Université de Montréal Normand Mousseau, paru mardi dernier. Essentiellement, celui-ci reconnaît des mérites aux modélisations en tant qu’«outils» d’aide aux décisions, mais il reproche aux dirigeants et aux modélisateurs de prendre ces prévisions trop au sérieux, sans tenir compte de leurs limites.

Ainsi, illustre M. Mousseau, le gouvernement du Québec a appuyé sa décision de déconfiner progressivement, au printemps dernier, sur un modèle fait par des chercheurs de l’Université Laval. Ceux-ci présentaient deux scénarios, un «optimiste» et un «pessimiste», estimant le nombre de cas et de décès qui résulterait d’une reprise partielle des contacts sociaux. Or même le scénario optimiste s’est avéré beaucoup trop «sombre», dénonce le physicien : il prévoyait entre 15 et 30 décès par jour pendant tout l’été (et encore, sans compter les CHSLD) alors qu’en réalité, il n’y en a eu qu’entre 0 et 3 pendant presque tous les mois de juillet et août (même en comptant les CHSLD).

Alors que s’est-il passé pour que la projection soit à ce point erronée? Essentiellement ce que M. Mousseau indique dans son livre (et ce que les auteurs du modèle eux-mêmes anticipaient dès le départ) : entre le moment où le modèle a été mis au point et l’été, les choses ont changé.

«C’est un modèle qu’on a fait à la fin d’avril, pas tellement pour estimer le nombre de cas et de décès, mais surtout pour voir si on avait une marge de manœuvre pour commencer à déconfiner le 11 mai. Sauf que le déconfinement ne s’est pas déroulé comme on l’avait prévu dans le modèle», explique son auteur principal Marc Brisson, spécialiste des modélisations épidémiologiques de l’UL.

La projection a en effet été publiée le 25 avril, à un moment où l’on envisageait de commencer à lever l’isolement partout en même temps. Or le gouvernement a finalement retardé la réouverture des commerces pour la région de Montréal et y a même repoussé la réouverture des écoles jusqu’en septembre.

«On n’avait pas grand-chose sur le masque non plus à ce moment-là, parce que le masque n’a été rendu obligatoire dans les endroits publics qu’en juillet. La capacité de dépistage a été beaucoup augmentée à partir de mai, et le taux de létalité du virus a beaucoup baissé aussi [NDLR : possiblement parce que les soins se sont améliorés]. Ce sont toutes des choses qui sont arrivées après la publication du modèle et qui, mises toutes ensemble, ont pu faire une grosse différence sur le nombre de cas et de décès», ajoute M. Brisson.

En fin de compte, beaucoup de ces modèles méritent sans doute moins d’être raillés que d’être pris pour ce qu’ils sont : des hypothèses. «C’est un thème récurrent des simulations : on est toujours victime des données et de la réalité changeantes», dit M. Bélair.

À LIRE AUSSI: Vérification faite: avait-on vraiment «prédit» 400 000 hospitalisations?