Par C. Glorioso, F. Castiglione, K. Oshinubi, A. Chharia et J. Barhak
Au début de 2020, une chose curieuse s’est produite. Dans le monde entier, un nouveau type de nombre a commencé à apparaître dans les briefings du gouvernement et les titres des journaux. Ce ne sont pas seulement des dénombrements de cas ou des admissions à l’hôpital. C’étaient des prédictions – les courbes ont tracé des semaines dans le futur, des graphiques qui nous ont dit que lorsque la vague Covid-19 s’éclairait, le nombre de lits de soins intensifs dont nous aurions besoin et combien de temps nous serions à nouveau en sécurité. Les modèles étaient arrivés.
Et puis, lentement, quelque chose d’autre s’est produit. Les prédictions ne se sont pas tout à fait déroulées. Certains modèles ont dit que le pire était derrière nous – pour ne pas être prouvé des semaines plus tard. D’autres ont prévu une dévastation qui n’est jamais venue. La confiance du public, autrefois soutenu par la clarté de la science, a commencé à s’effilocher. Souvent, puis fort, tout le monde s’est retrouvé à poser la même question: « Qu’est-ce qui ne va pas? »
Dans notre nouvelle étude, publiée sur preprints.org, nous avons essayé de répondre à ceci et d’offrir une feuille de route en avant. Notre travail a attiré l’attention sur le réseau Midas, où il a résonné avec des experts en modélisation des maladies infectieuses. Midas est un réseau mondial de scientifiques et de praticiens qui développent et utilisent des modèles informatiques, statistiques et mathématiques pour améliorer la compréhension de la dynamique des maladies infectieuses.
Nous soutenons que l’échec n’était pas dû à de mauvaises intentions ou à un manque de perspicacité. Au lieu de cela, c’était le résultat de lacunes structurelles et culturelles entourant l’écosystème de modélisation. La pandémie covide-19 était, en quelque sorte, un monde plein de jambes cassées. Une étude précédente a révélé, par exemple, que de nombreux modèles de prévision CDC Covid-19 américains ne fonctionnaient pas mieux que les lignes de tendance simples. Les deux tiers d’entre eux n’ont pas réussi à surperformer une prévision statique de base.
Au milieu d’une urgence mondiale, nous avons confié des décisions critiques aux modèles qui, dans de nombreux cas, n’étaient pas plus précis qu’une feuille de calcul de base. Mais voici le hic: les modèles n’ont pas échoué parce que les gens n’étaient pas assez intelligents. Ils ont échoué parce que le système qui les entoure était brisé.
Le vrai problème n’était pas les mathématiques. C’était des données
L’une des premières choses que vous apprenez en tant que modélisateur de calcul est la phrase «poubelle, les ordures». Si vos données sont imparfaites, vos prédictions le seront également. Au cours de Covid-19, les chiffres ont été mal déclarés, retardés ou mal étiquetés. Beaucoup se sont largement appuyés sur des sources ont déclaré plus d’admission actuelles que les admissions totales – une impossibilité statistique. Les données de test étaient manquantes, la mortalité enregistre des délais de décharge incohérents et viraux incomplets.
Comment modélisez-vous un virus lorsque même les faits de base à ce sujet – combien de longs gens restent contagieux, combien meurent – sont encore des mois flous? Imaginez essayer de cartographier une ville tout en étant les yeux bandés, en utilisant uniquement les sons étouffés de pas lointains. C’était la modélisation pandémique en 2020.
Laissez les modèles argumenter: embrasser les ensembles
Mais même avec des données limitées, de meilleures décisions auraient pu être prises si les modèles étaient encadrés et utilisés différemment. Plutôt que de s’attendre à un seul modèle pour prédire l’avenir avec précision, l’un des auteurs, Jacob Barhak, a proposé le modèle de référence pour la progression de la maladie en utilisant des techniques d’ensemble – pas une seule prévision parfaite, mais un ensemble, une foule de modèles en parallèle, chacun avec ses hypothèses, ses forces et ses défauts. L’idée était simple: laissez les modèles argumenter, rivaliser et collaborer.
De la science à Soundbite: comment la confiance a été perdue
Notre conclusion la plus puissante est que le véritable échec n’était pas seulement technique – c’était culturel. Les modèles ont échoué en partie parce qu’ils étaient mal compris – par les gouvernements, les médias et même les scientifiques eux-mêmes.
Nous avons poussé les prévisions à la vue du public en supposant qu’ils apporteraient de la clarté. Mais ils ont souvent mis la confusion. Les modèles ont été traités comme un gospel, puis jetés lorsqu’ils n’ont pas livré. La confiance est une chose fragile. Et une fois qu’il est cassé, aucun modèle ne peut le réparer.
Un nouveau type de préparation?
Ce dont nous avons besoin ensuite n’est pas un meilleur modèle. C’est une meilleure culture autour de la modélisation. Tout d’abord, nous devons normaliser la collecte de données entre les États et les comtés. Deuxièmement, les paramètres épidémiologiques clés – comme les courbes d’infectiosité, les taux de transmission et les profils de mortalité – doivent être estimés et publiés tôt. Troisièmement, les simulations en temps réel doivent être exécutées en continu pour tester et mettre à jour les hypothèses. Quatrièmement, les modèles d’ensemble doivent être prioritaires sur les prévisions à modèle unique.
Surtout, nous devons former des modélisateurs, des journalistes et des décideurs non seulement dans la façon d’utiliser des modèles, mais dans la façon de comprendre leurs limites. Dans l’armée, ils dirigent des matchs de guerre. En cybersécurité, ils mettent en scène des attaques d’équipe rouges.
Nous proposons quelque chose de similaire pour les pandémies: simulations régulières, exercices et même hackathons qui testent nos systèmes avant d’être nécessaires. Des lacs de données centralisés combinant des informations épidémiologiques et cliniques doivent être développées pour permettre une analyse transparente. Et l’infrastructure informatique devrait être prête à prendre en charge les simulations à grande échelle dès le premier jour.
Le prochain virus viendra. Mais cela n’a pas à nous prendre au dépourvu. Si nous sommes honnêtes sur ce qui a mal tourné – et assez courageux pour changer notre façon de penser – nous pourrions être prêts la prochaine fois.
Cette histoire fait partie de Science X Dialog, où les chercheurs peuvent signaler les résultats de leurs articles de recherche publiés. Visitez cette page pour plus d’informations sur la boîte de dialogue Science X et comment participer.