Dans ce texte, Marc Rameaux apporte un regard critique sur les politiques qui s’appuient sur la modélisation pour renforcer certaines idées dans l’opinion, oubliant par là-même, la nature de ces outils que sont « les modèles » qui ne représentent pas la réalité en soi, mais le plus souvent, sont des variations ou des simulations, donc des mondes possibles. Une analyse qui ne manquera pas de susciter des réactions.
Modèles numérique, lois physiques et modèles statistiques
Le monde scientifique ne peut aujourd’hui se passer des modèles numériques. L’explosion des capacités de calcul permet de pousser très loin la prédiction de nombre de phénomènes : effets d’un médicament, déformation mécanique d’un véhicule lors d’un choc, stabilité d’un avion soumis à des perturbations, approche d’une planète lors d’explorations spatiales, robustesse d’un navire : la reproduction fidèle par des moyens informatiques de systèmes physiques permet de prédire au plus près leur évolution.
La simulation numérique est la fille naturelle d’une idée mathématique : le calcul infinitésimal. Archimède eut tôt l’idée d’encadrer la valeur de Pi en employant des polygones réguliers, épousant de plus en plus finement la circonférence du cercle. Leibniz et Newton formalisèrent mathématiquement l’idée d’un élément aussi petit que l’on veut, écriture qui sera finalisée rigoureusement avec les travaux de Cauchy. Ce n’est qu’à partir des années 1980 que le calcul des éléments finis permet des applications industrielles massives, grâce à l’atteinte de capacités de calcul suffisantes. Le maillage de pièces solides ou de fluides par de très petits polygones permet de calculer les équations aux dérivées partielles régissant aussi bien les déformations mécaniques que l’évolution d’un fluide ou la propagation de la chaleur :
Les modèles numériques cherchent à reproduire fidèlement le phénomène réel étudié, à mimer son comportement et à déterminer son évolution par du calcul pur.
A ce titre, il faut noter trois significations différentes du mot « modèle » :
- L’équation qui détermine la loi physique, par exemple l’équation fondamentale de la dynamique newtonienne, celle de l’attraction universelle, ou les équations de Maxwell régissant les phénomènes électromagnétiques. Dans cette acception, un modèle est une loi générale expliquant tous les phénomènes concernés et permettant de les prévoir par le calcul algébrique. On parlera de loi physique, plutôt que de modèle, dans ce cas-là.
- Le modèle statistique qui résume le phénomène par une équation reliant des valeurs expliquées à des valeurs explicatives. Tous les modèles de régression, linéaires ou non, et de classification supervisée rentrent dans cette catégorie. Les modèles statistiques diffèrent des lois physiques dans la mesure où ils ne cherchent pas à déterminer des lois générales : ils ne sont qu’une quantification empirique des variations de certaines variables par rapport à d’autres. Ils ne cherchent pas à expliquer le phénomène mais à quantifier ses variations en calculant les variables clés qui le déterminent.
- Le modèle numérique ou simulation numérique : contrairement au modèle statistique précédent, il ne réduit pas la dimension du problème en le synthétisant par quelques variables clés. Il est une reproduction, une copie la plus fidèle possible de l’objet physique ou du phénomène qu’il étudie. Déterminer l’évolution du phénomène se fait en créant un double numérique. Avec une copie suffisamment précise, l’évolution calculée sera la même que l’évolution réelle.
Lois physiques, modèles statistiques et modèles numériques interagissent entre eux. Les modèles numériques sont l’application de calculs ayant pour base des équations aux dérivées partielles qui sont des lois physiques. Il est fréquent qu’une partie principale du phénomène soit déterminée par le calcul simple de lois physiques connues et que les parties résiduelles – celles dont la loi physique toujours imparfaite ne rend pas compte – soient déterminées par la simulation numérique. Des phénomènes mécaniques soumis par exemple à des frottements ou glissements peuvent être déterminés en première approche par de la mécanique newtonienne classique, puis affinés par de la simulation à l’aide de lois plus empiriques.
Modèles numériques et modèles statistiques sont également employés ensemble. Le calcul brut ne permettant pas nécessairement de déterminer toutes les évolutions pour des raisons de puissance et de capacité, une simulation numérique sur un horizon de temps et un contexte restreints permettent d’alimenter des modèles statistiques, capables de prédictions sur des horizons plus lointains ou des contextes plus larges à un coût calculatoire moindre.
Les modèles numériques ont rendu de très grands services, avec une précision et une efficacité incontestables, dans la plupart des industries : automobile, aéronautique, navale, médicale, nucléaire, etc. Leur validité n’est pas remise en question sur ces sujets industriels. Ils sont dignes de confiance : les phénomènes réels d’un crash automobile, du comportement d’une aile d’avion ou d’un réacteur nucléaire évoluent bien en accord avec la prédiction numérique.
Les trois règles d’or d’une modélisation numérique sainement conduite
La simulation numérique doit cependant être employée en respectant trois précautions. Sans quoi, elle divergera du phénomène qu’elle est censée représenter. La principale dérive qui menace la simulation numérique est qu’elle devienne autarcique, qu’elle crée un univers virtuel qui se suffit à lui-même. Auquel cas elle devient un exercice intellectuel intéressant, mais sans rapport avec la réalité.
- Compréhension des lois physiques ou biologiques du phénomène étudié
On ne peut simuler correctement un phénomène qu’en ayant une bonne connaissance des lois physiques ou biologiques qui le déterminent. Tout data scientist voulant fabriquer des modèles aéronautiques doit savoir comment est faite une aile d’avion et connaître ses réactions mécaniques. S’il veut modéliser une centrale nucléaire, il doit maîtriser les lois physiques de la réaction en chaîne, le fonctionnement du cœur du réacteur nucléaire et des barres de refroidissement. S’il travaille pour l’automobile, il doit savoir ce que sont les débattements mécaniques d’une roue par rapport à la caisse, l’entraînement du système de direction, l’effet des amortisseurs, les principes de fonctionnement du moteur thermique par les pistons, la chambre de combustion et l’échappement. S’il travaille dans le domaine biologique il doit posséder au moins les bases de la biochimie et de la médecine.
Un bon data scientist est un profil rare, car en plus de son métier propre que sont les modèles statistiques et la simulation numérique, il doit posséder une culture scientifique étendue. Ne pouvant maîtriser tous les domaines scientifiques, il s’appuie sur un dialogue constant avec les experts du domaine étudié, en ayant une connaissance suffisante pour entretenir ces échanges.
Les jeunes data scientist débutants pensent parfois – s’ils sont insuffisamment formés – que leur discipline a quelque chose de « magique », leur permettant de réaliser des prédictions à partir de la donnée brute, sans rien connaître du sujet. Rien n’est plus faux et l’expérience complète bien vite cette vue superficielle : le data scientist, tout comme ses modèles, doit mettre un peu de temps à devenir « robuste ».
Pourquoi le seul mimétisme numérique ne suffit-il pas ? Pourquoi la connaissance des lois physiques ou biologiques est-elle un préalable nécessaire ? Simplement parce que tous les modèles numériques ont leur limite. Et que lorsqu’ils les atteignent, il faut revenir à la connaissance du physicien, du biologiste ou du médecin pour interpréter d’où vient la divergence entre le modèle et la réalité.
Les limites des modèles se rencontrent lorsque le phénomène étudié rencontre ses conditions extrêmes : par exemple l’échauffement d’un système de freinage en cas de dérapage. Les modèles numériques sont tous fondés sur la décomposition du phénomène en petits éléments indépendants. Dès lors que des phénomènes de résonance ou d’hystérésis se manifestent, le modèle sort de son champ d’application : en acoustique, les modèles échouent lorsque l’émetteur et le récepteur rentrent en résonance. Même dans le cas simple de l’isolation d’un appartement, le phénomène de résonance « fréquence masse-ressort-masse » sur des parois complexes provoque une chute importante de l’isolation au voisinage de la fréquence critique, qu’il est très difficile de simuler.
Lorsqu’un modèle numérique ne fonctionne plus, l’interprétation du physicien, du biologiste ou du médecin deviennent indispensables pour expliquer le défaut et éventuellement proposer d’autres modèles. Aucun modèle numérique n’est auto-suffisant, pour la simple raison qu’il ne réfléchira jamais à votre place.
2. Rétroaction fréquente avec des mesures physiques réelles.
La deuxième règle à respecter est de faire de fréquentes vérifications de l’évolution du modèle numérique en le comparant avec des mesures physiques réelles, et s’assurer que les deux restent cohérentes.
Cette règle peut paraître surprenante dans la mesure où la simulation numérique est censée permettre de se passer d’essais physiques. Il n’en est rien : une simulation numérique efficace nécessite un couplage permanent entre phénomène simulé et phénomène réel. Il s’agit du principe du « jumeau numérique » ou « digital twin », où l’objet réel et son double virtuel doivent être fréquemment comparés.
Le cas d’école d’un tel couplage est celui de la détection d’une fissure sur une pièce mécanique, une turbine, un essieu, etc.
La mesure physique est l’image réelle du craquement de la pièce et de son évolution, en revanche nous n’avons accès qu’à son observation en superficie de la pièce. De façon complémentaire, la simulation numérique calcule l’évolution de la fissure en tenant compte des contraintes mécaniques internes, mais elle n’est qu’une évolution calculée et non mesurée.
Le couplage physique / numérique devient particulièrement puissant lorsque l’observation et le calcul se répondent. La fissure simulée est comparée avec son observation réelle de surface. Si des différences trop importantes sont constatées, l’on corrige le modèle numérique qui recalculera une évolution interne différente. La simulation précise les contraintes internes qui restent invisibles et permet de mieux anticiper, tandis que l’observation physique corrige constamment le modèle en vérifiant qu’il retrouve bien la résultante de surface à chaque instant.
Dans certains domaines, la simulation est arrivée à un niveau de maturité tel qu’il est possible de se passer d’essais physiques : les modèles sont considérés comme robustes. Si cet horizon fait rêver, il faut préciser qu’il n’est possible que dans des cas mécaniques simples, sur des applications industrielles étroites. Et qu’il a fallu passer par des années de recalage entre modèles numériques et mesures physiques pour acquérir cette robustesse. Lorsque les modèles numériques sont employés dans des domaines hautement complexes et n’ayant pas bénéficié au préalable de séries de mesures réelles extrêmement rapprochées pour les caler, croire en leur robustesse relève plus de l’acte de foi en une moderne pythie que d’une démarche scientifique.
3. Acceptation des limites de tout modèle face à des phénomènes chaotiques
Cela devrait être une évidence mais la pratique nous oblige à le rappeler : aucune puissance de calcul combinatoire ne franchit la barrière des phénomènes chaotiques (hors perspectives fournies par l’ordinateur quantique, celui-ci étant encore loin d’applications industrielles).
L’industrie classique rencontre rarement des phénomènes chaotiques dans ses applications courantes, c’est pourquoi les modèles numériques sont considérés comme pleinement fiables s’ils respectent les deux règles précédentes. En revanche, des domaines tels que la prévision du climat et l’immunologie sont intrinsèquement chaotiques. Cela ne signifie pas qu’il faut s’abstenir de toute forme de prévision. Mais dans ce cas les deux précédentes règles doivent être considérablement renforcées, et les prévisions considérées comme valides sur un horizon de temps beaucoup plus limité. Or dans ces deux domaines de la climatologie et de l’immunologie, non seulement des décisions majeures de politique publique sont prises sur la base de modèles numériques, mais ces derniers sont particulièrement relâchés.
L’instrumentation idéologique de la simulation numérique
Les modèles actuels employés en climatologie et en immunologie font penser à certains modèles macro-économiques très en vogue dans les années 1970. Ceux-ci étaient des sortes de grandes « marmites » numériques, dans lesquelles un très grand nombre de variables économétriques étaient rentrées. Le risque de surdimensionnement du problème était écarté par la puissance de la statistique, les différentes variantes de l’analyse factorielle permettant de réduire la prédiction d’une grandeur à l’essentiel de ses variables explicatives.
La climatologie relève de ce même type de « pot-pourri » de la modélisation : l’on agrège pêle-mêle des variables relevant de la météorologie, de la géologie, de l’océanographie, de la production industrielle, de l’évolution des systèmes vivants et du cycle de la photosynthèse..
Penser que d’une telle « soupe », il ressortira une prédiction fiable fait maintenant sourire tout économiste sérieux : même les macroéconomistes les plus orthodoxes ne croient plus en une vision aussi naïve de l’économétrie. Pourquoi alors prend-on aussi au sérieux les modèles de climatologie, notamment ceux du GIEC, alors qu’ils relèvent d’un positivisme numérique aussi primaire ?
Il ne faut pas se méprendre dans ce débat, sur l’endroit où se trouve la rigueur. En premier lieu, ni la précision extrême des calculs ni l’exactitude des équations à l’aide desquelles ils sont menés ne sont des garanties : un calcul mené jusqu’à la dixième décimale sur des hypothèses fausses ne fait que s’enfoncer encore un peu plus précisément dans l’erreur. De même le sérieux et les références des scientifiques consultés pour établir de tels modèles n’est pas remis en cause, mais ne garantissent en rien que ces modèles fonctionnent. La climatologie convoque des experts reconnus dans leur domaine. Mais aucun ne peut garantir que la vision pluridisciplinaire qui les rassemble forme un système cohérent.
Les modèles du GIEC ne respectent aucune des trois règles précitées. Les phénomènes physiques, géologiques et écologiques concernés suivent des lois connues et assez bien arrêtées, mais seulement par compartiments. La climatologie est un patchwork complexe de disciplines, dont l’univocité des lois est très loin de celle des sciences de l’ingénieur. La pire transgression est celle de la deuxième règle : le GIEC entend reconstituer des courbes de températures sur au moins un millénaire, avec des moyens de recoupement extrêmement insuffisants par des données physiques réelles.
Ce très grand relâchement dans le calage avec des mesures physiques réelles a donné lieu au triste épisode de la « courbe en crosse de hockey », évaluation de la température sur le dernier millénaire publiée dans le troisième rapport du GIEC (2001), censé démontrer un accroissement drastique de la température dans les toutes dernières années du millénaire :
Non seulement la méthodologie de reconstitution des températures était plus que contestable, en termes de méthode de recalage par rapport à des mesures réelles (utilisation des cernes des arbres, coraux et carottes de glace), à la fois en quantité de mesures et en précision des recoupements, mais il s’est avéré que la construction de la courbe était entachée de « corrections » frauduleuses.
Les aberrations méthodologiques de la courbe en crosse de hockey furent démontées par le statisticien Stephen Mc Intyre (1) en 2005. Des investigations plus poussées et la découverte d’e-mails privés échangés au sein du CRU (Climatic Research Unit) débouchèrent sur le scandale du Climategate en 2009, incluant entre autres un message de Phil Jones – directeur du CRU – expliquant comment il avait sciemment masqué des déclins de température dans les dernières décennies (2).
Il est intéressant de noter comment la majorité de la presse mainstream relata la conclusion du Climategate : avec force gros titres, ils annoncèrent que l’équipe du CRU était entièrement blanchie. Lorsque l’on regarde le détail des articles, ce qui apparaît n’est nullement une absence de fraude, mais au contraire la reconnaissance de fraudes avérées assorties du fait qu’elles n’ont pas été suivies de poursuites ou de sanctions : une curieuse définition du « blanchiment »..
Certains pourraient argumenter que cet épisode a servi de leçon et a permis de renforcer la rigueur des rapports du GIEC. Malheureusement les mauvaises habitudes ont la vie dure : le tout récent 6ème rapport du GIEC publié en Août 2021 montre à nouveau une courbe en crosse de hockey étrangement ressemblante à celle de 2001 :
Inutile de préciser que cette nouvelle courbe alarmiste est entachée des mêmes erreurs méthodologiques qu’il y a 20 ans. Il est intéressant de noter également qu’elle ne figure que dans le résumé à l’intention des décideurs et non dans le contenu du rapport principal…
Le cas des prédictions épidémiologiques, notamment celles de l’actuelle pandémie, est différent de celui du GIEC. La diversité pluridisciplinaire est bien moindre en tant que source d’erreur. En revanche, la violation des trois règles d’une simulation numérique sainement menée n’en est pas moins patente. Les promoteurs de ces modèles ont des notions de médecine, mais souvent beaucoup trop superficielles, menant à une sous-estimation de la complexité des facteurs de propagation. Les points de recalage de leurs modèles sont insuffisants par rapport à des critères de fiabilité statistique : qu’il s’agisse d’épidémiologie ou de climatologie, il est amusant de constater combien les exigences de recoupement par des mesures réelles sont extrêmement strictes sur des prévisions de court-terme et combien l’on accepte un grand laxisme statistique sur des prévisions de long-terme, à horizon d’un mois et plus.
L’engouement pour certaines modélisations semble bien plus relever de la volonté de forcer certaines décisions politiques que de prévenir de façon scientifique certains dangers. Ajoutons que ces modèles détournés de leur fonction peuvent avoir une redoutable puissance auto-réalisatrice : c’est sur la base des modèles épidémiologiques que des confinements massifs furent ordonnés, en lieu et place de confinements ciblés assortis d’un suivi médical précis des patients infectés, comme le firent de nombreux pays asiatiques sortis bien plus tôt et bien mieux de la pandémie que nous. A posteriori, ces confinements massifs peuvent avoir pour effet de confirmer les modèles alarmistes de pandémie…
De même, il est aberrant de voir que les prédictions climatologiques qui tiennent bien plus de la prophétie que de la science dictent des politiques publiques avec un empressement suspect. L’agenda délirant de remplacement de la propulsion thermique par l’électrique dans l’automobile, dénoncé par les capitaines d’industrie connaissant véritablement le sujet (3), peut provoquer de véritables catastrophes écologiques, industrielles et économiques, rendant auto-réalisatrices les prophéties de nos climatologues.
La raison scientifique consisterait à définir des échelles de dangerosité des menaces pesant sur la planète, et d’adapter nos politiques publiques par des réponses graduées à ces niveaux de risque. Nous ne nions pas que l’origine humaine du réchauffement climatique soit une question qui mérite d’être posée. Mais sur une échelle un tant soit peu rigoureuse de risque, elle ne se situerait que dans la frange moyenne. Elle nécessiterait de mettre cette question sous surveillance, mais nullement de provoquer des plans pris dans une mentalité de panique, dont les effets dévastateurs risquent d’être bien pire que le danger qu’ils pointent.
La surpopulation, la pénurie de terres rares ou la pénurie d’eau dans certaines régions du monde sont des dangers placés beaucoup plus haut sur une échelle véritablement scientifique de risques que le réchauffement climatique ou l’actuelle pandémie. L’aberration en termes de prédiction et d’action publique provient du fait que les alertes sont fondées non sur des preuves réelles mais sur des modèles à peu près aussi fiables que les usines à gaz économétriques des années 1970. Le modèle ne devient plus l’image fidèle de la réalité, il devient une réalité de substitution permettant de justifier des décisions prises sur des bases purement idéologiques.
Modélisation scientifique ou Paradis artificiels ?
Une étape supplémentaire semble en passe d’être franchie dans le détournement des modèles numériques. La notion de metaverse, univers parallèle virtuel, tente de plus en plus de géants du numérique, à commencer par Facebook qui y voit même le futur de son réseau social.
Le metaverse ou meta-univers est un monde numérique si bien reconstitué et si bien prévu pour une série de choix ouverts que celui qui y est plongé peut en faire une seconde réalité.
Si cette perspective semble alléchante sur le plan de « l’entertainement », elle peut être une arme redoutable de manipulation mentale.
Le metaverse peut jouer le rôle d’un univers « idéal », dans lequel toute souffrance, tout conflit, tout ce qui constitue la réalité des rapports humains serait édulcoré. Un monde dans lequel la délinquance, les violences communautaristes, les guerres de civilisation seraient absentes, réduites à des choix personnels indifférenciés, noyées dans un environnement sirupeux et toujours souriant.
La puissance immersive du metaverse donnerait à ce discours lénifiant une force immense. Lorsque les classes dirigeantes sont paresseuses ou cyniques, elles ont déjà tendance à nier les réalités humaines, ce qui les exempte de devoir les affronter et les résoudre. Le metaverse permettrait de franchir un cran supplémentaire dans ce dévoiement de la vie politique : les problèmes humains n’auraient même plus à être niés, il suffirait de dire que si la réalité présente un visage dérangeant, il faut déterminer nos actions sur ce qu’elle devrait être et non plus sur ce qui est. Le metaverse deviendrait un modèle à viser en permanence, et toutes nos décisions devraient être réglées sur ce qu’il nous présente, non sur ce qui existe réellement.
Toutes les formes de totalitarisme procèdent depuis longtemps de ce type de discours. Karl Popper avait mis en évidence que le soviétisme était téléologique : une finalité grandiose, n’existant pas mais devant exister, pouvant justifier le sacrifice de milliers voire de millions d’hommes. Ce discours était assorti d’une culpabilisation des récalcitrants, les accusant d’égoïsme ou de vue étroite et mesquine, s’ils ne se dirigeaient pas avec enthousiasme vers d’aussi belles visions.
Popper conclut en montrant que l’une des caractéristiques du totalitarisme est de sacrifier sans état d’âmes de nombreuses vies humaines à ce type « d’idéal », lorsque la seule preuve qu’il soit atteignable consiste à en brandir l’image. Le metaverse pourrait devenir la version 4.0 des lendemains qui chantent, dont la grandiose visée devrait faire taire toute critique ou toute réserve, et nous faire préférer le monde tel qu’il devrait être au monde tel qu’il est.
Le terme de « simulation » reprendrait alors son sens premier : non plus l’image la plus fidèle possible de la réalité servant le progrès industriel, mais une réalité artificielle destinée à manipuler.
Les modèles numériques ne seraient plus dans ce cas des outils scientifiques mais des paradis artificiels, au même titre que les drogues, permettant de nous faire oublier la dureté du monde et interdisant de le décrire. L’humanité serait en permanence sous un sédatif numérique, lui faisant oublier la dureté du réel, même et surtout lorsqu’elle est plus que jamais présente.
Notre société rejoindrait celle de romans d’anticipation tel qu’« Un bonheur insoutenable » ou du film « Paradis pour tous », une société du spectacle permanent, où l’esprit critique serait noyé sous les bons sentiments. Si le metaverse était augmenté de modules franchissant les barrières de notre intégrité biologique, nous atteindrions tout à fait ces cauchemars totalitaires, où la répression n’est même plus nécessaire, seulement l’accroissement de la dose de médication en cas de révolte.
L’absence de respect de la liberté de parole et de la liberté de conscience est chose trop courante parmi les grands réseaux sociaux pour ne pas nous alerter sur une telle utilisation du metaverse. Tout homme libre doit se préparer à s’y opposer.
(1) https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2004GL021750
(2) https://www.bbc.com/news/science-environment-15538845
(3) https://www.latribune.fr/entreprises-finance/industrie/automobile/stellantis-le-cri-d-alarme-de-carlos-tavares-contre-le-durcissement-des-regles-co2-888259.html
A lire du même auteur
Chassons les impostures scientifiques de l’économie : deuxième partie
Bonjour, je souhaiterais publier votre article sur notre site https://climatetverite.net/.
Puis-je en avoir l’autorisation ?