En pleine pandémie de Coronavirus, en France une controverse doublée d’une polémique a vu le jour autour de Didier Raoult, infectiologue à l’IHU de Marseille et de la Chloroquine. EuropeanScientist ouvre le débat en donnant la parole aux auteurs qui commentent « la querelle de la Chloroquine ». Pro et anti Raoult s’affrontent sur la « méthode Raoult » et ses propositions. Voici un texte de Thierry Berthier, chercheur en cyber-sécurité et cyber-défense et spécialiste du Big Data. L’auteur répond à une déclaration de Didier Raoult sur le Big Data. Un texte qu’on pourra lire en parallèle des autres textes de la Querelle Raoult que nous avons déjà publiés des auteurs ci-dessous :
Philippe Fabry, Marc Rameaux, Claude Escarguel , François Vazeille, Laurent Alexandre 1 et Laurent Alexandre 2
« Le Big Data…, une fantaisie délirante ! » Voici donc l’une des dernières affirmations tonitruantes prononcées par le professeur Raoult dans une vidéo postée le 25 mai 2020 sur YouTube [1]. Ce jugement sans appel pourrait faire sourire lors d’un apéritif festif bien arrosé entre amis data scientists réunis au fond d’un bar, mais son contexte est tout autre, situé au cœur d’une polémique clivante sur l’efficacité présumée du protocole proposé par Didier Raoult. Conforme au personnage de savant proche du peuple, incompris des élites, qu’il s’est construit au fil des semaines, la critique du Big Data raisonne comme une attaque plus générale sur les sciences dures, sur les statistiques, sur les mathématiques, qu’il oppose sans vergogne aux sciences de l’homme, celles du vivant, du ressenti, du vrai. C’est aussi un refus catégorique de toute modernité au profit d’un arbitrage radical pour la médecine du 18eme siècle, celle qui se pratique aux cinq sens, sans outil, sans artifice, sans donnée. Le « c’était mieux avant » complète en filigrane la sentence de Didier Raoult.
Pourquoi cette déclaration est-elle toxique ?
Jeter le discrédit sur la science des données sans être un expert de la discipline et sans fournir le moindre argument rationnel étayant la critique relève de la désinformation la plus complète. Didier Raoult s’est-il déjà intéressé aux réussites du Big Data ? Sait-il que ses collègues scientifiques chinois n’ont mis que 14 jours pour dresser la carte génétique du coronavirus grâce aux sciences des données, au Big Data ? Sait-il que la recherche de nouvelles molécules s’appuie sur les données massives et sur les statistiques ?
Les exemples de progrès médicaux directement liés à l’usage de la science des données, de leur géométrie subtile et de l’apprentissage automatique sont nombreux.
Le Professeur Raoul devrait faire preuve de plus d’humilité et observer, par exemple, le rôle déterminant des données massives dans le diagnostic précoce de la maladie d’Alzheimer. Les travaux du Professeur Stéphanie Allassonnière [2] ont permis de gagner deux précieuses années dans le diagnostic précoce de la maladie d’Alzheimer ! Ce travail remarquable s’appuie directement sur l’exploitation des données massives et sur la puissance des modèles statistiques mis en place. La science des données associée au génie humain a démontré toute sa puissance dans la résolution de problèmes complexes en génétique, en biochimie, en imagerie médicale et dans toutes les disciplines scientifiques.
Les déclarations à l’emporte-pièce de Didier Raoult alimentent une mécanique extrêmement toxique dans laquelle la « science » ne s’effectue plus selon des principes de rationalité mais selon l’affirmation incantatoire autosuffisante. Le public sensible au discours Raoult reste majoritairement éloigné des règles de bonne pratique scientifique et ne dispose d’aucun référentiel alternatif lui permettant d’arbitrer. L’argumentaire du « complot mondial construit contre le Professeur Raoult » verrouille strictement le débat et le réduit au champ polémique. Plus aucun argument rationnel n’est audible par la communauté pro-Raoult qui s’enferme dans une forme de victimisation suggérée par le guide qu’il faut suivre.
Le premier danger est celui d’une décrédibilisation de la communauté scientifique et de la pratique scientifique comme cela a eu lieu pour le personnel politique. Les puissants courants populistes associés aux courants complotistes sapent le consensus de rationalité et installent le sentiment du « tous pourris » dans les esprits en quête d’arguments manichéens. Dans cette dynamique, chacun devient expert en quelques clics dans le domaine de son choix et se forge une croyance résistante à l’argument scientifique. Le risque d’une radicalisation d’une partie de la société contre les sciences et les technologies devient alors réel avec toutes les dérives collatérales imaginables. Le contexte de crise sanitaire, d’incertitude et de peur de la mort renforcent cette dynamique de glissement vers l’irrationnel.
Le second danger est celui d’un retard possible de la France dans la course technologique mondiale qui oppose la Chine aux Etats-Unis. Un fort courant anti-scientifique et irrationnel traversant une partie de la population française aurait un effet catastrophique sur notre positionnement dans la course mondiale à l’innovation. D’ores et déjà, les propos de Didier Raoult sur le Big Data discréditent et éclaboussent l’ensemble de la communauté scientifique française. Quelles sont alors les pistes pour casser cette mécanique du rejet de la technologie ?
Redonner le gout des sciences et de la preuve
Quand la dérive vers une « pseudo science populiste » est constatée, il devient urgent de mettre en place des outils cognitifs qui permettent de la contrer. La communauté scientifique dans son ensemble doit être intransigeante face à ses membres lorsque ceux-ci traversent la ligne rouge et sortent du champ de la rationalité. Le système éducatif doit fournir des jalons efficaces renforçant le libre arbitre des plus jeunes face aux contre-discours irrationnels. Les enseignants doivent redonner le gout des sciences à leurs élèves et plus particulièrement le gout de la démonstration scientifique.
Les médias ont un rôle à jouer dans la classification et la validation de l’information qui devrait être systématiquement présentée avec une probabilité de véracité. Le Big Data peut à ce titre fournir des solutions efficaces permettant de qualifier ou de réfuter une information.
La classe politique doit éviter de prendre part aux polémiques scientifiques lorsqu’elle ne maitrise pas la discipline questionnée. Enfin, chacun doit faire preuve d’une grande humilité face à la complexité ambiante.
Liens et références
[1] A 4m20 : Vidéo Raoult :
https://www.youtube.com/watch?v=DZFN3DryH68&feature=emb_logo
[2] – Gaussian Graphical Model exploration and selection in high dimension low sample size setting. T. Lartigue, S. Bottani, S. Baron, O. Colliot, S. Durrleman, S. Allassonnière for the Alzheimer’s Disease Neuroimaging Initiative. IEEE Transactions on Pattern Analysis and Machine Intelligence. (2020)
Retrouvez tous les textes de notre série La Querelle Raoult
Laurent Alexandre : L’intuition médicale tue
Marc Rameaux : A la recherche de la raison dans la controverse sur l’hydroxychloroquine
Claude Escarguel : Approches prophylactiques, préventives et curatives de l’infection à Covid19
François Vazeille : La Querelle Raoult (Série) : pandémie et post-modernisme
Laurent Alexandre 2 : Les 11 leçons politiques du Covid 19
Philippe Fabry : un nouveau Rossbach ?
Thierry Berthier : le big data une fantaisie délirante
En ce qui concerne la bonne pratique scientifique, il serait bon de se renseigner sur la réalité des données qui ont servi de base à l’étude du Lancet, vu toutes les choses curieuses que l’on peut voir dans l’étude. La première chose à faire est de se renseigner sur la société Surgisphere qui a fourni les données de l’étude et la magie d’internet (qui recèle un big data en lui-même) devrait nous permettre d’accéder très facilement aux banques de données d’Entreprises et aux curriculum vitae de leur personnel.
Encore un qui n’est même pas foutu de comprendre l’adage « garbage in, garbage out » !
Je souscris à cette tribune qui ne m’étonne pas, puisque Didier Raoult annonçait déjà la couleur dans le livre que j’ai brièvement commenté dans mon article. Dans le chapitre « Big science », il écrit qu’il « n’ y a plus du tout d’esprit, juste l’accumulation de données brutales … il n’y a même pas d’analyse des résultats … beaucoup de données, pas beaucoup de pensée ». Il poursuit et applique son approche postmoderne à tous crins et généralise ce qu’il connait de la biologie à toutes les sciences.
Il écrit également: « les choses sont démontrées ou ne le sont pas » et fustigent « les brèves de comptoir », mais bien entendu, cela ne le concerne pas.
Cher Monsieur,
Je m’inquiète vivement lorsque vous écrivez:
Les médias ont un rôle à jouer dans la classification et la validation de l’information qui devrait être systématiquement présentée avec une probabilité de véracité. Le Big Data peut à ce titre fournir des solutions efficaces permettant de qualifier ou de réfuter une information.
En l’occurrence la quasi totalité des médias a été admirative devant ce qu’ils appelaient la »vaste étude » ou la »robuste étude » publiée dans le »prestigieux » journal britannique Lancet. Ils ont été loin d’être les seuls puisque même l’OMS s’est fait prendre.
Heureusement quelques rares journalistes et quelques internautes curieux ont tout simplement interrogé les bases de données d’Entreprises qui se trouvent facilement sur internet ainsi que le réseau Linkedln pour en savoir un peu plus sur leur personnel. Ils ont ainsi pu montrer ce qui semble être une vaste escroquerie à moins que les sociétés Surgisphere et Quartzclinical ne soient des sociétés écran.
Malheureusement les plus grosses désinformations (ou fake news pour faire plus chic) proviennent souvent de sources officielles.
Laissez donc les gens s’informer aux sources qu’ils veulent, ce qui ne vous empêche pas de vous battre pour la vérité. Bien cordialement.
l’exploitation notamment des données de santé au travail du Health Data Hub France par des outils d’intelligence artificielle amènera une grande amélioration bienvenue de la prévention des risques professionnels : https://www.officiel-prevention.com/dossier/formation/formation-continue-a-la-securite/big-data-intelligence-artificielle-et-sante-au-travail
Tous les algorithmes BigData/AI ne trouvent que ce qu’on leur dit de chercher. Ce que Raoult dit, c’est que les virus évoluent dans des ecosystèmes complexes, et que les algorithmes de prospection ne sont visiblement pas au point. Il oppose sa connaissance empirique de la réalité à des modélisations hasardeuses, car simplistes. Sans parler de pseudo-BigData de l’étude du Lancet.
Plutôt que de dire où le BigData fonctionne (clustering, natural language…), donnez-nous une seule étude BigData sur le Coronavirus qui a donné des résultats non « fantaisistes ».
Plutôt que de s’opposer à Raoult, et hurler avec les hyènes incompétentes, il faudrait plutôt que les IT s’associent à lui pour affiner les modèles. Je suis certain qu’il en serait passionné.