Climat, corona, et cetera : mirages et ravages de la pseudo-science

Les vaticinations de Neil Ferguson

Neil Ferguson, chercheur à l’Imperial College de Londres, est le pape de l’épidémiologie dans le monde, ou plutôt le pape des modèles mathématiques qui sont censés prévoir l’évolution des épidémies. En mars 2020, il a pris son bâton de missus dominici pour faire le tour des capitales européennes. A Stockholm, il a dit aux Suédois qu’ils auraient 100.000 morts s’ils ne confinaient pas la population ; ils n’ont pas suivi ses conseils ; ils ont eu seulement 6.000 morts, au lieu de 100.000, pendant la première épidémie, de mars à mai 2020.

Emmanuel Macron a été moins intelligent que les Suédois et il est passé d’un extrême à l’autre. Dans un premier temps, il a traité l’épidémie à la légère. Souvenez-vous :

26 février 2020, partie de balle au pied à Lyon, qui a eu lieu normalement en présence de 3.000 soutiens de l’équipe de Turin, alors que l’épidémie battait son plein dans le nord de l’Italie.

6 mars 2020, Macron et sa femme au théâtre.

11 mars 2020, discours de Macron à Paris, au Trocadéro, pour la “journée nationale d’hommage aux victimes du terrorisme” : “Nous ne renoncerons pas aux terrasses, aux salles de concert, aux fêtes de soir d’été. Nous ne renoncerons pas à la liberté.”

Mais, le lendemain, 12 mars 2020, Macron reçoit son “conseil scientifique” constitué à la hâte, de bric et de broc, quelques jours avant, le 5 mars, et le président dudit conseil, Jean-François Delfraissy, lui présente les prévisions de Ferguson pour la France : 300.000 à 500.000 morts, selon celui-ci, si on ne confine pas. Simon Cauchemez, émule de Ferguson à l’Institut Pasteur et autre membre du conseil scientifique, n’est pas en reste et annonce lui aussi des centaines de milliers de morts. Macron s’affole et, le soir même, sans plus attendre, prononce une allocution solennelle : fermeture des écoles et interdiction de rendre visite aux personnes âgées. Quatre jours plus tard, une fois passé le premier tour des élections municipales, il annonce le confinement général de la population. Les Français n’ont plus le droit de sortir de chez eux sans Ausweis.

S’il avait été un chef d’Etat digne de ce nom, au lieu de perdre les pédales, Macron aurait dû demander quelles avaient été dans le passé la qualité des prévisions modélistiques de Ferguson. Il aurait été édifié.

En 1996, Ferguson avait prédit qu’il y aurait 136.000 morts dues à la maladie de la vache folle. En réalité, il y en a eu quelques dizaines, et encore, ce n’est pas sûr, parce qu’auparavant la maladie de Creuzfeldt-Jacob n’était pas diagnostiquée et que, par exemple, l’une des prétendues victimes de la vache folle était un végétarien (qui aurait commis l’erreur de faire une fois, une seule, un écart de régime en allant dans un McDonald’s… on veut bien croire que c’est la cuisine – si l’on peut dire – du McDonald’s qui l’a tué, mais on n’a pas besoin de mettre en cause les vaches folles…).

En 2001, les délires mathématiques de Ferguson ont conduit à l’extermination de 6 millions de têtes de bétail pour contenir une épidémie de fièvre aphteuse. Au total, on n’a pas recensé plus de 2.000 cas.

En 2004, Ferguson a prévu que la grippe aviaire ferait 200 millions de victimes humaines. En comptant large, elle en a fait seulement 200, soit un million de fois moins.

En 2009, plus prudent, il annonçait 65.000 morts pour la grippe H1N1, qui n’en a fait que 18.000, trois fois moins ; et 300 en France, déjouant les alarmes du ministre de la santé, Roselyne Bachelot.

Il suffisait de se pencher sur les exploits de Neil Ferguson pour mesurer la confiance que l’on pouvait accorder à ses prévisions, toujours absurdes. Mais Macron a gobé les vaticinations de Ferguson et il a confiné les Français à partir du 17 mars 2020.

Les morts attribuées au covid-19 au cours de la première épidémie, en mars, avril et mai 2020, ont été au nombre de 30.000 environ, loin des 500.000 annoncées par Ferguson en l’absence de confinement. Passons sur le fait que ces statistiques sont gonflées et fallacieuses, puisque 94% des gens qui meurent après avoir été contaminés par le covid-19 avaient déjà une autre pathologie lourde (maladie cardio-vasculaire, diabète, insuffisance rénale…). La différence est-elle due au confinement ? L’exemple de la Suède suffit à répondre par la négative. Les éminents spécialistes que sont en France les professeurs Didier Raoult et Jean-François Toussaint n’ont eu de cesse de l’affirmer : les mesures sociales, confinement, couvre-feu, n’ont eu aucun effet sur la propagation de la maladie.

C’est facile à comprendre. On sait que le confinement favorise la contamination au sein de l’espace confiné, comme l’a rappelé l’université John Hopkins, et c’est même une des explications avancées pour la saisonnalité de la grippe, parce que l’on se confine chez soi en hiver. Le confinement réduit la contamination à l’extérieur, mais il accroît celle qui se produit chez soi, au sein du foyer.

On reconnaît un imbécile à ce qu’il se laisse berner deux fois de suite de la même façon. Selon ce critère, Macron est le roi. Dans son discours du 28 octobre 2020 où il a annoncé un second confinement, il a parlé de 400.000 morts en l’absence de confinement et il a affirmé : “Quoi qu’il arrive, il y aura au moins 9.000 malades en réanimation à la mi-novembre.” En réalité, il y a eu 4.900 malades en réanimation le 15 novembre 2020, moitié moins, et comme ces chiffres sont délibérément gonflés parce que l’on bourre les services de réanimation de “cas légers”, c’est-à-dire de gens qui ont seulement besoin d’oxygène et qui ne devraient pas y être, on mesure l’ampleur des erreurs de prévision, et cela, seulement quinze jours à l’avance.

Quant aux 400.000 morts, scénario absurde, il résultait des calculs des disciples de Ferguson à l’Institut Pasteur, sous l’autorité de Simon Cauchemez, institut qui, décidément, depuis le début de l’épidémie, est en train de ruiner le prestige qui s’attachait à son nom.

Pour le professeur Didier Raoult, les prévisions des modèles épidémiologiques relèvent de l’astrologie. Et encore, il est trop aimable, car l’astrologie ne se trompe qu’une fois sur deux, alors que les modèles épidémiologiques se trompent toujours…

Mais pourquoi donc les modèles préfèrent-ils le confinement ? Le professeur Jean-François Toussaint nous a révélé le secret : les modélisateurs introduisent dans leurs hypothèses un paramètre R0 qui définit le taux de reproduction de la maladie, c’est-à-dire le nombre de personnes qui seront contaminées par un malade, et ils supposent que R0 est divisé par 3 si on confine, ce qui est absurde ; les exponentielles font la différence… Autrement dit, le résultat en faveur du confinement résulte simplement de l’hypothèse de départ. La mystification est parfaite.

On nous rebat les oreilles avec le paramètre R0 et la prétendue immunité collective. L’un et l’autre ne sont que des artefacts des modèles et n’ont pas de réalité objective. Evidemment, on peut calculer ex post le taux de contamination, mais on ne peut pas le connaître ex ante, tant il peut varier selon les circonstances. Et tout ce que l’on peut dire, c’est que l’épidémie ralentit nécessairement au fur à mesure qu’elle progresse, puisqu’elle rencontre un terrain de moins en moins favorable, notamment parce qu’une partie de la population a déjà été contaminée et se trouve en conséquence immunisée, mais aussi pour toutes sortes d’autres raisons, et tout simplement parce que les personnes les plus exposées ont été atteintes en premier. Cette loi des rendements décroissants de l’épidémie est analogue à celle que l’on connaît en économie. Et si l’épidémie finit par s’éteindre, c’est aussi parce que le virus mute et que, quand il mute sur place, les virus les moins dangereux se répandent plus vite et ont tendance à remplacer les plus dangereux. Loi de virulence décroissante de l’épidémie, qui est aussi d’une portée générale. Le rhume, qui est souvent provoqué par un des quatre autres coronavirus en circulation, a sans doute été jadis aussi dangereux que le sars-cov-2, et l’on peut donc parier que celui-ci finira de même par devenir endémique et assimilable au rhume actuel.

Non seulement on n’a pas encore trouvé de modèles épidémiologiques valides, mais on peut affirmer qu’il est impossible que l’on en trouve jamais un, parce que le modèle le plus complexe l’est toujours infiniment moins que le phénomène complexe qu’il prétend décrire, à savoir ici l’épidémie. Les données sont mal connues, qu’il s’agisse du nombre de cas ou de la contagiosité de l’épidémie, laquelle peut varier en fonction de multiples circonstances, sociales, économiques ou météorologiques. On a parlé abondamment des “clusters”, en français, des foyers de contamination, et en effet la formation desdits foyers conditionne la dynamique de l’épidémie, mais, justement, leur formation est aléatoire et imprévisible.

Epistémologie des modèles mathématiques

Ce que j’ai dit des modèles mathématiques des épidémies peut être généralisé à tous les phénomènes complexes. C’est un principe épistémologique : aucun modèle mathématique, aussi perfectionné soit-il, aussi convaincant qu’il paraisse a priori, ne peut être tenu pour valide ex ante, c’est-à-dire avant d’être soumis à l’expérience, qui pourrait éventuellement le valider ex post. Il faut qu’il ait fait ses preuves, c’est-à-dire qu’il ait fait des prévisions valides, autrement dit des prévisions justes et non banales.

Il ne faut pas inverser la charge de la preuve : ce sont les modélisateurs qui doivent démontrer la pertinence de leurs modèles, ce n’est pas aux esprits critiques de prouver qu’ils sont faux.

Selon le mathématicien Bernard Beauzamy, “aucun des modèles mathématiques ne donne satisfaction”. “N’importe qui peut concevoir un ensemble de formules décrivant plus ou moins bien un phénomène réel (comme la propagation d’une épidémie). Toute la difficulté est dans la validation d’un tel modèle, en particulier sur des données différentes de celles qui lui ont donné naissance. Notre expérience est que seuls les modèles grossiers (nécessairement probabilistes) donnent satisfaction, et encore pas toujours. Un modèle fin, cherchant à décrire les lois de la physique, échouera nécessairement en pratique, tant ces lois sont complexes et les données insuffisantes.” [1]

Le célèbre mathématicien John von Neumann avait dit de son côté : « Avec quatre paramètres, je peux dessiner un éléphant ; avec cinq, je peux lui faire bouger la trompe. » [2]

Autrement dit, le fait qu’un modèle réussisse à rendre compte du passé, pour les données sur lesquelles il a été calibré, ne saurait suffire à prouver sa pertinence. A condition d’introduire un nombre suffisant d’équations et de paramètres, un modélisateur confirmé y parviendra toujours. Mais la capacité d’un modèle à rendre apparemment compte du passé ne prouve absolument pas qu’il puisse faire des prévisions valides.

On peut affirmer au contraire qu’aucun phénomène naturel ou social très complexe ne peut donner lieu à une modélisation mathématique valide, au sens où elle ferait des prévisions justes et non banales. Cela peut être déduit de la théorie du chaos déterministe, qui remonte au mémoire d’Henri Poincaré sur le problème des trois corps (1888) et qui a atteint le grand public dans les années 1970 sous le nom d’“effet papillon[ 3]. Selon la formule d’Edward Lorenz, “le battement d’ailes d’un papillon au Brésil est susceptible de provoquer une tempête au Texas”.

Pour que l’on mesure la portée de la très forte sensibilité aux conditions initiales, le mathématicien David Ruelle explique que l’on a calculé l’effet que produirait sur la dynamique d’un volume gazeux quelconque le fait de supprimer l’attraction gravitationnelle d’un électron placé à la limite de l’univers connu : en une infime fraction de seconde, on obtient un changement qualitatif dans les chocs entre les molécules du gaz. Il faut ensuite une minute environ pour qu’il y ait des modifications macroscopiques dans le genre de turbulences qui se produit au dessus d’un radiateur chaud. Il faut un jour pour que des changements sur des distances d’un centimètre s’étendent sur dix kilomètres. On estime que la structure du temps qu’il fait sur la terre sera bouleversée en moins de quinze jours [4].

Ce genre de calcul met une borne aux ambitions des météorologistes, qui ne peuvent espérer prévoir le temps avec quelque précision au delà d’une semaine ou deux. A l’évidence, un système chaotique est imprévisible, parce qu’il est impossible de connaître les conditions initiales avec une parfaite précision. Or, le chaos déterministe est omniprésent dans la nature et il suffit qu’une partie du phénomène obéisse à ses lois pour que la prévision soit impossible. Du reste, dans l’hypothèse favorable où le phénomène étudié échapperait parfaitement au chaos, il suffirait que sa complexité dépassât infiniment celle du modèle mathématique pour qu’il fût très peu probable que celui-ci pût être valide. Et, répétons-le, la charge de la preuve incombe au modélisateur, qui, jusqu’à présent, n’a jamais pu l’apporter, dans quelque domaine que ce soit.

La très grande sensibilité aux conditions initiales détruit un préjugé illégitime qui sous-tend l’historicisme et le scientisme du XIXe siècle, selon lequel les causes seraient forcément du même ordre de grandeur que les conséquences. Ce postulat était nécessaire pour que l’avenir soit prévisible et que l’homme puisse caresser l’illusion de se rendre maître de son destin. Il s’effondre avec l’irruption du chaos.

La mystification des modèles climatologiques

Donc, les modèles sont des outils suffisamment flexibles pour qu’on puisse leur faire dire à peu près n’importe quoi. Avec un peu d’ingéniosité, ils parviennent toujours à simuler le passé. Cela ne prouve nullement qu’ils soient en mesure de prévoir l’avenir. La capacité qu’ont les quelque dizaines de modèles numériques dont se sert le GIEC de simuler le climat des dernières décennies ne signifie pas qu’ils soient valables pour calculer les évolutions futures. Ils ont été paramétrés pour rendre compte des températures observées pendant vingt-cinq ans, entre 1975 et 2000. Mais il a fallu les ajuster pour rendre compte de la baisse des températures entre 1950 et 1975, en introduisant une hypothèse ad hoc, ce qui n’est pas bon signe : le rafraîchissement de ces vingt-cinq années-là serait la conséquence des émissions de poussières et autres particules microscopiques en suspension dans l’air, les aérosols, produits par l’industrie.

L’ennui, c’est que les modèles prévoyaient que la température continuerait à augmenter après l’an 2000, parallèlement au taux de gaz carbonique dans l’atmosphère. Or, ce n’est pas ce qui s’est passé : ces prévisions ont été démenties. La température moyenne de la terre a stagné jusqu’en 2020 depuis le maximum atteint en 1998, en dépit des annonces sensationnelles sur les prétendus records de chaleur. Le moins que l’on puisse dire est que cela est susceptible d’ébranler la confiance que l’on peut avoir dans les modèles du GIEC.

Les réchauffistes, comme on peut les appeler, disent que leurs modèles s’appuient sur des lois physiques incontestables. Ils oublient de préciser deux choses essentielles. D’une part, que les calculs sont conduits sur de vastes “cellules” découpées sur la surface terrestre et dans l’épaisseur de l’atmosphère et que les détails de la réalité leur échappent nécessairement. D’autre part, qu’une partie des équations est fondée sur des paramètres statistiques, car la réalité est trop complexe ou mal connue pour que l’on puisse tenter de l’interpréter autrement, c’est-à-dire par l’application directe des lois de la physique. C’est notamment le cas pour les nuages, qui jouent un rôle essentiel dans le climat, mais dont on ne connaît pas les lois de formation.

Le fait que les modèles du GIEC aillent tous dans le même sens ne surprendra pas ceux qui connaissent un peu les modèles macro-économiques, lesquels partent presque tous de la théorie keynésienne et prévoient donc que le revenu national va s’accroître et le chômage diminuer quand on augmente les dépenses publiques. Lesdits modèles keynésiens n’avaient pas vu venir la crise de 2008, mais ils ont quand même été jugés assez pertinents par les gouvernements pour inciter ces derniers à ouvrir les vannes du budget. On en a vu le résultat. Et quand on sait que la relance keynésienne, budgétaire et monétaire, qui a été réalisée en 2020 sous prétexte de compenser les effets désastreux des mesures de confinement, est de trois fois à six fois supérieure selon les pays à ce qui a été fait après la crise de 2008, il est permis de s’inquiéter pour l’avenir.

Pour leur part, les modèles du GIEC partent tous du présupposé que les émissions de dioxyde de carbone et des autres gaz émissifs, dits “à effet de serre”, doivent expliquer l’évolution du climat au cours des dernières décennies. Postulat réducteur. Il n’est pas étonnant qu’ils y parviennent, tant bien que mal, eu égard à la plasticité propre aux modèles. Ce postulat “carbocentriste” est-il juste ? Nul ne nie que le CO2 et les autres gaz à effet de serre exercent un “effet de couverture” qui tend à réchauffer la planète. Mais quelle est l’importance de cet effet ?

Le climatologue Marcel Leroux affirmait, pour sa part : “Pour 95%, l’effet de serre est dû à la vapeur d’eau. Le dioxyde de carbone, ou CO2, ne représente, quant à lui, que 3,62% de l’effet de serre, soit 26 fois moins que la vapeur d’eau. (…) l’effet de serre est donc essentiellement un phénomène naturel. Seule une faible proportion (…) peut être attribuée aux activités humaines et cela pour une valeur totale de 0,28% de l’effet de serre total, dont 0,12% pour le seul CO2, c’est-à-dire une proportion insignifiante, voire tout à fait négligeable. (…) l’homme n’est en aucune façon responsable du changement climatique.[5]

Les nuages ! Ils sont l’impasse fondamentale de la théorie nébuleuse du GIEC. Ses modèles supposent que l’augmentation de la température qui résulte de celle de la teneur en CO2 est amplifiée par l’évaporation de l’eau, qui renforce l’effet de serre, puisque la vapeur d’eau est le plus important des gaz émissifs. C’est cette rétroaction positive qui aboutirait à des prévisions de hausse de température de plusieurs degrés. Mais, plus il y a de vapeur d’eau dans l’air, plus il y a de nuages. Or, ceux-ci ont un double effet ; d’une part, ils accentuent l’effet de serre, autrement dit l’“effet couverture”, en absorbant l’infrarouge ; d’autre part, ils réfléchissent les rayons du soleil, c’est l’“effet parasol”. On pense que les nuages hauts, situés à plus de 6.000 mètres, ont plutôt tendance à réchauffer l’atmosphère, parce qu’ils sont peu denses et laissent passer les rayons du soleil ; en revanche, les nuages bas nous refroidissent, comme chacun peut le constater. Toute la question est de savoir comment les masses nuageuses vont se développer et se répartir en conséquence de l’accélération de l’évaporation.

Au fond, les carbocentristes sont victimes de l’“effet réverbère” : c’est l’histoire de cet homme qui cherche son trousseau de clés, la nuit, sous un réverbère ; un passant lui demande s’il est bien sûr de l’avoir perdu là ; non, répond-il, mais c’est le seul endroit où l’on voit clair !

Les modèles numériques du GIEC reposent en outre sur une accumulation d’hypothèses qui leur ôte toute crédibilité. Le professeur Bernard Beauzamy a dit le peu de considération qu’il avait, en tant que mathématicien, pour les modèles du GIEC, dans une note établie pour le secrétariat général de la défense nationale en 2001, note qu’il a actualisée en 2006 : “Les modèles employés (et c’est précisément notre métier de mathématicien que de les juger) sont à ce point sommaires, grossiers, empiriques, fallacieux, que les conclusions qui en sont tirées sont dépourvues de toute valeur prédictive ; seraient-ils mille fois plus précis qu’ils ne le permettraient toujours pas.[6]

La plaidoirie en défense que l’on trouve dans les écrits d’Hervé Le Treut est de nature à inspirer les plus grands doutes : “L’analyse des données est effectuée de manière quotidienne pour permettre les prévisions météorologiques… La qualité des prévisions, vérifiable quelques jours plus tard, constitue le meilleur indice possible de qualité des analyses.[7] Donc, la qualité des prévisions à 3 jours assurerait la qualité des prévisions à 30 ans… Mais quid des prévisions à 30 jours et à 300 jours ? On peut au contraire retourner l’argument d’Hervé Le Treut : l’incapacité des modèles à prévoir la météo à 30 jours prouve a fortiori leur incapacité à la prévoir à 30 ans. Jacques Villain, membre de l’Académie des sciences, écrit à ce propos : « Aux travaux des climatologues, une objection inévitable est celle soulevée par Claude Allègre dans un des ses livres : “J’ai peine à croire qu’on puisse prédire avec précision le temps qu’il fera dans un siècle alors qu’on ne peut pas prévoir celui qu’il fera dans une semaine.” Le paradoxe n’est qu’apparent, puisque la météorologie cherche à prévoir le temps à tel endroit et tel moment, alors que la climatologie s’intéresse à des valeurs moyennes sur une longue durée et une vaste région. La coexistence du chaos météorologique et de la stabilité climatologique, hypothèse non démontrée, est toutefois fortement suggérée par les calculs basés sur les modèles. » [8] Cette réponse au “paradoxe d’Allègre” est savoureuse. La question n’est pas en effet de savoir si le chaos est dans les modèles, mais s’il est dans la nature. Or, ce sont fondamentalement les mêmes modèles qui servent pour les prévisions à court terme, dites météorologiques, et les prévisions à long terme, dites climatologiques.

Les modèles du GIEC ne font que nous dire in fine ce qui était déjà postulé ab initio, l’effet diabolique du gaz carbonique produit par l’homme. C’est ici que la science rejoint le vaudou.

De la pseudo-science en général

La superstition mathématique fait des ravages. Elle impressionne les gens comme le faisait autrefois l’astrologie et ses formules compliquées. Mais il n’y a pas plus de rapport entre la théorie et la réalité dans un cas que dans l’autre.

Le lyssenkisme, nommé ainsi par référence au biologiste soviétique Trophime Lyssenko et auquel le CDH a consacré un prix de dérision, c’est la désinformation scientifique qui répond à une intention idéologique. Il est le fait d’un scientifique particulier ou d’une école de scientifiques, mais il ne suffit pas à créer une discipline scientifique distincte. Avec la pseudo-science, il en va autrement. La modélisation mathématique autosuffisante, qui produit des prévisions sans jamais les confronter aux faits qui se sont réellement produits, est une pseudo-science, qu’on l’applique à la climatologie, à l’épidémiologie, à l’économétrie, ou encore à l’écologie ou à la génétique. On peut parler d’une pseudo-science quand c’est toute une discipline qui est pseudo-scientifique. Une pseudo-science se définit par le fait qu’elle peut être réfutée, et non parce qu’elle serait irréfutable, en franglais “non-falsifiable”, selon la théorie absurde de Karl Popper, dont la réputation est usurpée. Ainsi, le marxisme et la psychanalyse sont des pseudo-sciences parce que le premier prévoyait la paupérisation du prolétariat, et la seconde promettait la guérison des malades. On a vu le résultat : le marxisme, 100 millions de morts, la psychanalyse, 100 millions de fous. On peut ajouter le pédagogisme à la liste des pseudo-sciences : 100 millions d’illettrés. La pseudo-science conduit toujours à la catastrophe parce qu’elle emprunte les habits de la science pour tromper, pour impressionner et pour faire illusion.

Alors, gardons foi dans la science, et protégeons-la des mirages de la pseudo-science qui la dénaturent et qui ont fait d’épouvantables ravages dans le monde.

Je vous appelle au combat pour la vérité, qu’il faut mener avec courage et lucidité contre l’idéologie cosmopolite, qui s’impose aux masses grâce aux mensonges de la pseudo-science.

Henry de Lesquen


[1]              La Lettre de la SCM [Société de calcul mathématique], décembre 2020, “Débat Villani-Beauzamy”.

[2]              Cité dans Benoît Rittaud, Le mythe climatique, Seuil, 2010, p. 151.

[3]               Cf. James Gleick, La Théorie du chaos – Vers une nouvelle science, Flammarion, 2008.

[4]              David Ruelle, “Déterminisme et prédicibilité”, in Pierre-Gilles de Gennes et alii, L’Ordre du chaos, Pour la Science, 1992.

[5]              “Entretien avec Marcel Leroux. La fable du réchauffement climatique”, La Nouvelle Revue d’histoire, n° 31, juillet-août 2007.

[6]              Bernard Beauzamy, Le réchauffement climatique : mystifications et falsifications, Société de calcul mathématique, 2001, 2006 (http://scmsa.pagesperso-orange.fr/rechauff.pdf).

[7]              Libres points de vue d’académiciens sur l’environnement et le développement durable, Académie des sciences, 25 novembre 2009, p. 9.

[8]              Ibid., pp. 23-4.

(2 commentaires)

  1. 😂😂😂😂😂
    J’aimerai tant un débat sur la France entre Henri de Lesquen face à Eric Zemmour, organiser par un musulman.

  2. En Mars , un ami directeur d’un hôpital de province me disait qu’il avait eu un cluster dans son hôpital qui avait conduit au décès de plusieurs dizaines de personnes. A l’époque 95% des médecins étaient vaccinés, 50% des infirmières, 25% des aides soignantes et seulement 5% des ASH . Comment expliquez vous cette disparité ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *