ANALYSE D'ARTICLE

Innocuité ou nocivité des CEM ? La controverse à l’ère de la science post-normale

La controverse autour des risques de l’exposition à des champs électromagnétiques (CEM) de faible intensité est du domaine de la science post-normale selon l’auteur de cet article. Il revient sur ce concept né il y a 25 ans et valorisé par l’actuelle crise de la science, puis développe la question, centrale pour sa problématique, de l’incertitude scientifique.

En plus d’un demi siècle de recherche scientifique sur les effets biologiques des champs magnétiques (des champs statiques aux champs variables dans une gamme de fréquence allant jusqu’à 300 GHz), les limites d’exposition garantissant la sécurité sanitaire n’ont guère évolué. Malgré tout, la crainte d’effets méconnus des « faibles doses » continue d’occuper l’esprit du public, d’opposer des « groupes d’experts », et d’alimenter la critique des méthodes de collecte, d’analyse et de comparaison des éléments probants.

Pour avoir été membre de panels d’experts chargés d’évaluer les risques des « faibles doses », l’auteur de cet article connaît bien la difficulté à produire un avis à la fois nuancé et éclairant pour les politiques de santé publique. Comment améliorer la qualité et la pertinence des évaluations quand l’incertitude scientifique et les enjeux de la décision sont tous deux importants ?

Ce contexte est celui de la science post-normale, définie en 1993 par Funtowicz et Ravetz [1] en partant du noyau de la science « pure », fondamentale, où la résolution de problèmes bien circonscrits passe par l’application de méthodes bien codifiées. Tant que l’incertitude est techniquement gérable et que les externalités sont faibles, la science appliquée peut résoudre le problème. Puis l’expertise professionnelle est requise pour une décision tenant compte d’aspects particuliers d’un problème plus complexe. Au-delà, ni parler « au nom de la science », ni exprimer un jugement personnel ne suffisent ; ils sont même contre-productifs, d’autres stratégies doivent être mises en œuvre.

Le concept de science post-normale a été proposé alors qu’émergeaient de grands défis tels que ceux posés par le changement climatique, la biologie synthétique, la résistance aux antimicrobiens et les nanotechnologies. La crise qui ébranle la science élargit son utilité à des sujets empreints de scepticisme et à fort enjeu sociétal comme les dangers des cultures génétiquement modifiées, de certains polluants atmosphériques et des ondes électromagnétiques. Dans ce dernier cas, l’incertitude provient en grande partie de l’incohérence des rapports d’études. S’agissant par exemple du risque de cancers spécifiques dans des populations « fortement exposées » à un CEM, les estimations produites vont du simple au triple. Elles sous-estiment le risque réel pour certains scientifiques, tandis que d’autres le ramènent à zéro. La communauté doit se positionner en considérant deux objectifs contradictoires : favoriser l’accès pour tous aux technologies sans fil et protéger des individus vulnérables contre un possible danger.

Analysant les causes de la polémique autour des effets des « faibles doses », l’auteur relève celles qu’il conviendrait de corriger prioritairement selon les principes de la science post-normale.

Études individuelles

Plusieurs articles publiés dans des revues à fort impact ont dénoncé le faible taux de reproductibilité des travaux scientifiques en général. Dans une enquête réalisée en 2016, près de 77 % des biologistes déclaraient avoir échoué à reproduire les expériences de collègues et 60 % reconnaissaient n’avoir pu reproduire leurs propres expériences. Les pourcentages étaient un peu moins élevés pour d’autres disciplines comme la physique et l’ingéniérie, où l’incapacité à reproduire les travaux d’autrui atteignait 68 %.

Ce problème participe grandement à la crise de la science et alimente l’érosion de la confiance du public, les médias se focalisant sur le manque de consensus et les cas de rétractation et de fraude. Ses causes principales sont connues : la pression à publier et la sélection de résultats statistiquement significatifs (“p-hacking”). Parmi les remèdes proposés, l’auteur distingue une bonne pratique de la part des journaux consistant à pré-enregistrer, sinon pré-accepter un article sur la base de la question de recherche et de la méthodologie définie pour l’explorer avant tout recueil de données, ce qui prévient la formulation d’une hypothèse a posteriori une fois ces données analysées.

Deux autres sources d’incertitude grèvent les études individuelles : le manque de transparence et la mauvaise conduite auxquels neuf facteurs contribuent, rassemblés sous l’acronyme TRAGEDIES (Temptation, Rationalization, Ambition, Group/authority pressure, Entitlement, Deception, Incrementalism, Embarrassment, Stupid systems). Les deux peuvent être combattues par le mouvement « Science ouverte » (Open science) qui promeut une large mise à disposition des données. L’auteur salue l’initiative de certaines sources de financement qui s’efforcent de dépasser les objections habituelles à leur diffusion (comme préserver la réputation de l’institution ou des intérêts commerciaux), pour encourager les chercheurs qu’elles soutiennent à déposer leurs données sur des plateformes collaboratives où d’autres pourront les réexaminer ou les utiliser pour des analyses complémentaires.

Revues et méta-analyses

L’hétérogénéité des protocoles d’études et la discordance de leurs résultats rendent l’analyse de l’ensemble particulièrement difficile. Face à une littérature conséquente et aux contraintes de délais qui leur sont imposées, les évaluateurs bornent leur champ de recherche en termes de période de publication et de type (classiquement revues à comité de lecture), et tendent à opérer une sélection sur la base des résumés.

Ce processus peut être biaisé si le groupe d’experts favorise l’inclusion de travaux de ses membres ou de proches collègues, ou représente une coalition d’individus unis par leur système de valeurs. Pour ces raisons, sa composition prête volontiers à critique. De plus, elle écarte souvent les plus expérimentés et informés (collaborant avec des industriels) au motif du conflit d’intérêt. Finalement, la composition du panel ou sa méthodologie de travail (pas assez transparente, participative et humble dans son appréciation de l’ignorance) peut rajouter à l’incertitude.

Dans le cas particulier des CEM, l’évaluation de la sécurité des faibles doses est desservie par l’approche « poids des preuves » qui conduit à rejeter l’hypothèse d’un effet. Considérée comme un standard de qualité, sa valeur est en réalité limitée si le processus se résume à un comptage des études rapportant un effet versus n’en montrant pas, ou si le protocole appliqué n’est pas bien décrit. L’un de ses pivots est l’évaluation objective des risques de biais dans les études individuelles. Même si elle est réalisée dans les règles de l’art (par deux évaluateurs indépendants, disposant de délais leur permettant de solliciter les auteurs pour des compléments d’information), les outils disponibles (assortis au mieux de manuels pour leur bon usage) ont été développés pour des études cliniques. Dans quelle mesure peuvent-il s’appliquer au champ des travaux à analyser, incluant des études de laboratoire in vitro, de la modélisation et de la dosimétrie ?

Aucun mécanisme d’interaction biologique crédible ne soutient un effet des faibles doses. Pour autant, et même si le comptage des études rapportant un effet leur est défavorable, elles existent. Ni les ignorer au motif de leur petite taille ou de débits d’absorption spécifique élevés, ni accepter aveuglément leurs résultats ne résout l’incertitude. Il faut aller plus loin, examiner la méthode d’évaluation de l’exposition et la méthode d’analyse pour y chercher de possibles sources d’erreurs. Les conditions requises sont la disponibilité des données – en ce sens la politique éditoriale des revues devrait encourager la fourniture d’annexes : données brutes et étapes intermédiaires en cas de calculs complexes – et une évolution des mentalités. La délibération ne peut aboutir qu’en reconnaissant humblement l’imperfection de la méthode scientifique sans craindre qu’une erreur d’apparence insignifiante ne ruine sa réputation.

 

 

Commentaires

L’article de Wood AW (qui porte le même nom que Robert Wood, l’opticien qui avait montré l’inexistence des rayons N [comme Nancy] au tout début du siècle précédent, évitant d’avancer de quelques années la première guerre mondiale...) pose une question de fond, celle de la robustesse des résultats issus de recherches scientifiques incomplètes pour différentes raisons. Or, le journal Nature a, de mémoire, publié il y a quelques années une étude sur la très faible reproductibilité des résultats scientifiques, en particulier (mais pas uniquement) pour ce qui concerne l’homme, au sens large. Ce que signale avec intérêt cet auteur, c’est qu’en milieu incertain, la rationalité ne peut être que partielle, ce qui conduit à des expertises parfois hasardeuses (même en étant de bonne foi). Appliqué aux faibles doses d’exposition (aux ondes électromagnétiques), la question des relations causes effets ne peut être tranchée facilement parce qu’il faut faire des études qui conduisent à des mesures dans des temps compatibles avec le temps et le financement d’une publication ou encore, en toxicologie, avec la durée de vie des animaux de laboratoire (pour faire simple), ce qui implique des doses non faibles ainsi que la maîtrise des expositions multifactorielles associées à des effets individuels complexes... On est donc très souvent dans de l’indécidabilité, avec des projections des fortes doses vers les faibles qui font l’hypothèse de linéarités (ce qui reste à prouver). Or l’épidémiologie, l’équivalent de la cavalerie du Général Custer dans la guerre contre les indiens d’Amérique, atteint ses limites pour les faibles doses...

Mais pour autant, avec quelques milliards de téléphones portables ou autres systèmes à Wi-Fi allez demander aux populations du monde d’appliquer le principe de précaution ! (Cela serait bon pour la planète à cause de l’énergie non consommée). Mais, de mon point de vue, c’est bien d’avoir une position critique et de poser les bonnes questions. La science passe son temps à publier des certitudes... Cet article montre qu’on ne sait pas tout et qu’il existe des mers d’ignorance, qu’il faudrait sans doute faire partager au public (les scientifiques en faisant partie).

Jean-Claude André


Publication analysée :

* Wood AW. Post-normal science and the management of uncertainty in bioelectromagnetic controversies (Letter). Bioelectromagnetics 2019 Jan 7. doi: 10.1002/bem.22168

1 School of Health Sciences, Swinburne University of Technology, Melbourne, Australie.

1 Funtowicz SO, Ravetz JR. Science for the post-normal age. Futures 1993 ; 25 : 739-55.