Les scientifiques peinent souvent à communiquer efficacement. Ils rédigent de longs articles bourrés de jargon professionnel, suivant une structure rigide, pour des revues spécialisées de qualité variable. On pourrait penser que les meilleures publications garantissent une fiabilité absolue. Hélas, ce n'est pas toujours le cas, et cela peut même s'avérer dangereux.
"La recherche montre que le médicament X prolonge la durée de vie. ⚠️ Alerte spoiler : ce n'est pas en soi vrai."
Publier dans des médias grand public comme Ouais ou Famille TV est relativement facile : on soumet, les éditeurs valident et publient. Les revues scientifiques, en revanche, appliquent deux procédures de sélection rigoureuses.
"Pas si simple, n'est-ce pas ?" En effet, ce processus peut durer des mois, voire des années, générant frustrations et larmes. Pourtant, il est censé être hermétique : qualité garantie.
Malheureusement, non.
Le scientifique A conclut que les personnes prenant le médicament X quotidiennement vivent plus longtemps en moyenne.
Le scientifique B conclut que ces personnes vivent 10 ans de plus en moyenne.
Ils ont suivi la même méthodologie et soumettent leurs articles à la même revue.
À A : "Merci pour votre soumission. Votre article n'est pas pertinent et insuffisamment innovant pour notre revue." (Tous les chercheurs connaissent ce type de refus.)
À B : "Votre article est accepté pour peer-review."
Il arrive aussi que A juge ses résultats indignes de publication, tandis que B partage avec enthousiasme ses résultats positifs [1].
En clair, un article aux r/ésultats positifs a 3 fois plus de chances d'être publié qu'une étude équivalente sans effet positif [2], [3]. C'est le biais de publication : un fléau dangereux.
Sur 100 études sur l'effet du médicament X sur la longévité : 50 montrent un effet positif (49 publiées), 50 n'en montrent aucun (25 publiées).

"Le médicament X prolonge très probablement la vie : 66 % des études publiées (49) montrent un effet positif, contre 33 % (25) sans."
Faux en réalité. D'où l'importance de vigilance lors de lectures de méta-analyses : les conclusions sont souvent trop optimistes. Prenez-les avec des pincées de sel.
Bonne nouvelle : des mesures contre ce biais existent. Les chercheurs enregistrent leurs essais cliniques sur des plateformes centrales avant tout démarrage.
Exemple fictif : intérêt pour l'effet des avocats sur les maux de dos. Rendez-vous sur https://www.clinicaltrialsregister.eu/ctr-search/search/, tapez "avocat ET maux de dos". Vous verrez toutes les études enregistrées, résultats publiés ou non.

[1] P. J. Easterbrook et al., « Biais de publication dans la recherche clinique », Lancet, vol. 337, n° 8746, p. 867–872, 1991.
[2] R. J. Simes, "Publication bias: The case for an international Registry of Clinical Trials", J. Clin. Oncol., vol. 4, n° 10, p. 1529–1541, 1986.
[3] K. Dickersin et al., « Biais de publication et essais cliniques », Control. Clin. Trials, vol. 8, n° 4, p. 343–353, 1987.
[]