Des scandales de fraude hautement médiatisés ont ébranlé le monde scientifique ces dernières années. Comment redonner à la science sa crédibilité et son intégrité ?

"Quelle partie d'une expérience scientifique échappe au contrôle du chercheur ? Ses résultats", interroge le neuroscientifique Chris Chambers lors d'un débat sur la fraude à Londres. La méthode scientifique vise à prévenir les erreurs ou les tromperies. "La fraude consiste à manipuler ces résultats pour un gain personnel", ajoute-t-il. Certains chercheurs vont jusqu'à publier des dizaines d'articles falsifiés.
Les conséquences de la fraude scientifique sont inestimables. Les données manipulées ou inventées contaminent d'autres travaux, intégrées dans des articles, leçons et conférences. Des études frauduleuses persistent longtemps après leur retrait : un chercheur américain a recensé plus de 1 100 rétractations entre 1997 et 2009, citées plus de 2 000 fois sans méfiance.
En sciences médicales, la fraude expose les patients à des risques. Grant Steen a comptabilisé que, sur 180 études rétractées ces dix dernières années, 9 200 patients ont été traités sur des bases de données non fiables, et 71 000 dans des études citant ces articles. Des données erronées retardent les nouveaux médicaments ou prolongent l'usage de traitements inutiles.
Un cas de fraude génère aussi des pertes financières massives. Un enquête sur une fraude à l'institut du cancer de New York a estimé les coûts à 394 000 dollars, incluant fonds dépensés, salaires et embauche de remplaçants. Les fraudeurs nuisent également aux carrières des co-auteurs et collègues.
Pire encore, chaque fraude érode la confiance publique en la science. "Peu de fraudes suffisent à détruire cette confiance", avertit le philosophe Bart Pattyn de la KU Leuven. "Si un scientifique ment 5 % du temps, on ne lui fait plus confiance."
Sous le radar
Les statistiques précises sur la fraude aux Pays-Bas et en Flandre manquent. L'enquête Eos auprès des chercheurs en médecine (p. 24-28) est un premier pas.
Des méta-études internationales, comme celle de Daniele Fanelli (Université d'Édimbourg), expert en intégrité scientifique, indiquent que 2 % des scientifiques avouent falsifier des données. Dans l'enquête Eos, ce taux atteint 8 %. Avec plus de 2 millions d'articles publiés annuellement, cela représente des dizaines de milliers de fraudes potentielles. Pourtant, seulement 400 rétractations en 2012 et 2011.
Pourquoi si peu ? Certaines fraudes sont détectées avant publication par des collègues, relecteurs ou logiciels. "Une fraude bien faite est indétectable", note Uri Simonsohn, qui a démasqué Dirk Smeesters via des statistiques. Peu de lanceurs d'alerte agissent : Fanelli rapporte qu'aucune mesure n'est prise dans la moitié des cas connus. Une protection accrue pour les dénonciateurs est essentielle, via lignes d'assistance et comités d'intégrité. Un comité flamand voit le jour en mai 2013.
Les éditeurs s'appuient sur le COPE pour gérer les soupçons. Ses 7 000 membres, incluant Elsevier et Springer, suivent ses directives. Ivan Oransky (RetractionWatch.com) plaide pour un "indice de transparence" des revues.
Plus de fraudeurs ?
Les rétractations ont explosé ces dix ans (PloS One) : deux tiers dues à des fautes (fraude, plagiat, double publication). Cette hausse s'explique par une meilleure détection (logiciels, archives en ligne), selon Oransky et Fanelli.
Cependant, Ferric Fang (Infection and Immunity) y voit un "climat dysfonctionnel", lié au facteur d'impact favorisant les risques dans les top-revues comme New England Journal of Medicine, The Lancet ou Nature.
L'enquête Eos confirme : plus de la moitié des professeurs flamands et un tiers néerlandais attribuent la manipulation à la pression "publish or perish".
Retour à une science plus lente
La pression publicationnelle incite à la hâte et à la fraude. Remettre en cause les critères d'évaluation (fonds, postes) est clé, prônent les chercheurs. Fanelli : privilégier replications sur publications en Nature.
Elisabeth Monard (FWO) note les défis par discipline. Les panels d'experts évaluent innovation et méthodologie au-delà des nombres.
La concurrence est rude (1/5 financé au FWO). Paul Van Cauwenberge (UGent) critique la fragmentation en petits articles A1. Les universités lient financements à la production quantitative.
Proposition : jurys indépendants pour scorer la qualité réelle.
Positivité suspecte
L'essor des résultats "positifs" (confirmant l'hypothèse) alarme : +20 % de 1990-2007 (Fanelli), jusqu'à 90 % en psycho/psychiatrie. Revues boudent les négatifs, moins cités.
Changer l'examen par les pairs
Solution innovante : pré-évaluer le protocole. "Oui à publication" garanti, résultats quels qu'ils soient (Nosek, OSF). Déjà testé par Social Psychology, etc.
Partage des données brutes
"Une publication est l'image finale", dit un Nobel. Ouvrir le processus : revues exigent partage sur demande, mais Wicherts note refus suspects.
OSF (Nosek) : plateforme ouverte comme Facebook scientifique, favorisant transparence et collaborations.
Enseigner l'éthique, cultiver le débat, améliorer pairs-review : suggestions clés. Chambers : "Les scientifiques savent détecter les erreurs ; aucune excuse pour la fraude."
[]