Des affaires de fraude très médiatisées ont choqué le monde des enquêtes ces dernières années. Comment rendre la science à nouveau propre ?
"Quelle partie d'une expérience scientifique n'est pas sous le contrôle d'un chercheur ?" demande le neuroscientifique Chris Chambers au public lors d'un débat sur la fraude à Londres. "Ses résultats." La méthode scientifique doit empêcher un chercheur de se tromper ou d'être dupé par d'autres. "La fraude", poursuit Chambers, "est la manipulation de ces résultats pour un gain ou une récompense." Certains scientifiques vont très loin et font publier des dizaines d'articles falsifiés.
Cependant, les conséquences de la fraude scientifique ne peuvent être sous-estimées. Quiconque manipule ou invente des résultats et les fait publier contamine d'autres recherches :les fausses données sont tissées dans d'autres articles, leçons et conférences. La pratique montre que les études frauduleuses perdurent longtemps après leur découverte. Un chercheur américain a découvert que les plus de 1 100 articles (rétractions) entre 1997 et 2009 étaient encore cités sans méfiance plus de deux mille fois.
La fraude dans les sciences médicales peut mettre les sujets de test en danger. Le chercheur Grant Steen a compté qu'au cours des dix dernières années, dans 180 études retirées, 9 200 patients avaient été traités sur la base de données non fiables. 71 000 patients ont reçu un traitement dans des études citant les articles rétractés. Des données trompeuses dans la recherche médicale peuvent également retarder le développement de médicaments ou maintenir plus longtemps des traitements inutiles en vogue.
Un scientifique pris en flagrant délit crée également un trou financier. Les enquêteurs ont estimé un cas de fraude dans un institut du cancer de New York à environ 394 000 $, des fonds dépensés et des salaires horaires de la commission d'enquête aux coûts d'embauche d'un nouvel employé. Et un fraudeur cause presque toujours des dommages sociaux :il infecte les CV et les carrières des co-auteurs et des collègues.
Et peut-être le plus dommageable :chaque fraudeur affecte la fiabilité de la science. "Il ne faut pas beaucoup de fraude pour détruire la confiance du public dans la science", déclare le professeur Bart Pattyn, philosophe et éthicien à la KU Leuven. "Si vous savez qu'un scientifique dit la vérité 95 % du temps, vous ne lui ferez jamais confiance."
Sous le radar
Les chiffres précis sur la fraude aux Pays-Bas et en Flandre font défaut. L'enquête qu'Eos avait menée auprès des chercheurs en médecine (voir article p. 24-28) est une première étape.
Il existe des études internationales. Une méta-étude de Daniele Fanelli (Université d'Edimbourg), une autorité en matière de recherche sur la fraude, montre que 2% des scientifiques admettent avoir inventé, falsifié ou modifié des données pour faire fonctionner une hypothèse. Dans l'enquête Eos, il était même de 8 %. Si vous savez que plus de deux millions d'articles sont publiés chaque année, vous pouvez vous attendre à plusieurs dizaines de milliers d'articles frauduleux par an. Et dans un monde idéal, autant de retraits d'articles. Mais l'année dernière et aussi en 2011, "seulement" environ quatre cents se sont retirés.
Pourquoi si peu ? Il y a, bien sûr, la fraude qui est découverte avant la publication, par un chercheur alerte dans le labo, par un pair relecteur qui revoit l'article avant publication, ou par le logiciel de détection des revues spécialisées. Mais ce n'est pas la seule explication. "Si vous êtes vraiment doué pour la fraude, c'est indétectable", explique le psychologue social américain Uri Simonsohn, qui a utilisé une méthode statistique pour surprendre le professeur belge de marketing Dirk Smeesters en train de faire du "massage de données". "C'est comme demander combien de fausse monnaie est en circulation. Nous n'attrapons que les mauvais contrefacteurs. » De plus, il y a peu de lanceurs d'alerte. Fanelli :"Dans la moitié des cas de fraude dont les scientifiques se sont souvenus, aucune mesure n'a été prise." De nombreuses fraudes restent donc sous le radar.
C'est pourquoi les dénonciateurs devraient bénéficier d'une protection suffisante pour qu'un signalement ne leur tombe pas dessus comme un boomerang. De nombreuses universités disposent d'une ligne d'assistance téléphonique et d'un comité d'intégrité scientifique qui étudie les problèmes. En mai 2013, un comité faîtier sera également mis en place en Flandre, à l'instar des Pays-Bas. Il ou elle peut donner un deuxième avis sur les questions signalées aux universités et aux centres de connaissances.
Les rédacteurs en chef et les éditeurs de revues spécialisées peuvent obtenir des conseils et des orientations du Comité d'éthique de la publication (COPE) s'ils soupçonnent une faute professionnelle. Les 7 000 membres du COPE – dont les plus grandes maisons d'édition comme Elsevier ou Springer – approuvent également les lignes directrices du comité. Ce bâton derrière la porte est nécessaire. "Vous avez des rédacteurs en chef très résolus, mais beaucoup ne sont pas toujours disposés à retirer un article frauduleux", a déclaré Ivan Oransky, journaliste et co-fondateur du site RetractionWatch.com. « Ils cherchent les excuses les plus créatives ou décrivent la raison du retrait aussi vaguement que possible. » Oransky veut classer les revues professionnelles sur la base de l'ouverture – un soi-disant « indice de transparence ». « Ensuite, nous encouragerons les revues professionnelles à être ouvertes sur les erreurs et les fraudes, et les lecteurs sauront quelle confiance ils peuvent avoir dans les articles de la revue. »
De plus en plus de fraudeurs ?
Au cours des dix dernières années, les retraits par rapport au nombre total de publications ont explosé. Selon une étude récente de PloS One, les deux tiers des retraits sont liés à une faute (de la fraude à la paternité fautive à la double publication), une proportion plus faible sont des erreurs honnêtes, par exemple des auteurs rappelant eux-mêmes un article parce qu'ils se sont trompés grossièrement.
Cette augmentation des retraits est-elle un mauvais signe ? "Cela s'explique en partie par une meilleure détection :de plus en plus de revues utilisent des logiciels pour détecter le plagiat et la manipulation d'images et remontent de plus en plus loin dans le temps pour épurer leurs archives", explique Oransky. "Les revues professionnelles sont désormais également disponibles en ligne, ce qui donne à plus d'"yeux" la possibilité de découvrir des erreurs." Fanelli est d'accord :« L'augmentation n'est pas une preuve directe qu'il y a plus de fraude. C'est plutôt un signe que nous nous rapprochons de la résolution du problème."
Mais tout le monde ne le voit pas aussi positivement. Ferric Fang, rédacteur en chef de la revue Infection and Immunity, affirme que l'augmentation des retraits est "un symptôme d'un climat scientifique dysfonctionnel". Dans sa propre étude, il a établi qu'il existe une forte relation entre le nombre de retraits et le facteur dit d'impact d'une revue, qui est calculé sur la base du nombre de fois que la revue est citée. Les meilleures revues telles que New England Journal of Medicine , Le Lancet ou Nature la plupart des retraits comptent. « Dans un monde de la recherche où les candidats sont nombreux pour un nombre limité d'emplois, une publication dans ces revues peut signifier tout ou rien pour votre carrière. La récompense est disproportionnée et peut encourager les chercheurs à prendre plus de risques dans la recherche, la présentation et l'interprétation des données", déclare Fang dans l'article.
Qu'est-ce que le dopage dans le cyclisme, la manipulation et la dissimulation des données de recherche au sein des universités ? Oransky :« Cette comparaison est plus correcte et appropriée que ce que les scientifiques veulent entendre. » L'enquête Eos va également dans ce sens :plus de la moitié des professeurs flamands et un tiers des professeurs aux Pays-Bas pensent que la forte pression à publier encourage leurs collègues pour manipuler des données (non)intentionnellement.
Retour au ralenti
La pression pour publier est très forte, ce qui conduit à des recherches scientifiques hâtives, négligentes et parfois frauduleuses. Si nous voulons refaire de la science plus lente, nous devons remettre en question les critères d'évaluation des fonds et des postes à l'université, indiquent de nombreux scientifiques dans l'enquête Eos. "Il vaudrait mieux évaluer les chercheurs sur la répétition et la confirmation de leurs recherches par d'autres que sur cette publication dans Nature", explique Daniele Fanelli. "Ce n'est pas facile et cela prend beaucoup de temps, mais je pense que c'est la bonne manière."
La répétition de la recherche n'est pas aussi facile pour toutes les disciplines. «En physique, il est beaucoup plus courant de reconfirmer une certaine découverte avec différentes expériences, tandis qu'en sciences du comportement, il est beaucoup plus difficile de recréer un cadre de recherche identique», explique Elisabeth Monard, secrétaire générale de la Research Foundation Flanders (FWO) . « Quels que soient les critères que vous utilisez pour juger les demandes de financement, il est préférable de laisser un panel de collègues et d'experts étrangers évaluer la valeur d'un chercheur. Le nombre de publications est très important, mais les experts regardent au-delà. Le caractère innovant et la méthodologie de la proposition de recherche comptent également.”
La concurrence pour les fonds au FWO, qui finance la recherche fondamentale, est féroce :seulement un candidat sur cinq reçoit un financement. "C'est très peu", dit Monard. «Malheureusement, les ressources n'augmentent pas avec le nombre de chercheurs.» La pression pour publier est particulièrement forte pour les doctorants, déclare Paul Van Cauwenberge, recteur de l'université de Gand. "Ils doivent collecter un certain nombre de publications A1 (dans des revues professionnelles internationales à comité de lecture, ndlr) en quatre ans, et puis vous voyez qu'ils divisent leur recherche en plusieurs petits articles, par exemple, au lieu de se concentrer sur un grand, article plus qualitatif. Ce n'est pas de la triche, mais je n'aime pas ça, parce que ces articles divisés ont moins d'impact.'
Mais les universités elles-mêmes encouragent aussi indirectement les chercheurs à publier beaucoup. Parce que la moitié de leur financement public dépend de la production scientifique :le nombre de thèses, de publications A1, leurs facteurs d'impact et le nombre de citations, et le nombre de brevets.
«Nous devons réfléchir à cette référence», déclare Van Cauwenberge. «Cela récompense la trop grande quantité.» Van Cauwenberge a sa propre proposition:«Nous pourrions mettre en place des jurys indépendants ou des comités de lecture qui évaluent la qualité réelle des articles publiés. Et ces scores peuvent ensuite être inclus dans la clé de calcul du financement d'une université et des différentes facultés.'
Positivite
Non seulement l'augmentation des abandons, mais aussi l'augmentation remarquable du nombre d'études "positives" est un signe possible que la fraude scientifique est plus courante aujourd'hui que par le passé. Les études positives ont des résultats qui confirment l'hypothèse prédéterminée. Selon une étude de Fanelli, la fréquence des résultats positifs a augmenté de plus d'un cinquième entre 1990 et 2007. Il existe des différences selon les disciplines :en psychologie et en psychiatrie, en moyenne 90 % des études ont donné des résultats positifs, ce qui en fait des précurseurs. Les sciences dites dures – sciences spatiales (70 %), sciences de la terre (75 %), physique (85 %) – obtiennent les scores les plus faibles, entre les deux se trouvent les sciences biologiques et biomédicales. Les critiques trouvent cela trop beau pour être vrai :ils craignent que l'augmentation des résultats positifs soit le signe d'une manipulation consciente ou inconsciente des données.
Les magazines professionnels encouragent cette tendance. Les revues ne considèrent pas les études négatives comme médiagéniques. De telles études sont également moins citées, ce qui maintient le facteur d'impact de la revue à un faible niveau. Les chercheurs laissent ensuite leurs données négatives dans le tiroir. Par exemple, beaucoup de connaissances précieuses sont perdues et des recherches « superflues » sont souvent effectuées, car les scientifiques ne savent pas qu'une étude ailleurs a déjà donné un résultat négatif.
Modifier le processus d'examen
L'une des propositions les plus innovantes pour inverser cette « positivite » consiste à modifier la notation par les revues spécialisées. Au lieu de regarder les données d'un chercheur, ils devraient lire son plan d'action. Si les rédacteurs en chef et les examinateurs trouvent que la conception de l'étude convient à leur revue, le chercheur recevra un « oui à la publication », quels que soient les résultats de l'étude. De cette façon, vous redonnez une chance aux résultats négatifs et la tentation de falsifier ou de nettoyer les résultats est moins grande. "Cela vous donne une image plus réaliste de la recherche, car la science est souvent désordonnée et déroutante avant de mener à quoi que ce soit d'innovant", explique Brian Nosek, psychologue social à l'Université de Virginie, qui soutient le projet. "Ce système déplace l'objectif de 'obtenir la prochaine publication' à 'contribuer à la connaissance'."
Les revues professionnelles Social Psychology, Frontiers in Cognition et Cortex, entre autres, ont déjà entamé ce processus de publication alternatif. La question est de savoir si les grands éditeurs commerciaux suivront. En outre, il existe depuis plusieurs années plusieurs "Journaux des résultats négatifs", même s'ils n'ont pas encore connu un succès retentissant.
Partage des données brutes "Une publication est la façon dont vous voulez être vu lorsque le rideau se lève", a dit un jour un lauréat du prix Nobel. Ce qui s'est passé dans les coulisses - tout le processus de réflexion, d'action et d'écriture d'une enquête - n'est pas visible dans les revues professionnelles. De plus en plus de chercheurs veulent ouvrir cela aussi. Il y a déjà suffisamment d'espace dans les revues spécialisées en ligne pour publier toutes les données avec votre article.
De nombreuses revues professionnelles obligent désormais les chercheurs à partager des données sur demande. Mais Jelte Wicherts, méthodologiste à l'Université de Tilburg, a constaté que seul un chercheur en psychologie sur dix partage réellement les données si vous lui envoyez une demande par e-mail. Lorsqu'il a examiné de plus près les études sur les refus, il s'est avéré qu'elles contenaient beaucoup plus souvent de grosses erreurs que les études des chercheurs qui avaient publié les données. Quiconque ne partage pas de données peut avoir travaillé moins qualitativement et correctement, conclut Wicherts.
Brian Nosek a récemment lancé une plateforme de recherche en ligne gratuite, Open Science Framework (OSF), pour rendre l'ensemble du processus de recherche – de l'idée à l'article – plus « ouvert ». Il ressemble à un Facebook scientifique, où vous pouvez stocker des montagnes de données de recherche et des brouillons d'articles, et les partager avec qui vous voulez. Cela donne aux co-auteurs un meilleur aperçu des données de chacun, ce qui, selon Nosek, stimule la discussion mutuelle. De plus, les collègues d'autres instituts n'ont plus à attendre la publication d'une étude dans une revue professionnelle pour continuer à travailler avec une méthode ou des données. L'auteur original voit alors combien de fois son matériel de recherche a été bifurqué et par qui (comparez-le avec le bouton "partager" sur Facebook). « En menant des recherches ouvertement, vous montrez aux autres que vous travaillez correctement. Cela ne résoudra pas tout, mais si de plus en plus de chercheurs font des recherches comme celle-ci, d'autres devront expliquer pourquoi ils travaillent toujours de manière "fermée", dit Nosek.
Enseigner l'éthique à divers moments d'une carrière de chercheur, stimuler une culture ouverte de débat au sein d'un laboratoire, améliorer l'évaluation par les pairs afin que les examinateurs lisent plus en profondeur. Ce ne sont là que quelques suggestions que les chercheurs font pour éviter que les fausses données ne soient publiées dans la littérature scientifique.
Mais les scientifiques sont bien sûr aussi des personnes, avec leur dose d'égoïsme et de faillibilité. "Oui, c'est vrai", déclare le neuropsychologue cognitif Chris Chambers, "mais les scientifiques sont mieux formés que quiconque pour comprendre les erreurs, raisonner sur des preuves, résoudre des problèmes et détecter des absurdités. C'est pourquoi il n'y a aucune excuse pour la fraude."