Lutte à la
désinformation

Authentifier une image,
sortir du site et
information scientifique

En plus de ses trucs de base,

le Détecteur de rumeurs vous propose ces quelques astuces de pro!

Comment authentifier une image?

Le Détecteur de rumeurs prend toujours soin d’observer les images et porte attention aux détails (vêtements inappropriés pour la saison, ombre bizarre, cadrage serré qui empêche de bien voir le lieu, etc.).

Il fait aussi une recherche inversée dans Google Images. Les résultats montreront si le visuel douteux a été publié ailleurs, dans un autre contexte.

On appelle cette technique la lecture latérale, ce qui veut tout simplement dire qu’on va chercher de l’information sur d’autres sites, comme :

Peut-on vérifier une information qui s’appuie sur de la science si l’on n’est pas soi-même scientifique? Oui!

Il existe des vérifications de base que l’on peut faire, des questions faciles que l’on peut poser.

Un scientifique est-il cité?
Une vague affirmation que « des chercheurs affirment » ceci ou « des études disent » cela devrait susciter la méfiance.

Si un scientifique est cité, a-t-il publié des résultats?
D’autres experts pourront les lire, les analyser et vérifier s’ils sont solides — ou s’ils comportent des erreurs.

Est-ce que le scientifique présente des faits ou son opinion sur un sujet?
Les faits sont vérifiables et incontestables alors qu’on peut être en accord ou non avec une opinion.

S’agit-il d’une expérience sur des souris ou sur des humains?

Une étude prometteuse sur un médicament qui n’en est encore qu’à l’étape des tests sur des souris n’est pas aussi solide que si les résultats sont obtenus à partir de tests sur des humains.

S’il s’agit d’une étude sur des humains, quel était l’échantillonnage?

Une étude sur 20 personnes n’a pas la même valeur qu’une autre sur 5000 personnes.

Est-ce une méta-analyse?

Les études qui analysent l’ensemble des études produites sur un sujet – les méta-analyses – sont les plus fiables.

Certaines nouvelles demandent parfois un peu plus de temps à vérifier. Mais ces quelques astuces plus avancées du Détecteur de rumeurs devraient vous permettre d’y voir plus clair et vous éviter de tomber dans les pièges les plus fréquents!

Abonnez-vous à notre infolettre!

Des astuces pour authentifier une image repérée dans le Web

L’armée déployée dans la région de Montréal pour faire respecter les règles sanitaires. Des médecins italiens au chevet de malades atteints de la COVID-19 meurent dans un hôpital. De faux sacs mortuaires sont utilisés pour faire croire que le virus SRAS-CoV-2 est mortel.

***

Par Marie-Eve Shafferim

Ces photos et vidéos liées à la pandémie de COVID-19 ont abondamment circulé sur le Web et dans les médias sociaux. Or, elles ont été prises au cours d’événements passés et n’ont rien à voir avec les pseudo-nouvelles qui les accompagnent.

Comment éviter de partager des images trompeuses? Voici des trucs pour vérifier leur authenticité.

« On ne veut pas le savoir, on veut le voir ! » disait l’humoriste Yvon Deschamps dans les années 1970. Aujourd’hui, c’est plus vrai que jamais. L’univers virtuel regorge de photos et de vidéos. Et pour cause : elles suscitent davantage de clics.

Aussi, soyez sur vos gardes quand vous tombez sur une image qui sort de l’ordinaire, surtout si elle est accompagnée d’explications choquantes qui ne sont pas reprises par des médias fiables.

En effet, comme pour toute information qui fait appel aux émotions fortes, il est judicieux de faire d’abord une recherche du côté des rubriques de vérifications de faits pour voir si l’information a déjà été vérifiée par un journaliste. Qui sait? Votre image douteuse a peut-être déjà été repérée.

Dans le cas contraire, vous pouvez….

  1. Examiner l’image attentivement

    Prenez une minute pour bien l’examiner. Vérifiez s’il n’y a pas un problème dans les proportions, une ombre douteuse ou une incongruité. La météo du jour correspond-elle à la saison pendant laquelle la photo ou la vidéo a supposément été prise ? Les protagonistes portent-ils des vêtements appropriés pour ce temps de l’année ?

  2. Chercher des détails concernant l’image

    Essayez d’en apprendre plus sur les circonstances entourant l’origine de ce visuel suspect. Y a-t-il un crédit indiquant qui était le photographe ou le vidéaste ? Cette personne travaille-t-elle pour un média ou une agence de presse connue ou ce visuel a-t-il été pris par un citoyen qui l’a envoyé à un média qui l’a vérifié ? Dans un site Internet de confiance, on explique où et quand les visuels ont été produits et on indique si on les a vérifiés.  Si ces informations ne s’y trouvent pas, méfiez-vous.

    Prenez le temps de lire les commentaires sous la photo ou la vidéo. Peut-être qu’un internaute y a partagé des informations intéressantes. L’auteur peut aussi s’être manifesté.

    Enfin, le site Internet ou le compte de médias sociaux qui relaie l’image doit aussi être pris en compte. Veut-il vous informer ou tente-t-il plutôt de vous influencer ? Jetez un œil sur le contenu qu’il a l’habitude de publier pour en avoir le cœur net.

  3. Faire une recherche inversée

    L’une des tactiques courantes est de donner à des images existantes un tout autre contexte. Aussi, pour vérifier si l’image a déjà été publiée par le passé, faites une recherche inversée avec un outil comme Google ImagesTineye ou même la plateforme Citizen Evidence Lab d’Amnistie internationale, conçu spécialement pour les vidéos. Les résultats démontreront si le visuel douteux a été publié antérieurement dans un autre contexte.

    La façon la plus simple de procéder est de glisser l’image suspecte à partir d’une fenêtre d’un navigateur vers une autre dans laquelle Google Images ou Tineye est ouvert. Il est aussi possible de faire une recherche à partir de l’adresse URL de la photo ou de la vidéo. Pour la trouver, il suffit d’appuyer sur le bouton de droite de la souris et de sélectionner « Copier l’adresse de l’image ».

    Il est à noter que ces outils ne retrouvent pas toutes les occurrences. Et si l’image a été modifiée, la recherche risque d’être laborieuse.

Truc pour vérifier l’info comme un pro

Les journalistes vérificateurs des faits passent leurs journées à lire et à relire des informations populaires sur le Web pour les valider ou les démentir. Leur truc est simple : il faut sortir du site Internet qui les publie!

***

Journaliste : Camille Lopeztruc1

 

On connaît déjà les trucs de base de la vérification des faits : on ne partage pas sans avoir lu, on vérifie si l’article est signé et s’il y a une date de publication, on consulte la section « À propos ».

Mais parfois, ce n’est pas suffisant puisque des informations pertinentes (et même cruciales, dans certains cas) ne se trouvent ni dans l’article ni sur le site qui l’a publié. Qui finance ce site ? Les auteurs ont-ils des opinions radicales ? Cherche-t-on à vendre quelque chose ? Ce site a-t-il déjà été dénoncé par des journalistes sérieux, des organismes en santé ou des organisations de protection des citoyens ?

On ne peut obtenir ces détails qu’en sortant du site qui publie l’information et en cherchant ailleurs. Cette technique, on l’appelle la lecture latérale ou parallèle. Plutôt que de rester sur le site, il faut ouvrir de nouvelles pages Web et chercher ailleurs. D’onglet à onglet.

Et cette méthode est très efficace. En 2018, des chercheurs de l’Université de Stanford ont demandé à des vérificateurs des faits, à des historiens et à des étudiants de vérifier la crédibilité d’un site Web le plus rapidement possible. Sans surprise, les vérificateurs des faits, des habitués de la lecture latérale, ont remporté la course avec une importante longueur d’avance.

La recherche par mots-clés

La bonne nouvelle, c’est que les sites louches ou problématiques ont souvent déjà été dénoncés et repérés par un vérificateur des faits. Ainsi, en cherchant sur un moteur de recherche le nom de la page Web et les termes « fiable », « crédible » ou « fausses informations », vous pourrez rapidement trouver des réponses.

En cherchant les mots-clés « propriétaire » et « financement », vous pourrez repérer les conflits d’intérêts.

Vous pouvez aussi vous rendre sur Wikipédia et faire une recherche sur le site ou l’organisme qui le chapeaute. En cliquant sur les références en bas de pages et en les ouvrant dans de nouvelles fenêtres, vous pourrez en savoir plus sur le sujet.

Cette méthode vous permettra aussi de trianguler vos résultats. On le répète souvent : diversifier ses sources d’informations est le meilleur moyen d’avoir un portrait juste d’un sujet. Il est donc important de voir comment une information a été traitée ailleurs.

Vous pourrez ainsi, au besoin, repérer les détails qui ont été ajoutés, omis, exagérés ou manipulés par l’auteur du texte que vous désirez vérifier. Le nombre magique : trois sources.

Pour en savoir plus sur la recherche latérale et les résultats du test mené par l’Université de Stanford, visionnez cette capsule de notre série Anatomie des fausses nouvelles.

6 astuces pour éviter de propager la désinfo

Théories du complot, faux remèdes, fausses origines du virus : vous en avez vu passer, vous en verrez passer d’autres. Tout le monde a son rôle à jouer pour éviter la propagation d’informations mensongères.

Voici notre petit guide d’autodéfense en temps de COVID-19, à prescrire à tous ceux qui utilisent régulièrement les réseaux sociaux.

Contenu : C. Lopez, E. Beaudin, P. Lapointe

ASP

 

Gardez la tête froide

La pandémie touche tout le monde, et il est parfois difficile de mettre ses émotions de côté. Toutefois, il est important de reconnaître que notre sens critique peut « prendre le bord » sous le coup des émotions. Ceux qui créent et propagent les fausses nouvelles le savent et misent sur l’émotion pour attirer les clics.

Ne partagez pas les publications qui provoquent chez vous une vive émotion avant d’avoir pris du recul et pris la peine de les vérifier. Au besoin, si le trop-plein d’information vous affecte, évitez les réseaux sociaux quelque temps.

Lisez la publication au complet

Vous trouvez cette astuce trop simple ? Pourtant, on sait que 2/3 des publications partagées sur les médias sociaux ne sont même pas lues! Ne vous fiez pas aux titres accrocheurs et alarmistes et aux publications sensationnalistes. Prenez le temps de lire un article au complet, ou d’écouter une vidéo dans son intégralité avant de partager. C’est l’occasion de voir si l’auteur se fie à des experts ou à sa propre opinion, et c’est aussi le moment de voir si on n’essaie pas de vous vendre un faux traitement par la bande…

Vérifiez la source

Certaines fausses informations imitent très bien les « vraies nouvelles ». Et quand elles sont relayées par un proche, il devient encore plus difficile de savoir d’où elles proviennent.

D’où provient l’information ? D’un média sérieux ? D’une organisation en santé ? De quelqu’un de connu pour ses théories conspirationnistes ? D’un youtubeur populaire ? D’un parti politique ? D’un groupe militant?  Ne partagez pas la nouvelle si elle ne provient pas de sources fiables.

Reconnaissez vos limites

Les informations sur la COVID-19 évoluent rapidement. Même les spécialistes du virus ne peuvent pas prédire son comportement, puisque les connaissances s’accumulent de jour en jour.

Sans compter sur le fait que le jargon technique est difficile à suivre et peut prêter à confusion. Personne ne s’attend à ce que vous sachiez tout ce qu’il y a à savoir sur la pandémie. Il vaut donc mieux que vous évitiez de partager les informations que vous ne comprenez pas et, ainsi, éviter de relayer des informations douteuses, voire dangereuses.

Redoublez de vigilance pour certains sujets

Les faux remèdes et traitements contre le coronavirus circulent en maîtres sur les réseaux sociaux. Attention aussi à tout ce qui concerne les origines du virus, ce sujet attire bon nombre de théories du complot. Même chose pour la vaccination.

Trouvez une 2e source

Si une nouvelle vous semble énorme, consultez d’autres médias ou les sites des autorités en santé publique comme l’Organisation mondiale pour la santé, l’Agence canadienne de santé publique et le gouvernement du Québec. Si personne d’autre n’en parle, méfiez-vous et attendez de voir si elle est confirmée par d’autres sources.

La lecture d’un titre ou d’une information vous semble douteuse ? Vous n’êtes probablement la seule personne qui s’en soit méfiée. Les journalistes vérificateurs de faits (fact-checkers) et les journalistes scientifiques se sont peut-être penchés sur la question. En cherchant l’information dans Google, vous risquez de tomber sur des sources fiables, qui l’ont probablement démentie… ou confirmée.

Contre les fausses nouvelles, imitez les vérificateurs de faits

En 2016, une étude de l’Université Stanford, en Californie, concluait que la majorité des enfants américains d’âge scolaire étaient incapables de distinguer le fait de la fiction sur Internet et tout autant incapables de faire la différence entre une publicité et un reportage. En partie en réaction à cette étude, le gouvernement de Californie vient tout juste de voter une loi sur « l’éducation aux médias » à l’école : son but est de promouvoir une « culture médiatique » dans les écoles publiques — qu’est-ce qu’une source crédible, comment distinguer le vrai du faux, comment élever son esprit critique face à l’information, etc.

L’auteur principal de l’étude de 2016, Sam Wineburg, vient de publier dans le Washington Post un texte d’opinion où, tout en se réjouissant d’avoir été l’inspiration de cette loi, il fait part de son « inquiétude » quant au risque que ceux qui écriront les programmes scolaires soient en train de s’engager sur une fausse piste :

Prenez l’approche dominante dans l’enseignement de la crédibilité sur le web : donner aux étudiants des listes de questions et les envoyer plonger dans un seul site. De telles listes, présentées comme des marches à suivre sur plusieurs sites de collèges et d’universités, disent aux étudiants qu’ils doivent repérer des indices que quelque chose est suspect.

Wineburg les appelle les checklists ou « listes de choses à vérifier » : avant de décider si une nouvelle est fiable, vérifiez par exemple, le nom de domaine, la présence de fautes d’orthographe, de publicités douteuses… Or, il n’est pas nécessaire d’avoir longtemps côtoyé des jeunes pour savoir qu’ils n’auront pas la patience de passer au-travers d’une liste si celle-ci est trop longue… et que même les adultes ont rarement cette patience.

La solution au problème, dit-il, n’est bien souvent pas dans une « note » à attribuer au site sur lequel on vient de tomber, mais dans une « note » que le reste de la planète attribue à ce site :

Au lieu de donner aux élèves des listes à cocher, enseignons-leur à passer une minute à consulter ce que le Web dit d’un site ou d’une organisation, avant d’y plonger — ou pire, avant de partager un lien à leurs amis.

Autrement dit, apprendre à se constituer sa propre liste de sites fiables éviterait bien des problèmes dans les années à venir. Et le chercheur raconte avoir observé un groupe de gens qui agit déjà comme ça : les journalistes vérificateurs de faits (fact-checkers). Ceux-ci sont même meilleurs pour départager la crédibilité d’un site que les universitaires auxquels ils ont été comparés :

Les professeurs et les étudiants, avons-nous découvert, tombent souvent dans les mêmes pièges d’autorité : des graphiques qui ont l’air professionnels, des logos officiels et des déclarations de statut à but non lucratif. Ils traînent trop longtemps sur un seul site web, lisant la page de haut en bas comme s’il s’agissait d’une page imprimée.

Les vérificateurs de faits, eux, « font l’opposé : quand ils atterrissent sur un site qui ne leur est pas familier, ils l’évaluent en le quittant ». Que peut-on apprendre de l’organisme ou de l’individu (et de leur crédibilité) en fouillant ailleurs. Même Wikipédia, « une source que nous conseillons souvent aux jeunes d’éviter » est abondamment utilisée, mais pas tant comme source de lecture que comme source de références — c’est-à-dire ces liens qui sont fournis à la fin des textes.  

« Comparativement aux autres que nous avons testés, les vérificateurs de faits sont arrivés à de meilleures conclusions dans une fraction du temps. » Or, dans un univers où la désinformation abonde et sait revêtir des habits respectables, amener les citoyens du futur à utiliser plus adéquatement chacune de leurs minutes de lecture, sera fondamental.

On vous parle d’une étude scientifique? Voici 8 questions à vous poser.

« SELON UNE ÉTUDE … »

Ce n’est pas tout le monde qui rapporte les conclusions d’une étude avec rigueur. Voici les questions à vous poser avant de tirer des conclusions.

-Contenu : C. Lopez, E. Beaudin, P. Lapointe

etudes

 

Médicament révolutionnaire ? Seulement chez des souris

Une demi-douzaine d’articles dans des médias québécois et canadiens ont présenté, en mai 2020 puis de nouveau le mois dernier, un médicament qui, testé en Alberta, serait à même de « révolutionner » le traitement du cancer. Le Détecteur de rumeurs rappelle pourquoi il faut être prudent avant d’utiliser le mot « révolutionnaire ».

L’origine de la rumeur

« Un nouveau médicament susceptible de révolutionner la vie des patients atteints d’un cancer sera testé en mai », pouvait-on lire le 29 janvier. Ce médicament, appelé PCLX-001, a été développé à l’Université de l’Alberta. « En plus d’avoir un effet contre la croissance des cellules du cancer du sein, des poumons et du colon, nous avons observé des effets spectaculaires contre la croissance des cellules du cancer du sang, y compris les leucémies et les lymphomes », disait le chercheur.

Le bémol

Le gros bémol, c’est que le médicament n’a été testé pour l’instant que sur des cellules en éprouvettes, et sur des souris. Or, il ne faut pas l’oublier, de 90% à 94% des recherches « précliniques » (menées sur des animaux ou sur des cellules en éprouvette) échouent lorsqu’elles arrivent au stade « clinique » (sur des humains). À l’évidence, un humain est davantage qu’une souris de 70 kilos (certains remettent même en doute le fait de continuer d’utiliser la souris comme « modèle »). Qui plus est, beaucoup d’études sur des souris sont menées sur de petits groupes, pendant de courtes périodes, aux seules fins d’ouvrir des fenêtres sur d’éventuelles recherches plus élaborées.

Si les médias canadiens ont parlé du PCLX-001, en mai 2020, quand la recherche a obtenu du financement et en janvier 2021, quand l’université a publié un communiqué, on peut supposer que c’est en partie à cause du facteur de proximité: autrement dit, si ce médicament avait été testé dans un laboratoire de l’ouest des États-Unis plutôt que de l’ouest du Canada, il n’aurait peut-être pas bénéficié de la même attention ici.

Le Détecteur de rumeurs ne suggère pas d’éviter de parler d’un médicament expérimental tant qu’on n’a pas de résultats sur des humains. Mais il est important de dire au lecteur le plus tôt possible qu’il s’agit d’une recherche qui n’a été menée que sur des souris. À titre d’exemple, le reportage paru le 29 janvier ne le mentionnait qu’au 11e paragraphe. Certes, le titre disait « sera en essai clinique », mais on ignore quelle proportion des lecteurs savent que « essai clinique » est synonyme de « sur des humains ».

En anglais, un reportage diffusé le 20 janvier depuis Edmonton était titré « Un nouveau médicament qui pourrait traiter des formes agressives de cancer créé à l’Université de l’Alberta ». Il mentionnait par contre dès le 2e paragraphe que le médicament « doit commencer ses tests sur des humains plus tard cette année. »

Ces précautions oratoires sont liées au fait qu’on sait qu’une grande proportion des lecteurs de journaux ne lisent que le premier ou les premiers paragraphes d’un texte.

Par ailleurs, il n’était pas non plus précisé dans ces textes si les résultats encourageants en question avaient été publiés. Le communiqué de presse de l’université en fait état et donne un lien vers l’étude.

Le problème de l’emphase mise sur des résultats « encourageants » mais réalisés sur des souris seulement, préoccupe depuis longtemps des gens en science et en journalisme. En 2019, un compte Twitter baptisé « Just say in mice » a été créé aux seules fins de pointer des reportages ou des messages Facebook ou Twitter, dont les auteurs oublient de signaler que telle ou telle étude ne porte que sur des rongeurs.

Ce problème n’est pas propre aux journalistes: « j’ai observé des scientifiques éprouvant eux-mêmes des difficultés à parler du lien entre souris et humains dans leurs propres expériences. », écrivait Nicole Nelson, de l’École de médecine et de santé publique de l’Université du Wisconsin, en commentant l’initiative « Just say in mice ». Le compte Twitter a aujourd’hui 70 000 abonnés.

3 astuces pour distinguer l’information de l’opinion

Sur les réseaux sociaux comme dans les journaux, en passant par les blogues, l’information et l’opinion se côtoient, parfois sans grande distinction. Les sujets les plus polarisants, comme la pandémie de la COVID-19, font l’objet de reportages bien factuels… et d’encore plus de chroniques et de vidéos de YouTubeurs donnant leur point de vue. – Contenu : C. Lopez, E. Beaudin, P. Lapointe

astuces

Une écrasante majorité de la population ne sait pas comment s’y retrouver. Seulement 12 % des Canadiens peuvent distinguer sans faute les faits de l’opinion, selon un sondage mené par IPSOS en septembre 2019. Une étude similaire menée par le PEW Research Center un an plus tôt, a conclu que seulement 26 % des Américains pouvaient identifier sans faute des déclarations factuelles dans des textes de nouvelles. Parallèlement, 35 % des participants ont pu identifier tous les passages relevant de l’opinion qu’on leur avait présentés.

Voici quelques questions qui vous permettront de distinguer si on vous rapporte une information, qui se base sur des faits, ou une opinion, qui se base plutôt sur des croyances.

1 – Est-ce vérifiable ou pas ?

Si vous avez du mal à déterminer si une affirmation ou une citation relève de l’information ou de l’opinion, demandez-vous si c’est vérifiable.

S’il s’agit d’une opinion, vous ne pourrez pas la vérifier, puisqu’elle appartient à l’auteur. Une opinion, même si elle est controversée, ne peut pas être fausse. Elle peut toutefois s’appuyer sur de fausses informations.

Une information est un fait avéré, vérifiable, comme un nom, une date, une statistique, les données contenues dans une étude. Les professionnels de l’information, comme les journalistes, doivent s’assurer de la fiabilité de leurs sources et doivent prendre les moyens pour s’assurer de l’authenticité des informations qu’ils obtiennent. Ils doivent aussi nommer leurs sources d’information afin que le public puisse évaluer la crédibilité et l’importance de l’information transmise.

Si des personnes sont citées (experts, témoins, etc.), les journalistes doivent aussi préciser à quel titre elles s’expriment et si leurs propos s’appuient sur des preuves scientifiques ou des données fiables.

Ainsi, l’information pourra être démentie ou corrigée, si elle s’avère incorrecte. 

2 – De quel genre de rubrique s’agit-il ?

Dans les médias traditionnels, les actualités, les reportages, les enquêtes journalistiques et les articles de vulgarisation scientifique rapportent généralement des informations vérifiables. Si une personne émet une opinion dans ce type de contenu, celle-ci devrait normalement être clairement identifiée comme telle.

Toutefois, si vous lisez une chronique, un éditorial, une lettre ouverte, ou même que vous regardez la vidéo YouTube d’un influenceur portant sur la pandémie, on vous communiquera probablement des opinions.  En général, les médias traditionnels identifient clairement ces rubriques.

Idéalement, ces opinions devraient être appuyées sur des faits, mais tout le monde ne se donne pas la peine de le préciser ni de fournir ses sources, ce qui rend parfois la vérification impossible.

3 – Quel est le ton de l’article ? Le vocabulaire employé ?

Le ton employé pour rapporter une information est neutre et descriptif. L’auteur ne s’inclut presque jamais dans le texte. Les pronoms personnels de la troisième personne (on, il, elle, ils et elles) sont privilégiés.

Les citations qui introduisent des informations sont identifiées par un vocabulaire objectif, qui exclut la personne qui les rapporte : on confirme, on rapporte, on observe, etc.

La touche personnelle de l’auteur colore un texte d’opinion. On utilisera plutôt un ton subjectif, critique. Les pronoms personnels utilisés réfèrent à l’auteur : je, me, moi, mes, ma. Et si on s’adresse directement au lecteur, on utilisera alors les pronoms : vous, vos, votre, nous, nos.

Le vocabulaire qui introduit des citations qui reflètent une opinion est quant à lui subjectif et représente l’émotion véhiculée par sa source. On croit, on suggère, on s’esclaffe, on menace, on s’exclame, etc.

Rappelez-vous, tout n’est pas si tranché ! Les textes d’opinion peuvent s’appuyer sur des informations vérifiables et des commentaires peuvent se glisser dans les textes informatifs. Le mélange des genres existe. Alors, gardez l’œil ouvert !

Études scientifiques : lesquelles sont les plus « solides » ?

Un article de Valérie Levée

***

Peut-on se fier à toutes les « études scientifiques » qui font les manchettes ? Cela dépend de la « solidité » de la preuve scientifique qu’elle apporte, laquelle dépend du type d’étude qui a été menée.

Aussi, sur l’échelle de la solidité de la preuve scientifique, on discerne, de la moins solide à la plus solide : 

  • les études observationnelles;
  • les études expérimentales [et];
  • les revues systématiques.

 

Les études observationnelles

Dans ce genre d’étude, les chercheurs observent les faits sans chercher à intervenir pour en modifier le développement.

En médecine, ces études décrivent l’apparition ou le développement d’un symptôme sans chercher à en modifier le cours par un traitement médical. Cette catégorie comprend principalement quatre types d’études :

 

étude de cas

  • Les études de cas rapportent les observations d’un patient unique ou d’un nombre restreint de patients. 

    Ces études apportent la description détaillée d’une nouvelle maladie ou mettent en lumière un effet secondaire d’un médicament. Elles peuvent être de bonne qualité et offrir des pistes de recherche pertinentes, mais en s’appuyant sur un faible nombre d’observations elles sont essentiellement descriptives.

    Cette étude, par exemple, a rapporté comment un jeune garçon de 11 ans a développé un syndrome de Guillain-Barré trois semaines après contracté la COVID-19.

 

 

 

étude de cas témoins

  • Les études de cas-témoins consistent à comparer deux groupes de personnes présentant un état de santé différent. En comparant les habitudes de vie, les comportements alimentaires ou les antécédents médicaux des deux groupes, l’objectif est d’identifier des facteurs de risque associés à l’état de santé étudié.

    C’est le cas de cette étude qui compare des patients hospitalisés pour la COVID-19, certains présentant des symptômes modérés, d’autres une détresse respiratoire. Dans cette étude, fumer est apparu comme l’un des facteurs de risque associés à la détresse respiratoire.

 

 

 

 

études de cas transverasales

  • Les études transversales s’apparentent à un sondage mené au sein d’une population, à un moment donné. En santé, elles permettent — par le biais de questionnaires ou de tests médicaux — de brosser un état des lieux pour déterminer la prévalence d’un facteur de risque, de la prise d’un médicament ou d’un comportement dans la population. 

    Elles peuvent révéler des corrélations entre deux éléments, mais elles ne permettent pas nécessairement de conclure à une relation de cause à effet entre ces deux éléments.

    Par exemple, dans cette étude, les scientifiques ont sondé la population quant à leur état de santé mentale pendant le confinement.

 

 

 

études de cas longitudinales

  • Les études longitudinales sont également menées au sein d’une population suivie dans le temps. En revanche, au lieu de ne prendre qu’une « photographie » à un moment donné, elles en prendront plusieurs au fil du temps, ce qui permet de suivre l’évolution d’un état de santé.

    Cette étude a ainsi suivi une cohorte de patients atteints de la COVID-19 et présentant une perte de goût ou d’odorat. Elle a observé que la majorité de ces patients recouvrait goût et odorat au bout d’un mois.

 

 

 

 

 

Les études expérimentales

Dans ces études, les chercheurs ne se contentent pas d’observer un phénomène de façon passive, ils introduisent une mesure et en observent les conséquences. 

Il peut s’agir des effets d’un médicament ou d’une diète sur le développement d’une maladie, de la mise à l’essai d’un nouveau matériau pour un édifice ou d’un carburant moins polluant. En médecine, ces études apportent une preuve plus solide que les études observationnelles, mais il faut vérifier si elles sont faites sur des cellules en culture, sur des animaux ou sur des humains : même bien menée et solide, une étude sur des cellules ou sur des animaux peut difficilement être extrapolée à l’humain.

Les études expérimentales sont de deux types :  

essais randomisés contrôlés

  • Dans les essais randomisés contrôlés, les participants à l’étude sont affectés aléatoirement à l’un des différents groupes de l’étude. Par exemple, un groupe recevra un placebo, un autre recevra un traitement déjà validé et un autre groupe recevra un nouveau traitement dont on veut connaître l’efficacité par rapport au placebo et au traitement habituel.

    La randomisation permet de constituer des groupes de même composition selon l’âge, le sexe ou en fonction d’autres caractéristiques.  Si une différence est observée entre les groupes, elle peut être attribuée au traitement reçu. On ne parle plus seulement d’association ou de corrélation, mais de relation de cause à effet.

    Une étude de ce genre a notamment permis d’évaluer l’efficacité d’une trithérapie combinant les antiviraux lopinavir, ritonavir et ribavirin pour le traitement de la COVID-19.

essais randomisés en double aveugle

  • Les essais randomisés en double aveugle sont encore plus solides, car le participant ignore quel traitement il a reçu et le chercheur ne sait pas non plus quelle personne a reçu quel traitement.


C’est ainsi que cette étude a montré que l’antiviral Remdésivir accélère la guérison des patients hospitalisés pour la COVID-19.

 

 

 

 

 
 

Les plus solides : les revues systématiques (méta-analyses)

revues systématiquesMalgré sa solidité, une étude randomisée en double aveugle n’est qu’une étude parmi d’autres. 

Ses conclusions pourraient diverger de celles d’une autre étude tout aussi solide, mais menée dans des conditions différentes. Chaque étude n’est qu’une pièce d’un casse-tête : il faut rassembler toutes les pièces pour voir l’image complète. C’est ce que font les revues systématiques qui analysent l’ensemble des études produites sur un sujet. Elles en examinent la solidité et les biais pour en extraire l’état des connaissances sur le sujet.

Cela dit, contrairement à un casse-tête qui compte un nombre fixe de pièces, la recherche génère toujours de nouvelles études qui apportent une meilleure résolution à l’image de la connaissance scientifique. Même une revue systématique doit donc être mise à jour, et il faut s’assurer d’avoir la plus récente.

Un bon exemple de revue systématique : cette étude qui identifie des facteurs de risques (âge, sexe, l’hypertension, diabète…) associés à une augmentation de la mortalité de la COVID-19.

  

 Par Valérie Levée – 37e Avenue

Qu’est-ce qu’un consensus scientifique?

Défié par certains, nié par d’autres, le consensus scientifique demeure le rempart collectif pour contrer la désinformation et répondre aux sceptiques et complotistes. En parler est dans l’air du temps en raison de la COVID-19 et de la litanie d’opinions relayées dans les médias : les uns déplorent l’absence de ce consensus tandis que les autres l’invoquent pour expliquer la situation. Le Détecteur de rumeurs propose de remettre les pendules à l’heure.

***

Par Louise Bouchard

Consensus n’est pas unanimité

Les scientifiques ne travaillent pas en vase clos. Ils publient leurs recherches dans des revues scientifiques révisées par des pairs et acceptent, par le fait même, que leurs travaux soient lus, commentés et parfois réfutés. C’est grâce au cumul des études scientifiques publiées sur un sujet donné que des consensus scientifiques s’établissent : quand la majorité pointe dans une direction, un consensus se forme. C’est pourquoi, même si nous ne pouvons pas atteindre la vérité absolue, le consensus scientifique est le meilleur indicateur de vérité que nous ayons.

Puisque l’unanimité n’est pas obligatoire pour proclamer l’existence d’un consensus scientifique autour d’un enjeu, quelle proportion de scientifiques doit partager le même avis pour mériter l’appellation ?

La controverse entourant le rôle de l’être humain dans le réchauffement climatique nous a offert une partie de réponse à cette question.

En 2004, Naomi Oreskes, une historienne des sciences de l’Université Harvard, a examiné les publications de spécialistes du climat parues entre 1993 et 2003 dans 928 revues scientifiques, pour conclure que 97 % des auteurs confirmaient l’impact de l’activité humaine dans le réchauffement climatique. En montrant l’importance du degré de consensus (97 %) autour de cette question, elle a affirmé la primauté des résultats des travaux issus de la communauté scientifique sur ceux des autres sources (industrie, organisations diverses).

Notons cependant que ce seuil de 97% n’a été calculé que pour la recherche sur le climat.

Scientifiques experts

La légitimité des personnes qui se prononcent sur le dossier est aussi un indicateur du consensus scientifique. Ainsi, Naomi Oreskes, tout comme d’autres qui se sont livrés à un exercice similaire par la suite, n’ont retenu pour leurs compilations que des recherches effectuées par des experts du climat.

 « Il faut présenter des scientifiques du domaine ciblé, et reconnus par leurs pairs. Les médias ont aussi un rôle important à jouer, mais ils ne le jouent pas toujours », déplore Yves Gingras, historien, sociologue des sciences et directeur scientifique de l’Observatoire des sciences et des technologies de l’UQAM.

Pour preuve, la visibilité médiatique obtenue il y a quelques années par le ministre français Claude Allègre, présenté comme un scientifique du CNRS, qui niait l’existence même du réchauffement climatique. Le hic, il est géologue et non physicien ou climatologue.

De la même façon, les climatosceptiques aiment bien brandir des « lettres » signées par plusieurs scientifiques qui nient le réchauffement climatique. Or, il s’agit chaque fois de signataires qui n’appartiennent pas au domaine ciblé. Par ailleurs, une lettre d’opinion n’aura jamais la même valeur qu’une série d’études.

Les consensus sur la COVID-19

Il y a des consensus autour de la COVID-19 : les scientifiques disent tous qu’il s’agit d’un coronavirus, certaines de ses propriétés ont été dûment identifiées, il a telle forme, il est contagieux et létal. C’est ce que la science nous dit aujourd’hui. Mais des questions demeurent pour l’instant sans réponse; par exemple, comment cette infection arrive-t-elle à provoquer autant de dommages chez certains patients; quel est le niveau exact de risque dans un lieu mal ventilé par rapport à un lieu bien ventilé; quel est le pourcentage exact de gens sans symptômes; quelle efficacité aurait un éventuel vaccin.

« Et comme les humains ont horreur du vide, il leur faut des réponses… et ils en trouvent, peu importe lesquelles et peu importe où », souligne Yves Gingras. C’est de là que viennent les manifestations de certains groupes anti-masque, anti-vaccination et la prolifération de diverses théories du complot entourant la pandémie.

C’est sans compter ceux qui rejettent la science pour des raisons idéologiques et qui brandissent le fait que des scientifiques aient pu émettre une hypothèse au printemps pour la rejeter à l’automne. « C’est pourtant le propre de la science que de refaire les expériences, de mesurer autrement à partir d’un autre modèle, avec des outils plus performants et d’autres approches, et d’arriver à de nouveaux résultats », rappelle Yves Gingras. Et c’est misant sur cette démarche scientifique que d’autres consensus se formeront sur la COVID-19 dans les mois à venir.

Une lettre d’opinion, ça fait le poids en science? Non

À intervalles réguliers depuis quelques décennies, des groupes désireux de semer le doute sur l’existence d’un consensus scientifique qui va à l’encontre de leurs intérêts, ont prétendu qu’un grand nombre de scientifiques les appuyaient. En septembre, une lettre signée par « 500 scientifiques » rejetant l’existence d’une « urgence climatique » attirait en ce sens l’attention de mouvements et politiciens climatosceptiques.

Une lettre d’opinion n’est pas une étude

Comme le Détecteur de rumeurs l’expliquait dans ce texte, une opinion, même publiée par un scientifique, et une étude réalisée par un scientifique, n’ont pas la même valeur.

C’est parce qu’en science, les données, au contraire des opinions, peuvent être vérifiées par d’autres scientifiques, et les conclusions d’une étude peuvent ainsi être confirmées ou infirmées.

Une vérification en deux étapes

Avant d’adhérer à une opinion formulée dans une telle lettre, le Détecteur de rumeurs propose deux étapes simples et rapides.

La première étape consiste à analyser le contenu de la lettre. Nul besoin d’être un expert des sciences pour y arriver : il suffit de se demander si les affirmations qui y sont avancées s’appuient sur des données vérifiables, tirées d’études, lesquelles sont idéalement citées en référence dans la lettre, plutôt que sur des opinions.

La seconde étape est de vérifier si les scientifiques qui ont signé la lettre sont des experts du domaine. Cette étape est particulièrement facile lorsqu’il s’agit d’universitaires qui disposent d’une page web sur le site de leur institution. Un autre avantage aux études : en plus des données qu’elles apportent, elles sont généralement signées par des experts du domaine. En comparaison, dans la lettre d’opinion de septembre, moins de 3% des signataires possèdent une expertise sur le climat ou la météo.

Si, après cet examen préliminaire, on n’est toujours pas convaincu de la validité des affirmations présentées dans la lettre, il peut être nécessaire de pousser un peu plus l’examen de son contenu. C’est ce qu’a fait le site Climate Feedback : il relève par exemple que la lettre affirme que les modèles climatiques ignorent les bénéfices qu’aurait une quantité accrue de CO2 sur la croissance des plantes, ce qui est faux. « Les modèles climatiques incluent bel et bien le cycle du carbone (…), et ceci inclut les effets d’une augmentation du CO2 atmosphérique sur la végétation » lit-on sur Climate Feedback. La lettre laisse également croire que « très peu d’études » affirment que le réchauffement actuel est causé par l’humain, ce qui est également faux: « la plupart des études sur les changements climatiques ne précisent pas que le récent réchauffement est principalement anthropogénique parce que la cause anthropogénique n’est pas  une controverse ».

500 par rapport à combien de scientifiques?

Par ailleurs, que représentent 500 scientifiques sur l’ensemble des personnes qui peuvent se réclamer du titre de « scientifique »? Il faut se rappeler que ce terme n’est pas un titre réservé aux membres d’un ordre professionnel, comme celui de médecin, d’avocat ou de notaire. Quiconque travaille dans le secteur de la recherche, de la santé  ou comme ingénieur, peut porter le titre de scientifique.

Selon le Bureau du travail américain, les États-Unis comptaient en 2018 quelque 750 000 « médecins et chirurgiens » en exercice, 21 600 « physiciens et astronomes », 40 000 biologistes et microbiologistes, 31 000 géologues, 84 000 chimistes et 1,6 million d’ingénieurs.

Et ces totaux ne sont que ceux qui travaillaient en 2018: pour avoir un ordre de grandeur plus précis du nombre de « scientifiques », il faudrait ajouter à ces chiffres les millions de scientifiques à la retraite, puisqu’un grand nombre des signataires de la lettre de septembre sont des retraités. Notons que ces chiffres ne valent que pour les États-Unis, alors que la liste de septembre est internationale.

Enfin, il s’avère relativement facile de trouver des gens qui ont une formation scientifique, et qui défendent des idées surprenantes. Ainsi, en 2001, un groupe créationniste américain, l’Institut Discovery, qui rejette la théorie de l’évolution, avait publié une lettre signée par « 100 scientifiques qui contestent le darwinisme » (depuis, quelques centaines d’autres noms se sont ajoutés à la liste). En réplique, le National Center for Science Education avait lancé une pétition, aujourd’hui signée par « 1400 scientifiques appelés Steve qui appuient la théorie de l’évolution ».

Conseils santé douteux : 6 indices à repérer

Contenu : C. Lopez, E. Beaudin, P. Lapointe

***

Depuis le début de la pandémie, des centaines de personnes ont été hospitalisées ou sont mortes après avoir suivi des conseils santé douteux qui circulent abondamment sur les réseaux sociaux. Ces conseils douteux ont plusieurs points en commun: on en a établi six indices qui devraient sonner l’alarme. Sauriez-vous les repérer dans ce texte? 

On vous parle de « médecine ancienne » ou de « remède naturel »

Le seul fait qu’un traitement est naturel ou ancestral ne prouve absolument pas son efficacité

On vante un traitement « miraculeux » ou « révolutionnaire »

Les scientifiques n’utilisent pas ce type de vocabulaire. Apporte-t-on des preuves scientifiques à la hauteur de ces prétentions, cite-t-on une étude publiée ? Si ça vous semble trop beau pour être vrai, c’est probablement le cas.

On fait passer une anecdote pour une preuve scientifique

Les anecdotes peuvent choquer ou même donner espoir. Même véridiques, elles n’ont pas le même poids que des preuves scientifiques.

On reste flou sur l’expertise des personnes citées

Mentionner la renommée d’un « expert » ou son titre n’est pas suffisant. Il faut préciser s’il a une spécialité dans ce domaine ou s’il a publié une étude à ce sujet pour savoir s’il a une réelle expertise.

On vous fait croire qu’il s’agit d’un remède exclusif

Essaie-t-on de vous convaincre que tout le monde vous ment et vous cache des informations cruciales (sauf l’auteur) ? Si ça marchait vraiment, ça se saurait.

On essaie de vous vendre un remède, un traitement

C’est une stratégie bien connue des publicitaires : un argument de vente déguisé en conseil passe mieux qu’une publicité ordinaire.

Nutrition: 8 questions à se poser devant les études

Un jour, les œufs sont bourrés de cholestérol. Le lendemain, ils sont sans danger pour les personnes aux prises avec un excès de cholestérol. Les études se succèdent avec des résultats souvent contradictoires: de quoi semer le doute sur la qualité de la recherche en nutrition. Le Détecteur de rumeurs s’est interrogé sur la façon dont un Détecteur de rumeurs en herbe pourrait commencer à distinguer le vrai du faux.

À peu près tous les aliments et les nutriments qu’ils contiennent ont été scrutés par des chercheurs ou par des compagnies qui tentent de leur trouver des bienfaits —ou des effets malsains— sur notre organisme. Certaines de ces études sont répercutées par les médias ou les réseaux sociaux, mais pas toujours avec les nuances qui s’imposent. Comment faire le tri?

Pour commencer, il existe plusieurs questions de base que le commun des mortels peut poser à propos d’une étude: le Détecteur de rumeurs en avait d’ailleurs parlé ici et ici, dans le contexte de la pandémie. Or, toutes ces questions restent valables pour toutes les études scientifiques, quelle que soit la discipline. Mais quand il s’agit de nutrition, certaines sont à considérer avec plus d’attention.

1. De quand date l’étude ?

Les médias fournissent souvent peu d’informations sur le contexte dans lequel s’inscrit une étude: les résultats viennent-ils confirmer ou infirmer les conclusions d’une ou de plusieurs recherches antérieures? L’absence de ce contexte peut entraîner une exagération de l’importance de l’étude.

On ne peut demander à tout le monde de faire une recherche dans une base de données d’études scientifiques pour savoir si d’autres chercheurs ont exploré le même sujet. Par contre, on peut vérifier de quand date l’étude: si elle est vieille de quelques mois ou de quelques années, et si le journaliste ou le Youtubeur qui nous en parle ne semble pas avoir demandé à d’autres experts ce qu’ils avaient à dire là-dessus depuis cette parution, c’est mauvais signe.

Il est normal qu’une étude qui confirme une croyance populaire (« le lait est bon pour les os ! ») ou aille à l’encontre de ce qui était tenu pour acquis (« le chocolat est bon pour la santé ! ») attire l’attention des médias et du public des réseaux sociaux. Il est donc encore plus important de se demander si c’est la toute première étude à arriver à cette conclusion, ou si, depuis sa parution, d’autres chercheurs n’ont pas apporté des bémols ou des critiques.

Si, en effet, les résultats remettent en question des connaissances scientifiques établies, il est préférable d’attendre que de nouvelles études viennent les confirmer avant d’y ajouter foi.

2. Combien de personnes ont participé à l’étude?

Les grandes études, menées auprès de milliers de participants, fournissent souvent des résultats plus fiables que les petites études incluant aussi peu que 10 personnes. Le nombre de participants est une information qui devrait figurer en bonne place dans un reportage.

Les méta-analyses, qui combinent les résultats de plusieurs études individuelles, permettent d’augmenter la taille de l’échantillon et la puissance statistique. Toutefois, certaines méta-analyses regroupent des études avec des populations et des méthodes extrêmement différentes et cette variabilité réduit leur puissance, ce qui devrait être mentionné par les auteurs, et relayé par les articles de vulgarisation.

Là encore, il n’est pas rare de voir, en nutrition, des études qui ont été montées en épingle, alors qu’elles avaient été menées sur des groupes beaucoup trop petits pour qu’on puisse en tirer des conclusions.

3. L’étude a-t-elle été réalisée sur des animaux ou des humains?

Il est inévitable que la question se pose en santé, où tout médicament devra d’abord être testé sur des animaux. Mais elle se pose aussi en alimentation:  des nutriments et des aliments sont régulièrement testés sur des animaux. Pensons aux gras saturés qui favorisent l’obésité et le diabète chez les souris, au sucre qui augmente leur anxiété ou aux antioxydants et autres aliments réputés anti-cancer qui ont d’abord été testés chez des animaux.

Sauf que pour mieux comprendre comment ces aliments et nutriments affectent la santé humaine, ils doivent tôt ou tard être étudiés chez l’homme. Les tests faits sur des animaux ne peuvent pas systématiquement s’appliquer à l’humain en raison des différences physiologiques (réactions aux produits chimiques, susceptibilité aux virus, etc.). De plus, les doses administrées aux animaux peuvent être différentes de celles que l’on donnerait à des humains.

4. La méthodologie utilisée reflète-t-elle un usage normal?

Les études sur des aliments ou leurs composants (vitamines, minéraux, etc.) impliquent souvent des doses impossibles à consommer dans la réalité. Quand il faudrait manger chaque jour quatre ou six tasses de brocolis ou de bleuets pour en retirer les bienfaits annoncés, il est difficile de penser que les conclusions de l’étude sont applicables!

On ne peut pas s’attendre à ce qu’un reportage ait toujours l’espace nécessaire pour entrer dans tous ces détails. Mais les chercheurs et les médias qui rapportent l’étude devraient préciser si celle-ci portait sur un aliment ou sur ces composants. Par exemple, est-ce les participants devaient manger des bleuets, un extrait de jus de bleuets ou une capsule d’un antioxydant contenu dans le bleuet?

5. Quelles sont les limites de l’étude?

Lors de la publication de leur étude, les auteurs sont tenus de mentionner ce qu’ils considèrent comme étant les points faibles de leurs travaux. Par exemple, un nombre élevé d’abandons chez les participants lors d’études de longue durée imposant des régimes stricts. Ou encore, des résultats qui n’ont pas encore été confirmés. Ou une faiblesse dans le mode de cueillette de données. Ou l’âge des participants, puisque les effets d’un aliment ou d’un nutriment sur l’organisme peuvent différer selon qu’on est plus ou moins jeune. Le reportage qui relate cette étude devrait faire écho à de telles limites, lorsqu’il y en a. Et il y en a presque toujours.

6. De quel type d’étude s’agit-il?

Lorsqu’il s’agit de tester un médicament, on sait que les études « en double aveugle » sont ce qu’il y a de plus solide. Un groupe reçoit le traitement qu’on veut tester et l’autre, un placébo. Personne ne sait à quel groupe il appartient. On compare ensuite les résultats pour chaque groupe.

En nutrition, de telles études sont souvent irréalisables en raison du coût élevé, de la difficulté de conserver la même alimentation sur une longue période et des problèmes éthiques potentiels. Et il est presque impossible de contrôler le régime alimentaire d’une personne dans un contexte de vie réelle. Imaginez, par exemple, soumettre 1000 personnes à un régime végétarien et autant à un régime de viande rouge pendant 20 ans afin de comparer les impacts sur la santé. Qui plus est, il serait impossible de cacher aux participants ce qu’ils mangent. Sans compter la difficulté de distinguer l’effet d’un seul aliment par rapport au reste de l’alimentation.

Souvent, les chercheurs en nutrition mènent donc plutôt ce qu’on appelle des études observationnelles. On rassemble des milliers de participants à qui on fait passer un examen médical et remplir un formulaire sur leurs habitudes de vie et leur alimentation. Les chercheurs observent les participants et évaluent leur état de santé régulièrement pendant quelques mois, mais le plus souvent pendant des années, voire jusqu’à 15 ans. Ces grandes cohortes permettent de croiser des milliers de variables alimentaires avec des milliers d’effets sur la santé. Les chercheurs peuvent ainsi associer des habitudes alimentaires à des états de santé. Par contre, ils peuvent difficilement démontrer une relation de cause à effet entre un aliment et un changement sur la santé.

Malgré ces limites, les études observationnelles, ou épidémiologiques, demeurent la meilleure façon de faire des études nutritionnelles. Elles permettent de désigner des pistes de réflexion et de nouvelles avenues de recherche.

7. Qui finance l’étude?

Est-ce que les partenaires financiers de l’étude œuvrent dans le même secteur d’activité que le produit étudié? L’industrie alimentaire ou agroalimentaire finance beaucoup de travaux de recherche. Il peut alors y avoir de l’ingérence dans le choix de la question de recherche, la sélection des données, l’interprétation des résultats et la façon de les expliquer au public.

En 2007, une analyse de plus de 100 études financées par l’industrie avait révélé que la source de financement était étroitement liée aux conclusions de l’étude. Il importe donc que les chercheurs, de même que ceux qui vulgarisent l’étude, mentionnent cette source de financement. Ces recherches ne doivent pas nécessairement être mises de côté, mais analysées en gardant à l’esprit le risque de biais.

8. Comment sont présentés les résultats dans les médias?

Des nutritionnistes et des chercheurs en nutrition reprochent souvent aux journalistes de ne pas lire les études et de présenter les résultats hors contexte. Les médias se contentent trop souvent de publier les informations contenues dans les communiqués de presse émis par les universités et les centres de recherche —qui mettent nécessairement l’accent sur les éléments les plus encourageants ou les plus décourageants de l’étude— sans prendre le temps de lire les études pour en évaluer les forces et les faiblesses.

C’est ce qui était arrivé avec une revue de la littérature qui avait soulevé la controverse en 2019 lorsqu’on lui avait fait dire qu’on n’avait pas à limiter la consommation de viande rouge. Toutefois, en lisant la méthodologie, on constatait que les auteurs évaluaient à deux ou trois portions par semaine la consommation de viande rouge dans la population. Au final, leur recommandation de maintenir la consommation de viande rouge correspondait donc à celle de l’Organisation mondiale de la santé et du guide alimentaire canadien, qui est de limiter sa consommation de viande rouge à deux ou trois portions par semaine. Une mise en contexte qui a toute son importance…

 

5 mythes tenaces sur l’homéopathie

Même si les données scientifiques indiquent hors de tout doute que l’efficacité des produits homéopathiques n’est pas différente de celle d’un placebo, ils continuent de gagner des adeptes. Le Détecteur de rumeurs s’est demandé pourquoi.

L’origine

L’homéopathie est une idée de Samuel Hahnemann en 1796. Elle repose sur deux grands principes. Le premier, une substance qui provoque un symptôme est censée pouvoir être utilisée pour soulager ce même symptôme. Le second implique la dilution très forte, et en série, d’une substance active qui est ensuite secouée afin d’en  augmenter soi-disant la puissance.

Au final, les dilutions sont telles qu’il ne reste plus une seule molécule de la substance initiale dans le «remède» homéopathique.

Le consensus scientifique

Le verdict est clair : il n’existe aucune preuve de l’efficacité thérapeutique des produits homéopathiques. Pour l’Académie nationale de médecine, en France, l’homéopathie est une « méthode imaginée il y a deux siècles à partir d’a priori conceptuels dénués de fondement scientifique ». Le Conseil scientifique des académies des sciences européennes (Easac) —un groupe composé de scientifiques européens de premier plan— déposait en 2017 un rapport déclarant « qu’il n’existe, pour aucune maladie, aucune preuve, scientifiquement établie et reproductible, de l’efficacité des produits homéopathiques – même s’il y a parfois un effet placebo ». Une conclusion qui rejoint celle publiée deux ans plus tôt par le National Health and Medical Research Council, en Australie, après relecture de 57 méta-analyses publiées entre 1997 et 2013 et recouvrant 176 études scientifiques, sur 61 maladies ou problèmes de santé.

Malgré tout, les adeptes de l’homéopathie continuent de croire à son efficacité et invoquent pour leur défense 5 des arguments suivants.

1) L’homéopathie n’a rien à voir avec l’effet placebo.

Faux. De nombreuses études ont démontré que l’efficacité de l’homéopathie relève du placebo, un effet obtenu lorsqu’un faux médicament a des effets réels parce que la personne croit recevoir un vrai traitement.

Les études citées plus haut considèrent que l’effet des médicaments homéopathiques est le même que celui des placebos auxquels ils étaient comparés. C’est-à-dire que lorsqu’on observe une amélioration de l’état du patient, il est impossible de relier spécifiquement ce changement au traitement homéopathique. L’analyse australienne, qui a porté sur 13 problèmes de santé, démontre aussi que les études qui ont suggéré un bénéfice supérieur à un placebo se sont révélées mal conçues et peu fiables en raison d’erreurs méthodologiques sérieuses ou d’un faible nombre de participants.

2) Santé Canada approuve les produits homéopathiques et des pays les remboursent : c’est la preuve que ça fonctionne.

Faux. Les fabricants de produits homéopathiques n’ont pas à fournir de preuves scientifiques de leur efficacité pour que Santé Canada les approuve, puisqu’il ne s’agit pas de médicaments, mais de produits dits naturels.

Pour ce genre de produits, les fabricants doivent simplement indiquer la composition, la posologie et les contre-indications de leurs produits et montrer que la substance a été utilisée ailleurs dans le monde, sans effets secondaires. Mais ils n’ont pas à fournir d’études précises ou de preuves d’efficacité. Des articles ou des pharmacopées ancestrales (de médecine ayurvédique, par exemple) peuvent suffire pour soutenir des allégations mineures. Rien de comparable à ce qui est exigé pour les médicaments: pour eux, leurs fabricants doivent véritablement prouver, par des tests sur des animaux puis des humains, que le médicament a un impact supérieur à celui d’un placebo et qu’il est sécuritaire.

Santé Canada a entrepris en 2016 une révision de la réglementation entourant les produits d’autosoins, dont font partie les produits homéopathiques. Le ministère a publié une proposition afin que le niveau de preuve exigé pour soutenir les allégations des produits d’autosoins soit le même que pour les médicaments. Le processus de travail devrait s’accélérer en 2020, mais la date des changements n’est pas connue.

Quant aux remboursements par les assurances publiques ailleurs dans le monde, ils sont de plus en plus remis en question. La France vient d’annoncer que l’homéopathie ne sera plus remboursée par la Sécurité sociale à partir de 2021, après que son comité chargé d’évaluer l’intérêt des médicaments qui doivent être remboursés se soit penché pour la première fois sur l’homéopathie. En 2017, ce sont les services de santé britanniques qui ont cessé le remboursement des traitements homéopathiques après avoir étudié les travaux de leurs homologues australiens et neuf méta-analyses publiées depuis.

3) Ce ne serait pas vendu en pharmacie si ce n’était pas efficace.

Oui et non. Les produits homéopathiques sont disponibles en pharmacie parce que Santé Canada les approuve pour la commercialisation et qu’il y a une demande du public. Certains pharmaciens estiment que de les placer sur leurs tablettes leur permet d’expliquer à leurs patients l’inefficacité de ces produits et évite que certains, atteints de maladies graves, ne remplacent leurs médicaments par ces produits. Mais d’autres pharmaciens soutiennent que si ça ne marche pas, ça ne devrait pas être en pharmacie. D’ailleurs, certaines pharmacies québécoises ne vendent pas de produits homéopathiques.

Les pharmaciens doivent pratiquer selon l’état de la science, en vertu de leur Code de déontologie. Comme aucune donnée probante ne démontre l’efficacité de l’homéopathie, un pharmacien qui la recommande en prétendant que c’est efficace se place en situation d’infraction disciplinaire, selon l’Ordre des pharmaciens du Québec.

4) Ce n’est pas dangereux.

Faux. Les dilutions ne semblent pas présenter de risque pour la santé, mais une personne qui néglige d’obtenir de vrais soins basés sur des preuves scientifiques ou qui retarde la consultation d’un médecin parce qu’elle fait confiance à un produit homéopathique, peut mettre sa vie en danger, indique le rapport de l’Easac.

Les exemples sont nombreux : en 2017, la presse italienne rapportait le décès d’un enfant de sept ans soigné par homéopathie pour une infection provoquée par une otite. En 2012, une Française atteinte d’un cancer du sein est morte après avoir été soignée avec de l’homéopathie à l’exclusion de tout autre traitement. Plus récemment, en 2017, une femme de Calgary a été condamnée à trois ans d’emprisonnement pour négligence criminelle pour avoir soigné l’infection bactérienne de son fils de sept ans avec des remèdes homéopathiques.

De plus, bien qu’ils ne contiennent pas de substance médicamenteuse active, les produits homéopathiques peuvent provoquer des effets secondaires chez les personnes ayant une intolérance aux autres ingrédients qu’ils contiennent, tels que le lactose, le saccharose ou l’alcool. En 2017, la Food and Drug Administration (FDA) des États-Unis a lancé une mise en garde visant des produits homéopathiques pour les douleurs dentaires des bébés. Ils sont soupçonnés d’avoir causé le décès de 10 enfants et l’hospitalisation de 400 autres. Les produits contenaient une trop grande quantité de belladone, une plante toxique.

5) L’homéopathie est une industrie artisanale.

Faux. C’est une industrie qui générait des revenus mondiaux de 3,8 milliards$ US en 2015, selon l’organisme Transparency Market Research; celui-ci projetait une croissance de 18% d’ici 2024. C’est aussi une industrie qui a un énorme pouvoir de lobbying et de marketing. Il suffit de regarder les résultats financiers des grands fabricants comme le français Boiron, le suisse Weleda et l’allemand Lehning.

 

Des études trop rapides en temps de COVID?

Depuis un an, les chercheurs qui travaillent sur le SRAS-CoV-2 ont pris l’habitude de publier leurs études rapidement, souvent sur des sites de prépublication où ces articles n’ont été soumis à aucune révision. Leurs travaux sont-ils moins fiables pour autant ? Difficile de trancher, constate le Détecteur de rumeurs.

En mai dernier, deux bioéthiciens ont lancé dans Science un plaidoyer pour des recherches rigoureuses, rappelant l’importance, en dépit de l’urgence sanitaire, de maintenir des normes de qualité, avec des protocoles rigoureux.

Un peu plus tôt, en mars 2020, le Journal of the American Medical Association (JAMA) s’était inquiété dans un éditorial de retrouver, en raison de la précipitation créée par la pandémie, certains des mêmes malades dans des études différentes — une entorse à l’éthique.

 

La publication d’études : un lent processus

Rappelons que la publication d’une étude est centrale au processus de production du savoir scientifique. La « découverte » d’un chercheur n’acquiert de la valeur que lorsque les résultats sont publiés, ce qui permet à d’autres experts du domaine d’en prendre connaissance, d’en analyser les forces et les faiblesses et, au besoin, de reproduire la recherche, afin de tenter d’en confirmer les résultats.

En temps normal, le processus menant à une telle publication est lent. Les chercheurs présentent leurs résultats dans un article qu’ils proposent à un journal spécialisé. Si ce dernier est doté d’un comité de révision par les pairs, cela signifie que l’article sera soumis à des experts indépendants, appartenant à la même discipline (les « pairs »). Ils peuvent évaluer les résultats et, au besoin, demander des précisions aux chercheurs. Le processus a pour but d’éviter que des études bâclées, aux démarches biaisées ou contenant des erreurs flagrantes, ne soient incorporées à la littérature scientifique.

Le processus n’est pas parfait, et des erreurs se glissent inévitablement, mais il permet un « écrémage » : l’une des revues les plus prestigieuses, Naturedéclare ne publier que 8 % de ce qui lui est soumis.

Or, ce processus de révision peut prendre des semaines, voire des mois, avant de mener à une publication.

La pandémie ne permettant pas de tels délais, les chercheurs se sont tournés en masse vers les sites de prépublication qui affichent les études en seulement quelques jours. Plus de 30 000 des articles publiés sur la COVID en 2020 l’ont été sur des sites de prépublication, soit 17 à 30 % de toutes les recherches sur la COVID (tout dépendant de la base de données utilisée) selon une compilation publiée par la revue Nature en décembre. Un des trois plus importants de ces sites, MedRxiv, n’avait été créé qu’en juin 2019.

En réaction, des revues scientifiques comme The Lancet et le New England Journal of Medicine ont accéléré, très tôt en 2020, leurs processus de révision, publiant en quelques jours certaines études qui étaient potentiellement d’un grand intérêt contre ce nouveau virus. Plus largement, poursuivait l’analyse de Nature, le temps écoulé entre une prépublication sur MedRxiv consacrée à la COVID et sa parution dans une revue révisée par les pairs a été de 72 jours, deux fois plus vite que pour une prépublication sur un autre sujet.

De la science moins fiable ?

Cette précipitation a mené « à une avalanche de mauvaises études », se plaignaient les auteurs du commentaire de mai dernier. Par exemple, des études ont été lancées sans groupes randomisés ou placebos, des recherches ont été mises sur pied en quelques jours. Sans compter que des pré-papiers non révisés par les pairs ont suscité un engouement exagéré de certains médias et du personnel soignant.

Au-delà de la précipitation, plusieurs analyses en cours d’année ont reproché un manque de coordination, voire une désorganisation dans la recherche. Par exemple, une étude parue dans le JAMA en juillet concluait que, sur plus de 1550 études sur des médicaments contre la COVID testés sur des humains entre mars et mai, seulement 10 % avaient été réalisées en double aveugle et avec plus de 100 participants. 

Ceux qui ont tenté de faire des synthèses de la littérature n’ont pas eu la tâche facile : selon un reportage publié par Science en octobre, la majorité des « revues systématiques » portant sur un médicament contre la COVID étaient déjà périmées en raison du flot constant de nouvelles études.

Les revues scientifiques les plus sérieuses n’échappent pas toujours à la tentation de publier trop vite. Le cas qui a fait couler le plus d’encre est celui de la revue The Lancet qui, en juin 2020, a dû retirer une étude sur l’hydroxychloroquine après que 120 scientifiques aient signé une lettre ouverte relevant les erreurs méthodologiques. Trois des quatre auteurs de l’étude se sont également rétractés.

À l’inverse toutefois, c’est aussi The Lancet qui a publié, dès le 24 janvier 2020, la toute première étude révisée par les pairs, portant sur les aspects cliniques observés chez 41 patients hospitalisés à Wuhan.

Dans leur bilan de fin d’année, les auteurs du blogue Retraction Watch, qui se spécialisent depuis une décennie dans la compilation des recherches qui ont été « rétractées » ou retirées des archives par les éditeurs ou les auteurs, notaient qu’une quarantaine d’articles sur le SRAS-CoV2 ou sur la pandémie avaient été retirés des serveurs de prépublication ou des revues scientifiques en 2020. C’était peu par rapport aux 1600 articles retirés, tous sujets confondus. Mais 10 de ces articles étaient aussi parmi le petit groupe de 15 choisis par Retraction Watch pour l’attention qu’ils avaient générée ou l’impact qu’ils avaient eu.

En avril 2020, le scientifique en chef du Québec, Rémi Quirion, avait affirmé que les prépublications pouvaient causer plus de tort que de bien. En janvier 2021, il indiquait toutefois à Radio-Canada que les avantages et les inconvénients de ce mode de fonctionnement étaient désormais mieux compris. « On sait qu’il s’agit d’information non validée, et qu’il faut insister sur l’absence de révision, avant de mettre ça en première page d’un journal ou de baser des politiques gouvernementales dessus », disait-il.

Dans le même reportage, Jonathan Kimmelman, directeur de l’Unité de bioéthique médicale à l’Université McGill et signataire de l’article du printemps 2020 dans Science, allait dans le même sens, précisant qu’avec le temps, plusieurs projets de recherche étaient « venus remplir le vide de connaissance avec des données de qualité ». Il ajoutait qu’à son avis, les travaux de qualité ont dépassé en nombre les prépublications dont le contenu laisse perplexe.

Éviter le nivellement par le bas

Pandémie ou non, les serveurs de prépublication ont l’avantage de permettre aux chercheurs de partager l’information plus vite et plus efficacement. Ils ont également favorisé la collaboration internationale.

Qui plus est, ces serveurs ont révélé au fil des années qu’ils pouvaient être eux aussi des lieux de révision par les pairs: si des dizaines, voire des centaines d’experts d’un domaine, lisent l’article, ils ne manquent pas d’en repérer les faiblesses et les raccourcis. Les erreurs sont ainsi corrigées plus vite que par le processus traditionnel.

Comment empêcher un affaiblissement des normes ? Cela pourrait passer par une réduction de la production : autrement dit, faire moins d’études, et les faire de manière plus rigoureuse —un conseil qui n’a pas attendu la pandémie pour être formulé. Ainsi, des chercheurs pourraient renoncer à mener leurs travaux de manière indépendante pour contribuer à un essai clinique mené dans plusieurs institutions en même temps, selon un protocole bien défini à l’avance. Cela permettrait de comparer l’efficacité de plusieurs traitements dans le cadre d’un même essai clinique, éviterait de multiplier les groupes de contrôle et maximiserait la valeur statistique de l’étude.

Enfin, il y a plusieurs années que de nombreux chercheurs recommandent de revoir le système académique actuel, qui les pousse à publier toujours plus pour prouver leur qualité à leur communauté, obtenir des fonds ou décrocher un poste.

Une course à la publication où le contenu passe au second plan. Mais c’est là une réforme qui pourrait prendre du temps.

 

Les chiens!

Si vous avez choisi cette nouvelle, c’est probablement parce que vous préférez les chiens aux chats.

Comme cette manchette vous conforte dans votre idée que les chiens sont plus intelligents que les chats, vous l’avez préférée à l’autre et il est probable que vous n’aurez pas pris le temps de vérifier si elle est sérieuse ou non avant de la croire ou de la partager.

C’est sur ça que misent ceux qui produisent des fausses nouvelles pour qu’elles deviennent virales!