Lutte à la désinformation

Le rôle de nos biais cognitifs

Quelques ressources

Le Détecteur de rumeurs vous propose des ressources pour mieux comprendre le rôle de nos biais cognitifs dans la propagation des fausses nouvelles.

Mais d'abord, ce petit quiz !

Laquelle de ces deux nouvelles choisiriez-vous?

Chien_Chat
Louis_T3
brain-605603_1920

L’effet de bulle et les algorithmes

Dans la vraie vie, comme sur les réseaux sociaux, on a tendance à s’entourer de gens qui pensent comme nous, avec pour résultat qu’on se retrouve dans une bulle informationnelle où tout le monde partage les mêmes informations…

Graduellement, on finit par ne plus être exposé qu’à une information uniforme sur certains sujets.

Grâce à nos données personnelles et à nos interactions avec les publications, les algorithmes des réseaux sociaux nous présentent du contenu qui correspond à nos goûts, nos intérêts et nos croyances, tout en excluant le reste.

C’est une façon de nous garder captifs de cet univers personnalisé et confortable… et de nous exposer à de la publicité ciblée.

pieges-technos-background
Capture d’écran, le 2021-04-23 à 15.35.21
Louis_T4
Capture d’écran, le 2021-04-23 à 15.47.13
serie-psycho-BACKGROUND
Louis_T5
cerveau-neurones
Louis_T6

1 – Il faut d’abord reconnaître que nous avons tous des biais cognitifs.

2 – Douter, douter, douter… même quand l’information semble en accord avec nos croyances.

3 – Consulter des médias dont on n’est pas nécessairement d’accord avec la ligne éditoriale.

Capture d’écran, le 2021-04-23 à 16.03.23 copie
Si les fausses nouvelles deviennent virales, c’est que nous sommes nombreux à ne pas avoir le réflexe de les vérifier avant de les partager. Surtout quand elles confirment ce qu’on veut bien entendre! Apprendre à déjouer nos raccourcir mentaux c’est aussi ça être un bon Détecteur de rumeurs!

Désinformateurs : comment font-ils pour nous tromper?

Si vous êtes en colère, attention à la désinformation
6 astuces pour éviter de propager la désinfo
Nos ateliers de formation s’adressent tant aux clientèles scolaires et aux organisations qu’au grand public : étudiants, professionnels, aînés ou retraités!
Qu’est-ce que la désinformation et pourquoi se propage-t-elle aussi facilement? Quoi savoir pour ne pas répandre des fausses nouvelles? Quels sont les impacts sur la sécurité, la société et la démocratie?

Abonnez-vous à notre infolettre!

Les chiens!

Si vous avez choisi cette nouvelle, c’est probablement parce que vous préférez les chiens aux chats.

Comme cette manchette vous conforte dans votre idée que les chiens sont plus intelligents que les chats, vous l’avez préférée à l’autre et il est probable que vous n’aurez pas pris le temps de vérifier si elle est sérieuse ou non avant de la croire ou de la partager.

C’est sur ça que misent ceux qui produisent des fausses nouvelles pour qu’elles deviennent virales!

Les chats

Si vous avez choisi cette nouvelle, c’est probablement parce que vous préférez les chats aux chiens.

Comme cette manchette vous conforte dans votre idée que les chats sont plus intelligents que les chiens, vous l’avez préférée à l’autre et il est probable que vous n’aurez pas pris le temps de vérifier si elle est sérieuse ou non avant de la croire ou de la partager.

C’est sur ça que misent ceux qui produisent des fausses nouvelles pour qu’elles deviennent virales!

Le succès des fausses nouvelles repose sur notre paresse

La principale raison pour laquelle nous croyons à des fausses nouvelles ? En gros, parce qu’on est paresseux.

Certes, il y a le fameux biais de confirmation, c’est-à-dire cette tendance, bien ancrée en chacun de nous, à lire et écouter en priorité ce qui confirme nos opinions. Autrement dit, on aura moins le réflexe de vérifier la crédibilité d’une information, dès qu’elle confirme ce qu’on veut entendre.

Mais la paresse inhérente aux humains a peut-être été sous-estimée dans toutes ces études tournant autour du biais de confirmation, ont écrit en juin les psychologues David Rand et Gordon Pennycook dans la revue Cognition. Ils ont fait passer à 3000 volontaires ce que les psychologues appellent le Test de réflexion cognitive (Cognitive Reflection Test), qui consiste à évaluer (ou tenter d’évaluer) notre tendance à utiliser notre « pensée intuitive » ou notre « pensée analytique » (« système un » et « système deux », dans le jargon de ces experts). En d’autres termes, essayer d’évaluer si une personne penche davantage vers des jugements rapides ou vers des jugements réfléchis.

Ils ont ensuite montré à ces personnes trois types de messages de Facebook : l’un pointant vers une vraie nouvelle, l’autre vers une fausse nouvelle retravaillée pour se conformer aux opinions politiques de la personne, et un dernier message montrant une fausse nouvelle retravaillée pour contredire ses opinions.

Résultat : les gens qualifiés de « plus réfléchis » étaient plus susceptibles de distinguer la vraie nouvelle de la fausse, peu importe si la manchette correspondait à ce que cette personne voulait entendre. Dans une autre recherche publiée le mois précédent, le même duo de psychologues associait « la croyance en de fausses nouvelles » avec « d’autres formes de réceptivité à la connerie » (bullshit receptivity).

Ce n’est pas la première fois que des psychologues et des neurologues (et même des économistes) écrivent là-dessus : les chercheurs prennent de plus en plus pour acquis que notre cerveau est, par nature, paresseux. Il saute à la conclusion la plus facile et porte des jugements ultra-rapides plutôt que de soupeser le pour et le contre. Notre inconscient prend continuellement ces raccourcis, ce qui est une porte grande ouverte pour se laisser tromper par une fausse nouvelle. Et ce n’est pas juste une question de paresse intellectuelle : notre cerveau a ses limites ; comme il ne peut pas traiter une très grande quantité d’informations en même temps, il doit aller au plus pressé.

Ça n’a donc rien à voir avec le fait d’être plus ou moins intelligent. Tout le monde est capable de s’arrêter pour soupeser le pour et le contre, c’est juste que peu s’en donnent la peine. Ce qui pourrait être une bonne nouvelle, explique David Rand au New Scientist: « vous n’avez pas besoin de rendre les gens moins partisans ou de leur faire abandonner leur biais. C’est beaucoup plus simple : vous devez amener les gens à penser un petit peu plus. »

Le biais de confirmation, c'est quoi?

Pièges technologiques et désinformation

On le sait : nos raccourcis mentaux nous poussent à croire des informations qui confirment nos croyances, à penser que les vedettes disent toujours la vérité et à partager sans réfléchir les publications qui nous rendent émotifs. Mais dans un monde où l’information se consomme surtout en ligne, l’environnement Web et les algorithmes participent aussi au phénomène. Voici comment.

***

Par Camille Lopez

Le rôle des algorithmes

Les algorithmes, ce sont les suites d’opérations et de calculs qui régissent la manière de fonctionner d’un système. Sur les réseaux sociaux et dans les moteurs de recherche, on s’en sert entre autres pour personnaliser le contenu auquel l’usager est exposé et pour promouvoir les publications qui génèrent beaucoup de réactions. Les algorithmes y déterminent entre autres les publicités, les publications, les articles et les photos qu’on voit passer.

Prenons en exemple PageRank, l’algorithme qui trie les résultats apparaissant sur le moteur de recherche Google. La priorité des résultats sera déterminée en fonction de plusieurs facteurs, dont la langue de l’usager et son emplacement, la sécurité du site internet, l’optimisation du contenu pour les moteurs de recherche, la vitesse de chargement d’une page, la qualité du contenu et l’adaptation mobile.

Toutefois, le premier résultat n’est pas toujours celui qui répondra le mieux à nos besoins ou sera le plus approprié à notre recherche. Il se peut que du contenu très pertinent se cache sous les premiers résultats.

Selon une analyse effectuée en 2019 sur cinq millions de résultats de recherche Google, les internautes cliquent 10 fois plus sur le premier résultat que sur le dixième. Et si un résultat est déplacé d’une position vers le haut, son taux de clics augmente de 30,8 %. D’ailleurs, le premier lien affiché obtient 31,7 % des clics d’une page, qui contient 10 résultats.

Trois mots pour expliquer le phénomène : biais de position. Le biais de position est un biais cognitif qui fait en sorte qu’on privilégie l’information qui se situe au sommet d’une liste, peu importe sa valeur, son importance réelle. Inutile de dire que ça peut grandement limiter la valeur d’une recherche.

La personnalisation du contenu 

Sur vos fils, les algorithmes donnent une priorité au contenu qui générera le plus d’intérêt, au lieu de tout montrer en ordre chronologique. Les photos, les vidéos et les publications qui apparaissent en premier ont donc été triées sur le volet pour chaque utilisateur. On choisit pour vous ce que vous voyez… et ce que vous ne voyez pas.

Ces algorithmes changent très souvent, mais voici ce que l’on sait sur Facebook, Instagram et YouTube.

Facebook détermine ce que l’usager voit en fonction de ses habitudes d’interactions (ce qu’il aime, ce qu’il lit, ce sur quoi il clique), du média utilisé dans la publication (photo, vidéo, direct) et de la popularité de la publication. Il se peut donc très bien qu’un article pertinent, mais qui ne correspond pas à ce que vous lisez d’habitude, vous soit « caché ».

Instagram, qui appartient à Facebook, priorise le contenu publié par des comptes avec lesquels l’usager interagit fréquemment.

Les vidéos recommandées par YouTube ou celles qui apparaissent dans les résultats de recherche de la plateforme dépendent elles aussi de la relation entre l’usager et la source d’une vidéo : si un usager aime déjà une chaîne YouTube et y passe beaucoup de temps, des vidéos du même créateur lui seront recommandées. Si un internaute s’est récemment intéressé à un sujet en particulier, des vidéos similaires apparaîtront dans ses résultats de recherche et dans ses recommandations. L’algorithme prend aussi en compte les données démographiques de l’usager.

Le biais de position peut aussi poser problème ici, pensons à quelqu’un qui a vu passer la fausse information selon laquelle la COVID-19 n’était pas un problème majeur, à cause de ces vidéos montrant les urgences vides de certains hôpitaux. Si cette personne cherche simplement « COVID-19 hôpitaux » et qu’elle habite une région qui n’a pas été durement touchée par la pandémie, elle cliquera fort probablement sur l’un des premiers résultats, qui lui parlera de sa région, et ne cherchera pas plus loin. Dans ce cas-ci, le premier résultat n’est pas le plus pertinent.

Le Data Void

Comme tous les moteurs de recherche, Google n’aime pas le vide. Et puisqu’il cherche constamment à donner des résultats à une recherche, même s’il n’y en a pas de pertinents, certaines personnes mal intentionnées peuvent tourner la situation à leur avantage.

Le vide de données (Data Void en anglais) se produit quand il n’existe qu’une quantité très limitée de résultats de recherche pour un terme ou une nouvelle en particulier ou quand l’information disponible est peu sérieuse, trompeuse ou extrémiste. Ce vide informationnel est souvent exploité pour manipuler les résultats de recherche.

Par exemple, des groupes extrémistes se servent souvent des nouvelles de dernière heure, qui n’ont donc pas encore généré beaucoup d’articles sérieux mais qui suscitent beaucoup de recherches, pour diriger les internautes vers leur contenu. Si un événement impliquant la COVID-19, une ambulance et le pont Jacques-Cartier vient de se dérouler, ces groupes extrémistes utiliseront ces termes pour exploiter le vide informationnel, puisqu’ils savent que beaucoup de gens les chercheront avant que les premiers articles légitimes ne soient publiés. Le contenu, évidemment faux, sera toutefois choquant et incitera à faire des dons pécuniaires, etc.

Bulle informationnelle

La bulle de filtres, c’est l’environnement intellectuel dans lequel les algorithmes peuvent enfermer une personne en lui proposant toujours du contenu susceptible de correspondre à ses valeurs, ses croyances, ses opinions et ses idées. C’est le militant Eli Pariser qui a conceptualisé le phénomène.

N’entre pas dans la bulle qui veut. On a tendance à ignorer ou à bloquer tout ce qui nous choque, comme les arguments des partis politiques auxquels on n’adhère pas, les informations qui pourraient nous fâcher, et les données qui vont à l’encontre de nos croyances ou de nos idées préconçues. Et on clique davantage sur les informations qui confirment ce qu’on veut entendre. Certains algorithmes trient l’information qu’on voit passer et favorisent celles qui suscitent le plus d’engagement.

Par exemple, si une personne est déjà opposée à la vaccination avant la pandémie, elle verra probablement une grande quantité de publications trompeuses et négatives sur la recherche actuelle, mais peu de contenus scientifiques étoffés sur le sujet.

Ainsi, une grande partie de l’information disponible sur les médias sociaux nous est « cachée ». Plus que jamais, il est donc important de faire des efforts pour avoir accès à une panoplie d’informations qui reflètent tous les points de vue pertinents.

Le partage instantané

Les nouvelles sur la COVID-19, qu’elles soient vraies ou trompeuses, se diffusent rapidement… Et on doit une partie de leur popularité aux fonctionnalités de partages instantanées.

Les boutons Retweet (Twitter), Partager maintenant (Facebook), Reblog (Tumblr), Partager (Instagram) et autres boutons similaires sont des fonctions qui nécessitent peu d’efforts de la part de l’usager.

Quand on sait que le biais de confirmation nous pousse à croire rapidement à des informations qui confirment nos croyances, le partage instantané peut s’avérer dangereux.

Sur Twitter, les gens retweetent deux fois plus de fausses informations que de vraies informations, rapporte une étude du MIT. Une étude de l’Université Cornell conclut que sur Reddit, 73 % des liens partagés sont notés positivement ou négativement avant d’être ouverts.

Attention, on peut facilement amplifier un message trompeur, dangereux.

Le petit guide des raccourcis mentaux

Les raccourcis mentaux que nous empruntons pour traiter l’information contribuent grandement à la crise de la désinformation. Les reconnaître fait partie de la solution.

***

Par Camille Lopez

Les biais cognitifs, semblables à un coureur qui triche pour finir une course plus vite, font en sorte qu’on partage des articles qu’on n’a pas lus, qu’on donne de la crédibilité à une vedette de la chanson qui s’exprime sur un sujet scientifique, qu’on commente sous le coup de l’émotion ou qu’on minimise les conséquences de la COVID-19…

C’est le psychologue et économiste Daniel Kahneman et ses collègues qui ont démontré, au début des années 1990, notre tendance à prendre des décisions irrationnelles dans le domaine économique. Depuis, une multitude de raccourcis mentaux, appelés biais cognitifs, ont été identifiés par des chercheurs en psychologie cognitive et sociale. Ce concept est d’ailleurs directement lié à la « science des fausses nouvelles ».

Qu’on le veuille ou non, notre cerveau est ainsi fait qu’il recourt continuellement à de tels raccourcis mentaux. Et ce sont ces raccourcis qui nous rendent susceptibles de partager de la désinformation, dès qu’elle touche en nous une corde sensible. Ce petit guide vous aidera à les reconnaître et, ainsi, à les éviter…

Biais de confirmation

Le biais de confirmation nous pousse à favoriser l’information qui confirme nos croyances. Notre cerveau l’utilise comme un filtre pour se simplifier la tâche et trier plus rapidement l’info.

C’est la raison pour laquelle on peut avoir une perception brouillée de la réalité : on ne croit qu’à l’information qui nous convient (et on ignore celle qui ne nous plaît pas), on cherche de l’information qui confirme nos croyances et on s’entoure de gens qui pensent comme nous.

Les réseaux sociaux le reflètent. Les algorithmes qui trient le contenu pour le rendre à notre image renforcent notre biais de confirmation en ne nous montrant que ce que nous voulons voir. Par exemple, un individu qui fait déjà partie de groupes anti-vaccins avant la pandémie sera exposé, pendant la crise, à des informations confirmant ses croyances sur les médias sociaux comme Facebook, YouTube, Instagram, etc.

L’effet de halo

L’effet de halo fait en sorte que nous avons tendance à tirer des conclusions sur une personne sur la base d’une seule de ses caractéristiques ou qualités.

Par exemple, si nous trouvons qu’une personne est belle ou qu’elle a succès, on aura tendance à penser qu’elle est une bonne personne ou à donner plus de poids à son opinion. On l’appelle aussi “effet de notoriété” ou “effet de contamination”.

En période de pandémie, l’effet de halo peut nous inciter à donner de la crédibilité à des informations erronées, juste parce qu’elles sont véhiculées par des célébrités.

L’effet de halo vaut aussi pour les spécialistes qui s’expriment en dehors de leur champ d’expertise. Dans la revue Psychology Today, la psychologue Terri Apter met en garde contre «l’erreur halo» en temps de COVID-19: notre tendance à croire qu’un expert est spécialiste en tout. « Le terme “expert” fait partie de son identité », écrit la psychologue.

Le biais de popularité

Le biais de popularité se manifeste quand on croit une affirmation parce qu’un grand nombre de personnes la considère comme vraie. Bref, quand on croit que la majorité a toujours raison.

C’est ce qui nous incite, par exemple, à nous abonner à un groupe Facebook  dont le sujet nous semble douteux, mais qui compte un nombre important d’abonnés, ce qui, à nos yeux, rend son contenu plus crédible. Même chose pour les informations que nous trouvons louches : si on voit qu’elles ont été partagées ou «aimées» à de nombreuses reprises, on les partagera plus rapidement, sans faire les vérifications nécessaires.

D’ailleurs, à l’ère de la distanciation physique, voir un grand groupe de personnes ignorer les mesures sécuritaires et sanitaires peut aussi nous inciter à faire de même.

Le biais de normalité

Le biais de normalité est un réflexe qui nous pousse à croire que notre vie se déroulera comme elle s’est toujours déroulée, et, ainsi, à ignorer la possibilité qu’une catastrophe ou un événement non prévu vienne tout chambouler. C’est la raison pour laquelle on se dit souvent «ça ne peut pas m’arriver», en pensant aux cancers ou aux accidents de voiture, même si on connaît les statistiques et qu’on sait que ça peut arriver à tout le monde.

C’est ce qui explique en partie la résistance de certaines personnes à adopter rapidement les mesures sanitaires recommandées en période de pandémie. Appelé parfois “panique négative”, il fait en sorte que nous avons tendance à ignorer les signes avant-coureurs d’une catastrophe et à vouloir continuer à vivre “comme d’habitude”, voire à adopter des comportements dangereux.

Le biais émotionnel

Le biais émotionnel est une réaction émotionnelle à une situation ou à une information qui peut perturber la prise de décision. Une personne sera ainsi encline à croire une chose qui procure un sentiment agréable, ou à rejeter des réalités désagréables. Et ce, même s’il existe des preuves rationnelles du contraire.

Certaines émotions ont tendance à court-circuiter davantage notre raisonnement logique, notamment sur les réseaux sociaux. En 2018, des chercheurs du MIT ont analysé 126 000 partages Twitter de nouvelles – vraies ou fausses. Ils ont démontré que les fausses nouvelles qui suscitent des émotions fortes, comme la surprise, la peur ou le dégoût, sont plus susceptibles d’être partagées rapidement et de devenir virales que les vraies nouvelles qui suscitent des émotions plus neutres, comme l’espoir et la tristesse. Sachant qu’un contenu qui suscite des émotions fortes peut mettre notre sens critique en veilleuse, les créateurs d’articles trompeurs s’arrangent pour jouer sur nos émotions afin de nous faire tomber dans le panneau.

CONCLUSION

Tout le monde passe par des raccourcis mentaux. Reconnaître que notre cerveau nous joue des tours et déforme notre perception de l’information est important. Nul besoin de culpabiliser : il s’agit de la première étape pour apprendre à reconnaître la désinformation.

Un cerveau grand ouvert aux fausses nouvelles

Tandis que des journalistes débattent des meilleures façons de combattre les fausses nouvelles, des psychologues et des neurologues ont déjà plusieurs longueurs d’avance : ces experts prennent désormais pour acquis que 90 % des humains entretiennent, à un degré ou l’autre, des « croyances délirantes » (delusional beliefs). Mais toute la question est de savoir à quel degré… et si tout le monde est capable de combattre ses propres croyances.

« L’esprit humain est le terreau pour les croyances bizarres, de sorte que nous ne devrions pas être surpris que les fausses nouvelles aient une si grande influence », résume un article récent du New Scientist.

Dans le jargon des psychologues, il y a donc les « croyances délirantes », mais il y a aussi les « troubles délirants ». Où passe la ligne entre une simple croyance et le moment où cela devient un problème de santé mentale ? Ces experts en débattent depuis des années, et semblent encore loin d’un consensus. S’ils estiment que seulement 0,2 % des gens sont, à un moment ou à un autre, traités pour un de ces troubles, ils ont en main depuis au moins 2011 des études qui arrivent à des chiffres plus impressionnants : près de 40 % des gens entretiendraient une croyance qu’on ne peut que qualifier de bizarre, comme « je suis mort » ou « des gens que je connais se déguisent pour me manipuler ».

Chose certaine, ces constats obligent à rejeter la vieille idée voulant qu’une personne qui saute aux conclusions sans réfléchir soit « moins intelligente ». Selon la psychologue clinique Philippa Garety, interrogée dans le New Scientist, sauter aux conclusions reflète tout simplement « le type de raisonnement que préfère un individu ». Et comme le raisonnement qu’un individu préfère est souvent celui qui confirme ses croyances ou ses préjugés, il faudrait en théorie détricoter son système de croyances pour comprendre pourquoi il a choisi l’option A plutôt que l’option B.

Dans le langage de la psychologie cognitive, « le type de raisonnement qu’un individu préfère » réfère également à un double concept, le « cerveau rapide » et le « cerveau lent » (ou « système 1 » et « système 2 ») : le premier étant celui qui saute aux conclusions et le second, celui qui soupèse le pour et le contre, hésite ou nuance. Aucun individu ne penche à 100 % d’un côté, mais certains penchent beaucoup plus d’un côté que d’autres.

Illustration classique de ce phénomène. Vous êtes devant deux récipients opaques. Le premier contient 85 % de perles noires et 15 % de perles rouges. Dans l’autre, c’est le contraire. Vous pigez une perle noire : de quel récipient provient-elle ? La logique dicte d’attendre d’en avoir pigé quelques-unes avant de sauter aux conclusions. Pourtant, 10 % des gens répondront à la question après avoir pigé une seule perle. Plus intéressant encore, selon une étude menée en 2011, 70 % des gens traités pour un « trouble délirant » répondraient après seulement une ou deux perles.

Une expérience reprise l’an dernier par une équipe de trois pays (britannique, canadienne, australienne) allait dans le même sens : les gens qui penchent le moins vers une pensée analytique ou vers un « cerveau lent », seraient les plus susceptibles de décider après seulement une ou deux perles. « Ce n’est pas que les gens qui ont tendance à sauter aux conclusions ne comprennent pas ou ne savent pas utiliser des preuves », explique la chercheure principale, Philippa Garety. C’est juste qu’ils sur-utilisent [la pensée rapide] aux dépens de [la pensée lente]. »

Ces gens plus susceptibles de sauter aux conclusions seraient-ils ceux qui auraient besoin d’aide en priorité, dans le contexte des fausses nouvelles ? Ce n’était pas aussi simple, à en croire une étude britannique publiée en 2011, qui pointait plutôt comme facteur déterminant d’une croyance une « anomalie » survenue dans la vie d’une personne, renforcée par la première explication que cette personne était allée chercher.

N’empêche que les interrogations sur les fausses nouvelles et leur impact stimulent la recherche. La tendance de nos cerveaux à sur-utiliser la « pensée rapide » est plus d’actualité que jamais, en cette époque de constant bombardement d’informations entre lesquelles il est difficile de distinguer le vrai du faux. Autrement dit, mieux comprendre ce qui se passe dans le cerveau d’une personne qui relaie des fausses nouvelles pourrait aider tous les Détecteurs de rumeurs de ce monde qui, sur le terrain, combattent la désinformation.

Si vous êtes en colère, attention à la désinformation

La colère est mauvaise conseillère, disaient nos ancêtres. Aujourd’hui, on pourrait dire qu’elle rend plus vulnérable à la désinformation.

« Les gens en colère étaient plus susceptibles » que les autres de tomber dans le piège d’une mauvaise information, et il s’agissait du principal facteur permettant de prédire qu’ils tomberaient dans le piège, écrivent les deux auteurs d’une récente étude en psychologie.

Leur conclusion rejoint celle des recherches des dernières années sur les mécanismes de la désinformation en ligne, où l’appel à l’émotion a régulièrement été identifié comme un des principaux facteurs de succès d’une fausse nouvelle. Dans leur petite étude (79 participants) les deux psychologues de l’Université Stony Brook (New York) ont plutôt testé les réactions à un film, en manipulant les conditions de l’expérience —dans un cas, une des personnes qui faisait passer le test était délibérément agressive et désorganisée, de manière à distinguer quels cobayes seraient classés comme « calmes » ou « en colère ».

La recherche ne portait donc pas spécifiquement sur les réactions aux fausses nouvelles sur les réseaux sociaux. Mais comme l’expliquent les chercheurs, mieux comprendre à quel point les émotions affectent le jugement a son importance en bien d’autres circonstances, des relations interpersonnelles jusqu’à la fiabilité d’un témoin au tribunal…

6 astuces pour éviter de propager la désinfo

Théories du complot, faux remèdes, fausses origines du virus : vous en avez vu passer, vous en verrez passer d’autres. Tout le monde a son rôle à jouer pour éviter la propagation d’informations mensongères.

Voici notre petit guide d’autodéfense en temps de COVID-19, à prescrire à tous ceux qui utilisent régulièrement les réseaux sociaux.

Contenu : C. Lopez, E. Beaudin, P. Lapointe

ASP

 

Gardez la tête froide

La pandémie touche tout le monde, et il est parfois difficile de mettre ses émotions de côté. Toutefois, il est important de reconnaître que notre sens critique peut « prendre le bord » sous le coup des émotions. Ceux qui créent et propagent les fausses nouvelles le savent et misent sur l’émotion pour attirer les clics.

Ne partagez pas les publications qui provoquent chez vous une vive émotion avant d’avoir pris du recul et pris la peine de les vérifier. Au besoin, si le trop-plein d’information vous affecte, évitez les réseaux sociaux quelque temps.

Lisez la publication au complet

Vous trouvez cette astuce trop simple ? Pourtant, on sait que 2/3 des publications partagées sur les médias sociaux ne sont même pas lues! Ne vous fiez pas aux titres accrocheurs et alarmistes et aux publications sensationnalistes. Prenez le temps de lire un article au complet, ou d’écouter une vidéo dans son intégralité avant de partager. C’est l’occasion de voir si l’auteur se fie à des experts ou à sa propre opinion, et c’est aussi le moment de voir si on n’essaie pas de vous vendre un faux traitement par la bande…

Vérifiez la source

Certaines fausses informations imitent très bien les « vraies nouvelles ». Et quand elles sont relayées par un proche, il devient encore plus difficile de savoir d’où elles proviennent.

D’où provient l’information ? D’un média sérieux ? D’une organisation en santé ? De quelqu’un de connu pour ses théories conspirationnistes ? D’un youtubeur populaire ? D’un parti politique ? D’un groupe militant?  Ne partagez pas la nouvelle si elle ne provient pas de sources fiables.

Reconnaissez vos limites

Les informations sur la COVID-19 évoluent rapidement. Même les spécialistes du virus ne peuvent pas prédire son comportement, puisque les connaissances s’accumulent de jour en jour.

Sans compter sur le fait que le jargon technique est difficile à suivre et peut prêter à confusion. Personne ne s’attend à ce que vous sachiez tout ce qu’il y a à savoir sur la pandémie. Il vaut donc mieux que vous évitiez de partager les informations que vous ne comprenez pas et, ainsi, éviter de relayer des informations douteuses, voire dangereuses.

Redoublez de vigilance pour certains sujets

Les faux remèdes et traitements contre le coronavirus circulent en maîtres sur les réseaux sociaux. Attention aussi à tout ce qui concerne les origines du virus, ce sujet attire bon nombre de théories du complot. Même chose pour la vaccination.

Trouvez une 2e source

Si une nouvelle vous semble énorme, consultez d’autres médias ou les sites des autorités en santé publique comme l’Organisation mondiale pour la santé, l’Agence canadienne de santé publique et le gouvernement du Québec. Si personne d’autre n’en parle, méfiez-vous et attendez de voir si elle est confirmée par d’autres sources.

La lecture d’un titre ou d’une information vous semble douteuse ? Vous n’êtes probablement la seule personne qui s’en soit méfiée. Les journalistes vérificateurs de faits (fact-checkers) et les journalistes scientifiques se sont peut-être penchés sur la question. En cherchant l’information dans Google, vous risquez de tomber sur des sources fiables, qui l’ont probablement démentie… ou confirmée.