Abstract

Délibérées ou non, les fausses informations sur le COVID‑19 sont propagées rapidement et largement par l’internet, parvenant à beaucoup de gens et les influençant parfois. Le présente synthèse décrit quatre grandes mesures que les pouvoirs publics et les plateformes peuvent prendre pour contrer la désinformation sur le COVID‑19 : 1) soutenir de multiples organisations indépendantes de vérification des faits ; 2) faire en sorte que des modérateurs humains complètent les solutions technologiques ; 3) publier spontanément des rapports faisant la transparence sur la désinformation au sujet du COVID‑19 ; et 4) améliorer les connaissances des utilisateurs sur les médias, le numérique et la santé.

 
Messages clés
  • Bien que la pandémie mondiale de COVID‑19 se poursuive, de nombreux pays sortent du confinement et se demandent donc comment protéger la population et éviter une « deuxième vague ». Il est essentiel, à cet égard, de fournir en temps voulu des informations sanitaires exactes.

  • Pendant les six derniers mois, d’innombrables informations fausses ou trompeuses sur le COVID‑19, diffusées pour causer intentionnellement du tort (principe de la désinformation), se sont répandues rapidement, largement et à bon marché sur l’internet, mettant en danger des vies et faisant obstacle à la reprise. Lorsque de nouveaux traitements et vaccins efficaces seront disponibles, la désinformation risque de freiner leur adoption et de compromettre encore les efforts déployés par les pays pour surmonter l’épidémie.

  • Les plateformes en ligne offrent des vecteurs essentiels aux infox, mais elles jouent aussi un rôle important dans la limitation de leur propagation. Beaucoup d’entre elles ont pris des mesures énergiques au cours de la pandémie, accroissant notamment leur soutien au organisations indépendantes de vérification des faits et faisant davantage appel à elles, ainsi qu’aux technologies de modération automatique des contenus, afin de mieux détecter, supprimer ou contrecarrer les contenus inexacts, trompeurs et potentiellement dangereux concernant le COVID‑19. Certaines ont aussi interdit les publicités pour les masques médicaux et les respirateurs.

  • Les plateformes devraient être encouragées à poursuivre dans cette voie et à renforcer ces pratiques, à l’appui du succès du déconfinement, tout en veillant à ce que la confidentialité et la liberté d’expression soient préservées. Cette dernière activité nécessite de savoir faire des analyses en contexte, ce qui est très difficile à des algorithmes. C’est pourquoi il est nécessaire d’ajouter aux automates des modérateurs humains en plus grand nombre.

  • Les plateformes en ligne sont aussi essentielles pour diffuser des informations exactes sur le COVID‑19, mais elles ne doivent être livrées à elles‑mêmes ni dans cette mission, ni dans la lutte contre la désinformation. La coopération et la coordination entre les entreprises, les pouvoirs publics, les autorités nationales et internationales de santé et la société civile sont cruciales.

  • Il faut avoir des aptitudes dans les domaines du numérique et de la santé pour se repérer dans les contenus sur le COVID‑19 trouvés en ligne et les comprendre, pour savoir comment vérifier leur exactitude et leur fiabilité, et pour pouvoir distinguer les faits des opinions, des rumeurs et des mensonges.

  • Les pratiques et les collaborations mises en place par les plateformes en ligne face à la désinformation sur le COVID‑19, de même que les actions envisageables à l’avenir pour accroître la transparence, constituent des fondations solides pour combattre d’autres formes de désinformation.

 La crise du COVID‑19 résulte autant d’une « infodémie » que d’une pandémie

Pendant que la pandémie de COVID‑19 se poursuit, la quantité d’informations qui s’y rapportent ne cesse de croître, entraînant ce qu’on appelle une « infodémie ». Les questions de la mésinformation (diffusion de fausses informations, indépendamment de la volonté de tromper) et de la désinformation (diffusion délibérée d’informations fausses ou prêtant à confusion dans l’intention de tromper) ont été largement étudiées et débattues, mais le COVID‑19 jette une lumière crue sur les enjeux et les conséquences de cette importante problématique.

Les informations erronées ou résolument spécieuses sur le COVID‑19 sont propagées rapidement et largement par l’internet, parvenant à beaucoup de gens et les influençant parfois. Leurs sources sont multiples, divers acteurs animés par des motivations très variées produisant et diffusant des informations fausses et trompeuses en fonction, chacun, de leurs ambitions et objectifs particuliers. Par exemple, certains utilisent les plateformes en ligne comme chambre d’écho à des théories complotistes selon lesquelles le COVID‑19 serait une arme biologique étrangère, une machination orchestrée par un clan, le produit de la technologie 5G ou une étape dans un plan plus vaste visant à remodeler la population. D’autres répandent des rumeurs donnant à penser que l’on peut guérir en buvant de l’eau de javel diluée, en mangeant des bananes ou en éteignant les appareils électroniques. D’autres encore cherchent à retirer un bénéfice financier de la pandémie en vendant des kits de dépistage, des masques et des traitements prétendument capables de prévenir ou de soigner la maladie.

Il ne faut pas sous‑estimer les effets dommageables de la désinformation sur le COVID‑19. D’après des données en provenance d’Allemagne, d’Argentine, de Corée, d’Espagne, des États-Unis et du Royaume‑Uni, environ une personne sur trois dit avoir vu des informations fausses ou trompeuses en rapport avec le COVID‑19 sur les réseaux sociaux. Par ailleurs, des études montrent que les informations sur le COVID‑19 qui visent à tromper se répandent beaucoup plus largement que celles provenant de sources autorisées comme l’Organisation mondiale de la santé (OMS) et, aux États‑Unis, les Centres de prévention et de lutte contre les maladies. En mettant en doute les sources et les données officielles, et en persuadant des gens d’essayer des traitements illusoires, la désinformation et la mésinformation conduisent parfois à ingérer des remèdes maison fatals et à faire fi des consignes de distanciation sociale, de limitation des sorties et de port du masque, ce qui sape l’efficacité des stratégies de confinement.

Cependant, les conséquences préjudiciables de la désinformation ne se limitent pas à la sphère de la santé publique. Par exemple, au Royaume-Uni, plus de trente incendies criminels et actes de vandalisme ont visé des installations de télécommunications au motif que, selon des rumeurs mensongères, les ondes radios émises par les antennes 5G rendraient plus vulnérable au COVID‑19, et environ 80 cas de harcèlement à l’encontre de techniciens télécom ont été répertoriés. Aux Pays‑Bas, les incendies volontaires enregistrés sont au nombre de quinze. De même, en Australie, aux États‑Unis et dans l’Union européenne, des calomnies prétendant que des minorités seraient à l’origine de la pandémie ont attisé l’animosité contre certains groupes ethniques, suscitant une aggravation des discriminations et des violences (phénomène dit du « coronaracisme »).

 Il est fondamental de comprendre les voies qu’empruntent la désinformation pour élaborer des ripostes efficaces

On passe de plus en plus par l’internet pour trouver des informations, des actualités et des contenus, au moyen d’agrégateurs, de médias sociaux et de plateformes de partage de vidéos. A la différence des médias traditionnels comme les journaux télévisés et la presse écrite, les plateformes en ligne automatisent et personnalisent les contenus en s’appuyant sur des données relatives à l’activité en ligne passée des utilisateurs, à leurs relations sociales, à leur position géographique, etc. Des titres accrocheurs peuvent attirer les utilisateurs les plus avertis de l’internet vers des contenus sensationnalistes et il ressort des études qu’ils suscitent en général davantage de consultations. Par conséquent, les algorithmes de personnalisation peuvent nous exposer de façon répétée à des contenus et des publicités identiques ou similaires y compris sur la base d’informations mensongères. De plus, certaines plateformes présentent des actualités à côté d’autres types de contenu, de publicités et de contenus créés par des utilisateurs. Les utilisateurs peuvent ainsi avoir du mal à distinguer le vrai du faux. Si aucune mesure n’est appliquée pour supprimer les informations inexactes ou trompeuses, les reléguer à l’arrière-plan ou limiter leur circulation d’une façon ou d’une autre, elles peuvent se répandre rapidement.

Il convient aussi de s’interroger sur l’influence exercée par les infox en fonction de leur provenance. La désinformation sur le COVID‑19 est le fait de l’élite – hommes et femmes politiques, célébrités, autres personnalités –, mais aussi de gens ordinaires. Toutefois, ces deux sources n’ont pas du tout le même impact. D’après une étude empirique, la désinformation qui vient du sommet ne représente que 20 % du total concernant le COVID‑19, mais elle engendre 69 % de l’ensemble des consultations sur les réseaux sociaux. A l’inverse, si la désinformation présente sur ces réseaux a en majorité pour artisans des gens ordinaires, la plupart de leurs messages sont nettement moins consultés. C’est donc davantage aux personnalités publiques influentes qu’il appartient d’agir contre la désinformation et les rumeurs sur le COVID‑19.

 Initiatives prises par les plateformes en ligne pour faire pièce à la désinformation sur le COVID‑19

Pendant que les scientifiques et les pouvoirs publiques continuent de chercher des traitements et un vaccin, il est impératif que les plateformes en ligne, les pouvoirs publics et les organisations sanitaires nationales et internationales collaborent pour limiter la diffusion d’informations fausses et trompeuses sur le COVID‑19.

Certaines plateformes ont pris des mesures importantes, consistant par exemple à orienter leurs utilisateurs vers les sources officielles lorsqu’ils cherchent des informations sur le virus, à interdire les publicités pour les masques médicaux et les respirateurs, et à redoubler d’efforts pour repérer et supprimer les contenus inexacts, trompeurs et potentiellement préjudiciables en rapport avec le COVID‑19, notamment à fermer les boutiques en ligne ou à supprimer les catalogues qui donnent des informations erronées ou fallacieuses sur des produits prétendument capables de prévenir ou de soigner la maladie. En outre, Facebook, Google, LinkedIn, Microsoft, Reddit, Twitter et YouTube ont publié une déclaration commune sur leur collaboration avec les agences publiques de santé visant à combattre les fraudes et la désinformation relatives au COVID‑19. De manière générale, la collaboration entre les plateformes et les autorités sanitaires prend principalement trois formes.

  • Mettre en relief, au premier plan et en tête des priorités les contenus émanant de sources autorisées. Les plateformes comme Facebook, Instagram, TikTok et Pinterest redirigent vers l’OMS les utilisateurs qui cherchent des informations et des mots-dièse en rapport avec le COVID‑19. De même, Google a lancé un guichet unique, sous la forme d’un microsite, et une « alerte SOS », qui oriente les personnes faisant des recherches sur le mot « coronavirus » vers les actualités et autres informations diffusées par l’OMS. YouTube présente des vidéos d’organisations sanitaires publiques sur sa page d’accueil et met en avant les contenus de sources autorisées en réponse aux recherches de renseignements sur le COVID‑19. Twitter affiche pour sa part, avant le fil des utilisateurs, une page d’événements COVID-19 contenant les dernières informations provenant de sources dignes de confiance. Et Snapchat s’est associé à l’OMS pour créer des filtres et des stickers qui donnent des conseils pour prévenir la propagation du virus.

  • Coopérer avec les vérificateurs des faits et les autorités de santé pour signaler et supprimer les informations mensongères. Facebook coopère avec des tiers qui vérifient les faits pour décoder les rumeurs fallacieuses sur le COVID‑19, les signaler comme telles et avertir les personnes qui essaient de les relayer qu’il a été démontré qu’elles étaient fausses. Facebook a fait un don d’un million USD à l’International Fact-Checking Network (IFCN, réseau international de vérification des faits) pour accroître ses capacités dans le cadre d’un partenariat et a supprimé des contenus signalés par des autorités de santé, notamment des messages proposant de fausses méthodes de prévention ou de traitement du coronavirus (comme l’absorption d’eau de javel) ou créant la confusion sur les moyens sanitaires existants. De même, des rapports notent que Google a fait don de 6.5 millions USD à des vérificateurs des faits sur le coronavirus. De son côté, Twitter a étendu la définition de la notion de dommage sur sa plateforme, de manière à parer aux contenus qui vont directement à l’encontre des conseils fournis par des sources autorisées d’informations mondiales ou locales sur la santé publique.

  • Offrir de l’espace publicitaire gratuit aux autorités. Facebook, Twitter et Google ont offert des crédits publicitaires gratuits à l’OMS et aux autorités nationales de santé pour les aider à diffuser des informations fondamentales sur le COVID‑19.

 Il n’existe pas de solution simple pour régler entièrement ou définitivement le problème de la désinformation sur le COVID-19

Les initiatives évoquées ci-dessus sont importantes en ce qu’elles facilitent l’accès à des informations précises et fiables sur le COVID-19 et peuvent sauver des vies. En revanche, il ne faut pas en attendre plus. Il n’existe pas de solution simple au problème de la désinformation sur le COVID-19, comme en témoignent deux évolutions récentes :

  • Recours accru à la modération automatique de contenus. À la suite de la pandémie et des mesures de confinement, des plateformes en ligne comme Facebook, Google et Twitter ont été confrontés à une pénurie de modérateurs humains et ont donc davantage fait appel à des technologies de modération automatique pour repérer et supprimer les contenus inappropriés. Cependant, ces technologies ne sont pas capables d’identifier tous les contenus qui relèvent de la désinformation. En outre, le fait d’intervenir en tant que modérateur de contenus peut avoir des implications juridiques pour les plateformes au regard des législations en vigueur1. Pour réduire la probabilité que des allégations et des rumeurs fausses ou trompeuses passent au travers des mailles du filet, les technologies de filtrage ont donc tendance à être programmées pour être plutôt trop prudentes que pas assez. Le risque de faux positifs est alors plus élevé. Ainsi, YouTube a fait observer qu’en raison du recours accru à des systèmes de modération automatique, il était possible qu’un plus grand nombre de vidéos publiées par les utilisateurs et les créateurs soient retirées, y compris certaines vidéos qui ne contreviennent pas à ses règles. Et de fait, plusieurs cas ont été signalés où les systèmes de surveillance automatisée ont marqué comme indésirables des contenus relatifs au COVID-19 qui provenaient pourtant de sources fiables. On le voit, à vouloir lutter contre la désinformation sur le COVID-19 par une modération des contenus sans supervision humaine suffisante, on risque de limiter la disponibilité d’informations fiables sur le coronavirus et donc l’accès à ces informations. En outre, faute d’une transparence, d’une responsabilité et de garanties procédurales appropriées, la modération automatique de contenus est plus susceptible de brider la liberté d’expression et d’ajouter ainsi un degré de complexité à l’infodémie.

  • Interdiction des publicités exploitant la crise. Facebook et Instagram ont interdit les publicités laissant entendre qu’un produit permet à coup sûr de guérir du COVID-19 ou évite de contracter le virus, ainsi que les publicités et les offres commerciales qui concernent des masques, des désinfectants pour les mains, des lingettes désinfectantes et des kits de dépistage du COVID-19. Twitter a pris des mesures comparables dans le cadre de sa politique sur les contenus inappropriés. De même, Google et YouTube interdisent tout contenu, publicités comprises, qui vise à tirer profit de la pandémie, et ont banni à ce titre les publicités pour les équipements de protection individuelle. Ces mesures dissuadent les escrocs qui chercheraient à vendre de faux produits contre le COVID-19 et contribuent à protéger les consommateurs contre les prix abusifs, mais elles peuvent aussi compliquer quelque peu la tâche des personnes qui cherchent à acheter en ligne des produits d’hygiène. En tout état de cause, la désinformation et la mésinformation demeurent difficiles à éradiquer en ligne sans porter atteinte aux droits des utilisateurs en matière de liberté d’expression et/ou de protection de la vie privée. Qui plus est, un certain nombre de plateformes et de producteurs de contenus en ligne continuent de profiter des publicités qui s’affichent sur les pages hébergeant les contenus trompeurs ou inexacts passés au travers des mailles de la modération. Ainsi, le Tech Transparency Project a observé que plusieurs vidéos trompeuses sur le coronavirus – promettant des traitements curatifs et préventifs – côtoyaient des publicités de différents annonceurs sur une grande plateforme de partage de vidéos, et EUvsDiSiNFO a récemment constaté que « les principales plateformes continuent de monétiser la désinformation et le contenu préjudiciable sur la pandémie (...) par exemple, en hébergeant des publicités en ligne sur des pages qui présentent faussement les migrants comme étant responsables du virus, font la promotion de faux remèdes ou répandent des théories du complot sur le virus ». En outre, EU DisinfoLab a conclu d’expériences menées sur plusieurs réseaux sociaux que le processus de modération des contenus conspirationnistes révélés comme tels était lent et variable selon les plateformes.

La première chose à faire pour aboutir à une solution plus efficace et pérenne consiste à assurer le recueil systématique des éléments factuels. Si les plateformes en ligne faisaient régulièrement le point de façon transparente sur les informations fausses ou trompeuses qui apparaissent au sujet du COVID-19, sur leur audience et sur la manière dont elles sont détectées et modérées, il serait plus simple pour les chercheurs, les responsables de l’action gouvernementale et les plateformes elles-mêmes de trouver des moyens d’améliorer les choses. La Commission européenne a récemment appelé les plateformes à faire preuve de transparence en rendant compte chaque mois spontanément de ces aspects. Si cette démarche devait devenir obligatoire, et en particulier si elle devait s’étendre à d’autres juridictions, il serait sans doute très utile qu’une coopération et une coordination internationales multipartites s’engagent en temps opportun sur une norme commune de notification pour éviter des facteurs d’inefficience et réduire les dépenses. L’application d’une approche commune par les différentes entreprises et les différents pays pourrait de surcroît faciliter les comparaisons internationales et entre plateformes. L’OCDE constitue l’instance idéale pour ce type de projet, et elle en dirige d’ailleurs déjà un, qui porte sur les rapports de transparence volontaires concernant les contenus extrémistes terroristes et violents en ligne.

Pour que la situation s’améliore, il faudra sans doute aussi que les plateformes en ligne acceptent de se montrer plus vigilantes en investissant pour développer et rendre plus performante la vérification des faits et de l’exactitude des informations. Il s’agira le cas échéant d’augmenter les effectifs consacrés à cette tâche, d’apporter un soutien accru à différentes organisations externes de vérification des faits, de poursuivre la mise au point des systèmes de modération automatique de contenus, et de mettre davantage encore en avant les contenus de qualité et fiables. Dans ce scénario, on n’empêcherait pas la publication en ligne de contenus trompeurs et mensongers, mais on réduirait grandement le rythme et l’ampleur de leur diffusion.

Cela étant, les plateformes ne peuvent pas porter seules cet effort. Les pouvoirs publics, les organismes de santé publique, les organisations internationales, la société civile, les médias et les entreprises technologiques doivent unir leurs forces pour lutter contre la désinformation. Ils doivent notamment coopérer pour améliorer les aptitudes des individus dans les domaines des médias, du numérique et de la santé. Un utilisateur capable de déterminer qui a produit le contenu qu’il consulte, qui l’a financé et pourquoi il lui est présenté risque moins d’être convaincu et manipulé par des rumeurs et des allégations trompeuses.

 Principales recommandations pour l’action publique

La diffusion d’informations fausses et trompeuses au sujet du COVID-19 est un problème complexe qui appelle une coopération, une coordination et des relations de confiance entre les plateformes en ligne, les pouvoirs publics et les organisations sanitaires nationales et internationales, de même qu’une panoplie de mesures soigneusement pesées. Même si un certain nombre de dispositions sont déjà en place, on peut aller plus loin. Les réflexions suivantes visent à guider les acteurs dans la recherche de solutions toujours plus efficaces au problème de la désinformation sur le COVID-19.

Soutenir davantage différentes organisations indépendantes de vérification des faits. La désinformation au sujet du coronavirus jette le doute sur l’action, les recommandations et la compétence des pouvoirs publics, des médecins, des scientifiques et des organisations sanitaires nationales et internationales. En entamant la crédibilité de ces acteurs, elle nuit aussi à leur capacité à mettre au jour et à réfuter les informations fausses et trompeuses, y compris celles qui les ont dépeints sous un mauvais jour au départ. Les vérificateurs de faits indépendants sont en mesure de présenter des analyses impartiales des informations et d’aider les plateformes en ligne à identifier les contenus trompeurs et inexacts ; les autorités nationales et supranationales peuvent y contribuer en apportant un soutien et en faisant appel à leurs analyses pour rétablir la confiance du public. Les pratiques de Facebook et d’autres plateformes qui s’appuient de plus en plus sur des vérificateurs de faits et les aident financièrement devraient servir d’exemple à d’autres entreprises technologiques, mais aussi au secteur public. Les plateformes pourraient aussi envisager de pourvoir d’un label de confiance les contenus validés par au moins deux organisations indépendantes de vérification des faits. Il a été démontré que de tels labels sont efficaces pour renforcer la confiance des consommateurs dans le contexte du commerce électronique – ils pourraient donc aussi être utiles dans celui de l’information en ligne sur le COVID-19.

Faire en sorte que des modérateurs humains complètent les solutions technologiques. Les systèmes de surveillance automatique sont certes importants pour détecter et supprimer les informations fausses ou trompeuses sur le COVID-19, mais la modération des contenus nécessite également une intervention humaine, en particulier lorsque des décisions plus nuancées sont nécessaires. Il s’agit là d’un problème complexe qui n’a pas de solution simple, surtout en période de pandémie, car faire revenir les modérateurs de contenus trop tôt au travail crée un risque inacceptable en termes de santé publique, et les faire travailler depuis chez eux soulève des questions concernant la protection de la vie privée et la confidentialité. Les plateformes en ligne devraient néanmoins rechercher d’autres solutions pour que les effectifs voulus soient consacrés à la modération des contenus. Pour celles d’entre elles qui disposent de ressources suffisantes, l’embauche de (plus de) modérateurs à temps plein pourrait être utile.

Publier spontanément des rapports faisant la transparence sur la désinformation au sujet du COVID-19. La présentation, par les plateformes en ligne, de points réguliers sur la nature et la prévalence de la désinformation sur le COVID-19, ainsi que sur les mesures qu’elles prennent pour la combattre permettrait aux intervenants publics et privés d’agir mieux et davantage sur la base de données factuelles. Si plusieurs juridictions envisagent de rendre obligatoires de tels rapports, une coopération et une coordination internationales devront être assurées au travers de processus multipartites pour éviter d’aboutir à une situation où la coexistence d’une multiplicité de normes de notification alourdit inutilement les coûts et complique les comparaisons entre pays et plateformes.

Améliorer les connaissances des utilisateurs sur les médias, le numérique et la santé. Il faut avoir des aptitudes pour se repérer dans les contenus trouvés en ligne, les utiliser sans risque et avec compétence et comprendre pourquoi ils sont présentés. Il s’agit notamment pour les utilisateurs de savoir vérifier l’exactitude et la fiabilité des contenus et distinguer les faits des opinions et des rumeurs. Pour les y aider, il est essentiel que les plateformes, les médias, les pouvoirs publics et les enseignants collaborent, et que des efforts soient menés pour améliorer les connaissances des citoyens en matière de santé. Le partenariat conclu récemment entre l’Union européenne, l’UNESCO et Twitter pour promouvoir l’éducation aux médias et à l’information sur fond de crise de désinformation concernant le COVID-19 est une initiative qui doit être saluée, et dont devraient s’inspirer d’autres plateformes et acteurs concernés.

Pour aller plus loin

Moreira, L. (2018), « Health literacy for people-centred care: Where do OECD countries stand? », Documents de travail de l’OCDE sur la santé, n° 107, Éditions OCDE, Paris, https://doi.org/10.1787/d8494d3a-en.

OCDE (2020), « Protecting online consumers during the COVID-19 crisis », OCDE, Paris, http://www.oecd.org/coronavirus/policy-responses/protecting-online-consumers-during-the-covid-19-crisis-2ce7353c/.

OECD (2020), “Transparency, communication and trust: The role of public communication in responding to the wave of disinformation about the new coronavirus”, OECD, Paris, https://www.oecd.org/coronavirus/en/#policy-responses.

OCDE (2019), An Introduction to Online Platforms and their Role in the Digital Transformation, Éditions OCDE, Paris, https://doi.org/10.1787/53e5f593-en.

Note

1.

Voir, par exemple, la section 230 de la loi Communications Decency Act des États-Unis (47 U.S.C. § 230).

TwitterFacebookLinkedInEmail