La propagation de fausses informations, délibérément ou non, constitue une menace fondamentale pour le libre échange d’informations factuelles, principe essentiel de la démocratie. Ce chapitre examine comment les gouvernements peuvent répondre à la désinformation et à la mésinformation en adoptant une approche globale du gouvernement et de la société. Il s'agit notamment de se préparer et de réagir à la publication et à la diffusion de la désinformation, d'empêcher la publication et la diffusion de celle-ci par des mesures d'amélioration et de la transparence et de réduire les facteurs économiques et structurels de la mésinformation et de la désinformation.
Instaurer la confiance et renforcer la démocratie
1. Mésinformation et désinformation : comment les pouvoirs publics peuvent agir pour renforcer la démocratie
Abstract
1.1. Introduction
La propagation de fausses informations, délibérément ou non, constitue une menace fondamentale pour le libre échange d’informations factuelles, principe essentiel de la démocratie. La façon la plus évidente pour des informations trompeuses et erronées de fausser l’engagement démocratique est de convaincre les gens de croire des choses qui ne sont pas vraies, ce qui peut être particulièrement dommageable si l’objectif est de diaboliser des opposants politiques, de fausser des débats politiques ou de saper les institutions démocratiques. En entravant l’accès à des informations et données pertinentes, fiables et précises, l’amplification de contenus ayant des visées de désinformation et de mésinformation peut saper la volonté et la capacité du public à participer de manière constructive à la vie démocratique et, en définitive, nuire à la capacité de la société à établir un consensus. De plus, parce qu’elle brouille la frontière entre le discours politique authentique et les contenus fallacieux, la désinformation peut également alimenter la polarisation, semer la confusion et servir la cause des dirigeants autoritaires.
De ce fait, la prolifération de la mésinformation et de la désinformation peut affaiblir la capacité des pays à protéger leurs intérêts nationaux et à préserver leur sécurité intérieure et la démocratie. La pandémie de COVID-19, l’assaut du Capitole des États-Unis survenu le 6 janvier 2021 et l’agression à grande échelle de la Russie contre l’Ukraine ont tous mis en évidence les menaces que représente la propagation d’informations fausses et trompeuses ainsi que les dangers causés par l’érosion généralisée de la confiance dans les institutions et dans l’information.
76 % des personnes interrogées lors de l’enquête d’Edelman sur la confiance portant sur 27 pays ont indiqué craindre que les fausses informations ou fausses nouvelles (fake news) soient utilisées comme arme. En outre, 67 % des participants se disent inquiets de voir les journalistes et les reporters tenter délibérément d’induire le public en erreur en tenant des propos dont ils savent qu’ils sont incorrects ou exagérés, et 66 % en pensent autant des dirigeants politiques et des chefs de gouvernement (Edelman, 2022[1]). Ce manque de confiance dans les institutions resserre fortement les perspectives d’engagement démocratique constructif.
Ces préoccupations n’ont jamais été aussi vives et soulignent l’urgence et l’importance de veiller à ce que les pouvoirs publics soient à même de riposter et de créer des systèmes qui puissent contrer les menaces causées par la désinformation et la désinformation. Plus largement, il est également nécessaire de renforcer les écosystèmes des médias et de l’information afin de renforcer la démocratie. Ces écosystèmes sont considérés comme l’espace où les citoyens, les journalistes et les institutions (gouvernementales, civiques et privées) créent, diffusent et s’engagent en matière d’information, de cadres de gouvernance et entre eux, afin d’instaurer la confiance et de favoriser l’engagement, la qualité de l’information étant le principal levier de confiance dans les institutions démocratiques (Edelman, 2022[1]).
La mésinformation et la désinformation ne sont pas des phénomènes nouveaux et continueront d’exister dans toutes les sociétés, quelle que soit la stabilité de la démocratie ou des institutions médiatiques qui les composent. Par le passé, cependant, leur propagation a été modérée grâce aux limites technologiques inhérentes au mode de diffusion des informations ainsi qu’à la combinaison d’une réglementation gouvernementale restreinte et du contre-pouvoir que représentent les organes de presse et les médias d’information, et leur gouvernance contribue également à contenir la propagation. Ces éléments ont contribué à la constitution de démocraties dotées d’écosystèmes médiatiques et informationnels qui, quoique moins dynamiques et diversifiés que ceux d’aujourd’hui, étaient relativement stables et capables d’empêcher une certaine polarisation et la susceptibilité aux messages de désinformation propagés par une série d’acteurs (étrangers ou nationaux).
L’émergence d’espaces de communication en ligne et de plateformes de médias sociaux qui permettent à pratiquement tout un chacun de devenir instantanément une source d’information (ou de mésinformation) et d’amplifier ce contenu à l’échelle mondiale a constitué un bouleversement systémique et fondamental. Internet a modifié et simplifié la capacité à créer et partager des contenus d’une manière que l’on commence seulement à appréhender (Lesher, Pawelec et Desai, 2022[2] ; OCDE, à paraître[3]).
Ces changements technologiques ont contribué à une diversité accrue des sources et des possibilités d’accès à l’information mondiale, offrant ainsi un contrepoids indispensable aux médias interdits, anticoncurrentiels ou autrement restreints (ce qui est particulièrement notable dans le contexte de l’agression de la Russie en Ukraine). Les technologies numériques ont permis aux institutions (pouvoirs publics, médias, autres secteurs privés et société civile) de communiquer avec les citoyens, et aux citoyens de communiquer entre eux de manière plus participative, innovante et souple. Une analyse récente de l’OCDE explique en quoi les pouvoirs publics peuvent également utiliser plus efficacement les plateformes de médias sociaux pour promouvoir une communication interactive de manière à lutter contre la désinformation et la mésinformation (OCDE, 2021[4]).
Cependant, ces mêmes technologies sont mises à profit par des acteurs malveillants pour menacer des éléments fondamentaux de la vie démocratique. L’engagement en ligne et hors ligne peut être façonné par les flux d’informations sur les plateformes de médias sociaux ciblés par des acteurs nationaux et étrangers pour miner le fonctionnement des démocraties. En effet, l’incidence des médias sociaux va au-delà de leur utilisation en tant que source directe d’information, étant donné que les effets de rétroaction entre les plateformes et les médias traditionnels peuvent également servir à amplifier la mésinformation et la désinformation. Ces menaces peuvent saper la confiance et risquent de restreindre l’espace de l’engagement démocratique et d’affaiblir la force de la liberté d’expression. La désinformation, en particulier, peut être exploitée pour modifier délibérément la perception qu’a le public de l’intégrité et de la compétence de personnalités publiques, ainsi que pour semer la confusion et décourager le public de manière à réduire sa volonté de s’engager dans un débat ou de briguer un poste politique. De telles campagnes affectent les segments de la population de différentes manières. Ainsi, les femmes en politique sont ciblées de manière disproportionnée par les campagnes de désinformation fondées sur le genre. Cette tendance est encore plus marquée pour les dirigeantes politiques issues de groupes raciaux, ethniques, religieux ou d’autres minorités (Meco et Wilfore, 2021[5]). La compréhension de la nature et des répercussions de la mésinformation et de la désinformation, y compris l’intersection de récits ciblant des segments spécifiques de la population, aura son importance pour l’avenir.
Les efforts visant à limiter la mésinformation et la désinformation doivent également être considérés comme allant de pair avec la protection plein et entière de la liberté d’expression. Les lois qui régissent la mésinformation au sens large peuvent être utilisées pour restreindre la légitime liberté de parole. Les pouvoirs publics peuvent également exiger des plateformes qu’elles imposent des restrictions sur le contenu par ailleurs légal, ou faire pression sur celles-ci à cet égard, obligeant les propriétaires privés d’espaces d’engagement public de facto à se montrer plus restrictifs que ne l’exigent les lois. En fin de compte, le maintien de la liberté d’expression ne fera pas disparaître les contenus faux et trompeurs, l’objectif étant d’en atténuer les effets préjudiciables à l’engagement démocratique et de renforcer les espaces d’information propices à cet engagement.
Par conséquent, il faut un nouveau modèle de gouvernance au moyen duquel les pouvoirs publics, ainsi que les médias traditionnels, les médias sociaux, le monde universitaire et les organisations de la société civile, contribuent ensemble à remodeler les écosystèmes d’information. Certains gouvernements se sont engagés dans cette direction et ont souligné l’ampleur de la menace de même que la nécessité d’une approche coordonnée au niveau international et impliquant l’ensemble de la société. Les relations constructives de la Lituanie avec des organisations indépendantes de vérification des faits, le travail entrepris par la Finlande avec sa société civile en vue de soutenir les efforts d’éducation aux médias et les efforts de l’UE en vue d’élaborer un instrument de coréglementation via son Code de bonnes pratiques en matière de désinformation ne sont que quelques exemples – de plus en plus nombreux – illustrant cette approche qui se doit d’être collaborative.
Le présent chapitre met l’accent sur les réponses en matière de gouvernance et donne un aperçu des mesures que les pouvoirs publics prennent ou pourraient prendre de leur propre chef ou en partenariat avec les médias et les organisations de la société civile (à ce titre, elle n’examine pas les mesures d’autorégulation adoptées par le secteur privé). Ce chapitre propose une stratégie globale visant à prévenir et combattre la mésinformation et la désinformation et à favoriser un modèle de gouvernance des écosystèmes d’information qui renforce les démocraties. L’internet facilitant le partage d’informations sans frontières, les pays partageant de mêmes idées doivent collaborer, et ce avec un large éventail de partenaires non gouvernementaux pour relever les défis posés par la mésinformation et la désinformation.
1.2. Identifier les ripostes des pouvoirs publics à la mésinformation et à la désinformation
On peut définir la « mésinformation » comme la diffusion d’informations fausses ou inexactes, partagées sans le savoir, sans intention de tromper le public, alors que la « désinformation » consiste généralement à créer, présenter et diffuser délibérément des informations fausses, inexactes ou trompeuses (Wardle et Derakshan, 2017[6] ; Lesher, Pawelec et Desai, 2022[2]). Le terme « désinformation » est parfois utilisé de manière générique pour désigner diverses pratiques similaires mais différentes, telles que la désinformation, les opérations d’influence et les ingérences étrangères dans l’espace de l’information,1 chacune de ces pratiques pouvant nécessiter une approche différente. Par ailleurs, la désinformation et la mésinformation ne doivent pas être confondues avec la diffusion en ligne de contenus de nature terroriste, violente ou illicite, contre lesquels un ensemble de mesures spécifiques, non traitées ci-dessous, sont souvent nécessaires.2
Sont examinées ici l’ensemble des actions que les pouvoirs publics doivent envisager, dans une mesure plus ou moins large et en fonction de leur contexte local. Le fait pour un pays de se concentrer sur une seule menace, telle que l’influence étrangère ou le recours à des fermes de robots (bot farms), ou sur une seule réponse ne ferait que le rendre vulnérable à d’autres sources d’informations fausses ou trompeuses, sans résoudre le problème dans sa globalité. En ce sens, les pouvoirs publics doivent envisager une stratégie globale qui prenne en compte toutes ces mesures, assure leur mise en œuvre continue afin d’évaluer, de contrer et d’éviter les menaces et les dommages causés par la mésinformation et la désinformation, et qui évalue ces initiatives à la lumière de leur incidence potentielle sur la liberté de parole et d’expression.
Bien que toutes les mesures présentées ici puissent jouer un rôle important, le contexte géopolitique et social de chaque pays exige une analyse ciblée pour déterminer les domaines qui nécessitent une plus grande attention, ainsi que la meilleure façon d’allouer les ressources. En outre, les pays n’ont pas tous les mêmes systèmes juridiques, traditions et approches de la protection de la liberté d’expression, et ces différences influenceront la conduite à tenir. Ainsi, s’il existe des objectifs et des enseignements communs concernant les mesures clés nécessaires pour faire face aux menaces, les mesures de riposte doivent également tenir compte du contexte spécifique du pays. C’est en étant pleinement conscients de la dimension contextuelle des menaces et des mesures à prendre que les pouvoirs publics seront mieux à même d’élaborer une stratégie sur mesure fondée sur des enseignements et des principes communs.
Cela étant, un certain nombre de principes communs permettent d’orienter les mesures en matière de gouvernance. Promouvoir la liberté d’expression et renforcer l’espace dédié au débat et à l’engagement démocratiques sont les thèmes qui ont inspiré ce travail. À cette fin, les réponses réglementaires abordées dans ce chapitre n’explorent pas les réglementations spécifiques au contenu, qui risquent d’entraver la diffusion de l’information et de restreindre la liberté de parole et d’expression. Le fait de favoriser l’indépendance des acteurs – société civile, médias et régulateurs – contribuera à un meilleur équilibre des pouvoirs. Comme l’a noté l’OCDE, l’indépendance d’un organisme de réglementation vis-à-vis de l’État et des entités qu’il réglemente offre un gage de décisions équitables et impartiales, ce qui peut être particulièrement important lorsque les décisions peuvent avoir des conséquences importantes sur les finances et les marchés (OCDE, 2012[7]).
En outre, vu le caractère international par nature des plateformes de médias sociaux, une approche transfrontière, comparative et analytique sera sans nul doute très bénéfique. En effet, la propagation des contenus de mésinformation et de désinformation ne peut être envisagée sans tenir compte du contexte général des défis mondiaux auxquelles sont confrontées la démocratie et la confiance dans les institutions. Après avoir déterminé dans quelle mesure les groupes et individus qui se sentent privés de leurs droits et écartés des processus démocratiques contribuent à cette propagation, il faudra intégrer ces connaissances dans la gouvernance globale et la réponse sociétale à la diffusion de contenus faux et trompeurs.
Les mesures actuelles et proposées pour prévenir et combattre la mésinformation et la désinformation peuvent être regroupées comme suit :
1. Politiques et initiatives de gouvernance permettant de se préparer et de réagir à la publication et à la diffusion de contenus de mésinformation et de désinformation
2. Mesures de réglementation et d’action publique visant à renforcer la transparence et la prévention
3. Dispositions réglementaires et réponses destinées à réduire les facteurs économiques et structurels de la mésinformation et de la désinformation
1.2.1. Se préparer et réagir à la publication et à la diffusion de contenus de mésinformation et de désinformation
Les événements récents ont mis en évidence la nécessité de renforcer les capacités de réponse à la propagation d’informations fausses ou trompeuses, tout en bâtissant des sociétés plus résilientes et mieux préparées à faire face aux crises. Une série d’efforts de communication et d’engagement aux niveaux national et international peuvent aider les pouvoirs publics à contrer directement les contenus de mésinformation et de désinformation, et la mise en place d’une fonction de communication publique plus efficace et la promotion de l’éducation aux médias peuvent améliorer la résilience des écosystèmes d’information. Ces initiatives sont pour la plupart de nature non réglementaire, et de nombreux membres de l’OCDE ont commencé à les mettre en place.
Le fil conducteur de bon nombre de ces réponses est le rôle crucial et synergique joué aux côtés des instances publiques par les médias, les organisations de la société civile et le secteur privé. L’information ne se propage pas en vase clos : les médias traditionnels et les vérificateurs de faits, les entreprises technologiques, la société civile et les citoyens eux-mêmes sont des acteurs essentiels de la production et de l’amplification du contenu digne de confiance. Ces interventions sont les suivantes :
Collaborer avec les médias, les organisations de la société civile, les vérificateurs de faits et les plateformes de médias sociaux
Les mesures visant à lutter contre la mésinformation et la désinformation doivent être mises en œuvre dans le contexte de la promotion de l’importance fondamentale de garantir la liberté d’expression, de préserver le rôle d’un journalisme objectif, indépendant et basé sur les faits, et de la garantie d’un espace pour les organisations de la société civile et les médias innovants, non traditionnels, locaux ou communautaires, afin qu’ils puissent se développer et permettre aux écosystèmes d’information de prospérer, sans interférence excessive des pouvoirs publics. En ce qui concerne plus précisément les réponses spécifiques, les pouvoirs publics doivent également s’engager auprès des médias et des organisations de la société civile afin de traiter de manière légitime et transparente les menaces urgentes que représentent la mésinformation et la désinformation. Le manque de clarté concernant les problèmes et les solutions, conjugué au caractère complexe, mondial et rapidement évolutif des défis rencontrés, appelle des efforts plus réfléchis pour favoriser la collaboration entre différents intervenants (OCDE, à paraître[8]). Comme l’a noté la Commission européenne, « les meilleures réponses seront sans doute le fruit de collaborations multipartites » (Commission européenne, 2018[9]).
Un grand nombre d’organisations privées, de vérificateurs de faits, de médias et d’ONG s’efforcent de démentir les informations fausses et trompeuses (Credibility Coalition, 2021[10] ; Khan, 2021[11]), et les gouvernements peuvent soutenir le travail des vérificateurs de faits ou tirer profit de leur voix indépendantes et digne de confiance. Par exemple, dès le début de la crise du COVID-19, des organisations de jeunesse ont lancé des campagnes d’information pour lutter contre les fausses informations, notamment la campagne internationale #youthagainstcovid19 et la campagne nationale #QuédateEnCasa au Mexique, afin de répertorier et de partager les sites web et ressources de démystification et de vérification des faits destinés aux jeunes (OCDE, 2020[12]). En Italie, le gouvernement a réuni un groupe d’experts en vérification des faits, en démystification et en désinformation, et a lancé une campagne d’action conjointe intitulée « #bastabufale », ce qui signifie « stop aux canulars ».
Les pouvoirs publics peuvent également s’attacher à établir des relations transparentes et constructives avec les plateformes en ligne pour la surveillance, le signalement et le traitement des contenus de mésinformation et de désinformation. En vue des élections de 2021, l’Office fédéral allemand de la sécurité des technologies de l’information (BSI) a collaboré avec les médias sociaux pour favoriser une réaction rapide aux menaces potentielles, et a créé une unité chargée de détecter les robots automatisés et les comportements inauthentiques synchronisés (Miguel, 2021[13]). Ces efforts doivent toutefois être entrepris avec prudence, de manière à ne pas entraver la liberté d’expression, en particulier lorsqu’il s’agit de mesures de retraits de contenu (OCDE, à paraître[8]).
Une autre approche, la démystification préventive, consiste à « immuniser » le public contre les messages trompeurs ; elle nécessite d’anticiper les possibles malentendus ou attaques de désinformation et a bénéficié de partenariats et d’engagements (Blastland et al., 2020[14]). On peut citer en guise d’exemple le jeu Go Viral!, développé par l’Université de Cambridge en partenariat avec le Cabinet du Premier ministre britannique. Ce jeu est le fruit de recherches qui ont montré que le public, une fois exposé aux techniques utilisées pour propager de fausses informations en ligne, est à même de mieux identifier le contenu inexact et trompeur et de l’ignorer. Il présente aux joueurs des exemples de fausses nouvelles et de mèmes inventés pour les aider à détecter de tels contenus (Roozenbeek et van der Linden, 2019[15]).
À plus long terme, la coordination et la coopération avec un large éventail d’acteurs peuvent contribuer à la sensibilisation, au partage des connaissances et à la collecte de données sur les interventions efficaces. Par exemple, le gouvernement de la Lettonie a fait appel au Centre balte pour l’excellence des médias, qui a mis en place un réseau informel réunissant des journalistes, des responsables électoraux, des services de sécurité et des représentants gouvernementaux, dans l’objectif d’améliorer la communication et la coopération au cas où les processus électoraux seraient menacés.
La coopération avec les médias et les organisations de la société civile présente un intérêt tout aussi important pour faire avancer les travaux de recherche. Un appui indépendant et une collaboration entre les pouvoirs publics et les chercheurs sur des sujets tels que la compréhension de la création et de la diffusion des messages de désinformation (les méthodes utilisées, leurs auteurs et les raisons qui les motivent), les réponses les plus efficaces et les leçons à tirer des évolutions technologiques antérieures seront précieux pour élaborer les interventions appropriées. Outre l’intérêt que présente l’augmentation des financements directs à la recherche, la participation des milieux universitaires, des instances de réglementation et d’autres organismes compétents aux discussions relatives aux besoins en matière de recherche est utile à la mise en place d’interventions cohérentes et efficaces (Matasick, Alfonsi et Bellantoni, 2020[16]). Par exemple, l’Initiative de citoyenneté numérique du Canada finance des recherches et des activités d’éducation à la citoyenneté et au numérique visant à améliorer la compréhension des sources de la désinformation, de sa propagation et de son impact dans le pays, et à déterminer comment ces activités permettraient d’immuniser davantage les citoyens et de renforcer leur résilience.
Collaborer au niveau international par l’échange d’informations
Le fait que les mythes et les fausses informations puissent se répandre à si grande échelle et avec une telle rapidité – comme on a pu le constater tout au long de la pandémie de COVID-19 – a accentué l’urgence de déployer des efforts pour contrer ce genre de récit par-delà les frontières nationales. Il est donc important de favoriser le dialogue entre tous les acteurs concernés afin de lutter contre ces menaces. À cette fin, les gouvernants peuvent mettre à profit les efforts de collaboration et d’échange d’informations, l’analyse des menaces et les bonnes pratiques. Par exemple, l’Union européenne propose un système d’alerte rapide (RAS) qui facilite le partage des renseignements relatifs aux campagnes de désinformation et permet de coordonner les réponses entre ses États membres. Basé sur des informations de source ouverte, le RAS se fonde sur les éclairages fournis par des établissements universitaires, des vérificateurs de faits, des plateformes en ligne et des partenaires internationaux. De même, en 2014, l’OTAN a créé un centre d’excellence indépendant nommé StratCom, dont la mission est de contribuer aux capacités de communication stratégique de l’Organisation, de ses Alliés et partenaires, notamment par le biais de travaux de recherche et de préparation concernant les menaces posées par la désinformation.3 Lancé en 2018, le mécanisme de réaction rapide (RRM) du G7 vise à renforcer la coordination entre les membres du Groupe et l’identification des menaces qui pèsent sur la démocratie, notamment celles de la mésinformation et de la désinformation.
À l’avenir, la collaboration internationale peut favoriser une plus grande efficacité dans les dispositions réglementaires et inciter les pays attachés à des valeurs similaires à identifier les priorités en matière de réglementation et à étudier les possibilités à envisager et leurs effets. Enfin, la création d’une base de connaissances internationale et l’application des enseignements tirés des expériences tirées dans autres secteurs sont particulièrement utiles pour répondre à l’évolution rapide et à la complexité des arbitrages qu’implique la riposte à la mésinformation et à la désinformation, et soulignent l’utilité de continuer à explorer de nouvelles voies de coopération internationale.
Renforcer les capacités, la réactivité et l’efficacité de la communication publique pour mieux contrer la mésinformation et la désinformation
Développer les capacités de la fonction de communication publique4 de façon à mieux informer les citoyens et à favoriser un écosystème d’information sain peut être essentiel pour contrecarrer les menaces liées à la mésinformation et à la désinformation. Par une communication proactive, transparente et opportune, les pouvoirs publics peuvent non seulement riposter à la propagation de tels contenus, mais également l’empêcher. Des exemples spécifiques des possibilités de renforcement de cette fonction sont présentés ci-dessous :
Gouvernance et institutionnalisation des mesures de communication publique. Les pouvoirs publics doivent formaliser des définitions,5 des politiques et des méthodes afin d’aider à passer d’une lutte ad hoc et fragmentée contre la mésinformation et la désinformation à une approche plus structurée et stratégique. Appuyer la gouvernance et l’institutionnalisation de la fonction de communication publique permet de clarifier les objectifs, de définir des paramètres concrets de mesure de l’impact des activités de communication publique et de justifier les affectations de ressources à ce rôle des pouvoirs publics (OCDE, à paraître[8]). En définitive, grâce au renforcement de cette fonction par l’attribution de mandats clairement définis, l’attribution de ressources institutionnelles appropriées et la mise en place de mécanismes de coordination efficaces, les gouvernements seront davantage en mesure de diffuser des contenus précis et de favoriser la participation citoyenne (Matasick, Alfonsi et Bellantoni, 2020[16]).
Identifier, tracer, contrôler, analyser et évaluer les contenus problématiques et leurs sources. Il est primordial de surveiller les plateformes et canaux publics et ouverts afin d’identifier les contenus problématiques et les récits qui commencent à circuler pour comprendre les argumentaires émergents de mésinformation et de désinformation et élaborer une stratégie de communication efficace. Étant donné que les campagnes de désinformation ont souvent pour objet de susciter des réactions émotionnelles vis-à-vis de leur contenu et de saper la confiance du public cible, il est important que les pouvoirs publics sachent plus précisément comment tracer pareil contenu et y réagir. Par exemple, en Lituanie, les cas éventuels de désinformation sont évalués à l’aide de trois critères : leur source, leurs contenu et contexte, et le moment où le contenu a été diffusé. Une fois combinées, ces informations contribuent à établir un profil clair de la menace potentielle de désinformation.6 Ces activités devraient être menées systématiquement pour permettre, si nécessaire, une intervention dans les plus brefs délais, mais aussi en toute transparence et dans les limites de la confidentialité des données, de façon à préserver la légitimité démocratique (OCDE, à paraître[8]). À cette fin, il convient que les pays déploient des structures, du personnel et des ressources, comme l’Unité de réaction rapide (RRU) du Royaume-Uni, afin que les administrations, à tous les niveaux, disposent de moyens suffisants et que les efforts de lutte contre la mésinformation soient intégrés de manière transparente et responsable.
Néanmoins, le rôle et l’influence des groupes fermés et des messages partagés sur des services cryptés tels que WhatsApp devront être mieux compris. Ces plates-formes proposent aux utilisateurs de précieuses fonctions de protection de la vie privée et de sécurité, mais elles peuvent également constituer d’importants canaux de diffusion en matière de mésinformation et de désinformation, alors même que leur caractère privé et crypté rend impossible l’analyse du contenu que véhiculent ces canaux. Le suivi en temps réel de l’évolution du discours public sur les médias sociaux et les recherches en ligne peut aider les pouvoirs publics à comprendre les récits qui commencent à circuler et à répondre rapidement et efficacement aux nouvelles menaces. En parallèle, les pouvoirs publics doivent veiller à ce que des mécanismes soient instaurés pour empêcher qu’un tel suivi soit utilisé à mauvais escient ou que les utilisateurs soient identifiés et surveillés d’une manière susceptible d’entraver la liberté d’expression, de porter atteinte à la vie privée ou de restreindre la participation démocratique.
Comprendre les besoins des audiences et utiliser les connaissances comportementales pour empêcher la propagation des contrevérités. La collecte et l’analyse des données sur les besoins et les attentes du public sont essentielles à une communication efficace contre la mésinformation et la désinformation (OCDE, à paraître[17]). Grâce aux études d’audience et à l’évaluation des efforts de communication, les pouvoirs publics peuvent s’assurer que leurs messages seront adaptés et pertinents et capteront rapidement l’attention. En outre, les éléments tirés des connaissances comportementales (BI) montrent que les problématiques comportementales, telles que la surcharge d’informations et le biais de confirmation, peuvent compromettre la lutte contre la mésinformation et la désinformation. Une compréhension approfondie du comportement humain est fondamentale pour élaborer des mesures efficaces contre ces phénomènes et contre le déclin de la confiance dans les institutions. Les connaissances comportementales permettent aux États de mieux identifier les populations les plus vulnérables, de mettre au point des solutions innovantes pour atténuer la propagation des fausses informations et ses effets, et de rassembler des éléments probants indiquant les approches les plus efficaces (voir l’Encadré 1.1) (OCDE, 2021[18]). Plus généralement, le recours aux données factuelles, à l’analyse et aux enseignements tirés des sciences comportementales peut aider les États à traduire leurs mesures en résultats probants et innovants, à gérer plus efficacement l’information à l’ère numérique et à mieux relever les défis mondiaux aux fins du renforcement de la démocratie.
Encadré 1.1. Une collaboration internationale pour lutter contre la mésinformation grâce aux connaissances comportementales
Le gouvernement du Canada, en collaboration avec l’OCDE et le gouvernement français, a mené une expérience visant à étudier et influencer les intentions des Canadiens en matière de partage de fausses et de vraies informations sur les médias sociaux. La mise en œuvre d’un essai contrôlé randomisé (ECR) dans le cadre de l’étude longitudinale Impact Canada - Surveillance instantanée COVID-19 (SICO Canada) a permis de tester deux interventions axées sur le comportement. Les deux interventions s’appuyaient sur les travaux de recherche, en plein essor, menées sur le sujet et toutes deux visaient à améliorer la qualité des informations partagées en ligne (c’est-à-dire la préférence pour le partage d’informations dont on peut vérifier qu’elles sont vraies par rapport à des informations dont on peut vérifier qu’elles sont fausses) tout en priorisant l’autonomie des individus. La première intervention consistait en une simple invitation à évaluer l’exactitude d’une information, faite aux répondants en leur demandant d’apprécier l’exactitude d’un gros titre aléatoire avant de leur présenter des gros titres en ligne de type Facebook. La seconde intervention était une liste de conseils en matière d’éducation aux médias. Les enseignements tirés de cette expérience sont les suivants :
1. tout d’abord, les premiers résultats indiquent une déconnexion entre les croyances des participants (N = 1872 participants) et les intentions de partage. Les individus considèrent que les gros titres dont on peut vérifier qu’ils sont vrais sont beaucoup plus précis que ceux dont on peut vérifier qu’ils sont faux (tel que déterminé par des vérificateurs de faits tiers), mais ils sont en revanche beaucoup moins avisés sur le plan de leurs intentions de partage ; autrement dit, ils sont susceptibles de partager des gros titres qu’ils estiment faux ou douteux ;
2. deuxièmement, les premiers résultats de l’intervention expérimentale suggèrent que l’exposition à la fois à la simple invitation à considérer l’exactitude de l’information et aux conseils d’éducation aux médias numériques a augmenté de manière significative les intentions des participants de partager des titres vrais plutôt que faux. À l’inverse des constats établis dans les travaux publiés précédemment, l’efficacité de l’intervention d’éducation aux médias est ressortie bien supérieure à celle de l’invitation à considérer l’exactitude de l’information, les conseils ayant réduit de plus de 20 % les intentions de partage de fausses nouvelles.
Ces résultats démontrent de manière convaincante que des interventions en ligne simples et modulables, présentées aux individus avant qu’ils ne se confrontent à du contenu, peuvent améliorer la qualité des informations qui circulent en ligne. Pour certains, il peut être difficile de croire que des personnes sont (parfois) prêtes à partager des informations qu’elles estiment fausses ou douteuses. Cette étude démontre que tel est bien le cas, et ce probablement en raison d’un manque d’attention à l’exactitude du contenu des nouvelles auxquelles elles sont confrontées dans le contexte des médias sociaux. Bien que des efforts de recherche et d’analyse complémentaires soient nécessaires pour déterminer pourquoi les individus peuvent choisir de partager des informations fausses ou trompeuses en ligne, des études comme celles-ci restent essentielles pour questionner les hypothèses sur le comportement humain, créer des solutions plus efficaces et modulables axées sur le public qu’elles visent, et orienter les travaux futurs à même d’améliorer la robustesse des connaissances sur les défis comportementaux mondiaux comme la mésinformation et la désinformation.
Source : Gouvernement du Canada
Conception et diffusion de contenu dans une optique d’inclusion. La diffusion de messages clairs et adaptés sur les canaux appropriés contribue à toucher tous les segments de la société, y compris les groupes qui sont moins susceptibles d’être exposés aux informations officielles ou de leur faire confiance. À cette fin, il est essentiel d’élaborer et de mettre en œuvre des campagnes de communication stratégiques et de veiller à ce que les informations exactes parviennent aux publics cibles de manière préventive, pour contrer la propagation d’informations fausses ou trompeuses. Dans le cadre de la riposte à la crise liée au COVID-19, de nombreux pays ont mis au point des processus faisant appel à des messagers fiables, tels que des membres d’une communauté particulière, des scientifiques et des médecins, ou encore des influenceurs ; ces messagers ont été chargés de présenter les informations pertinentes au moment voulu, sous une forme faisant autorité et non politisée, de telle sorte qu’elles atteignent le plus de franges possible de la population (OCDE, à paraître[8]). Les pouvoirs publics peuvent également apporter un appui sous la forme d’informations et d’orientations aux messagers de confiance pour les aider à contrer la mésinformation et la désinformation. Dans cet esprit, le Community Toolkit for Addressing Health Misinformation mis au point par les États-Unis propose des recommandations et des mesures pratiques, étape par étape, qui s’adressent aux « messagers de confiance » communautaires.
Améliorer l’éducation aux médias par des campagnes de sensibilisation et l’éducation civique
Le maintien de la liberté d’expression et d’un internet ouvert signifie que la mésinformation et la désinformation ne disparaîtront jamais. Au vu de la priorité accordée à la réduction des risques systémiques liés à la propagation de ces informations, les pouvoirs publics devraient également s’attacher à renforcer la résilience à long terme au niveau des citoyens, pour mieux les armer à faire la différence entre ce qui est conforme ou contraire à la vérité voire fallacieux, et à être davantage conscients de leur rôle dans la prévention de cette propagation. L’éducation aux médias et à l’information joue un rôle important pour aider à protéger la société contre les menaces en question, tout en donnant au public les moyens de tirer parti des avantages des plateformes en ligne et sociales.
Les efforts d’éducation aux médias et à l’information visent à renforcer la capacité des citoyens à reconnaître et à ignorer les informations fausses et trompeuses. Ils peuvent être centrés sur des campagnes ou passer par l’éducation civique. À titre d’exemple, on peut citer la campagne australienne « Stop and Consider » (Buckmaster et Wils, 2019[19]), qui visait à encourager l’électorat à vérifier soigneusement les sources d’informations électorales (Commission électorale australienne, 2019[20]). La Belgique a également eu recours à des mesures d’éducation aux médias par le biais d’un site web destiné à informer les citoyens sur la mésinformation et la désinformation ‑ (Funke et Flamini, 2020[21] ; Mon Opinion, 2021[22]). En Lettonie, le ministère de la Culture a utilisé des publicités sur les médias sociaux pour promouvoir de faux titres d'actualité ; en cas de clic, l'utilisateur était redirigé vers des ressources d'éducation aux médias. En un mois, la campagne a touché plus de 895 000 personnes, dont 129 000 ont vu les informations sur l'éducation aux médias (Ministère letton de la Culture, 2021[23]).
L’éducation civique peut consister à intégrer l’éducation aux médias dans les programmes scolaires et universitaires existants, ainsi qu’à former les enseignants à délivrer ces contenus (Burns et Gottschalk, 2020[24]).7 Il existe des mesures en ce sens, comme celles prises par le ministère de la Culture en France et le Conseil supérieur de l’éducation aux médias en Belgique, dont l’objectif est de proposer des outils, des formations et des possibilités d’échanges entre élèves et journalistes afin de renforcer la résilience à la désinformation (Matasick, Alfonsi et Bellantoni, 2020[16] ; Suarez-Alvarez, 2021[25]).8 En outre, en 2008, le ministère néerlandais de l’Éducation, de la Culture et de la Science a créé le réseau néerlandais d’éducation aux médias, qui rassemble un large éventail de partenaires issus de toute la société en vue de promouvoir la sensibilisation et le partage des connaissances, l’expertise et les ressources pertinentes en matière d’éducation aux médias (Dutch Media Literacy Network, 2022[26]). En Finlande, la politique nationale d’éducation aux médias précise les mesures nationales adoptées pour proposer une telle éducation de qualité, systématique et complète, en faisant appel à divers acteurs. Les efforts de la Finlande sont structurés dans le cadre de son action plus large visant à renforcer la démocratie et l’éducation, et s’appuient sur des activités d’éducation aux médias qui ont débuté dans les années 1950.9
1.2.2. Empêcher la publication et la diffusion de la mésinformation et de la désinformation par des mesures d’amélioration de la transparence
Outre les actions visant à lutter contre les menaces immédiates ou à renforcer la résilience des sociétés face à la mésinformation et à la désinformation, les États peuvent adopter des réglementations et d’autres types de mesures afin d’accroître la transparence des plateformes en ligne. Compte tenu de l’asymétrie de connaissances entre plateformes en ligne et instances publiques sur le mode de diffusion des contenus et sur les interventions efficaces, la transparence est essentielle pour permettre aux acteurs gouvernementaux et non gouvernementaux de développer une meilleure compréhension nécessaire pour éclairer la prise de décisions.
Dans le même ordre d’idées, bien qu’elle soit plutôt axée sur la lutte contre les contenus terroristes et extrémistes violents en ligne (TVEC), la Direction de la science, de la technologie et de l’innovation (STI) de l’OCDE a élaboré le Cadre pour l’établissement de rapports de transparence volontaires (VTRF). Cet outil propose une norme commune pour l’établissement de rapports de transparence TVEC afin que les services de partage de contenu en ligne puissent fournir des informations sur leurs politiques et actions liées aux contenus TVEC.10 Son application et l’analyse dérivée des rapports VTRF peuvent contribuer à éclairer les réponses réglementaires visant à promouvoir la transparence des rapports en matière de mésinformation ou de désinformation, ainsi qu’à sous-tendre les futurs efforts volontaires internationaux de collecte d’informations pertinentes auprès des plateformes.
Concernant les réponses réglementaires, les gouvernements doivent impérativement s’associer aux médias et aux organisations de la société civile, tant dans l’élaboration que dans l’application des réglementations en matière de transparence, et ce afin d’en garantir l’utilité, de servir l’intérêt général et de donner la garantie de ne pas s’ingérer dans la libre circulation de l’information. Ces mesures sont notamment les suivantes :
Imposer des exigences en matière de partage des données aux plateformes en ligne
La collecte de données et la publicité ciblée nourrissent l’« économie de l’attention ». En encourageant les entreprises à mettre en avant le type de contenu qui retient l’attention du public, que ce contenu soit conforme à la vérité ou non, cette économie concourt à la propagation de la mésinformation et de la désinformation (Balkin, 2020[27] ; 2016[28]). Adossée à des garanties appropriées de respect de la vie privée et à des mécanismes de surveillance destinés à prévenir les atteintes à la liberté de parole et d’expression, la capacité accrue d’identifier et de retracer ce qui relève de la mésinformation ou de la désinformation‑ et de collecter des données sur les interventions efficaces contribuera à mieux comprendre les enjeux et à concevoir des réponses politiques efficaces. Plus précisément, par exemple, le fait de mieux comprendre les sources et le contenu des campagnes de désinformation menées par des acteurs étrangers peut aider les services de répression, de sécurité et de renseignement à mieux évaluer et appréhender la menace d’une influence étrangère dans les affaires intérieures (McCallum, 2021[29]).
Pour favoriser la mise à disposition et l’échange des informations et données sur la mésinformation et la désinformation entre les secteurs public et privé, l’État peut envisager de promouvoir des partenariats avec des chercheurs et des plateformes externes aux fins du partage et de l’analyse des données des plateformes en ligne (OCDE, à paraître[8]). Par exemple, la coordination de l’échange d’informations entre les plateformes et les autorités pourrait se faire par l’intermédiaire d’une organisation de partage et d’analyse de l’information (ISAO) ou d’un centre de partage et d’analyse de l’information (ISAC). Tant qu’il existe des protections et des structures suffisantes pour respecter les lois sur la protection de la vie privée, ces plateformes peuvent collecter des informations pertinentes et accepter le partage volontaire d’informations entre le secteur privé et le secteur public (DiResta, 2021[30]). Les partenariats, dans la mesure où les entreprises sont disposées à partager des informations, peuvent inclure des initiatives de données ouvertes relatives à la mésinformation et à la désinformation, en plus des accords d’accès et de partage de données fermées ou sécurisées conclus entre pouvoirs publics, entreprises technologiques et chercheurs indépendants. En 2015, le gouvernement américain a encouragé la création d’ISAO pour que les entreprises privées, les organismes sans but lucratif et les ministères et organismes gouvernementaux puissent échanger des informations sur les cybermenaces et les meilleures pratiques. Il a également instauré des protections de limitation de responsabilité pour les organisations qui partagent volontairement des renseignements sur les menaces entre elles et avec les instances publiques par l’intermédiaire de ces canaux (Gouvernement des États-Unis, Bureau du Président, 2015[31]).
De plus, une nouvelle législation pourrait établir un cadre juridique visant à imposer le partage avec les chercheurs externes de diverses métadonnées, et notamment d’informations relatives à la désinformation et aux contenus supprimés. Le gouvernement australien a annoncé qu’il proposerait une loi basée sur le rapport que lui a remis l’Autorité australienne pour les communications et les médias (ACMA) sur l’adéquation des mesures des plateformes numériques en matière de désinformation et de qualité de l’information.11 L’intention des autorités est en l’occurrence de donner à l’ACMA la possibilité de collecter des informations sur les contenus spécifiques à l’Australie, ainsi que des données sur les mesures prises pour lutter contre la mésinformation et la désinformation sur les plateformes de médias sociaux. L’Australie pourra également créer un groupe d’action sur la désinformation et la mésinformation afin de soutenir la collaboration et le partage d’informations entre les autorités, le secteur privé, les chercheurs et la société civile (Ministre australien des Communications, des Infrastructures urbaines, des Villes et des Arts, 2022[32]). De même, le projet de loi sur les obligations de responsabilité et de transparence des plateformes (Platform Accountability and Transparency Act) du Sénat américain a pour ambition d’instaurer un processus par lequel les chercheurs universitaires pourraient avoir accès à des informations sur le fonctionnement des plateformes de médias sociaux. De leur côté, les entreprises seraient tenues de divulguer certaines données internes et de répondre aux demandes formulées dans le cadre de recherches indépendantes. La proposition a aussi pour objet de protéger les chercheurs de toute responsabilité juridique et d’exiger que les plateformes communiquent de manière proactive certaines informations aux chercheurs ou au public.12 Tous les efforts visant à renforcer le partage des données doivent toutefois être menés en veillant au respect de la vie privée et à la protection des libertés civiles des personnes (Stamos et al., 2019[33]).
Si la collecte de ces données à partir des plateformes de médias sociaux nécessitera probablement une réglementation imposant un partage accru des données, les pouvoirs publics devraient également renforcer leur propre capacité à surveiller les données recueillies, à les analyser et à les interpréter. Il conviendra à cet égard de développer les compétences des fonctionnaires et d’établir des partenariats constructifs avec les médias, les milieux universitaires et la société civile, afin de mieux cerner les défis à surmonter et y apporter des réponses plus efficaces.
Instaurer un cadre de transparence efficace autour de la modération du contenu
L’une des mutations profondes dans le mode de diffusion de l’information concerne le rôle joué par les plateformes en ligne dans la sélection, l’amplification et la modération du contenu généré par les utilisateurs. Nombre des cadres réglementaires qui s’appliquent aux médias traditionnels (à l’exception des contenus illégaux) ne s’appliquent pas aux médias sociaux ni aux autres plateformes en ligne. Ces cadres ne s’appliqueraient d’ailleurs pas ici étant donné les modèles fondamentalement différents de création et de distribution de contenus. Jusqu’à présent, c’est essentiellement en réponse aux pressions sociales et gouvernementales que les plateformes ont procédé à la modération du contenu. Cette logique d’autoréglementation pour l’essentiel donne aux entreprises privées un contrôle de facto sur les informations qui sont partagées sur ces espaces importants pour la diffusion des informations et l’engagement. Dans le même temps, les réglementations gouvernementales spécifiques au contenu qui étendent les restrictions au-delà des discours illégaux présentent des risques évidents en matière de liberté de parole et d’expression.
Il est donc important d’examiner les questions de processus et d’encourager les plateformes à établir un cadre qui régisse la manière de structurer leurs activités de modération de contenu. Ce cadre pourrait ainsi exiger qu’elles mettent en place des garanties pour les utilisateurs, par exemple la possibilité pour ceux-ci de contester les décisions qu’elles prennent en matière de modération de contenu, ou leur imposer des mesures de transparence visant à clarifier leur approche et leurs décisions. De telles mesures ont déjà été proposées, notamment dans la législation sur les services numériques (Digital Services Act, ou DSA) de la Commission européenne. En outre, l’État devrait surtout veiller à s’assurer de sa capacité à surveiller les pratiques d’autoréglementation, à comprendre les motivations de la participation à un régime d’autoréglementation et à réfléchir au rapport coûts-bénéfices d’une telle souplesse réglementaire.
Les principes sous-jacents de la transparence accrue de la modération des contenus visent à protéger les utilisateurs contre les contenus faux ou trompeurs, tout en assurant la transparence et la protection des utilisateurs à l’égard des décisions prises concernant leur contenu. Ces objectifs peuvent être réalisés au moyen des mesures ci-dessous :
Exiger des plateformes en ligne qu’elles expliquent en langage clair et simple, dans leur politique de modération du contenu ou leurs conditions d’utilisation, comment elles modèrent le contenu (prise de décision algorithmique, vérification par des humains) (les résultats de l’OCDE indiquent cependant que seule une petite partie des consommateurs lisent les conditions d’utilisation des plateformes dans leur intégralité, ce qui suggère que les informations importantes et pertinentes devraient être diffusées selon des moyens permettant aux utilisateurs d’y accéder et de les comprendre plus facilement (OCDE, 2017[34]).
Leur imposer d’énoncer des règles claires concernant les utilisateurs qui enfreignent les conditions d’utilisation de manière répétée.
Renforcer la transparence pour les utilisateurs concernant le retrait ou de la rétrogradation d’un contenu, les raisons de la décision et les outils utilisés pour prendre cette décision.
Exiger des plateformes en ligne qu’elles communiquent régulièrement sur les mesures prises contre la mésinformation et la désinformation, en fournissant éventuellement un aperçu de la manière dont le contenu a été supprimé ou dépriorisé, le nombre de comptes suspendus, la manière dont le contenu a été signalé, etc.13
Exiger des plateformes en ligne un contrôle régulier de la mise en œuvre de leur politique de gestion des contenus, visant à identifier les domaines à risque de détournement ou d’usage à mauvais escient.
Une approche fondée sur le risque, qui tient compte de la taille et de la portée des services et plateformes, pourrait également contribuer à réaliser le double objectif consistant à encourager l’innovation tout en protégeant les droits de l’homme et le discours démocratique. Alors que les plateformes de médias sociaux mettent en relation de plus en plus de personnes et prennent une dimension de plus en plus importante dans le discours public, par exemple, leurs répercussions potentielles et les risques qu’elles représentent pour les individus et la société augmentent également. Les grandes plateformes peuvent, par conséquent, faire face à des obligations plus strictes que les petites plateformes. Dans la pratique, ce compromis s’avère particulièrement compliqué pour ce qui est des plateformes de médias sociaux, qui brouillent les frontières entre consommateurs et producteurs d’informations, ce qui rend la réglementation d’autant plus difficile à élaborer (OCDE, 2018[35]).
En particulier, la proposition de législation sur les services numériques de la Commission européenne impose des exigences supplémentaires aux très grandes plateformes en ligne pour qu’elles procèdent à une évaluation annuelle visant à identifier les risques systémiques, dont « la manipulation intentionnelle et (…) coordonnée du service de la plateforme, avec un effet prévisible sur la santé, le discours civique, les processus électoraux et la sécurité publique », ainsi que des mesures d’atténuation de ces risques (Commission européenne, 2020[36]). Cette législation les oblige également à prendre en compte la manière dont leurs systèmes de modération des contenus, de recommandation, de sélection et d’affichage des publicités influencent la propagation de contenus illicites ou relevant de la manipulation.
D’autres approches s’inspirent des efforts déployés pour proposer de grandes orientations sur les meilleures pratiques, les normes et les règles préétablies relatives à la modération transparente des contenus.14 Dans l’UE, le Code de bonnes pratiques en matière de désinformation a été le premier instrument d’autoréglementation auquel les acteurs majeurs du secteur, dont Facebook, Google, Microsoft, Mozilla, TikTok et Twitter, ont adhéré volontairement. Il fixe « un large éventail d’engagements, allant de la transparence dans la publicité politique à la fermeture des faux comptes et à la diabolisation des fournisseurs de désinformation ».15 Il comprend une annexe répertoriant les meilleures pratiques que les signataires appliqueront pour mettre en œuvre leurs engagements. La Commission européenne a récemment avancé des propositions visant à renforcer la mise en œuvre du Code,16 dans le but qu’il puisse devenir un instrument de coréglementation, comme l’indique sa proposition de législation sur les services numériques. Y sont énoncées les normes de transparence que les plateformes doivent établir en ce qui concerne la manière dont elles détectent, identifient et traitent les contenus incompatibles avec leurs conditions générales (Commission européenne, 2020[36]).
La modération de contenu touche à des questions normatives concernant la liberté d’expression, l’accès à l’information et le droit d’avoir des opinions différentes, ainsi qu’à la question de savoir quel type de contenu peut être considéré comme « factuel ou véridique » et quel type de contenu est « faux ou trompeur ». Les gouvernements doivent être attentifs à ce qu’aucune réglementation, quelle qu’elle soit, ne serve à limiter la liberté de parole ou d’expression ou ne pénalise injustement les petites plateformes, ce qui ferait basculer le marché davantage en faveur de celles qui ont le plus d’envergure et de puissance. Les gouvernements devront donc s’associer au secteur et aux groupes de la société civile pour garantir que la liberté d’expression et les autres droits des utilisateurs soient protégés de manière à favoriser l’engagement démocratique.
Améliorer la transparence et la compréhension des algorithmes
La personnalisation de l’expérience des utilisateurs que les plateformes de communication en ligne peuvent proposer constitue également un changement nouveau et fondamental dans la manière dont les gens s’engagent vis-à-vis de l’information. Les algorithmes auxquels recourent certaines plateformes de médias sociaux peuvent tenter de prévoir ce que chaque utilisateur souhaite consulter en tirant parti des éléments recueillis à partir de métadonnées, dont sa localisation, le temps qu’il a passé sur un contenu spécifique ou son utilisation d’une application (Jarboe, 2020[37]). Ainsi, l’utilisateur reçoit les contenus jugés pertinents pour lui, et non dans l’ordre dans lequel ils sont publiés sur la plateforme. Certains algorithmes ne font pas de distinction entre les publicités, la propagande, la désinformation et les données factuelles vérifiées (DiResta, 2018[38]).
De plus, ils peuvent abreuver les utilisateurs d’informations qui tendent à correspondre à leurs opinions et à leurs croyances, au risque de créer des « chambres d’écho » ou des « bulles de filtrage » qui renforcent et confirment des idées préconçues. La Commission européenne constate que l’utilisation d’algorithmes opaques par des plateformes largement utilisées a permis la propagation de fausses informations et de messages polarisants, notamment par le biais de campagnes de désinformation (Commission européenne, 2020[39]). Pour lutter contre la mésinformation et la désinformation, les pays pourraient obliger les plateformes en ligne à faire preuve de transparence sur les paramètres de leurs algorithmes. Cette transparence est la principale priorité de certaines initiatives gouvernementales, telles que le projet de loi britannique sur la sécurité en ligne (Ministère britannique du Numérique, de la Culture, des Médias et des Sports, 2021[40]).
Outre les exigences de transparence, les pouvoirs publics, les médias et les organisations de la société civile pourraient encourager le renforcement de la responsabilité et proposer des orientations ou une aide pour la mise en place de garde-fous autour de la conception des algorithmes afin qu’ils diffusent des contenus plus diversifiés, avec moins de mésinformation et de désinformation. Comme l’a souligné la Première ministre néo-zélandaise Jacinda Ardern, si les algorithmes des plateformes de médias sociaux peuvent personnaliser l’expérience des utilisateurs, ils peuvent aussi la rendre plus extrême et radicalisée. Ainsi, outre le « besoin pressant et urgent » d’une plus grande transparence sur le fonctionnement des algorithmes et les résultats qu’ils produisent, la Première ministre a également appelé à la création d’une approche commune pour le développement et le déploiement d’algorithmes responsables (Prime Minister Jacinda Ardern, 2022[41]). Dans sa législation sur les services numériques, par exemple, la Commission européenne a proposé, comme mesure pour promouvoir la responsabilité des plateformes, des règles exigeant de ces dernières qu’elles réalisent des évaluations des risques et se soumettent à des contrôles indépendants de la manière dont leurs algorithmes hiérarchisent et ciblent les informations (Commission européenne, 2020[39]).
Accroître l’activité en ligne authentique et contrer l’ingérence étrangère
Les plateformes de médias sociaux ont poursuivi leurs efforts pour limiter l’effet des contenus et comportements inauthentiques coordonnés et manipulés, et les initiatives visant à accroître l’authenticité de l’engagement en ligne apportent une contribution importante à cet objectif. Par exemple, le fait de valider que les comptes de ces plateformes peuvent être associés à de véritables individus permet de limiter la propagation de la désinformation, puisqu’en éliminant le risque que des robots déclenchent délibérément des points de bascule de la désinformation, les plateformes sont en mesure réduire les risques de préjudice (Gladwell, 2000[42] ; The Economist, 2009[43]). S’agissant d’empêcher l’utilisation de faux comptes ou de les supprimer, les pays pourraient exiger que les robots soient étiquetés ou fournir davantage d’orientations concernant les obligations pour les médias sociaux de stimuler l’activité authentique. Ils pourraient également fournir des directives sur la manière d’identifier les faux documents d’identité de leur propre nationalité. Bien entendu, toute mesure prise pour promouvoir l’activité authentique et limiter l’engagement inauthentique doit être respectueuse des droits de l’homme quant à ce qui concerne la liberté d’expression et le respect de la vie privée des individus, et assurer, dans toute la mesure du possible, la sensibilisation, la participation et le contrôle des individus sur l'utilisation et le partage des informations personnelles.
D’autres mesures visent à lutter contre les campagnes de mésinformation et de désinformation déployées par des lobbyistes ou des influenceurs qui, sciemment ou par inadvertance, mettent en avant des contenus mensongers sur certains sujets ou produits (Alderman, 2021[44] ; Fisher, 2021[45] ; OCDE, 2021[46]). Par exemple, pendant la pandémie de COVID-19, des sociétés spécialistes de l’arnaque se faisant passer pour des cabinets de relations publiques ont démarché des influenceurs et des producteurs de contenu en France et en Allemagne pour les inciter à propager des messages de désinformation (Alderman, 2021[44]). Cette technique a été utilisée par des entités étrangères qui cherchaient à intervenir dans les affaires d’un pays donné, par des gouvernements non démocratiques à l’encontre de leur propre population et par des groupes nationaux désireux d’étendre leur pouvoir (Fisher, 2021[45]).
Contrer cette menace nécessite plus de transparence dans les registres des bénéficiaires effectifs et une meilleure communication de l’information sur les entreprises ou personnes qui soutiennent financièrement la diffusion de certains contenus (Khan, 2021[11]). À cette fin, par exemple, le système de transparence en matière d’influence étrangère (FITS) mis en place en Australie cherche à réduire le risque posé par l’ingérence étrangère, qui désigne les efforts secrets, trompeurs et coercitifs visant à interférer avec les processus politiques ou étatiques pilotés ou entrepris par ou au nom d’acteurs étrangers (Gouvernement de l'Australie, 2019[47]). Par ailleurs, les pays pourraient améliorer les mesures d’incitation et imposer des obligations de diligence aux entreprises pour qu’elles rehaussent leur transparence en ce qui concerne les métadonnées liées aux groupes et acteurs qui diffusent des contenus spécifiques (Balkin, 2020[27]).
En outre, les autorités ont la possibilité d’exiger le signalement de certains types de contenus manipulés numériquement et trompeurs. On pense notamment aux deepfakes (ou hypertrucages), ces contenus audiovisuels qui ont toutes les apparences du vrai mais sont en réalité forgés de toutes pièces. Pour leurs auteurs, le principe consiste à manipuler la voix ou l’image d’une personne pour lui faire dire ou faire ce qu’ils souhaitent, potentiellement à des fins de désinformation (van Huijstee et al., 2021[48]). Cette technique a été utilisée dans le cadre de fraudes pour imiter la voix du PDG d’une entreprise et inciter l’un de ses employés à effectuer un transfert de fonds de cette dernière (Stupp, 2019[49]). Elle a également été exploitée dans des campagnes de désinformation pour cibler des militants des droits civiques et à des fins d’incitation à la haine (Mezzofiore, 2018[50] ; MIT Open Documentary Lab, 2020[51]). Sachant que ces contenus sont désormais plus faciles à concevoir et plus difficiles à détecter, l’utilisation de deepfakes aux fins de campagnes de désinformation est un sujet de forte préoccupation (Sen, 2021[52]). Aussi une course technologique s’est-elle engagée afin de développer des outils d’IA capables de les repérer (Andrews, 2020[53] ; Diaz, 2021[54]).
Pour contrer ce risque, l’UE propose d’imposer une obligation de signaler les contenus générés par des moyens automatisés, sauf dans les cas où le but est légitime (application de la loi et liberté d’expression) (Commission européenne, 2021, p. 5.2.4[55]). Parmi les autres mesures proposées par l’UE figurent l’interdiction de certaines applications, des obligations légales pour les fournisseurs de technologies deepfake et un soutien institutionnalisé aux victimes de ce type de contenu (van Huijstee et al., 2021[48]). Aux États-Unis, la proposition de loi sur la responsabilité en matière de deepfakes (Deepfakes Accountability Act) vise, entre autres, à obliger les producteurs de ces contenus à leur appliquer certains filigranes numériques et à communiquer des informations sur le contenu (Congrès des États-Unis, 2019[56]) ; l’État de Californie a quant à lui criminalisé l’utilisation de deepfakes dans la publicité politique (la loi ne s’applique toutefois pas aux médias d’information, à la parodie ou à la satire) (Statt, 2019[57]).
1.2.3. Réduire les facteurs économiques et structurels de la mésinformation et de la désinformation
Les pouvoirs publics peuvent également adopter des mesures non directement liées à la mésinformation et la désinformation, mais produisant néanmoins des effets importants sur les facteurs structurels et économiques sous-jacents qui influent sur sa propagation. C’est l’approche qu’a embrassé la Commission européenne (CE) avec sa législation DSA et sa législation sur les marchés numériques (Digital Markets Act, ou DMA), en s’attachant à instaurer et maintenir des conditions de concurrence équitables pour les services numériques ; garantir une conduite responsable des plateformes en ligne ; promouvoir la confiance, la transparence et garantir l’équité sur ces plateformes ; et préserver l’ouverture des marchés en promouvant un environnement plus équitable et en incitant de nouveaux services à faire leur entrée sur le marché.17
L’analyse et la mise à profit des enseignements tirés des stratégies et des mesures mises en œuvre sur des marchés similaires et d’autres en évolution rapide peuvent aider les États à mieux comprendre les nouvelles technologies et leurs implications, et à élaborer des approches plus flexibles. Voici quelques-unes des réponses pertinentes, à explorer plus avant, pour jouer sur les déterminants économiques et structurels :
Utiliser des mesures de concurrence
Les innovations liées à la transformation numérique se sont traduites par d’importants bénéfices pour le consommateur, notamment des prix plus bas, une plus grande accessibilité et commodité, davantage de choix et de nouveaux produits. Dans le même temps, plusieurs freins à la concurrence ont été identifiés sur de nombreux marchés numériques : problèmes de structure de marché, pratiques anticoncurrentielles, activité de fusion, notamment. Les secteurs à forte intensité numérique tendent par ailleurs à connaître de plus forts niveaux de concentration du marché de même que de plus faibles taux d’entrée de nouvelles entreprises (OCDE, 2019[58] ; OCDE, 2022[59]). Ces tendances sont préoccupantes dans la mesure où les données montrent qu’une concurrence saine sur les marchés contribue à stimuler l’innovation, et sert la croissance et le bien-être à long terme (OCDE, à paraître[17]).
Des mesures appropriées en faveur de la concurrence peuvent également avoir des effets sur le comportement (et les incitations) des grandes plateformes en ligne susceptibles de propager la mésinformation et la désinformation. En effet, les plateformes en ligne les plus influentes bénéficient de ressources importantes, de bases d’utilisateurs mondiales et connectées en réseaux, ainsi que d’un accès à de vastes quantités de données qui peuvent être utilisées pour renforcer les effets de réseau, cibler les produits et orienter les décisions des consommateurs. Conjugués, ces facteurs peuvent créer un contexte qui rend plus difficile pour le consommateur de changer facilement de service, et conduire à des pratiques anticoncurrentielles susceptibles d’étouffer l’innovation (OCDE, à paraître[17]). L’évolution des dynamiques de marché a également impacté le secteur de l’information, ainsi que la manière dont les gens consomment et partagent l’information. Ces facteurs peuvent entrainer des distorsions du marché, ainsi que la domination d’algorithmes susceptibles de favoriser une intensification de la mésinformation et de la désinformation. Dès lors, encourager l’entrée de nouveaux acteurs et promouvoir l’innovation peut permettre de stimuler la concurrence entre les plateformes en ligne sur les sujets de la protection de la vie privée, de la portabilité des données, de même que des politiques de modération du contenu, entre autres.
Pour endiguer ces risques, des outils de régulation du marché et de promotion de la concurrence pourraient s’avérer utiles, notamment :
Les pouvoirs publics pourraient contraindre les grandes plateformes en ligne à garantir aux médias une rémunération « juste » en contrepartie de l’utilisation de leur contenu. Les grandes plateformes en ligne ont bouleversé la physionomie des marchés publicitaires, chamboulant radicalement les incitations des éditeurs de presse traditionnels financés par la publicité. En février 2021, l’Australie a adopté un code de négociation applicable aux médias d’information et aux plateformes numériques visant à remédier au déséquilibre existant dans leur pouvoir de négociation entre les grandes plateformes en ligne et les éditeurs de presse (Commission australienne de la concurrence et de la protection des consommateurs, 2020[60]). Ce code exige des entreprises de presse et des plateformes numériques désignées qui choisissent d’entrer en discussion qu’elles négocient de bonne foi. À défaut d’accord sur la rémunération dans un délai de trois mois, un mécanisme d’arbitrage prévu par le code est activé pour résoudre le différend (Commission australienne de la concurrence et de la protection des consommateurs, 2020[60]).18 De la même manière, en juillet 2019, la France a adopté une loi transposant une directive de l’UE sur les droits d’auteur et les droits voisins et prévoyant des critères de rémunération pour l’utilisation d’extraits de publications de presse sur les plateformes en ligne (Autorité de la concurrence, 2020[61]). En avril 2020, l’autorité de la concurrence française a pris des mesures conservatoires à l’encontre de Google, forçant celle-ci à conduire des négociations de bonne foi avec les éditeurs et agences de presse sur la rémunération de la reprise de leurs contenus protégés (Autorité de la concurrence, 2020[61]).
Les États pourraient renforcer les contrôles sur les fusions et les « acquisitions tueuses » (killer acquisitions). Le terme « acquisition tueuse » désigne le rachat par un grand groupe d’une plus petite entreprise ou d’une startup innovante susceptible de se poser en concurrente. C’est une pratique largement répandue chez les géants du numérique. Par exemple, entre 2001 et 2021, Google a racheté 258 entreprises. Autrement dit, la société a conclu plus d’une transaction par mois. Facebook a utilisé une pratique similaire pour racheter 90 entreprises sur une période de 16 ans (2005 à 2021), soit une transaction tous les deux mois (Nadler et Cicilline, 2020[62] ; American Economic Liberties Project, 2021[63]). Certaines de ces opérations ont pu freiner l’innovation, et l’effet de concentration limiter la concurrence et la disponibilité de sources d’information de confiance (Nadler et Cicilline, 2020[62]). En outre, dans la mesure où elle ne laisse que peu de choix au consommateur, la concentration de l’offre peut également se traduire par une moindre incitation des grandes plateformes en ligne à rivaliser sur le plan qualitatif.
Les pouvoirs publics pourraient envisager des réformes plus structurelles pour contenir le pouvoir de marché des plateformes numériques. Par exemple, des politiques de concurrence mises en œuvre pour lutter contre la mésinformation et la désinformation pourraient permettre de limiter la capacité des médias sociaux à accaparer plusieurs fonctions. Les plateformes de médias sociaux jouent un rôle important dans la diffusion de la publicité mais aussi de l’information (par ex. : lorsqu’un utilisateur diffuse un évènement en direct). Séparer leur activité de média social de leurs activités publicitaires pourrait se justifier par la nécessité de promouvoir la diversité des médias et de protéger le journalisme, même si des travaux de recherche plus approfondis seraient nécessaires pour comprendre les implications et l’efficacité d’une telle approche.
Néanmoins, un paysage législatif fragmenté pour les plateformes entraîne des coûts pour les entreprises et les consommateurs, accroît l’incertitude et peut empêcher l’innovation au service du bien-être. La promotion d’une approche globale plus cohérente de la détermination et de la mise en œuvre de la réglementation pertinente renforcerait l’efficacité des efforts déployés par les États (OCDE, à paraître[17]). Au vu du caractère récent de bon nombre des politiques adoptées, de la complexité et de la taille des entreprises concernées ainsi que de l’évolution rapide des technologies et des marchés, un travail d’analyse approfondi de même qu’un dialogue continu avec les parties prenantes concernées seront par ailleurs nécessaires pour comprendre l’impact de ces mesures sur la propagation de contenus faux et trompeurs et sur les arbitrages économiques.
Promouvoir la qualité et la sécurité lors de la conception des plateformes
Tout comme dans les autres activités d’ingénierie et de conception, soumises au respect d’un ensemble commun de normes techniques établissant des exigences sur le plan qualitatif et sur le plan de la sécurité, les plateformes en ligne pourraient aussi devoir répondre à des exigences plus strictes en la matière, permettant de limiter les risques de mésinformation et de désinformation. L’intérêt des pouvoirs publics (et des sociétés) à garantir la qualité et la sécurité des plateformes est lié à leur utilité et à leur impact dans la société, ainsi qu’à la place qu’elles y occupent. Les considérations particulières relatives à la conception de la plateforme sont liées aux considérations techniques dans le choix de la conception, de l’architecture et de l’ingénierie qui impactent la nature des informations partagées et leur mode de diffusion (Forum sur l’information et la démocratie, 2020[64]). Par exemple, les États pourraient concentrer leurs efforts sur la mise au point de processus, normes et tests spécifiques et quantifiables visant à soutenir une conduite responsable des entreprises et à promouvoir la sécurité des services en ligne, et mobiliser experts techniques et parties prenantes concernées aux fins de l’élaboration de lignes directrices ou de codes pour les plateformes sociales et autres communs numériques (Forum sur l’information et la démocratie, 2020[64]).
À cette fin, les Principes directeurs pour les entreprises multinationales de l’OCDE, de même que d’autres normes internationales,19 peuvent guider les États dans leurs efforts visant à se doter d’un cadre propice à une conduite responsable des entreprises (CRE), qui aide ces dernières à identifier les impacts négatifs directement ou indirectement liés à leur activité et à y répondre (OCDE, 2014[65] ; 2011[66]). Parmi les exemples d’efforts déployés par les pouvoirs publics pour adopter une approche CRE figure le UK Online Safety Bill, au Royaume-Uni. Ce projet de loi vise à introduire une obligation de protéger les « contenus importants pour la démocratie », ainsi que des mesures prévoyant une évaluation du risque et la mise en œuvre d’une procédure de vigilance pour limiter le risque de préjudice. De la même manière, la législation sur les services numériques de l’UE prévoit des obligations liées au devoir de diligence qui visent à promouvoir un environnement en ligne transparent et sûr (Commission européenne, 2020[36]).
Une question corollaire se pose lorsqu’on examine comment l’accès des plateformes de médias sociaux à des quantités importantes de données à caractère personnel peut être utilisé comme un moyen de diffuser des informations fausses ou trompeuses. Les campagnes de désinformation font usage des données privées pour catégoriser les individus et identifier ceux qu’il y a lieu de cibler par des messages personnalisés (Privacy International, 2021[67] ; Khan, 2021[11]). Par conséquent, les efforts pour réglementer l’utilisation des données privées (possibilités et interdictions) par les tiers et les plateformes en ligne auront un impact sur la capacité d’une campagne de désinformation à faire mouche. Par exemple, le UK Online Safety Bill prévoit des obligations particulières en matière de liberté d’expression et de respect de la vie privée. Il vise notamment à imposer à tous les prestataires de services de protéger leurs utilisateurs, dans les limites prévues par la loi, contre la censure et les atteintes injustifiées à la vie privée (Ministère britannique du Numérique, de la Culture, des Médias et des Sports, 2021[40]). Des efforts pour protéger la vie privée sont aussi observés au sein de l’UE, avec le règlement général sur la protection des données ou la Directive « Police-Justice » (Commission européenne, 2021[68]).
Une contribution et un engagement de la part d’un large éventail de partenaires seront nécessaires afin de garantir que les réponses apportées par la réglementation soient à la hauteur des besoins démocratiques et ne compromettent pas outre mesure l’innovation. Il est important, également, de réfléchir à la manière de mettre en place une collaboration efficace avec les partenaires autres que les pouvoirs publics pour élaborer la réglementation dans cet environnement complexe et très évolutif. En effet, il est difficile de travailler avec les acteurs et les instruments politiques traditionnels dès lors qu’il est impossible de savoir comment la technologie va évoluer et quels seront ses impacts.
Nous avons besoin d’instruments qui encouragent la flexibilité et l’innovation et contraignent les pouvoirs publics à améliorer leur capacité à travailler avec les développeurs et les utilisateurs de technologies (OCDE, 2018[69]). Par exemple, les bacs à sable réglementaires et les bancs d’essai sont des processus de cocréation conçus pour aider les pouvoirs publics à mieux appréhender une nouvelle technologie et ses conséquences règlementaires, tout en donnant aux partenaires extérieurs la possibilité de tester cette nouvelle technologie et les nouveaux modèles économiques (OCDE, 2018[69]). Pour les produits et les entreprises en ligne, les modèles réglementaires sont souvent très différents de ceux des marchés traditionnels et peuvent ne pas correctement s’adapter aux cadres existants. Cette problématique est exacerbée par le rythme rapide de la transformation numérique, qui rend les évolutions du marché et les préoccupations futures difficiles à prévoir. Dans ces cas, les bacs à sable peuvent contribuer à accroître la flexibilité et à réduire l’incertitude réglementaire, tout en instaurant des relations plus étroites entre les régulateurs et les entreprises (Attrey, Lesher et Lomax, 2020[70]). Les codes de conduite et les évaluations technologiques en temps réel sont d’autres exemples de solutions plus flexibles.
De manière générale, il convient que les approches collaboratives de l’élaboration de la réglementation s’attachent à impliquer un large éventail de parties prenantes : société civile, vérificateurs de faits, médias et organisations universitaires, notamment. Ceci pourra s’avérer particulièrement utile compte tenu du rythme des évolutions dans le secteur, de sa complexité ainsi que du rôle essentiel qu’il joue dans l’engagement démocratique (Koulolias et al., 2018[71]).
Promouvoir et préserver la diversité et l’indépendance du secteur des médias
Les États peuvent aussi lutter contre la mésinformation et la désinformation en renforçant le secteur des médias et de l’information, et s’attacher à cette fin à promouvoir la diversité et l’indépendance éditoriale ainsi qu’à garantir la diffusion d’une information de qualité. Les efforts des autorités en la matière s’appuieront en partie sur des politiques permettant l’émergence d’un environnement favorable pour les organisations de la société civile (notamment les groupes de surveillance des médias) et protégeant les médias de toute vampirisation par des intérêts particuliers (Nelson, 2017[72]). L’objectif est de décourager la concentration du marché et d’encourager l’innovation ainsi que le développement de nouvelles plateformes en ligne appartenant à différentes entreprises, pour offrir plus de choix aux utilisateurs (Balkin, 2020[27]). La création de nouvelles plateformes peut s’accompagner du développement de nouveaux environnements de médias sociaux, normes et communautés propres à celles-ci, ce qui multiplierait les possibilités pour les utilisateurs.
En outre, les pouvoirs publics peuvent prendre des mesures anti-monopoles et encourager une concurrence loyale pour prévenir toute captation des médias. Les mesures pourraient notamment s’employer à prévenir les situations dans lesquelles de grandes entreprises technologiques ou du secteur des médias rachètent des agences de presse indépendantes, et font ensuite usage du contrôle qu’elles exercent pour influencer indûment les contenus (Stiglitz, 2017[73]). Outre les modèles privés de fourniture d’information, les organismes à but non lucratif (comme la rédaction américaine Pro Publica) et les médias de service public (comme la BBC) peuvent jouer un rôle important dans l’espace médiatique. Les radiodiffuseurs publics, notamment, affichent les notes les plus élevées sur les indices de confiance, tout au moins dans les pays où leur indépendance n’est pas mise en cause (Newman et al., 2018[74]).
Un soutien financier transparent et indépendant en faveur d’un journalisme de qualité peut aussi contribuer à lutter contre la captation des médias par les grandes entreprises technologiques, qui peuvent menacer de priver les médias traditionnels de leurs incitations financières, par exemple en bloquant les abonnés et les annonceurs. Certains pays, comme l’Autriche, la Suède, la Norvège et les Pays-Bas, limitent ce risque en accordant des subventions aux journaux qui publient des contenus politiques, culturels et économiques (Greenwell, 2017[75] ; Schiffrin, 2017[76]). Les pouvoirs publics pourraient aussi soutenir les initiatives (au plan national et via les mécanismes de développement internationaux) qui assurent une formation aux journalistes citoyens et aux organes de presse traditionnels sur la manière de gérer l’engagement public, afin d’encourager la participation des citoyens et des communautés à la production d’information. Un contrôle clair et indépendant peut permettre de garantir l’impartialité et un soutien des pouvoirs publics aux nouveaux diffuseurs sous une forme qui encourage l’engagement démocratique et le libre échange d’informations.
Plus généralement, les pouvoirs publics peuvent réfléchir, de façon stratégique, à la manière dont les médias peuvent faciliter l’échange d’informations et aux conséquences de l’évolution des technologies sur la manière dont l’information est reçue et partagée, ainsi qu’aux moyens de tirer parti des initiatives de la société civile pour promouvoir l’indépendance et l’efficacité des médias. Ainsi, le gouvernement irlandais a créé la Future of Media Commission, une commission indépendante chargée d’étudier les défis posés aux radiodiffuseurs publics, radiodiffuseurs commerciaux, plateformes de presse écrite et en ligne. Cette commission a également organisé des dialogues publics autour des questions liées aux sources de financement, à l’évolution du comportement des audiences et à l’évolution des technologies.20 La Journalism Trust Initiative (JTI ou Initiative pour la fiabilité de l’information), gérée par Reporters sans frontières, cherche quant à elle à créer un espace d’information plus sain avec des indicateurs de fiabilité du journalisme et de respect des normes et de l’éthique professionnelle. La JTI peut être utilisée par les régulateurs et les acteurs étatiques comme un mécanisme d’autoréglementation indépendant pour allouer des subventions et des avantages aux médias.
1.3. Conclusions
L’ampleur du défi posé par la mésinformation et la désinformation exige que soit défini un large éventail de mesures, pensées à l’échelle des pouvoirs publics et de la société. Les efforts ne doivent pas s’arrêter aux frontières nationales, car la mésinformation et la désinformation transcendent ces frontières, ni ne trouver d’écho qu’auprès des seuls pouvoirs publics. Les initiatives actuelles et proposées doivent refléter les défis interdisciplinaires et systémiques rencontrés, et être élaborées et mises en œuvre en partenariat avec les médias et des organisations de la société civile compétentes sur toute une série de questions, telles que les droits légaux et les droits de l’homme, la cybersécurité et la protection de la vie privée, la concurrence ou encore l’ingérence étrangère, entre autres. Les États devront s’attacher à mettre en place des politiques et des initiatives à même de répondre aux menaces immédiates et de promouvoir une plus grande résilience de la société, en complément de mesures règlementaires visant à accroître la transparence et la prévention, et à contrer les déterminants économiques et structurels de la mésinformation et de la désinformation.
Pour commencer, il convient de s’interroger sur la manière dont les pouvoirs publics, les médias et les organisations de la société civile peuvent coopérer plus efficacement pour bâtir des relations solides et constructives, mais aussi sur les mécanismes nécessaires pour garantir à ces organisations et médias une indépendance suffisante pour tenir les pouvoirs publics comptables de leur action. La nature de ces défis implique que seule une action collective apportera les changements nécessaires pour renforcer les espaces d’information, instaurer la confiance et consolider la démocratie. En s’inspirant des bonnes pratiques existantes, l’OCDE a développé un plan d'action exposant les mesures concrètes que les pays peuvent prendre pour traiter les questions mentionnées dans ce chapitre par des réformes ambitieuses et efficaces : www.oecd.org/governance/reinforcing-democracy/.
Références
[44] Alderman, L. (2021), « Influencers Say They Were Urged to Criticize Pfizer Vaccine », The New York Times,, https://www.nytimes.com/2021/05/26/business/pfizer-vaccine-disinformation-influeners.html (consulté le 3 mars 2022).
[63] American Economic Liberties Project (2021), « Big Tech Merger Tracker », American Economic Liberties Project, https://www.economicliberties.us/big-tech-merger-tracker/ (consulté le 3 mars 2022).
[53] Andrews, E. (2020), « Using AI to Detect Seemingly Perfect Deep-Fake Videos », Stanford Institute of Human-Centered Artificial Intelligence, https://hai.stanford.edu/news/using-ai-detect-seemingly-perfect-deep-fake-videos (consulté le 5 octobre 2021).
[70] Attrey, A., M. Lesher et E. Lomax (2020), The role of sandboxes in promoting Flexibility and innovation in the digital age, https://goingdigital.oecd.org/data/notes/No2_ToolkitNote_Sandboxes.pdf.
[61] Autorité de la concurrence (2020), « Droits voisins : l’Autorité fait droit aux demandes de mesures conservatoires présentées par les éditeurs de presse et l’AFP », Autorité de la concurrence, https://www.autoritedelaconcurrence.fr/fr/communiques-de-presse/droits-voisins-lautorite-fait-droit-aux-demandes-de-mesures-conservatoires.
[27] Balkin, J. (2020), « How to Regulate (and Not Regulate) Social Media », https://knightcolumbia.org/content/how-to-regulate-and-not-regulate-social-media.
[28] Balkin, J. (2016), « Information Fiduciaries and the First Amendment », UC David Law Review, vol. 49/4, pp. 1183–1234.
[14] Blastland, M. et al. (2020), « Five rules for evidence communication », Nature, vol. 587/7834, pp. 362-364, https://doi.org/10.1038/d41586-020-03189-1.
[19] Buckmaster, L. et T. Wils (2019), « Responding to fake news », Parliamentary Library Briefing Book, https://www.aph.gov.au/About_Parliament/Parliamentary_Departments/Parliamentary_Library/pubs/BriefingBook46p/FakeNews.
[24] Burns, T. et F. Gottschalk (dir. pub.) (2020), Education in the Digital Age: Healthy and Happy Children, La recherche et l’innovation dans l’enseignement, Éditions OCDE, Paris, https://doi.org/10.1787/1209166a-en.
[60] Commission australienne de la concurrence et de la protection des consommateurs (2020), Draft news media bargaining code, Commission australienne de la concurrence et de la protection des consommateurs, https://www.accc.gov.au/focus-areas/digital-platforms/draft-news-media-bargaining-code.
[20] Commission électorale australienne (2019), « AEC encouraging voters to “stop and consider” this federal election », Commission électorale australienne, https://www.aec.gov.au/media/media-releases/2019/04-15.htm.
[55] Commission européenne (2021), Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final, Commission européenne, Bruxelles, https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF.
[68] Commission européenne (2021), « Protection des données dans l’UE », https://ec.europa.eu/info/law/law-topic/data-protection/data-protection-eu_fr.
[36] Commission européenne (2020), Législation sur les services numériques, https://ec.europa.eu/info/digital-services-act-ensuring-safe-and-accountable-online-environment_fr.
[39] Commission européenne (2020), Plan d’action pour la démocratie européenne : renforcer les démocraties de l’UE, COM(2020) 790 final, https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_2250.
[9] Commission européenne (2018), A multi-dimensional approach to disinformation: Report of the independent High level Group on fake news and online disinformation, Direction générale des réseaux de communication, du contenu et des technologies, Commission européenne.
[56] Congrès des États-Unis (2019), H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019, Congress.gov, Library of Congress, https://www.congress.gov/bill/116th-congress/house-bill/3230 (consulté le 12 octobre 2021).
[10] Credibility Coalition (2021), Our goal: to understand the veracity, quality and credibility of online information, Credibility Coalition, https://credibilitycoalition.org/ (consulté le 3 mars 2022).
[54] Diaz, J. (2021), « Facebook Researchers Say They Can Detect Deepfakes And Where They Came From », NPR, https://www.npr.org/2021/06/17/1007472092/facebook-researchers-say-they-can-detect-deepfakes-and-where-they-came-from?t=1633428935377.
[30] DiResta, R. (2021), Dancing in the Dark: Disinformation Researchers Need More Robust Data and Partnerships, National Endowment for Democracy, Global Insights Series, https://www.ned.org/wp-content/uploads/2021/01/Disinformation-Researchers-Robust-Data-Partnerships-DiResta-1.pdf.
[38] DiResta, R. (2018), « Free Speech Is Not the Same As Free Reach », Wired, https://www.wired.com/story/free-speech-is-not-the-same-as-free-reach/.
[26] Dutch Media Literacy Network (2022), Dutch Media Literacy Network, https://netwerkmediawijsheid.nl/over-ons/about-dutch-media-literacy-network/ (consulté le 13 septembre 2022).
[1] Edelman (2022), Edelman Trust Barometer 2022, https://www.edelman.com/sites/g/files/aatuss191/files/2022-01/2022%20Edelman%20Trust%20Barometer%20FINAL_Jan25.pdf.
[45] Fisher, M. (2021), « Disinformation for Hire, a Shadow Industry, Is Quietly Booming », The New York Times, https://www.nytimes.com/2021/07/25/world/europe/disinformation-social-media.html (consulté le 3 mars 2022).
[64] Forum sur l’information et la démocratie (2020), Working Group on Infodemics: Policy Framework, https://informationdemocracy.org/wp-content/uploads/2020/11/ForumID_Report-on-infodemics_101120.pdf (consulté le 7 septembre 2021).
[21] Funke, D. et D. Flamini (2020), « A guide to anti-misinformation actions around the world », Poynter, https://www.poynter.org/ifcn/anti-misinformation-actions/ (consulté le 3 mars 2022).
[42] Gladwell, M. (2000), The tipping point: how little things can make a big difference, Little, Brown and Company, Boston.
[47] Gouvernement de l’Australie (2019), Foreign Influence Transparency Scheme - Factsheet 2, https://www.ag.gov.au/sites/default/files/2020-03/influence-versus-interference.pdf.
[31] Gouvernement des États-Unis, Bureau du Président (2015), Executive Order - Promoting Private Sector Cybersecurity Information Sharing, https://obamawhitehouse.archives.gov/the-press-office/2015/02/13/executive-order-promoting-private-sector-cybersecurity-information-shari.
[75] Greenwell, T. (2017), « Journalism is in peril. Can government help? », Inside Story, https://insidestory.org.au/journalism-is-in-peril-can-government-help/.
[37] Jarboe, G. (2020), « How Do Social Media Algorithms Work? », Search Engine Journal, https://www.searchenginejournal.com/how-social-media-algorithms-work/380642/.
[11] Khan, I. (2021), Désinformation et liberté d’opinion et d’expression, Assemblée générale des Nations Unies, Conseil des droits de l’homme, https://www.ohchr.org/fr/documents/thematic-reports/ahrc4725-disinformation-and-freedom-opinion-and-expression-report (consulté le 3 mars 2022).
[71] Koulolias, V. et al. (2018), Combating Misinformation: An Ecosystem in Co-Creation, ICA, https://www.ica-it.org/images/publications/Combating-misinformation.pdf.
[2] Lesher, M., H. Pawelec et A. Desai (2022), « Disentangling untruths online: Creators, spreaders and how to stop them », Going Digital Toolkit, OCDE, Paris, https://goingdigital.oecd.org/data/notes/No23_ToolkitNote_UntruthsOnline.pdf.
[16] Matasick, C., C. Alfonsi et A. Bellantoni (2020), « Les mesures de gouvernance publique face à la désinformation : Comment les principes de gouvernement ouvert peuvent éclairer les choix stratégiques », Documents de travail de l’OCDE sur la gouvernance publique, n° 39, Éditions OCDE, Paris, https://doi.org/10.1787/a4000a8c-fr.
[29] McCallum, K. (dir. pub.) (2021), Director General Ken McCallum gives annual threat update 2021, MI5 - The Security Service, Londres, https://www.mi5.gov.uk/news/director-general-ken-mccallum-gives-annual-threat-update-2021.
[5] Meco, L. et K. Wilfore (2021), Gendered disinformation is a national security problem, https://www.brookings.edu/techstream/gendered-disinformation-is-a-national-security-problem/.
[50] Mezzofiore, G. (2018), « No, Emma Gonzalez did not tear up a photo of the Constitution », CNN, https://edition.cnn.com/2018/03/26/us/emma-gonzalez-photo-doctored-trnd/index.html (consulté le 5 octobre 2021).
[13] Miguel, R. (2021), The battle against disinformation in the upcoming federal election in Germany: Actors, initiatives and tools, EU DisinfoLab, https://www.disinfo.eu/publications/the-battle-against-disinformation-in-the-upcoming-federal-election-in-germany-actors-initiatives-and-tools/#_ftn14 (consulté le 25 février 2022).
[40] Ministère britannique du Numérique, de la Culture, des Médias et des Sports (2021), Draft Online Safety Bill, Presented to Parliament by the Minister of State for Digital and Culture by Command of Her Majesty, https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/985033/Draft_Online_Safety_Bill_Bookmarked.pdf.
[23] Ministère letton de la Culture (2021), Kultūras ministrijas medijpratības kampaņa “Zini, kā neuzķerties!” sasniegusi teju 895 000 unikālo lietotāju, https://www.km.gov.lv/lv/jaunums/kulturas-ministrijas-medijpratibas-kampana-zini-ka-neuzkerties-sasniegusi-teju-895-000-unikalo-lietotaju.
[32] Ministre australien des Communications, des Infrastructures urbaines, des Villes et des Arts (2022), New disinformation laws, https://minister.infrastructure.gov.au/fletcher/media-release/new-disinformation-laws.
[51] MIT Open Documentary Lab (2020), « Brandi Collins-Dexter, Jane Lytvynenko & Karen Hao | Deepfakes, parody, and disinformation », http://opendoclab.mit.edu/presents/brandi-collins-dexter-jane-lytvynenko-karen-hao-deepfakes-parody-disinformation/.
[22] Mon Opinion (2021), « Concertations - MonOpinion », https://monopinion.belgium.be/processes (consulté le 3 mars 2022).
[62] Nadler, J. et D. Cicilline (2020), Investigation of Competition in Digital Markets, United States of America: Subcommittee on Antitrust, Commercial and Administrative Law of the Committee on the Judiciary, https://judiciary.house.gov/uploadedfiles/competition_in_digital_markets.pdf?utm_campaign=4493-519 (consulté le 3 mars 2022).
[72] Nelson, M. (2017), « What is to be done? Options for combating the menace of media capture », dans Schiffrin, A. (dir. pub.), In the Service of Power : Media Capture and the Threat to Democracy, 143–162, National Endowment for Democracy, Washington, D.C., https://www.cima.ned.org/wp-content/uploads/2017/08/CIMA_MediaCaptureBook_F1.pdf#page=151.
[74] Newman, N. et al. (2018), Reuters Institute Digital News Report – 2018, Reuters Institute for the Study of Journalism, http://www.digitalnewsreport.org/.
[77] OCDE (2022), « L’établissement de rapports de transparence sur les contenus terroristes et extrémistes violents en ligne : Une mise à jour sur les 50 principaux services de partage de contenus », Documents de travail de l’OCDE sur l’économie numérique, n° 313, Éditions OCDE, Paris, https://doi.org/10.1787/e1a12ade-fr.
[59] OCDE (2022), OECD Handbook on Competition Policy in the Digital Age, OCDE, Paris, https://www.oecd.org/daf/competition-policy-in-the-digital-age/.
[18] OCDE (2021), An International Collaboration to tackle Misinformation with Behavioural Insights.
[46] OCDE (2021), Lobbying in the 21st Century: Transparency, Integrity and Access, Éditions OCDE, Paris, https://doi.org/10.1787/c6d8eff8-en.
[4] OCDE (2021), OECD Report on Public Communication: The Global Context and the Way Forward, Éditions OCDE, Paris, https://doi.org/10.1787/22f8031c-en.
[12] OCDE (2020), « Les jeunes et le COVID-19 : Réponses, relance et résilience », Les réponses de l’OCDE face au coronavirus (COVID-19), Éditions OCDE, Paris, https://doi.org/10.1787/b626230b-fr.
[58] OCDE (2019), Vers le numérique : Forger des politiques au service de vies meilleures, Éditions OCDE, Paris, https://doi.org/10.1787/7cba1873-fr.
[69] OCDE (2018), OECD Science, Technology and Innovation Outlook 2018: Adapting to Technological and Societal Disruption, Éditions OCDE, Paris, https://doi.org/10.1787/sti_in_outlook-2018-en.
[35] OCDE (2018), Politique de la réglementation : Perspectives de l’OCDE 2018, Éditions OCDE, Paris, https://doi.org/10.1787/9789264305458-fr.
[34] OCDE (2017), « Trust in peer platform markets: Consumer survey findings », Documents de travail de l’OCDE sur l’économie numérique, n° 263, Éditions OCDE, Paris, https://doi.org/10.1787/1a893b58-en.
[65] OCDE (2014), Rapport annuel 2014 sur les principes directeurs de l’OCDE à l’intention des entreprises multinationales : La conduite responsable des entreprises par secteur, Éditions OCDE, Paris, https://doi.org/10.1787/mne-2014-fr.
[7] OCDE (2012), « Recommandation du Conseil concernant la politique et la gouvernance réglementaires », Instruments juridiques de l’OCDE, OECD/LEGAL/0390, OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0390.
[66] OCDE (2011), Les Principes directeurs de l’OCDE à l’intention des entreprises multinationales, Édition 2011, Éditions OCDE, Paris, https://doi.org/10.1787/9789264115439-fr.
[17] OCDE (à paraître), Comité de la politique de l’économie numérique (CPEN), Réunion ministérielle thème 1 : Les leviers numériques de l’économie mondiale.
[3] OCDE (à paraître), Comité de la politique de l’économie numérique (CPEN), Réunion ministérielle thème 2 : Bâtir des sociétés meilleures.
[8] OCDE (à paraître), Principles of Good Practice for Public Communication Responses to Mis- and Disinformation.
[41] Prime Minister Jacinda Ardern (2022), Prime Minister Ardern Commencement Address to Harvard University, https://news.harvard.edu/gazette/story/2022/05/jacinda-arderns-forceful-warning-democracies-can-die/.
[67] Privacy International (2021), Rapport de l’ONU : Désinformation et liberté d’opinion et d’expression, Privacy International, https://privacyinternational.org/news-analysis/4515/un-report-disinformation-role-privacy (consulté le 22 septembre 2021).
[15] Roozenbeek, J. et S. van der Linden (2019), « Fake news game confers psychological resistance against online misinformation », Palgrave Communications, vol. 5/1, https://doi.org/10.1057/s41599-019-0279-9.
[76] Schiffrin, A. (2017), « How Europe fights fake news », Columbia Journalism Review, https://www.cjr.org/watchdog/europe-fights-fake-news-facebook-twitter-google.php.
[52] Sen, D. (2021), « Explained: Why is it becoming more difficult to detect deepfake videos, and what are the implications? », https://indianexpress.com/article/explained/explained-deepfake-video-detection-implications-7247635/ (consulté le 5 octobre 2021).
[33] Stamos, A. et al. (2019), « Combatting State-Sponsored Disinformation Campaigns from State-aligned Actors », dans McFaul, M. (dir. pub.), Securing American Elections : Prescriptions for Enhancing the Integrity and Independence of the 2020 U.S. Presidential Election and Beyond, Stanford Cyber Policy Center, pp. 48–49, https://fsi.stanford.edu/publication/securing-american-elections-prescriptions-enhancing-integrity-and-independence-2020-us.
[57] Statt, N. (2019), « China makes it a criminal offense to publish deepfakes or fake news without disclosure », The Verge, https://www.theverge.com/2019/11/29/20988363/china-deepfakes-ban-internet-rules-fake-news-disclosure-virtual-reality.
[73] Stiglitz, J. (2017), « Toward a taxonomy of media capture », dans Schiffrin, A. (dir. pub.), In the Service of Power : Media Capture and the Threat to Democracy, 9–18, National Endowment for Democracy, Washington, D.C., https://www.cima.ned.org/wp-content/uploads/2017/08/CIMA_MediaCaptureBook_F1.pdf#page=151.
[49] Stupp, C. (2019), « Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case », The Wall Street Journal, https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402 (consulté le 5 octobre 2021).
[25] Suarez-Alvarez, J. (2021), « Are 15-year-olds prepared to deal with fake news and misinformation? », PISA à la loupe, n° 113, Éditions OCDE, Paris, https://doi.org/10.1787/6ad5395e-en.
[43] The Economist (2009), Tipping point, The Economist, https://www.economist.com/news/2009/04/20/tipping-point.
[48] van Huijstee, M. et al. (2021), Tackling deepfakes in European policy, Service de recherche du Parlement européen, https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf.
[6] Wardle, C. et H. Derakshan (2017), Les désordres de l’information. Vers un cadre interdisciplinaire pour la recherche et l’élaboration des politiques, http://tverezo.info/wp-content/uploads/2017/11/PREMS-162317-GBR-2018-Report-desinformation-A4-BAT.pdf.
Notes
← 1. Commission européenne (2020, p. 18[39]), Plan d'action pour la démocratie européenne : renforcer les démocraties de l'UE, COM(2020) 790 final.
← 2. Voir également (Lesher, Pawelec et Desai, 2022[2]) pour une typologie des contenus mensongers en ligne, notamment la tromperie contextuelle, la propagande et la satire.
← 4. La communication publique est à distinguer de la communication politique, qui est liée aux élections ou aux partis politiques, et désigne la fonction gouvernementale consistant à délivrer des informations aux citoyens, les écouter et leur répondre au service du bien commun (OCDE, 2021[4]).
← 5. Les définitions élaborées par les gouvernements peuvent s’appuyer sur les travaux existants ; voir par exemple Lesher, Pawelec et Desai (2022[2]), "Disentangling untruths online: Creators, spreaders and how to stop them", Going Digital Toolkit Note, No. 23, https://goingdigital.oecd.org/data/notes/No23_ToolkitNote_UntruthsOnline.pdf
← 6. Décret du gouvernement de la Lituanie, n° 955, 26 août 2020.
← 7. Pour en savoir plus, consultez le projet Enfants du 21e siècle du Centre pour la recherche et l’innovation dans l’enseignement (CERI) de l’OCDE, en particulier Enfants du 21e siècle : Risques et résilience à l’ère du numérique.
← 8. Des données récentes tirées du PISA ont montré qu’en moyenne 54 % des élèves des pays de l’OCDE ont déclaré avoir été formés à l’école sur la manière de reconnaître si une information est biaisée ou non. Sur les pays de l’OCDE, plus de 70 % des élèves ont indiqué avoir reçu cette formation en Australie, au Canada, au Danemark et aux États-Unis. Ce pourcentage passe à moins de 45 % en Israël, en Lettonie, en République slovaque, en Slovénie et en Suisse (Suarez-Alvarez, 2021[25]).
← 10. Pour en savoir plus, voir : https://www.oecd.org/digital/vtrf/
← 11. https://www.acma.gov.au/report-government-adequacy-digital-platforms-disinformation-and-news-quality-measures
← 12. Pour en savoir plus, voir : https://www.coons.senate.gov/news/press-releases/coons-portman-klobuchar-announce-legislation-to-ensure-transparency-at-social-media-platforms.
← 13. Pour obtenir un aperçu des rapports de transparence sur les contenus TVEC des principaux services de partage de contenu en ligne, voir : OCDE (2022[77]), « L’établissement de rapports de transparence sur les contenus terroristes et extrémistes violents en ligne : Une mise à jour sur les 50 principaux services de partage de contenus », Documents de travail de l’OCDE sur l’économie numérique, n° 313, Éditions OCDE, Paris, https://doi.org/10.1787/e1a12ade-fr.
← 14. Voir également les principes de Santa Clara 2.0 de 2020 et les recommandations en matière de transparence formulées dans le cadre politique 2020 du Groupe de travail sur les infodémies du Forum sur l’information et la démocratie (Forum sur l’information et la démocratie, 2020[64]).
← 17. Pour en savoir plus, voir : https://digital-strategy.ec.europa.eu/en/policies/online-platforms
← 18. Voir également : https://www.accc.gov.au/system/files/Final%20legislation%20as%20passed%20by%20both%20houses.pdf
← 19. Par exemple, les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme et la Déclaration de principes tripartite sur les entreprises multinationales et la politique sociale de l’OIT.
← 20. Pour en savoir plus, voir : https://futureofmediacommission.ie/