Les gouvernements reconnaissent de plus en plus la nécessité de renforcer l'intégrité de l'information, en particulier dans trois domaines clés: renforcer la transparence et la responsabilité, favoriser la résilience face à la désinformation et améliorer la gouvernance afin de protéger les écosystèmes d’information. Certains vont au-delà des approches basées sur l'autorégulation pour améliorer la transparence des plateformes et de la modération des contenus. Les gouvernements se concentrent également sur les moyens de réduire le déclin des médias indépendants et de leur pluralisme et sur le renforcement des capacités au sein de la société et du gouvernement pour lutter contre la mésinformation et la désinformation, notamment en améliorant l’éducation et l’éducation aux médias. Cependant, l'action a été lente par rapport à la montée rapide de la mésinformation et de la désinformation au cours de la dernière décennie. Les gouvernements doivent travailler ensemble et avec l'ensemble de la société pour trouver des solutions holistiques et constructives. La Recommandation de l’OCDE sur l’Intégrité de l’Information, en cours de développement, proposera un standard international pour agir dans des cadres démocratiques.
L’initiative de l’OCDE pour renforcer la démocratie
1. Gouvernance publique pour lutter contre la mésinformation et la désinformation
Copier le lien de 1. Gouvernance publique pour lutter contre la mésinformation et la désinformationAbstract
1.1. Introduction
Copier le lien de 1.1. IntroductionUne démocratie saine exige que les populations aient accès à des informations fiables. C'est ce qui permet au public de mieux comprendre les décisions prises par le gouvernement, et donc de se forger des opinions politiques éclairées et de demander des comptes aux personnalités publiques. Toutefois, la propagation accélérée d’informations fausses et trompeuses gravement préjudiciables ces dernières années, souvent par le biais de campagnes de désinformation délibérées menées par des acteurs nationaux ou étrangers, constitue une menace fondamentale pour les institutions démocratiques, compromettant l’accès à des informations fiables, créant de la confusion, polarisant différents groupes au sein de la société et sapant l’essence même de la démocratie. Cela a placé la question de la lutte contre la mésinformation et la désinformation au premier rang des priorités des politiques gouvernementales dans de nombreux pays de l'OCDE.
Selon les résultats de l’enquête sur la confiance de 2023, (OCDE, 2024[1]) 11 % en moyenne ont identifié la mésinformation et la désinformation comme l’un des trois principaux problèmes auxquels leur pays est confronté, et ce chiffre dépasse 20 % en Tchéquie, en Corée et en République slovaque. La confiance dans les médias traditionnels souffre également de difficultés dans l’environnement informationnel, étant donné qu’en moyenne, seulement 39 % des personnes ont une confiance élevée ou modérément élevée dans les médias d’information, un niveau similaire à celui qu’ils ont dans leur gouvernement national, tandis que 44 % font état d’une confiance faible ou nulle dans les médias. Les résultats mettent également en évidence des différences marquées selon les groupes d’âge, étant donné qu’une proportion plus élevée de personnes âgées de 50 ans et plus s’appuient sur des reportages de journalistes ou d’organisations, tandis que pour les jeunes, les réseaux sociaux sont devenus la principale source d’informations, 68 % d’entre eux obtenant des informations de cette manière. Ces résultats récents mettent en évidence l'ampleur des défis auxquels sont actuellement confrontés les gouvernements dans ce domaine et soulignent la pertinence des domaines d'action inclus dans le Plan d'Action et examinés dans le chapitre ci-dessous.
Alors que la mésinformation et la désinformation ont toujours existé, les progrès technologiques dans la communication via les plateformes numériques et les moteurs de recherche ont fondamentalement modifié la façon dont l'information est diffusée, ce qui rend beaucoup plus facile la diffusion rapide de fausses informations. En outre, les développements dans les outils d'intelligence artificielle générative ont permis de faire de fausses informations convaincantes, y compris des photos et des vidéos, rapidement et à faible coût. Dans ce contexte, la promotion de l’intégrité de l’information et la lutte contre la désinformation sont au cœur de l’initiative de l’OCDE pour le Renforcement de la Démocratie.
Le Plan d’Action sur la gouvernance publique pour lutter contre la mésinformation et la désinformation (ci-après le «Plan d’Action») a recensé trois domaines clés et les mesures nécessaires pour y remédier :
Domaine clé 1 – Mettre en œuvre les politiques gouvernementales pour construire des sociétés plus résilientes contre la mésinformation et la désinformation ;
Domaine clé 2 – Soutenir la conception de mesures politiques et réglementaires visant à accroître la transparence et le partage des données afin de prévenir la propagation de la mésinformation et de la désinformation ; et
Domaine clé 3 – Recenser les réponses réglementaires et politiques qui réduisent les facteurs économiques et structurels de la mésinformation et de la désinformation.
Depuis l’accueil favorable du Plan d’Action par les ministres à Luxembourg, la plateforme de l’OCDE pour l’intégrité de l’information (anciennement la plateforme de ressources DIS/MIS de l’OCDE) et le groupe d’experts de l’OCDE sur les réponses de gouvernance à la mésinformation et à la désinformation ont publié le document intitulé « Les Faits sans le Faux : Lutter contre la désinformation, renforcer l’intégrité de l’information » (OCDE, 2024[2]).
Comme l'indique le rapport, l'OCDE a mis en évidence trois dimensions complémentaires des réponses politiques des gouvernements (OCDE, 2024[2]) :
Mettre en œuvre des politiques pour améliorer la transparence, la responsabilisation et la pluralité des sources d’information : Il s'agit notamment de promouvoir des politiques qui soutiennent un secteur des médias diversifié, pluriel et indépendant, en mettant l'accent sur le journalisme local. Il comprend également des politiques qui peuvent être utilisées pour accroître le degré de responsabilité et de transparence des plateformes en ligne, afin que leur pouvoir de marché et leurs intérêts commerciaux ne contribuent pas de manière disproportionnée à faire circuler la désinformation.
Favoriser la résilience de la société face à la désinformation : Cela implique de donner aux individus les moyens de développer leur esprit critique, de reconnaître et de combattre la désinformation, ainsi que de mobiliser tous les secteurs de la société pour élaborer des politiques globales et fondées sur des données probantes à l’appui de l’intégrité de l’information.
Renforcer les mesures de gouvernance et les institutions publiques afin de préserver l’intégrité de l’espace de l’information: Cela implique l'élaboration et la mise en œuvre, le cas échéant, de capacités réglementaires, de mécanismes de coordination, de cadres stratégiques et de programmes de renforcement des capacités qui soutiennent une vision et une approche cohérentes pour renforcer l'intégrité de l'information au sein de l'administration publique, tout en garantissant des mandats clairs et le respect des libertés fondamentales. Il s’agit également de promouvoir l’apprentissage par les pairs et la coopération internationale entre les démocraties confrontées à des menaces de désinformation similaires.
Ce chapitre recense les progrès accomplis par les pays de l’OCDE dans leurs efforts visant à promouvoir l’intégrité de l’information et à lutter contre la mésinformation et la désinformation, ainsi que les lacunes potentielles par rapport au plan d’action adopté à Luxembourg, en s’appuyant sur le rapport susmentionné et sur les travaux d’autres comités de l’OCDE.
1.2. Domaine clé 1 – Mise en œuvre des politiques gouvernementales visant à bâtir des sociétés plus résilientes contre la mésinformation et la désinformation
Copier le lien de 1.2. Domaine clé 1 – Mise en œuvre des politiques gouvernementales visant à bâtir des sociétés plus résilientes contre la mésinformation et la désinformation1.2.1. Développer et créer de nouveaux partenariats avec des organisations non gouvernementales et internationales afin de renforcer la résilience face à la diffusion d'informations fausses et trompeuses
Le rapport 2022 de l’OCDE sur l’IRD a reconnu l’importance pour les gouvernements de dialoguer avec les médias et les organisations de la société civile pour faire face aux menaces posées par la mésinformation et la désinformation, soulignant qu’il s’agissait d’un domaine dans lequel de nombreux acteurs avaient déjà été actifs, en particulier pendant la crise de la COVID-19 (OCDE, 2022[3]). La rapidité de la prolifération des contenus faux et trompeurs a sensibilisé les pays à la nécessité d’élaborer une vision globale de la manière d’améliorer les niveaux d’intégrité de l’information (OCDE, 2024[2]). Des données récentes de l’OCDE montrent que les nouveaux partenariats, y compris la coopération avec les organisations internationales, le secteur privé, les pays partenaires et les partenaires non gouvernementaux, figurent fréquemment parmi les domaines dans lesquels les gouvernements cherchent à s’améliorer au cours des prochaines années (Graphique 1.1).
Plusieurs pays ont déjà pris des mesures pour améliorer encore la collaboration en matière d'intégrité de l'information. Par exemple, en 2022, l’Espagne a créé le «Forum contre les campagnes de désinformation dans le domaine de la sécurité nationale», une plateforme conçue pour encourager la collaboration publique et privée sur les risques posés par la désinformation pour la sécurité nationale. La Lettonie a élaboré le «concept national 2023-2027 sur la stratégie de communication et la sécurité de l’espace de l’information», qui comprend des actions sur les partenariats avec la société civile organisée, le secteur privé et le monde universitaire. Les efforts de collaboration se sont également intensifiés au sein du gouvernement: la moitié des pays répondants (54 %) disposent d’au moins un mécanisme intergouvernemental pour détecter la désinformation et y réagir.
La collaboration entre les acteurs gouvernementaux et non gouvernementaux peut également contribuer à faire en sorte que les mesures visant à améliorer l'intégrité de l'information continuent de respecter les principes de la liberté d'expression. Un exemple d’une telle collaboration était évident en Lituanie, où la chancellerie du gouvernement a travaillé avec l’organisation lituanienne de la société civile Debunk.eu pour recueillir des exemples de comptes bloqués sur Facebook pour avoir exprimé des opinions pro-Ukraine, sans violer les politiques de Meta en matière de contenu. La chancellerie a ensuite transmis ces informations à Meta, fournissant un contexte utile sur les traditions culturelles et linguistiques lituaniennes afin de mieux éclairer la politique de modération du contenu de l’entreprise.
De nombreux pays ont reconnu le caractère sans frontières des flux d'informations, et donc la nécessité d'une plus grande collaboration au niveau international. Une grande partie de cette collaboration a eu lieu par l'intermédiaire d'organisations internationales. La plateforme de l’OCDE sur l’intégrité de l’information a servi de plateforme pour l’analyse des politiques et le dialogue, comme expliqué dans la section consacrée à «Travailler collectivement par l’intermédiaire de l’OCDE». L’UNESCO a entrepris un ensemble complet de consultations dans 134 pays sur la manière de lutter contre la mésinformation et la désinformation, qui ont abouti à un ensemble de lignes directrices pour la gouvernance des plateformes numériques, lancées en 2023 (UNESCO, 2023[4]). Si l’Union européenne fournit une plateforme pour collaborer à la lutte contre la désinformation par l’intermédiaire de son Observatoire européen des médias numériques depuis 2021, fin 2022, elle a considérablement étendu la portée de cet Observatoire, en ajoutant six nouvelles plateformes, afin d’atteindre 100 % de la population de l’UE (Commission européenne, 2022[5]).
Bien que la valeur d'une telle collaboration soit évidente, il existe un risque que des relations trop étroites entre le gouvernement et la société civile ou les organisations du secteur privé puissent conduire ces organisations à influencer indûment les intérêts du gouvernement. Certaines recherches ont mis en évidence une corrélation entre les affiliations politiques des vérificateurs de faits et leurs conclusions (Louis-Sidois, 2022[6]). La collaboration avec ces entités comporterait un risque évident. De même, de telles relations peuvent conduire le gouvernement à influencer indûment les organisations et à biaiser le discours public. Par conséquent, des filets de sécurité sont nécessaires pour veiller à ce qu'une telle coopération ne conduise pas à des biais politiques.
1.2.2. Renforcer les capacités en vue d’une communication publique plus proactive, plus réactive et plus efficace pour lutter contre la mésinformation et la désinformation en :
Le rapport 2022 de l’OCDE sur l’IRD souligne la nécessité de renforcer la résilience de la société face à la mésinformation et à la désinformation en veillant à ce que le public soit informé et conscient de quelles sont les informations fiables et les informations fausses et trompeuses. Une communication publique efficace d'informations pertinentes et opportunes est essentielle à cet égard. Les résultats de l’enquête sur la confiance de 2024 montrent que les citoyens restent assez divisés quant à l’impact perçu de la communication gouvernementale, 39 % d’entre eux affirmant que le gouvernement expliquerait probablement l’impact des réformes, tandis que 40 % restent sceptiques (OCDE, 2024[1]). En outre, la perception de la communication du gouvernement concernant l’impact des réformes est étroitement liée à la confiance dans le gouvernement national (voir Graphique 1.2).
Le Plan d'Action soulignait la nécessité pour les gouvernements de renforcer leurs capacités en matière de communication publique proactive, réactive et efficace. Cela inclut l'institutionnalisation des réponses de communication publique et l'utilisation des sciences comportementales.
Les données de l'OCDE montrent que les communications publiques sont une priorité pour les pays de l'OCDE: 90 % des pays ayant répondu ont indiqué qu’il importait de renforcer la capacité des agents publics à suivre les menaces de désinformation et à y réagir. Cela se reflète dans la formation et les orientations destinées à ces fonctionnaires sur le traitement de la désinformation, mises en place par plusieurs gouvernements. Par exemple, en janvier 2022, le ministère néerlandais de l’intérieur et des relations au sein du Royaume a élaboré des «orientations sur le traitement de l’information», offrant des conseils sur la manière de réagir à la désinformation et de communiquer avec les médias à ce sujet. De même, les services de communication du gouvernement du Royaume-Uni ont publié une boîte à outils « Wall of Beliefs » pour aider les communicants à comprendre les rôles de l’identité, des relations et de la vision du monde dans la formation des croyances, afin de développer des stratégies de communication plus sophistiquées pour lutter contre les fausses informations (Government Communication Service, 2022[7]). L’École de la fonction publique du Canada propose des programmes de formation pour doter les fonctionnaires des compétences nécessaires pour détecter la désinformation et y réagir, y compris sur la manière d’utiliser efficacement la communication via les plateformes de réseaux sociaux pour démystifier (de-bunk) et prédémystifier (pre-bunk) toute désinformation détectée. Il rassemble également des informations sur la manière dont la désinformation se propage et sur les méthodes de détection sur un site web spécifique (Gouvernement du Canada, 2024[8]). Malgré ces initiatives, 45 % des personnes interrogées dans le cadre de l’enquête de l’OCDE ont signalé l’absence de programmes de formation réguliers pour lutter contre la désinformation (OCDE, 2024[2]).
En 2023, l’OCDE a publié un ensemble de principes de bonnes pratiques pour les réponses des communications publiques à la mésinformation et à la désinformation. Ces principes suggèrent que les interventions de communication publique devraient être transparentes, indépendantes de toute influence politique et cohérentes entre les gouvernements, et reconnaître la propagation rapide de la désinformation visant à la prévenir, lorsque cela est possible (OCDE, 2023[9]). Les pays ont de grandes possibilités de mieux utiliser ces principes à l'avenir, notamment en réduisant la politisation des communications publiques.
En outre, plusieurs pays ont mené des recherches sur les schémas comportementaux liés à la consommation de désinformation afin de mieux comprendre les facteurs qui conduisent les individus à interagir avec de fausses informations et à les diffuser, et de concevoir ainsi des solutions politiques plus ciblées et plus efficaces. Un essai contrôlé randomisé, mené par le Canada en collaboration avec l’OCDE et le gouvernement français, a exploré les moyens de réduire la propagation de la désinformation en ligne (OCDE, 2022[3]). L'étude a testé deux interventions politiques fondées sur la science comportementale. La première consistait à inciter les utilisateurs à évaluer l'exactitude d'un titre aléatoire unique avant de s'engager avec des titres de style Facebook en ligne. La deuxième intervention a fourni une liste de conseils sur l'éducation aux médias. Alors que les participants étaient généralement bons pour identifier avec précision les titres vrais et faux, ils ont souvent partagé des titres de nouvelles qu'ils ont identifiés comme faux ou discutables. Les résultats montrent que les incitations à l'éducation aux médias numériques ont réduit leur volonté de partager de fausses nouvelles de 21 % par rapport au groupe témoin, soulignant l'efficacité d'interventions en ligne simples et évolutives pour améliorer la qualité de l'information circulant en ligne. Impact Canada continue d’évaluer si la sensibilité à la désinformation varie en fonction du contenu et du contexte (Impact Canada, 2022[10]). En Grèce, l’autorité nationale de transparence a également conçu une intervention d’analyse comportementale visant à sensibiliser les citoyens lors de catastrophes naturelles et à encourager le recours à des informations provenant de sources fiables, y compris les canaux officiels des autorités compétentes. Cette intervention comprend également un élément de communication publique, le gouvernement fournissant des lignes directrices pour identifier et éviter les sources d'information non fiables pendant de telles situations d'urgence.
1.2.3. Poursuivre une approche à l'échelle de la société pour renforcer les écosystèmes des médias et de l'information :
Une approche globale de la société, appelant à l'engagement collectif des gouvernements, des entités du secteur privé, des établissements d'enseignement et de la société civile, constitue une priorité essentielle pour renforcer la résilience et la force des écosystèmes de l'information. Bien que de nombreux pays aient investi dans ce domaine, son importance a depuis été reconnue encore davantage, plusieurs pays publiant des guides sur la reconnaissance et la lutte contre la mésinformation et la désinformation. Par exemple, en 2022, la Chancellerie d’État lettone a publié un « Manuel contre la désinformation: reconnaître et s’opposer», qui s’adresse à la fois aux fonctionnaires et aux résidents lettons. Aux Pays-Bas, le ministère de l’intérieur a financé la création d’un site web qui enseigne aux citoyens comment identifier la mésinformation et la désinformation (OCDE, 2024[2]).
La reconnaissance croissante de la valeur de l’éducation aux médias dans la lutte contre la mésinformation et la désinformation se reflète dans les efforts déployés par les organisations de la société civile, qui apportent une contribution essentielle dans ce domaine. Plusieurs pays de l'OCDE ont identifié la nécessité de travailler aux côtés de ces organisations dans le cadre d'une approche pansociétale pour développer des activités d'éducation aux médias. Toutefois, il est important de reconnaître les limites de l’éducation aux médias, par exemple face à des hypertrucages (deepfakes) très convaincants. L’enquête « Truth Quest » de l’OCDE est également un outil qui aide à mesurer la capacité des personnes à identifier les informations fausses et trompeuses et a été appliquée dans 21 pays (OCDE, 2024[11]).
L’accent mis sur l’inclusion est évident dans le Fond de soutien des organisations pour l’alphabétisation face aux médias (Media Literacy Taskforce Fund) du Royaume-Uni, créé en 2022 pour renforcer les compétences en matière d’éducation aux médias des personnes particulièrement vulnérables aux fausses informations. Le Fond collabore avec 17 organisations pour offrir une variété de programmes, y compris l’accès des personnes âgées aux compétences en matière de médias numériques, la formation à l’alphabétisation des enseignants dans les écoles défavorisées et des ateliers pour les femmes vulnérables et marginalisées afin de lutter contre les abus en ligne (OCDE, 2024[2]). De même, la stratégie de sécurité nationale allemande, publiée en juin 2023, souligne l’importance de lutter contre la désinformation. Elle s’engage à y contribuer en promouvant la recherche et le développement axés sur les applications et axés sur la désinformation, y compris le renforcement de l’éducation au numérique, aux données et aux médias (Ministère fédéral allemand de la Défense, 2023[12]).
1.3. Domaine clé 2 – Soutenir la conception de mesures politiques et réglementaires visant à accroître la transparence et le partage des données afin de prévenir la propagation de la mésinformation et de la désinformation
Copier le lien de 1.3. Domaine clé 2 – Soutenir la conception de mesures politiques et réglementaires visant à accroître la transparence et le partage des données afin de prévenir la propagation de la mésinformation et de la désinformationLes réponses réglementaires visant à promouvoir la transparence et le partage des données se sont développées rapidement depuis 2022. Cela s'explique en partie par la reconnaissance des limites posées par les régimes d'autorégulation et de co-régulation existants, y compris le risque qu'ils n'atténuent pas suffisamment les menaces posées par les acteurs qui font le plus pour saper l'intégrité de l'information dans les démocraties, ainsi que par ceux qui ne souhaitent tout simplement pas s'engager. Ces risques soulignent l’importance de la participation des pouvoirs publics à la conception, à l’application et à la mise à jour des réponses réglementaires (OCDE, 2024[2]). Plusieurs lois ont récemment été mises en œuvre ou discutées qui se concentrent sur un large éventail de questions de transparence. La législation de l’Union européenne sur les services numériques (DSA) et la loi britannique sur la sécurité en ligne, par exemple, reflètent les demandes croissantes en faveur d’une plus grande transparence des plateformes (Lai, Shiffman et Wanless, 2023[13]).
La croissance rapide de l’intelligence artificielle générative (IA), c’est-à-dire des systèmes basés sur des machines qui déduisent de l’entrée qu’ils reçoivent comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions (y compris sous la forme d’images et d’autres médias), a également suscité de plus en plus d’inquiétudes de la part des décideurs politiques en ce qui concerne le rôle des plateformes. Le développement d’outils tels que ChatGPT d’OpenAI, un chatbot qui a dépassé les 100 millions d’utilisateurs deux mois à peine après son lancement (Hu, 2023[14]), a mis en évidence le risque supplémentaire que représente la possibilité d’articles, d’images et d’autres médias générés par l’IA pour la diffusion de fausses informations et de désinformation. Dans ce contexte, la législation de l’UE sur l’intelligence artificielle adoptée en mars 2024 exige, entre autres, que les modèles d’IA respectent diverses exigences de transparence, y compris la publication de résumés détaillés du contenu utilisé pour l’entrainement, la réalisation d’une évaluation du modèle et la notification de tout incident, et l’étiquetage clair de tout contenu audio ou vidéo artificiel en tant que tel. Les États-Unis ont également commencé à prendre des mesures dans ce domaine, avec le décret présidentiel de 2023 sur une intelligence artificielle sûre, sécurisée et digne de confiance, qui vise en partie à protéger les citoyens contre la fraude liée à l’IA en « établissant des normes et des bonnes pratiques pour détecter les contenus générés par l’IA et authentifier les contenus officiels » (La Maison-Blanche, 2023[15]) (OCDE, 2024[2]).
1.3.1. Promouvoir la transparence des données des plateformes en ligne afin de mieux comprendre les discours de désinformation et de mésinformation et la manière dont ces contenus se propagent :
Le rapport 2022 de l’OCDE sur l’IRD et le plan d’action soulignent l’importance de promouvoir la transparence des données des plateformes en ligne et mettent en évidence plusieurs approches pour ce faire, y compris la promotion de partenariats entre les plateformes de réseaux sociaux et les chercheurs afin que ces plateformes fournissent un certain niveau d’accès aux données aux chercheurs. Cette orientation s'aligne sur les tendances récentes dans ce domaine, en particulier en Europe, où la législation sur les services numériques donne un élan significatif dans les pays européens de l'OCDE pour progresser dans ce domaine.
Toutefois, compte tenu des intérêts commerciaux, la nature relativement opaque des plateformes de réseaux sociaux et des moteurs de recherche fait qu’il peut souvent être difficile de comprendre leurs algorithmes, et en particulier la manière dont ils utilisent la publicité. En outre, de nombreuses plateformes sont devenues de plus en plus réticentes à partager des informations. L’approche stricte de TikTok concernant l’autorisation aux chercheurs d’accéder à ses données (Bloomberg, 2023[16]) et la décision de X (anciennement Twitter) de réduire l’accès aux chercheurs (Calma, 2023[17]) ont légitimé d’autres plateformes majeures à suivre la même approche, dont Meta, qui a décidé en mars de fermer CrowdTangle, un outil d’information publique de Facebook utilisé par les journalistes, les chercheurs et les vérificateurs de faits pour suivre la diffusion de l’information sur la plateforme.
Reconnaissant ces problèmes, la législation de l’Union européenne sur les services numériques (DSA) de 2022 exige que les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne (définis comme ceux comptant plus de 45 millions d’utilisateurs dans l’Union européenne) garantissent l’accès du public à leurs répertoires de publicités, y compris le contenu de ces publicités et les données connexes sur l’annonceur, ainsi que tout détail sur la manière dont la publicité a été ciblée (EUR-Lex, 2022[18]). Dans certains cas, les gouvernements des pays ont pris les choses en main – par exemple, l’ambassadeur de France pour les affaires numériques a mis au point un outil open source pour suivre les modifications apportées aux conditions d’utilisation des plateformes en ligne, ainsi qu’un outil pour identifier les comptes suspects à l’aide d’un algorithme qui calcule la probabilité qu’un compte donné soit un bot (OCDE, 2024[2]). Le DSA s'est également penché sur la question de la disponibilité des données pour les chercheurs. En particulier, l’article 40 dispose que les très grandes plateformes en ligne ou les moteurs de recherche doivent fournir des données aux chercheurs agréés sur demande, à condition que la recherche soit menée uniquement dans le but d’identifier les « risques systémiques dans l’Union» (EUR-Lex, 2022[18]).
1.3.2. Améliorer la transparence des processus et des mécanismes utilisés par les plateformes en ligne pour modérer les contenus et façonner les flux d’informations
Le rapport 2022 de l’OCDE sur l’IRD a noté que, jusqu’à cette date, l’approche de la modération des contenus dans le secteur des médias sociaux avait été largement autorégulée, et que les réglementations plus fortes spécifiques aux contenus présentaient des risques pour la liberté d’expression. Il a suggéré d’exiger des plateformes en ligne qu’elles soient plus transparentes, notamment en clarifiant leurs politiques de modération des contenus et le fonctionnement de leurs algorithmes, en expliquant comment et pourquoi les contenus sont supprimés ou déclassés, et en exigeant que les plateformes en ligne fassent l’objet d’audits réguliers.
Les limites de s'appuyer uniquement sur l'autorégulation des plateformes de réseaux sociaux et des moteurs de recherche continuent d'être reconnues. Les limites posées par les régimes d’autorégulation existants augmentent le risque qu’ils n’atténuent pas suffisamment les menaces posées par les acteurs qui font le plus pour saper l’intégrité de l’information dans les démocraties, ainsi que par ceux qui ne souhaitent tout simplement pas s’engager (OCDE, 2024[2]). Cependant, il existe également une prise de conscience du fait qu'une réglementation directe excessive pourrait risquer d'entraver la liberté d'expression. Les pays ont identifié la possibilité d'une approche de co-régulation, où les plates-formes s'autogouvernent tout en permettant au gouvernement de jouer un rôle de surveillance et d'application de la loi. Un exemple en est le code de bonnes pratiques européen, qui a été mis à jour en 2022 pour inclure des questions telles que la démonétisation des diffuseurs de désinformation. Toutefois, les limites même des approches de co-régulation ont été mises en évidence lorsque X a annoncé en mai 2023 qu’elle se retirait de sa participation au code de bonnes pratiques de l’Union européenne contre la désinformation de 2018, après que son premier rapport sur la transparence pour ce code soit apparu en dessous des standards atteint par d’autres plateformes (OCDE, 2024[2]). De même, en novembre 2023, le statut de signataire de X au code australien de bonnes pratiques contre la désinformation et la désinformation (code volontaire) a été retiré après qu’une sous-commission indépendante des plaintes ait constaté qu’X n’avait pas fourni de canaux accessibles au public pour signaler la désinformation et la désinformation lors du référendum australien. Ce fut la seule conséquence pour X et a démontré une lacune claire dans les mesures de responsabilité des plateformes numériques. Cela indique que même lorsque les gouvernements disposent de certaines capacités de surveillance, les approches non contraignantes signifient que ces plateformes sont en mesure d'ignorer les réglementations dès qu'elles estiment qu'elles n'en bénéficient plus.
Comme indiqué, ce domaine a connu des évolutions dynamiques depuis 2022, en particulier au niveau européen. La législation sur les services numériques a été adoptée en août 2023 : il est nécessaire que les plateformes de réseaux sociaux et les moteurs de recherche fournissent aux chercheurs et aux régulateurs un meilleur aperçu de la manière dont leurs algorithmes modèrent, hiérarchisent et recommandent le contenu. Elle exige en outre la publication de rapports de transparence – une condition similaire à celle du code de bonnes pratiques européen, bien qu’elle la rende obligatoire.
La loi britannique sur la sécurité en ligne a été adoptée en octobre 2023, avec des exigences selon lesquelles les algorithmes doivent être conçus pour aider à protéger les personnes en ligne – bien que, contrairement à la législation sur les services numériques, elle n’exige pas que les paramètres de ces algorithmes soient divulgués (Hagedorn et al., 2023[19]). Le gouvernement australien a également pris des mesures importantes dans ce sens avec la publication du projet de loi portant modification de la législation sur les communications (lutte contre la désinformation et la désinformation) en juin 2023. Le projet de loi conférerait à l'autorité de régulation indépendante, l'Autorité de la Communication et des Média australienne (ACMA), de nouveaux pouvoirs pour accroître la transparence et demander des comptes aux plateformes numériques dans la lutte contre la désinformation et la désinformation gravement préjudiciables.
1.4. Domaine clé 3 – Recenser les réponses réglementaires et de politiques publiques qui réduisent les facteurs économiques et structurels de la mésinformation et de la désinformation
Copier le lien de 1.4. Domaine clé 3 – Recenser les réponses réglementaires et de politiques publiques qui réduisent les facteurs économiques et structurels de la mésinformation et de la désinformationDepuis l’adoption du Plan d’Action, plusieurs règlements ont été mis en œuvre pour remédier aux atteintes à la concurrence et améliorer la santé des marchés pour les acteurs de l’espace informationnel. Concernant les plateformes en ligne, les stratégies visent à encourager les nouveaux entrants et l’innovation et à maintenir la diversité des marchés comme moyen de stimuler la concurrence entre les plateformes en ligne, encourageant ainsi potentiellement les incitations de marché à des espaces d’information plus sains, bien que ce résultat soit loin d’être certain (OCDE, 2024[2]). La législation de l’Union européenne sur les marchés numériques (Digital Market Act – DMA) en est l’exemple le plus frappant. En outre, la législation européenne sur la liberté des médias de 2024 est un exemple notable d’efforts visant à renforcer le marché des médias traditionnels, à réduire les risques posés par la concentration du marché des médias et à maintenir le pluralisme des médias.
1.4.1. Promouvoir un comportement plus responsable des plateformes en ligne
Dans un certain sens, la numérisation a réduit les barrières à l’entrée pour les fournisseurs de médias, augmentant ainsi le potentiel de pluralité. Toutefois, la dépendance à l’égard des plateformes de réseaux sociaux et des moteurs de recherche pour les recettes publicitaires a également accru le risque de capture des médias, c’est-à-dire les situations dans lesquelles des individus, des groupes ou des organisations exercent un contrôle important sur les organisations de médias d’une manière qui risque d’influencer le contenu et la couverture (OCDE, 2024[2]). Dans ce contexte, le rapport 2022 de l’OCDE sur l’initiative pour le renforcement de la démocraties a identifié la question du comportement responsable en ligne des plateformes comme un sujet important, le plan d’action invitant les pays à prendre des mesures pour promouvoir un environnement commercial plus équitable dans le secteur des médias numériques. L’Union européenne a été un acteur important grâce à sa législation sur les marchés numériques de 2023, qui réglemente le pouvoir de marché des plateformes numériques de diverses manières (Encadré 1.1).
Encadré 1.1. Législation européenne sur les marchés numériques
Copier le lien de Encadré 1.1. Législation européenne sur les marchés numériquesLa législation sur les marchés numériques (Digital Market Act – DMA) est conçue pour réglementer ce que l’on appelle le pouvoir de «contrôleur d’accès», les contrôleurs d’accès étant définis comme les grandes plateformes numériques fournissant des services de plateforme essentiels, tels que les moteurs de recherche en ligne, les boutiques d’applications et les services de messagerie. La Commission européenne a initialement proposé la loi en décembre 2020, qui est entrée en vigueur en novembre 2022 et est devenue applicable le 1er mai 2023. La loi établit une variété d’obligations et d’interdictions pour les contrôleurs d’accès :
À titre d’exemple d’obligations, on peut citer :
permettre aux entreprises utilisatrices d’accéder aux données qu’elles génèrent lors de l’utilisation de la plateforme du contrôleur d’accès
fournir aux entreprises qui font de la publicité sur leur plateforme les outils et les informations nécessaires aux annonceurs et aux éditeurs pour effectuer leur propre vérification indépendante de leurs publicités
permettre à leurs entreprises utilisatrices de promouvoir leur offre et de conclure des contrats avec leurs clients en dehors de la plateforme du contrôleur d’accès.
À titre d’exemple d’interdictions, on peut citer :
traiter les services et produits proposés par le contrôleur d’accès lui-même de manière plus favorable dans le classement que les services ou produits similaires proposés par des tiers sur la plateforme du contrôleur d’accès
empêcher les utilisateurs de désinstaller tout logiciel ou application préinstallé
suivre les utilisateurs finaux en dehors du service de plateforme essentiel des contrôleurs d’accès à des fins de publicité ciblée sans consentement.
Les amendes pour non-conformité peuvent aller jusqu’à 10 % du chiffre d’affaires annuel mondial total de l’entreprise, ou jusqu’à 20 % en cas d’infractions répétées. Alternativement, des pénalités journalières peuvent être encourues jusqu'à 5% du chiffre d'affaires quotidien moyen.
Source : Commission européenne (s.d.[20]), « À propos de la législation sur les marchés numériques ».
En outre, en mars 2024, le Parlement européen a adopté la législation européenne sur la liberté des médias, qui exigera, entre autres, que les très grandes plateformes en ligne (celles qui comptent plus de 45 millions d’utilisateurs dans l’Union européenne) ayant l’intention de retirer des contenus médiatiques en informent le fournisseur de médias avant de le faire. L’utilisation de la définition des «très grandes plateformes en ligne» a également été conçue en tenant compte de la concurrence: les plateformes qui ne relèvent pas de cette définition ne seront pas tenues d’assumer un nombre important d’exigences de transparence imposées par la législation européenne sur les services numériques, de sorte que la conformité ne devienne pas une barrière à l’entrée (OCDE, 2024[2]).
L’Union européenne a également pris des mesures pour empêcher les très grandes plateformes d’abuser de leur pouvoir au moyen de sa législation sur les services numériques (Digital Service Act – DSA). En particulier, elle oblige les entités relevant de la catégorie des très grandes plateformes en ligne à procéder à une analyse des risques systémiques qu’elles créent, comme détaillé dans l’Encadré 1.2.
Encadré 1.2. La législation sur les services numériques de l’Union Européenne (DSA): Exigences d'évaluation des risques pour les très grandes plateformes en ligne et les moteurs de recherche
Copier le lien de Encadré 1.2. La législation sur les services numériques de l’Union Européenne (DSA): Exigences d'évaluation des risques pour les très grandes plateformes en ligne et les moteurs de rechercheLa législation sur les services numériques (Digital Service Act – DSA) souligne que les très grandes plateformes en ligne et les très grands services en ligne (VLOP et VLOS) peuvent être utilisés d’une manière qui peut influencer de manière significative la sécurité en ligne ainsi que la formation de l’opinion et du débat publics. Compte tenu des risques systémiques que cela peut poser, la Loi exige que les VLOP et VLOS évaluent les risques découlant de la conception, du fonctionnement et de l'utilisation de leurs services, et prennent des mesures pour atténuer tout risque identifié.
La législation sur les services numériques précise quatre types de risques systémiques qui devraient être évalués dans le détail par ces plateformes :
Risques liés à la diffusion de contenus illicites, y compris les abus sexuels sur mineurs, les discours haineux illégaux et la vente de produits ou services illégaux.
Risques ayant une incidence sur l’exercice des droits fondamentaux protégés par la charte des droits fondamentaux de l’Union européenne, y compris la liberté d’expression et d’information, la liberté des médias, le droit à la vie privée et le droit à la protection des données.
Risques concernant les effets négatifs sur les processus démocratiques, le débat public, les processus électoraux et la sécurité publique.
Risques liés à la conception et au fonctionnement de ces plateformes ayant une incidence négative sur le bien-être physique et mental, y compris la conception d’interfaces stimulant les dépendances comportementales et les campagnes de désinformation liées à la santé publique.
Le DSA souligne que lors de l'évaluation de ces risques, les VLOP et VLOS devraient également tenir compte des contenus qui ne sont pas illégaux ou qui ne vont pas à l'encontre de leurs conditions générales. Il indique en outre que l’impact des systèmes algorithmiques, en particulier des systèmes de recommandation et des systèmes publicitaires, devrait être prise en considération et que les cas dans lesquels l’amplification algorithmique de l’information contribue à des risques systémiques devraient être pris en compte dans les évaluations des risques relatives. Afin de rendre ces évaluations possibles, les plateformes sont tenues de conserver toutes les pièces justificatives relatives aux évaluations effectuées, y compris les données sous-jacentes.
Afin de s'assurer que ces évaluations des risques et les efforts subséquents d'atténuation des risques sont fondés sur les meilleures informations disponibles, le DSA indique que les VLOP et VLOS devraient impliquer, le cas échéant, d'autres parties dans leurs recherches, y compris les bénéficiaires du service et les experts indépendants.
Source : EUR-Lex (2022[18]), Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), https://eur-lex.europa.eu/eli/reg/2022/2065/oj?eliuri=eli%3Areg%3A2022%3A2065%3Aoj&locale=fr.
Le Canada a également tenté de faire en sorte que les entreprises d’informations soient en mesure de concurrencer le pouvoir monopolistique des plateformes numériques avec la Loi sur les nouvelles en ligne de 2023, qui crée un cadre de négociation pour encourager les plateformes à conclure des accords volontaires en matière de rémunération avec les entreprises d’information, avec des processus de négociation et d'arbitrage obligatoires en cas d'échec. Bien qu'en théorie, cela donne aux acteurs médiatiques une plus grande force dans les négociations avec les géants du numérique, le risque est que ces-derniers suppriment complètement l'accès aux contenus d'information sur leur plateforme. En effet, en 2023, Meta a annoncé que les Canadiens ne seraient plus en mesure de voir ou de partager du contenu d’actualité sur Facebook et Instagram (Meta, 2023[21]).
Dans le but de mettre à jour la législation sur la concurrence dans les médias à la lumière de la numérisation du secteur, la France a récemment mis au point une approche pour évaluer la légalité des fusions dans le secteur des médias. Bien que le système actuel repose principalement sur des transactions qui dépassent un certain seuil de revenus, le nouveau système serait fondé sur une variété de facteurs, y compris ce qu'une telle fusion signifierait pour la diversité des contenus, l'indépendance de l'information, ainsi que des facteurs quantitatifs tels que la portée de l'auditoire. Cela permet de déterminer plus facilement la compétitivité de certaines structures médiatiques, même dans des situations où les structures de revenus sont cachées ou peu claires (Gouvernement de la France, 2022[22]).
1.4.2. Développer et appliquer les leçons, y compris l'analyse des conséquences potentielles sur le marché et les finances pour les entreprises, des réponses réglementaires et des approches entreprises dans d'autres secteurs par :
L’ analyse des modèles de réglementations et leurs enseignements, l’identification de nouvelles façons de travailler et la création de nouveaux organismes et agences de réglementation
Les gouvernements des pays de l'OCDE adaptent leurs institutions et leurs cadres politiques pour répondre aux menaces posées par la désinformation et créer un environnement propice à la diffusion d'informations précises, fiables et plurielles. Un certain nombre de pays ont intensifié leurs efforts, en mettant en place des cadres stratégiques nationaux, des unités de coordination administrative, des groupes de travail et des efforts de renforcement des capacités – concernant l’architecture institutionnelle – pour leur réponse aux enjeux liés à la désinformation et au renforcement de l’intégrité de l’information.
Afin de garantir une approche cohérente et de donner une impulsion claire à la lutte contre la mésinformation et la désinformation, de nombreux pays ont élaboré des cadres stratégiques définissant les rôles et les exigences respectifs des différentes administrations en matière d’intégrité de l’information. Les Pays-Bas, par exemple, ont publié une stratégie à l’échelle du gouvernement pour lutter contre la désinformation en décembre 2022, soulignant les cas dans lesquels le gouvernement est chargé de démystifier (debunking) ces informations et désignant le ministre de l’Intérieur et des relations au sein du Royaume comme principal point de contact (Gouvernement des Pays-Bas, 2022[23]). Dans d’autres pays, les stratégies de lutte contre la désinformation apparaissent dans le cadre d’autres politiques plus larges. L’Estonie, par exemple, propose un ensemble de mesures pour lutter contre les campagnes de désinformation dans son concept de sécurité nationale, tandis que l’Australie mentionne des politiques visant à lutter contre la désinformation dans sa stratégie d’engagement dans le domaine des technologies cyber et critiques et dans sa stratégie de lutte contre l’ingérence étrangère (OCDE, 2024[2]).
Une collaboration plus efficace entre les différentes parties du gouvernement a également été encouragée par un renforcement des unités de coordination intergouvernementales. Un exemple récent est le Centre national de gestion des crises de Lituanie, dont les rôles comprennent la collecte d’informations et de données relatives aux menaces potentielles et la coordination de toute réponse aux situations d’urgence (Gouvernement de la République de Lituanie, 2023[24]).
Plusieurs pays ont créé des forums spécifiques dans ce domaine. Le Forum Australien des Régulateurs des Plateformes numériques permet à ses membres de partager de l’information et de collaborer sur leurs activités relatives à la régulation des plateformes numériques, et sur comment les sujets de concurrence, de protection des consommateurs, de protection de la vie privée, de sécurité en ligne, et de données s’inter-mêlent dans leurs approches réglementaires (Digital Platform Regulators Forum, 2022[25]). De façon similaire, les forum de coopération sur la réglementation numérique mis en place au Royaume-Uni et aux Pays-Bas, permettent de formaliser les structures de collaboration entre les agences de régulation, afin de traiter les défis que la numérisation pose aux politiques de réglementation (Digital Regulation Cooperation Forum, s.d.[26]). (Authority for Consumers & Markets, s.d.[27])
Le défi aux multiples facettes que présentent les plateformes numériques a également obligé les régulateurs à expérimenter des approches innovantes. Par exemple en France, le Centre d’expertise pour la réglementation des plateformes numériques (PEReN) a été autorisé, au moyen d’une exemption réglementaire, à tester les outils réglementaires directement sur les plateformes numériques. Ces plateformes sont légalement mandatées pour coopérer, permettant à PEReN d'explorer efficacement les futures possibilités de réglementation, y compris les moyens de lutter contre les abus sexuels sur mineurs, de contrôler l'âge en ligne et d'atténuer les impacts négatifs de l'IA. Bien qu’une telle approche puisse être efficace, il est important que l’expérimentation reste limitée dans sa portée et sa durée, car elle risque autrement de saper la confiance du public dans les processus réglementaires (Amaral et Hernandez, à paraître[28]).
Les pays ont également développé des approches innovantes grâce à l'expérimentation réglementaire, avec des programmes pilotes, des dérogations, des hackathons et des exemptions via des bacs à sable réglementaires. Ce dernier terme, bien que défini au sens large, fait généralement référence à des situations qui permettent aux entreprises de tester de nouveaux produits innovants dans un environnement réglementaire contrôlé. Alors que les bacs à sable réglementaires sont devenus de plus en plus populaires dans des secteurs tels que les énergies renouvelables et les technologies financières (fintech), leur utilisation dans le secteur des médias numériques a été relativement limitée. Toutefois, cela pourrait changer, la proposition de la Commission européenne relative à un acte législatif pour une Europe interopérable créant une base juridique pour le lancement de bacs à sable afin de tester des solutions innovantes pour les services publics numériques dans des contextes transfrontières, permettant à l’administration européenne de collaborer plus efficacement à la fois avec les plateformes numériques et entre elles (OCDE, 2024[29]).
Promouvoir et maintenir un secteur des médias diversifié et indépendant, et mettre en place des mécanismes indépendants pour soutenir les fondations à but non lucratif, les médias locaux et de service public
Au-delà des approches réglementaires, promouvoir un paysage médiatique pluriel et indépendant est important. Dans cette optique, le Plan d’Action souligne également la nécessité de promouvoir et de maintenir un secteur des médias diversifié et indépendant, en encourageant la diversité, l’indépendance éditoriale et la fourniture d’informations de haute qualité. Dans de nombreux pays, l'indépendance des médias était souvent considérée comme acquise dans le cadre démocratique.
Toutefois, il s’agit d’un domaine plus contrasté, qui est menacé depuis un certain temps. En effet, l’indice mondial de la liberté de la presse révèle que, si 49 % des pays de l’OCDE ont été classés comme ayant un bon environnement en 2015, ce chiffre est tombé à 21 % en 2023. À l’échelle mondiale, la part est passée de 21 % à 4 % au cours de la même période, ce qui souligne la force relative des membres de l’OCDE (RSF, 2023[30]). Bien que divers facteurs y contribuent, notamment les menaces pour la sécurité des journalistes, la numérisation de l’accès aux médias, avec les difficultés des médias traditionnels à conserver une part de marché suffisante, et leurs difficultés conséquentes à générer des revenus, joue un rôle clé (OCDE, 2024[2]).
Les pays semblent avoir récemment mesuré l'importance nouvelle de ce domaine. Afin de contribuer à promouvoir la pluralité des médias, la loi européenne sur la liberté des médias de 2024, qui a été adoptée par le Parlement européen, promeut le financement stable des médias de service public et exige des États membres qu’ils évaluent l’incidence de la concentration sur le marché des médias, le pluralisme des médias et l’indépendance éditoriale (OCDE, 2024[2]). Plusieurs pays ont déjà pris de telles mesures – par exemple, le «Fonds unique italien pour le pluralisme et l’innovation numérique dans le secteur de l’édition de l’information et des médias» favorise le financement de sources de médias qui recrutent des journalistes dans les domaines de l’édition numérique, de la communication et de la cybersécurité, en mettant l’accent sur la désinformation (Gazzetta Ufficiale, 2023[31]). L’Estonie soutient la création de contenus en langue russe, conçus pour fournir des informations fiables aux locuteurs en langue russe du pays afin de concurrencer la propagande financée par l’État russe (ERR, 2023[32]).
De nombreux pays soutiennent également les médias d'autres pays qui remplissent certains critères. En France, par exemple, le ministère de l'Europe et des Affaires étrangères soutient Canal France International, qui à son tour soutient les médias engagés à fournir une information libre, démocratique et impartiale dans les pays recevant une aide au développement souvent dans un contexte francophone. De la même manière, l’agence espagnole de développement AECID a lancé son « Programa Democracia » en 2023, (OCDE, 2024[2]), dont l’un des piliers s’engage à soutenir les journalistes, les militants et les universitaires qui défendent un espace médiatique diversifié et pluriel en Espagne, en Amérique latine et dans les Caraïbes. En outre, l’agence allemande de développement GIZ soutient actuellement un projet 2022-2025 visant à aider les médias des Balkans occidentaux à améliorer leurs capacités de reportage et de génération de recettes, afin de contribuer à promouvoir la liberté et le pluralisme des médias dans la région.
1.5. Travailler collectivement par l'intermédiaire de l'OCDE et priorités pour l'avenir
Copier le lien de 1.5. Travailler collectivement par l'intermédiaire de l'OCDE et priorités pour l'avenir1.5.1. Travailler collectivement par l'intermédiaire de l'OCDE
La plateforme de l’OCDE pour l’intégrité de l’information sert de plateforme d’engagement actif pour l’échange de bonnes pratiques avec le groupe d’experts de l’OCDE sur les réponses à apporter en matière de gouvernance face à la mésinformation et à la désinformation. Son groupe de pilotage composé de la Belgique, du Canada, du Chili, de la Colombie, de la Corée, de la Finlande, de la France, de la Grèce, de l’Italie, de la Lituanie, du Luxembourg, de la Norvège, des Pays-Bas, du Royaume-Uni et des États-Unis (OCDE, 2024[33]).
Une conférence sur la lutte contre la désinformation : Le renforcement de la démocratie par l’intégrité de l’information s’est tenu en novembre 2023, avec plus de 400 participants, 41 orateurs de 23 pays, ainsi que des experts de pays non membres tels que l’Argentine, le Brésil, le Cameroun et l’Ukraine.
Le rapport phare « les Faits sans le Faux : Lutter contre la désinformation et renforcer l’intégrité de l’information », publié le 4 mars 2024: (OCDE, 2024[2]).
Sur la base de ces travaux, l’OCDE élabore actuellement un projet de recommandation sur l’intégrité de l’information, qui sera examiné lors du Forum mondial en 2024.
1.5.2. Conclusions et priorités pour l'avenir
La promotion de l’intégrité de l’information et la lutte contre la mésinformation et la désinformation constituent une priorité pour les pays du monde entier. Les gouvernements ont commencé à prendre des mesures pour :
Favoriser la résilience de la société face à la mésinformation et à la désinformation grâce à une communication publique proactive, réactive et efficace fondée sur les sciences comportementales. Les pays cherchent également à doter les citoyens des outils nécessaires pour reconnaître et combattre la mésinformation et la désinformation en mettant l’accent sur l’esprit critique, les compétences numériques et l’éducation aux médias. Les gouvernements reconnaissent de plus en plus qu'il est nécessaire d'adopter une approche fondée sur l'ensemble de la société et comprennent le rôle important que les organisations de la société civile, les journalistes, les entreprises et les autres parties prenantes peuvent jouer dans la sensibilisation du public et la promotion de l'intégrité de l'information.
Renforcer la transparence et la responsabilité en reconnaissant les limites des régimes d’autorégulation et de corégulation et en prenant des mesures pour introduire des exigences réglementaires pour les acteurs clés tels que les plateformes de réseaux sociaux et les moteurs de recherche. Dans ce contexte, l’émergence et la diffusion rapide de l’intelligence artificielle générative (IA) ont suscité des appels et, dans certains cas, l’adoption d’exigences de transparence pour les ensembles de données utilisés dans l’entrainement et l’évaluation des modèles d’IA et d’un étiquetage clair du contenu audio ou vidéo généré par l’IA.
Améliorer les mesures de gouvernance pour préserver l'intégrité des écosystèmes d'information. Pour suivre le rythme de l'évolution rapide du paysage médiatique, les pays adoptent des approches innovantes et des expérimentations réglementaires, notamment des programmes pilotes, des dérogations, des hackathons et des exemptions via des bacs à sable réglementaires. Les gouvernements ont également renforcé leur propre capacité à réagir efficacement en mettant en place des cadres stratégiques nationaux, des unités de coordination administrative et des groupes de travail.
Toutefois, l’action a été lente au regard de la montée rapide de la mésinformation et de la désinformation et de leurs effets néfastes au cours de la dernière décennie. Les gouvernements doivent travailler ensemble contre une frontière technologique en évolution rapide, en s'engageant avec toute la société pour fournir des solutions globales et constructives. La nouvelle recommandation du Conseil de l’OCDE sur l’intégrité de l’information devrait offrir des possibilités de catalyser les efforts des pays dans ce domaine grâce à l’apprentissage par les pairs, au partage des bonnes pratiques, à l’établissement régulier de rapports et à la diffusion d’informations, en tirant parti de la plateforme de l’OCDE pour l’intégrité de l’information (OCDE, 2024[33]).
Références
[28] Amaral, M. et G. Hernandez (à paraître), « Regulatory experimentation: Moving ahead on the agile regulatory governance agenda ».
[27] Authority for Consumers & Markets (s.d.), « The Digital Regulation Cooperation Platform (SDT) », https://www.acm.nl/en/about-acm/cooperation/national-cooperation/digital-regulation-cooperation-platform-sdt (consulté le 22 mars 2024).
[16] Bloomberg (2023), « TikTok’s Rules Deter Researchers From Crunching Data on Users, Misinformation », https://www.bloomberg.com/news/articles/2023-09-21/tiktok-terms-of-service-strict-for-researchers?sref=MTy2GeXk (consulté le 20 mars 2024).
[17] Calma, J. (2023), « Twitter just closed the book on academic research », https://www.theverge.com/2023/5/31/23739084/twitter-elon-musk-api-policy-chilling-academic-research (consulté le 20 mars 2024).
[5] Commission européenne (2022), « Les pôles de l’Observatoire européen des médias numériques s’étendent désormais à l’ensemble de l’EU-27 », https://digital-strategy.ec.europa.eu/fr/news/hubs-european-digital-media-observatory-now-extend-whole-eu27 (consulté le 11 avril 2024).
[20] Commission européenne (s.d.), « About the Digital Markets Act », https://digital-markets-act.ec.europa.eu/about-dma_en (consulté le 14 mars 2024).
[25] Digital Platform Regulators Forum (2022), « DP-REG Terms of Reference », https://dp-reg.gov.au/publications/dp-reg-terms-reference (consulté le 22 mars 2024).
[26] Digital Regulation Cooperation Forum (s.d.), « About the DRCF », https://www.drcf.org.uk/about-us (consulté le 22 mars 2024).
[32] ERR (2023), Estonian Russian-language private media receive €1 million from state, https://news.err.ee/1608898790/estonian-russian-language-private-media-receive-1-million-from-state.
[18] EUR-Lex (2022), « Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) », https://eur-lex.europa.eu/eli/reg/2022/2065/oj?eliuri=eli%3Areg%3A2022%3A2065%3Aoj&locale=fr (consulté le 23 mai 2024).
[31] Gazzetta Ufficiale (2023), LEGGE 30 dicembre 2023, n. 213., https://www.gazzettaufficiale.it/eli/gu/2023/12/30/303/so/40/sg/pdf.
[22] Gouvernement de la France (2022), La concentration dans le secteur des médias à l’ère numérique : de la réglementation à la régulation, Inspection générale des affaires culturelles (IGAC), Inspection générale des finances (IGF), https://www.culture.gouv.fr/espace-documentation/Rapports/La-concentration-dans-le-secteur-des-medias-a-l-ere-numerique-de-la-reglementation-a-la-regulation.
[24] Gouvernement de la République de Lituanie (2023), « Lithuania’s new crisis management model presented at Baltic States Centres of Government Meeting », https://lrv.lt/en/news/lithuanias-new-crisis-management-model-presented-at-baltic-states-centres-of-government-meeting/ (consulté le 23 mai 2024).
[23] Gouvernement des Pays-Bas (2022), « Government-wide strategy for effectively tackling disinformation », https://www.government.nl/documents/parliamentary-documents/2022/12/23/government-wide-strategy-for-effectively-tackling-disinformation (consulté le 11 avril 2024).
[8] Gouvernement du Canada (2024), « La désinformation en ligne », https://www.canada.ca/fr/campagne/desinformation-enligne.html.
[7] Government Communication Service (2022), The Wall of Beliefs, https://gcs.civilservice.gov.uk/wp-content/uploads/2022/09/Wall_of_Beliefs_-publication.pdf.
[19] Hagedorn, K. et al. (2023), « The UK’s Online Safety Act and EU’s Digital Services Act: What Online Service Providers Should Know », https://www.orrick.com/en/Insights/2023/11/The-UKs-Online-Safety-Act-and-EUs-Digital-Services-Act-What-Online-Service-Providers-Should-Know (consulté le 14 mars 2024).
[14] Hu, K. (2023), « ChatGPT sets record for fastest-growing user base - analyst note », https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/ (consulté le 14 mars 2024).
[10] Impact Canada (2022), Comparing Susceptibility to Misinformation Across Climate Change and COVID-19, OECD OPSI BI Projects Archive, https://oecd-opsi.org/bi-projects/comparing-susceptibility-to-misinformation-across-climate-change-and-covid-19/ (consulté le 29 mars 2023).
[15] La Maison-Blanche (2023), Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/.
[13] Lai, S., N. Shiffman et A. Wanless (2023), « Operational Reporting By Online Services: A Proposed Framework », https://carnegieendowment.org/2023/05/18/operational-reporting-by-online-services-proposed-framework-pub-89776 (consulté le 25 septembre 2024).
[6] Louis-Sidois, C. (2022), « Checking the French Fact-checkers », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.4030887.
[21] Meta (2023), Changes to News Availability on our Platforms in Canada, https://about.fb.com/news/2023/06/changes-to-news-availability-on-our-platforms-in-canada/.
[12] Ministère fédéral allemand de la Défense (2023), « Integrierte Sicherheit für Deutschland: Nationale Sicherheitsstrategi [Integrated Security for Germany: National Security Strategy] », https://www.bmvg.de/resource/blob/5636374/38287252c5442b786ac5d0036ebb237b/nationale-sicherheitsstrategie-data.pdf (consulté le 13 mars 2024).
[1] OCDE (2024), Enquête de l’OCDE sur les déterminants de la confiance dans les institutions publiques – résultats 2024 : Instaurer la confiance dans un contexte complexe, Éditions OCDE, Paris, https://doi.org/10.1787/80ddd09b-fr.
[2] OCDE (2024), Les faits sans le faux : Lutter contre la désinformation, renforcer l’intégrité de l’information, Éditions OCDE, Paris, https://doi.org/10.1787/4078bb32-fr.
[33] OCDE (2024), « OECD Hub on Information Integrity: Joining forces to fight dis- and misinformation », https://www.oecd.org/en/blogs/2023/03/oecd-hub-on-information-integrity-joining-forces-to-fight-dis--and-misinformation.html (consulté le 26 septembre 2024).
[29] OCDE (2024), « Regulatory experimentation: Moving ahead on the agile regulatory governance agenda », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 47, Éditions OCDE, Paris, https://doi.org/10.1787/f193910c-en.
[11] OCDE (2024), « The OECD Truth Quest Survey: Methodology and findings », Documents de travail de l’OCDE sur l’économie numérique, n° 369, Éditions OCDE, Paris, https://doi.org/10.1787/92a94c0f-en.
[9] OCDE (2023), « Good practice principles for public communication responses to mis- and disinformation », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 30, Éditions OCDE, Paris, https://doi.org/10.1787/6d141b44-en.
[3] OCDE (2022), Instaurer la confiance et renforcer la démocratie : Préparer le terrain pour l’action gouvernementale, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/34a56a87-fr.
[30] RSF (2023), 2023 World Press Freedom Index – journalism threatened by fake content industry, https://rsf.org/en/2023-world-press-freedom-index-journalism-threatened-fake-content-industry.
[4] UNESCO (2023), « Guidelines for the governance of digital platforms: safeguarding freedom of expression and access to information through a multi-stakeholder approach », https://unesdoc.unesco.org/ark:/48223/pf0000387339 (consulté le 11 avril 2024).