Ce chapitre présente un aperçu des politiques à mener pour renforcer un écosystème propice à l’intégrité de l’information. Il aborde les politiques publiques encourageant la responsabilité et la transparence des plateformes en ligne et des réseaux sociaux et la nécessité impérieuse de déjouer les risques spécifiques présents dans la sphère de l’information, notamment les manipulations et l’ingérence imputables à des agents étrangers, la préservation de l’intégrité de l’information en période d’élections démocratiques et les bouleversements liés à l’IA générative dans l’espace informationnel. Il livre également une vue d’ensemble du rôle essentiel que jouent des espaces médiatiques diversifiés, pluralistes et indépendants, tant en ligne que hors ligne.
Les faits sans le faux : Lutter contre la désinformation, renforcer l’intégrité de l’information
2. Mettre en œuvre des politiques pour renforcer la transparence, la responsabilité et la pluralité des sources d’information
Abstract
2.1. Introduction
Le renforcement de l’intégrité de l’information et la lutte contre la désinformation reposent en grande partie sur la résilience des citoyens, mais aussi sur les acteurs qui produisent les contenus et sur les canaux permettant de les diffuser, à savoir les plateformes en ligne, les réseaux sociaux et les médias traditionnels. La proportion de la population qui s’informe régulièrement auprès de sources médiatiques traditionnelles et locales est en recul, car les individus se tournent de plus souvent vers les plateformes de réseaux sociaux pour avoir accès à l’actualité. Selon une étude de 2023 portant sur 16 pays dans le monde où des élections devaient se tenir l’année suivante, pour 56 % des internautes, les réseaux sociaux constituent la principale source d’information, devant la télévision avec 44 % (Quétier-Parent, Lamotte et Gallard, 2023[1]).
Les exemples recueillis dans certains pays vont dans le même sens. Au Royaume-Uni, par exemple, la proportion de la population qui utilise la presse écrite comme source d’information principale est passée de 59 % en 2013 à 14 % en 2023, tandis que celle des citoyens pour qui les réseaux sociaux sont le vecteur d’information principal a progressé de 20 % à 38 %. Sur cette même période, l’utilisation des réseaux sociaux à titre de source d’information principale a augmenté, passant de 27 % à 48 % aux États-Unis et de 18 % à 29 % en Allemagne (Newman et al., 2023[2]). Il est par nature difficile de recueillir des données sur les habitudes de consommation de l’information par pays et de les comparer, mais les tendances générales, en particulier chez les plus jeunes, montrent systématiquement que les réseaux sociaux gagnent du terrain à titre de source d’information principale.
La tendance à se détourner des médias traditionnels est particulièrement marquée au niveau local et régional et elle se généralise dans les pays de l’OCDE et au-delà, ce qui témoigne d’une évolution durable vers un environnement médiatique numérique, mobile et dominé par les plateformes. Ces tendances laissent penser également que les générations actuelles qui ont grandi avec les médias numériques, continueront d’utiliser principalement les plateformes en ligne plutôt que les supports traditionnels pour avoir accès à l’information et la partager (Newman et al., 2023[2]).
Aujourd’hui, l’engagement des individus en ligne et hors ligne dépend de plus en plus des flux d’informations publiés sur les plateformes en ligne. L’impact des plateformes en ligne va bien au-delà de leur utilisation à titre de source directe d’informations pour servir de circuits de remontée de l’information, où la mésinformation et la désinformation, y compris les théories du complot, qui se répandent en ligne sont reprises par les médias traditionnels, ce qui contribue à en amplifier encore le contenu et à lui conférer de la crédibilité (OCDE, 2022[3]). Les plateformes en ligne ouvrent également de nouvelles voies particulièrement efficaces pour amplifier les campagnes de manipulation et d’ingérence étrangère dans le domaine de l’information — parallèlement à d’autres actions d’ingérence étrangère — qui cherchent à influencer de manière injustifiée l’opinion et le discours publics, à saper la confiance dans la démocratie et à accroître la polarisation.
Compte tenu du rôle de plus en plus important joué par les plateformes en ligne dans la sphère de l’information et des incitations des algorithmes des entreprises privées à amplifier les contenus engageants (et souvent à caractère sensationnel ou polarisant), il sera crucial pour apporter des réponses publiques efficaces de mieux comprendre comment ces technologies peuvent être détournées pour mettre en péril les fondements de la vie démocratique. En l’état actuel des choses, une compréhension limitée du fonctionnement des plateformes en ligne et des réseaux sociaux, des flux de données en leur sein et échangés entre eux et de leurs modes d’utilisation, ne permet pas d’apporter des réponses politiques efficaces.
Qui plus est, la visibilité réduite des médias traditionnels et la confiance limitée qu’ils inspirent, conjuguées aux risques de concentration et de capture du marché des médias, ont restreint un peu plus l’accès à des contenus de qualité et altéré l’intégrité de l’information dans de nombreux pays. La pluralité et l’indépendance du secteur des médias jouent un rôle essentiel pour faciliter le débat public, et sans amélioration de la qualité et de la fiabilité des sources médiatiques, le renforcement de la démocratie restera lettre morte.
C’est la raison pour laquelle les interventions des pouvoirs publics en faveur de la transparence et de la diversité de l’espace médiatique peuvent s’articuler autour des axes suivants :
Définir un ensemble d’initiatives visant à encourager la responsabilité et la transparence des plateformes en ligne et des réseaux sociaux ;
Promouvoir des espaces médiatiques et de l’information qui favorisent la pluralité, l’indépendance et la concurrence ; et
Neutraliser les risques spécifiques tels que les manipulations et l’ingérence étrangère dans le domaine de l’information, les élections et la désinformation ainsi que ceux que pose l’intelligence artificielle générative.
2.2. Encourager la responsabilité et la transparence des plateformes en ligne et des réseaux sociaux
Compte tenu du rôle prépondérant et de l’impact des plateformes en ligne et des réseaux sociaux, les bénéfices de la responsabilité et de la transparence relatives à leur conception et leur mode de fonctionnement sont de mieux en mieux compris. La priorité à cet égard devrait être d’analyser de quelle manière l’action publique peut leur demander de la redevabilité, favoriser la compréhension de leurs modèles d’affaires et des risques qu’ils comportent pour les processus démocratiques, atténuer les effets préjudiciables et promouvoir des espaces d’information plus sains.
L’utilisation des plateformes numériques, notamment des réseaux sociaux, par des acteurs nationaux ou étrangers dans l’intention de manipuler ou de désinformer le public, présente un risque important pour l’intégrité de l’information. Pour atténuer ces risques dans les organes de presse des médias traditionnels, ils sont par exemple ainsi soumis depuis fort longtemps à divers cadres réglementaires. Ce contrôle s’explique par le rôle traditionnel que jouent les médias dans la création, l’édition et la sélection de contenus, ainsi que par leur recours à des ressources publiques limitées (notamment le spectre des fréquences de diffusion). Ces dispositions réglementaires couvrent des domaines comme les normes, les restrictions relatives à la propriété et les conditions d’octroi de licences, et viennent compléter les pratiques bien établies de la profession en matière d’autorégulation.
Les plateformes en ligne n’exercent pas pour autant de contrôle éditorial des contenus générés par les utilisateurs qu’elles hébergent. Il est donc difficile de leur appliquer les approches réglementaires des médias traditionnels. Les plateformes de réseaux sociaux bénéficient souvent, en tant que services d’intermédiation en ligne, de protections juridiques spécifiques, qui les exonèrent de toute responsabilité à l’égard des contenus générés par les utilisateurs. C’est ainsi le cas de la section 230 de la loi de 1996 sur la décence des communications (« Communications Decency Act ») aux États-Unis.
La difficulté pour les pouvoirs publics à trouver un juste équilibre entre les approches destinées à protéger l’intégrité de l’information s’explique en partie par l’étendue et la portée mondiales des plateformes en ligne. Les mesures des pouvoirs publics sont généralement mises en œuvre au sein de juridictions dont le marché — même lorsqu’elles englobent plusieurs pays, comme l’Union européenne — n’est pas comparable à la portée et à l’étendue mondiales des plateformes en ligne. Ce décalage est un défi de taille, notamment lorsqu’il s’agit d’améliorer la transparence des plateformes. En effet, le manque de cohérence et le morcellement des obligations internationales ne permettent pas d’avoir une vision globale des flux de données et des risques pour l’intégrité de l’information, ni des mesures prises par les pouvoirs publics pour les atténuer et de leurs résultats dans l’environnement informationnel en ligne (Lai, Shiffman et Wanless, 2023[4]). En outre, il importe de garder à l’esprit l’importance du fait que les plateformes en ligne appartiennent au secteur privé, même si concrètement ce sont des espaces publics de diffusion de l’information et de débat, au fonctionnement souvent opaque et orienté par leurs propres conditions de service et les lignes directrices qu’elles fixent pour leur communauté d’usagers. Tous ces facteurs conjugués nuisent à la compréhension de la manière dont l’information circule et, par conséquent, des actions à mettre en place pour limiter les effets préjudiciables de la désinformation.
À cette fin, les acteurs gouvernementaux devraient avoir pour priorité, le cas échéant, de :
Aller au-delà de l’autorégulation et définir clairement le rôle et les stratégies d’action publique, et
Mettre en action des leviers pour encourager la responsabilité et la transparence.
2.2.1. Aller au-delà de l’autorégulation et définir clairement le rôle et les stratégies d’action publique
L’autorégulation, qui consiste pour un groupe d’entreprises ou d’individus à exercer un contrôle sur ses propres membres et son comportement, a été la démarche prédominante adoptée jusqu’ici pour fixer les normes applicables aux plateformes en ligne. Dans le domaine de l’intégrité de l’information, l’autorégulation renvoie au respect volontaire de codes de conduite, de lignes directrices et à d’autres mécanismes conçus pour régler des questions comme la modération des contenus, le respect de la vie privée et les pratiques éthiques. Il est généralement reconnu que ces mécanismes bénéficient des niveaux élevés d’expertise et de connaissance technique du secteur — en l’occurrence des plateformes elles-mêmes — ce qui contribue, par conséquent, à améliorer leur efficacité et leur efficience.
L’autorégulation peut notamment intégrer diverses dispositions allant du fonctionnement entièrement privé à la participation des pouvoirs publics à des degrés divers, y compris pour l’élaboration ou à l’approbation des projets de règles (Baldwin, Cave et Lodge, 2011[5]). Elle permet une certaine flexibilité et l’application d’approches sectorielles ; cette approche peut jouer un rôle important pour les organisations dans le domaine des médias et du journalisme en particulier dans la mesure où elle renforce les capacités des organes de presse à élaborer des contenus factuels de qualité et à prévenir la propagation involontaire d’informations erronées. Les mécanismes d’autorégulation, tels que les conseils de presse, ont aussi un rôle crucial à jouer en contrôlant les abus des lois contre les journalistes et en prenant leur défense (Lim et Bradshaw, 2023[6]).
Les Principes de Santa Clara, par exemple, illustrent un effort notable d’autorégulation axé sur les questions d’intégrité de l’information et de transparence, sans l’implication des pouvoirs publics. Adoptés en 2018, ces principes constituent un ensemble de recommandations non contraignantes à l’intention des entreprises, qui sont destinées à assurer la transparence et proposer des voies de recours pertinentes pour les utilisateurs affectés par les plateformes en ligne1. Ces principes portent sur la clarté des efforts de modération des contenus des plateformes, la notification claire des utilisateurs concernés et l’établissement de voies de recours effectives. Ils ont été conçus pour guider, évaluer et comparer les pratiques et les activités des entreprises. Par ailleurs, la « Coalition sur la Provenance des Contenus et leur Authenticité » (C2PA) s’efforce d’accroître la transparence de certains contenus. Elle a été créée en février 2021 par les entreprises Microsoft et Adobe et comptait parmi ses membres Arm, BBC, Intel et Truepic. Aujourd’hui, Google, Sony, Meta, OpenAI et plusieurs fabricants de caméras, des créateurs de contenu et des organisations non gouvernementales l’ont rejointe. Elle lutte contre la désinformation en ligne en mettant au point des normes techniques de certification de la source et de l’historique (ou la provenance) de certains contenus, qui permettent de vérifier l’auteur d’un contenu ainsi que le mode, la date et le lieu de création ou d’édition, si l’auteur souhaite mentionner ces informations2.
Aux Pays-Bas, le ministère de l’Intérieur et des Relations au sein du Royaume a élaboré, en 2021, un Code de conduite sur la transparence des publicités en ligne à caractère politique afin d’empêcher la diffusion d’informations trompeuses pendant les élections. Cette mesure a mis en lumière la possibilité d’intervention de l’État dans des initiatives d’autorégulation. Ce code de conduite n’est pas obligatoire et il est ouvert à tous les partis politiques et plateformes en ligne afin de promouvoir « la transparence, la confidentialité, la sécurité, l’équité et l’intégrité des élections ». La participation s’y fait notamment sur une base volontaire et il précise qu’il ne remplace pas les autres initiatives réglementaires en vigueur. Même s’il n’a aucun caractère contraignant, ce code est un indicateur de bonne conduite (lors de son lancement, 11 des 13 partis parlementaires, ainsi que Facebook, Google, Snapchat et TikTok l’ont signé) (Gouvernement des Pays-Bas, 2021[7]).
Et pourtant, en l’absence de contrôle démocratique ou d’obligations de redevabilité, les régimes d’autoréglementation peuvent soulever des questions de responsabilité. Qui plus est, lorsque l’autoréglementation fonctionne comme un mécanisme volontaire, le public peut finir par être mal protégé par des régimes qui contrôlent effectivement les membres les plus responsables d’un domaine, mais laissent non réglementées les entreprises les moins enclines à servir l’intérêt public ou les intérêts des consommateurs (Baldwin, Cave et Lodge, 2011[5]).
L’annonce par X, en mai 2023, du retrait de sa participation volontaire au Code de bonnes pratiques de 2018 en matière de désinformation3 souligne les limites des codes de bonnes pratiques et des principes non contraignants (Lomas, 2023[8]). Ce code a été le premier instrument d’autorégulation auquel ont adhéré sur une base volontaire de grands acteurs du secteur, notamment Facebook, Google, Microsoft, Mozilla, TikTok et Twitter (désormais X). Le retrait de X a été précédé d’une annonce par la Commission européenne en février 2023 précisant que le premier rapport de transparence de l’entreprise relatif à la mise en œuvre du code de bonnes pratiques n’était pas à la hauteur des attentes fixées par les autres plateformes en termes de données communiquées et d’informations sur ses engagements à travailler avec des vérificateurs de faits (Commission européenne, 2023[9]). Cet exemple souligne une fois encore les difficultés auxquelles se heurtent les outils d’autorégulation pour assurer la transparence, la cohérence et l’exhaustivité des contrôles et des rapports.
Pour atténuer les difficultés inhérentes à l’autorégulation volontaire, les approches de corégulation intègrent l’expertise et l’autonomie du secteur et permettent aux pouvoirs publics d’assurer le contrôle, la mise en application ou la ratification des mécanismes d’autorégulation (Baldwin, Cave et Lodge, 2011[5]). Le Code de bonnes pratiques européen en matière de désinformation a ainsi été actualisé et révisé en 2022, afin d’en faire un instrument de corégulation et de servir de dispositif de suivi renforcé dans le cadre du Règlement sur les services numériques (DSA). La nouvelle version du Code contient 44 engagements et 128 mesures spécifiques qui couvrent des questions relatives à la démonétisation et à la réduction des incitations financières pour les diffuseurs de désinformation, l’amélioration de la transparence de la publicité politique, la réduction des comportements de manipulation et des faux comptes, le soutien de l’accès des chercheurs aux données des plateformes, entre autres.
En Australie, un Code de bonnes pratiques sur la désinformation et la mésinformation a été publié en février 2021 par Digital Industry Group Inc. (DIGI). Bien qu’il s’agisse d’un instrument volontaire pour se prémunir contre les préjudices causés par la propagation de contenus mensongers et trompeurs sur les plateformes numériques, l’Autorité australienne pour les communications et les médias (ACMA) supervise le Code de bonnes pratiques et coopère avec DIGI et les signataires pour évaluer les rapports des signataires sur la transparence, examiner la manière dont ils traitent les plaintes des utilisateurs et encourager un plus grand nombre de plateformes à adhérer au code (voir Encadré 2.1).
Encadré 2.1. Australie — Code de bonnes pratiques volontaire en matière de désinformation et de mésinformation
À la demande formulée par le gouvernement australien en 2019 et sur la base des enseignements tirés du Code de bonnes pratiques de l’Union européenne en matière de désinformation, le Digital Industry Group Inc (DIGI), une association industrielle à but non lucratif, a publié en 2021 le Code de bonnes pratiques australien en matière de désinformation et de mésinformation. Il a pour objectif d’assurer la transparence des dispositifs de protection que les plateformes numériques mettent en œuvre pour se prémunir contre la propagation de la désinformation et de la mésinformation.
Ce code de conduite volontaire a actuellement huit signataires : Adobe, Apple, Google, Meta, Microsoft, Redbubble, TikTok et Twitch, qui s’engagent tous à :
Réduire le risque de préjudices causés par la désinformation et la mésinformation ; et
Publier un rapport de transparence annuel sur les mesures qu’ils prennent pour lutter contre la mésinformation et la désinformation.
Selon le type de prestations fournies, les signataires peuvent également s’engager à communiquer des informations sur les efforts entrepris pour :
réduire les incitations publicitaires et financières favorisant la propagation de la mésinformation et de la désinformation ;
faire en sorte d’assurer la sécurité et l’intégrité des services et produits de la plateforme
responsabiliser les utilisateurs afin qu’ils fassent des choix de contenus numériques plus éclairés et les aider à repérer les contenus mensongers ou trompeurs ;
accroître la transparence des publicités à caractère politique ;
soutenir la recherche qui permet au public de mieux appréhender la mésinformation et la désinformation
DIGI est l’administrateur du Code. En octobre 2021, le groupe a renforcé le code par la mise en place d’un cadre de gouvernance et d’un dispositif d’enregistrement des plaintes permettant au public de signaler les manquements des signataires à leurs engagements. En décembre 2022, DIGI a publié une version actualisée du code. Les mises à jour visaient à faciliter l’adoption du code par les petites entreprises et à préciser les produits et services spécifiques concernés.
L’ACMA n’assume actuellement aucune fonction de réglementation officielle en matière de désinformation et de mésinformation, mais elle s’assure du bon fonctionnement du code, qui comporte la publication de rapports sur les mesures prises par les plateformes numériques en matière de désinformation et de qualité de l’information et une coopération régulière avec DIGI, les signataires et d’autres parties sur le fonctionnement du code et les améliorations possibles et elle invite d’autres plateformes à adhérer au code.
Source : Gouvernement australien (2024[10]), « La mésinformation en ligne », Australian Communications and Media Authority, https ://www.acma.gov.au/online-misinformation.
Compte tenu des limites inhérentes aux régimes d’autorégulation et de corégulation actuels, il existe un risque accru qu’ils ne suffisent pas à atténuer les menaces émanant des acteurs qui ne reculent devant rien pour saper l’intégrité de l’information dans les démocraties, mais aussi de ceux qui refusent tout simplement de se mobiliser. Ces risques soulignent l’importance pour les pouvoirs publics de participer à l’élaboration, la mise en application et l’actualisation des réponses réglementaires appropriées le cas échéant. L’élaboration des politiques publiques destinées à protéger et à promouvoir la liberté d’expression et un débat démocratique actif et solidement étayé nécessite de coopérer avec la société civile et les acteurs du secteur privé, mais apporter des réponses ne peut pas relever de leur seule responsabilité. Cela dit, au fil des ans, ces efforts d’autorégulation ont permis des avancées, en favorisant le dialogue entre les pouvoirs publics et les plateformes sur les questions en jeu et en contribuant à définir les différents choix stratégiques possibles. Ces expériences constituent une base solide sur laquelle s’appuyer.
2.2.2. Leviers d’action destinés à encourager la responsabilité et la transparence
Comme le souligne l’introduction, compte tenu des risques d’atteinte à la liberté d’expression que posent les politiques spécifiques à un contenu, les réponses devraient être principalement axées sur la clarification des responsabilités des plateformes en ligne à titre d’acteurs de premier plan dans la sphère de l’information. À cet égard, les pouvoirs publics devraient garantir un cadre juridique clair et prévisible, dans lequel les règles sont suffisamment bien définies pour éviter d’encourager une censure privatisée (Conseil de l'Europe, 2021[11]).
En outre, l’opacité générale des activités des grandes entreprises technologiques nuit à la compréhension du rôle des plateformes en ligne dans le développement de l’environnement informationnel et des mesures qu’elles ont prises pour atténuer les comportements préjudiciables. (Lai, Shiffman et Wanless, 2023[4]). Les stratégies visant à accroître la transparence peuvent contribuer à mieux faire comprendre le fonctionnement des plateformes en ligne et à faire en sorte que leurs règles et leur mise en œuvre soient claires, prévisibles et proportionnées. Compte tenu de l’asymétrie d’informations entre plateformes en ligne et instances publiques sur le mode de diffusion des contenus et sur les interventions efficaces, la transparence est également essentielle pour permettre aux acteurs gouvernementaux et aux chercheurs indépendants de mieux comprendre la sphère de l’information. À son tour, elle facilitera le suivi de l’impact et de l’efficacité des réponses apportées et éclairera le processus décisionnel (OCDE, 2022[3]). Cette possibilité témoigne de la nécessité plus générale d’améliorer les capacités d’évaluation des actions publiques concernées dans ce domaine.
Les plateformes en ligne n’ont généralement aucun intérêt à partager avec des chercheurs, des autorités de régulation ou le public des informations concernant leurs politiques, processus, algorithmes ou flux de contenus, essentiellement pour des raisons de coût, de respect de la vie privée et de concurrence. En rendant l’information plus accessible et précise, les politiques publiques peuvent contribuer à faire en sorte que les informations fournies permettent de mieux comprendre l’espace informationnel et ses acteurs et de vérifier, en toute indépendance, les dires des plateformes. Les risques présents dans d’autres secteurs servent d’exemples utiles à cet égard : tant que les acteurs gouvernementaux n’imposaient pas leur divulgation, le public n’avait pas accès à des renseignements précis sur des marchés aussi divers que la teneur en nicotine des cigarettes, les économies de carburant des véhicules ou la sécurité alimentaire (Baldwin, Cave et Lodge, 2011[5]).
Plusieurs lois traitant d’un large éventail de questions en lien avec la transparence ont été adoptées ou examinées ces derniers temps. Le Règlement sur les services numériques (DSA) de l’Union européenne, la loi britannique sur la sécurité en ligne, ainsi que des projets de législation des États-Unis, tels que la loi sur la surveillance et la sécurité des services numériques (Digital Services Oversight and Safety Act) et la loi sur la responsabilité des plateformes à l’égard des consommateurs (Platform Accountability and Consumer Transparency Act) répondent tous aux exigences croissantes en faveur d’une plus grande transparence des plateformes (Lai, Shiffman et Wanless, 2023[4]). Les politiques réglementaires visant à promouvoir la transparence et la responsabilité peuvent également s’appuyer sur les efforts actuels en matière d’autorégulation ou sur des initiatives similaires, comme ceux de l’Union européenne, où le Code de bonnes pratiques en matière de désinformation est désormais intégré dans le DSA.
La transparence accrue n’est toutefois qu’un élément de la solution à la manipulation de l’information sur les plateformes de réseaux sociaux. L’amplification artificielle des contenus, par le biais notamment de robots à l’apparence d’utilisateurs humains sur les réseaux sociaux, peut fausser les conversations en ligne en augmentant la popularité apparente de certains messages et comptes. Cette amplification artificielle peut être particulièrement préjudiciable lors d’élections, de catastrophes naturelles ou dans d’autres situations de crise.
Les acteurs gouvernementaux prennent de plus en plus de mesures pour accroître l’authenticité sur l’espace de l’information en ligne. La Californie a ainsi adopté en 2018 la loi connue sous le nom de BOT (Bolstering Online Transparency Act) pour renforcer la transparence en ligne. Elle interdit aux robots en ligne de dissimuler leur identité pour se faire passer pour un utilisateur humain (État de Californie, 2018[12]). En 2023, le Parlement lituanien a entamé les débats sur la modification de la loi sur l’information publique et du Code pénal, qui donnerait au gouvernement lituanien le droit d’ordonner aux plateformes de réseaux sociaux et autres fournisseurs d’informations de « supprimer, dans un délai de huit heures, le nombre accru artificiellement de pages vues, de commentaires, de partages, de “likes”, de “followers” et/ou d’abonnés à un contenu ou d’interdire l’accès à ce contenu ». Les discussions ont également porté sur d’éventuelles sanctions pénales et peines d’emprisonnement en cas de diffusion artificielle de contenus sur les plateformes.4
A travers l’ensemble des diverses politiques mises en place, il convient de prêter attention aux conséquences de l’action publique sur la concurrence. Les grandes plateformes en ligne sont mieux armées pour faire face à des règles de responsabilité et de transparence plus onéreuses (par exemple en achetant ou en développant des technologies de filtrage pour respecter les délais de retrait des contenus et de présentation de rapports) (Conseil de l'Europe, 2021[11]). Il peut être utile, en particulier, de moduler l’étendue et la charge administrative imposées par la transparence en fonction de la taille de la plateforme, afin que le respect des obligations ne constitue pas une barrière à l’entrée. Le DSA impose ainsi des obligations supplémentaires aux très grandes plateformes en ligne (VLOP) et aux très grands moteurs de recherche en ligne (VLOSE), qui sont tenus d’identifier et d’analyser les risques systémiques liés à leurs services, d’améliorer les rapports de transparence sur la modération des contenus ainsi que la transparence de la publicité et de permettre l’accès aux données sur les contenus partagés sur les plateformes (Union européenne, 2022[13]).
Il importe enfin de définir les objectifs, les valeurs et les résultats précis visés par ces exigences de transparence accrues. En effet, les instances publiques doivent garder à l’esprit un certain nombre de facteurs et d’arbitrages. Dans ce domaine comme dans d’autres, l’action réglementaire, le cas échéant, devrait être guidée par le principe de proportionnalité, car il est essentiel, pour en améliorer l’efficience et l’efficacité et en réduire la charge administrative, de concevoir et de mettre en œuvre des réglementations de façon proportionnée (OCDE, 2021[14]). L’action publique concernant les plateformes devrait être utilisée par les acteurs gouvernementaux — et par le public en général — comme mécanisme pour mieux comprendre les comportements et les modèles d’affaires des acteurs clés à la technologie dominante et y faire face, pour appréhender et atténuer certains risques et pour avoir une meilleure connaissance de la sphère informationnelle dans son ensemble.
Dans cette optique, les mesures encourageant la reddition des comptes et la transparence visant les plateformes et services en ligne peuvent s’appliquer à diverses questions, notamment :
Le rôle joué par la protection de la responsabilité des intermédiaires en ligne pour concilier les rôles et les responsabilités des plateformes ;
La transparence des mesures de modération et de leur élaboration, des processus d’évaluation et de gestion des risques et des algorithmes, afin de fournir de précieuses informations comparatives sur le fonctionnement des plateformes en ligne ;
La transparence accrue des données relatives au comportement et au contenu des plateformes en ligne afin de mieux appréhender la sphère de l’information.
Les régimes de responsabilité des intermédiaires en ligne devraient préciser les rôles et responsabilités des plateformes
Un règlement fondamental pour la sphère de l’information définit la responsabilité des intermédiaires, c’est-à-dire la responsabilité légale ou l’obligation de rendre des comptes imposée aux intermédiaires en ligne, telles que les fournisseurs de services internet ou les plateformes de réseaux sociaux, au regard des contenus partagés ou créés par leurs utilisateurs. L’importance croissante des intermédiaires en ligne dans les modes d’accès et de partage des informations a accentué la nécessité de définir leur responsabilité juridique eu égard aux dommages causés par les contenus partagés — ou les activités exercées — par les utilisateurs de services d’intermédiation en ligne (Shmon et Pederson, 2022[15]).
En général, les régimes de responsabilité des intermédiaires en ligne tentent de concilier la mesure dans laquelle les plateformes sont tenues responsables des contenus qu’elles partagent et la nécessité de préserver la liberté d’expression, l’innovation et la promotion d’un environnement en ligne propice à l’engagement démocratique (Shmon et Pederson, 2022[16]). Les régimes de responsabilité des intermédiaires en ligne et les « dispositions protectrices » qu’ils prévoient en matière de responsabilité au regard des contenus générés par les utilisateurs sont très divers. Ces lois tentent généralement de concilier trois objectifs : 1) permettre aux plateformes de prendre des mesures de modération des contenus (en effet, elles ont généralement des obligations plus strictes et une protection juridique inférieure au regard des contenus qui présentent les menaces les plus sérieuses ou qui sont autrement illicites) ; 2) protéger la liberté d’expression et la participation du public en limitant les incitations des plateformes à appliquer la loi à l’excès ou à restreindre inutilement le droit d’expression des utilisateurs ; et 3) encourager l’innovation et la croissance économique en permettant aux nouveaux entrants sur le marché de développer et de créer des plateformes sans être exposés à des exigences de modération ou à des risques juridiques excessifs (Keller, 2019[17]). En ce qui concerne la sphère de l’information, les lois sur la responsabilité des intermédiaires sont particulièrement utiles pour permettre aux plateformes de prendre des décisions en matière de modération de contenus qui, par ailleurs, ne sont pas illicites, tout en limitant les incitations à imposer des restrictions excessives de la liberté d’expression.
La section 230 de la loi de 1996 sur la décence des communications (« Communications Decency Act ») aux États-Unis illustre cette approche basée sur le principe de l’immunité. Cette clause a été considérée comme déterminante pour favoriser l’innovation et la croissance d’internet et des plateformes en ligne (OCDE, 2011[18]). La section 230 exonère de toute responsabilité les fournisseurs et utilisateurs d’un « service informatique interactif » qui publie des informations destinées aux utilisateurs des plateformes. Cette protection a donné aux services en ligne les moyens nécessaires pour développer et conserver des plateformes ouvertes qui favorisent la liberté d’expression (OCDE, 2011[18]). Par ailleurs, il convient de noter que la section 230 supprime également la responsabilité liée aux décisions prises par les plateformes en matière de modération, de filtrage et d’amplification des contenus générés par les utilisateurs, et permet ainsi aux plateformes de modérer et de diffuser des contenus essentiellement comme elles l’entendent (voir le libellé précis à l’Encadré 2.2).
Encadré 2.2. Libellé de la section 230 de la loi Communications Decency Act des États-Unis (1996)
(1) « Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être considéré comme l’éditeur ou le locuteur d’une information fournie par un autre fournisseur de contenu d’information.
(2) Aucun fournisseur ou utilisateur d’un service informatique interactif ne peut être tenu pour responsable du fait de toute mesure prise volontairement et de bonne foi pour restreindre l’accès ou la disponibilité de matériel que le fournisseur ou l’utilisateur considère comme obscène, lubrique, lascif, répugnant, excessivement violent, harcelant ou autrement répréhensible, que ce matériel soit ou non protégé par la Constitution ».
(Selon la loi, « l’expression “fournisseur de contenu d’information” désigne toute personne ou entité responsable, en tout ou en partie, de la création ou de l’élaboration d’informations fournies par l’intermédiaire d’Internet ou de tout autre service informatique interactif »).
En revanche, la section 230 prévoit des limites à l’immunité et ne s’applique pas en cas de violations du droit pénal fédéral, du droit de la propriété intellectuelle ou du droit relatif au respect de la vie privée dans les communications électroniques.
Source : Pour toute information complémentaire, voir la loi Communications Decency Act, 47 U.S.C. § 230 (1996).
Cette approche basée sur le principe d’immunité a toutefois suscité également des critiques relatives au manque de responsabilité des plateformes en ligne (ou « devoir de vigilance ») à l’égard des contenus qu’elles hébergent. Comme le montre, par exemple, la loi britannique de 2023 sur la sécurité en ligne, l’objectif de cette démarche est d’amener les plateformes en ligne à prendre des mesures pour évaluer les risques, et à prévenir et atténuer les contenus préjudiciables et illicites raisonnablement prévisibles. Parallèlement à cette immunité générale, trois approches courantes, mais non incompatibles, tendent à limiter la responsabilité des services d’intermédiation. Par exemple, l’approche fondée sur l’information ou la « connaissance effective » considère que les sites web et les plateformes en ligne sont responsables uniquement des contenus dont ils sont informés ou ont « la connaissance effective ». La loi japonaise sur la limitation de la responsabilité des fournisseurs, adoptée en 2001, appartient à cette catégorie. La deuxième approche concerne les critères de « notification et retrait » en vertu desquels les services en ligne sont tenus de respecter les décisions de justice. La loi brésilienne « Marco Civil da Internet » de 2014 prévoit ainsi une exonération générale de responsabilité au regard des contenus générés par des tiers, à l’exception des droits d’auteur et de la divulgation illégale d’images à caractère privé représentant des scènes de nudité et/ou d’activités sexuelles, ainsi qu’une obligation de respect des décisions judiciaires ordonnant le retrait de contenus.5 La loi relative aux communications numériques dommageables adoptée en 2015 par la Nouvelle-Zélande prévoit elle aussi une exonération de responsabilité si les sites web respectent les procédures de notification de plaintes.
Compte tenu de l’ampleur des contenus partagés en ligne, les plateformes privées conserveront leur pouvoir de décision quant à la publication et au partage de contenus ; par la force des choses, elles continueront de jouer le rôle de modérateurs dans les échanges et débats entre les citoyens. (Douek, 2021[19]). De ce fait, la protection de la responsabilité des intermédiaires en ligne devrait être conçue de manière à favoriser un internet libre et ouvert à tous tout en rendant les plateformes responsables de répondre aux préoccupations légitimes liées aux contenus faux, trompeurs et, autrement préjudiciables ou illicites.
Accroître la transparence et comprendre la conception et le fonctionnement des plateformes en ligne
De manière générale, les obligations d’information des consommateurs leur permettent de décider s’ils acceptent les processus employés pour la production de produits ou services (Baldwin, Cave et Lodge, 2011[5]). L’un des moyens possibles pour imposer la transparence consiste donc à mettre l’accent sur les actions, l’élaboration des politiques, des processus et des algorithmes utilisés par les plateformes en ligne. Pour aider les utilisateurs à mieux comprendre les pratiques en matière de traitement des données et l’application des régles, il serait utile d’imposer aux plateformes de publier les informations sur leurs conditions de service et leurs politiques en matière de respect de la vie privée, sur l’utilisation des données sur le comportement et les utilisateurs partagées avec de tierces parties, sur les procédures, lignes directrices et outils utilisés pour éclairer la modération des contenus et la prise de décision algorithmique ainsi que sur les processus de traitement des plaintes. L’information du public peut jouer un rôle utile dans la défense des droits des utilisateurs et la responsabilisation des plateformes, car le contrôle exercé par le public peut permettre de mettre en évidence des partis pris éventuels ou des pratiques déloyales. La clarification de ces processus peut également apaiser les craintes des entreprises présentant des publicités sur les plateformes en ligne d’être exposées à un risque d’atteinte à leur réputation liée à la propagation de fausses informations, et cela favoriserait ainsi des espaces d’information en ligne plus sains fondés sur des critères de marché.
L’objectif de l’action publique à cet égard est « d’institutionnaliser, d’encourager et de vérifier » les règles et les systèmes mis en place par les plateformes et les autres acteurs concernés pour surveiller les espaces informationnels qu’ils contrôlent. (Douek, 2021[19]). Ces exigences de transparence revêtent une importance particulière compte tenu de l’évolution rapide des pratiques et des politiques des plateformes, car elles permettent aux autorités de régulation et au public de vérifier l’efficacité des règles et des systèmes de modération des contenus mis en place par les plateformes en ligne. Ce type de contrôle permet également de repérer les points faibles dans les processus des entreprises (Douek, 2021[19]).
Les individus par exemple ignorent souvent comment leurs propos en ligne, leurs contenus et leurs comportements sont transformés en données et de quelle manière les algorithmes utilisés par les plateformes en ligne trient les contenus pour établir leur profil et les cibler par le biais de la publicité (OCDE, 2022[20]). Les efforts pour accroître la transparence des politiques des plateformes en ligne en matière de respect de la vie privée peuvent fournir aux utilisateurs de précieuses informations sur la manière dont leurs données personnelles sont utilisées.
Ces enjeux sont toutefois indissociables des grands débats sur la protection de la vie privée dans les démocraties. Les réglementations en la matière peuvent en effet limiter la collecte incontrôlée d’informations personnelles, et ainsi compliquer la tâche d’individus malveillants ou d’autres acteurs cherchant à manipuler ou à influencer des personnes à travers des contenus ciblés. En limitant l’accès aux informations qui permettent la propagation de messages personnalisés ciblés et polarisants, les lois sur la protection de la vie privée pourraient contribuer à éviter la diffusion de messages ciblés indésirables (Campbell, 2019[21]). C’est ainsi que le RGPD (Règlement général sur la protection des données) en vigueur dans l’Union européenne prévoit un large éventail de dispositions juridiques destinées à protéger les données personnelles et le droit au respect de la vie privée des individus, notamment l’obligation pour les organisations qui collectent, traitent ou conservent des données à caractère personnel d’obtenir leur consentement explicite au traitement des données, de prévoir des politiques en matière de respect de la vie privée transparentes et de garantir des mesures de sécurité appropriées. En outre, ces lois confèrent aux individus un contrôle accru sur leurs données, notamment un droit d’accès à leurs informations, un droit de rectification ou un droit d’effacement ainsi que celui de savoir comment leurs données sont utilisées (Conseil européen, 2022[22]). En protégeant les données personnelles des individus et en faisant respecter de bonnes pratiques en matière de traitement des données, les lois sur le respect de la vie privée permettent de créer un environnement en ligne plus transparent et responsable.
Les exigences de transparence peuvent également améliorer le partage d’informations sur l’architecture et les algorithmes des plateformes. Le public a une connaissance limitée de la manière dont sont développés et déployés les algorithmes qui régissent la curation et l’amplification des données ainsi que l’engagement sur les plateformes. Ces algorithmes ont été également la cible des critiques au motif qu’ils contribuent à la radicalisation des utilisateurs et favorisent et amplifient les contenus préjudiciables. Pour répondre à ces préoccupations, les exigences de transparence permettent de mieux comprendre les types d’algorithmes utilisés par les plateformes en ligne et de se faire une idée de leurs effets et conséquences (Lai, Shiffman et Wanless, 2023[4]).
Une législation permettrait aux chercheurs et aux autorités de régulation (à l’instar du DSA sur le marché européen) de mieux appréhender les algorithmes utilisés pour la modération, la hiérarchisation, la publicité et les recommandations de contenus ainsi que la manière dont ils influencent la propagation des contenus sur les plateformes. Ces informations permettraient de procéder à une évaluation externe et indépendante afin de mieux informer les responsables publics et la population des risques liés à l’intégrité de l’information et de contribuer à orienter les mesures des pouvoirs publics pour les atténuer (MacCarthy, 2021[23]).
Contribuer à normaliser les informations sur la manière dont les services en ligne formulent, communiquent et appliquent leurs règles favoriserait l’instauration de pratiques optimales en matière d’action publique et éclairerait les méthodes utilisées pour mesurer les effets de ces actions (Lai, Shiffman et Wanless, 2023[4]). Le DSA prévoit des obligations de publication de rapports de transparence et d’un plus grand nombre d’informations sur la modération des contenus et les conditions de service. Le projet de loi australien modifiant la législation sur les communications (Lutter contre la mésinformation et la désinformation6) prévoit de conférer à l’organisme de régulation indépendant, à savoir l’Autorité australienne pour les communications et les médias (ACMA), de nouveaux pouvoirs destinés à lutter contre les pratiques préjudiciables de la mésinformation et de la désinformation en ligne, tout en respectant le droit à la liberté d’expression qui est fondamental pour la démocratie. Les pouvoirs proposés respectent les recommandations principales de l’ACMA, telles que formulées dans son rapport au gouvernement de juin 2021 sur l’adéquation des mesures des plateformes numériques en matière de désinformation et de qualité de l’information. L’une des mesures proposées dans ce rapport est de donner à l’ACMA la possibilité de collecter, auprès des fournisseurs de plateformes numériques, des informations sur les systèmes et processus qu’ils utilisent pour lutter contre les méfaits la mésinformation et de la désinformation en ligne (voir l’Encadré 2.3).
Encadré 2.3. Aperçu du projet de loi de l’Australie modifiant la législation sur les communications (Lutter contre la mésinformation et la désinformation)
Le 20 janvier 2023, le gouvernement australien a fait part de son intention d’adopter une nouvelle législation conférant à l’ACMA de nouveaux pouvoirs pour lutter contre les méfaits de la mésinformation et de la désinformation en ligne.
Le 25 juin 2023, il a publié un avant-projet de loi modifiant la législation sur les communications (Lutter contre la désinformation et la mésinformation) en vue d’une consultation publique, qui a été clôturée le 20 août 2023. Le projet de loi vise à accroître la transparence des plateformes numériques quant à leur manière de traiter et de gérer la désinformation et la mésinformation au sein de leurs services. Le projet de loi se fonde sur le Code de bonnes pratiques en matière de désinformation et de mésinformation, sans caractère contraignant, auquel les grandes plateformes numériques ont déjà adhéré.
Le projet de loi a pour objectif principal d’attribuer de nouvelles fonctions à l’ACMA afin qu’elle incite, et si nécessaire contraigne, les plateformes en ligne à prendre des mesures pour contrer la menace que constitue la propagation de fausses informations, délibérément ou non. Il propose de conférer de nouveaux pouvoirs à l’ACMA, notamment en matière de tenue de registres et de collecte d’informations, et réserve les pouvoirs d’élaboration de codes et de normes. Ces pouvoirs permettraient à l’ACMA :
de recueillir des informations auprès des fournisseurs de plateformes numériques ou de leur demander de tenir certains registres sur les questions relatives à la désinformation et à la mésinformation,
de demander aux acteurs du secteur d’élaborer, avec son soutien, un code de bonnes pratiques couvrant les mesures de lutte contre la mésinformation et la désinformation sur les plateformes numériques, que l’ACMA pourrait enregistrer et faire appliquer,
d’élaborer et de faire respecter une norme industrielle (type de réglementation plus stricte), si un code de bonnes pratiques est jugé sans effet sur la lutte contre la désinformation sur les plateformes numériques.
Le projet de loi contient également un certain nombre de garanties visant à protéger la liberté d’expression et le débat public, et son cadre serait soumis à des examens systémiques réguliers et à un contrôle parlementaire.
Source : Commission australienne de la concurrence et de la consommation (2019[24]), Digital Platforms Inquiry Final Report, https://www.accc.gov.au/system/files/Digital%20platforms%20inquiry%20-%20final%20report.pdf ; Gouvernement australien (2023[25]), Communications Legislation Amendment (Combatting Misinformation and Disinformation) Bill 2023 — guidance note, https://www.infrastructure.gov.au/department/media/publications/communications-legislation-amendment-combatting-misinformation-and-disinformation-bill-2023-guidance.
Améliorer la transparence des flux d’informations et des contenus sur les plateformes en ligne
Outre la transparence des processus et des politiques des plateformes, les pays ont pris des mesures relatives à l’échange de métadonnées avec des chercheurs externes afin de mieux comprendre les flux de désinformation et la manière dont les plateformes modèrent ou suppriment (ou non) certains types de contenus. Les exigences de transparence des données à l’égard des plateformes en ligne peuvent fournir des informations et des éléments de contexte utiles concernant les interactions et les comportements des utilisateurs, les flux d’informations au sein des plateformes et entre elles, et les modèles d’engagement, qui sont autant d’éléments à même de faciliter l’élaboration d’une solide base factuelle pour les évaluations à venir.
Améliorer l’accès aux données sur le comportement et le contenu pour une meilleure compréhension de l’espace informationnel en ligne par la société
Une clarté et une cohérence accrues des informations communiquées permettraient de mieux comprendre quelles sont les données les plus utiles pour définir et mesurer la portée des interventions. Ces efforts de transparence peuvent également se poursuivre afin de déterminer précisément comment fournir et analyser ces données en respectant la vie privée et les enjeux en matière de concurrence et en définissant clairement les acteurs qui ont accès aux données (Lai, Shiffman et Wanless, 2023[4]). Eu égard à l’importance des plateformes en ligne dans la sphère de l’information, il sera sans doute nécessaire d’accroître la transparence sur la manière dont les contenus se propagent sur les plateformes pour mieux comprendre l’espace d’information. Enfin, il serait utile d’augmenter la visibilité des actions des plateformes en ligne et de la circulation des flux de contenus pour les inciter à clarifier et à améliorer leurs politiques et mesures de modération des contenus (MacCarthy, 2021[23]).
L’une des catégories de données concernées comprend les informations au niveau de l’utilisateur qui donnent un aperçu général de l’identité des utilisateurs des plateformes et de leur engagement sur la plateforme. Un processus de rapport pourrait inclure des informations agrégées sur les types d’utilisateurs (par groupes d’âge, sexe et données de localisation). Cela pourrait également indiquer les types de contenu des messages postés publiquement, les commentaires et l’engagement. Ces données publiques (excluant les messages et publications à caractère privé) qui ne contiennent pas d’informations à caractère personnel identifiables pourraient servir de base de référence utile pour déterminer les groupes les plus actifs et les types de comportements en ligne courants et ainsi de définir des tendances et évolutions dans le temps (Lai, Shiffman et Wanless, 2023[4]).
Il serait utile de permettre à des chercheurs indépendants de vérifier et de confirmer que les plateformes respectent leur obligation d’information du public afin qu’elles soient tenues comptables de leurs actions. L’obligation de prendre des mesures pour garantir que les recherches sont effectuées dans un but légitime et que les chercheurs appliquent des mesures de respect de la vie privée et de protection de la sécurité des ensembles de données utilisées constituera un garde-fou important pour prévenir tout abus (Goldman, 2022[26]) (Forum sur l’information et la démocratie, 2020[27]). Les exigences de transparence ne signifient pas nécessairement que les informations seront rendues publiques ; en effet, compte tenu du risque qu’un contenu potentiellement sensible soit utilisé de manière abusive s’il est mis à la disposition du public, le niveau de détail requis peut et devrait dépendre du public concerné (Lai, Shiffman et Wanless, 2023[4]).
L’article 40 du règlement sur les services numériques (DSA) donne ainsi aux autorités de régulation de chaque État membre de l’UE la possibilité de contraindre les plateformes à partager des données avec les chercheurs dans le cadre de procédures clairement définies7 (voir l’Encadré 2.4). Bien que des questions subsistent quant au respect des règles, notamment en ce qui concerne la possibilité d’étendre les programmes d’accès des chercheurs à d’autres pays et les modalités de traitement des données de personnes résidant hors de l’Europe, le DSA met en pratique bon nombre des objectifs de cette catégorie d’obligations réglementaires de transparence (Lenhart, 2023[28]).
Encadré 2.4. Article 40 du DSA — Accès aux données et contrôle des données
L’article 40 du DSA vise à promouvoir la transparence des données détenues par des plateformes en ligne et à faciliter les travaux de recherche dans l’intérêt public qui permettent de comprendre le fonctionnement des plateformes en ligne. Il prévoit en particulier le processus par lequel des « chercheurs agréés » peuvent demander à accéder aux données publiquement accessibles sur leurs interfaces en ligne « à des fins de recherche contribuant à la détection, à la détermination et à la compréhension des risques systémiques » Le DSA fait également observer que les très grandes plateformes en ligne ainsi que les très grands moteurs de recherche en ligne ont l’obligation de répondre aux demandes d’accès aux données et de procurer les données aux chercheurs à moins que l’accès aux données « entraîne d’importantes vulnérabilités pour la sécurité de leur service ou la protection d’informations confidentielles, en particulier des secrets d’affaires ».
Le DSA définit en particulier les « chercheurs agréés » qui ont la possibilité de formuler des demandes particulières d’accès aux données. Les coordinateurs pour les services numériques qui coordonnent et supervisent l’application du DSA, accordent ce statut aux chercheurs qui ont démontré qu’ils satisfont aux exigences suivantes :
ils sont affiliés à un organisme de recherche agréé ;
ils sont indépendants de tous intérêts commerciaux ;
leur demande indique la source de financement des recherches ;
ils sont à même de respecter les exigences spécifiques en matière de sécurité et de confidentialité des données ainsi que de protéger les données à caractère personnel, et ils décrivent dans leur demande les mesures techniques et organisationnelles appropriées qu’ils ont mises en place à cet effet ;
ils démontrent que leurs demandes sont proportionnées aux fins poursuivies par leur recherche et que les résultats escomptés de cette recherche contribueront à l’intérêt général ;
ils sont engagés à mettre gratuitement à la disposition du public les résultats de leurs recherches dans un délai raisonnable après l’achèvement de celles-ci.
Source : Union européenne (2022[13]), Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), https://eur-lex.europa.eu/eli/reg/2022/2065/oj.
Les exigences de publication de rapports pourraient également prévoir une plus grande transparence concernant les demandes d’accès aux données par de tierces parties, comme les chercheurs et les entreprises de courtage en données. En l’état actuel des choses, il est difficile de savoir qui a accès aux données des utilisateurs et comment ces données sont utilisées. Les gouvernements pourraient donc contraindre les plateformes à publier des rapports supplémentaires sur le partage de données avec de tierces parties, notamment sur les personnes à qui elles vendent des données, celles à qui elles en achètent (comme les courtiers en données) et des informations sur leurs relations avec les autres acteurs qui traitent, achètent ou demandent des données sur les utilisateurs ou y ont accès (Lai, Shiffman et Wanless, 2023[4]). Il pourrait être utile d’éclaircir ces relations pour suivre les flux de données et mieux comprendre qui a accès à quels types d’informations. À cette fin, les lois relatives au respect de la vie privée peuvent être utiles pour préciser quelles sont les données à caractère personnel considérées comme publiques, tout en définissant une utilisation acceptable des données pour la recherche (Lenhart, 2023[28]).
Les chercheurs tireraient également avantage d’une plus grande harmonisation et d’un accès facilité aux données. La suppression des obstacles à l’accès réduirait les coûts et permettrait une analyse mieux documentée portant sur plusieurs réseaux sociaux et pays. Pour appréhender la sphère de l’information dans sa dimension internationale, il sera particulièrement utile de faciliter la recherche transnationale, en clarifiant notamment les domaines où des conflits juridiques peuvent se poser et en examinant les arbitrages possibles en matière de partage de données ou les dispositions de protection qui permettent aux chercheurs d’accéder aux données par-delà les frontières. (Lenhart, 2023[28]). Cela exigerait également de faire respecter les droits à la vie privée, de protéger les informations confidentielles des entreprises et d’éviter leur récupération pour des intérêts commerciaux et gouvernementaux, même si l’objectif de la collaboration en matière de données est de faciliter une approche plus harmonisée dans le but d’améliorer la résilience et l’intégrité de l’information. (Scott, 2023[29]).
Renforcer la transparence de la publicité à caractère politique sur les plateformes en ligne
Les actions des pouvoirs publics peuvent également viser à accroître la transparence des publicités à caractère politique sur les plateformes. La publicité à caractère politique désigne toute annonce publicitaire effectuée par un candidat ou un parti ou en leur nom, qui communique un message sur une question politique d’importance nationale ou locale ou qui est susceptible d’influencer l’issue d’une élection.8 Les données pourraient inclure un plus grand nombre d’informations sur la provenance des contenus (les campagnes et les organisations politiques peuvent être tenues de rendre compte des fonds consacrés à la publicité, mais il n’en va pas de même des sommes dépensées par les agences de publicité et les cabinets de conseil en leur nom, ce qui, selon certaines recherches, pourrait représenter la majeure partie des dépenses) ; une précision accrue et la normalisation des rapports publiés ; et le stockage et l’accès à des fins de recherche afin de réduire les déficits en termes de données et d’accès procurés par les plateformes et bibliothèques existantes (Brennen et Perault, 2021[30]). Il serait également possible de recueillir davantage d’informations relatives aux actions des instances politiques sur les plateformes en raison des obligations de publication de rapports sur l’activité publicitaire d’un utilisateur. Les rapports pourraient comporter des détails sur les publics ciblés ainsi que sur le contenu des publicités. Ces données permettraient de mieux comprendre les stratégies d’influence des annonceurs à l’égard de leur cible, du moins en ce qui concerne les grands groupes d’utilisateurs (Lai, Shiffman et Wanless, 2023[4]).
Plusieurs efforts ont été déployés dans ce sens, notamment la décision de 2019 de la Commission électorale centrale d’Israël qui a interdit les publicités électorales anonymes sur toutes les plateformes, y compris les réseaux sociaux, tant en provenance d’Israël que de l’étranger. En effet, la décision applique à la publicité sur Internet les restrictions prévues par la loi relative aux élections (méthodes de propagande) de 1959, qui traite principalement de la publicité sur les panneaux d’affichage, à la radio, à la télévision, dans les stations de radio régionales et dans les sondages électoraux publiés (The Times of Israel, 2019[31]). Plus récemment, en Europe, le DSA a exigé que les plateformes fournissent « les informations nécessaires aux utilisateurs pour comprendre quand et pour le compte de qui la publicité est présentée ».
Un autre levier d’action en matière de publicité à caractère politique pourrait consister à exiger la création et la conservation de bases de données normalisées, accessibles au public et consultables sur la publicité à caractère politique (Brennen et Perault, 2021[30]). Outre le contenu des annonces publicitaires, leur source et les fonds utilisés pour les financer, ainsi que les données de ciblage et le profilage utilisés, pourraient en faire partie. Un registre public de ce type serait précieux pour les chercheurs, les avocats et les autorités de régulation afin de mieux comprendre les flux d’informations entourant les élections et les débats politiques, et de contribuer à éclairer les mesures réglementaires à prendre à l’avenir, en tant que de besoin (MacCarthy, 2021[23]). À cet égard, le DSA demande aux très grandes plateformes en ligne et aux très grands moteurs de recherche de « garantir l’accès du public aux registres des publicités présentées sur leurs interfaces en ligne afin de faciliter la surveillance et les recherches relatifs aux risques émergents engendrés par la diffusion de publicités en ligne […]. Les registres devraient inclure le contenu des publicités […] et les données connexes concernant l’annonceur et, si elle est différente, la personne physique ou morale qui a financé la publicité, et la diffusion de la publicité, en particulier lorsqu’il s’agit de publicité ciblée (Union européenne, 2022[13]) ».
2.3. Promouvoir des médias et des espaces de l’information pluralistes, indépendants et concurrentiels
Un secteur des médias diversifié et indépendant, ainsi qu’un écosystème de l’information qui soutient le journalisme et facilite la production d’informations de qualité, jouent un rôle essentiel dans la mise en place de sociétés ouvertes et démocratiques en diffusant des informations fiables, en attirant l’attention du public sur certaines questions, en facilitant le débat, en servant de gardien de l’intérêt public et en obligeant les acteurs publics à rendre des comptes (OCDE, 2014[32]). Le manque d’accès à des fournisseurs d’informations exactes et vérifiables, et de confiance envers eux, empêche les citoyens d’accéder à des faits partagés, entrave la prise de décision éclairée et le débat démocratique, et ouvre la porte à une amplification de la diffusion d’informations fausses et de désinformation.
L’Indice mondial de la liberté de la presse 2023, qui évalue l’environnement du journalisme dans 180 pays et territoires, révèle que le pourcentage de pays de l’OCDE où l’environnement est « bon » pour le journalisme a diminué de plus de moitié en huit ans. Alors que 49 % des pays de l’OCDE étaient classés comme « bons » en 2015, ils n’étaient plus que 21 % en 2023. Au niveau mondial, cette part est passée de 21 % à 4 %, ce qui témoigne de la vigueur relative des Membres de l’OCDE en la matière (RSF -, 2023[33]). Les données relatives à la confiance mettent également en évidence les dynamiques difficiles auxquelles sont confrontés les médias traditionnels. Notamment, seuls quatre personnes sur dix (38.8 %) à l’édition 2021 de l’Enquête de l’OCDE sur les déterminants de la confiance dans les institutions publiques ont déclaré avoir confiance dans les médias d’information (OCDE, 2022[34]), et d’autres recherches ont montré que la confiance accordée aux informations a continué à régresser au niveau mondial entre 2022 et 2023 (Newman et al., 2023[2]).
Cette dynamique s’inscrit dans un contexte de menaces permanentes pour la sécurité des journalistes. Selon les estimations, entre 937 (RSF, 2020[35]) et 956 (UNESCO, 2021[36]) journalistes auraient été tués dans le monde entre 2010 et 2020. En plus de constituer des actes illégaux, des préjudices physiques et des violations des droits humains, les agressions à l’encontre des journalistes restreignent la libre expression et privent le public de son droit à recevoir des informations, ce qui entrave la liberté d’expression, limite l’espace civique et restreint la possibilité d’un débat public éclairé (OCDE, 2022[20]). En plus de garantir la liberté d’expression, les gouvernements doivent protéger les journalistes, les professionnels des médias et les chercheurs menacés, mais aussi surveiller les menaces et les attaques dont ils font l’objet, enquêter à leur sujet et leur donner accès à la justice. C’est notamment l’objectif de la recommandation du Conseil de l’Europe de 2016 sur la protection du journalisme et la sécurité des journalistes et autres acteurs des médias (Conseil de l'Europe, 2016[37]). Dans le même ordre d’idées, la Plateforme du Conseil de l’Europe pour la sécurité des journalistes9 et le Media Freedom Rapid Response (MFRR) Monitor10 de l’UE établissent des rapports sur les menaces graves pesant sur la sécurité des journalistes et la liberté des médias.11
Les médias traditionnels sont également confrontés à des problèmes financiers dus à la diminution des recettes publicitaires, le marché de la publicité s’étant déplacé vers le numérique, en particulier vers les plateformes en ligne. Aux États-Unis, par exemple, en 2020, les éditeurs de journaux ont gagné moins de la moitié de ce qu’ils gagnaient en 2002 (Ministère américain de la Justice, 2022[38]). L’Australian Competition and Consumer Commission (ACCC – Commission australienne de la concurrence et des consommateurs) a constaté que le nombre de journalistes dans les entreprises de presse traditionnelle a chuté de 20 % entre 2014 et 2018 (Commission australienne de la concurrence et de la protection des consommateurs, 2019[24]). Les petits médias régionaux sont souvent particulièrement touchés. Au Royaume-Uni, le marché de la publicité dans les journaux régionaux représentait 2.5 milliards de livres sterling (GBP) dans les années 1990, contre 241 millions GBP à la fin de 2022 (Sweney, 2023[39]). L’augmentation des abonnements numériques ne compense qu’une petite partie des recettes antérieures.
Avec le déclin des petits médias régionaux, des régions entières se retrouvent souvent dépourvues de médias locaux de qualité. Les États-Unis ont perdu près de 2 900 journaux depuis 2005 (il n’en reste plus que 6 000 à l’échelle du pays), dont beaucoup étaient la seule source d’informations locales dans les localités de petite et moyenne taille. En outre, sur la même période, le pays a perdu près des deux tiers (43 000) de ses journalistes de presse écrite (Medill Local News Initiative, 2023[40]). Entre 2004 et 2019, les autorités australiennes ont constaté que le nombre d’articles publiés sur des questions portant sur les collectivités et les affaires judiciaires locales avait fortement diminué, un phénomène préoccupant compte tenu du rôle important que joue ce type de couverture qui permet de dénoncer la corruption et d’obliger les pouvoirs publics, les entreprises et les particuliers à rendre des comptes (Commission australienne de la concurrence et de la protection des consommateurs, 2019[24]). Les « déserts médiatiques », qui résultent de la pénurie de médias locaux, peuvent créer des lacunes dans l’environnement de l’information qui sont souvent comblées par des nouvelles provenant de plateformes en ligne et des réseaux sociaux, ce qui accentue encore les possibilités de diffusion de fausses informations et de désinformation. Les données recueillies en Allemagne montrent également que le déclin des médias locaux a une incidence négative sur la polarisation politique (Ellger et al., 2021[41]).
Outre le rôle des plateformes en ligne dans l’espace de l’information, la structure des marchés des médias traditionnels reste une question de politique publique essentielle pour garantir que le public dispose des informations nécessaires à une participation démocratique réelle. La capture des médias, la concentration du marché et les menaces qui pèsent sur les médias locaux et communautaires peuvent faire obstacle à un large débat public et promouvoir des points de vue unilatéraux susceptibles de nuire à l’intégrité de l’information (OCDE, 2022[20]). Les politiques gouvernementales peuvent par conséquent jouer un rôle constructif en favorisant le discours démocratique par la promotion de la liberté, de la diversité et de l’indépendance des médias. Si ces interventions ne visent pas spécifiquement à lutter contre la désinformation, elles montrent néanmoins la manière dont les gouvernements peuvent mettre l’accent sur l’évolution des marchés des médias afin de leur permettre de servir de source d’information nécessaire au sein des démocraties.
Les problèmes auxquels sont confrontés les médias dans toutes les démocraties sont particulièrement préoccupants, étant donné le rôle que joue ce secteur dans l’information des citoyens, le bon fonctionnement de la démocratie, la bonne gouvernance et la lutte contre la corruption. À cette fin, les mesures prises par les pouvoirs publics pour renforcer le secteur des médias traditionnels sont notamment les suivantes :
Protéger et rehausser la sécurité des journalistes
Renforcer la transparence et l’indépendance politique des médias traditionnels, et
Prévenir l’accaparement des médias et promouvoir le pluralisme et l’indépendance du paysage informationnel
2.3.1. L’intégrité de l’information suppose que l’on mette l’accent sur la sécurité des journalistes, la transparence et la prévention de la capture des médias
Garantir la liberté d’opinion et d’expression suppose un accès non censuré et sans entraves à la presse et aux autres médias. À cette fin, il est également essentiel de mettre en place des mécanismes de protection des journalistes, d’enquêter systématiquement et d’établir un suivi sur les menaces et les agressions dont ils font l’objet et de leur donner accès à la justice afin qu’ils puissent participer pleinement au processus démocratique (OCDE, 2022[20]). Par exemple, au Luxembourg, la Loi du 7 août 2023 portant modification du Code pénal prévoit de nouvelles sanctions pour les agressions commises à l’encontre des journalistes lors de manifestations. En outre, les personnes qui menacent des individus s’exposent à une peine d’emprisonnement, avec une circonstance aggravante si la cible est un journaliste. Le code précise également que la divulgation de données personnelles et professionnelles (« doxxing ») peut entraîner la responsabilité pénale de l’auteur, avec une circonstance aggravante si la cible est un journaliste (Grand-Duché de Luxembourg, 2023[42]).
Au-delà des journalistes, un autre moyen de prévenir l’ingérence consiste à lutter contre la capture des médias et à promouvoir l’indépendance éditoriale. La capture des médias désigne les situations dans lesquelles des individus ou des groupes exercent un contrôle significatif sur les médias, de façon à influencer le contenu et la couverture médiatiques. Dans ces situations, la capacité des médias à jouer leur rôle démocratique de « chien de garde » est compromise (Nelson, 2017[43]). Le risque de capture d’un média par des intérêts politiques ou privés augmente à mesure de la concentration du secteur (Gouvernement de la République française, 2022[44]), lorsque la propriété se concentre entre les mains d’un petit nombre d’entités ou d’individus. Ces derniers peuvent à leur tour promouvoir des points de vue unilatéraux qui peuvent conduire à une polarisation et empêcher un débat démocratique équilibré et diversifié (OCDE, 2022[20]).
Des mesures peuvent en premier lieu permettre de maintenir un marché diversifié et pluraliste pour les médias traditionnels en limitant la concentration du secteur. Par exemple, elles peuvent prendre la forme d’un contrôle de la propriété croisée des médias (c’est-à-dire d’un contrôle de la propriété conjointe de chaînes de radiodiffusion dans la même région géographique). En effet, les lois conçues pour empêcher la concentration de manière préventive constituent souvent le principal pilier des efforts déployés par un État pour garantir la diversité des médias et empêcher la concentration d’opinions dans le secteur des médias (European Audiovisual Observatory, 2016[45]) (Nelson, 2017[43]). Dans l’UE, l’Observatoire du pluralisme des médias (Media Pluralism Monitor – MPM)12 est un outil qui mesure l’état du pluralisme des médias dans 34 pays et formule des recommandations.
La promotion de la diversité de la propriété des médias au moyen de règles antitrust et de règles de concurrence loyale appelle plusieurs considérations. Dans un rapport, le gouvernement français recommande d’évaluer l’impact des transactions sur le pluralisme au cas par cas, en utilisant une analyse reposant sur des indicateurs qualitatifs (promotion de la diversité des contenus, indépendance de l’information) et quantitatifs (audience, couverture, viabilité économique des opérateurs) (Gouvernement de la République française, 2022[44]). Le Royaume-Uni a adopté une approche similaire. La loi sur les communications de 2003 énonce des considérations d’intérêt public pour la radiodiffusion et les fusions entre médias, notamment la nécessité d’une « pluralité suffisante des personnes contrôlant les entreprises de médias », d’un large éventail de programmes de radiodiffusion de qualité et susceptibles de plaire à une grande diversité de goûts et d’intérêts, et d’un véritable engagement des médias à respecter les normes d’exactitude et d’impartialité définies ailleurs dans la loi (Gouvernement du Royaume-Uni, 2003[46]). En Norvège, les entreprises et les propriétaires de médias sont tenus de fournir des informations sur l’actionnariat à l’Autorité norvégienne des médias dans le but d’accroître la transparence, la sensibilisation et la connaissance des participations dans les médias norvégiens (Gouvernement de la Norvège, 2016[47]).
Deuxièmement, les mesures qui renforcent la transparence sur les marchés des médias au niveau national peuvent fortement contribuer à garantir l’indépendance des médias à l’égard des intérêts politiques et commerciaux et à les soustraire aux influences politiques étrangères ou nationales. L’opacité de la propriété rend difficile l’identification de la partialité sous-jacente, ce qui risque d’ébranler davantage la confiance dans les médias. La transparence est donc une mesure nécessaire — mais non suffisante — pour renforcer la pluralité des médias et améliorer la confiance envers ce secteur (Craufurd Smith, Klimkiewicz et Ostling, 2021[48]).
La Cour européenne des droits de l’homme a notamment reconnu que les États parties à la Convention européenne des droits de l’homme ont l’obligation positive de « mettre en place un cadre législatif et administratif approprié pour garantir un pluralisme effectif [des médias] » et que ce pluralisme ne peut être pleinement efficace sans une information claire. À cette fin, elle reconnaît la valeur de la transparence et de l’indépendance des médias pour la démocratie, notamment en ce qui concerne l’intérêt des individus à avoir accès à l’information « sur toutes les questions d’intérêt public » et la capacité des médias à assumer leur « rôle vital de chien de garde public » (Cour européenne des droits de l’homme, 2001[49]). En outre, la Recommandation du Conseil de l’Europe de 2018 sur le pluralisme des médias et la transparence de leur propriété note que la liberté et le pluralisme des médias sont « des corollaires essentiels du droit à la liberté d’expression [...] et [...] sont essentiels au fonctionnement d’une société démocratique, car ils contribuent à assurer la disponibilité et l’accessibilité d’informations et d’idées diverses qui vont alimenter les échanges des citoyens et leur permettre de forger leurs opinions personnelles » (Conseil de l'Europe, 2018[50]).
Les exigences portent notamment sur la transparence de la propriété des médias, par exemple en imposant la divulgation complète de l’identité des propriétaires, de l’importance de leurs participations et de leurs autres intérêts économiques et politiques. La propriété doit faire référence au « bénéficiaire effectif » ou à la (aux) « personne(s) physique(s) qui possède(nt) en dernier ressort [...]et/ou exerce(nt) en dernier ressort un contrôle effectif » (GAFI, 2023[51]). Les informations fournies doivent également « identifier la ou les personnes physiques qui sont les bénéficiaires effectifs, ainsi que les moyens et les mécanismes par lesquels elles détiennent la propriété, le contrôle ou d’autres moyens » (GAFI, 2023[51]). Ces informations peuvent fournir aux décideurs politiques, aux régulateurs et au public les données pertinentes nécessaires à l’élaboration, au suivi et à l’application des limites de propriété et à la prévention de la capture (Craufurd Smith, Klimkiewicz et Ostling, 2021[48]). Il est possible de faire davantage dans ce domaine. En Europe, par exemple, si la plupart des pays (24 sur 31)13 exigent que les informations relatives à la propriété soient communiquées aux organismes publics, une minorité d’entre eux (14 sur 31) exigent qu’elles soient communiquées au public (Craufurd Smith, Klimkiewicz et Ostling, 2021[48]). Outre la propriété effective, les informations doivent également porter sur les relations notamment financières susceptibles d’entraîner une influence éditoriale et des conflits d’intérêts, telles que la prise de participation dans d’autres secteurs ayant des intérêts gouvernementaux importants, l’exercice d’une fonction politique et la garantie que les budgets publicitaires publics sont alloués de manière ouverte et concurrentielle et indépendamment de toute influence politique (Nelson, 2017[43]).
Troisièmement, les gouvernements peuvent également adopter une position claire sur le respect de l’indépendance éditoriale. Par exemple, la loi norvégienne sur la responsabilité des médias vise à « faciliter un débat public ouvert et informé en garantissant l’indépendance éditoriale » en obligeant les éditeurs à nommer un rédacteur en chef indépendant. Plus précisément, cela signifie que le propriétaire ou la direction de l’entreprise « ne peut pas donner d’instructions au rédacteur en chef ou l’influencer sur des questions éditoriales, ni exiger d’avoir accès à [...] du matériel avant qu’il ne soit rendu public ».14
Pour sa part, la proposition de législation européenne sur la liberté des médias vise à protéger l’indépendance des médias en renforçant les garde-fous contre l’ingérence politique dans les décisions éditoriales et en favorisant la transparence de la propriété des médias et de l’allocation de la publicité d’État. Elle cherche également à défendre le pluralisme des médias en promouvant le financement stable des médias de service public et en exigeant des États membres qu’ils évaluent les effets des concentrations sur les marchés des médias sur le pluralisme des médias et l’indépendance éditoriale et qu’ils créent un nouveau Comité européen pour les services de médias, indépendant et composé d’autorités nationales de régulation des médias. Il est important de noter qu’elle comprend également des garde-fous contre le retrait injustifié de contenus médiatiques produits selon des normes professionnelles. D’après ce « privilège des médias », l’appartenance aux conseils de presse est l’un des critères permettant d’identifier les médias fiables. Le but est, de manière générale, de promouvoir le rôle des médias et du journalisme dans le discours démocratique (Commission européenne, 2022[52]).
2.3.2. Les gouvernements peuvent jouer un rôle important dans le soutien d’un environnement médiatique diversifié et indépendant
Le journalisme de qualité est important pour la démocratie et les États devraient mettre en place des mesures efficaces pour le soutenir (Conseil de l'Europe, 2023[53]). Le journalisme de qualité, en particulier s’il s’agit de journalisme d’investigation, a besoin d’importantes ressources financières. Les gouvernements peuvent jouer un rôle non négligeable dans la survie et la transformation du secteur des médias en fournissant divers moyens de soutien financier, avec des garde-fous concernant l’influence des pouvoirs publics sur le contenu .15 Au niveau national, le financement peut prendre la forme d’un soutien aux radiodiffuseurs de service public indépendants, de subventions directes et de fonds compétitifs ou sélectifs pour les médias privés ou à but non lucratif, et de mesures indirectes telles que des subventions fiscales. Les gouvernements peuvent également fournir une aide publique au développement (APD) dans le cadre de leurs efforts pour soutenir et promouvoir un journalisme diversifié et indépendant dans les pays bénéficiaires de l’aide (Forum sur l’information et la démocratie, 2021[54]).
Mécanismes d’appui au niveau national
Les radiodiffuseurs de service public indépendants, qui sont intégralement ou en partie financés par des fonds publics mais qui sont néanmoins indépendants sur le plan éditorial,16 peuvent jouer un rôle déterminant dans le renforcement de l’intégrité de l’information, car ils sont considérés comme des sources d’information importantes dans la plupart des pays de l’OCDE. De nombreux radiodiffuseurs publics ont également une fonction de vérification des faits (ou « fact-checking ») qui leur permet de jouer un rôle direct dans la lutte contre la désinformation. Parmi les exemples, citons « Vrai ou Faux » de France Info, une initiative conjointe de deux radiodiffuseurs français, Radio France et France Télévision, ainsi que les services similaires de la Deutsche Welle et des radiodiffuseurs publics lituanien et estonien. De son côté, l’Australian Broadcasting Corporation (ABC) s’associe au Royal Melbourne Institute of Technology (RMIT) dans le cadre du programme « RMIT ABC Fact Check » afin de déterminer l’exactitude des affirmations des politiciens, des personnalités publiques, des groupes de défense et des institutions engagées dans le débat public.
Le soutien financier direct et indirect accordé par les pouvoirs publics peut également bénéficier aux médias privés qui répondent à des critères d’audience spécifiques ou à d’autres critères. Il prend souvent la forme de régimes fiscaux spéciaux et de remises sur les frais d’affranchissement. Les aides publiques directes et les mesures indirectes comme les avantages fiscaux restent d’importants outils d’aide aux médias d’information, à condition qu’elles soient transparentes, objectives et prévisibles (Conseil de l'Europe, 2023[53]). Ces mesures s’inscrivent dans un contexte historique : aux États-Unis, le Postal Service Act de 1792 attribuait des subventions postales, ce qui permettait d’utiliser indirectement les fonds publics pour soutenir la presse locale (Medill Local News Initiative, 2023[40]). En Europe, les subventions indirectes sont la forme la plus courante de subventions publiques. En effet, 19 des 24 pays ayant récemment fait l’objet d’une étude ont mis en place des règles transparentes pour l’attribution des subventions indirectes. Ces subventions sont généralement considérées comme moins risquées que des interventions plus directes, étant donné qu’il est plus difficile de distribuer des subventions indirectes de manière sélective (Bleyer-Simon et Nenadić, 2021[55]). En Norvège, par exemple, les médias bénéficient d’une exonération de la taxe sur la valeur ajoutée (25 %), à l’exception de certains services d’information électroniques. Des études montrent que dans les pays à revenu élevé, les subventions indirectes, comme les exonérations de TVA accordées à la presse écrite et aux journaux privés, sont équivalentes et parfois supérieures aux subventions directes accordées aux médias de service public (Forum sur l’information et la démocratie, 2021[54]).
Les pouvoirs publics peuvent également apporter une aide financière directe, notamment aux médias culturels, aux médias dans les langues des minorités, au journalisme d’investigation, aux projets de vérification des faits, ou à un soutien plus large et au renforcement des capacités des médias traditionnels (en particulier locaux et régionaux). La Belgique a créé en 2009 le Fonds pour le journalisme, qui prévoit un financement directe des journalistes et est géré de façon indépendantes par l’association belge des journalistes professionnels, tandis qu’au Luxembourg, la loi du 30 juillet 2021 lie le montant de l’aide disponible pour le secteur des médias à la quantité de journalistes professionnels employés par le média, reconnus comme tels par le conseil de presse indépendant et soumis au code d’autorégulation du secteur. Une commission consultative composée de membres de la presse et de la rédaction, de l’université nationale et de membres de l’administration gouvernementale analyse les critères et supervise le budget d’aides annuel de 10 millions d’euros (Grand-Duché de Luxembourg, 2021[56]).
Le financement direct est souvent limité ou disponible pour des contenus spéciaux, tels que les médias diffusés dans les langues des minorités ou la promotion de sujets spécifiques. En Italie, la loi de finances de 2024, par exemple, finance un système visant à aider l’industrie des médias au moyen d’un Fonds unique permanent pour le pluralisme et l’innovation numérique dans le secteur de l’information et de l’édition médiatique. Les conditions d’éligibilité pour recevoir des fonds comprennent, entre autres, des niveaux de salaire minimum et le recrutement d’un nombre minimum de journalistes professionnels bénéficiant d’un contrat permanent à temps plein (au moins quatre journalistes pour les éditeurs de quotidiens et au moins deux journalistes pour les éditeurs de périodiques). Les dotations favoriseront également les éditeurs qui recrutent des journalistes et des professionnels âgés de 35 ans ou moins, ayant des compétences professionnelles dans les domaines de l’édition numérique, de la communication et de la cybersécurité, et axés sur la lutte contre la désinformation (Gazzetta Ufficiale, 2023[57]). En outre, la Finlande accorde 800 000 euros aux magazines culturels et 500 000 euros aux journaux dans les langues des minorités (Bleyer-Simon et Nenadić, 2021[55]). Pour autant que les fonds soient alloués de manière transparente, publiquement responsable et relativement prévisible, les subventions directes peuvent jouer un rôle important dans le soutien aux médias et à l’espace informationnel (Forum sur l’information et la démocratie, 2021[54]).
Les gouvernements peuvent soutenir financièrement les médias privés en achetant des publicités. Toutefois, ce soutien direct doit être apporté de manière transparente et impartiale afin d’éviter que le gouvernement ou les élus ne prennent le contrôle des médias. Si elle n’est pas menée de manière transparente et impartiale, la publicité d’État peut constituer une forme de soutien problématique, susceptible d’être utilisée pour acheter ou maintenir une influence politique. Notamment, au sein de l’Union européenne, 19 des 24 pays récemment étudiés ne disposent pas de lignes directrices pour une répartition transparente de la publicité d’État entre les différents médias (Bleyer-Simon et Nenadić, 2021[55]).
Pour sa part, le rapport de la Commission irlandaise sur l’avenir des médias a recommandé de développer le secteur des médias et d’accroître sa pluralité en transformant l’actuel Fonds de radiodiffusion en un « Fonds pour les médias » qui serait neutre à l’égard des plates-formes, afin de financer des programmes pour les fournisseurs de contenu de service public, y compris pour les reportages d’actualité locaux, et de soutenir la transformation numérique. Le rapport recommande en outre de réduire la taxe sur les journaux et les publications numériques, ainsi que d’accorder des exonérations fiscales pour les investissements dans les organisations de médias à but non lucratif (Gouvernement de l’Irlande, 2022[58]).
Les aides peuvent aussi servir à atteindre les groupes vulnérables et difficiles d’accès. Par exemple, le gouvernement estonien soutient la création de contenus en langue russe, considérée comme un moyen efficace de fournir des informations fiables aux personnes ne parlant pas l’estonien dans le pays. Ces informations sont destinées à concurrencer la propagande financée par l’État russe et ciblant la minorité ne parlant pas l’estonien. Le financement a été accordé au radiodiffuseur public ERR ainsi qu’à des médias privés. Le programme d’aide a été créé en coopération avec les médias, et accorde une attention particulière à la liberté d’expression et à la neutralité politique (ERR, 2023[59]).
Les médias locaux ou spécialisés, dits médias communautaires jouent eux aussi un rôle important pour garantir un environnement médiatique diversifié et libre. Les médias communautaires désignent au sens large des entreprises de radiodiffusion, de presse et de multimédia qui sont indépendantes des pouvoirs publics, des institutions commerciales et des partis politiques et qui sont dirigées et détenues en grande partie par les communautés locales et/ou les communautés d’intérêt auxquelles elles s’adressent (Chapman, Bellardi et Peissl, 2020[60]). Les pouvoirs publics peuvent notamment agir en renforçant l’infrastructure internet pour permettre aux fournisseurs d’informations locales et communautaires de se développer. Les zones dépourvues de connexions à large bande ou dont les coûts de connexion à l’internet sont élevés ne présentent que peu d’intérêt économique pour les organismes de radiodiffusion et les jeunes entreprises numériques qui souhaitent fournir des nouvelles et des informations à leurs habitants. La résolution des problèmes liés au manque d’accès à l’internet à haut débit, y compris dans les endroits qui ne disposent plus de sources d’information locales, peut (entre autres résultats positifs) contribuer à réduire la fracture numérique et à renforcer la compétitivité des fournisseurs d’informations locales et communautaires (Medill Local News Initiative, 2023[40]).
Le Conseil de l’Europe rappelle l’importance des médias communautaires dans sa Recommandation sur le pluralisme des médias et la transparence de la propriété des médias, qui encourage les États membres à « soutenir la mise en place et le fonctionnement de médias minoritaires, régionaux, locaux et associatifs à but non lucratif, y compris en instituant des mécanismes financiers pour favoriser leur développement (Conseil de l'Europe, 2018[50]). » De même, l’Organisation pour la sécurité et la coopération en Europe (OSCE) recommande aux États de reconnaître la nature distincte des médias communautaires à but non lucratif, de garantir leur indépendance et de leur permettre d’offrir aux membres des communautés auxquelles ils s’adressent des opportunités et une formation leur permettant de produire leur propre contenu médiatique (OSCE, 2019[61]).
Le Luxembourg a mis en place un mécanisme d’aide financière de 100 000 euros par an pour les médias communautaires qui s’appuient sur la participation volontaire des individus aux activités éditoriales et qui soutiennent l’éducation aux médias, l’intégration et la cohésion sociale (Grand-Duché de Luxembourg, 2021[56]). Pour sa part, en 2020, le Royaume-Uni comptait 255 stations de radio communautaires, avec 3.5 millions d’auditeurs locaux et 20 000 bénévoles (Chapman, Bellardi et Peissl, 2020[60]). En plus de contribuer à la diversité de l’écosystème médiatique d’un pays, faciliter la participation du public à la production d’un journalisme pertinent à l’échelle locale peut constituer un moyen important de favoriser l’acquisition d’une éducation aux médias.
Initiatives internationales visant à renforcer l’environnement médiatique et informationnel
L’appui des pouvoirs publics à un secteur des médias diversifié et indépendant constitue également une priorité en matière de coopération et de développement internationaux. Dans de nombreux pays, les agences de développement soutiennent l’intégrité de l’information par l’intermédiaire de partenariats avec les médias locaux et les journalistes travaillant sur le terrain. Les financements de l’APD pour l’environnement médiatique et informationnel sont passés de 325 millions USD en 2002 à 1.2 milliard USD en 2021. Toutefois, cela ne représentait que 0.5 % de l’APD totale en 2021 et, si l’on exclut les investissements dans les infrastructures (comme les connexions téléphoniques et à large bande), l’APD consacrée aux médias et à l’information est restée stable à environ 500 millions USD par an depuis 2008 (OCDE, 2024[62]).
L’aide au développement dans le domaine des médias et de l’information s’inscrit généralement dans trois domaines d’action. La première priorité concerne le renforcement de la gouvernance publique. Ces projets soutiennent les efforts visant à promouvoir la liberté d’expression, le rôle des médias pour renforcer la gouvernance et à la reddition des comptes (y compris le développement du secteur des médias et le rôle des médias dans les élections), l’accès à l’information et la transparence des pouvoirs publics, ainsi que la démocratie numérique et les libertés sur l’internet. La deuxième priorité est l’élargissement de l’accès aux technologies et aux infrastructures physiques, y compris le soutien aux innovations technologiques, à l’infrastructure (téléphone et large bande) et aux réformes de la réglementation en matière de télécommunications. Une troisième catégorie comprend le soutien aux médias et aux efforts de communication pour diffuser des informations sur des objectifs de développement spécifiques, notamment en matière de santé, d’environnement ou d’autres objectifs de développement. Elle comprend également des programmes de communication stratégique visant à diffuser des informations sur les priorités et les intérêts des partenaires de développement (voir Encadré 2.5 par exemple) (OCDE, 2024[62]).
Encadré 2.5. Initiatives d’APD visant à renforcer l’environnement médiatique et informationnel
En France, le ministère de l’Europe et des Affaires étrangères soutient Canal France International (CFI), l’agence française de coopération pour les médias qui a pour mission de favoriser le développement des médias dans les pays bénéficiaires de l’aide au développement. Elle soutient les médias et les acteurs de la société civile basés dans ces pays qui s’engagent à fournir une information libre, démocratique et impartiale, tout en sensibilisant aux enjeux du développement durable. Depuis 2016, l’Agence française de développement (AFD) est également chargée par le ministère de l’Europe et des Affaires étrangères de financer des projets en faveur de la liberté de la presse et de la formation des journalistes, du renforcement des médias et de la lutte contre la désinformation. L’AFD a notamment signé en 2022 un accord de partenariat pluriannuel avec Reporters sans frontières, qui est mis en œuvre dans 66 pays sur quatre continents. Cet accord prévoit des financements pour 18 organisations locales en Europe, au Moyen-Orient et en Afrique du Nord et de l’Ouest, spécialisées dans les formations sur la sécurité des journalistes, le fact-checking et le journalisme d’investigation.
L’Agence espagnole de coopération internationale pour le développement (Agencia Española de Cooperación Internacional para el Desarrollo - AECID) a lancé Programa Democracia en 2023 dans le but de soutenir le dialogue social et les échanges de connaissances entre l’Espagne, d’autres pays européens, l’Amérique latine et les Caraïbes, afin de renforcer les valeurs démocratiques. La protection des droits humains et des libertés fondamentales au travers du soutien aux journalistes, aux militants et aux universitaires, ainsi que la défense d’un espace médiatique diversifié et pluraliste qui favorise un dialogue raisonné dans ces régions, constitue l’un des principaux piliers de ce programme.
La Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ), l’agence allemande de développement, finance également des projets visant à améliorer la qualité journalistique et l’innovation des organisations médiatiques indépendantes. Avec l’Union européenne, en tant que source de cofinancement, et DW Akademie et Internews Europe, en tant que partenaires de mise en œuvre, la GIZ soutient un projet sur trois ans (2022-2025) sur la liberté et le pluralisme des médias dans les Balkans occidentaux. Ce projet vise à aider les médias indépendants à améliorer leurs capacités en matière de rapports et de génération de revenus.
En 2023, l’Agence des États-Unis pour le développement international (USAID) a lancé l’initiative Pro-Info, qui fournira 16 millions USD pour promouvoir l’éducation au numérique et aux médias et soutenir les technologies émergentes et les efforts de « pre-bunking » dans les pays où elle est présente.
Il ressort des évaluations que la coopération internationale et l’APD peuvent jouer un rôle particulièrement important en aidant les acteurs des médias à survivre, et donc à tenir les citoyens aussi bien informés que possible y-compris dans des contextes politiques fragiles et dans des situations de conflit. Des investissements conséquents et à long terme peuvent également avoir des effets sur l’ensemble du système, comme c’est le cas de la transformation du secteur des médias en Ukraine. À court et à moyen terme, les programmes thématiques peuvent s’avérer efficaces, par exemple lorsqu’ils braquent les projecteurs sur des affaires de corruption et obligent les responsables à rendre des comptes par l’intermédiaire de réseaux de journalisme d’investigation. À plus long terme, en soutenant les capacités des journalistes, en renforçant les entreprises de médias et en développant l’environnement médiatique au sens large, il est possible de faire bénéficier un public plus large d’une information de meilleure qualité et plus intéressante.
En revanche, on ne mesure pas suffisamment l’impact, et les possibilités d’élaborer des évaluations et des stratégies conjointes des donneurs dans les pays partenaires restent largement inexploitées. Une étude réalisée en 2023 par l’USAID a classé les pays dans le groupe dit du « Nord global » et dans le groupe du « Sud global » et a constaté un « grave déséquilibre » dans les données relatives à la lutte contre la désinformation dans les pays selon qu’ils appartiennent à l’un ou à l’autre groupe. L’examen a révélé que 80 % des études recensées avaient été menées dans le Nord global, ce qui ne permet pas de tirer des conclusions sur les stratégies efficaces de lutte contre la désinformation dans le Sud global (USAID, 2023[68]).
Des preuves de la manière dont les environnements informationnels profitent à d’autres objectifs de développement et diplomatiques, et de la manière dont les programmes d’APD liés à l’espace informationnel peuvent être les plus efficaces, renforceraient le poids politique du soutien international et pourraient conduire à une augmentation de l’APD et du nombre d’experts sur ce thème. Récemment, des initiatives soutenues par l’APD pour lutter contre la désinformation ont été mises à l’essai, notamment en relation avec la pandémie de COVID-19 et les processus électoraux dans les pays partenaires, mais elles restent marginales car il s’agit d’un domaine nouveau pour de nombreux donneurs et l’expertise est limitée.
Pour soutenir et renforcer ces efforts, plusieurs initiatives normatives sont en cours d’élaboration et de mise en œuvre. Le Réseau du CAD de l’OCDE sur la gouvernance élabore actuellement une version actualisée des « principes pour un soutien pertinent et efficace aux médias et à l’espace de l’information », et, en octobre 2023, la Coalition pour la liberté en ligne a adopté les Principes des Donneurs pour les Droits Humains à l’Ère numérique .17
Poursuivre l’établissement de partenariats entre les agences de développement, les acteurs locaux et les organismes internationaux permettra de fournir des financements et de promouvoir l’échange de pratiques exemplaires dans un contexte où le journalisme indépendant dans les langues locales est confronté à l’érosion des modèles économiques et, dans certains contextes, à des risques pour la sécurité et à des restrictions de la liberté de la presse (UNESCO, 2022[69]). Par exemple, le Global Engagement Center (GEC) du Département d’État des États-Unis mène plusieurs actions pour soutenir les médias indépendants dans les pays où ils sont attaqués. Par ailleurs, les activités comprennent le soutien à la continuité des opérations, des formations sur les compétences journalistiques, des études locales sur les tactiques de capture des médias et la planification de la viabilité commerciale pour les médias indépendants, le mentorat des parties prenantes et la promotion de réseaux régionaux entre les entités qui défendent la liberté d’expression. Le GEC dénonce en outre directement les récits et les tactiques de désinformation et collabore avec des partenaires étrangers pour renforcer la résistance à la manipulation et à l’interférence de l’information étrangère (FIMI).
De surcroît, le Fonds international pour les médias d’intérêt public (IFPIM), créé en 2021, est une initiative indépendante et multipartite conçue pour relever les défis auxquels est confronté le secteur des médias dans les pays à revenu faible ou intermédiaire et pour définir les moyens d’assurer sa viabilité à long terme.18 En Europe, le projet « Les médias locaux pour la démocratie » vise à soutenir le paysage médiatique local par des mesures visant à renforcer la résilience, l’indépendance et la durabilité. À terme, grâce à la cartographie des déserts d’information dans l’UE et au financement ciblé des médias, ce projet vise à créer un environnement propice à l’existence d’un paysage médiatique pluraliste et indépendant (European Federation of Journalists, 2023[70]).
Plusieurs aspects doivent être pris en compte pour concevoir les mécanismes de soutien aux médias par les pouvoirs publics. Par exemple, il convient de prendre des mesures pour s’assurer que les modèles de soutien aux médias privés, qui ont souvent été créés pour la presse écrite et audiovisuelle traditionnelle, sont adaptés au nouvel environnement de la communication (Forum sur l’information et la démocratie, 2021[54]). Dans le même temps, dans les sociétés fortement polarisées, des acteurs malveillants pourraient utiliser le soutien gouvernemental aux médias publics, privés ou communautaires pour accuser le gouvernement de diffuser des informations fausses et trompeuses. Pour dissiper ces inquiétudes, les pouvoirs publics devraient s’assurer qu’il existe un solide pare-feu entre l’entité médiatique et le gouvernement en termes de contenu, mettre en place des règles claires et transparentes pour l’attribution des financements et fournir des informations sur les subventions, le financement des projets et les activités de ces derniers. Il est particulièrement important que les procédures et les mécanismes de contrôle prouvent au public que l’aide gouvernementale n’a pas d’impact direct sur le contenu produit et que les considérations politiques n’affectent pas la distribution de l’aide financière ou autre aux médias. De même, lorsque les médias reçoivent le soutien d’autres gouvernements ou d’organisations internationales, ils risquent de donner l’impression d’être contrôlés par un acteur extérieur. Tout mécanisme de soutien gouvernemental aux médias, en particulier aux médias étrangers, doit établir des règles claires et publiques visant à garantir que les positions éditoriales ne sont pas influencées par l’aide extérieure.
2.3.3. Renforcer les incitations économiques pour promouvoir un meilleur fonctionnement des espaces d’information en ligne
Sans être directement liée à la lutte contre la désinformation, l’identification des leviers économiques qui incitent les plateformes en ligne à promouvoir l’intégrité de l’information est une démarche importante. Du point de vue des consommateurs, si les plateformes en ligne offrent des avantages substantiels, notamment une baisse des prix de l’information et des communications, une accessibilité et une commodité accrues, ainsi qu’un accès à de nouveaux contenus et moyens de participation, plusieurs sujets de préoccupation ont été recensés concernant la concurrence sur les marchés numériques. En particulier, les secteurs à forte intensité numérique affichent une tendance à une plus grande concentration du marché et à une baisse du taux des nouveaux entrants (OCDE, 2019[71] ; OCDE, 2022[72]). Cette situation résulte en partie d’une forte activité de fusion sur ces marchés. Par exemple, entre 2001 et 2021, Google a racheté 258 entreprises. Facebook (aujourd’hui Meta) a utilisé une pratique similaire pour racheter 90 entreprises sur une période de 16 ans (2005 à 2021), soit une transaction tous les deux mois (Nadler et Cicilline, 2020[73]) (American Economic Liberties Project, 2021[74]). En outre, certaines caractéristiques inhérentes aux marchés numériques les rendent propices à la concentration, notamment la présence d’effets de réseau (le phénomène par lequel la valeur d’un produit ou d’un service augmente lorsque davantage de personnes l’utilisent), de boucles de rétroaction des données (qui permettent aux plateformes qui tirent des volumes importants de données de leurs vastes bases d’utilisateurs d’améliorer continuellement leurs produits et services) et de fortes économies d’échelle.
La concentration peut à son tour réduire la compétition pour obtenir des sources d’information dignes de confiance et la disponibilité de ces dernières (Nadler et Cicilline, 2020[73]). En outre, en limitant le choix dont disposent les consommateurs, cette concentration n’encourage pas les grandes plateformes en ligne à rivaliser sur un plan qualitatif. Ces tendances sont préoccupantes, car il est prouvé qu’une concurrence saine sur le marché stimule l’innovation et favorise la croissance et le bien-être à long terme (OCDE, 2022[75]).
Plusieurs juridictions ont mis en œuvre ou proposé des politiques spécifiques pour remédier aux préjudices concurrentiels sur les marchés numériques. En encourageant les nouveaux entrants et l’innovation, ces stratégies cherchent à stimuler la concurrence entre les plateformes en ligne, ce qui pourrait inciter le marché à créer des espaces d’information plus sains, même si ce résultat est loin d’être acquis. Par exemple, des réglementations peuvent permettre, en tant que de besoin, de répondre à des préoccupations liées aux données, notamment l’obligation de mettre en œuvre des mesures de portabilité et d’interopérabilité des données. Permettre aux consommateurs de changer plus facilement de service peut prévenir les comportements anticoncurrentiels et encourager l’innovation. Les pouvoirs publics peuvent également inclure des questions liées au statut de « gardien » (gatekeeper) des plateformes en ligne, y compris des mesures visant à limiter le regroupement (bundling) et les pratiques de traitement préférentiel (self-preferencing) de leurs propres biens et services. Certains régulateurs ont également mis en place des exigences supplémentaires en matière de fusions qui renforcent l’examen des risques de concurrence qui en découlent (OCDE, 2022[75]).
La Commission européenne (CE) a adopté cette approche avec sa législation sur les marchés numériques (Digital Markets Act, ou DMA). La CE vise à instaurer et maintenir des principes d’égalité de traitement pour les services numériques ; garantir une conduite responsable des plateformes en ligne ; promouvoir la confiance, la transparence et garantir l’équité sur ces plateformes ; et préserver l’ouverture des marchés en encourageant un environnement plus équitable et en incitant de nouveaux services à faire leur entrée sur le marché (OCDE, 2022[3]).
La nature de la relation entre les plateformes numériques et les éditeurs de presse est complexe. Du point de vue des éditeurs de presse, cette relation se caractérise par une tension entre les possibilités opérationnelles à court terme offertes par l’utilisation des plateformes numériques en tant que canaux efficaces de distribution des contenus d’information et la crainte à long terme de devenir « trop dépendants » de ces plateformes (Nielsen et Ganter, 2018[76]). Du point de vue des plateformes numériques, les avis sont partagés quant à la valeur des contenus de presse, pour leurs activités et leurs revenus, en particulier par rapport à d’autres types de contenus de tiers (OCDE, 2021[77]).
Compte tenu de ces dynamiques, l’un des moyens de promouvoir la concurrence dans cet espace consiste à imposer aux plateformes en ligne l’obligation de rémunérer les entreprises de presse pour la fourniture de liens vers le contenu. En Australie, le Code de négociation pour les médias d’information (news media bargaining code) est entré en vigueur en mars 2021 afin de remédier aux inégalités de pouvoir de négociation entre les plateformes en ligne spécifiquement désignées (notamment celles qui présentent un « déséquilibre important du pouvoir de négociation avec les entreprises de presse australiennes ») et les éditeurs (Commission australienne de la concurrence et de la protection des consommateurs, 2020[78]). En vertu de ce code, les plateformes numériques désignées sont tenues de négocier de bonne foi avec les entreprises de presse qui ont fait part de leur intention de négocier. À défaut d’accord sur une rémunération dans un délai de trois mois, un mécanisme d’arbitrage obligatoire est mis en place afin de régler les différends relatifs à la rémunération (Commission australienne de la concurrence et de la protection des consommateurs, 2020[78]). Selon une étude gouvernementale, au terme de la première année d’application du code, plus de 30 accords commerciaux avaient été conclus entre des plateformes numériques (Google et Meta) et plusieurs entreprises de presse australiennes, et ceci en dehors de ce code. Il est toutefois peu probable que ces accords aurait été adoptés en l’absence du code (Gouvernement de l’Australie - Trésor, 2022[79]).
De la même manière, en juillet 2019, la France a adopté une loi transposant une directive de l’UE sur les droits d’auteur et les droits voisins, prévoyant des critères de rémunération pour l’utilisation d’extraits de publications de presse sur les plateformes en ligne (Autorité de la concurrence, 2020[80]). En avril 2020, l’autorité de la concurrence française a pris des mesures conservatoires à l’encontre de Google, forçant celle-ci à conduire des négociations de bonne foi avec les éditeurs et agences de presse sur la rémunération de la reprise de leurs contenus protégés, après avoir constaté que Google avait probablement adopté un comportement anticoncurrentiel visant à contourner la loi (Autorité de la concurrence, 2020[80]). En outre, en 2023, le Canada a adopté la Loi sur les nouvelles en ligne, qui « vise à garantir que les plateformes dominantes indemnisent les entreprises de nouvelles lorsque leur contenu est rendu disponible sur leurs services », et « crée un cadre de négociation » pour « encourager les plateformes à conclure des accords commerciaux volontaires avec un éventail d’entreprises d’information », qui « devront passer par une procédure de négociation obligatoire » et d’arbitrage en cas d’échec (Gouvernement du Canada, 2023[81]).
Les inconvénients potentiels de cette approche peuvent toutefois être perçus dans les restrictions imposées par la réglementation à la création de liens libres et ouverts sur l’internet, et dans le risque que les plateformes en ligne suppriment totalement l’accès aux sources d’information professionnelles et traditionnelles dans certaines juridictions. En effet, Meta a annoncé que « Les utilisateurs au Canada ne pourront plus voir et partager du contenu de nouvelles sur Facebook et Instagram », car la valeur que Meta obtient en permettant aux utilisateurs de publier des liens vers des articles de nouvelles est inférieure au coût de la rémunération des médias pour les liens qui étaient auparavant créés de manière volontaire (Meta, 2023[82]). À l’avenir, l’objectif sera de continuer à définir des stratégies qui soutiennent un secteur des médias indépendant et diversifié, tout en préservant un espace informationnel libre et ouvert.
2.4. Lutter contre les risques spécifiques au sein de l’espace informationnel
Compte tenu du dynamisme de l’espace informationnel mondial, du rythme accéléré de l’innovation technologique qui le modèle, ainsi que de l’intensification des tensions géopolitiques, les risques auxquels sont exposés les espaces informationnels connaissent une évolution rapide, avec l’apparition de nouveaux risques et les nouvelles possibilités qui s’offrent à ceux qui veulent se livrer à des campagnes de désinformation. Dans ce contexte, pour renforcer l’intégrité de l’information, tous les décideurs devront attacher une grande attention aux évolutions politiques, économiques, technologiques ou sociétales susceptibles d’avoir une incidence sur le paysage des risques en ce domaine.
Bien qu’elle ne soit pas nouvelle, la menace que font peser les activités de manipulation de l’information et d’ingérence menées depuis l’étranger a continué de s’accroître au fur et à mesure que les acteurs malveillants ont eu recours aux nouvelles technologies de manière innovante. Les outils d’IA générative grand public permettront à un plus large éventail d’acteurs de mieux cibler leurs opérations de manipulation de l’information et d’ingérence menées depuis l’étranger en leur donnant la possibilité de créer plus rapidement des contenus de meilleure qualité, à plus grande échelle et à moindre coût. Le 2e rapport du SEAE sur les menaces liées aux activités de manipulation de l’information et d’ingérence menées depuis l’étranger est parvenu à la conclusion que les acteurs à l’origine de ces menaces tirent parti de manière stratégique et opportuniste de l’intérêt suscité par certains événements tels que les élections, les situations d’urgence et les sommets politiques pour promouvoir leurs intérêts (EEAS, 2024[83]). L’année 2024, super année électorale au cours de laquelle la moitié de la population en âge de voter est appelée aux urnes, , offrira aux acteurs malveillants davantage d’occasions de s’ingérer dans les élections et de tenter d’influencer leurs résultats politiques.
Ces exemples mettent en évidence combien il importe de mettre au point des mesures spécifiques pour faire face à ces menaces nouvelles ou émergentes. La conjonction des ingérences étrangères, exacerbées par les tensions géopolitiques, de la plus importante année électorale de l’histoire, et de la nouvelle facilité d’accès à la puissance de l’IA générative a pour effet d’accroître le niveau des risques pour l’intégrité de l’information. Dans ce contexte, les efforts pour apprécier l’ampleur des défis à relever et définir les réponses à leur apporter pourraient principalement viser à :
Remédier aux menaces créées par la diffusion des activités de manipulation de l’information et d’ingérence menées depuis l’étranger
Renforcer l’espace informationnel dans le contexte des élections en offrant au public en temps voulu des informations fiables sur la manière d’exercer leurs droits, et
Répondre aux modifications de l’espace informationnel induites par l’IA générative.
2.4.1. Risques créés par les manipulations de l’information et les ingérences étrangères
Un important moyen de renforcer l’espace informationnel consiste à identifier les menaces d’ingérence malveillante depuis l’étranger. Si elle est exercée de manière transparente et à travers des canaux officiels, l’influence étrangère est licite et peut contribuer aux débats démocratiques. Les processus démocratiques sont néanmoins exposés à des risques lorsque des agents étrangers tentent de s’immiscer dans les processus démocratiques et les espaces informationnels pour fausser les prises de décision, amenuiser la confiance dans les systèmes démocratiques, accroître la polarisation, et ce, en dissimulant leurs activités et leurs intentions.
Il n’existe encore aucune définition unique et universellement acceptée de l’ingérence étrangère, mais ce concept renvoie généralement aux efforts des acteurs étrangers pour s’immiscer de manière illégitime dans les processus décisionnels du pays pris pour cible. Il recouvre les actions des acteurs étatiques et non étatiques, tout comme celles de leurs mandataires. L’ingérence étrangère se caractérise par ailleurs par la coordination des activités et par la nature malveillante des actions mises en œuvre pour avoir une incidence néfaste sur les valeurs, sur les procédures, ainsi que sur les processus politiques. Dans le cadre de leur politique étrangère, tous les États s’efforcent d’influencer les débats sur les questions qui présentent un intérêt pour eux. Cependant, la mondialisation et la numérisation ont aujourd’hui rendu le défi de l’ingérence étrangère plus préoccupant, et il devient désormais un sujet d’ordre civil, en particulier dans les démocraties dont l’ouverture les rend plus fragiles aux ingérences étrangères que les systèmes plus fermés. Les démocraties pourraient être rendues plus résilientes à l’ingérence étrangère en s’attaquant à plusieurs des failles de gouvernance en la matière.
Dans l’espace informationnel, les activités de manipulation de l’information et d’ingérence menées depuis l’étranger visent à orienter l’opinion et le discours publics, souvent en vue de renforcer des efforts d’ingérence déployés en parallèle (pour les définitions, voir Encadré 2.6). Les acteurs étrangers malveillants cherchent souvent à tirer parti des flux mondiaux d’information pour accroître leur influence en touchant l’ensemble des pays à l’échelle mondiale, en contribuant au recul démocratique et en créant une menace d’instabilité politique et de conflit violent au moyen de campagnes de désinformation (Office of the Director of National Intelligence, 2023[84]).
Des acteurs nationaux ou étrangers peuvent propager la désinformation dans le cadre d’une opération d’influence étrangère malveillante. Des acteurs nationaux peuvent en effet, délibérément ou non, se comporter en mandataires d’acteurs étrangers malveillants, motivés par les avantages politiques, économiques, sociaux, ou pécuniaires qu’ils peuvent en tirer. L’un des principaux objectifs des acteurs qui prennent part à la manipulation de l’information et à l’ingérence étrangères consiste à déstabiliser la société et le gouvernement du pays cible et à brouiller le débat public sur des enjeux essentiels, et la désinformation est souvent conçue de manière à se propager à travers des débats internes et en ligne. Un moyen d’y parvenir consiste à exacerber les clivages politiques et sociaux déjà existants. Cette tactique permet aux acteurs étrangers d’assurer à leurs opérations une diffusion plus efficace et d’apparence plus authentique, d’économiser des ressources, et d’occulter l’origine des activités d’ingérence.
Encadré 2.6. Définition de l’ingérence étrangère et des activités de manipulation de l’information et d’ingérence menées depuis l’étranger
Vers une définition de l’ingérence étrangère
Le concept d’ingérence étrangère est très étendu. Par exemple, d’après la définition qu’en donne le Parlement européen, « l’ingérence étrangère est une immixtion illégitime de puissances étrangères dans la vie politique et démocratique de l’Union européenne et de ses États membres » (Parlement européen, 2023[85]).
Pour sa part, le Département de la sécurité intérieure des États-Unis (Department of Homeland Security – DHS) définit l’ingérence étrangère comme les « actions malveillantes mises en œuvre par des gouvernements ou des acteurs étrangers en vue de semer la discorde, de manipuler le discours public, de discréditer le système électoral, d’influer sur l’évolution de l’action des pouvoirs publics, ou de désorganiser les marchés afin de fragiliser les intérêts des États-Unis et de ses alliés » (United States Department of Homeland Security, 2018[86]), tandis que le Code des États-Unis (United States Code – USC) emploie le terme « ingérence étrangère malveillante », défini au titre 50, article 3059(e)(2), de l’USC comme « tout effort hostile déployé par le gouvernement d’un pays étranger visé, sur ses instructions, pour son compte ou avec un soutien substantiel de sa part, dans l’objectif d’exercer ouvertement ou de manière dissimulée une influence sur (A) les activités ou les orientations politiques, militaires, économiques ou de toute autre nature du Gouvernement des États-Unis, des administrations des États ou des autorités locales, y compris tout scrutin organisé aux États-Unis ; ou (B) l’opinion publique aux États-Unis ».
Le ministère de la Justice australien (Australian Attorney General’s Department) entend que le concept d’ingérence étrangère recouvre « les activités occultes, trompeuses et coercitives destinées à influencer un processus politique ou gouvernemental australien et menées, subventionnées ou entreprises par des acteurs étrangers (ou pour leur compte) en vue de promouvoir leurs intérêts ou leurs objectifs » (Département du Procureur général du gouvernement de l’Australie, 2019[87]).
Une vision et une définition communes de l’ingérence étrangère pourraient être utiles pour la distinguer de l’influence étrangère légitime et pour réduire le risque d’ingérence étrangère grâce à la coopération internationale. D’après les définitions nationales qu’en donnent actuellement les pays de l’OCDE, les activités d’ingérence étrangère se caractérisent généralement par leur manque de transparence ; par le fait qu’elles sont directement ou indirectement planifiées, commanditées ou orchestrées par un État étranger ; ainsi que par leur intention de nuire au pays pris pour cible.
Activités de manipulation de l’information et d’ingérence menées depuis l’étranger
L’Union européenne utilise le terme de « manipulation de l’information et ingérence depuis l’étranger », qui met principalement l’accent sur les menaces de désinformation, mais qui renvoie également à une vision plus large de l’ingérence étrangère : « les manipulations de l’information et les ingérences étrangères recouvrent un type de comportement qui ne sont pas pour l’essentiel illicites mais qui menacent ou ont potentiellement une incidence négative sur les valeurs, les procédures et les processus politiques. Il s’agit d’activités de manipulation menées délibérément et de manière concertée par des acteurs étatiques ou non étatiques et par leurs mandataires à l’intérieur comme à l’extérieur de leur territoire » (Service européen d’action extérieure, 2023[88]).
Source : Parlement européen (2023[85]), Legal loopholes and the risk of foreign interference. In-depth analysis requested by the ING2 special committee, https://www.europarl.europa.eu/RegData/etudes/IDAN/2023/702575/EXPO_IDA(2023)702575_EN.pdf ; Département de la sécurité intérieure des États-Unis (2018[86]), Foreign Interference Taxonomy, https://www.cisa.gov/sites/default/files/publications/foreign_interference_taxonomy_october_15.pdf ; ministère de la Justice de l’Australie (2019[87]), Foreign Influence Transparency Scheme. Factsheet 2 “What is the difference between ’foreign influence’ and ’foreign interference’?”, https://www.ag.gov.au/sites/default/files/2020-03/influence-versus-interference.pdf ; Service européen pour l’action extérieure (2023[88]), 1st EEAS Report on Foreign Information Manipulation and Interference Threats. Towards a framework for networked defence, https://www.eeas.europa.eu/eeas/1st-eeas-report-foreign-information-manipulation-and-interference-threats_en.
Les opérations de manipulation de l’information et d’ingérence depuis l’étranger cherchent souvent à exercer une influence sur certaines décisions de politique intérieure et extérieure des États pris pour cible, à semer la division dans les sociétés, à dénigrer les valeurs, les processus et les institutions démocratiques, et à susciter un soutien aux politiques de l’État perpétrateur (EEAS, 2023[89]). Les initiatives étrangères malveillantes dans le domaine de l’information visent également à fragiliser les États pris pour cible en s’attaquant à leurs intérêts en matière de politique étrangère, en réduisant la confiance de la population dans les institutions publiques, en exacerbant les clivages politiques et la polarisation de la société, et en sapant la résilience démocratique (Département d’État américain, 2020[90]) (OCDE, 2022[91]).
Les acteurs étatiques étrangers ont également eu recours à un large éventail de canaux, d’outils et de pratiques pour créer et propager de la désinformation à travers des réseaux potentiellement vastes formés de canaux de communication officiels, mandataires et non identifiés, dont des médias soutenus par l’État, des réseaux mondiaux de télévision, de faux comptes de réseaux sociaux et de sites web propageant de fausses nouvelles. Une option consiste à passer par les médias appartenant à des États autoritaires ou contrôlés par eux, tels que Sputnik, RT, et TASS en Russie, et Xinhua et CCTV en Chine. L’importance de ces canaux peut être observée en Russie, par exemple, où les dépenses publiques consacrées aux « moyens de communication de masse » au premier trimestre 2022 ont été de 322 % plus élevées qu’au cours de la même période en 2021, atteignant 17.4 milliards de roubles (environ 215 millions EUR). Près de 70 % des dépenses consacrées par la Russie aux moyens de communication de masse au premier trimestre 2022 ont été effectuées en mars, immédiatement après l’invasion russe en Ukraine (The Moscow Times, 2022[92]). Les médias bénéficiaires de ces fonds, dont RT et Rossiya Segodnya, qui possèdent et exploitent Sputnik et RIA Novosti, sont liés à l’État ou lui appartiennent et se font principalement l’écho du discours du Kremlin, au point qu’il paraît plus juste de les considérer comme des instruments de la propagande d’État (Département d’État des États-Unis, 2022[93]) (Cadier et al., 2022[94]).
Le gouvernement chinois a amplifié la diffusion de contenus favorables à ses positions grâce à l’influence de ses médias d’État, à l’achat de médias étrangers, et à la publication de contenus favorables dans les médias étrangers. Par exemple, comme le relève le rapport du Global Engagement Center (GEC) du Département d’État américain intitulé « Comment la République populaire de Chine cherche à transformer l’environnement informationnel mondial », Xinhua, l’agence de presse officielle du gouvernement chinois, disposait en août 2021 de 181 bureaux répartis dans 142 pays et régions. Le gouvernement chinois a également acquis des participations de contrôle dans des médias en Europe, en Asie, et en Afrique, en se soustrayant dans de nombreux cas aux règles de transparence, et en faisant souvent évoluer leur couverture journalistique et éditoriale vers des positions plus prochinoises (Département d’État américain, 2023[95]). En outre, les médias contrôlés par le gouvernement ont eu recours à des accords de partage de contenu avec des médias locaux étrangers pour leur fournir des produits d’information gratuitement ou à des prix fortement subventionnés, en leur interdisant dans certains cas de passer des accords de partage de contenus avec des agences de presse occidentales. Cette stratégie permet de promouvoir discrètement les positions prochinoises tout en limitant la diffusion des autres médias. Ces types d’accords — grâce auxquels les informations fournies par les médias chinois sont publiées dans les médias locaux sans que leur source soit mentionnée — risquent de fausser l’environnement informationnel et réduisent la capacité des citoyens à prendre des décisions éclairées fondées sur des informations transparentes (Département d’État américain, 2023[95]).
Face à cela, les États baltes ont été les premiers pays de l’UE à interdire à titre temporaire la diffusion de certaines chaînes de télévision russes directement ou indirectement administrées par l’État russe qui propagent activement la désinformation, la propagande et l’incitation à la haine. À la suite de la guerre d’agression menée par la Russie contre l’Ukraine en 2022, l’Union européenne a décidé d’interdire sur l’ensemble de son territoire la diffusion des deux chaînes administrées par l’État russe, RT (Russia Today) et Sputnik. En décembre 2022, l’Union européenne a élargi la liste des chaînes de télévision russes interdites pour faire face à la « campagne internationale systématique de manipulation des médias et de déformation des faits afin de renforcer sa stratégie de déstabilisation des pays voisins ainsi que de l’Union et de ses États membres » (Journal officiel de l'Union européenne, 2022[96]).
Des acteurs malveillants se livrent par ailleurs à des cyberattaques pour voler et diffuser des informations sensibles dans l’intention de soutenir plus activement des campagnes de désinformation de plus grande ampleur. À titre d’exemple, avant l’élection présidentielle française de 2017, une tentative coordonnée de déstabilisation de la candidature d’Emmanuel Macron a notamment donné lieu au piratage et à la diffusion deux jours avant le second et dernier tour de l’élection présidentielle de plus de 20 000 messages électroniques volés issus des ordinateurs de son équipe de campagne. Cette cyberattaque a été planifiée de manière à coïncider avec la période de silence électoral durant laquelle la loi interdit de faire campagne, et elle a été coordonnée avec la campagne de désinformation qui propageait en parallèle des rumeurs et des documents falsifiés. Rien que sur X, un effort coordonné pour propager des contenus connexes en promouvant le mot-dièse #MacronLeaks a entraîné dans les vingt-quatre heures l’apparition de celui-ci dans près d’un demi-million de messages publiés sur ce réseau (Vilmer, 2019[97]). Outre les préjudices causés par l’accès illégal à des informations confidentielles et les risques que ces cyberattaques font plus généralement courir aux processus démocratiques, cette campagne met en évidence comment des acteurs malveillants peuvent tirer parti du piratage des données gouvernementales, des secrets commerciaux, et des informations personnelles pour obscurcir et fragiliser le débat public.
Certains acteurs peuvent mettre à profit les possibilités d’amplifier la diffusion des contenus offertes par les plateformes en ligne pour propager les campagnes de manipulation de l’information et d’ingérence étrangères. Au-delà du détournement des comptes des élus et des autres responsables publics sur les réseaux sociaux, les acteurs malveillants ont également recours à des moyens plus discrets de donner artificiellement une plus grande ampleur à leurs efforts, notamment en volant des comptes et en créant des « fermes de robots » pour diffuser leurs contenus. Cette exploitation coordonnée des comptes permet de mettre en ligne, de partager et d’approuver les publications souhaitées d’une manière imitant — et pouvant donc susciter — une adhésion réelle sur les plateformes, et ces informations peuvent ensuite même s’étendre aux sources d’information hors ligne.
Dans l’avenir, les technologies d’IA générative offriront de plus grandes possibilités de création et de diffusion de contenus faux et trompeurs. Les acteurs malveillants pourraient utiliser ces technologies en rapide évolution pour créer des profils d’utilisateur, des textes et des enregistrements sonores et visuels falsifiés mais d’apparence réaliste et difficiles à détecter automatiquement, ainsi que pour gérer des réseaux de robots. Les manipulations de l’information et les ingérences étrangères devraient de ce fait être considérées comme un élément de plus larges efforts pour saper les processus démocratiques. Les efforts de désinformation constituent un important instrument au service de sécurité des acteurs qui ont pour dessein de saper la démocratie, qu’ils soient d’origine étatique ou non (Danvers, 2023[98]). Les attaques contre les élus, les responsables publics et les candidats peuvent avoir directement pour effet de fausser le processus politique. L’affaiblissement du sentiment des citoyens que le processus électoral est équitable, transparent et sûr entame plus généralement la confiance dans le système démocratique. Le maintien de l’intégrité de l’information constitue par conséquent une mesure essentielle pour préserver l’intégrité des démocraties.
Les politiques actuelles de lutte contre l’ingérence étrangère peuvent être appliquées pour faire face aux défis liés aux nouvelles technologies de communication
Les activités de désinformation tirent parti de l’ambiguïté et de l’obscurité ; l’instauration de mécanismes imposant la transparence peut permettre de les révéler au grand jour et offrir un moyen de réprimer l’ingérence étrangère dissimulée et malveillante d’acteurs étatiques. Pour ce faire, une option prometteuse consisterait à appliquer la réglementation en vigueur pour lutter contre l’ingérence étrangère aux nouvelles technologies de communication et aux nouveaux défis. Par exemple, aux États-Unis, l’application de la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act – FARA), initialement adoptée en 1938, montre comment une telle législation destinée à accroître la transparence des activités d’influence des gouvernements étrangers peut être adaptée en vue de lutter contre la propagation de la désinformation en ligne. En 2018, les États-Unis ont mis en examen en vertu de cette loi 13 citoyens et trois sociétés russes (Internet Research Agency LLC, Concord Management and Consulting LLC, et Concord Catering) pour création de faux comptes, publicité déguisée et organisation et coordination de rassemblements politiques dans l’intention de s’immiscer dans les élections américaines (Ministère américain de la Justice, 2022[38]) (Encadré 2.7).
Encadré 2.7. L’application de la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act – FARA) à la lutte contre la désinformation
Le Congrès des États-Unis a adopté la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act – FARA) en 1938 pour accroître la transparence des activités d’influence des gouvernements étrangers. La Division de la sécurité nationale du Département de la Justice des États-Unis dispose d’un service spécifiquement chargé de l’administration et de l’application de cette loi.
La FARA impose à tous les acteurs (agents politiques, lobbyistes, conseillers en relations publiques, collecteurs de fonds, sociétés, organisations, etc.) qui travaillent pour le compte ou dans l’intérêt d’un gouvernement étranger ou d’un mandant étranger basé à l’extérieur des États-Unis, y compris ceux de nationalité américaine, de divulguer leurs affiliations et leurs activités, ainsi que leurs recettes et leurs décaissements à l’appui de ces activités. L’un des principaux objectifs de cette loi est de lutter contre les activités de propagande en faisant en sorte que les efforts déployés par les acteurs étrangers soient plus aisément identifiables par le gouvernement des États-Unis et par le public américain. Les « activités politiques » visées par cette loi recouvrent toutes les activités dont l’acteur estime qu’elles influeront ou viseront à influer sur la politique intérieure et extérieure du gouvernement.
Cette loi est certes utilisée depuis plusieurs décennies pour lutter contre les campagnes de propagande et d’influence menées depuis l’étranger, mais le gouvernement y a eu plus récemment recours pour faire obstacle aux activités occultes de désinformation mises en œuvre par des acteurs étrangers. Par exemple, en 2017, la société RM Broadcasting, installée en Floride, possédait une plateforme assurant la diffusion de programmes radiophoniques fournis par une agence de presse appartenant à l’État russe, et se comportait de ce fait en agent d’un mandant étranger, bien qu’elle ne se soit pas enregistrée en tant que tel. RM Broadcasting a été mise en demeure de s’enregistrer en application de la FARA de sorte qu’il soit plus facile aux auditeurs de cette radio d’identifier la source des informations qu’elle diffuse. En 2018, plusieurs ressortissants et sociétés russes ont par ailleurs été accusés de tentative d’ingérence dans l’élection présidentielle américaine de 2016 ; l’un des éléments justifiant leur inculpation étant que ces agents avaient omis de se conformer à la FARA.
Malgré son large champ d’application, la FARA comporte plusieurs exceptions en faveur des agents diplomatiques ou consulaires accrédités, des acteurs qui prennent part à d’authentiques activités commerciales, religieuses, scolaires, universitaires, scientifiques ou artistiques. Étant donné que les États-Unis ont accru ces dernières années le degré de priorité qu’ils accordent à la prévention des risques liés à la propagation de la désinformation, surtout lorsqu’elle est due à des acteurs étrangers, les poursuites pénales engagées à l’encontre des acteurs ayant omis de s’enregistrer en application de la FARA se sont également multipliées.
Source : Département de la justice des États-Unis (2023[99]), Foreign Agents Registration Act, https://www.justice.gov/nsd-fara ; Département de la justice des États-Unis (2022[100]), Court finds RM broadcasting must register as a foreign agent, https://www.justice.gov/opa/pr/court-finds-rm-broadcasting-must-register-foreign-agent ; Département de la justice des États-Unis (2021[101]), Grand Jury Indicts Thirteen Russian Individuals and Three Russian Companies for Scheme to Interfere in the United States Political System, https://www.justice.gov/opa/pr/grand-jury-indicts-thirteen-russian-individuals-and-three-russian-companies-scheme-interfere
De même, en Australie, le système de transparence de l’influence étrangère (Foreign Influence Transparency Scheme) a pour objet de permettre au public de connaître la nature, le degré et l’ampleur de l’influence étrangère sur le gouvernement et la politique de l’Australie (Gouvernement de l’Australie, 2023[102]). À cet effet, il exige que les individus et les entités qui mettent en œuvre pour le compte d’un gouvernement étranger des activités nécessitant un enregistrement et visant à influencer les processus politiques ou gouvernementaux australiens fassent part de ces informations sur un registre public. Ce système inclut notamment les activités de communication parmi celles nécessitant un enregistrement, de sorte que les personnes qui consomment des informations sachent quelle en est la source.19 Le système n’est pas spécifiquement destiné à lutter contre la mésinformation et la désinformation, mais il fait apparaître au grand jour quelle est la source derrière les activités de communication et offre ainsi d’intéressantes possibilités de mise en évidence des activités de communication occultes et potentiellement malveillantes, ce qui renforce en dernière analyse la confiance dans l’espace informationnel, de manière plus générale.
2.4.2. La désinformation dans le contexte des élections
Lorsqu’elles sont mises en œuvre de manière stratégique pendant les cycles électoraux, les opérations de désinformation s’attaquent directement à ce qui fait le cœur même de la démocratie, elles peuvent saper la confiance dans le processus électoral et dans les organismes qui en assurent l’organisation, discréditent les opposants politiques, accroissent le risque de contestation des résultats de l’élection et sèment le désordre social (PNUD, 2023[103]) ; (Institut international pour la démocratie et l'assistance électorale, 2024[104]). Une enquête menée par IPSOS et l’UNESCO dans 16 pays où des élections générales se tiendront en 2024 a constaté que 87 % des répondants expriment une préoccupation quant à l’incidence de la désinformation sur les prochaines élections au sein de leur pays, dont 47 % qui se disent « très préoccupés » (IPSOS, UNESCO, 2023[105]). Par ailleurs, la numérisation croissante procure certes de nouveaux avantages mais crée également de nouveaux dangers dans le contexte des élections. La technologie peut offrir aux citoyens de plus grandes possibilités de trouver des informations utiles pour éclairer leur décision de vote, et favoriser ce faisant la mobilisation électorale. Dans le même temps, les possibilités offertes par la technologie peuvent également être utilisées pour influencer l’électorat en propageant la désinformation, grâce par exemple à une amplification artificielle ou aux hypertrucages et au microciblage politique réalisés à l’aide de l’IA.
Vu que les élections sont généralement programmées et que leurs dates sont connues à l’avance, les propagateurs de la désinformation peuvent avoir le temps d’organiser des opérations élaborées. Les élections peuvent par ailleurs leur apparaître comme une « occasion à fort impact idéale » pour mener leurs opérations visant à influer sur l’information (Polyakova et Fried, 2019[106]). Il importe également de noter que les stratégies et les activités d’ingérence électorale n’ont pas nécessairement besoin d’avoir des effets tangibles sur l’issue des élections pour avoir une incidence négative : parfois, le simple fait de jeter un doute sur la légitimité du candidat élu peut suffire à produire les résultats attendus par les auteurs de l’ingérence. Dans ce contexte, il importe également que les pouvoirs publics se préparent à faire face à la situation, de sorte que des capacités de détection puissent être déployées dès que possible afin de réduire les risques d’ingérence. Il convient toutefois de souligner qu’aucune mesure de lutte contre la désinformation durant les élections ne devrait entraver les débats politiques légitimes ni justifier la mise en œuvre de mesures disproportionnées restreignant la libre circulation de l’information, dont le blocage des contenus ou de l’accès à l’Internet (UNESCO, 2022[107]).
Compte tenu du rôle joué par les représentants élus, les candidats et les partis politiques au sein de l’écosystème de l’information, y compris dans la création et l’amplification des contenus, et dans certains cas dans l’amplification de la désinformation, il peut être essentiel de réaffirmer l’importance de l’intégrité de l’information dans le cadre des élections. Le code de conduite en matière de transparence de la publicité politique en ligne (Code of Conduct Transparency Online Political Advertisements) élaboré par les Pays‑Bas en 2021 s’attache ainsi à faire obstacle à la propagation d’informations trompeuses lors des élections en obtenant l’engagement des plateformes et des partis politiques d’assumer une responsabilité en matière de maintien de l’intégrité des élections et d’éviter la diffusion de contenus trompeurs (Gouvernement des Pays-Bas, 2021[7]).
Un moyen de répondre à la menace de manipulation de l’information dans le contexte des élections consiste à développer un large éventail de compétences gouvernementales, souvent par la création de groupes de travail spécialisés axés sur la justice, la sécurité et la défense nationales, la communication publique, et la gestion des élections et qui seraient dans l’idéal mis en place bien avant la date prévue des élections (voir Encadré 2.8). Les parties prenantes associées au processus électoral, telles que les organismes de gestion électorale (OGE) indépendants, les partis politiques et les candidats, les journalistes, ainsi que les organisations de la société civile, doivent être conscientes des risques que la désinformation fait courir aux élections libres et régulières.
Les efforts de lutte contre la désinformation électorale se sont essentiellement attachés à favoriser la coopération et la concertation intergouvernementales à des fins de partage d’informations sur les menaces correspondantes, ainsi que pour déployer les stratégies appropriées pour y faire face. La concertation permet aux services compétents de travailler conjointement à l’adoption des mesures appropriées tout en respectant la neutralité politique. Les gouvernements peuvent également s’employer à mieux faire comprendre sur le long terme au public comment circule la désinformation et quels sont les risques qui lui sont liés, ainsi qu’à renforcer la préparation dans la perspective des élections. L’éducation des citoyens pour leur faire connaître le cadre juridique applicable aux élections dans un pays permet de lutter contre le manque d’information, dont peuvent tirer parti les propagateurs de la désinformation. Plus généralement, l’éducation des électeurs peut contribuer à sauvegarder l’intégrité électorale sous des aspects tels que le financement des campagnes et les règles régissant la publicité.
Les efforts déployés dans ce domaine par les gouvernements permettent également de réagir rapidement aux menaces informationnelles immédiates dans le contexte de la désinformation électorale. Lors des récentes élections brésiliennes, le pouvoir judiciaire s’est concerté avec les plateformes numériques en vue de favoriser leur coopération et leur respect des décisions judiciaires portant sur les contenus illicites. Le gouvernement brésilien s’est efforcé d’établir des canaux permettant un dialogue ouvert et agile lors des périodes électorales entre les plateformes numériques et les autorités publiques, tout en garantissant que toute décision de modération des contenus soit prise de manière transparente, publique et dans le respect de la législation nationale.
Les services et les groupes de travail gouvernementaux peuvent par ailleurs offrir aux citoyens en temps voulu des informations fiables sur les moyens d’exercer leurs droits, s’agissant notamment de l’inscription sur les listes électorales et des procédures de vote le jour du scrutin, afin de répondre en particulier à certaines campagnes de désinformation (Institut international pour la démocratie et l'assistance électorale, 2023[108]).
Encadré 2.8. Assurer l’intégrité de l’information lors des élections par la mise en place de groupes de travail spéciaux
Groupe de travail sur l’assurance de l’intégrité électorale — Australie
En Australie, le Groupe de travail sur l’assurance de l’intégrité électorale (Electoral Integrity Assurance Taskforce – EIAT), composé d’organismes du gouvernement fédéral, a été mis en place en 2018 pour apporter au Commissaire aux élections australien (Australian Electoral Commissioner) des informations et des conseils au sujet des éléments susceptibles de compromettre l’intégrité réelle ou ressentie d’une élection ou d’un référendum organisés au niveau fédéral en Australie. Les menaces potentielles à l’égard de l’intégrité électorale peuvent revêtir la forme d’incidents de cybersécurité ou de sécurité physique, de campagnes de désinformation, ou encore d’une ingérence réelle ou ressentie dans les processus électoraux. Le Groupe de travail s’attache en particulier à communiquer des informations sur ces menaces aux organismes australiens compétents, ainsi qu’à faciliter la coopération et la concertation entre ceux-ci, afin de leur permettre de travailler conjointement à l’adoption des mesures appropriées tout en respectant une stricte neutralité politique.
Le Groupe de travail et son Conseil sont constitués des organismes suivants : la Commission électorale australienne, le ministère des Finances, le ministère du Premier ministre et du Cabinet, le ministère des Infrastructures, des Transports, du Développement régional, des Communications, et des Arts, le ministère de la Justice, le ministère de l’Intérieur, la police fédérale australienne, la Direction australienne des signaux, le Centre australien de notification et d’analyse des transactions, le ministère des Affaires étrangères et du Commerce extérieur, l’Organisation australienne du renseignement de sécurité, et le Bureau du renseignement national.
Les efforts de ce groupe de travail sont par ailleurs complétés par les campagnes menées par la Commission électorale australienne (Australian Electoral Commission – AEC), telles que « Stop and Consider », qui encourage les électeurs à réfléchir de manière critique aux sources de l’information électorale qu’ils voient ou entendent, ou encore par le Registre de la désinformation de l’AEC, qui est axé sur les activités de désinformation préjudiciables portant exclusivement sur les aspects procéduraux de l’organisation des élections et des référendums.
Programme permanent de lutte contre la désinformation dans la sphère électorale — Brésil
Le Programme permanent de lutte contre la désinformation dans la sphère électorale (Electoral Justice Permanent Programme on Countering Disinformation) a été élaboré en août 2021 par la Cour suprême électorale (Tribunal Superior Eleitoral – TSE) en s’inspirant d’un programme similaire établi en 2019 ayant pour but d’éviter et de combattre la propagation de la mésinformation et de la désinformation dans la perspective des élections de 2020.
Pour faire face aux menaces que la désinformation fait peser sur l’intégrité des élections et plus généralement sur la démocratie, ce programme a adopté une approche « en réseau », réunissant des représentants des organismes publics, de la presse et des organisations de vérification des faits, des fournisseurs d’accès à Internet, des organisations de la société civile, des milieux universitaires et des partis politiques. Actuellement, 154 partenaires y prennent part.
Ce programme s’articule autour de trois objectifs : (i) Informer, qui vise à diffuser des informations officielles fiables et de qualité au sujet des processus électoraux ; (ii) Responsabiliser, qui a pour but d’assurer une éducation aux médias et de renforcer la compréhension par la société des menaces que fait courir la propagation de la désinformation, ainsi que la connaissance par les citoyens du fonctionnement des processus électoraux au Brésil ; et (iii) Répondre, qui est axé sur l’identification des campagnes de désinformation et sur la lutte contre leurs effets négatifs.
Protocole public pour les incidents électoraux critiques et groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections (MSRE) — Canada
En prévision de l’élection de 2019, le Canada a adopté le Plan pour protéger la démocratie canadienne, qui comporte des mesures concrètes pour sauvegarder les institutions et les processus démocratiques. Ce plan repose sur quatre piliers : améliorer l’état de préparation des citoyens, renforcer la préparation organisationnelle, lutter contre l’ingérence étrangère, et bâtir un écosystème de l’information sain.
À la suite de ce plan, le Canada a établi un Protocole public pour les incidents électoraux critiques, qui détaille un processus simple, clair et impartial permettant de notifier les Canadiens d’une menace à l’intégrité des élections générales.
Le Canada a également établit un Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections (MSRE) pour identifier et éviter que des activités occultes, clandestines ou criminelles n’influent sur le processus électoral canadien ou ne le perturbent. Le Groupe de travail a pour principales responsabilités de faire prendre conscience des menaces étrangères qui pèsent sur le processus électoral canadien, et de préparer le gouvernement à évaluer ces menaces et à y répondre, en particulier pour ce qui est des campagnes de désinformation.
Le Groupe de travail est composé de représentants du Centre de la sécurité des télécommunications Canada, de la Gendarmerie royale du Canada, d’Affaires mondiales Canada, et du Service canadien du renseignement de sécurité.
2.4.3. Les gouvernements devront répondre aux modifications de l’espace informationnel induites par l’IA générative
La réglementation fondée sur les risques est de plus en plus utilisée pour atténuer les risques dans le rôle des plateformes en ligne dans la diffusion de l’information (y-compris la mésinformation et la désinformation). Une telle approche devrait également permettre de répondre au rôle joué par les outils et les systèmes d’intelligence artificielle (IA), notamment concernant la manière dont ils affectent l’espace informationnel, ainsi que leur utilisation comme un moyen de désinformation mettant à mal les droits humains, par exemple lorsqu’ils servent à réduire au silence les femmes et les membres des populations marginalisées pour participer à la vie publique. Le développement rapide des systèmes avancés d’IA ouvre la perspective de nouvelles innovations socialement utiles, mais fait aussi apparaître de nouveaux risques (Partenariat Mondial sur l’Intelligence Artificielle (PMIA), 2023[112]).
Au sein de l’espace informationnel, les outils d’IA générative20 pourraient contribuer à identifier les comptes ou les comportements non authentiques, et aider ainsi les gouvernements à mieux comprendre quel est l’état de la situation s’agissant des campagnes de désinformation et à compléter les efforts de modération des plateformes numériques. Ces outils pourraient également être utilisés pour aider à la conception des matériels et des activités pédagogiques, ainsi que pour faciliter les travaux de traduction, de synthèse et d’analyse, ce qui simplifierait grandement ces activités et en réduirait sensiblement le coût pour les fonctionnaires, les journalistes, comme pour les organisations de la société civile (Landemore, 2023[113]).
La capacité de l’IA générative à créer et à propager des contenus extrêmement convaincants expose à une multiplication rapide des nouvelles, des articles et des médias visuels faux ou trompeurs mais d’apparence réaliste, accroissant d’autant les risques d’une perte de perte de confiance de la population dans l’espace informationnel, surtout en ligne. Outre la production de contenus, l’IA générative pourrait également contribuer à créer un important volume de faux profils d’apparence réaliste sur les plateformes en ligne, à animer des réseaux de faux comptes, et à submerger les capacités de détection récemment mises en place par les gouvernements, les plateformes ou les autres parties prenantes pour déceler les comportements non authentiques concertés sur les plateformes. En réduisant considérablement les barrières linguistiques et le coût de la création de textes ou de visuels convaincants, et en rendant de plus en plus difficile la distinction entre les contenus authentiques et ceux qui sont manipulés, les outils d’IA générative risquent d’amplifier les problèmes que posent déjà les plateformes en ligne. La confiance des individus dans l’information qu’ils reçoivent risque de s’en trouver érodée, exacerbant le scepticisme et l’incertitude.
À cet égard, la Recommandation de l’OCDE sur l’intelligence artificielle invite tous les acteurs de l’IA à s’engager à assurer la transparence et une divulgation responsable des informations liées aux systèmes d’IA, afin : 1) de favoriser une compréhension générale des systèmes d’IA ; 2) d’informer les parties prenantes de leurs interactions avec les systèmes d’IA, y compris dans la sphère professionnelle ; 3) de permettre aux personnes concernées par un système d’IA d’en appréhender le résultat ; et 4) de permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats et de comprendre la logique qui a présidé à la formulation des prévisions, recommandations ou décisions (OCDE, 2019[114]).
Pour ce qui est plus précisément des répercussions potentielles sur l’espace informationnel, il convient de concentrer l’analyse sur les outils d’IA générative (par opposition à l’univers plus large des applications et des effets de l’IA dans des domaines tels que les armes autonomes, la reconnaissance faciale ou les voitures sans conducteur, mais aussi à leurs conséquences économiques). Les politiques mises en œuvre pourraient par exemple imposer que les systèmes d’IA orientés consommateur rendent publiques les données d’entraînement sur lesquelles ils reposent, en veillant à ce que les principes utilisés pour guider ces outils soient précisés, à des fins de comparaison entre les outils et de contrôle public des garde-fous éventuellement mis en place par les systèmes, et elles pourraient également exiger le filigranage des contenus produits (Giansiracusa, 2023[115]).
Dans cet esprit, la législation de l’UE sur l’IA qui est en cours d’examen suit une approche fondée sur les risques et impose aux fournisseurs et aux utilisateurs des obligations modulées en fonction du risque que peut créer l’IA. D’une part, la législation de l’UE sur l’IA visera à interdire les systèmes d’IA présentant « un niveau de risque inacceptable pour la sécurité des personnes », et notamment « les systèmes qui déploient des techniques subliminales ou délibérément manipulatrices, exploitent les vulnérabilités des personnes ou sont utilisés pour la notation sociale (consistant à établir une classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles) » (Parlement européen, 2023[116]). Cette législation imposerait également la création de plans d’évaluation et de réduction des risques, ainsi que le respect par les outils d’IA générative d’obligations de transparence telles que celle de signaler quels sont les contenus générés par l’IA. La législation de l’UE sur l’IA exigerait par ailleurs une conception des outils permettant d’éviter la génération de contenus illicites, ainsi que la publication de résumés des données protégées par le droit d’auteur utilisées pour la formation des algorithmes (Parlement européen, 2023[116]). L’orientation retenue en la matière par l’UE montre comment la mise en œuvre d’une approche fondée sur les risques peut inspirer l’adoption d’autres mesures réglementaires face à des technologies qui jouent un rôle important dans l’espace informationnel au-delà des plateformes en ligne et de médias sociaux. Les gouvernements se sont de même efforcés de lutter contre les risques que créent les hypertrucages, des contenus sonores ou visuels qui paraissent authentiques alors qu’il s’agit de fait de médias synthétiques ou manipulés.
Les hypertrucages présentent un risque de désinformation dans la mesure où ils présentent des images et des enregistrements sonores crédibles, bien qu’ils soient faux. Les médias synthétiques ne sont certes pas nouveaux, mais l’accès à la technologie et l’ampleur, la rapidité et la qualité des hypertrucages ont davantage braqué les projecteurs sur les réponses apportées par les pouvoirs publics. Bon nombre des efforts pour prévenir les risques créés par les hypertrucages s’attachent à accroître la transparence des contenus eux-mêmes et à améliorer les processus mis en œuvre par les systèmes pour aider à valider la provenance et l’exactitude, ainsi qu’à s’appuyer sur les restrictions légales à l’utilisation des contenus déjà existantes. Une approche axée sur la transparence permet d’éviter de prendre des mesures réglementaires trop restrictives qui pourraient limiter l’utilisation de la technologie pour des formes d’expression protégées, telles que la satire. Dans la même veine, le Code de bonnes pratiques renforcé contre la désinformation adopté par l’UE en 2022 engage ceux de ses signataires qui mettent au point ou exploitent des systèmes d’IA à faire état de leurs politiques en matière de lutte contre les pratiques manipulatrices interdites revêtant la forme de la production ou de la manipulation de contenus tels que les hypertrucages. En outre, aux États-Unis, une grande partie des lois adoptées par les États ont essentiellement porté sur les hypertrucages pornographiques non consentis, eu égard aux préjudices manifestes qu’ils causent et à leur intérêt limité du point de vue de la liberté d’expression. En l’occurrence, neuf États ont promulgué des lois réglementant les hypertrucages, principalement dans le cadre de la pornographie et de l’influence sur les élections (Poritz, 2023[117]). En 2023, le Bureau du Président des États-Unis a par ailleurs émis un décret-loi sur une Intelligence artificielle sûre, sécurisée et fiable (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence), qui vise pour partie à protéger les individus contre « les fraudes et les tromperies rendues possibles par l’IA en instaurant des normes et de bonnes pratiques en matière de détection des contenus créés par l’IA et d’authentification des contenus officiels » (U.S. White House, 2023[118]).
En dernier lieu, grâce à l’identification, l’analyse et la hiérarchisation des risques, l’adoption d’une approche fondée sur le risque peut contribuer à garantir le ciblage et la proportionnalité des mesures réglementaires mises en œuvre, de sorte qu’elles n’imposent pas des règles astreignantes n’ayant que peu d’effets positifs (OCDE, 2021[14]). Dans la sphère de l’information, cette approche vise à mieux comprendre, cartographier et réduire proactivement les risques que font peser les acteurs en question, ainsi qu’à encourager ou à contraindre les acteurs à mettre en place des mécanismes et des processus pour limiter les risques créés par la désinformation et pour nourrir la confiance dans l’espace informationnel.
2.5. Considérations et voie à suivre
Les communications numériques et les plateformes en ligne ont modifié la façon dont l’information est créée et partagée, ainsi que les modèles économiques utilisés dans la sphère de l’information. Les plateformes en ligne, qui opèrent dans un environnement réglementaire balbutiant, ont facilité la propagation d’informations clivantes, sensationnelles, mais aussi fausses ou trompeuses. Leur portée planétaire dépasse le champ d’application des réglementions nationales (voire supranationales). Parallèlement, les systèmes d’autorégulation ou de corégulation reposant sur la base du volontariat ont une efficacité limitée dans la mesure où ils permettent à certains acteurs de s’affranchir d’obligations, d’où l’importance de l’implication des pouvoirs publics dans la conception, le contrôle et l’actualisation de réponses réglementaires, en tant que de besoin.
En agissant de façon appropriée et dans le but de favoriser l’engagement démocratique, les espaces d’information peuvent être rendus plus sains, plus transparents et plus compétitifs grâce à une action publique adéquate, efficace et agile. Par conséquent, les politiques visant à promouvoir la transparence et la responsabilité des plateformes en ligne sont une option pour aider à mieux comprendre leurs modèles économiques et les risques qu’ils représentent pour les processus démocratiques, à atténuer les menaces — y compris celles liées à la manipulation d’information et l’ingérence étrangères — et à créer des espaces informationnels plus sains.
Outre l’action axée sur les plateformes en ligne, la mise en place d’un secteur des médias solide, varié et pluraliste, où travaillent des journalistes fiables, constitue un élément de base pour renforcer l’intégrité de l’information, ainsi qu’une composante essentielle de la démocratie. Renforcer l’intégrité de l’information nécessitera de promouvoir la transparence et la bonne santé de ces espaces d’information par une conception, un suivi et une mise en œuvre efficaces de politiques publiques pertinentes. En fournissant les sources des contenus — basés sur des faits et des données probantes, et élaborés conformément aux normes de qualité de la profession —, les journalistes et le secteur des médias en général — dont ceux couvrant le champ national, local ou communautaire, ainsi que les multiples sources d’information en/hors ligne — peuvent faire barrage à la mésinformation/désinformation et à leurs effets et alimenter le débat public démocratique. Pour autant, ces sources de nouvelles et d’information continuent, dans les démocraties, à faire face à des changements et des difficultés exacerbés par le développement des technologies de communication en ligne et par le rôle joué par les réseaux sociaux au regard du façonnement de l’environnement informationnel.
Les premiers éléments de compréhension qui se dégagent laissent donc à penser que les gouvernements souhaitant renforcer le rôle positif que jouent les médias et les plateformes en ligne dans la sphère de l’information devraient poursuivre les objectifs suivants :
Maintenir l’existence d’un secteur des médias libre, indépendant et diversifié en tant que composante essentielle des sociétés ouvertes et démocratiques. Outre la mise en place d’une base juridique pour garantir la liberté d’opinion et d’expression, les pouvoirs publics doivent protéger les journalistes, les travailleurs du secteur des médias et les chercheurs, mais aussi effectuer un travail de suivi et d’enquête, et faciliter l’accès à la justice lorsque ceux-ci font l’objet de menaces et d’attaques. L’adoption de plans d’action nationaux pour assurer la sécurité des journalistes, la collaboration avec les conseils de presse et le recensement/suivi des risques et des menaces sont d’autres actions pouvant être engagées.
Concevoir des politiques permettant de soutenir l’existence d’un espace diversifié, pluraliste et indépendant pour les médias traditionnels. Limiter la concentration du marché, promouvoir la transparence et la diversité des médias, ainsi qu’exiger l’indépendance éditoriale sont autant de facteurs importants pour empêcher que des intérêts politiques ou commerciaux exercent une influence indue.
Soutenir les médias de service public indépendants et de haute qualité. Ces organes font souvent partie des sources d’information les plus fiables et peuvent jouer un rôle important dans les démocraties en tant que médias indépendants, professionnels et de confiance.
Explorer les modes de soutien financier directs et indirects — dont les régimes d’imposition spéciaux et le financement ciblé — pouvant être apportés aux médias qui répondent à des critères bien précis et permettent d’atteindre les objectifs démocratiques, tels que le journalisme local, communautaire, culturel, minoritaire ou d’investigation. Les pouvoirs publics devraient également reconnaître la nature distincte des médias locaux sans but lucratif et garantir leur indépendance. Aider le secteur des médias à se diversifier et à conserver son indépendance est également un volet important du soutien et de l’aide au développement à l’échelle internationale. Toutefois, pour toutes ces actions, les pouvoirs publics devraient mettre en place des règles claires et transparentes concernant l’affectation des fonds et fournir des informations sur les subventions, le financement et les activités menées. Ces opérations devraient avoir pour but de montrer et garantir que les pouvoirs publics n’ont pas d’influence directe sur l’élaboration des contenus, et de permettre d’empêcher un quelconque biais politique dans les choix de financement.
Éviter de restreindre excessivement la liberté d’expression par des réglementations sur les contenus de portée trop générale et ne répondant pas aux critères de rigueur, de transparence et d’objectivité que l’on retrouve dans les obligations et les engagements de l’État en matière de droits humains. C’est là un aspect particulièrement important étant donné les difficultés à définir la « désinformation » et le risque que la réglementation des contenus « licites mais préjudiciables » ne restreigne la liberté d’expression.
Reconnaître le rôle que jouent les limitations de la responsabilité des intermédiaires pour la promotion d’un internet libre et ouvert et pour équilibrer les responsabilités des plateformes dans leur réponse aux inquiétudes légitimes suscitées par les contenus faux, trompeurs et globalement préjudiciables, ou encore illicites.
Accroître la transparence et la responsabilité des acteurs concernés, y-compris par des efforts réglementaires en tant que de besoin, afin de mieux comprendre et atténuer les impacts réels et potentiels de l’IA générative sur le plan de la désinformation. Cette approche sera particulièrement importante compte tenu de la nouveauté et de l’évolution rapide de cette technologie, ainsi que de l’incertitude concernant la façon dont elle amplifiera les problèmes de confiance dans la sphère de l’information, et dans quelle mesure. Il faudra, pour instaurer la confiance : comprendre les principes ayant servi de base au développement et à l’utilisation des outils liés à l’IA générative ; améliorer la transparence des ensembles de données utilisés pour les concevoir ; marquer en filigrane les contenus générés à l’aide de cette technologie ; enfin, exiger des tests, l’identification et l’atténuation des risques, ainsi qu’un suivi. Parallèlement, restreindre l’utilisation des « deepfakes » (ou hypertrucages) dans certains contextes bien définis (par exemple les processus liés à l’organisation d’élections) pourrait aider à atténuer la menace que représentent des contenus faux et trompeurs.
Accroître la transparence et le partage d’informations concernant les politiques des plateformes et leur élaboration, ainsi que les processus et les décisions qu’elles prennent, de façon à permettre une meilleure compréhension de leur fonctionnement ainsi que des conséquences de leurs modèles économiques, les mesures d’atténuation des risques et les algorithmes, en tant que de besoin. L’instauration i) de mécanismes, y-compris des mécanismes réglementaires selon qu’il conviendra, pour améliorer la transparence des plateformes au sujet de leurs règles de fonctionnement, de leurs efforts pour prévenir et gérer les impacts sur les droits humains, et de leurs politiques en matière de confidentialité des données ; ii) de procédures, de lignes directrices et d’outils pour guider la modération des contenus et la prise des décisions algorithmiques ; et iii) de dispositifs de traitement des plaintes peut donner aux utilisateurs les moyens de mieux comprendre comment les données sont traitées et les règles mises en application. Ces informations peuvent aussi encourager la responsabilité des plateformes envers leurs usagers car l’attention exercée par le public peut renforcer les actions concrètes engagées pour combattre les effets délétères, tout en mettant en évidence les biais éventuels, les risques pour les droits humains ou les pratiques déloyales. Faciliter la standardisation de ces informations peut aussi encourager la mise au point de bonnes pratiques en matière d’élaboration des politiques publiques et servir de base au développement de méthodes de mesure de l’impact de ces interventions.
Faciliter l’accès aux données pour les universitaires et autres chercheurs, afin de mieux comprendre comment les contenus se propagent entre les différentes plateformes et dans l’ensemble des espaces d’information, y-compris par des obligations réglementaires selon qu’il conviendra. Analyser les données publiques (et non les publications ou messages privés) qui n’incluent pas d’informations personnelles identifiables pourrait aussi fournir des renseignements sur les comportements en ligne, les habitudes et les changements qui interviennent au fil du temps, ce qui faciliterait les analyses d’impact des politiques publiques. Le fait de permettre aux pouvoirs publics et aux chercheurs indépendants de vérifier et de confirmer les déclarations publiques des plateformes (notamment la publicité politique) peut aussi favoriser la responsabilité. Promouvoir des dispositifs de notification standardisés et exiger que des mesures soient prises pour s’assurer que les recherches sont conduites à des fins légitimes et que les chercheurs respectent les règles en matière de sécurité et de confidentialité seront des initiatives importantes pour garantir la qualité des travaux de recherche et prévenir les abus.
Appliquer les dispositions visant à combattre les ingérences étrangères malveillantes dans la sphère de l’information. Le fait d’appliquer les dispositions existantes ayant été prises pour lutter contre l’ingérence étrangère — si elles existent et en tant que de besoin — aux technologies de communication en ligne est utile pour instaurer la confiance. La démarche de divulgation de l’identité des agents et des propriétaires de médias étrangers peut aider à mettre au jour des activités de communication clandestines et potentiellement malveillantes.
Préserver l’intégrité de l’information en période d’élections démocratiques. La mise en place de dispositifs pour assurer le suivi de certaines menaces et fournir aux citoyens des informations fiables et opportunes afin qu’ils puissent exercer leurs droits sera primordiale dans cet environnement informationnel en constante évolution. La diffusion d’informations de grande qualité, facilement accessibles et adaptées à des communautés vulnérables spécifiques qui sont exposées à des menaces identifiées permettra aux pouvoirs publics d’éviter le déficit d’information susceptible d’être exploité par les diffuseurs de fausses informations.
Identifier les facteurs économiques qui encouragent l’arrivée de nouveaux entrants, l’innovation et la portabilité des données afin de susciter la concurrence entre les plateformes en ligne, favorisant ainsi potentiellement les réponses basées sur le marché afin de permettre un meilleur fonctionnement des espaces informationnels.
Références
[65] AECID (2023), « Democracy Programme », Spanish Agency for Development Cooperation, https://www.aecid.es/programa-democracia.
[64] AFD (2022), Comment le groupe AFD contribue à la liberté d’information dans le monde, Agence française de développement (AFD), https://www.afd.fr/fr/actualites/comment-le-groupe-afd-contribue-la-liberte-dinformation-dans-le-monde.
[74] American Economic Liberties Project (2021), Big Tech Merger Tracker, https://www.economicliberties.us/big-tech-merger-tracker/.
[80] Autorité de la concurrence (2020), Droits voisins : l’Autorité fait droit aux demandes de mesures conservatoires présentées par les éditeurs de presse et l’AFP (Agence France Presse).
[5] Baldwin, R., M. Cave et M. Lodge (2011), Understanding Regulation, Oxford University Press, https://doi.org/10.1093/acprof:osobl/9780199576081.001.0001.
[55] Bleyer-Simon, K. et I. Nenadić (2021), News Media Subsidies in the First Wave of the COVID-19 Pandemic – A European Perspective.
[30] Brennen, J. et M. Perault (2021), How to increase transparency for political ads on social media, Brookings, https://www.brookings.edu/articles/how-to-increase-transparency-for-political-ads-on-social-media/.
[94] Cadier et al. (2022), Russia-Ukraine Disinformation Tracking Center, https://www.newsguardtech.com/special-reports/russian-disinformation-tracking-center/.
[21] Campbell, A. (2019), How data privacy laws can fight fake news, https://www.justsecurity.org/65795/how-data-privacy-laws-can-fight-fake-news/.
[63] CFI (2023), Sa mission, Canal France International, https://cfi.fr/fr/sa-mission.
[60] Chapman, M., N. Bellardi et H. Peissl (2020), Media literacy for all: Supporting marginalised groups through community media.
[78] Commission australienne de la concurrence et de la protection des consommateurs (2020), Draft news media bargaining code, https://www.accc.gov.au/by-industry/digital-platforms-and-services/news-media-bargaining-code/news-media-bargaining-code.
[24] Commission australienne de la concurrence et de la protection des consommateurs (2019), Digital Platforms Inquiry Final Report, https://www.accc.gov.au/system/files/Digital%20platforms%20inquiry%20-%20final%20report.pdf.
[109] Commission électorale australienne (2023), Electoral Integrity Assurance Taskforce, https://www.aec.gov.au/about_aec/electoral-integrity.htm (consulté le 31 août 2023).
[9] Commission européenne (2023), Code of Practice on Disinformation: New Transparency Centre provides insights and data on online disinformation for the first time, https://ec.europa.eu/commission/presscorner/detail/en/mex_23_723.
[52] Commission européenne (2022), Législation européenne sur la liberté des médias : La Commission propose des règles pour protéger le pluralisme et l’indépendance des médias dans l’UE, https://ec.europa.eu/commission/presscorner/detail/fr/ip_22_5504.
[53] Conseil de l’Europe (2023), Bonnes pratiques pour un financement durable des médias d’information, https://rm.coe.int/msi-res-2022-08-bonnes-pratiques-pour-un-financement-durable-des-media/1680adf465.
[11] Conseil de l’Europe (2021), MODÉRATION DE CONTENU - Meilleures pratiques en vue de la mise en place de cadres juridiques et procéduraux efficaces pour les mécanismes d’autorégulation et de corégulation de la modération de contenu, https://edoc.coe.int/en/internet/10194-moderation-de-contenu-note-d-orientation-.html#.
[50] Conseil de l’Europe (2018), Recommandation CM/Rec(2018)1 du Comité des Ministres aux États membres sur le pluralisme des médias et la transparence de leur propriété, https://www.coe.int/fr/web/freedom-expression/adopted-texts/-/asset_publisher/m4TQxjmx4mYl/content/recommendation-cm-rec-2018-1-1-of-the-committee-of-ministers-to-member-states-on-media-pluralism-and-transparency-of-media-ownership.
[37] Conseil de l’Europe (2016), Recommandation CM/Rec(2016)4[1] du Comité des Ministres aux Etats membres sur la protection du journalisme et la sécurité des journalistes et autres acteurs des médias, https://www.coe.int/fr/web/freedom-expression/committee-of-ministers-adopted-texts/-/asset_publisher/aDXmrol0vvsU/content/recommendation-cm-rec-2016-4-of-the-committee-of-ministers-to-member-states-on-the-protection-of-journalism-and-safety-of-journalists.
[22] Conseil européen (2022), Le règlement général sur la protection des données, https://www.consilium.europa.eu/fr/policies/data-protection/data-protection-regulation/.
[49] Cour européenne des droits de l’homme (2001), Thoma c. Luxembourg.
[48] Craufurd Smith, R., B. Klimkiewicz et A. Ostling (2021), « Media ownership transparency in Europe: Closing the gap between European aspiration and domestic reality », European Journal of Communication, vol. vol. 36, n° 6, pp. 547–562, https://doi.org/10.1177/0267323121999523.
[98] Danvers, W. (2023), Disinformation may be one of Russia and China’s greatest weapons, https://thehill.com/opinion/national-security/3932031-disinformation-may-be-one-of-russia-and-chinas-greatest-weapons/.
[95] Département d’État américain (2023), How the People’s Republic of China Seeks to Reshape the Global Information Environment, https://www.state.gov/gec-special-report-how-the-peoples-republic-of-china-seeks-to-reshape-the-global-information-environment/.
[90] Département d’État américain (2020), GEC Special Report: Pillars of Russia’s Disinformation and Propaganda Ecosystem, https://www.state.gov/wp-content/uploads/2020/08/Pillars-of-Russia%E2%80%99s-Disinformation-and-Propaganda-Ecosystem_08-04-20.pdf.
[93] Département d’État des États-Unis (2022), Kremlin-Funded Media: RT and Sputnik’s Role in Russia’s Disinformation and Propoaganda Ecosystem, https://www.state.gov/wp-content/uploads/2022/01/Kremlin-Funded-Media_January_update-19.pdf.
[87] Département du Procureur général du gouvernement de l’Australie (2019), Foreign Influence Transparency Scheme. Factsheet 2 “What is the difference between ’foreign influence’ and ’foreign interference’?”, https://www.ag.gov.au/sites/default/files/2020-03/influence-ve.
[19] Douek, E. (2021), « Governing Online Speech: From “Posts-as-Trumps” to Proportionality and Probability », Columbia Law Review, vol. 121/No. 3, https://columbialawreview.org/content/governing-online-speech-from-posts-as-trumps-to-proportionality-and-probability/.
[83] EEAS (2024), 2nd EEAS Report on Foreign Information Manipulation and Interference Threats: A Framework for Networked Defence, https://www.eeas.europa.eu/eeas/2nd-eeas-report-foreign-information-manipulation-and-interference-threats_en.
[89] EEAS (2023), 1 st EEAS Report on Foreign Information Manipulation and Interference Threats: Towards a framework for networked defence, https://www.eeas.europa.eu/sites/default/files/documents/2023/EEAS-DataTeam-ThreatReport-2023..pdf.
[41] Ellger, F. et al. (2021), Local Newspaper Decline and Political Polarization - Evidence from a Multi-Party Setting, Center for Open Science, https://doi.org/10.31219/osf.io/nhwxs.
[59] ERR (2023), Estonian Russian-language private media receive €1 million from state, https://news.err.ee/1608898790/estonian-russian-language-private-media-receive-1-million-from-state.
[12] État de Californie (2018), Senate Bill No. 1001, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180SB1001.
[45] European Audiovisual Observatory (2016), Media ownership - Market realities and regulatory responses, https://rm.coe.int/media-ownership-market-realities-and-regulatory-responses/168078996c.
[70] European Federation of Journalists (2023), Local Media for Democracy, https://europeanjournalists.org/local-media-for-democracy/.
[54] Forum sur l’information et la démocratie (2021), A New Deal for Journalism, https://informationdemocracy.org/wp-content/uploads/2021/06/ForumID_New-Deal-for-Journalism_16Jun21.pdf.
[27] Forum sur l’information et la démocratie (2020), Working Group on Infodemics: Policy Framework, https://informationdemocracy.org/wp-content/uploads/2020/11/ForumID_Report-on-infodemics_101120.pdf.
[51] GAFI (2023), Guidance on Beneficial Ownership for Legal Persons, Groupe d’action financière, Paris, https://www.fatf-gafi.org/en/publications/Fatfrecommendations/Guidance-Beneficial-Ownership-Legal-Persons.html.
[57] Gazzetta Ufficiale (2023), LEGGE 30 dicembre 2023, n. 213., https://www.gazzettaufficiale.it/eli/gu/2023/12/30/303/so/40/sg/pdf.
[115] Giansiracusa, N. (2023), Three Easy Ways to Make Chatbots Safer, https://www.scientificamerican.com/article/three-easy-ways-to-make-ai-chatbots-safer/.
[66] GIZ (2022), Support to Media Freedom and Pluralism in the Western Balkans, https://www.giz.de/en/worldwide/114194.html.
[26] Goldman, E. (2022), « The Constitutionality of Mandating Editorial Transparency », Hastings Law JournalHa, vol. 75/5, https://repository.uclawsf.edu/cgi/viewcontent.cgi?article=3985&context=hastings_law_journal.
[10] Gouvernement de l’Australie (2024), « Online misinformation », Australian Communications and Media Authority, https://www.acma.gov.au/online-misinformation.
[102] Gouvernement de l’Australie (2023), Foreign Influence Transparency Scheme, https://www.ag.gov.au/integrity/foreign-influence-transparency-scheme.
[79] Gouvernement de l’Australie - Trésor (2022), News Media and Digital Platforms Mandatory Bargaining Code: The Code’s first year of operation, https://treasury.gov.au/publication/p2022-343549.
[58] Gouvernement de l’Irlande (2022), Report of the Future of Media Commission, https://www.gov.ie/pdf/?file=https://assets.gov.ie/229731/2f2be30d-d987-40cd-9cfe-aaa885104bc1.pdf#page=null.
[47] Gouvernement de la Norvège (2016), Act relating to transparency of media ownership, https://lovdata.no/dokument/NLE/lov/2016-06-17-64.
[44] Gouvernement de la République française (2022), La concentration dans le secteur des médias à l’ère numérique : de la réglementation à la régulation, https://www.culture.gouv.fr/content/download/313912/3750380?v=8.
[25] Gouvernement de l’Australie (2023), Communications Legislation Amendment (Combatting Misinformation and Disinformation) Bill 2023—guidance note, Australian Government - Department of Infrastructure, Transport, Regional Development, Communications and the Arts, https://www.infrastructure.gov.au/department/media/publications/communications-legislation-amendment-combatting-misinformation-and-disinformation-bill-2023-guidance.
[7] Gouvernement des Pays-Bas (2021), Dutch Code of Conduct Transparency Online Political Advertisements, https://www.idea.int/sites/default/files/news/news-pdfs/Dutch-Code-of-Conduct-transparency-online-political-advertisements-EN.pdf.
[81] Gouvernement du Canada (2023), Loi sur les nouvelles en ligne, https://laws-lois.justice.gc.ca/fra/lois/o-9.3/.
[111] Gouvernement du Canada (2023), Mécanisme de réponse rapide du Canada : Affaires mondiales Canada, https://www.international.gc.ca/transparency-transparence/rapid-response-mechanism-mecanisme-reponse-rapide/index.aspx?lang=fra.
[110] Gouvernement du Canada (2021), Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections, https://www.canada.ca/fr/institutions-democratiques/services/protection-democratie/groupe-travail-securite.html (consulté le 31 août 2023).
[46] Gouvernement du Royaume-Uni (2003), Communications Act 2003, https://www.legislation.gov.uk/ukpga/2003/21/section/375.
[42] Grand-Duché de Luxembourg (2023), Loi du 7 août 2023 portant modification: 1) du Code pénal; 2) du Code de procédure pénale, https://legilux.public.lu/eli/etat/leg/loi/2023/08/07/a516/jo.
[56] Grand-Duché de Luxembourg (2021), Loi du 30 juillet 2021 relative à un régime d’aides en faveur du journalisme professionnel, https://legilux.public.lu/eli/etat/leg/loi/2021/07/30/a601/jo/fr.
[104] Institut international pour la démocratie et l’assistance électorale (2024), Protecting Elections in the Face of Online Malign Threats.
[108] Institut international pour la démocratie et l’assistance électorale (2023), « The Information Environment Around Elections », https://www.idea.int/theme/information-communication-and-technology-electoral-processes/information-environment-around-elections.
[105] IPSOS, UNESCO (2023), Survey on the impact of online disinformation and hate speech.
[96] Journal officiel de l’Union européenne (2022), Décision (PESC) 2022/2478 du Conseil du 16 décembre 2022 modifiant la décision 2014/512/PESC concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32022D2478.
[17] Keller, D. (2019), Build Your Own Intermediary Liability Law: A Kit for Policy Wonks of All Ages, Center for Internet and Society, Stanford Law School, https://cyberlaw.stanford.edu/publications/build-your-own-intermediary-liability-law-kit-policy-wonks-all-ages.
[4] Lai, S., N. Shiffman et A. Wanless (2023), Operational Reporting By Online Services: A Proposed Framework, https://carnegieendowment.org/files/202305-Operational_Reporting-final.pdf.
[113] Landemore, H. (2023), « Fostering More Inclusive Democracy with AI », Finances & Développement, vol. 60/4, pp. 12-14, https://www.scribd.com/document/689545094/What-AI-Means-for-Economics-By-IMF.
[28] Lenhart, A. (2023), A Vision for Regulatory Harmonization to Spur International Research, Lawfare, https://www.lawfareblog.com/vision-regulatory-harmonization-spur-international-research.
[6] Lim, G. et S. Bradshaw (2023), Chilling Legislation: Tracking the Impact of “Fake News” Laws on Press Freedom Internationally, Center for International Media Assistance, https://www.cima.ned.org/publication/chilling-legislation/#cima_footnote_3.
[8] Lomas, N. (2023), Elon Musk takes Twitter out of the EU’s Disinformation Code of Practice, https://techcrunch.com/2023/05/27/elon-musk-twitter-eu-disinformation-code/.
[23] MacCarthy, M. (2021), How online platform transparency can improve content moderation and algorithmic performance, Brookings, https://www.brookings.edu/articles/how-online-platform-transparency-can-improve-content-moderation-and-algorithmic-performance/.
[40] Medill Local News Initiative (2023), The State of Local News: The 2023 Report, https://localnewsinitiative.northwestern.edu/projects/state-of-local-news/2023/report/.
[82] Meta (2023), Changes to News Availability on our Platforms in Canada, https://about.fb.com/news/2023/06/changes-to-news-availability-on-our-platforms-in-canada/.
[38] Ministère américain de la Justice (2022), Recent FARA Cases, https://www.justice.gov/nsd-fara/recent-cases.
[73] Nadler, J. et D. Cicilline (2020), Investigation of Competition in Digital Markets, https://judiciary.house.gov/uploadedfiles/competition_in_digital_markets.pdf?utm_campaign=4493-519.
[43] Nelson, M. (2017), What is to be done? Options for combating the menace of media capture, Center for International Media Assistance, https://www.cima.ned.org/wp-content/uploads/2015/02/Capture12_CombatingMenace-of-Media-Capture.pdf.
[2] Newman, N. et al. (2023), Digital News Report 2023, Reuters Institute, https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2023-06/Digital_News_Report_2023.pdf.
[76] Nielsen, R. et S. Ganter (2018), « Dealing with digital intermediaries: A case study of the relations between publishers and platforms », Media & Society, vol. 20/4, https://journals.sagepub.com/doi/full/10.1177/1461444817701318.
[62] OCDE (2024), Mapping and analysis of ODA to media and the integrity of information environments.
[91] OCDE (2022), « Disinformation and Russia’s war of aggression against Ukraine : Threats and governance responses », Les réponses de l’OCDE face aux conséquences de la guerre en Ukraine, Éditions OCDE, Paris, https://doi.org/10.1787/37186bde-en.
[72] OCDE (2022), Handbook on Competition Policy in the Digital Age, OCDE, Paris, https://www.oecd.org/daf/competition-policy-in-the-digital-age/.
[3] OCDE (2022), Instaurer la confiance et renforcer la démocratie : Préparer le terrain pour l’action gouvernementale, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/34a56a87-fr.
[34] OCDE (2022), Instaurer la confiance pour renforcer la démocratie : Principales conclusions de l’enquête 2021 de l’OCDE sur les déterminants de la confiance dans les institutions publiques, Éditions OCDE, Paris, https://doi.org/10.1787/f6a31728-fr.
[75] OCDE (2022), Les leviers numériques de l’économie mondiale : Document de référence destiné à la Réunion ministérielle du CPEN, Éditions OCDE, Paris, https://doi.org/10.1787/97fbc441-fr.
[20] OCDE (2022), The Protection and Promotion of Civic Space : Strengthening Alignment with International Standards and Guidance, Éditions OCDE, Paris, https://doi.org/10.1787/d234e975-en.
[77] OCDE (2021), Competition Issues concerning News Media and Digital Platforms, https://web-archive.oecd.org/2021-11-19/616885-competition-issues-concerning-news-media-and-digital-platforms-2021.pdf.
[14] OCDE (2021), Politique de la réglementation : Perspectives de l’OCDE 2021, Éditions OCDE, Paris, https://doi.org/10.1787/494d5942-fr.
[114] OCDE (2019), Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449, OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
[71] OCDE (2019), Vers le numérique : Forger des politiques au service de vies meilleures, Éditions OCDE, Paris, https://doi.org/10.1787/7cba1873-fr.
[32] OCDE (2014), Accountability and Democratic Governance : Orientations and Principles for Development, Lignes directrices et ouvrages de référence du CAD, Éditions OCDE, Paris, https://doi.org/10.1787/9789264183636-en.
[18] OCDE (2011), The Role of Internet Intermediaries in Advancing Public Policy Objectives, Éditions OCDE, Paris, https://doi.org/10.1787/9789264115644-en.
[84] Office of the Director of National Intelligence (2023), 2023 Annual Threat Assessment Report, https://www.dni.gov/files/ODNI/documents/assessments/ATA-2023-Unclassified-Report.pdf.
[61] OSCE (2019), The Tallinn Guidelines on National Minorities and the Media in the Digital Age, https://www.osce.org/files/OSCE-Tallinn-guidelines-online%203.pdf.
[116] Parlement européen (2023), AI Act: a step closer to the first rules on Artificial Intelligence, https://www.europarl.europa.eu/news/fr/press-room/20230505IPR84904/un-pas-de-plus-vers-les-premieres-regles-sur-l-intelligence-artificielle.
[85] Parlement européen (2023), Legal loopholes and the risk of foreign interference. In depth-analysis requested by the ING2 special committee, https://www.europarl.europa.eu/RegData/etudes/IDAN/2023/702575/EXPO_IDA(2023)702575_EN.pdf.
[112] Partenariat Mondial sur l’Intelligence Artificielle (PMIA) (2023), Global Partnership on Artificial Intelligence - 2023 Ministerial Declaration, https://gpai.ai/2023-GPAI-Ministerial-Declaration.pdf.
[103] PNUD (2023), Promoting information integrity in elections.
[106] Polyakova, A. et D. Fried (2019), Democratic defense against disinformation 2.0.
[117] Poritz, I. (2023), States Are Rushing to Regulate Deepfakes as AI Goes Mainstream, https://www.bloomberg.com/news/articles/2023-06-20/deepfake-porn-political-ads-push-states-to-curb-rampant-ai-use.
[1] Quétier-Parent, S., D. Lamotte et M. Gallard (2023), Elections & social media: the battle against disinformation and trust issues, Ipsos – UNESCO Study on the impact of online disinformation during election campaigns, https://www.ipsos.com/en/elections-social-media-battle-against-disinformation-and-trust-issues.
[35] RSF (2020), RSF’s 2020 Round-up: 50 journalists killed, two-thirds in countries “at peace”, https://rsf.org/en/news/rsfs-2020-round-50-journalists-killed-two-thirds-countries-peace.
[33] RSF - (2023), 2023 World Press Freedom Index – journalism threatened by fake content industry, https://rsf.org/en/2023-world-press-freedom-index-journalism-threatened-fake-content-industry.
[29] Scott, M. (2023), I have a plan to fix social media, https://www.politico.eu/newsletter/digital-bridge/i-have-a-plan-to-fix-social-media/.
[88] Service européen d’action extérieure (2023), 1st EEAS Report on Foreign Information Manipulation and Interference Threats. Towards a framework for networked defence, https://www.eeas.europa.eu/sites/default/files/documents/2023/EEAS-DataTeam-ThreatReport-2023.pdf.
[16] Shmon, C. et H. Pederson (2022), Platform Liability Trends Around the Globe: From Safe Harbors to Increased Responsibility, https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-safe-harbors-increased-responsibility.
[15] Shmon, C. et H. Pederson (2022), Platform Liability Trends Around the Globe: Recent Noteworthy Developments, https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-recent-noteworthy-developments.
[39] Sweney, M. (2023), ‘The model is broken’: UK’s regional newspapers fight for survival in a digital world, https://www.theguardian.com/media/2023/mar/26/regional-newspapers-fight-for-survival-in-a-digital-world.
[92] The Moscow Times (2022), Billions for propaganda. Budget spending on state media tripled against the backdrop of the war, https://www.moscowtimes.ru/2022/04/12/milliardi-na-propagandu-rashodi-byudzheta-na-gossmi-podskochili-vtroe-na-fone-voini-a19511.
[31] The Times of Israel (2019), Election judge bars anonymous internet ads despite Likud objection, https://www.timesofisrael.com/election-judge-bars-anonymous-internet-adds-despite-likud-objection/.
[99] The United States Department of Justice (2023), Foreign Agents Registration Act (Loi sur l’enregistrement des agents étrangers), https://www.justice.gov/nsd-fara.
[100] The United States Department of Justice (2022), Court finds RM broadcasting must register as a foreign agent, https://www.justice.gov/opa/pr/court-finds-rm-broadcasting-must-register-foreign-agent.
[101] The United States Department of Justice (2021), Grand Jury Indicts Thirteen Russian Individuals and Three Russian Companies for Scheme to Interfere in the United States Political System, https://www.justice.gov/opa/pr/grand-jury-indicts-thirteen-russian-individuals-and-three-russian-companies-scheme-interfere.
[118] U.S. White House (2023), Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-united-states-bans-imports-of-russian-oil-liquefied-natural-gas-and-coal/.
[107] UNESCO (2022), Elections in Digital Times: A Guide for Electoral Practitioners.
[69] UNESCO (2022), Trouver des financements pour un journalisme florissant: viabilité des médias, les options stratégiques, Organisation des Nations Unies pour l’éducation, la science et la culture.
[36] UNESCO (2021), UNESCO Observatory of of Killed Journalists, Organisation des Nations Unies pour l’éducation, la science et la culture, https://en.unesco.org/themes/safety-journalists/observatory?field_journalists_date_killed_value%5Bmin%5D%5Byear%5D=2022&field_journalists_date_killed_value%5Bmax%5D%5Byear%5D=2022&field_journalists_gender_value_i18n=All&field_journalists_nationality_tid_i.
[13] Union européenne (2022), Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), Office des publications de l’Union européenne, https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32022R2065.
[86] United States Department of Homeland Security (2018), Foreign Interference Taxonomy, https://www.cisa.gov/sites/default/files/publications/foreign_interference_taxonomy_october_15.pdf.
[67] USAID (2023), Administrator Samantha Power Delivers Remarks at the « Advancing Technology for Democracy » Event, https://www.usaid.gov/news-information/speeches/mar-30-2023-administrator-samantha-power-delivers-remarks-at-the-advancing-technology-for-democracy-event.
[68] USAID (2023), Interventions to Counter Misinformation: Lessons from the Global North and Applications to the Global South, https://pdf.usaid.gov/pdf_docs/PA0215JW.pdf.
[97] Vilmer, J. (2019), The “Macron Leaks” Operation: A Post-Mortem.
Notes
← 1. Pour plus d’informations, consulter : https://santaclaraprinciples.org/
← 2. Pour plus d’informations, consulter : https://c2pa.org/
← 3. Pour plus d’informations, consulter : https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation
← 4. Informations communiquées par le gouvernement de la Lituanie.
← 5. Pour plus d’informations, consulter : https://www.cgi.br/pagina/marco-civil-law-of-the-internet-in-brazil/180. Il convient de noter que l’objectif du projet de loi n° 2630/2020 est d’actualiser la loi Marco Civil da Internet en lui adjoignant notamment une clause de « devoir de diligence » des plateformes numériques afin qu’elles prennent des mesures à l’égard de certains contenus illicites.
← 6. Pour plus d’informations, consulter : https://www.infrastructure.gov.au/have-your-say/new-acma-powers-combat-misinformation-and-disinformation.
← 7. Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 : https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L:2002:201:FULL.
← 8. Voir la section 8(4)(ii) de la loi S.1989 — Honest Ads Act (https://www.congress.gov/bill/115th-congress/senate-bill/1989/text) et art. 2(2)(b) de la Proposition de Règlement du Parlement européen et du Conseil relatif à la transparence et au ciblage de la publicité à caractère politique. (https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0731).
← 9. Pour plus d’informations, consulter : https://fom.coe.int/fr/accueil.
← 10. Pour plus d’informations, consulter :https://www.mfrr.eu/monitor/.
← 11. Pour plus d’informations, consulter : https://www.coe.int/en/web/freedom-expression/safety-of-journalists-campaign
← 12. Pour plus d’informations, consulter : https://cmpf.eui.eu/media-pluralism-monitor-2023/.
← 13. L’étude porte sur les pays suivants : Allemagne, Autriche, Belgique, Bulgarie, Chypre, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Malte, Pays-Bas, Pologne, Portugal, République de Macédoine du Nord, République slovaque, Roumanie, Royaume-Uni, Serbie, Slovénie, Suède, Tchéquie et Türkiye.
← 14. Pour plus d’informations, consulter :https://lovdata.no/dokument/NLE/lov/2020-05-29-59.
← 15. Pour plus d’informations sur le contexte et les recommandations relatives à l’amélioration de la politique, du financement et de l’environnement favorable pour un journalisme professionnel indépendant, voir : (Forum sur l’information et la démocratie, 2021[54]).
← 16. Par exemple, au Luxembourg, les médias de service public doivent s’organiser de manière à garantir leur « autonomie et l’indépendance de l’État ainsi que des différentes entités sociales, économiques et politiques en ce qui concerne les décisions éditoriales » — pour plus d’informations, voir la Loi du 12 août 2022 portant organisation de l’établissement public « Média de service public 100,7 » et portant modification de la loi modifiée du 27 juillet 1991 sur les médias électroniques.
← 17. Pour plus d’informations, consulter :https://freedomonlinecoalition.com/donor-principles-for-human-rights-in-the-digital-age/.
← 18. Pour plus d’informations, consulter :https://ifpim.org/.
← 19. Pour le texte de cette loi, voir : https://www.legislation.gov.au/Details/C2019C00133.
← 20. L’IA générative recouvre les systèmes d’intelligence artificielle capables de produire du texte, des images, ou d’autres matériels en se conformant aux instructions qui lui sont données.