Este capítulo explora las medidas políticas que promueven un mayor grado de rendición de cuentas y de transparencia de las plataformas digitales. También analiza la necesidad de abordar riesgos específicos en el espacio informativo, como la manipulación de la información y la injerencia por parte de agentes extranjeros, las campañas de desinformación en periodos electorales y los cambios introducidos por la Inteligencia Artificial. También ofrece una visión del papel esencial de un entorno mediático pluralista, independiente y sostenible para reforzar la integridad de la información.
Hechos frente a falsedades: Fortaleciendo la democracia a través de la integridad de la información
2. Implementar políticas para mejorar la transparencia, la rendición de cuentas y la pluralidad de las fuentes de información
Abstract
2.1. Introducción
La construcción de la integridad de la información y la lucha contra la desinformación dependen en gran medida de la resiliencia de los ciudadanos, así como en los actores que producen los contenidos y los canales a través de los cuales se difunde, es decir, las plataformas en línea y las de redes sociales, así como los medios de comunicación tradicionales. La proporción de la población que recibe regularmente noticias de medios de comunicación tradicionales y locales ha disminuido, ya que la gente ha pasado cada vez más a recibir noticias en las plataformas de redes sociales. Un estudio de 2023 realizado en 16 países de todo el mundo -todos ellos con elecciones previstas para el año siguiente- reveló que el 56 % de los usuarios de internet utilizan con frecuencia las redes sociales como fuente principal de noticias, superando a la televisión en un 44 % (Quétier-Parent, Lamotte and Gallard, 2023[1]).
Los ejemplos de países específicos muestran tendencias similares. Por ejemplo, en el Reino Unido, la proporción de población que utiliza la prensa impresa como fuente principal de noticias ha descendido del 59 % en 2013 al 14 % en 2023, mientras que la proporción de población que utiliza las redes sociales como fuente principal ha aumentado del 20 % al 38 %. En el mismo periodo, el uso de las redes sociales como fuente principal de información aumentó del 27 % al 48 % en Estados Unidos y del 18 % al 29 % en Alemania (Newman et al., 2023[2]). Si bien los datos sobre los patrones de consumo de noticias son intrínsecamente difíciles de recopilar y comparar entre países, las tendencias generales, especialmente entre las poblaciones más jóvenes, muestran sistemáticamente un cambio de tendencia hacia el uso de las redes sociales como fuente principal de noticias.
La tendencia a alejarse de los medios de comunicación tradicionales es especialmente evidente a nivel local y regional, y está generalizada en los países de la OCDE y fuera de ella, lo que refleja la continua evolución hacia un entorno mediático digital, móvil y dominado por las plataformas. Estas tendencias también sugieren que las generaciones más jóvenes, que han crecido con los medios digitales, probablemente sigan recurriendo principalmente a las plataformas en línea, en lugar de a las plataformas tradicionales para obtener y compartir información (Newman et al., 2023[2]).
Hoy en día, tanto el compromiso en línea como fuera de línea está cada vez más determinado por los flujos de información en las plataformas en línea. El impacto de las plataformas en línea va más allá de su uso como fuente directa de información, ya que los bucles de retroalimentación -en los que la desinformación, la información errónea y las teorías conspirativas que se difunden en línea son recogidas por los medios de comunicación tradicionales- amplifican aún más los contenidos y les confieran credibilidad (OECD, 2022[3]). Las plataformas en línea también ofrecen vías novedosas y eficientes para amplificar las campañas de manipulación informativa e injerencia por parte de actores extranjeros, que intentan modelar ilegítimamente la opinión pública y el discurso, socavar la confianza en la democracia y aumentar la polarización, a menudo, en paralelo con otros esfuerzos de injerencia extranjera.
Dado el papel cada vez más importante que desempeñan las plataformas en línea en el espacio de la información y los incentivos para que los algoritmos de las empresas privadas amplifiquen los contenidos atractivos (y, a menudo, sensacionalistas o polarizadores), para poder informar unas respuestas políticas efectivas, será esencial comprender cómo se pueden utilizar indebidamente estas tecnologías para amenazar aspectos básicos de la vida democrática. La limitada comprensión actualmente existente sobre cómo funcionan las plataformas en línea y de redes sociales, de los flujos de datos dentro de ellas y entre ellas, y de cómo se utilizan, impide la adopción de respuestas políticas eficaces.
Además, la disminución del alcance de los medios de comunicación tradicionales y de la confianza en ellos, combinada con los riesgos de concentración y captura del mercado, han erosionado aún más el acceso a contenidos de calidad y la integridad de la información en muchos países. Un sector de los medios de comunicación plural e independiente desempeña un papel esencial para facilitar el discurso público y el refuerzo de la democracia no se puede lograr sin reforzar el papel de las fuentes de medios de comunicación de calidad y confianza.
Por ello, las intervenciones políticas para promover espacios informativos y mediáticos transparentes y diversos pueden agruparse en torno a:
Identificar una serie de esfuerzos que promuevan la rendición de cuentas y la transparencia de las plataformas de redes sociales y en línea;
Promover unos mercados de medios de comunicación y una información plurales, independientes y competitivos; y
Combatir riesgos específicos, como la manipulación informativa y la injerencia por parte de agentes extranjeros, las elecciones y la desinformación, así como los que plantea la inteligencia artificial generativa.
2.2. Promover la responsabilidad y la transparencia de las plataformas digitales
Dado el papel destacado y el impacto que las plataformas en línea y de redes sociales tienen en el espacio de la información, cada vez se comprenden mejor los beneficios de la responsabilidad y la transparencia en su diseño y funcionamiento. La prioridad en este ámbito debería ser analizar cómo las políticas pueden exigir responsabilidades, fomentar la comprensión de sus modelos de negocio y los riesgos conexos para los procesos democráticos, mitigar los perjuicios y promover unos espacios de la información más saludables.
Una amenaza importante para la integridad de la información en los sistemas democráticos es el uso de plataformas digitales, incluidas las redes sociales, por parte de agentes nacionales y extranjeros con el fin de manipular y desinformar a la ciudadanía. Para mitigar, por ejemplo, riesgos similares en los medios de comunicación tradicionales, los medios de comunicación han estado históricamente sujetos a diversos marcos regulatorios. Esta supervisión se debe al papel de los medios de comunicación tradicionales de crear, editar y seleccionar contenidos, así como a su uso de recursos públicos limitados (por ejemplo, el espectro radiofónico). Estas políticas suelen abarcar aspectos como las normas, las restricciones a la propiedad y los requisitos de licencia, y complementan las sólidas prácticas de autorregulación de la profesión.
Sin embargo, las plataformas en línea no ejercen el control editorial sobre el contenido generado por los usuarios que alojan, lo que dificulta la aplicación de los enfoques reguladores tradicionales de los medios de comunicación. Las plataformas de redes sociales suelen gozar de protecciones jurídicas específicas como intermediarios en línea, lo que las exime de responsabilidad por el contenido generado por los usuarios, por ejemplo, a través de la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 en Estados Unidos.
Parte de las dificultades a las que se enfrentan los gobiernos para encontrar la combinación adecuada de enfoques para proteger la integridad de la información se debe al alcance y al carácter global de las plataformas en línea. Las políticas suelen aplicarse dentro de jurisdicciones, cuyo tamaño, incluso si abarca varios países, como en la Unión Europea, no se corresponde con el alcance y el carácter global de las plataformas en línea. Este desajuste constituye un desafío particular cuando se trata de aumentar la transparencia de la plataforma, ya que las obligaciones internacionales fragmentadas e inconsistentes obstaculizan el desarrollo de una imagen integral de los flujos de datos y los riesgos para la integridad de la información, las políticas implementadas para mitigarlos y los resultados relacionados en el entorno de la información en línea (Lai, Shiffman and Wanless, 2023[4]). Además, es importante tener en cuenta el papel de la propiedad privada de las plataformas en línea, que son efectivamente espacios públicos para la difusión y el debate de noticias, que a menudo operan de manera opaca con arreglo a sus propias condiciones de servicio y directrices comunitarias. En conjunto, este contexto limita la comprensión de cómo fluye la información y, por consiguiente, de qué políticas funcionan para mitigar los perjuicios de la desinformación.
A tal fin, los gobiernos pueden dar prioridad, según corresponda, a:
Ir más allá de la autorregulación y aclarar el papel y las estrategias de las políticas dirigidas por el estado; y
Palancas políticas para fomentar la rendición de cuentas y la transparencia.
2.2.1. Ir más allá de la autorregulación
La autorregulación, que se produce cuando un grupo de empresas o personas ejerce control sobre sus propios miembros y comportamientos, ha sido hasta la fecha el enfoque predominante a la hora de establecer normas para las plataformas en línea. En el ámbito de la integridad de la información, la autorregulación se refiere al cumplimiento voluntario de códigos de conducta, directrices y otros mecanismos para regular cuestiones como la moderación de contenidos, la privacidad o las prácticas éticas. Se considera generalmente que estos mecanismos se benefician de los mayores niveles de conocimientos técnicos y experiencia pertinente de la industria -en este caso, las propias plataformas-, lo que a su vez contribuye a una mayor eficacia y eficiencia.
Cabe destacar que la autorregulación puede incorporar diversos mecanismos, desde los completamente privados hasta aquellos con distintos grados de participación gubernamental, incluida la participación del Estado en la elaboración o aprobación de proyectos de normas (Baldwin, Cave and Lodge, 2011[5]). La autorregulación facilita la flexibilidad y los enfoques específicos del sector. En particular, para los medios de comunicación y las organizaciones periodísticas, este enfoque puede desempeñar un papel importante en el fomento de la capacidad de los medios de comunicación de elaborar contenidos de calidad y fácticos, y evitar la difusión involuntaria de información errónea. Los mecanismos de autorregulación, como los consejos de prensa, también pueden desempeñar un papel fundamental a la hora de supervisar el abuso de las leyes contra los periodistas y de abogar en su nombre (Lim and Bradshaw, 2023[6]).
Por ejemplo, los Principios de Santa Clara constituyen un importante esfuerzo de autorregulación centrado en las cuestiones de integridad y de transparencia de la información sin la intervención directa de gobiernos.1 Adoptados en 2018, estos principios son un conjunto voluntario de recomendaciones para las empresas, diseñadas para ofrecer transparencia y un proceso legal significativo a los usuarios de las plataformas en línea afectados. Estos principios exigen claridad en las iniciativas de moderación de contenidos de las plataformas, la notificación clara a los usuarios afectados y un sólido proceso de apelaciones. Los Principios de Santa Clara están diseñados para ayudar a guiar, evaluar y comparar las prácticas y actividades de las empresas. Además, la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) trata de aumentar la transparencia de los contenidos específicos. La C2PA fue fundada en febrero de 2021 por Microsoft y Adobe, e incluía a Arm, BBC, Intel, y Truepic. En la actualidad, entre sus miembros también figuran Google, Sony, Meta, OpenAI y varios fabricantes de cámaras, creadores de contenido y organizaciones no gubernamentales. Este protocolo lucha contra la desinformación en línea mediante la creación de estándares técnicos para certificar la fuente y el historial (o procedencia) de los contenidos específicos, con el fin de ayudar a verificar quién, cómo, cuándo y dónde se creó o editó, para el caso de que los autores deseen incluir esa información.2
En los Países Bajos, el Ministerio de Asuntos del Interior y Relaciones del Reino elaboró en 2021 un Código de Conducta para la Transparencia de la Publicidad Política en Línea con el fin de evitar la difusión de información engañosa durante las elecciones, poniendo así de relieve la posible participación del Estado en iniciativas de autorregulación. El Código de Conducta es voluntario y está abierto a todos los partidos políticos y plataformas en línea para ayudar a promover «la transparencia, la privacidad, la seguridad, la equidad y la integridad de las elecciones». Cabe destacar que la participación es voluntaria y el código de conducta advierte que no sustituye a otras iniciativas normativas. Si bien el cumplimiento no es exigible, el código tiene una función de señalización, para ilustrar la buena conducta (en su lanzamiento lo habían firmado 11 de los 13 partidos parlamentarios, junto con Facebook, Google, Snapchat y TikTok) (Government of the Netherlands, 2021[7]).
Sin embargo, sin supervisión democrática ni requisitos de presentación de informes, los regímenes de autorregulación pueden suscitar dudas sobre la rendición de cuentas. Además, cuando la autorregulación funciona como un mecanismo voluntario, el público puede acabar estando mal protegido por regímenes, que controlan eficazmente a los miembros más responsables de un campo, pero dejan sin regular a las empresas menos inclinadas a servir al interés público o del consumidor (Baldwin, Cave and Lodge, 2011[5]).
El anuncio de X en mayo de 2023 de que se retiraba de su participación voluntaria en el Código de Conducta sobre Desinformación3 de la Unión Europea de 2018 pone de manifiesto las limitaciones de los códigos y principios voluntarios de conducta (Lomas, 2023[8]). El Código fue el primer instrumento de autorregulación al que se adhirieron voluntariamente actores líderes de la industria como Facebook, Google, Microsoft, Mozilla, TikTok y Twitter (ahora X). La retirada de X estuvo precedida por un anuncio de la Comisión Europea en febrero de 2023 de que el primer informe de transparencia básico de la empresa para el Código de Conducta no cumplía las expectativas establecidas por las demás plataformas en cuanto a los datos que proporcionaba y la información sobre los compromisos de trabajar con verificadores de datos (European Commission, 2023[9]), lo cual aclara aún más el desafío que suponen las herramientas de autorregulación para permitir una supervisión y una presentación de informes transparentes, coherentes y exhaustivas.
Para mitigar los desafíos de la autorregulación voluntaria, los enfoques de corregulación incorporan la experiencia de la industria y el autogobierno, y pueden permitir que los gobiernos asuman las tareas de supervisión, aplicación o ratificación de los mecanismos de autorregulación (Baldwin, Cave and Lodge, 2011[5]). Por ejemplo, el Código de Conducta europeo se actualizó y revisó en 2022 con el objetivo de que pasara a ser un instrumento corregulador y que sirviera como marco de seguimiento reforzado en virtud de la Ley de Servicios Digitales (DSA). La versión actualizada del Código contiene 44 compromisos y 128 medidas específicas, que abordan cuestiones como la desmonetización y la reducción de los incentivos económicos para los propagadores de desinformación; el aumento de la transparencia de la publicidad política; la reducción de las conductas manipuladoras y las cuentas falsas; el apoyo al acceso de los investigadores a los datos de las plataformas; entre otros.
En Australia, el Código de Prácticas sobre Desinformación e Información Errónea fue publicado en febrero de 2021 por Digital Industry Group Inc. (DIGI). Si bien el código es voluntario y tiene como objetivo proporcionar salvaguardias contra los daños causados por la difusión de contenidos falsos y engañosos en las plataformas digitales, la Autoridad Australiana de Comunicaciones y Medios (ACMA) supervisa el Código de Prácticas y trabaja con DIGI y los signatarios para evaluar los informes de transparencia de estos últimos, examinar cómo gestionan las quejas de los usuarios y animar a más plataformas a adherirse al código (véase Recuadro 2.1).
Recuadro 2.1. Australia – Código de prácticas voluntario sobre desinformación e información errónea
Sobre la base de la solicitud del gobierno australiano en 2019 y de las lecciones aprendidas del Código de Prácticas sobre Desinformación de la Unión Europea, la asociación industrial sin fines de lucro Digital Industry Group Inc (DIGI) publicó en 2021 el Código Australiano de Prácticas sobre Desinformación e Información Errónea. Este código tiene como objetivo proporcionar transparencia sobre las salvaguardas que emplean las plataformas digitales contra los daños derivados de la difusión de desinformación y de información errónea.
El código voluntario tiene actualmente ocho firmantes: Adobe, Apple, Google, Meta, Microsoft, Redbubble, TikTok y Twitch. Todos los firmantes se comprometen a:
reducir el riesgo de daños derivados de la desinformación y la información errónea; y
publicar un informe anual de transparencia sobre las medidas que están tomando para combatir la desinformación y la información errónea.
Dependiendo de la naturaleza de su servicio, los signatarios también pueden comprometerse a proporcionar información sobre sus iniciativas para:
interrumpir los incentivos publicitarios y de monetización para la difusión de desinformación y de información errónea;
trabajar para garantizar la seguridad y la integridad de los servicios y los productos de la plataforma;
empoderar a los usuarios para que tomen decisiones más informadas sobre los contenidos digitales y ayudarles a identificar los contenidos falsos y engañosos;
aumentar la transparencia en torno a la publicidad política;
apoyar la investigación que mejore la comprensión pública de la información errónea y la desinformación.
El administrador del Código es DIGI. En octubre de 2021, DIGI reforzó el código mediante la creación de un marco de gobernanza y el establecimiento de un mecanismo de quejas, para que el público denuncie los incumplimientos de los compromisos por parte de los signatarios. En diciembre de 2022, DIGI publicó una versión actualizada del Código. Las actualizaciones se centraron en facilitar la adopción del Código por parte de empresas más pequeñas y en aclarar los productos y servicios específicos que abarca.
Si bien la ACMA no tiene actualmente un papel regulador formal en relación con la desinformación y la información errónea, supervisa el funcionamiento del Código, lo que incluye informar sobre las medidas de las plataformas digitales en materia de desinformación y calidad de las noticias, se relaciona constantemente con DIGI, los signatarios y otras partes sobre el funcionamiento y las posibles mejoras del Código, y anima a más plataformas a unirse.
Fuente: Gobierno de Australia (2024[10]), “Online misinformation”, Autoridad Australiana de Comunicaciones y Medios, https ://www.acma.gov.au/online-misinformation.
Las limitaciones que plantean los regímenes de autorregulación y de corregulación existentes incrementan el riesgo de que no mitiguen suficientemente las amenazas que plantean los actores que más hacen por socavar la integridad de la información en las democracias, así como por aquellos que simplemente no desean participar. Dichos riesgos ponen de relieve la importancia de la participación del gobierno en el diseño, la aplicación y la actualización de las respuestas normativas, cuando sea pertinente y apropiado. Si bien el diseño de políticas que protejan y promuevan la libertad de expresión y el debate democrático activo y bien informado requiere la participación de la sociedad civil y los actores del sector privado, las respuestas no pueden dejarse exclusivamente en sus manos. Dicho esto, estos esfuerzos de autorregulación han sido valiosos a lo largo de los años para promover el diálogo entre los gobiernos y las plataformas digitales sobre los problemas en cuestión y para ayudar a identificar las distintas opciones políticas existentes. Estas experiencias constituyen una base importante sobre la que construir.
2.2.2. Mecanismos para fomentar la rendición de cuentas y la transparencia
Tal como se indicó en la introducción, dados los riesgos que las políticas específicas sobre contenidos plantean para la libertad de expresión, las respuestas deberían centrarse en gran medida en clarificar las responsabilidades que tienen las plataformas en línea en cuanto a su papel como actores esenciales en el espacio de la información. En este sentido, los gobiernos deberían garantizar un marco jurídico claro y predecible, donde las normas sean claras para evitar incentivar la censura privatizada (Council of Europe, 2021[11]).
Además, el funcionamiento en gran medida opaco de las principales empresas tecnológicas impide comprender el papel que desempeñan las plataformas en línea en la configuración del entorno de la información y las medidas que han adoptado para mitigar los comportamientos dañinos (Lai, Shiffman and Wanless, 2023[4]). Las estrategias centradas en aumentar la transparencia pueden ayudar a comprender cómo funcionan las plataformas en línea y pueden contribuir a garantizar que las normas y su aplicación por parte de estas plataformas sean claras, predecibles y proporcionadas. Debido a la asimetría de información entre las plataformas en línea y los gobiernos sobre cómo se difunden los contenidos y qué intervenciones funcionan, la transparencia también es una herramienta importante para ayudar a gobiernos e investigadores independientes a entender mejor el espacio de la información, lo que a su vez ayudará a supervisar el impacto y la eficacia de las respuestas, así como a fundamentar la formulación de políticas (OECD, 2022[3]). Esta oportunidad pone de manifiesto la necesidad más amplia de mejorar las capacidades de medición de las acciones políticas relevantes en este espacio.
Las plataformas en línea no suelen tener incentivos para compartir información con investigadores, reguladores o el público sobre políticas, procesos, algoritmos o flujos de contenido, debido principalmente a preocupaciones de costes, privacidad y competencia. Al hacer que la información sea más accesible y precisa, las políticas pueden contribuir a garantizar que se proporcione información para facilitar una mejor comprensión del espacio de la información y de los actores que lo integran, y facilitar la verificación independiente de las declaraciones de las plataformas. Los riesgos en otras industrias proporcionan ejemplos significativos a este respecto: hasta que los gobiernos exigieron su divulgación, el público no disponía de información precisa en mercados tan diversos como el contenido de nicotina de los cigarrillos, el consumo de combustible de los automóviles o la seguridad alimentaria (Baldwin, Cave and Lodge, 2011[5]).
Recientemente se han aplicado o debatido varias leyes centradas en una amplia gama de cuestiones de transparencia. La Ley de Servicios Digitales (DSA) de la Unión Europea, la Ley de Seguridad en Línea del Reino Unido, así como los proyectos de ley de Estados Unidos como la Ley de Supervisión y Seguridad de los Servicios Digitales y la Ley de Responsabilidad de la Plataforma y Transparencia del Consumidor, reflejan las crecientes demandas de una mayor transparencia de las plataformas (Lai, Shiffman and Wanless, 2023[4]). La reglamentación pública para promover la transparencia y la rendición de cuentas también puede basarse en las iniciativas de autorregulación ya existentes o similares, como el caso de la Unión Europea, donde el Código de Prácticas sobre Desinformación, de carácter voluntario, está ahora integrado en la Ley de Servicios Digitales (DSA).
Una mayor transparencia es tan solo una parte de la solución para el problema de la manipulación de la información en las plataformas sociales. La amplificación artificial de los contenidos, por ejemplo, a través de bots de redes sociales disfrazados de usuarios humanos, puede distorsionar las conversaciones en línea, al aumentar la aparente popularidad de determinados mensajes y cuentas. Esta amplificación artificial puede ser especialmente dañina durante elecciones, desastres naturales u otras situaciones de crisis.
Los gobiernos están identificando cada vez más respuestas políticas para mejorar la autenticidad del espacio de la información en línea. Por ejemplo, en 2018, California introdujo la Ley de Fortalecimiento de la Transparencia en Línea (Ley BOT), que prohíbe que los bots en línea oculten sus identidades para aparecer como usuarios humanos (State of California, 2018[12]). En 2023, el Parlamento lituano inició los debates de enmienda de la Ley de Información Pública y del Código Penal, que podrían otorgar al gobierno lituano el derecho a ordenar a las plataformas sociales y otros proveedores de información que «eliminen en un plazo de ocho horas el número artificialmente aumentado de visitas a páginas, comentarios, compartidos, me gusta, seguidores y/o suscriptores de contenido, o bien que retiren la posibilidad de acceso a dichos contenidos». Los debates también incluyeron la posibilidad de sanciones penales y de prisión por la difusión artificial de contenidos en las plataformas.4
En la formulación de las respuestas políticas se debería tener en cuenta su posible impacto en la competencia en el mercado. Las plataformas en línea más grandes están mejor dotadas para enfrentarse a las normas sobre responsabilidad y transparencia más estrictas (por ejemplo, mediante la compra o el desarrollo de tecnologías de filtrado y el cumplimiento de plazos para la eliminación y la presentación de informes sobre el contenido) (Council of Europe, 2021[11]). A este respecto, podría ser útil variar el alcance y la carga de la transparencia obligatoria en función del tamaño de la plataforma, de modo que el cumplimiento no se convierta en una barrera a la entrada. Por ejemplo, la Ley de Servicios Digitales (DSA) impone requisitos adicionales a las plataformas en línea muy grandes (VLOP) y a los motores de búsqueda en línea muy grandes (VLOSE) relacionados con la identificación y auditoría del riesgo sistémico, la mejora de la transparencia en los informes de moderación de contenidos, la transparencia de la publicidad y el acceso a los datos sobre el contenido compartido en las plataformas (European Union, 2022[13]).
En última instancia, es importante definir los objetivos, valores y fines específicos que se pretenden alcanzar con el aumento de los requisitos de transparencia, ya que existen varias disyuntivas y consideraciones que los gobiernos deben tener en cuenta. La normativa en este ámbito debería guiarse por el principio de proporcionalidad, puesto que el diseño y la aplicación de la normativa de forma proporcional es un enfoque esencial para mejorar la eficiencia, reforzar la eficacia y evitar cargas administrativas innecesarias (OECD, 2021[14]). Las respuestas políticas centradas en las plataformas deberían utilizarse como un mecanismo para que los gobiernos -y el público en general- puedan comprender y responder mejor a los comportamientos y modelos de negocio de los actores clave, cuya tecnología domina ese espacio, comprender y mitigar riesgos específicos y construir conocimientos sobre el entorno informativo de una manera más amplia.
Para ello, las políticas que fomentan la rendición de cuentas y la transparencia para las plataformas y servicios en línea pueden aplicarse a una amplia gama de temas, que incluyen:
el papel de la protección de la responsabilidad de los intermediarios en línea en el equilibrio de las funciones y responsabilidades de las plataformas;
la transparencia en torno a las políticas de moderación y de desarrollo de políticas, los procesos de evaluación y gestión de riesgos, y los algoritmos, para proporcionar una valiosa información comparativa sobre el funcionamiento de las plataformas en línea;
un mayor grado de transparencia del comportamiento de la plataforma en línea y de los datos de contenido para comprender mejor el espacio de la información.
Los regímenes de responsabilidad de los intermediarios en línea deben establecer claramente cuáles son las funciones y las responsabilidades de las plataformas
Una regulación clave en el espacio de la información trata la responsabilidad de los intermediarios en línea. Esta normativa establece la responsabilidad legal o la rendición de cuentas de los intermediarios, tales como los proveedores de servicios de internet o las plataformas de redes sociales por el contenido compartido o creado por sus usuarios. La creciente importancia de los intermediarios en línea en la difusión e intercambio de información ha incrementado la necesidad de definir su responsabilidad legal por los daños causados por contenidos compartidos o actividades realizadas por los usuarios de los servicios de los intermediarios (Shmon and Pederson, 2022[15]).
En términos generales, los regímenes de responsabilidad de los intermediarios en línea buscan un equilibrio entre, por un lado, la responsabilidad de estos intermediarios por los contenidos compartidos en sus plataformas y, por otro lado, la necesidad de apoyar la libertad de expresión, la innovación y la promoción de un entorno en línea que favorezca la participación democrática (Shmon and Pederson, 2022[16]). Los regímenes de responsabilidad de los intermediarios y el «puerto seguro» que ofrecen a la responsabilidad por el contenido generado por los usuarios, varían en cuanto a su alcance. Estas leyes generalmente tratan de sopesar tres objetivos: 1) permitir a las plataformas adoptar medidas de moderación de contenidos (de hecho, las plataformas suelen tener mayores obligaciones y menos protecciones legales para los contenidos que suponen las mayores amenazas o que son ilegales de cualquier otro modo); 2) proteger la libertad de expresión y la participación pública mediante la reducción de los incentivos de las plataformas para aplicar excesivamente o restringir innecesariamente la expresión legal de los usuarios; y 3) fomentar la innovación y el crecimiento económico, permitiendo un entorno propicio para que los nuevos actores del mercado desarrollen y construyan plataformas y protegiéndolos de estar expuestos a unos requisitos de moderación o a unos riesgos legales excesivamente exigentes (Keller, 2019[17]). En relación con el espacio de la información, las leyes sobre responsabilidad de los intermediarios son especialmente importantes, porque permiten a las plataformas adoptar decisiones de moderación de contenidos que no sean ilegales, al tiempo que se reducen los incentivos para imponer restricciones indebidas a la libertad de expresión.
La Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos de 1996 es un ejemplo de un enfoque basado en la inmunidad. Está comúnmente considerado que esta cláusula ha sido fundamental para fomentar la innovación y el crecimiento de internet y de las plataformas en línea (OECD, 2011[18]). La Sección 230 establece la inmunidad de responsabilidad para los proveedores y usuarios de un «servicio informático interactivo», que publica información proporcionada por los usuarios de las plataformas. Esta protección ha permitido a los servicios en línea desarrollar y mantener plataformas abiertas, que facilitan la libre expresión (OECD, 2011[18]). La Sección 230 también elimina la responsabilidad de las plataformas por sus decisiones relativas a la moderación, el filtrado y la amplificación de los contenidos generados por los usuarios, permitiéndoles así moderar y difundir los contenidos según lo consideren oportuno (véase Recuadro 2.2 para el lenguaje específico).
Recuadro 2.2. Lenguaje relevante de la Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos (1996)
(1) «Ningún proveedor o usuario de un servicio informático interactivo se considerará el editor o el vocero de la información proporcionada por otro proveedor de contenido de información.
(2) Ningún proveedor o usuario de un servicio informático interactivo será considerado responsable por las acciones que tome de manera voluntaria y de buena fe para restringir el acceso o la disponibilidad de material que el proveedor o usuario considere obsceno, indecente, lascivo, sucio, excesivamente violento, de carácter acosador u objetable en general, independientemente de que dicho material esté protegido o no por la Constitución».
(Según la ley, «el término “proveedor de contenido informativo” es cualquier persona o entidad responsable, total o parcialmente, de la creación o el desarrollo de la información facilitada a través de Internet o cualquier otro servicio informático interactivo»).
Sin embargo, la Sección 230 no se extiende a la inmunidad por violaciones de la legislación penal federal, la legislación sobre propiedad intelectual o la legislación sobre privacidad de las comunicaciones electrónicas.
Fuente: Para obtener más información, consulte la Ley de Decencia en las Comunicaciones, 47 U.S.C. § 230 (1996).
No obstante, el enfoque basado en la inmunidad también ha suscitado críticas en relación con la falta de rendición de cuentas de las plataformas en línea (o el «deber de cuidado») respecto al contenido que albergan. El objetivo de este enfoque, tal y como se observa, por ejemplo, en la Ley de Seguridad en Línea del Reino Unido de 2023, es que las plataformas en línea adopten medidas para evaluar los riesgos, así como para prevenir y mitigar los contenidos perjudiciales e ilegales razonablemente previsibles. Más allá de la inmunidad extendida, hay tres enfoques comunes y no mutuamente excluyentes para reducir la responsabilidad del intermediario. Por ejemplo, el enfoque basado en el conocimiento o «conocimiento real» responsabiliza a los sitios web y plataformas en línea exclusivamente por el contenido del que tengan conocimiento o bien del «conocimiento real». Ley japonesa de Limitación de Responsabilidad del Proveedor, promulgada en 2001, entra en esta categoría. Un segundo enfoque es el de «notificación y retirada», que exige a los servicios en línea que cumplan los requerimientos judiciales. El Marco Civil de Internet de Brasil, de 2014, por ejemplo, establece una exención general de responsabilidad para los contenidos generados por terceros, con excepciones para los derechos de autor, la divulgación no autorizada de imágenes privadas que contengan desnudos y/o actividades sexuales, y la obligación de cumplir las decisiones judiciales que ordenen la retirada de contenidos.5 Además, la Ley de Comunicaciones Digitales Dañinas de 2015 de Nueva Zelanda establece una exención de responsabilidad si los sitios web cumplen con los procesos de notificación de quejas.
La escala del contenido compartido en línea seguirá haciendo de las plataformas privadas unos actores poderosos a la hora de determinar lo que se ve y se comparte. De este modo, las plataformas privadas seguirán siendo, por necesidad, moderadoras de las conversaciones y los debates entre los ciudadanos (Douek, 2021[19]). Por lo tanto, las protecciones de la responsabilidad de los intermediarios deberían ser diseñadas de tal modo que fomenten un Internet libre y abierto, a la vez que se permite que las plataformas asuman la responsabilidad de abordar las preocupaciones legítimas en torno a contenidos falsos, engañosos y perjudiciales o ilegales.
Aumentar la transparencia y la comprensión del diseño y el funcionamiento de las plataformas en línea
En términos generales, los requisitos de divulgación permiten a los consumidores tomar decisiones sobre la aceptabilidad de los procesos empleados en la elaboración de productos o servicios (Baldwin, Cave and Lodge, 2011[5]). Por lo tanto, una vía para obligar a la transparencia consiste en centrarse en las políticas, el desarrollo de políticas, los procesos y los algoritmos que emplean las plataformas en línea. Exigir a las plataformas que divulguen información sobre las condiciones del servicio y las políticas de privacidad; la divulgación sobre el uso de datos de comportamiento y datos de usuarios compartidos con terceros; los procedimientos, directrices e instrumentos que rigen la moderación de contenidos y la toma de decisiones algorítmicas; y los procesos de tramitación de quejas pueden permitir a los usuarios comprender mejor las prácticas de tratamiento de datos y la aplicación de las normas. La divulgación puede desempeñar un papel útil en la salvaguardia de los derechos de los usuarios y en el fomento de la rendición de cuentas por parte de las plataformas, ya que el escrutinio público puede poner de relieve posibles sesgos o prácticas desleales. La aclaración de estos procesos también puede contribuir a reducir las preocupaciones de las empresas que se anuncian en plataformas en línea sobre los riesgos para su reputación asociados a la propagación de la desinformación, facilitando un incentivo basado en el mercado para crear espacios informativos en línea más saludables.
El objetivo de las políticas en este ámbito es «institucionalizar, incentivar y verificar» las normas y los sistemas que las plataformas y otros actores pertinentes ponen en marcha para supervisar los espacios informativos que controlan (Douek, 2021[19]). Estos requisitos de transparencia son partiespecialmente importantes, dada la rápida evolución de las prácticas y políticas de las plataformas, ya que permiten a los reguladores y al público verificar la efectividad de las normas y los sistemas de moderación de contenido implementadas por las plataformas. Dicha supervisión también puede ayudar a identificar los puntos ciegos existentes en los procesos de las empresas (Douek, 2021[19]).
Por ejemplo, las personas a menudo no son conscientes de cómo sus declaraciones, contenidos y comportamientos en internet se convierten en datos y de cómo los algoritmos utilizados por las plataformas en línea clasifican el contenido para su perfilado y el envío de publicidad dirigida. (OECD, 2022[20]). Las iniciativas por aumentar la transparencia de las políticas de privacidad de las plataformas en línea pueden proporcionar a los usuarios una información valiosa sobre cómo se utilizan sus datos personales.
Sin embargo, estas discusiones sobre la privacidad no pueden aislarse de los debates más generales sobre la privacidad que tienen lugar en las democracias. En concreto, las normativas sobre privacidad pueden limitar la recopilación descontrolada de información personal, lo que dificulta que actores maliciosos o de otro tipo manipulen o influyan en las personas mediante contenidos dirigidos. Al limitar el acceso a la información que permite la segmentación personalizada y los mensajes polarizadores, las leyes de privacidad de datos pueden ayudar potencialmente a evitar la difusión de mensajes no deseados (Campbell, 2019[21]). El Reglamento General de Protección de Datos (RGPD) de la Unión Europea, por ejemplo, establece una amplia gama de disposiciones jurídicas diseñadas para salvaguardar los datos personales y los derechos de privacidad de las personas, entre las que se encuentran la exigencia de que las organizaciones que recopilan, procesan o almacenan datos personales obtengan el consentimiento expreso para el tratamiento de los datos, proporcionen políticas de privacidad transparentes y garanticen unas medidas de seguridad adecuadas. Además, estas leyes otorgan a las personas un mayor control sobre sus datos, incluido el derecho a acceder a su información, corregirla o eliminarla, así como el derecho a saber cómo se están utilizando sus datos (European Council, 2022[22]). Al proteger los datos personales de las personas y hacer cumplir las prácticas de tratamiento de datos, las leyes de privacidad pueden crear un entorno en línea más transparente y responsable.
Los requisitos de transparencia también pueden aumentar el intercambio de información sobre la arquitectura y los algoritmos de la plataforma. Existe una comprensión pública limitada de cómo se desarrollan y despliegan los algoritmos que impulsan la selección de información, la amplificación y el compromiso en las plataformas. Estos algoritmos, a su vez, han sido criticados por contribuir a la radicalización de los usuarios y por promover y amplificar contenidos perjudiciales. Para abordar estas preocupaciones, los requisitos de transparencia pueden permitir una mayor comprensión de los tipos de algoritmos utilizados por las plataformas en línea y proporcionar información sobre sus impactos y consecuencias (Lai, Shiffman and Wanless, 2023[4]).
La legislación podría permitir a los investigadores y reguladores (como lo hace la DSA en el mercado de la UE) adquirir una mayor comprensión de los algoritmos utilizados en la moderación de contenidos, en la priorización, la publicidad y la recomendación, y sobre cómo estos algoritmos influyen en la difusión de contenidos en las plataformas. Esta información haría posible una evaluación externa e independiente para informar mejor a los responsables políticos y al público sobre los riesgos para la integridad de la información y ayudar a orientar las políticas para mitigarlos (MacCarthy, 2021[23]).
Facilitar la estandarización de la información proporcionada sobre cómo los servicios en línea formulan, comunican y aplican sus reglas podría fomentar la creación de unas mejores prácticas para el desarrollo de políticas públicas y proporcionar métodos para medir el impacto de dichas intervenciones (Lai, Shiffman and Wanless, 2023[4]). La Ley de Servicios Digitales (DSA) incluye requisitos para la publicación de informes de transparencia y más información sobre la moderación de contenidos y los términos de servicio. El proyecto de Ley de Enmienda de la Legislación de Comunicaciones del Gobierno australiano (Lucha contra la Información Errónea y la Desinformación) propone nuevas facultades para el regulador independiente, la Autoridad Australiana de Comunicaciones y Medios (ACMA), que tienen como objetivo abordar la desinformación dañina en línea, al tiempo que defienden el derecho a la libertad de expresión, fundamental para la democracia. Los poderes propuestos son coherentes con las recomendaciones clave del Informe de junio de 2021 de la ACMA al gobierno sobre la idoneidad de las medidas de desinformación y calidad de las noticias de las plataformas digitales. Uno de los elementos clave propuestos en el informe se centra en permitir a la ACMA la recopilación de información de los proveedores de plataformas digitales sobre sus sistemas y procesos para combatir la desinformación dañina en línea (véase Recuadro 2.3).
Recuadro 2.3. Resumen de la Ley australiana de Enmienda de la Legislación de Comunicaciones (Lucha contra la Información Errónea y la Desinformación)
El 20 de enero de 2023, el gobierno australiano anunció su intención de introducir una nueva legislación, que otorga a la Autoridad Australiana de Medios y Comunicaciones (ACMA) nuevas facultades para combatir la desinformación dañina en línea.
El 25 de junio de 2023, el gobierno australiano publicó un proyecto de la Ley de Enmienda de la Legislación de Comunicaciones (Lucha contra la Información Errónea y la Desinformación) para consulta pública, que finalizó el 20 de agosto de 2023. El proyecto de ley se centra en mejorar la transparencia de las plataformas digitales sobre cómo manejan la desinformación en sus servicios. El proyecto de ley se basa en el Código de Prácticas Australiano voluntario existente sobre Información Errónea y Desinformación, que las principales plataformas digitales ya han firmado.
Los objetivos principales del proyecto de ley son proporcionar nuevas funciones a la ACMA para fomentar, y si es necesario exigir, que las plataformas en línea adopten medidas para contrarrestar la amenaza que plantea la difusión de desinformación. El proyecto de ley propone nuevas facultades para la ACMA, incluido el mantenimiento de registros, la recopilación de información y la reserva de facultades para la creación de códigos y estándares. Estas facultades permiten a la ACMA:
recopilar información de los proveedores de plataformas digitales o exigirles que mantengan ciertos registros sobre asuntos relacionados con información errónea y desinformación;
solicitar a la industria y ayudarle a desarrollar un código de prácticas que prevea las medidas para combatir la información errónea y la desinformación en las plataformas digitales, que la ACMA podría registrar y hacer cumplir;
crear y aplicar un estándar de la industria (una forma más estricta de regulación), en caso de que un código de prácticas se considere ineficaz para combatir la información errónea y la desinformación en las plataformas digitales.
El proyecto de ley también incluye una serie de salvaguardias para proteger la libertad de expresión y el debate público. Además, el marco estaría abierto a revisiones periódicas del sistema y a la supervisión parlamentaria.
Fuente: Comisión Australiana de Competencia y del Consumidor (2019[24]), Digital Platforms Inquiry Final Report, https://www.accc.gov.au/system/files/Digital%20platforms%20inquiry%20-%20final%20report.pdf; Gobierno Australiano (2023[25]), Communications Legislation Amendment (Combatting Misinformation and Disinformation) Bill 2023—guidance note, https://www.infrastructure.gov.au/department/media/publications/communications-legislation-amendment-combatting-misinformation-and-disinformation-bill-2023-guidance.
Aumentar la transparencia de los flujos de información y del contenido en las plataformas en línea
Más allá de la transparencia de los procesos y las políticas, los países han utilizado políticas relativas al intercambio de metadatos con investigadores externos para construir una comprensión general de los flujos de desinformación y cómo las plataformas moderan o eliminan (o no) determinados tipos de contenido. Los requisitos de transparencia de datos para las plataformas en línea pueden proporcionar información y contexto valiosos sobre las interacciones y comportamientos de los usuarios, los flujos de información dentro y entre plataformas, y los patrones de interacción. Todo esto puede facilitar el desarrollo de una sólida base de pruebas para la medición en el futuro.
Aumentar el acceso a los datos de comportamiento y de contenido para construir una comprensión social del espacio de la información en línea
Una mayor claridad y coherencia en la información proporcionada podría ayudar a comprender mejor qué datos son más útiles a la hora de diseñar y medir el impacto de las intervenciones. Estas iniciativas para una mayor transparencia también pueden seguir identificando específicamente cómo se pueden proporcionar y analizar estos datos de manera que se respeten las preocupaciones sobre la privacidad y la competencia, y se defina claramente qué actores tienen acceso a los datos (Lai, Shiffman and Wanless, 2023[4]). Dada la importancia de las plataformas en línea en el espacio de la información, facilitar una mayor transparencia sobre cómo se difunde el contenido en ellas sea probablemente un componente necesario para comprender mejor dicho espacio. Finalmente, aumentar la visibilidad de las acciones de las plataformas en línea y la forma en que fluye el contenido podría incentivarlas para que aclaren y mejoren las políticas y las acciones de moderación de contenido (MacCarthy, 2021[23]).
Una categoría de datos relevantes incluye información a nivel de usuario para proporcionar información general sobre quiénes son los usuarios de las plataformas y cómo interactúan en la plataforma. Los informes pueden incluir información añadida sobre los tipos de usuarios (utilizando grupos de edad, género y datos de localización). También puede incluir tipos de contenido de publicaciones públicas, comentarios y compromiso. Dichos datos públicos (sin incluir publicaciones o mensajes privados), que no incluyen información de identificación personal, podrían proporcionar una base útil para identificar los grupos más activos y los tipos de comportamiento en línea más comunes, ayudando así a identificar patrones y cambios a lo largo del tiempo (Lai, Shiffman and Wanless, 2023[4]).
Permitir a los investigadores independientes verificar y confirmar la divulgación pública de las plataformas podría ser un modelo útil para responsabilizar a los servicios. También serán mecanismos de control importantes para evitar abusos exigir que se adopten medidas para garantizar que la investigación se realice con fines legítimos y que los investigadores apliquen medidas de privacidad y de seguridad a los conjuntos de datos utilizados serán mecanismos de control importantes (Goldman, 2022[26]) (Forum on Information and Democracy, 2020[27]). Los requisitos de transparencia no necesariamente significan que la información se haga pública. De hecho, el nivel de detalle requerido puede y probablemente deba ser diferente para distintos públicos, ya que existe el riesgo de que se haga un mal uso de contenidos potencialmente sensibles, si se ponen a disposición del público (Lai, Shiffman and Wanless, 2023[4]).
Por ejemplo, el artículo 40 de la Ley de Servicios Digitales (DSA) otorga a los reguladores digitales de cada Estado miembro de la UE la capacidad de obligar a las plataformas a compartir datos con investigadores en el marco de procesos claramente definidos (véase Recuadro 2.4).6 Si bien sigue habiendo dudas sobre el cumplimiento como, por ejemplo, si los programas de acceso para investigadores pueden extenderse a otros países y cómo se deben tratar los datos de residentes fuera de Europa, la DSA pone en práctica muchos de los objetivos de esta categoría de regulación de la transparencia (Lenhart, 2023[28]).
Recuadro 2.4. Artículo 40 de la DSA – Acceso a datos y escrutinio
El artículo 40 de la DSA está diseñado para promover la transparencia de los datos en poder de las plataformas en línea y para facilitar la investigación de interés público, que permita comprender mejor cómo funcionan las plataformas en línea. En concreto, este artículo establece el proceso mediante el cual «investigadores autorizados» pueden solicitar datos públicos específicos accesibles en las interfaces en línea para «realizar investigaciones, que contribuyan a la detección, identificación y comprensión de los riesgos sistémicos». La DSA también dispone que las plataformas en línea muy grandes y los motores de búsqueda en línea muy grandes estarán obligados a responder a las solicitudes de acceso a los datos y a proporcionarlos a los investigadores, a menos que el hecho de facilitar el acceso a dichos datos «suponga vulnerabilidades significativas para la seguridad de su servicio o para la protección de información confidencial, en particular, de secretos comerciales».
La DSA también regula los «investigadores autorizados», a quienes se les otorga la capacidad de poder solicitar datos específicos. Los coordinadores de servicios digitales, que coordinarán y supervisarán la aplicación de la DSA, otorgarán esta condición a los investigadores que:
demuestren que están afiliados a un organismo de investigación reconocido;
demuestren que son independientes desde el punto de vista de los intereses comerciales;
revelen en la solicitud cómo se financia la investigación;
demuestren que estén en condiciones de satisfacer los requisitos específicos en materia de seguridad y confidencialidad de los datos correspondientes a cada solicitud y de proteger los datos personales, y que describan en su solicitud las medidas técnicas y organizativas apropiadas que hayan adoptado a tal fin;
demuestren que sus solicitudes son proporcionales a los fines de su investigación y que los resultados esperados de esa investigación contribuirán al interés público;
se comprometan a hacer públicos los resultados de su investigación de forma gratuita, en un plazo razonable tras la finalización de la investigación.
Fuente: Unión Europea (2022[13]), Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Ley de servicios digitales), https://eur-lex.europa.eu/legal-content/EN/TXT/?ur.
Los requisitos de presentación de informes también podrían incluir una mayor transparencia en torno a las solicitudes de acceso a datos por parte de terceros, como investigadores y empresas de corretaje de datos. En la actualidad, hay una comprensión limitada sobre quién tiene acceso a los datos de los usuarios y cómo se utilizan esos datos. Por lo tanto, los gobiernos podrían exigir a las plataformas que informen adicionalmente sobre el intercambio de datos con terceros, incluyendo a quién venden datos las plataformas, a quién compran datos (como corredores de datos) e información sobre las relaciones que las plataformas mantienen con otros actores que manejan, compran, solicitan o tienen acceso a los datos de los usuarios (Lai, Shiffman and Wanless, 2023[4]). Sacar a la luz estas relaciones podría ser un mecanismo útil para rastrear los flujos de datos y comprender mejor quién tiene acceso a qué tipo de información. Para ello, las leyes de privacidad pueden ser útiles para aclarar qué datos personales se consideran públicos, al mismo tiempo que se aclara el uso aceptable de los datos para la investigación (Lenhart, 2023[28]).
Los investigadores también se beneficiarían de una mayor armonización y facilitación del acceso a los datos. La eliminación de las barreras de acceso podría reducir los costes y la posibilidad de realizar análisis más informativos que abarquen múltiples redes sociales y países. Facilitar la investigación transfronteriza, por ejemplo, aclarando áreas de potencial conflicto legal y explorando compromisos sobre el intercambio de datos o puertos seguros, que permitan el acceso transfronterizo a los datos para investigadores, será especialmente útil para desarrollar una comprensión transfronteriza del espacio de la información (Lenhart, 2023[28]). Esto requeriría defender los derechos de privacidad, asegurar la información corporativa de propiedad exclusiva y evitar la captura por parte de los intereses comerciales y gubernamentales, aunque el objetivo de la colaboración de datos podría facilitar un enfoque más armonizado para desarrollar la resiliencia y mejorar la integridad de la información (Scott, 2023[29]).
Aumentar la transparencia de los anuncios políticos en las plataformas en línea
Las políticas también pueden tratar de aumentar la transparencia en torno a los anuncios políticos en las plataformas. Los anuncios políticos son aquellos realizados por o en nombre de un candidato o partido, que transmiten un mensaje relacionado con un asunto político de importancia nacional o local, o que pueden influir en el resultado de una elección.7 Los datos podrían incluir un aumento de la información sobre la procedencia del contenido (por ejemplo, mientras que las campañas y organizaciones políticas pueden estar obligadas a informar cómo gastan el dinero en publicidad, es posible que las agencias de publicidad y las consultorías sean quienes gasten el dinero en su nombre, lo que algunas investigaciones sugieren que podría constituir la gran mayoría del gasto); el aumento del detalle proporcionado y la normalización de la presentación de informes; y el almacenamiento y acceso a la investigación para reducir la variación en los datos y el acceso que ofrecen las bibliotecas de anuncios de las plataformas existentes (Brennen and Perault, 2021[30]). También se podría obtener más información sobre las acciones de los anunciantes políticos en las plataformas a partir de los requisitos de presentación de informes sobre la actividad publicitaria de un usuario. Los informes podrían incluir detalles sobre el público destinatario y sobre el contenido de los anuncios. Estos datos podrían aumentar la comprensión en torno a los objetivos de influencia de los anunciantes, por lo menos, en relación con grupos amplios de usuarios (Lai, Shiffman and Wanless, 2023[4]).
Se han realizado varios esfuerzos en esta dirección, incluida la decisión de 2019 del Comité Electoral Central de Israel, que prohibió los anuncios electorales anónimos en todas las plataformas, incluidas las redes sociales, tanto dentro de Israel como en el extranjero. En efecto, el fallo aplicaba las restricciones de la Ley Electoral (Métodos de Propaganda) de 1959, que se ocupa principalmente de la publicidad en vallas publicitarias, radio, televisión, estaciones de radio regionales y encuestas electorales publicadas, a la publicidad en Internet (The Times of Israel, 2019[31]). Más recientemente, en Europa, la Ley de Servicios Digitales (DSA) exige que las plataformas proporcionen «la información necesaria para que los usuarios comprendan cuándo y en nombre de quién se presenta el anuncio».
Otro componente de la política de publicidad política podría considerar la exigencia de crear y mantener bases de datos de publicidad política estandarizadas, de acceso público y con capacidad de búsqueda (Brennen and Perault, 2021[30]). Además del contenido de los anuncios, se podría incluir la fuente del anuncio y su financiación, así como los datos de orientación y el perfil utilizado. Un repositorio público de este tipo sería valioso para que investigadores, defensores y reguladores comprendieran mejor el flujo de información en torno a las elecciones y los debates políticos, además de ayudar a fundamentar futuras acciones reguladoras, según corresponda (MacCarthy, 2021[23]). En este sentido, la DSA requerirá que las plataformas en línea muy grandes y a los motores de búsqueda en línea muy grandes que «garanticen el acceso público a los repositorios de anuncios presentados en sus interfaces en línea para facilitar la supervisión y la investigación sobre los riesgos emergentes provocados por la distribución de publicidad en línea [...]. Los repositorios deberán incluir el contenido de los anuncios [...] y los datos relacionados sobre el anunciante y, si son diferentes, la persona física o jurídica que pagó el anuncio, así como la difusión del anuncio, en particular, en lo que respecta a la publicidad dirigida (European Union, 2022[13])».
2.3. Promover un mercado pluralista, independiente y competitivo de los medios de comunicación e información
Un sector de medios diverso e independiente, y un ecosistema informativo, que apoye el periodismo y facilite la creación de noticias de alta calidad, desempeñan un papel esencial para posibilitar sociedades abiertas y democráticas, al proporcionar información fiable, trasladar las cuestiones a la agenda pública, facilitar el debate, actuar como guardianes del interés público y exigir responsabilidades a los actores públicos (OECD, 2014[32]). La reducción del acceso a proveedores de información precisa y verificable, y la menor confianza en ellos, impide a los ciudadanos acceder a hechos compartidos, inhibe la toma de decisiones informada y el debate democrático, y abre la puerta a una mayor amplificación de la difusión de la desinformación y la información errónea.
El Índice Mundial de Libertad de Prensa de 2023 -que evalúa el entorno del periodismo en 180 países y territorios- revela que la proporción de países de la OCDE en los que el entorno es «bueno» para el periodismo se ha reducido a más de la mitad en ocho años. Mientras que el 49 % de los países de la OCDE fueron clasificados como «buenos» en el Índice Mundial de Libertad de Prensa 2015, esta cifra cayó al 21 % en 2023. A nivel mundial, la participación cayó del 21 % al 4 %, lo que enfatiza la fortaleza relativa de los miembros de la OCDE (RSF, 2023[33]). Los datos sobre la confianza también ponen de relieve las dinámicas desafiantes a las que se enfrentan los medios de comunicación tradicionales. Cabe destacar que solo cuatro de cada diez (38,8 %) encuestados en la Encuesta de la OCDE de 2021 sobre los factores que impulsan la confianza en las instituciones públicas declararon confiar en los medios de comunicación, (OECD, 2022[34])y otras investigaciones revelaron que la confianza en las noticias siguió disminuyendo a nivel mundial entre 2022 y 2023 (Newman et al., 2023[2]).
Esta dinámica se produce en un contexto de amenazas constantes a la seguridad de los periodistas. Las estimaciones del número de periodistas asesinados en todo el mundo entre 2010 y 2020 oscilan entre 937 (RSF, 2020[35]) y 956 (UNESCO, 2021[36]). Más allá de constituir actos ilegales, daños físicos y violaciones de los derechos humanos, los ataques contra los periodistas limitan la libertad de expresión y privan a otros de su derecho a recibir información, lo que dificulta la libertad de expresión, limita el espacio cívico y reduce la capacidad de un debate público informado (OECD, 2022[20]). Además de garantizar la libertad de expresión, los gobiernos deben proteger a los periodistas, los trabajadores de los medios de comunicación y los investigadores, y supervisar, investigar y facilitar el acceso a la justicia en el caso de amenazas y de ataques contra ellos. Este es precisamente el objetivo de la Recomendación del Consejo de Europa de 2016 sobre la protección del periodismo y la seguridad de los periodistas y otros actores de los medios de comunicación (Council of Europe, 2016[37]). En una línea similar, la Plataforma de Seguridad de los Periodistas del Consejo de Europa8 y el Monitor de Respuesta Rápida de la Libertad de los Medios de Comunicación (MFRR) de la UE9 informan sobre las graves amenazas a la seguridad de los periodistas y la libertad de prensa, mientras que la campaña «Journalists Matter» del Consejo de Europa trata de promover la libertad de prensa y proteger a los periodistas de la violencia, las amenazas y el acoso en el ejercicio de sus funciones.10
Los medios tradicionales también se han enfrentado a problemas financieros debido a la disminución de los ingresos por publicidad, ya que el mercado publicitario se ha desplazado hacia el entorno digital, especialmente a las plataformas en línea. En Estados Unidos, por ejemplo, los editores de periódicos ganaron en 2020 menos de la mitad de lo que ganaron en 2002 (United States Department of Justice, 2022[38]). La Comisión Australiana de Competencia y del Consumidor (ACCC) constató que el número de periodistas en las empresas de medios de comunicación impresos tradicionales había reducido en un 20 % de 2014 a 2018 (Australian Competition and Consumer Commission, 2019[24]). Los medios de comunicación regionales más pequeños suelen ser los más afectados. En el Reino Unido, el mercado de la publicidad en periódicos regionales valía 2500 millones de libras esterlinas en la década de 1990 mientras que, a finales de 2022, estaba valorado en 241 millones de libras esterlinas (Sweney, 2023[39]). El aumento de las suscripciones digitales solo compensa una pequeña parte de los ingresos anteriores.
El declive de los pequeños medios de comunicación regionales deja a menudo a regiones enteras sin medios de comunicación locales de calidad. Estados Unidos ha perdido casi 2900 periódicos desde 2005 (quedando ahora tan solo 6000 periódicos en el país), muchos de los cuales eran el único proveedor de noticias locales en comunidades pequeñas y medianas. Además, el país ha perdido casi dos tercios de sus periodistas (43 000) en ese mismo período (Medill Local News Initiative, 2023[40]). El gobierno australiano constató que se había producido una reducción significativa del número de artículos publicados sobre temas de gobiernos locales y tribunales locales en los 15 años anteriores a 2019, lo cual es preocupante dada la importante función que desempeña esa cobertura para sacar a la luz la corrupción y exigir responsabilidades a los gobiernos, las empresas y las personas (Australian Competition and Consumer Commission, 2019[24]). Los «desiertos mediáticos» creados por la escasez de medios de comunicación locales pueden generar vacíos en el entorno de la información, que a menudo se llenan con noticias de plataformas en línea y de redes sociales, aumentando aún más las oportunidades de que se propague la desinformación y la información errónea. La evidencia de Alemania también demuestra que el declive de los medios de comunicación locales tiene un impacto negativo en la polarización política (Ellger et al., 2021[41]).
Además de centrarse en el papel de las plataformas en línea en el espacio de la información, la estructura de los mercados de medios de comunicación tradicionales sigue siendo una cuestión esencial de política pública para ayudar a garantizar que el público disponga de la información necesaria para una participación democrática efectiva. El control de los medios de comunicación, la concentración del mercado y las amenazas a los medios de comunicación locales y comunitarios pueden obstaculizar el debate público generalizado y promover visiones unilaterales, que pueden socavar la integridad de la información (OECD, 2022[20]). Por lo tanto, las políticas gubernamentales pueden desempeñar un papel constructivo en el apoyo al discurso democrático a través de la promoción de la libertad, la diversidad y la independencia de los medios de comunicación. Si bien estas intervenciones no están dirigidas específicamente a la lucha contra la desinformación, sí ponen de manifiesto cómo los gobiernos pueden dar prioridad a la transformación de los mercados de medios para ayudarles a servir como una fuente necesaria de información dentro de las democracias.
Los desafíos a los que se enfrentan los medios de comunicación en todas las democracias son una preocupación especial, dado el papel que desempeña el sector en el apoyo a una ciudadanía informada, una democracia que funcione bien, un buen gobierno y una menor corrupción. Con ese fin, las respuestas gubernamentales diseñadas para fortalecer el sector de los medios tradicionales incluyen:
Proteger y mejorar la seguridad de los periodistas;
Mejorar la transparencia y la independencia política de los medios tradicionales; y
Prevenir el control de los medios de comunicación y fomentar un entorno mediático pluralista e independiente.
2.3.1. La integridad de la información requiere un enfoque en la seguridad de los periodistas, la transparencia y la prevención de la captura de los medios de comunicación
Garantizar la libertad de opinión y de expresión exige un acceso sin censura y sin obstáculos a la prensa y otros medios de comunicación. Para ello, también es esencial establecer mecanismos para proteger a los periodistas e investigar, supervisar y facilitar sistemáticamente el acceso a la justicia en caso de amenazas y ataques, con el fin de garantizar que los periodistas tengan la libertad de participar plenamente en el proceso democrático (OECD, 2022[20]). Por ejemplo, el Código Penal luxemburgués modificado (Ley de 7 de agosto de 2023 por la que se modifica el Código Penal) incluye nuevas sanciones para los ataques a periodistas durante las manifestaciones. Además, las personas que amenacen a individuos pueden ser condenadas a penas de prisión, con un factor agravante si el objetivo es un periodista. El código también especifica que la divulgación de información privada y profesional («doxxing») puede dar lugar a responsabilidad penal para el perpetrador, con un factor agravante si el objetivo es un periodista (Grand Duchy of Luxembourg, 2023[42]).
Más allá del enfoque específico en los periodistas, una vía relacionada para ayudar a prevenir la interferencia es mitigar el control de los medios y promover la independencia editorial. El control de los medios se refiere a situaciones, en las que personas o grupos ejercen un control significativo sobre las organizaciones de medios de comunicación de una manera que influye en el contenido y la cobertura. En estos contextos, la capacidad de los medios de comunicación para desempeñar su papel democrático como guardián del interés público se ve comprometida (Nelson, 2017[43]). El riesgo de captura de un medio de comunicación por intereses políticos o privados aumenta a medida que el sector se concentra (Government of France, 2022[44]), ya que la propiedad de los medios de comunicación se consolida en manos de unas pocas entidades o individuos. Estos propietarios, a su vez, pueden promover visiones unilaterales, que pueden conducir a la polarización y obstaculizar el debate democrático equilibrado y diverso (OECD, 2022[20]).
Las políticas pueden desempeñar un papel primordial en el mantenimiento de un mercado diverso y pluralista para los medios tradicionales, al limitar la concentración del mercado en el sector. Por ejemplo, las políticas pueden adoptar la forma de control de la propiedad cruzada de medios (es decir, controles sobre la propiedad conjunta de canales de difusión en la misma región geográfica). De hecho, las leyes diseñadas para prevenir la concentración de forma proactiva suelen ser el pilar principal de los esfuerzos de un Estado para garantizar la pluralidad de los medios y evitar la concentración de opiniones en el sector de los medios de comunicación (European Audiovisual Observatory, 2016[45]) (Nelson, 2017[43]). Cabe destacar que el Monitor del Pluralismo de los Medios de Comunicación de la UE11 es una herramienta que mide el estado del pluralismo de los medios de comunicación en 34 países y hace recomendaciones para la acción política.
Promover la diversidad de la propiedad de los medios de comunicación a través de normas antimonopolio y de competencia leal implica una serie de consideraciones. Un informe del gobierno francés recomendó evaluar el impacto de las transacciones en el pluralismo caso por caso, utilizando un análisis basado en indicadores cualitativos (promoción de la diversidad de contenidos, independencia de la información) e indicadores cuantitativos (audiencia, cobertura, viabilidad económica de los operadores) (Government of France, 2022[44]). Este enfoque es similar al adoptado en el Reino Unido. La Ley de Comunicaciones de 2003 describe consideraciones de interés público para las fusiones de radiodifusión y medios cruzados, entre ellas, que haya una «pluralidad suficiente de personas con control de las empresas de medios»; que exista una amplia gama de programas de radiodifusión disponibles que sean de alta calidad y que estén calculados para atraer a una amplia variedad de gustos e intereses; y que los medios tengan un compromiso genuino con los estándares de precisión e imparcialidad establecidos en otros lugares del estatuto (Government of the UK, 2003[46]). Noruega introdujo la obligación de que las empresas y propietarios de medios de comunicación proporcionen información sobre los intereses de propiedad a la Autoridad Noruega de Medios de Comunicación, con el fin de crear una mayor transparencia, conciencia y conocimiento de los intereses de propiedad en los medios de comunicación noruegos (Government of Norway, 2016[47]).
En segundo lugar, las políticas que refuerzan la transparencia en los mercados de medios de comunicación de los países pueden desempeñar un papel importante para garantizar la independencia de los medios de comunicación de los intereses políticos y comerciales y la libertad de la influencia política extranjera o nacional. La propiedad opaca dificulta la identificación del sesgo subyacente, lo que podría socavar aún más la confianza en los medios de comunicación. Por lo tanto, la transparencia es una respuesta política necesaria, pero no suficiente, para reforzar la pluralidad de los medios y aumentar la confianza en el sector de los medios de comunicación (Craufurd Smith, Klimkiewicz and Ostling, 2021[48]).
Cabe destacar que el Tribunal Europeo de Derechos Humanos ha reconocido una obligación positiva de los Estados parte del Convenio Europeo de Derechos Humanos de «establecer un marco legislativo y administrativo adecuado para garantizar un pluralismo [de los medios de comunicación] efectivo» y que dicho pluralismo no puede ser plenamente efectivo sin una información clara. Para ello, reconoció el valor de la transparencia y la independencia de los medios de comunicación para la democracia, en concreto, en lo que respecta al interés de las personas por tener acceso a la información «sobre todos los asuntos de interés público» y la capacidad de los medios de comunicación para desempeñar su «función vital de guardianes del interés público (European Court of Human Rights, 2001[49])». Además, la Recomendación de 2018 del Consejo de Europa sobre el pluralismo de los medios de comunicación y la transparencia de la propiedad de los medios de comunicación señala que la libertad y el pluralismo de los medios de comunicación son «componentes fundamentales del derecho a la libertad de expresión [...] y [...] desempeñan un papel esencial en el funcionamiento de las sociedades democráticas al garantizar la disponibilidad y la accesibilidad de información y puntos de vista diversos, sobre cuya base, las personas pueden formarse y expresar sus opiniones e intercambiar información e ideas» (Council of Europe, 2018[50]).
Los requisitos incluyen la transparencia en torno a la propiedad de los medios de comunicación, por ejemplo, exigiendo la divulgación completa de los propietarios, el tamaño de las participaciones accionarias y sus otros intereses económicos y políticos. La propiedad debe referirse al «beneficiario final» o a la «persona o personas físicas, que en última instancia poseen y/o ejercen el control efectivo final (FATF, 2023[51])». La información facilitada también debe «identificar a la persona o personas físicas, que sean los beneficiarios reales y los medios y mecanismos a través de la propiedad, el control u otros medios (FATF, 2023[51])». Dicha información puede proporcionar a los responsables políticos, los reguladores y el público los datos pertinentes necesarios para desarrollar, supervisar y aplicar los límites de propiedad y evitar la captura (Craufurd Smith, Klimkiewicz and Ostling, 2021[48]). En este ámbito se puede hacer más. En Europa, por ejemplo, si bien la mayoría de los países (24 de 31)12 exigen la divulgación de la información sobre la propiedad a los organismos públicos, una minoría (14 de 31) exige su divulgación al público (Craufurd Smith, Klimkiewicz and Ostling, 2021[48]). Además de la titularidad real, la información también debería abarcar detalles de las relaciones financieras y de otro tipo, que pudieran dar lugar a influencia editorial y conflictos de intereses, como la propiedad en otras industrias con importantes intereses gubernamentales, el ejercicio de cargos políticos y la garantía de que los presupuestos de publicidad gubernamental se asignen de forma abierta y competitiva, e independiente de la influencia política (Nelson, 2017[43]).
En tercer lugar, los gobiernos también pueden adoptar posiciones claras sobre la aplicación de la independencia editorial. Por ejemplo, la Ley de Responsabilidad de los Medios de Comunicación de Noruega pretende «facilitar un debate público abierto e informado garantizando la independencia editorial» al exigir que los editores sean nombrados por un editor independiente. En concreto, esto significa que el propietario o la dirección de la empresa «no pueden dar instrucciones ni anular al editor en cuestiones editoriales, ni pueden exigir el acceso al... material, antes de que se ponga a disposición del público».13
Por su parte, la propuesta de Ley de Libertad de los Medios de Comunicación Europea pretende proteger la independencia de los medios de comunicación, reforzando las salvaguardias contra la injerencia política en las decisiones editoriales, así como promoviendo la transparencia de la propiedad de los medios de comunicación y de la asignación de la publicidad estatal. Asimismo, pretende defender el pluralismo de los medios de comunicación fomentando la financiación estable de los medios de servicio público y exigiendo a los Estados miembros que evalúen el impacto de las concentraciones del mercado de los medios de comunicación en el pluralismo y la independencia editorial de los medios de comunicación, y que creen un nuevo Consejo Europeo independiente de Servicios de Medios de Comunicación, compuesto por las autoridades nacionales de medios de comunicación. Es importante destacar que también incluye salvaguardas contra la eliminación injustificada de contenido multimedia producido con arreglo a estándares profesionales. Este «privilegio de los medios de comunicación» considera la pertenencia a los consejos de prensa como uno de los criterios para identificar medios de comunicación fiables y trata en general de promover el papel de los medios de comunicación y del periodismo en el debate democrático (European Commission, 2022[52]).
2.3.2. Los gobiernos pueden desempeñar un papel importante en el apoyo a un entorno de los medios de comunicación diverso e independiente
El periodismo de calidad es importante para la democracia y los Estados deberían implementar políticas eficaces para apoyarlo (Council of Europe, 2023[53]). El periodismo de calidad y, en particular, el periodismo de investigación de calidad, requiere importantes recursos financieros. Los gobiernos pueden desempeñar un papel importante en el apoyo a la supervivencia y la transformación del sector de los medios de comunicación, proporcionando diversos medios de apoyo financiero, con las garantías debidas con respecto a la influencia del gobierno en el contenido.14 A nivel nacional, la financiación puede adoptar la forma de apoyo a las radiodifusoras de servicio público independientes; subvenciones directas y fondos competitivos o selectivos para medios de comunicación privados o sin ánimo de lucro; y medidas indirectas como las subvenciones fiscales. Los gobiernos también pueden proporcionar Ayuda Oficial al Desarrollo (AOD) como parte de sus esfuerzos para apoyar y desarrollar un periodismo diverso e independiente en los países receptores de dicha ayuda (Forum on Information and Democracy, 2021[54]).
Mecanismos de apoyo a nivel nacional
Los organismos de radiodifusión públicos independientes, financiados total o parcialmente con fondos públicos pero editorialmente independientes, pueden desempeñar un papel fundamental en el fortalecimiento de la integridad de la información,15 ya que son considerados como fuentes importantes de noticias en la mayoría de los países de la OCDE. Muchas emisoras públicas también tienen una función de verificación de datos, que les permite desempeñar un papel directo en la lucha contra la desinformación. Algunos ejemplos son «Vrai ou Faux» de Franceinfo, iniciativa conjunta de dos emisoras francesas, Radio France y France Télévision, así como las secciones de verificación de datos de Deutsche Welle y de las emisoras públicas lituanas y estonias. La Australian Broadcasting Corporation (ABC) también colabora con el Royal Melbourne Institute of Technology (RMIT) en el «RMIT ABC Fact Check» para determinar la veracidad de las afirmaciones de políticos, figuras públicas, grupos de presión e instituciones que participan en el debate público.
El apoyo financiero directo e indirecto de los gobiernos también puede destinarse a aquellos medios de comunicación privados, que cumplan criterios específicos de audiencia u otros criterios, a menudo en forma de regímenes fiscales especiales y de descuentos en las tarifas de envío. El apoyo directo del gobierno y las medidas indirectas, como los incentivos fiscales, siguen siendo herramientas importantes para apoyar a los medios de comunicación, siempre que sean transparentes, objetivos y predecibles (Council of Europe, 2023[53]). Estas políticas tienen un referente histórico: en los Estados Unidos, la Ley del Servicio Postal de 1792 proporcionó subsidios postales como una forma indirecta de utilizar fondos públicos para apoyar la economía de los periódicos locales (Medill Local News Initiative, 2023[40]). En Europa, este tipo de subvenciones indirectas son la forma más común de subvención estatal y 19 de los 24 países estudiados en un reciente estudio han establecido normas transparentes para asignar subvenciones indirectas. En general, se considera que estas subvenciones son menos arriesgadas que las intervenciones más directas, dado que las subvenciones indirectas son más difíciles de distribuir de una forma selectiva (Bleyer-Simon and Nenadić, 2021[55]). Por ejemplo, en Noruega, las organizaciones de medios de comunicación están exentos del IVA (25 %), sin incluir determinados servicios de noticias electrónicas. La investigación ha constatado que, en los países de renta alta, las subvenciones indirectas, como las exenciones del IVA para la prensa privada y los periódicos, igualan e incluso superan a veces a las subvenciones directas a los medios de servicio público (Forum on Information and Democracy, 2021[54]).
Los gobiernos también pueden proporcionar apoyo financiero directo, incluso para medios de comunicación de carácter cultural, de idiomas minoritarios o para el periodismo de investigación, proyectos de verificación de hechos o para un apoyo más amplio y el desarrollo de capacidades para los medios tradicionales (especialmente, locales y regionales). Bélgica creó en 2009 el Fonds pour le journalisme, que financia directamente a los periodistas y que está gestionado de forma independiente por la Asociación Belga de Periodistas Profesionales. Además, la Ley luxemburguesa de 30 de julio de 2021 vincula el importe de las ayudas disponibles para el sector de los medios de comunicación a la cantidad de periodistas profesionales empleados por dicho medio, reconocidos como tales por el consejo de prensa independiente y sometidos al código de autorregulación del sector. Una comisión consultiva formada por miembros de la prensa y editores, la universidad nacional y miembros de la administración gubernamental analiza los criterios y supervisa el presupuesto de financiación anual de 10 millones (Grand Duchy of Luxembourg, 2021[56]).
La financiación suele ser directa o estar disponible para contenidos especiales, como los medios de comunicación en idiomas minoritarios o la promoción de temas específicos. La Ley de Presupuesto italiana de 2024, por ejemplo, financió un sistema de apoyo a la industria de los medios de comunicación a través de un «Fondo para el Pluralismo y la Innovación Digital de la Información y la Publicación de Medios» permanente. Entre otros requisitos para recibir fondos figuran los niveles de salario mínimo y dotación de personal de un número mínimo de periodistas profesionales con contratos indefinidos a tiempo completo (como mínimo, cuatro periodistas para editores de periódicos diarios y dos periodistas para editores de publicaciones periódicas). Las asignaciones también favorecerán a las editoriales que contraten a periodistas y profesionales menores de 35 años, con competencias profesionales en los ámbitos de la edición digital, la comunicación y la ciberseguridad, y con un enfoque en la lucha contra la desinformación (Gazzetta Ufficiale, 2023[57]). Por su parte, Finlandia destina 800 000 euros a revistas culturales y 500 000 euros a periódicos en lenguas minoritarias (Bleyer-Simon and Nenadić, 2021[55]). Siempre que los fondos se asignen de forma transparente, con rendición pública de cuentas y de manera relativamente predecible, las subvenciones directas pueden ser instrumentos importantes para apoyar a los medios de comunicación y el espacio de la información (Forum on Information and Democracy, 2021[54]).
Los gobiernos pueden apoyar económicamente a los medios de comunicación privados mediante la contratación de publicidad. Sin embargo, este apoyo directo debe realizarse de forma transparente e imparcial para evitar la captura de medios de comunicación por parte del gobierno o los cargos electos. Si no se hace de manera transparente e imparcial, la publicidad estatal puede ser una forma problemática de apoyo, que se puede utilizar para comprar o para mantener la influencia política. Cabe destacar que, dentro de la Unión Europea, 19 de los 24 países recientemente estudiados carecen de directrices para asignar de forma transparente la publicidad estatal entre los medios de comunicación (Bleyer-Simon and Nenadić, 2021[55]).
El Informe de la Comisión sobre el Futuro de los Medios, de Irlanda, recomendó ampliar el sector de los medios de comunicación y aumentar su pluralidad mediante la adaptación del actual Fondo de Radiodifusión a un «Fondo de Medios de Comunicación» para cualquier tipo de plataforma, con el fin de financiar programas destinados a los proveedores de contenidos de servicio público, incluidos los que ofrecen noticias locales y apoyo a la transformación digital. El informe también recomienda reducir los impuestos a los periódicos y las publicaciones digitales, y que las inversiones en organizaciones de medios de comunicación sin ánimo de lucro reciban exenciones fiscales (Government of Ireland, 2022[58]).
Las medidas de apoyo también pueden dirigirse a llegar a grupos vulnerables y de difícil acceso. Por ejemplo, el gobierno estonio apoya la creación de contenido en ruso, ya que se considera un medio eficaz para proporcionar información fiable a los hablantes no estonios del país. Esta información está diseñada para competir con la propaganda financiada por el estado ruso y dirigida a la minoría de habla no estonia. La financiación se destinó tanto a la emisora pública ERR, así como a los medios de comunicación privados. Este programa de apoyo se creó en colaboración con los medios de comunicación, prestando especial atención a la libertad de expresión y a la neutralidad política (ERR, 2023[59]).
Los medios comunitarios son otro elemento importante para garantizar un entorno de los medios de comunicación diverso y libre. En términos generales, estos medios son emisoras de radio, periódicos y medios de comunicación multimedia independientes de los gobiernos, las instituciones comerciales y los partidos políticos. Además, están dirigidos y son en su mayoría propiedad de las comunidades locales y/o las comunidades de interés a las que sirven (Chapman, Bellardi and Peissl, 2020[60]). Una forma de actuación de los gobiernos es la expansión y mejora de la infraestructura de internet para facilitar el crecimiento de los proveedores de noticias locales y comunitarios. Las áreas que carecen de conexiones de banda ancha o con unos altos costes de conexión a Internet tienen menos incentivos económicos para que los medios de difusión y las nuevas empresas digitales proporcionen noticias e información a los residentes de dichas comunidades. Abordar los problemas relacionados con la falta de acceso a internet de alta velocidad, incluso en lugares que también han perdido fuentes de noticias locales, podría contribuir (entre otros resultados positivos) a reducir la laguna digital y fortalecer el ámbito competitivo de los proveedores de noticias locales y comunitarias (Medill Local News Initiative, 2023[40]).
La importancia de los medios comunitarios se reitera en la Recomendación del Consejo de Europa sobre el pluralismo de los medios de comunicación y la transparencia de la propiedad de los medios de comunicación, que alienta a los Estados miembros a «apoyar el establecimiento y funcionamiento de los medios de comunicación comunitarios minoritarios, regionales, locales y sin fines de lucro, incluso mediante la creación de mecanismos financieros para fomentar su desarrollo (Council of Europe, 2018[50])». Del mismo modo, la Organización para la Seguridad y la Cooperación en Europa (OSCE) recomienda que los Estados reconozcan la naturaleza distintiva de los medios de comunicación comunitarios sin fines de lucro, garanticen su independencia y les permitan ofrecer a los miembros de las comunidades a las que sirven oportunidades y formación para poder producir sus propios contenidos (OSCE, 2019[61]).
Luxemburgo ha puesto en marcha un mecanismo de ayuda financiera de 100 000 euros anuales para los medios de comunicación comunitarios basados en la participación voluntaria de las personas en las actividades editoriales y que apoyan la educación, la integración y la cohesión social de los medios de comunicación (Grand Duchy of Luxembourg, 2021[56]). Por su parte, en 2020, el Reino Unido contaba con 255 radios comunitarias que tenían una audiencia local de 3,5 millones y en los que colaboraban 20 000 voluntarios (Chapman, Bellardi and Peissl, 2020[60]). Además de contribuir a la diversidad del ecosistema de los medios de comunicación de un país, facilitar la participación del público en la producción de periodismo de interés local puede servir como una herramienta importante para el fomento de la alfabetización mediática.
Esfuerzos internacionales para fortalecer los medios de comunicación y los entornos informativos
El apoyo gubernamental a un sector de los medios de comunicación diverso e independiente también es considerado como una prioridad para la cooperación y el desarrollo internacionales. En numerosos países, las agencias de desarrollo están reforzando la integridad de la información mediante asociaciones con medios de comunicación locales y periodistas que trabajan sobre el terreno. La Ayuda Oficial al Desarrollo (AOD) destinada a los medios de comunicación y los entornos informativos ha aumentado de 325 millones de dólares estadounidenses en 2002 a 1200 millones de dólares estadounidenses en 2021. Sin embargo, esto tan solo representó el 0,5 % de la AOD total en 2021 y, excluyendo las inversiones en infraestructura (como conexiones de banda ancha y telefonía), la AOD para medios e información se ha mantenido estable en alrededor de 500 millones de dólares estadounidenses anuales desde 2008 (OECD, 2024[62]).
La asistencia para el desarrollo a los medios de comunicación y la información suele clasificarse en tres áreas de políticas. La primera se centra en el fortalecimiento de las iniciativas gubernamentales. Estos proyectos apoyan los esfuerzos para promover la libertad de expresión, el apoyo de los medios a la gobernanza y la rendición de cuentas (incluido el desarrollo del sector de los medios y el papel de los medios en las elecciones), el acceso a la información y la transparencia del gobierno, así como la democracia digital y las «libertades de internet». Un segundo enfoque se centra en ampliar el acceso a las tecnologías y la infraestructura física, incluido el apoyo a las innovaciones tecnológicas, la infraestructura (telefonía y banda ancha) y las reformas de la regulación de las telecomunicaciones. Por último, una tercera categoría incluye el apoyo a los medios de comunicación y los esfuerzos de comunicación para difundir información sobre objetivos de desarrollo específicos, como los esfuerzos para promover la salud, el medio ambiente u otros objetivos de desarrollo. Además, también incluye programas de comunicación estratégica para difundir información sobre las prioridades e intereses de los socios (véase Recuadro 2.5 para ejemplos) (OECD, 2024[62]).
Recuadro 2.5. Iniciativas ODA para fortalecer los medios de comunicación y los entornos informativos
En Francia, el Ministerio de Europa y Asuntos Exteriores apoya a Canal France International (CFI), la agencia francesa de cooperación en medios de comunicación, que trabaja para fomentar el desarrollo de los medios de comunicación en los países que reciben ayuda para el desarrollo. Esta agencia apoya a las organizaciones de medios de comunicación y a las partes interesadas de la sociedad civil con sede en estos países, que se comprometen a proporcionar información libre, democrática e imparcial, al tiempo que desarrollan una conciencia de los requisitos del desarrollo sostenible. Desde 2016, la agencia francesa de desarrollo, Agence française de développement (AFD), también tiene un mandato del Ministerio francés para Europa y de Asuntos Exteriores para financiar proyectos dedicados a la libertad de prensa y la formación de periodistas, el fortalecimiento de los medios de comunicación y los esfuerzos para contrarrestar la desinformación. Entre otras iniciativas, la AFD firmó en 2022 un acuerdo de asociación plurianual con Reporteros sin Fronteras, que se está implementando actualmente en 66 países de cuatro continentes. Este acuerdo prevé financiación para 18 organizaciones locales de Europa, Medio Oriente y África del Norte y Occidental, especializadas en formación sobre seguridad de periodistas, verificación de hechos y periodismo de investigación.
La Agencia Española de Cooperación Internacional para el Desarrollo (AECID) lanzó en 2023 el «Programa Democracia» para apoyar el diálogo social y los intercambios de conocimientos entre España, otros países europeos, América Latina y el Caribe, con el objetivo de reforzar los valores democráticos. Uno de los pilares fundamentales de este programa es la protección de los derechos humanos y las libertades fundamentales mediante del apoyo a periodistas, activistas y académicos y la defensa de un espacio mediático diverso y pluralista, que favorezca diálogos razonados en estas regiones.
La agencia alemana para la cooperación internacional, Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ), también financia proyectos para mejorar la calidad periodística y la innovación de los medios de comunicación independientes. Junto con la Unión Europea como cofinanciadora y DW Akademie e Internews Europe como entidades gestoras, GIZ apoya un proyecto de tres años (2022-2025) sobre libertad de prensa y pluralismo en los Balcanes Occidentales. Este proyecto consiste en ayuda a los medios de comunicación independientes para mejorar sus capacidades de generación de informes e ingresos.
En 2023, la Agencia de EE. UU. para el Desarrollo Internacional (USAID) lanzó la Iniciativa Pro-Info, que proporcionará 16 millones de dólares estadounidenses para ayudar a promover la alfabetización digital y mediática, y apoyar las tecnologías emergentes y los esfuerzos de prebunking en los países donde operan.
Las evaluaciones muestran que la cooperación internacional y la AOD pueden desempeñar un papel especialmente importante a la hora de ayudar a los actores de los medios de comunicación a sobrevivir, manteniendo así a los ciudadanos lo más informados posible en contextos políticos frágiles y en entornos de conflicto. Las grandes inversiones a largo plazo también pueden producir efectos a nivel de todo el sistema, como la transformación del sector de los medios de comunicación de Ucrania. A corto y medio plazo, los programas temáticos pueden ser eficaces como, por ejemplo, denunciar la corrupción y exigir responsabilidades a los perpetradores a través de redes de periodismo de investigación. A un plazo más largo, apoyar la capacidad de los periodistas, fortalecer a los medios de comunicación y crear las condiciones favorables para el funcionamiento de los medios de comunicación son tres aspectos clave para mejorar la calidad y el alcance de la información.
Por otro lado, el impacto no se mide lo suficiente y las oportunidades para desarrollar estrategias y evaluaciones conjuntas de los donantes en los países socios siguen sin aprovecharse en gran medida. Un estudio de 2023 realizado por USAID clasificó a los países en dos grupos: el denominado grupo del norte global y el grupo del sur global, y descubrió un «grave desequilibrio» en la evidencia relacionada con lo que funciona para contrarrestar la desinformación en los países clasificados como del norte global frente a los clasificados en comparación con los del sur global. Este estudio encontró que el 80 % de los estudios identificados se realizaron en el Norte Global, por lo que es un desafío sacar conclusiones sobre estrategias eficaces para contrarrestar la desinformación en el Sur Global (USAID, 2023[68]).
La evidencia sobre cómo los entornos de la información benefician a otros objetivos diplomáticos y de desarrollo, y cómo los programas de AOD relacionados con el espacio de la información pueden ser más eficaces reforzaría el peso político del apoyo internacional y podría conducir a aumentos tanto de la AOD como en la dotación de personal experto. Recientemente se han puesto en marcha iniciativas de AOD para combatir la desinformación, concretamente, en relación con la COVID-19 y los procesos electorales en los países socios, pero esto sigue siendo marginal, ya que se trata de un campo nuevo para muchos donantes y la experiencia es limitada.
Para apoyar y fortalecer estos esfuerzos se están desarrollando e implementando varias iniciativas normativas. La Red de Gobernanza del CAD de la OCDE está desarrollando «Principios actualizados para el Apoyo Relevante y Eficaz a los Medios de Comunicación y el Entorno de la Información» y la Freedon Online Coalition adoptó en octubre de 2023 los Principios de los donantes para los derechos humanos en la era digital.16
Continuar desarrollando asociaciones entre agencias de desarrollo, actores locales y organismos internacionales es una vía importante para proporcionar financiación y promover el intercambio de mejores prácticas en un contexto, en el que el periodismo independiente en idiomas locales se enfrenta a modelos comerciales erosionados y, en algunos contextos, a riesgos de seguridad y restricciones a la libertad de prensa (UNESCO, 2022[69]). Por ejemplo, el Centro de Compromiso Global (GEC) del Departamento de Estado de los EE. UU. ha llevado a cabo varias iniciativas para apoyar a los medios de comunicación independientes en aquellos países donde están siendo atacados. Por separado, las actividades han incluido el apoyo a la continuidad de las operaciones; la formación en habilidades periodísticas; estudios de interés local sobre tácticas de captura de medios; la planificación de la sostenibilidad empresarial para los medios de comunicación independientes; la tutoría de las partes interesadas; y el fomento de las redes regionales entre las entidades que promueven la libertad de expresión. El GEC también expone directamente las narrativas y tácticas de desinformación, y trabaja con socios extranjeros para crear resiliencia ante la manipulación informativa y la injerencia por parte de actores extranjeros (FIMI).
Por otra parte, en 2021 se creó el Fondo Internacional para los Medios de Comunicación de Interés Público (IFPIM) como una iniciativa independiente y multilateral, diseñada para abordar los retos a los que se enfrenta el sector de los medios de comunicación en los países de ingresos bajos y medios, y para ayudar a identificar vías hacia la sostenibilidad a largo plazo.17 En Europa, el proyecto Medios Locales para la Democracia tiene como objetivo apoyar el panorama de los medios de comunicación locales con medidas para desarrollar la resiliencia, la independencia y la sostenibilidad. En última instancia, mediante la cartografía de los desiertos de noticias en la UE y la financiación focalizada de los medios de comunicación, el proyecto pretende apoyar un entorno propicio, en el que pueda existir un panorama mediático pluralista e independiente (European Federation of Journalists, 2023[70]).
Varias consideraciones ayudan a orientar el diseño de mecanismos de apoyo del gobierno para los medios de comunicación. Por ejemplo, es preciso adoptar medidas dirigidas a garantizar que el diseño de modelos de apoyo a los medios de comunicación privados, que a menudo se crearon para los medios impresos y de radiodifusión tradicionales, sea adecuado para el nuevo entorno de comunicación (Forum on Information and Democracy, 2021[54]). Al mismo tiempo, en las sociedades muy polarizadas, el apoyo gubernamental a los medios de comunicación públicos, privados o comunitarios podría ser utilizado potencialmente por actores maliciosos para acusar al gobierno de difundir contenidos falsos y engañosos. Para mitigar estas preocupaciones, los gobiernos deben garantizar la existencia de un cortafuegos sólido entre la entidad mediática y el gobierno en términos de contenido, establecer reglas claras y transparentes para la asignación de fondos y proporcionar información sobre las subvenciones, la financiación de proyectos y las actividades de los proyectos. Es de vital importancia que los procedimientos y mecanismos de control demuestren al público, que el apoyo gubernamental no tiene un impacto directo en los contenidos producidos y que las consideraciones políticas no afectan a la distribución de ayuda financiera o de otro tipo a los medios de comunicación. Igualmente, cuando los medios de comunicación reciben el apoyo de otros gobiernos o de organizaciones internacionales, corren el riesgo de parecer estar bajo el control de un actor externo. Cualquier mecanismo de apoyo gubernamental a los medios de comunicación, especialmente, los mecanismos de apoyo a los medios de comunicación extranjeros, debería establecer unas reglas claras y públicas para garantizar que las líneas editoriales no se vean influidas por la asistencia externa.
2.3.3. Reforzar los incentivos económicos para promover un mejor funcionamiento de los espacios informativos en línea
Si bien no está directamente relacionado con la lucha contra la desinformación, identificar los impulsores económicos que ayudan a incentivar a las plataformas en línea a promover la integridad de la información es un enfoque importante. Desde la perspectiva del consumidor, aunque las plataformas en línea han aportado beneficios sustanciales como unos precios de la información y la comunicación más bajos, una mayor accesibilidad y comodidad, así como el acceso a nuevos contenidos y medios de participación, se han identificado varias preocupaciones con respecto a la competencia en los mercados digitales. En particular, los sectores de uso intensivo de las tecnologías digitales han demostrado una tendencia hacia una mayor concentración del mercado y la disminución de las tasas de entrada de nuevas empresas (OECD, 2019[71]; OECD, 2022[72]). Esto se debe en parte a la existencia de una fuerte actividad de fusiones en estos mercados. Por ejemplo, entre 2001 y 2021, Google compró 258 empresas; Facebook (ahora Meta) empleó una práctica similar, comprando 90 empresas en un período de 16 años (2005 a 2021), lo que significa que cerraron un trato cada dos meses (Nadler and Cicilline, 2020[73]) (American Economic Liberties Project, 2021[74]). Además, existen ciertas características inherentes de los mercados digitales, que los hacen propensos a la concentración, incluida la presencia de efectos de red (el fenómeno por el cual el valor de un producto o servicio aumenta cuando más personas lo utilizan), bucles de retroalimentación de datos (que permiten a las plataformas que obtienen volúmenes significativos de datos de sus grandes bases de usuarios mejorar continuamente sus productos y servicios) y fuertes economías de escala.
Además, la concentración puede, a su vez, haber reducido la competencia y la disponibilidad de fuentes de noticias fiables (Nadler and Cicilline, 2020[73]). Es más, con menos opciones disponibles para los consumidores, la concentración también puede reducir los incentivos para que las grandes plataformas en línea compitan en aspectos de calidad. Estas tendencias son preocupantes, porque la evidencia muestra que una competencia sana en el mercado ayuda a estimular la innovación, así como a promover el crecimiento y el bienestar a largo plazo (OECD, 2022[75]).
Varias jurisdicciones han implementado, o propuesto, políticas específicas para abordar los daños a la competencia en los mercados digitales. Al fomentar la entrada de nuevos participantes y la innovación, estas estrategias buscan estimular la competencia entre plataformas en línea, lo que podría alentar los incentivos basados en el mercado para unos espacios de la información más saludables, aunque este resultado está lejos de ser seguro. Por ejemplo, las regulaciones pueden abordar, según corresponda, las preocupaciones relacionadas con los datos, incluidas las obligaciones de implementar medidas de portabilidad e interoperabilidad de los datos. Permitir que los consumidores cambien de servicio más fácilmente podría evitar conductas contrarias a la competencia y fomentar la innovación. Los gobiernos también pueden incluir cuestiones relacionadas con el estado de «guardián de acceso» de las plataformas en línea, incluidas las medidas para limitar la agrupación y la autopreferencia de sus propios bienes y servicios. Algunos reguladores también han establecido requisitos adicionales para las fusiones, que aumentan el escrutinio de los riesgos de competencia concomitantes (OECD, 2022[75]).
Por ejemplo, la Comisión Europea (CE) ha adoptado este enfoque a través de la Ley de Mercados Digitales (DMA). La Comisión Europea se ha centrado en crear y mantener la igualdad de condiciones para los servicios digitales; garantizar un comportamiento responsable de las plataformas en línea; fomentar la confianza y la transparencia, y garantizar la equidad en las plataformas en línea; y mantener los mercados abiertos mediante la promoción de un entorno empresarial más justo y fomentando la entrada de nuevos servicios en el mercado (OECD, 2022[3]).
La naturaleza de la relación entre las plataformas digitales y los editores de noticias es compleja. Desde la perspectiva de los editores de noticias, esta relación se caracteriza por una tensión entre las oportunidades operativas a corto plazo de utilizar las plataformas digitales como canales eficaces de distribución de contenido de noticias y la preocupación a largo plazo de volverse «demasiado dependientes» de estas plataformas (Nielsen and Ganter, 2018[76]). Desde la perspectiva de las plataformas digitales, existen opiniones contradictorias sobre el valor del contenido de las noticias, sobre todo, en comparación con otro tipo de contenidos de terceros, para sus negocios e ingresos (OECD, 2021[77]).
A la luz de estas dinámicas, una vía para promover la competencia en este espacio ha sido la de establecer requisitos para que las plataformas en línea remuneren a las empresas de medios de comunicación por enlazar a sus contenidos. En Australia, el Código de Negociación de Medios de Noticias entró en vigor en marzo de 2021. Este documento aborda los desequilibrios existentes en el poder de negociación entre las plataformas en línea específicamente designadas (en particular, aquellas que tienen un «desequilibrio significativo en el poder de negociación con las empresas de noticias australianas») y los editores (Australian Competition and Consumer Commission, 2020[78]). El código exige que las plataformas digitales designadas negocien de buena fe con las empresas de noticias que hayan registrado la intención de negociar. Si no se puede llegar a un acuerdo sobre la remuneración en un plazo de tres meses, existe un mecanismo de arbitraje obligatorio dentro del marco para resolver las disputas sobre la remuneración (Australian Competition and Consumer Commission, 2020[78]). Una revisión del gobierno australiano determinó que, a finales de su primer año de funcionamiento, se habían alcanzado más de 30 acuerdos comerciales entre plataformas digitales (Google y Meta) y una serie de empresas de noticias australianas fuera del código. Es poco probable que estos acuerdos se hubieran materializado sin el Código (Government of Australia - The Treasury, 2022[79]).
Igualmente, en julio de 2019, Francia promulgó una ley de transposición de la directiva comunitaria sobre derechos de autor y derechos afines, que incluye criterios de remuneración para el uso de resúmenes de noticias en plataformas en línea (Autorité de la concurrence, 2020[80]). En abril de 2020, la autoridad francesa de competencia impuso medidas provisionales, que exigían a Google negociar de buena fe con editores y agencias de noticias sobre la remuneración que les correspondía en virtud de la ley, después de descubrir que Google probablemente había incurrido en una conducta contraria a la competencia, diseñada para eludir la ley (Autorité de la concurrence, 2020[80]). Además, en 2023, Canadá aprobó la Ley de Noticias en Línea, cuyo objetivo es «garantizar que las plataformas dominantes compensen a las empresas de noticias cuando su contenido esté disponible en sus servicios» y crea un marco de negociación para alentar a las plataformas a realizar acuerdos comerciales voluntarios con una serie de empresas de noticias, que pasarían a un proceso obligatorio de negociación y arbitraje en caso de no llegar a buen término (Government of Canada, 2023[81]).
Sin embargo, las posibles desventajas de este enfoque se pueden ver en las restricciones a los enlaces libres y abiertos en internet impuestas por las normativas, así como en el riesgo de que las plataformas en línea eliminen por completo el acceso a fuentes de noticias profesionales y tradicionales en determinadas jurisdicciones. De hecho, Meta anunció que «las personas en Canadá ya no podrán ver o compartir contenidos de noticias en Facebook e Instagram», ya que el valor que recibe Meta al permitir a los usuarios publicar enlaces a artículos de noticias es menor que el coste de pagar a los medios por enlaces que anteriormente se hacían de manera voluntaria (Meta, 2023[82]). En el futuro, el objetivo será seguir identificando enfoques que apoyen a un sector de medios de comunicación independiente y diverso, al tiempo que se defiende un espacio de la información libre y abierto.
2.4. Abordar riesgos específicos en el espacio informativo
Teniendo en cuenta la naturaleza dinámica del espacio de la información global, la rápida innovación tecnológica que lo configura y el aumento de las tensiones geopolíticas, los riesgos para los espacios de la información evolucionan rápidamente, con la aparición de nuevos riesgos o de nuevas oportunidades para quienes intentan realizar campañas de desinformación. En este contexto, reforzar la integridad de la información exige que los responsables de la formulación de políticas presten mucha atención a las tendencias políticas, económicas, tecnológicas o sociales, que pudieran afectar el panorama de riesgos en este ámbito.
Si bien no es nueva, la amenaza de la manipulación informativa y la injerencia por parte de actores extranjeros (FIMI) ha seguido creciendo, a medida que los actores maliciosos utilizan las nuevas tecnologías de maneras novedosas. Las herramientas de IA generativas disponibles en el mercado permitirán operaciones FIMI más personalizadas por cada vez más tipos de actores, permitiendo así la creación de contenidos de mayor calidad, a mayor velocidad y escala, y a menor coste. El 2.º Informe del SEAE sobre la manipulación de información extranjera y las amenazas de injerencia encontró que los actores de amenazas FIMI hacen un uso estratégico y oportunista de la atención creada por determinados eventos tales como elecciones, emergencias y cumbres políticas, para perseguir sus intereses (EEAS, 2024[83]). El año 2024, llamado «año superelectoral», con más de 4000 millones de personas con probabilidades de votar, ofrecerá mayores oportunidades para que los actores maliciosos interfieran en las elecciones y traten de influir en los resultados políticos.
Estos ejemplos ponen de manifiesto la importancia de diseñar respuestas políticas específicas para estas amenazas nuevas o emergentes. En conjunto, la interferencia extranjera alimentada por las tensiones geopolíticas, el mayor año electoral de la historia y el poder de la IA generativa cada vez más accesible, elevan el nivel de riesgo para la integridad de la información. En este contexto, para comprender mejor el alcance de los desafíos y para la identificación de respuestas políticas sería conveniente centrarse en:
Responder a las amenazas que plantea la difusión de la manipulación informativa y la interferencia por parte de actores extranjeros (FIMI);
Fortalecer el espacio de la información en el contexto de las elecciones, proporcionando al público información oportuna y fiable sobre cómo ejercer sus derechos; y
Responder a los cambios introducidos por la IA generativa en el espacio de la información.
2.4.1. La manipulación informativa y la injerencia por parte de actores extranjeros
Una manera importante de fortalecer el espacio de la información es reconocer y responder a las amenazas que plantea la interferencia maliciosa extranjera. Si se realiza de manera transparente a través de canales oficiales, la influencia extranjera es legal y puede contribuir a los debates democráticos. Sin embargo, los riesgos para los procesos democráticos surgen de los esfuerzos de agentes extranjeros para interferir en los procesos democráticos y en los espacios informativos con la finalidad de socavar la toma de decisiones, reducir la confianza en los sistemas democráticos, aumentar la polarización y ocultar las actividades y las intenciones de los actores.
Si bien aún no existe una definición única y universalmente aceptada de injerencia extranjera, el concepto se refiere en general a los esfuerzos de actores extranjeros para interferir ilegítimamente en los procesos de toma de decisiones de un país objetivo. Esta definición comprende tanto las acciones de actores estatales como de los no estatales y de sus representantes. La injerencia extranjera también se caracteriza por la coordinación de actividades y la naturaleza maliciosa de las acciones que tratan de influir negativamente en los valores, procedimientos y procesos políticos. Si bien todos los gobiernos intentan influir en las deliberaciones sobre cuestiones que son importantes para ellos como parte de sus herramientas de política exterior, la globalización y la digitalización han amplificado el desafío de la injerencia extranjera y la han convertido en una preocupación mucho más civil, ya que las democracias abiertas son más frágiles a la injerencia extranjera que los sistemas más cerrados. En este sentido, se pueden regular varias lagunas de gobernanza existentes, para hacer que las democracias sean más resilientes a la injerencia extranjera.
En el espacio de la información, la manipulación informativa y la injerencia por parte de actores extranjeros (FIMI) busca moldear la opinión pública y el discurso, a menudo, con el objetivo de potenciar esfuerzos de interferencia paralelos (véase Recuadro 2.6 para las definiciones). A menudo, los actores maliciosos extranjeros tratan de aprovechar los flujos de información global para ganar influencia, afectando a los países a nivel mundial, contribuyendo al retroceso democrático y amenazando la inestabilidad política y los conflictos violentos a través de campañas de desinformación (Office of the Director of National Intelligence, 2023[84]).
Los actores nacionales o extranjeros pueden difundir desinformación como parte de una operación de influencia maliciosa extranjera. Los actores nacionales pueden actuar como representantes conscientes o inconscientes de actores maliciosos extranjeros, motivados por ganancias políticas, económicas, sociales o monetarias. Un objetivo clave de los actores de la FIMI es desestabilizar a la sociedad y al gobierno del Estado objetivo, y confundir el debate público en torno a cuestiones clave. Además, la desinformación suele diseñarse para ser difundida a través del debate interno y en línea. Una táctica utilizada para lograrlo es exacerbar las fisuras políticas y sociales existentes. Con esta estrategia, los actores extranjeros pueden tener un alcance más eficaz y aparentemente auténtico, ahorrar recursos y ocultar los orígenes de las actividades de interferencia.
Recuadro 2.6. Definición de injerencia extranjera y de manipulación informativa e injerencia por parte de actores extranjeros (FIMI)
Hacia una definición de injerencia extranjera
El concepto de «injerencia extranjera» es amplio. Por ejemplo, la definición del Parlamento Europeo señala que «la injerencia extranjera es una injerencia ilegítima en la política y la democracia de la Unión Europea y sus Estados miembros por parte de potencias extranjeras» (European Parliament, 2023[85]).
El Departamento de Seguridad Nacional de EE. UU. (DHS) define la injerencia extranjera como «acciones malintencionadas realizadas por gobiernos o agentes extranjeros y diseñadas para sembrar la discordia, manipular el discurso público, desacreditar el sistema electoral, sesgar la elaboración de políticas o perturbar los mercados con el fin de socavar los intereses de EE. UU. y sus aliados» . Por otra parte, el Código de EE. UU. utiliza el término «influencia maliciosa extranjera», definido en el artículo 50 USC § 3059(e)(2) como «cualquier esfuerzo hostil emprendido por, bajo la dirección de, en nombre de o con el apoyo sustancial del gobierno de un país extranjero encubierto con el objetivo de influir, a través de medios abiertos o encubiertos: (A) en las políticas o actividades políticas, militares, económicas o de otro tipo del Gobierno de EE. UU. o gobiernos estatales o locales, incluidas las elecciones dentro de EE. UU.; o (B) en la opinión pública dentro de EE. UU.».
El Departamento del Fiscal General de Australia entiende la injerencia extranjera como «actividades encubiertas, engañosas y coercitivas destinadas a influir en un proceso político o gubernamental australiano, dirigidas, subvencionadas o emprendidas por (o en nombre de) actores extranjeros para promover sus intereses u objetivos» (Australian Government Attorney-General’s Department, 2019[86]).
Sería conveniente contar con una comprensión y una definición comunes de la injerencia extranjera para poder distinguirla de la influencia extranjera legítima y reducir el riesgo de injerencia extranjera a través de la cooperación internacional. Sobre la base de las definiciones nacionales existentes en los países de la OCDE, los elementos comunes de las actividades de injerencia extranjera incluyen generalmente la falta de transparencia de las actividades realizadas; que las actividades estén condicionadas, encomendadas o instruidas, directa o indirectamente, por un Estado extranjero; y que estén destinados a ser perjudiciales para el país objetivo.
Manipulación informativa e injerencia por parte de actores extranjeros (FIMI)
La Unión Europea utiliza el término «manipulación informativa e injerencia por parte de actores extranjeros» (FIMI), que se centra principalmente en las amenazas de desinformación, pero que también está relacionado con el panorama más amplio de la injerencia extranjera: «La manipulación informativa e interferencia por parte de actores extranjeros (FIMI) describe un patrón de comportamiento, en su mayoría no ilegal, que amenaza o que tiene el potencial de influir negativamente en los valores, procedimientos y procesos políticos. Dicha actividad tiene un carácter manipulador y es realizada de manera intencional y coordinada por actores estatales o no estatales, incluidos sus representantes, dentro y fuera de su propio territorio» (European External Action Service, 2023[87]).
Fuente: Parlamento Europeo (2023[85]), Lagunas legales y el riesgo de injerencia extranjera. En el análisis en profundidad solicitado por la Comisión Especial del ING2, https://www.europarl.europa.eu/RegData/etudes/IDAN/2023/702575/EXPO_IDA(2023)702575_EN.pdf; United States Departamento de Seguridad Nacional (2018[88]), Foreign Interference Taxonomy, https://www.cisa.gov/sites/default/files/publications/foreign_interference_taxonomy_october_15.pdf; Departamento del Fiscal General del Gobierno Australiano (2019[86]), Foreign Influence Transparency Scheme. Ficha informativa 2 “What is the difference between ’foreign influence’ and ’foreign interference’?”, https://www.ag.gov.au/sites/default/files/2020-03/influence-versus-interference.pdf; Servicio Europeo de Acción Exterior (2023[87]), 1er Informe SEAE sobre la manipulación de información extranjera y las amenazas de injerencia. Un marco para la defensa en red, https://www.eeas.europa.eu/eeas/1st-eeas-report-foreign-information-manipulation-and-interference-threats_en.
A menudo, las operaciones FIMI tratan de influir en decisiones específicas de política nacional y exterior de los estados objetivo, sembrar divisiones en las sociedades, denigrar los valores, procesos e instituciones democráticas, y obtener apoyo para las políticas del estado perpetrador (EEAS, 2023[89]). Las iniciativas de información extranjera y maliciosa también tratan de debilitar a los estados objetivo atacando los intereses de política exterior, así como mermando la confianza de la población en las instituciones gubernamentales, ampliando las divisiones políticas y la polarización social, y socavando la resiliencia democrática (U.S. Department of State, 2020[90]) (OECD, 2022[91]).
Los actores estatales extranjeros también han utilizado una amplia gama de canales, herramientas y prácticas para crear y difundir desinformación a través de redes potencialmente vastas, que consisten en canales de comunicación oficiales, proxy y sin atribución, incluidos medios de comunicación respaldados por el estado, redes de televisión globales, cuentas falsas de redes sociales y sitios web de noticias falsas. Una de estas vías es a través de los medios estatales y controlados de estados autoritarios como Sputnik, RT y TASS en Rusia, y Xinhua y CCTV en China. La importancia de estos canales se puede ver en Rusia, por ejemplo, donde el gasto del gobierno en «medios de comunicación» para el primer trimestre de 2022 fue un 322 % más alto que para el mismo período en 2021, alcanzando los 17 400 millones de rublos (aprox. 215 millones de euros). Casi el 70 % del gasto de Rusia en medios de comunicación en el primer trimestre de 2022 se gastó en marzo, inmediatamente después de la invasión rusa de Ucrania (The Moscow Times, 2022[92]). Los medios de comunicación que reciben estos fondos, incluidos RT y Rossiya Segodnya, propietario y operador de Sputnik y RIA Novosti, son medios de comunicación estatales y vinculados al estado, que «sirven principalmente como conductos del discurso político del Kremlin y se pueden definir con mayor precisión como herramientas de propaganda estatal» (United States Department of State, 2022[93]) (Cadier et al., 2022[94]).
El gobierno chino ha ampliado la distribución de contenidos favorable a sus posiciones mediante el alcance de sus medios de comunicación estatales, la compra de medios de comunicación extranjeros y la publicación de contenidos favorables en medios de comunicación extranjeros. Por ejemplo, tal como señala el informe GEC del Departamento de Estado de EE. UU. «Cómo la República Popular China busca remodelar el entorno de información global», en agosto de 2021, Xinhua, la agencia de noticias estatal oficial del gobierno chino, tenía 181 oficinas en 142 países y regiones. El gobierno chino también ha comprado participaciones de control en medios de comunicación de Europa, Asia y África, en muchos casos, evadiendo las normas de transparencia de los medios y, a menudo, cambiando la cobertura de noticias y editoriales hacia posturas más prochinas (U.S. Department of State, 2023[95]). Además, los medios de comunicación controlados por el gobierno chino han utilizado acuerdos de intercambio de contenidos con medios de comunicación locales extranjeros para proporcionar productos informativos de forma gratuita o a precios muy subvencionados a los medios de comunicación locales y, en algunos casos, prohibiendo a los receptores celebrar acuerdos de intercambio de contenidos con servicios de cable de origen occidental. Este tipo de enfoque puede promover discretamente posturas prochinas, mientras que limita el alcance de otros medios de comunicación. Este tipo de acuerdos, en los que la información proporcionada por medios chinos aparece en medios locales sin atribución, corre el riesgo de distorsionar el entorno de la información al tiempo que reduce la capacidad de los ciudadanos para tomar decisiones informadas de manera transparente (U.S. Department of State, 2023[95]).
Así pues, los Estados bálticos, por ejemplo, fueron los primeros países de la UE en imponer prohibiciones temporales a la difusión de algunos canales de televisión rusos, directa o indirectamente administrados por el Estado ruso, que difunden activamente la desinformación, la propaganda y la incitación al odio. Tras el comienzo de la guerra de agresión rusa contra Ucrania en 2022, la Unión Europea introdujo una prohibición a escala de la Unión de la transmisión de los dos canales estatales rusos, RT (Russia Today) y Sputnik. En diciembre de 2022, la Unión Europea amplió la lista de canales de televisión rusos prohibidos con el fin de hacer frente a la «campaña sistemática internacional de manipulación de los medios de comunicación y de distorsión de los hechos con el fin de reforzar su estrategia de desestabilización de sus países vecinos, y de la Unión Europea y sus Estados miembros (Official Journal of the European Union, 2022[96])”.
Los actores maliciosos también utilizan ciberataques para robar y distribuir información sensible como un esfuerzo más activo para apoyar campañas de desinformación más amplias. Por ejemplo, antes de las elecciones presidenciales francesas de 2017, un intento coordinado para socavar la candidatura de Emmanuel Macron incluyó el pirateo y la filtración, dos días antes de la segunda y última ronda de las elecciones presidenciales, de más de 20 000 correos electrónicos robados de los ordenadores del personal de la campaña. Este ciberataque se programó para coincidir con el período de silencio de la campaña, que impide la campaña por ley, y se coordinó con una campaña de desinformación que, paralelamente, difundía rumores y documentos falsificados. Solo en X, un esfuerzo coordinado para difundir contenido relacionado mediante la promoción del hashtag #MacronLeaks apareció en casi medio millón de tuits en veinticuatro horas (Vilmer, 2019[97]). Además de los daños causados por el acceso ilegal a información privada y los riesgos que suponen los ciberataques para los procesos democráticos en general, esta campaña pone de relieve cómo los actores maliciosos pueden utilizar datos gubernamentales pirateados, secretos comerciales e información personal para oscurecer y socavar el debate público.
Estos actores pueden aprovechar las oportunidades que ofrecen las plataformas en línea para amplificar el alcance de los contenidos y difundir campañas de manipulación informativa e injerencia extranjera. Más allá del secuestro de cuentas de redes sociales de políticos o de otros funcionarios públicos, los actores maliciosos también recurren a métodos menos evidentes de amplificación artificial como el robo de cuentas y la creación de «granjas de bots» para difundir contenido. Este uso coordinado de cuentas publica, comparte y da «likes» a materiales específicos. Esta actividad se realiza de tal manera, que imita el comportamiento genuino de los usuarios, lo que puede llevar a un compromiso real en las plataformas e incluso propagarse a fuentes de noticias fuera de línea.
En el futuro, las tecnologías de inteligencia artificial generativa ofrecerán mayores oportunidades para la creación y distribución de contenidos falsos y engañosos. Los actores maliciosos pueden utilizar estas tecnologías en rápida evolución para generar perfiles de usuario falsos, textos, audios y vídeos de aspecto realista y difíciles de detectar automáticamente, así como para gestionar redes de bots. Por ello, la manipulación informativa y la interferencia por parte de actores extranjeros debe ser considerada como parte de unos esfuerzos más amplios para socavar los procesos democráticos. Los esfuerzos de desinformación son una importante herramienta de seguridad nacional para las naciones y los actores no estatales, cuyo objetivo es debilitar la democracia (Danvers, 2023[98]). Los ataques contra funcionarios, cargos públicos y candidatos políticos pueden distorsionar directamente el proceso político. El socavamiento de la percepción que los ciudadanos tienen de la equidad, la transparencia y la seguridad del proceso electoral disminuye la confianza en el sistema democrático de una manera más amplia. Por lo tanto, proteger y mantener la integridad de la información es una medida esencial para defender la integridad de las democracias.
Las políticas existentes para luchar contra la injerencia extranjera podrían aplicarse a las nuevas tecnologías y desafíos de las comunicaciones
Las actividades de desinformación se aprovechan de la ambigüedad y la oscuridad para tener éxito. El uso de mecanismos de aplicación de la transparencia podría ayudar detectarlas y proporcionar una vía para castigar la injerencia extranjera encubierta y maliciosa por parte de actores gubernamentales. Con esta finalidad, la aplicación de la normativa existente para contrarrestar la injerencia extranjera a las nuevas tecnologías de la comunicación y a los nuevos retos es una respuesta política prometedora. Por ejemplo, en EE. UU., la aplicación de la Ley de Registro de Agentes Extranjeros (FARA), aprobada originalmente en 1938, demuestra cómo la legislación existente para aumentar la transparencia de las actividades de influencia de los gobiernos extranjeros se puede adaptar para combatir la difusión de desinformación en línea. En 2018, Estados Unidos acusó a 13 ciudadanos rusos y tres empresas rusas (Internet Research Agency LLC, Concord Management and Consulting LLC y Concord Catering) en virtud de la ley FARA por crear cuentas falsas, ocultar publicidad, así como por organizar y coordinar mítines políticos en un esfuerzo por interferir en las elecciones estadounidenses (United States Department of Justice, 2022[38]) (Recuadro 2.7).
Recuadro 2.7. La aplicación de la Ley de Registro de Agentes Extranjeros (FARA) a la lucha contra la desinformación
El Congreso estadounidense aprobó en 1938 la Ley de Registro de Agentes Extranjeros (FARA) para aumentar la transparencia de las actividades de influencia de los gobiernos extranjeros. La Unidad de Registro de Agentes Extranjeros, que forma parte de la División de Seguridad Nacional del Departamento de Justicia de Estados Unidos, administra y aplica FARA.
La Ley dispone que cualquier actor (agentes políticos, lobistas, asesores de relaciones públicas, recaudadores de fondos, corporaciones, organizaciones, entre otros) que trabaje en representación o en interés de un gobierno extranjero o un mandante extranjero fuera de los Estados Unidos, incluidos los estadounidenses, deberá revelar sus afiliaciones y actividades, así como los ingresos y desembolsos en apoyo de esas actividades. Uno de los principales objetivos de esta Ley es luchar contra las actividades de propaganda mediante la identificación de las iniciativas de los actores extranjeros por parte del gobierno y el público estadounidenses. Las «actividades políticas» cubiertas por FARA incluyen cualquier actividad que el actor crea que pueda influir o que pretenda que influya en el gobierno con respecto a sus políticas nacionales y exteriores.
Aunque la ley FARA se ha utilizado como herramienta para combatir la propaganda extranjera y las campañas de influencia durante varias décadas, el gobierno la ha utilizado más recientemente para prevenir actividades encubiertas de desinformación extranjera. Por ejemplo, en 2017, la compañía RM Broadcasting, con sede en Florida, proporcionaba una plataforma para la emisión de programas de radio de una agencia de noticias estatal rusa, actuando así como agente de un principal extranjero, aunque no estuviera registrada como tal. Así pues, RM Broadcasting recibió la orden de registrarse conforme a FARA para que los oyentes pudieran conocer la fuente de sus noticias. Además, en 2018, varios ciudadanos y empresas rusas fueron acusados de intento de interferencia en las elecciones presidenciales estadounidenses de 2016. Una de las bases de tales acusaciones fue el incumplimiento de FARA por parte de los agentes.
Si bien el alcance de la ley FARA es amplio, existen varias excepciones para oficiales diplomáticos o consulares acreditados, actores que participan en actividades comerciales de buena fe, actividades religiosas, escolásticas, académicas o científicas, o de bellas artes. Dado que el riesgo que supone la difusión de la desinformación, especialmente, por parte de agentes extranjeros, en los últimos años, Estados Unidos ha considerado esta problemática una prioridad y también han aumentado los procedimientos penales contra los actores que no se han registrado conforme a la legislación FARA.
Fuente: Departamento de Justicia de Estados Unidos (2023[99]), Ley de Registro de Agentes Extranjeros, https://www.justice.gov/nsd-fara; Departamento de Justicia de Estados Unidos (2022[100]), El tribunal dictamina que RM broadcasting se registre como agente extranjero, https://www.justice.gov/opa/pr/court-finds-rm-broadcasting-must-register-foreign-agent; Departamento de Justicia de Estados Unidos (2021[101]), El Gran Jurado acusa a trece personas físicas y tres empresas rusas por un plan para interferir en el sistema político de Estados Unidos, https://www.justice.gov/opa/pr/grand-jury-indicts-thirteen-russian-individuals-and-three-russian-companies-scheme-interfere
Igualmente, en Australia, el Esquema de Transparencia de Influencia Extranjera trata de aportar al público visibilidad sobre la naturaleza, el nivel y el alcance de la influencia extranjera en el gobierno y la política australiana (Government of Australia, 2023[102]). Así pues, exige a las personas y entidades que realicen actividades registrables en nombre de un gobierno extranjero con la finalidad de influir en los procesos políticos o gubernamentales australianos que divulguen estos detalles en un registro público. En concreto, este documento legal considera las actividades de comunicación como una actividad registrable para garantizar que las personas que consumen información conozcan su origen.18 El esquema no está diseñado específicamente para combatir la desinformación. Sin embargo, al hacer transparente la fuente que hay detrás de las actividades de comunicación, dichos esquemas pueden proporcionar opciones útiles para iluminar actividades de comunicación encubiertas y potencialmente maliciosas, en última instancia, generando una mayor confianza en el espacio de la información en general.
2.4.2. La desinformación en procesos electorales
Cuando las operaciones de desinformación se realizan estratégicamente durante los ciclos electorales, interfieren directamente en el núcleo esencial de la democracia, pudiendo socavar la confianza depositada en el proceso electoral y en los órganos encargados del mismo, desacreditando a los opositores políticos, aumentando el riesgo de la impugnación de los resultados electorales y sembrando el malestar social (UNDP, 2023[103]); (International IDEA, 2024[104]). Según una encuesta de IPSOS y la UNESCO realizada en 16 países, donde se celebrarán elecciones generales en 2024, el 87 % de los encuestados expresó su preocupación por el impacto de la desinformación en las próximas elecciones de su país y el 47 % se mostró «muy preocupado» (IPSOS, UNESCO, 2023[105]). Además, un entorno cada vez más digital aporta tanto nuevos beneficios como nuevos peligros en el contexto de las elecciones. De hecho, la tecnología puede aumentar las oportunidades de los ciudadanos para encontrar información útil para sus decisiones de voto y fomentar la movilización de los votantes. Sin embargo y a la vez, las soluciones tecnológicas también se pueden utilizar para influir en el electorado mediante la difusión de desinformación, por ejemplo, a través de la amplificación artificial o los deepfakes generados por IA y la microfocalización política.
Como las elecciones suelen planificarse con antelación y sus fechas se conocen con mucha antelación, los propagadores de desinformación pueden tener tiempo para organizar operaciones sofisticadas. Además, las elecciones pueden ser consideradas como una «oportunidad ideal de alto impacto» para llevar a cabo sus operaciones de influencia informativa (Polyakova and Fried, 2019[106]). También es importante señalar que la aplicación de estrategias y actividades de interferencia electoral no requiere necesariamente que se produzcan impactos tangibles en los resultados de las elecciones para tener un impacto negativo: a veces, sembrar dudas sobre la legitimidad del candidato elegido puede lograr los resultados esperados por quienes interfieren. En este contexto, también es importante preparar una respuesta política para que las capacidades de detección puedan desplegarse lo antes posible con el fin de reducir el riesgo de interferencia. Dicho esto, es importante destacar que ninguna medida para hacer frente a la desinformación durante las elecciones debe interferir en los debates políticos legítimos ni justificar medidas desproporcionadas que restrinjan el libre flujo de información, incluido el bloqueo de contenidos o el acceso a Internet (UNESCO, 2022[107]).
Dado el papel que desempeñan los cargos electos, los candidatos y los partidos políticos en el ecosistema de la información, incluida la generación y amplificación de contenidos, y en algunos casos la amplificación de la desinformación, reiterar la importancia de la integridad de la información en las elecciones puede desempeñar un papel fundamental. Por ejemplo, el Código de Conducta para la Transparencia de la Publicidad Política en Línea elaborado por los Países Bajos en 2021 pretendía evitar la difusión de información engañosa durante las elecciones mediante el compromiso de las plataformas y los partidos políticos del reconocimiento de su responsabilidad en el mantenimiento de la integridad de las elecciones y de evitar la difusión de contenidos engañosos (Government of the Netherlands, 2021[7]).
Una respuesta a la amenaza de la manipulación de la información en el contexto de las elecciones incluye el desarrollo de una amplia gama de competencias gubernamentales, a menudo, mediante la creación de grupos de trabajo especializados, centrados en la justicia, la seguridad y la defensa nacionales, la comunicación pública, el desarrollo de la información y la gestión electoral, que deberían establecerse mucho antes de las elecciones previstas (véase Recuadro 2.8). Las partes interesadas en el proceso electoral, incluidos los organismos electorales independientes (OEI), los partidos políticos y candidatos, los periodistas y las organizaciones de la sociedad civil, deberían ser conscientes de los riesgos que plantea la desinformación para unas elecciones libres y justas.
Un enfoque esencial de los esfuerzos dedicados a contrarrestar la desinformación electoral se centra en facilitar la cooperación y la coordinación entre gobiernos para compartir información sobre las amenazas relevantes e implementar estrategias de respuesta adecuadas. La coordinación facilita que los organismos correspondientes trabajen juntos para tomar las medidas adecuadas dentro de la neutralidad política. Los gobiernos también pueden centrarse en fomentar la comprensión a largo plazo del público sobre los flujos y riesgos de la desinformación y mejorar la preparación antes de las elecciones. La educación cívica sobre el marco legal electoral de un país previene las lagunas de información, que pueden ser aprovechadas por los propagadores de desinformación. De manera más general, la educación electoral puede ayudar a salvaguardar la integridad electoral en cuestiones como las normas de financiación de campañas y publicidad.
Los esfuerzos del gobierno en este espacio también permiten reaccionar a corto plazo ante amenazas informativas inmediatas en el contexto de la desinformación electoral. En las recientes elecciones brasileñas, el poder judicial se coordinó con las plataformas digitales para facilitar el compromiso y el cumplimiento de las decisiones judiciales en torno a los contenidos ilegales. De este modo, el gobierno brasileño se esforzó por establecer canales de diálogo abiertos y ágiles durante los períodos electorales entre las plataformas digitales y las autoridades públicas, al tiempo que garantizaba que cualquier decisión tomada con respecto a la moderación de contenido se hiciera de manera transparente, pública y de acuerdo con las leyes del país.
Además, las oficinas gubernamentales y los grupos de trabajo pueden proporcionar información oportuna y fiable a los ciudadanos sobre cómo ejercer sus derechos, incluido el registro de votantes y los procedimientos de votación del día de las elecciones, particularmente en respuesta a campañas específicas de desinformación (International IDEA, 2023[108]).
Recuadro 2.8. Garantizar la integridad de la información durante las elecciones mediante equipos operativos especiales
El Grupo de Trabajo de Garantía de la Integridad Electoral – Australia
En Australia, el Grupo de Trabajo de Garantía de la Integridad Electoral (EIAT), compuesto por agencias de todo el gobierno federal, fue creado en 2018 para proporcionar información y asesoramiento al Comisionado Electoral Australiano sobre asuntos que puedan comprometer la integridad real o percibida de una elección o referéndum federal australiano. Las amenazas potenciales a la integridad electoral pueden venir en forma de incidentes cibernéticos o de seguridad física, de campañas de desinformación y a través de interferencias percibidas o reales en los procesos electorales. En particular, este grupo de trabajo se centra en remitir la información sobre las amenazas pertinentes a los organismos competentes de Australia y facilita la cooperación y la coordinación, lo que les permite trabajar juntos para adoptar las medidas adecuadas respetando al mismo tiempo la estricta neutralidad política.
El Grupo de Trabajo y su Junta están integrados por los siguientes organismos: Comisión Electoral Australiana, Departamento de Finanzas, Departamento del Primer Ministro y Gabinete, Departamento de Infraestructura, Transporte, Desarrollo Regional, Comunicaciones y Artes, Departamento del Fiscal General, Departamento del Interior, Policía Federal Australiana, Dirección de Señales de Australia, Centro Australiano de Informes y Análisis de Transacciones, Departamento de Relaciones Exteriores y Comercio, Organización Australiana de Inteligencia de Seguridad y Oficina de Inteligencia Nacional.
El trabajo de este grupo de trabajo también se complementa con campañas lideradas por la Junta Electoral Central (AEC) como “Stop and consider”, animando a los votantes a pensar críticamente sobre las fuentes de información electoral que ven u escuchan y a que los electores piensen de una manera crítica sobre las fuentes de información electoral que ven o escuchan, y el Registro de Desinformación de la Junta Electoral Central, centrado en la desinformación perjudicial relacionada exclusivamente con los aspectos de procedimiento de la celebración de elecciones y referendos.
Programa Permanente de Justicia Electoral contra la Desinformación – Brasil
El Tribunal Superior Electoral (TSE) de Brasil estableció en agosto de 2021 el Programa Permanente de Justicia Electoral contra la Desinformación, basándose en un programa similar creado en 2019 para prevenir y combatir la difusión de información falsa y desinformación sobre las elecciones de 2020.
Para responder a los desafíos que la desinformación impone a la integridad de las elecciones y a la democracia en general, el Programa adoptó un modelo de «red", que reúne a representantes de organismos gubernamentales, prensa y organizaciones de verificación de datos, proveedores de Internet, organizaciones de la sociedad civil, academia y partidos políticos. En la actualidad participan en dicha red 154 socios.
El Programa se centra en tres acciones: i) Informar: para difundir información oficial, fiable y de calidad relacionada con el proceso electoral; ii) Empoderar: para lograr la alfabetización mediática y el fomento de la comprensión social de las amenazas que plantea la difusión de la desinformación, así como la educación cívica sobre el funcionamiento del proceso electoral en el Brasil; y (iii) Responder: para identificar campañas de desinformación y contrarrestar sus efectos negativos.
Protocolo Público de Incidentes Electorales Críticos y Grupo de Trabajo de Amenazas a la Seguridad e Inteligencia para las Elecciones (SITE) – Canadá
En previsión de las elecciones de 2019, Canadá puso en marcha el Plan para la Protección de la Democracia de Canadá, que prevé medidas concretas para salvaguardar las instituciones y los procesos democráticos. El Plan se basa en cuatro pilares de acción: mejorar la preparación de los ciudadanos, mejorar la preparación organizativa, combatir la interferencia extranjera y construir un ecosistema de información saludable.
Como resultado de este Plan, Canadá estableció un Protocolo Público de Incidentes Electorales Críticos, que establece un proceso sencillo, claro e imparcial para notificar a los canadienses de una amenaza a la integridad de las Elecciones Generales.
Canadá también creó un Grupo de Trabajo de Amenazas a la Seguridad e Inteligencia para las Elecciones (SITE) con la función de identificar y prevenir que las actividades encubiertas, clandestinas o delictivas influyan o interfieran en el proceso electoral del Canadá. Las principales responsabilidades del Equipo de Trabajo son concienciar sobre las amenazas extranjeras al proceso electoral canadiense y preparar al Gobierno para evaluar dichas amenazas y reaccionar ante ellas, incluidas las campañas de desinformación. El Grupo de Trabajo está integrado por representantes del Establecimiento de Seguridad de las Comunicaciones, la Real Policía Montada de Canadá, Asuntos Globales de Canadá y el Servicio Canadiense de Inteligencia de Seguridad.
2.4.3. Los cambios introducidos por la inteligencia artificial generativa en el espacio de la información
Si bien la regulación basada en el riesgo se utiliza cada vez más para mitigar los riesgos del rol que juegan las plataformas en línea en la difusión de información (incluida la desinformación), este enfoque también debería tener en cuenta el papel de las herramientas y los sistemas de Inteligencia Artificial (IA), cómo afectan al espacio informativo y cómo se utilizan como herramientas de desinformación que socavan los derechos humanos, por ejemplo, silenciando a mujeres y miembros de comunidades marginadas que participan en la vida pública. El rápido desarrollo de sistemas avanzados de IA tiene, de hecho, el potencial de conducir a innovaciones que beneficien a las sociedades, al mismo tiempo que plantean nuevos riesgos (GPAI, 2023[112]).
En el espacio de la información, las herramientas generativas de IA19 pueden ayudar a identificar cuentas o patrones no auténticos, ayudando así a los gobiernos a mejorar su conocimiento de la situación en torno a las campañas de desinformación y complementando el trabajo de moderación de las plataformas digitales. Estas herramientas también pueden servir para apoyar el desarrollo de materiales y actividades educativas, así como para facilitar la traducción, los resúmenes y el análisis, lo que abarataría y facilitaría en gran medida estas actividades para funcionarios públicos, periodistas y actores de la sociedad civil (Landemore, 2023[113]).
La capacidad de la IA generativa para crear y difundir contenido altamente convincente también aumenta el riesgo que supone el rápido crecimiento de noticias falsas o engañosas de apariencia realista, artículos y medios visuales, lo que supone un riesgo adicional para la confianza de las personas en el espacio informativo, sobre todo, en línea. Además de la generación de contenido, la IA generativa también podría ayudar a crear una gran cantidad de perfiles falsos realistas en plataformas en línea, animar redes de cuentas falsas y superar las capacidades de detección creadas recientemente por gobiernos, plataformas u otros actores para identificar comportamientos coordinados no auténticos en las plataformas. Al reducir enormemente el coste y las barreras lingüísticas para crear textos o elementos visuales convincentes, y al hacer cada vez más difícil distinguir entre un contenido genuino de uno manipulado, las herramientas generativas de IA tienen el potencial de aumentar los desafíos ya introducidos por las plataformas en línea. Esta situación puede erosionar aún más la base de confianza que los individuos depositan en la información que consumen, generando un mayor escepticismo e incertidumbre.
Con ese fin, la Recomendación sobre Inteligencia Artificial de la OCDE pide a los actores de la IA que se comprometan con la transparencia y la divulgación responsable de los sistemas de IA para: 1) fomentar una comprensión general de los sistemas de IA; 2) garantizar que las partes interesadas estén al tanto de sus interacciones con los sistemas de IA, incluso en el lugar de trabajo; 3) permitir que los afectados por un sistema de IA comprendan el resultado; y 4) permitir a los afectados negativamente por un sistema de IA impugnar su resultado y entender la lógica que sirvió como base para la predicción, recomendación o decisión (OECD, 2019[114]).
En cuanto al impacto potencial en el espacio de información más específicamente, resulta útil centrarse en las herramientas de IA generativa (en contraposición al universo más amplio de aplicaciones de IA y los efectos relacionados con las armas autónomas, la tecnología de reconocimiento facial, los vehículos autónomos y los impactos económicos). Las políticas podrían considerar exigir que los sistemas de IA generativa orientados al consumidor hagan públicos los datos de entrenamiento utilizados para construir los sistemas, garantizando que los principios utilizados para guiar las herramientas estén disponibles para permitir la comparación entre herramientas y la supervisión pública de las salvaguardias que los sistemas han implementado (o no, según el caso), y la marca de agua del contenido producido (Giansiracusa, 2023[115]).
En este sentido, la propuesta de Reglamento relativo a la IA de la UE, actualmente en discusión, sigue un enfoque basado en el riesgo y establece obligaciones para proveedores y usuarios en función del nivel de riesgo que pueda generar la IA. Por un lado, el Reglamento europeo relativo a la IA tratará de prohibir los sistemas de IA con un «nivel inaceptable de riesgo para la seguridad de las personas», incluidos los sistemas que «emplean técnicas subliminales o deliberadamente manipuladoras, explotan las vulnerabilidades de las personas o se utilizan para la puntuación social (clasificación de las personas en función de su comportamiento social, situación socioeconómica, características personales, etc.)» (European Parliament, 2023[116]). El Reglamento también exigiría la creación de planes de evaluación y mitigación de riesgos, y requeriría que las herramientas de IA generativa sigan requisitos de transparencia, como revelar qué contenido ha sido generado mediante IA. Asimismo, el Reglamento relativo a la IA de la UE también exigiría que las herramientas se diseñen para prevenir la generación de contenido ilegal y para publicar resúmenes de los datos con derechos de autor utilizados para el entrenamiento (European Parliament, 2023[116]). El enfoque de la UE en este espacio ilustra cómo la aplicación de un enfoque basado en el riesgo puede servir de base para otras respuestas regulatorias a tecnologías, que desempeñan un papel importante en el espacio informativo más allá de las plataformas de redes sociales y en línea. Del mismo modo, los gobiernos han tratado de contrarrestar los riesgos que plantean las falsificaciones profundas (deepfakes), contenido de audio o visual que parece auténtico pero que en realidad es sintético o manipulado.
Los deepfakes representan un riesgo de desinformación al presentar imágenes y audio creíbles, aunque falsos. Si bien los medios sintéticos no son nuevos, el acceso a la tecnología, la escala, la velocidad y la calidad de las falsificaciones profundas ha aumentado la atención sobre el papel de las respuestas políticas. Muchos de los esfuerzos para prevenir los riesgos que plantean las falsificaciones profundas buscan mejorar la transparencia en torno al contenido en sí y a los procesos que siguen los sistemas para ayudar a validar la procedencia y la precisión, así como para aprovechar las restricciones legales existentes sobre el uso del contenido. Un enfoque centrado en la transparencia puede evitar una regulación excesiva que pueda limitar el uso de la tecnología para la libertad de expresión protegida, como la sátira. En este sentido, el Código de Conducta Reforzado sobre Desinformación de la UE de 2022 obliga a los signatarios que desarrollan u operan sistemas de IA a informar sobre sus políticas para contrarrestar las prácticas manipuladoras prohibidas que generan o manipulan contenido (como los deepfakes). Además, muchas de las leyes aprobadas en los estados de EE. UU. se han centrado en la pornografía deepfake no consensual, dados los claros perjuicios que causa y los beneficios limitados para la libertad de expresión. En este sentido, nueve estados han promulgado leyes que regulan las falsificaciones profundas, principalmente en el contexto de la pornografía y la influencia en las elecciones (Poritz, 2023[117]). Además, en 2023, la Oficina del Presidente de Estados Unidos emitió una Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, destinada a proteger a las personas frente al «fraude y el engaño generado con AI mediante el establecimiento de estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial (U.S. White House, 2023[118])».
En última instancia, un enfoque basado en el riesgo consistente en la identificación, análisis y priorización de los riesgos correspondientes podría ayudar a garantizar que la regulación sea específica y proporcional, y que no introduzca normas gravosas con poco impacto positivo (OECD, 2021[14]). En el ámbito de la información, este enfoque tiene como objetivo comprender mejor, marcar y mitigar de manera proactiva los riesgos planteados por los actores relevantes, y alentar o exigir a los actores que implementen mecanismos y procesos que limiten los riesgos que plantea la desinformación y fomenten la confianza en el espacio de la información.
2.5. Consideraciones y el camino a seguir
Las comunicaciones digitales y las plataformas en línea han alterado la forma en que se crea y comparte la información, así como los modelos económicos que sustentan el espacio de la información. Las plataformas en línea han facilitado la difusión de información polarizadora, sensacionalista y falsa o engañosa, mientras operan en entornos regulatorios incipientes. El alcance global de estas plataformas supera las jurisdicciones normativas nacionales (e incluso supranacionales). Al mismo tiempo, los regímenes voluntarios de autorregulación y de corregulación son limitados, ya que permiten a algunos actores eludir las obligaciones, lo que subraya la importancia de la participación de los gobiernos en el diseño, la aplicación y la actualización de las respuestas normativas según corresponda.
Si se hace de una forma adecuada y con el objetivo de apoyar la participación democrática, la salud, la transparencia y la competitividad de los espacios de la información, pueden verse respaldados por una formulación de políticas adecuada, eficaz y ágil. Con ese fin, las políticas para promover la transparencia y la rendición de cuentas de las plataformas en línea son una opción para ayudar a comprender sus modelos de negocio y los riesgos relacionados para los procesos democráticos, contribuir a mitigar las amenazas, incluidas las que plantea la manipulación informativa y la injerencia por parte de agentes extranjeros, y fomentar unos espacios de la información más saludables.
Además de centrarse en las plataformas en línea, unos medios de comunicación fuertes, pluralistas y diversos, y con unos periodistas sólidos constituyen una base para reforzar la integridad de la información y un componente esencial de la democracia. Además, para reforzar la integridad de la información es necesario promover la transparencia y la salud de estos espacios mediante el diseño, el monitoreo y la implementación eficaces de las políticas correspondientes. Al proporcionar unas fuentes de contenidos basados en hechos y pruebas, e informadas por estándares de calidad profesional, tanto los periodistas como el sector de los medios de comunicación en general -incluidos los medios de comunicación nacionales, locales y comunitarios y las múltiples fuentes en línea y fuera de línea- pueden contrarrestar el impacto de la desinformación y la información errónea, y contribuir al debate público en la democracia. Sin embargo, el papel de estas fuentes de noticias e información en las democracias continúa afrontando los cambios y desafíos exacerbados por el desarrollo de las tecnologías de comunicación en línea y por el papel que las plataformas de las redes sociales han desempeñado en la configuración del entorno de la información.
Así pues, esta nueva toma de conciencia sugiere que los gobiernos deben perseguir los siguientes objetivos para fortalecer el papel positivo de los medios de comunicación y de las plataformas en línea en el espacio de la información:
Defender unos medios de comunicación libres, independientes y diversos como componente esencial de las sociedades abiertas y democráticas. Además del marco jurídico que garantiza la libertad de opinión y de expresión, los gobiernos deben proteger a los periodistas, los trabajadores de los medios de comunicación y los investigadores, y supervisar, investigar y facilitar el acceso a la justicia en el caso de amenazas y de ataques contra ellos. Otras acciones que se pueden adoptar son crear planes de acción nacionales para la seguridad de los periodistas, colaborar con los consejos de prensa y mapear y monitorear los riesgos y amenazas.
Diseñar políticas para reforzar un mercado diverso, pluralista e independiente para los medios de comunicación tradicionales. Limitar la concentración del mercado, promover la transparencia y la diversidad de los medios de comunicación y exigir la independencia editorial pueden desempeñar un papel importante en la prevención de la influencia indebida de intereses políticos y comerciales.
Apoyar a los medios de comunicación públicos independientes y de alta calidad. Estos medios suelen estar entre las fuentes de noticias más fiables y pueden desempeñar un papel importante en las democracias como proveedores de noticias y de información independientes, de calidad y fiables.
También se deberían explorar medidas de apoyo financiero directo e indirecto -incluidos los regímenes fiscales especiales y la financiación específica- a los medios de comunicación que cumplan con determinados criterios específicos y que contribuyan al logro de objetivos democráticos tales como el refuerzo del periodismo local, comunitario, cultural, en lenguas minoritarias o de investigación. Los gobiernos también deben reconocer la naturaleza distintiva de los medios comunitarios sin fines de lucro y garantizar su independencia. El fortalecimiento de los medios de comunicación diversos e independientes también es un componente importante del apoyo internacional y de la ayuda al desarrollo. Sin embargo, a lo largo de todas estas iniciativas, los gobiernos deben establecer reglas claras y transparentes para la asignación de fondos y proporcionar información sobre los subsidios, la financiación y las actividades de proyectos. Dichos procesos deben ser diseñados para mostrar y garantizar que los gobiernos no tienen un impacto directo en el desarrollo de contenidos, y para ayudar a prevenir el sesgo político en la selección de la financiación.
Evitar restringir indebidamente el discurso mediante normativas reguladoras de los contenidos demasiado amplias, que no cumplan con unos criterios estrictos, transparentes y objetivamente definidos, que estén en consonancia con las obligaciones y compromisos internacionales en materia de derechos humanos del Estado. Esto es especialmente importante, dadas las dificultades para definir la «desinformación» y el riesgo de que legislar sobre contenidos «legales pero dañinos» limite la libertad de expresión.
Reconocer el papel que desempeñan las protecciones de la responsabilidad de los intermediarios en el fomento de un Internet libre y abierto, así como en el equilibrio de las responsabilidades de las plataformas para abordar las preocupaciones legítimas en torno a contenidos falsos, engañosos y perjudiciales o ilegales.
Aumentar la transparencia y la responsabilidad, incluso mediante esfuerzos reguladores cuando así proceda, de los actores relevantes para comprender mejor y mitigar los impactos potenciales y reales de las herramientas de IA generativa con respecto a la desinformación. Tal enfoque será especialmente importante debido a la novedad, la rápida evolución y la incertidumbre relacionada con cómo y en qué medida estas nuevas tecnologías vayan a incrementar los desafíos de la confianza en el espacio de la información. Para generar confianza, será necesario comprender los principios que guían el desarrollo y la aplicación de las herramientas de IA generativa; mejorar la transparencia de los conjuntos de datos utilizados en su diseño; marcar con marca de agua el contenido generado por IA; y exigir pruebas, identificación y mitigación de riesgos, así como su supervisión. Paralelamente, restringir los usos de deepfakes en algunos contextos específicos y bien definidos, como los procesos relacionados con la administración electoral, también podría contribuir a mitigar la amenaza que representan los contenidos falsos y engañosos.
Mejorar la transparencia y el intercambio de información en torno a las políticas, el desarrollo de políticas, los procesos y las decisiones de las plataformas en línea, para permitir una mejor comprensión de sus operaciones y de los impactos de los modelos de negocio, las medidas de mitigación de riesgos y los algoritmos, según corresponda. Establecer mecanismos, incluidos los mecanismos regulatorios, según proceda, para aumentar las declaraciones de divulgación de las plataformas acerca de sus condiciones de servicio, los esfuerzos para prevenir y abordar los impactos en los derechos humanos y las políticas de privacidad; los procedimientos, directrices y herramientas que informan la moderación de contenidos y la toma de decisiones algorítmicas, así como los procesos de tramitación de quejas pueden ayudar a los usuarios a comprender mejor el tratamiento de los datos y la aplicación de las normas. Esta información también puede fomentar la responsabilidad de la plataforma frente los usuarios, ya que el escrutinio público puede reforzar las acciones positivas para abordar los impactos adversos, al tiempo que pone de relieve los posibles sesgos, los riesgos para los derechos humanos o las prácticas desleales. Facilitar la estandarización de dicha información también puede fomentar la creación de mejores prácticas para el desarrollo de políticas e informar sobre las formas de medir el impacto de dichas intervenciones.
Facilitar un mayor acceso a los datos para que los académicos, periodistas y otros investigadores puedan comprender mejor cómo se difunden los contenidos a través de las plataformas y en todo el espacio de la información, incluso mediante requisitos regulatorios, según proceda. El análisis de datos públicos (no publicaciones o mensajes privados) que no incluyan información de identificación personal también podría generar conocimientos sobre el comportamiento en línea y los patrones y los cambios a lo largo del tiempo, facilitando así la evaluación del impacto de las políticas. También podría promover la responsabilidad el hecho de permitir que los gobiernos y los investigadores independientes verifiquen y confirmen las divulgaciones públicas de las plataformas, incluso en torno a la publicidad política. Promover mecanismos de información estandarizados, exigir que se tomen medidas para garantizar que la investigación se realice con fines legítimos y que los investigadores implementen protecciones de privacidad y seguridad serán esfuerzos importantes para garantizar la investigación de calidad y ayudar a prevenir abusos.
Aplicar políticas para contrarrestar la interferencia maliciosa extranjera en el espacio de la información. Aplicar las políticas diseñadas para contrarrestar, cuando corresponda, la interferencia extranjera a las tecnologías de comunicación en línea es una vía útil para generar confianza. Al dar a conocer la identidad de los agentes extranjeros y los propietarios de los medios de comunicación, estos esquemas pueden ayudar a esclarecer las actividades de comunicación encubiertas y potencialmente maliciosas.
Salvaguardar la integridad de la información en los periodos de elecciones democráticas. En este entorno informativo tan cambiante será fundamental establecer mecanismos para monitorear las amenazas específicas y proporcionar información oportuna y fiable a los ciudadanos para que puedan ejercer sus derechos. La disponibilidad de una información de alta calidad, adaptada a las comunidades específicas en riesgo y relativa a las amenazas identificadas, permitirá a los gobiernos evitar las lagunas informativas que puedan ser explotadas por los propagadores de información falsa.
Identificar los factores económicos que incentivan la entrada de nuevos actores, la innovación y la portabilidad de los datos para estimular la competencia entre las plataformas en línea, pudiendo así alentar las respuestas basadas en el mercado para apoyar un mejor funcionamiento de los espacios de la información.
Referencias
[65] AECID (2023), “Democracy Programme”, Spanish Agency for Development Cooperation, https://www.aecid.es/programa-democracia.
[64] AFD (2022), “Comment le groupe AFD contribue à la liberté d’information dans le monde”, Agence française de développement, https://www.afd.fr/fr/actualites/comment-le-groupe-afd-contribue-la-liberte-dinformation-dans-le-monde.
[74] American Economic Liberties Project (2021), Big Tech Merger Tracker, https://www.economicliberties.us/big-tech-merger-tracker/.
[78] Australian Competition and Consumer Commission (2020), Draft news media bargaining code, https://www.accc.gov.au/by-industry/digital-platforms-and-services/news-media-bargaining-code/news-media-bargaining-code.
[24] Australian Competition and Consumer Commission (2019), Digital Platforms Inquiry Final Report, https://www.accc.gov.au/system/files/Digital%20platforms%20inquiry%20-%20final%20report.pdf.
[109] Australian Electoral Commission (2023), Electoral Integrity Assurance Taskforce, https://www.aec.gov.au/about_aec/electoral-integrity.htm (accessed on 31 August 2023).
[25] Australian Government (2023), Communications Legislation Amendment (Combatting Misinformation and Disinformation) Bill 2023—guidance note, Australian Government - Department of Infrastructure, Transport, Regional Development, Communications and the Arts, https://www.infrastructure.gov.au/department/media/publications/communications-legislation-amendment-combatting-misinformation-and-disinformation-bill-2023-guidance.
[86] Australian Government Attorney-General’s Department (2019), Foreign Influence Transparency Scheme. Factsheet 2 “What is the difference between ’foreign influence’ and ’foreign interference’?”, https://www.ag.gov.au/sites/default/files/2020-03/influence-ve.
[80] Autorité de la concurrence (2020), Related rights: the Autorité has granted requests for urgent interim measures presented by press publishers and the news agency AFP (Agence France Presse).
[5] Baldwin, R., M. Cave and M. Lodge (2011), Understanding Regulation, Oxford University Press, https://doi.org/10.1093/acprof:osobl/9780199576081.001.0001.
[55] Bleyer-Simon, K. and I. Nenadić (2021), News Media Subsidies in the First Wave of the COVID-19 Pandemic – A European Perspective.
[30] Brennen, J. and M. Perault (2021), How to increase transparency for political ads on social media, Brookings, https://www.brookings.edu/articles/how-to-increase-transparency-for-political-ads-on-social-media/.
[94] Cadier et al. (2022), Russia-Ukraine Disinformation Tracking Center, https://www.newsguardtech.com/special-reports/russian-disinformation-tracking-center/.
[21] Campbell, A. (2019), How data privacy laws can fight fake news, https://www.justsecurity.org/65795/how-data-privacy-laws-can-fight-fake-news/.
[63] CFI (2023), “Our mission”, Canal France International, https://cfi.fr/en/content/our-mission.
[60] Chapman, M., N. Bellardi and H. Peissl (2020), Media literacy for all: Supporting marginalised groups through community media.
[53] Council of Europe (2023), Good practices for sustainable news media financing, https://rm.coe.int/msi-res-2022-08-good-practices-for-sustainable-media-financing-for-sub/1680adf466.
[11] Council of Europe (2021), Content Moderation: Best practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of content moderation, https://rm.coe.int/content-moderation-en/1680a2cc18.
[50] Council of Europe (2018), Recommendation CM/Rec(2018)1 of the Committee of Ministers to member States on media pluralism and transparency of media ownership, https://www.coe.int/en/web/freedom-expression/adopted-texts/-/asset_publisher/m4TQxjmx4mYl/content/recommendation-cm-rec-2018-1-1-of-the-committee-of-ministers-to-member-states-on-media-pluralism-and-transparency-of-media-ownership.
[37] Council of Europe (2016), Recommendation CM/Rec(2016)4 of the Committee of Ministers to member States on the protection and journalism and safety of journalists and other media actors, https://www.coe.int/en/web/freedom-expression/committee-of-ministers-adopted-texts/-/asset_publisher/aDXmrol0vvsU/content/recommendation-cm-rec-2016-4-of-the-committee-of-ministers-to-member-states-on-the-protection-of-journalism-and-safety-of-journalists.
[48] Craufurd Smith, R., B. Klimkiewicz and A. Ostling (2021), “Media ownership transparency in Europe: Closing the gap between European aspiration and domestic reality”, European Journal of Communication, Vol. 36(6), pp. 547–562, https://doi.org/10.1177/0267323121999523.
[98] Danvers, W. (2023), Disinformation may be one of Russia and China’s greatest weapons, https://thehill.com/opinion/national-security/3932031-disinformation-may-be-one-of-russia-and-chinas-greatest-weapons/.
[19] Douek, E. (2021), “Governing Online Speech: From “Posts-as-Trumps” to Proportionality and Probability”, Columbia Law Review, Vol. 121/No. 3, https://columbialawreview.org/content/governing-online-speech-from-posts-as-trumps-to-proportionality-and-probability/.
[83] EEAS (2024), 2nd EEAS Report on Foreign Information Manipulation and Interference Threats: A Framework for Networked Defence, https://www.eeas.europa.eu/eeas/2nd-eeas-report-foreign-information-manipulation-and-interference-threats_en.
[89] EEAS (2023), 1 st EEAS Report on Foreign Information Manipulation and Interference Threats: Towards a framework for networked defence, https://www.eeas.europa.eu/sites/default/files/documents/2023/EEAS-DataTeam-ThreatReport-2023..pdf.
[41] Ellger, F. et al. (2021), Local Newspaper Decline and Political Polarization - Evidence from a Multi-Party Setting, Center for Open Science, https://doi.org/10.31219/osf.io/nhwxs.
[59] ERR (2023), Estonian Russian-language private media receive €1 million from state, https://news.err.ee/1608898790/estonian-russian-language-private-media-receive-1-million-from-state.
[45] European Audiovisual Observatory (2016), Media ownership - Market realities and regulatory responses, https://rm.coe.int/media-ownership-market-realities-and-regulatory-responses/168078996c.
[9] European Commission (2023), Code of Practice on Disinformation: New Transparency Centre provides insights and data on online disinformation for the first time, https://ec.europa.eu/commission/presscorner/detail/en/mex_23_723.
[52] European Commission (2022), European Media Freedom Act: Commission proposes rules to protect media pluralism and independence in the EU, https://ec.europa.eu/commission/presscorner/detail/en/ip_22_5504.
[22] European Council (2022), The General Data Protection Regulation, https://www.consilium.europa.eu/en/policies/data-protection/data-protection-regulation/.
[49] European Court of Human Rights (2001), Thoma v. Luxembourg.
[87] European External Action Service (2023), 1st EEAS Report on Foreign Information Manipulation and Interference Threats. Towards a framework for networked defence, https://www.eeas.europa.eu/sites/default/files/documents/2023/EEAS-DataTeam-ThreatReport-2023.pdf.
[70] European Federation of Journalists (2023), Local Media for Democracy, https://europeanjournalists.org/local-media-for-democracy/.
[116] European Parliament (2023), AI Act: a step closer to the first rules on Artificial Intelligence, https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence.
[85] European Parliament (2023), Legal loopholes and the risk of foreign interference. In depth-analysis requested by the ING2 special committee, https://www.europarl.europa.eu/RegData/etudes/IDAN/2023/702575/EXPO_IDA(2023)702575_EN.pdf.
[13] European Union (2022), Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act), Publications Office of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/?ur.
[51] FATF (2023), Guidance on Beneficial Ownership for Legal Persons, Financial Action Task Force, Paris, https://www.fatf-gafi.org/en/publications/Fatfrecommendations/Guidance-Beneficial-Ownership-Legal-Persons.html.
[54] Forum on Information and Democracy (2021), A New Deal for Journalism, https://informationdemocracy.org/wp-content/uploads/2021/06/ForumID_New-Deal-for-Journalism_16Jun21.pdf.
[27] Forum on Information and Democracy (2020), Working Group on Infodemics: Policy Framework, https://informationdemocracy.org/wp-content/uploads/2020/11/ForumID_Report-on-infodemics_101120.pdf.
[57] Gazzetta Ufficiale (2023), LEGGE 30 dicembre 2023, n. 213., https://www.gazzettaufficiale.it/eli/gu/2023/12/30/303/so/40/sg/pdf.
[115] Giansiracusa, N. (2023), Three Easy Ways to Make Chatbots Safer, https://www.scientificamerican.com/article/three-easy-ways-to-make-ai-chatbots-safer/.
[66] GIZ (2022), Support to Media Freedom and Pluralism in the Western Balkans, https://www.giz.de/en/worldwide/114194.html.
[26] Goldman, E. (2022), “The Constitutionality of Mandating Editorial Transparency”, Hastings Law JournalHa, Vol. 75/5, https://repository.uclawsf.edu/cgi/viewcontent.cgi?article=3985&context=hastings_law_journal.
[10] Government of Australia (2024), “Online misinformation”, Australian Communications and Media Authority, https://www.acma.gov.au/online-misinformation.
[102] Government of Australia (2023), Foreign Influence Transparency Scheme, https://www.ag.gov.au/integrity/foreign-influence-transparency-scheme.
[79] Government of Australia - The Treasury (2022), News Media and Digital Platforms Mandatory Bargaining Code: The Code’s first year of operation, https://treasury.gov.au/publication/p2022-343549.
[111] Government of Canada (2023), Rapid Response Mechanism Canada: Global Affairs Canada, https://www.international.gc.ca/transparency-transparence/rapid-response-mechanism-mecanisme-reponse-rapide/index.aspx?lang=eng.
[81] Government of Canada (2023), The Online News Act, https://laws-lois.justice.gc.ca/eng/acts/O-9.3/.
[110] Government of Canada (2021), Security and Intelligence Threats to Elections (SITE) Task Force, https://www.canada.ca/en/democratic-institutions/services/protecting-democracy/security-task-force.html (accessed on 31 August 2023).
[44] Government of France (2022), Concentration in the media sector in the digital era: From legal rules to regulation - Executive Summary, https://www.igf.finances.gouv.fr/files/live/sites/igf/files/contributed/IGF%20internet/2.RapportsPublics/2022/Executive_summary_anti_concentration.pdf.
[58] Government of Ireland (2022), Report of the Future of Media Commission, https://www.gov.ie/pdf/?file=https://assets.gov.ie/229731/2f2be30d-d987-40cd-9cfe-aaa885104bc1.pdf#page=null.
[47] Government of Norway (2016), Act relating to transparency of media ownership, https://lovdata.no/dokument/NLE/lov/2016-06-17-64.
[7] Government of the Netherlands (2021), Dutch Code of Conduct Transparency Online Political Advertisements, https://www.idea.int/sites/default/files/news/news-pdfs/Dutch-Code-of-Conduct-transparency-online-political-advertisements-EN.pdf.
[46] Government of the UK (2003), Communications Act 2003, https://www.legislation.gov.uk/ukpga/2003/21/section/375.
[112] GPAI (2023), Global Partnership on Artificial Intelligence - 2023 Ministerial Declaration, https://gpai.ai/2023-GPAI-Ministerial-Declaration.pdf.
[42] Grand Duchy of Luxembourg (2023), Loi du 7 août 2023 portant modification: 1) du Code pénal; 2) du Code de procédure pénale, https://legilux.public.lu/eli/etat/leg/loi/2023/08/07/a516/jo.
[56] Grand Duchy of Luxembourg (2021), Law of 30 July on an aid scheme in favour of professional journalism, https://legilux.public.lu/eli/etat/leg/loi/2021/07/30/a601/jo/en.
[104] International IDEA (2024), Protecting Elections in the Face of Online Malign Threats.
[108] International IDEA (2023), “The Information Environment Around Elections”, https://www.idea.int/theme/information-communication-and-technology-electoral-processes/information-environment-around-elections.
[105] IPSOS, UNESCO (2023), Survey on the impact of online disinformation and hate speech.
[17] Keller, D. (2019), Build Your Own Intermediary Liability Law: A Kit for Policy Wonks of All Ages, Center for Internet and Society, Stanford Law School, https://cyberlaw.stanford.edu/publications/build-your-own-intermediary-liability-law-kit-policy-wonks-all-ages.
[4] Lai, S., N. Shiffman and A. Wanless (2023), Operational Reporting By Online Services: A Proposed Framework, https://carnegieendowment.org/files/202305-Operational_Reporting-final.pdf.
[113] Landemore, H. (2023), “Fostering More Inclusive Democracy with AI”, Finance and Development, Vol. 60/4, pp. 12-14, https://www.scribd.com/document/689545094/What-AI-Means-for-Economics-By-IMF.
[28] Lenhart, A. (2023), A Vision for Regulatory Harmonization to Spur International Research, Lawfare, https://www.lawfareblog.com/vision-regulatory-harmonization-spur-international-research.
[6] Lim, G. and S. Bradshaw (2023), Chilling Legislation: Tracking the Impact of “Fake News” Laws on Press Freedom Internationally, Center for International Media Assistance, https://www.cima.ned.org/publication/chilling-legislation/#cima_footnote_3.
[8] Lomas, N. (2023), Elon Musk takes Twitter out of the EU’s Disinformation Code of Practice, https://techcrunch.com/2023/05/27/elon-musk-twitter-eu-disinformation-code/.
[23] MacCarthy, M. (2021), How online platform transparency can improve content moderation and algorithmic performance, Brookings, https://www.brookings.edu/articles/how-online-platform-transparency-can-improve-content-moderation-and-algorithmic-performance/.
[40] Medill Local News Initiative (2023), The State of Local News: The 2023 Report, https://localnewsinitiative.northwestern.edu/projects/state-of-local-news/2023/report/.
[82] Meta (2023), Changes to News Availability on our Platforms in Canada, https://about.fb.com/news/2023/06/changes-to-news-availability-on-our-platforms-in-canada/.
[73] Nadler, J. and D. Cicilline (2020), Investigation of Competition in Digital Markets, https://judiciary.house.gov/uploadedfiles/competition_in_digital_markets.pdf?utm_campaign=4493-519.
[43] Nelson, M. (2017), What is to be done? Options for combating the menace of media capture, Center for International Media Assistance, https://www.cima.ned.org/wp-content/uploads/2015/02/Capture12_CombatingMenace-of-Media-Capture.pdf.
[2] Newman, N. et al. (2023), Digital News Report 2023, Reuters Institute, https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2023-06/Digital_News_Report_2023.pdf.
[76] Nielsen, R. and S. Ganter (2018), “Dealing with digital intermediaries: A case study of the relations between publishers and platforms”, Media & Society, Vol. 20/4, https://journals.sagepub.com/doi/full/10.1177/1461444817701318.
[62] OECD (2024), Mapping and analysis of ODA to media and the integrity of information environments.
[3] OECD (2022), Building Trust and Reinforcing Democracy: Preparing the Ground for Government Action, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/76972a4a-en.
[34] OECD (2022), Building Trust to Reinforce Democracy: Main Findings from the 2021 OECD Survey on Drivers of Trust in Public Institutions, Building Trust in Public Institutions, OECD Publishing, Paris, https://doi.org/10.1787/b407f99c-en.
[75] OECD (2022), “Digital enablers of the global economy: Background paper for the CDEP Ministerial meeting”, OECD Digital Economy Papers, No. 337, OECD Publishing, Paris, https://doi.org/10.1787/f0a7baaf-en.
[91] OECD (2022), “Disinformation and Russia’s war of aggression against Ukraine: Threats and governance responses”, OECD Policy Responses on the Impacts of the War in Ukraine, OECD Publishing, Paris, https://doi.org/10.1787/37186bde-en.
[72] OECD (2022), Handbook on Competition Policy in the Digital Age, OECD, Paris, https://www.oecd.org/daf/competition-policy-in-the-digital-age/.
[20] OECD (2022), The Protection and Promotion of Civic Space: Strengthening Alignment with International Standards and Guidance, OECD Publishing, Paris, https://doi.org/10.1787/d234e975-en.
[77] OECD (2021), Competition Issues concerning News Media and Digital Platforms, https://web-archive.oecd.org/2021-11-19/616885-competition-issues-concerning-news-media-and-digital-platforms-2021.pdf.
[14] OECD (2021), OECD Regulatory Policy Outlook 2021, OECD Publishing, Paris, https://doi.org/10.1787/38b0fdb1-en.
[71] OECD (2019), Going Digital: Shaping Policies, Improving Lives, OECD Publishing, Paris, https://doi.org/10.1787/9789264312012-en.
[114] OECD (2019), “Recommendation of the Council on Artificial Intelligence”, OECD Legal Instruments, OECD/LEGAL/0449, OECD, Paris, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
[32] OECD (2014), Accountability and Democratic Governance: Orientations and Principles for Development, DAC Guidelines and Reference Series, OECD Publishing, Paris, https://doi.org/10.1787/9789264183636-en.
[18] OECD (2011), The Role of Internet Intermediaries in Advancing Public Policy Objectives, OECD Publishing, Paris, https://doi.org/10.1787/9789264115644-en.
[84] Office of the Director of National Intelligence (2023), 2023 Annual Threat Assessment Report, https://www.dni.gov/files/ODNI/documents/assessments/ATA-2023-Unclassified-Report.pdf.
[96] Official Journal of the European Union (2022), COUNCIL DECISION (CFSP) 2022/2478 amending Decision 2014/512/CFSP concerning restrictive measures in view of Russia’s actions destabilising the situation in Ukraine, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=uriserv:OJ.LI.2022.322.01.0614.01.ENG.
[61] OSCE (2019), The Tallinn Guidelines on National Minorities and the Media in the Digital Age, https://www.osce.org/files/OSCE-Tallinn-guidelines-online%203.pdf.
[106] Polyakova, A. and D. Fried (2019), Democratic defense against disinformation 2.0.
[117] Poritz, I. (2023), States Are Rushing to Regulate Deepfakes as AI Goes Mainstream, https://www.bloomberg.com/news/articles/2023-06-20/deepfake-porn-political-ads-push-states-to-curb-rampant-ai-use.
[1] Quétier-Parent, S., D. Lamotte and M. Gallard (2023), Elections & social media: the battle against disinformation and trust issues, Ipsos – UNESCO Study on the impact of online disinformation during election campaigns, https://www.ipsos.com/en/elections-social-media-battle-against-disinformation-and-trust-issues.
[33] RSF (2023), 2023 World Press Freedom Index – journalism threatened by fake content industry, https://rsf.org/en/2023-world-press-freedom-index-journalism-threatened-fake-content-industry.
[35] RSF (2020), RSF’s 2020 Round-up: 50 journalists killed, two-thirds in countries “at peace”, https://rsf.org/en/news/rsfs-2020-round-50-journalists-killed-two-thirds-countries-peace.
[29] Scott, M. (2023), I have a plan to fix social media, https://www.politico.eu/newsletter/digital-bridge/i-have-a-plan-to-fix-social-media/.
[16] Shmon, C. and H. Pederson (2022), Platform Liability Trends Around the Globe: From Safe Harbors to Increased Responsibility, https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-safe-harbors-increased-responsibility.
[15] Shmon, C. and H. Pederson (2022), Platform Liability Trends Around the Globe: Recent Noteworthy Developments, https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-recent-noteworthy-developments.
[12] State of California (2018), Senate Bill No. 1001, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180SB1001.
[39] Sweney, M. (2023), ‘The model is broken’: UK’s regional newspapers fight for survival in a digital world, https://www.theguardian.com/media/2023/mar/26/regional-newspapers-fight-for-survival-in-a-digital-world.
[92] The Moscow Times (2022), Billions for propaganda. Budget spending on state media tripled against the backdrop of the war, https://www.moscowtimes.ru/2022/04/12/milliardi-na-propagandu-rashodi-byudzheta-na-gossmi-podskochili-vtroe-na-fone-voini-a19511.
[31] The Times of Israel (2019), Election judge bars anonymous internet ads despite Likud objection, https://www.timesofisrael.com/election-judge-bars-anonymous-internet-adds-despite-likud-objection/.
[99] The United States Department of Justice (2023), Foreign Agents Registration Act, https://www.justice.gov/nsd-fara.
[100] The United States Department of Justice (2022), Court finds RM broadcasting must register as a foreign agent, https://www.justice.gov/opa/pr/court-finds-rm-broadcasting-must-register-foreign-agent.
[101] The United States Department of Justice (2021), Grand Jury Indicts Thirteen Russian Individuals and Three Russian Companies for Scheme to Interfere in the United States Political System, https://www.justice.gov/opa/pr/grand-jury-indicts-thirteen-russian-individuals-and-three-russian-companies-scheme-interfere.
[95] U.S. Department of State (2023), How the People’s Republic of China Seeks to Reshape the Global Information Environment, https://www.state.gov/gec-special-report-how-the-peoples-republic-of-china-seeks-to-reshape-the-global-information-environment/.
[90] U.S. Department of State (2020), GEC Special Report: Pillars of Russia’s Disinformation and Propaganda Ecosystem, https://www.state.gov/wp-content/uploads/2020/08/Pillars-of-Russia%E2%80%99s-Disinformation-and-Propaganda-Ecosystem_08-04-20.pdf.
[118] U.S. White House (2023), Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/.
[103] UNDP (2023), Promoting information integrity in elections.
[107] UNESCO (2022), Elections in Digital Times: A Guide for Electoral Practitioners.
[69] UNESCO (2022), Finding the funds for journalism to thrive: policy options to support media viability, United Nations Educational, Scientific and Cultural Organization.
[36] UNESCO (2021), UNESCO observatory of killed journalists,, United Nations Educational, Scientific and Cultural Organization, https://en.unesco.org/themes/safety-journalists/observatory?field_journalists_date_killed_value%5Bmin%5D%5Byear%5D=2022&field_journalists_date_killed_value%5Bmax%5D%5Byear%5D=2022&field_journalists_gender_value_i18n=All&field_journalists_nationality_tid_i.
[88] United States Department of Homeland Security (2018), Foreign Interference Taxonomy, https://www.cisa.gov/sites/default/files/publications/foreign_interference_taxonomy_october_15.pdf.
[38] United States Department of Justice (2022), Recent FARA Cases, https://www.justice.gov/nsd-fara/recent-cases.
[93] United States Department of State (2022), Kremlin-Funded Media: RT and Sputnik’s Role in Russia’s Disinformation and Propoaganda Ecosystem, https://www.state.gov/wp-content/uploads/2022/01/Kremlin-Funded-Media_January_update-19.pdf.
[67] USAID (2023), Administrator Samantha Power Delivers Remarks at the “Advancing Technology for Democracy” Event, https://www.usaid.gov/news-information/speeches/mar-30-2023-administrator-samantha-power-delivers-remarks-at-the-advancing-technology-for-democracy-event.
[68] USAID (2023), Interventions to Counter Misinformation: Lessons from the Global North and Applications to the Global South, https://pdf.usaid.gov/pdf_docs/PA0215JW.pdf.
[97] Vilmer, J. (2019), The “Macron Leaks” Operation: A Post-Mortem.
Notas
← 1. Para obtener información adicional, consulte: https://santaclaraprinciples.org/.
← 2. Para obtener información adicional, consulte: https://c2pa.org/.
← 3. Para obtener información adicional, consulte: https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation.
← 4. Información proporcionada por el Gobierno de Lituania.
← 5. Para obtener información adicional, consulte: https://www.cgi.br/pagina/marco-civil-law-of-the-internet-in-brazil/180. Cabe destacar que el proyecto de ley 2630/2020 busca actualizar el Marco Civil de Internet, en parte, incluyendo un «deber de cuidado» para que las plataformas digitales adopten medidas sobre contenidos ilegales específicos.
← 6. Directiva 2002/58/CE del Parlamento Europeo y del Consejo de 12 de julio de 2002: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L:2002:201:FULL.
← 7. Véase S.1989 – Ley de Anuncios Honestos Sección 8(4)(ii) (https://www.congress.gov/bill/115th-congress/senate-bill/1989/text) y Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre la Transparencia y Orientación de la Publicidad Política Artículo 2(2)(b) (https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0731).
← 8. Para obtener información adicional, consulte: https://fom.coe.int/en/accueil.
← 9. Para obtener información adicional, consulte: https://www.mfrr.eu/monitor/.
← 10. Para obtener información adicional, consulte: https://www.coe.int/en/web/freedom-expression/safety-of-journalists-campaign
← 11. Para obtener información adicional, consulte: https://cmpf.eui.eu/media-pluralism-monitor-2023/.
← 12. Se estudiaron los siguientes países: Austria, Bélgica, Bulgaria, Croacia, Chipre, República Checa, Dinamarca, Estonia, Finlandia, Francia, Alemania, Grecia, Hungría, Irlanda, Italia, Letonia, Lituania, Luxemburgo, Malta, Países Bajos, Polonia, Portugal, República de Macedonia del Norte, Rumania, Serbia, República Eslovaca, Eslovenia, España, Suecia, Türkiye y Reino Unido.
← 13. Para obtener información adicional, consulte: https://lovdata.no/dokument/NLE/lov/2020-05-29-59.
← 14. Para obtener más información sobre los antecedentes y las recomendaciones relacionadas con la mejora de las políticas, la financiación y el entorno propicio para el periodismo profesional independiente, consulte: (Forum on Information and Democracy, 2021[54]).
← 15. Un ejemplo de ello es el requisito de Luxemburgo, de que los medios de comunicación públicos se organicen, de manera que «garanticen la autonomía e independencia del Estado y de las entidades sociales, económicas y políticas en relación con las decisiones editoriales» - Para obtener información adicional, véase la Ley luxemburguesa de 12 de agosto de 2022 sobre la organización del establecimiento público «Public Service Media 100,7» y la modificación de la Ley enmendada de 27 de julio de 1991 sobre medios electrónicos.
← 16. Para obtener información adicional, consulte: https://freedomonlinecoalition.com/donor-principles-for-human-rights-in-the-digital-age/.
← 17. Para obtener información adicional, consulte: https://ifpim.org/.
← 18. Para leer el texto legislativo, consulte: https://www.legislation.gov.au/Details/C2019C00133.
← 19. La IA generativa se refiere a los sistemas de inteligencia artificial capaces de generar texto, imágenes u otros medios en respuesta a las indicaciones.