Algunos países de la OCDE están cada vez más preocupados por el hecho de que las personas y organizaciones que participan en el fraude están utilizando métodos cada vez más sofisticados para analizar grandes cantidades de datos y explotar vulnerabilidades en el sector público (International Public Sector Fraud Forum, 2020[73]). Muchas de las técnicas no son nuevas, como la ingeniería social o los ataques de suplantación de indentidad (phishing), pero la IA (IA generativa y grandes modelos de lenguaje —LLMs, por sus siglas en inglés—, en particular) agrava los riesgos. Por ejemplo, los agentes de amenazas pueden crear documentación fraudulenta e identidades sintéticas generadas por la IA con mayor facilidad y eficiencia que nunca antes, que se pueden utilizar para eludir los procedimientos de conoce a tu cliente (KYC, por sus siglas en inglés) o reclamar derechos a beneficios públicas. Estos esfuerzos pueden comprometer la integridad de, por ejemplo, los programas de ayuda financiados por los contribuyentes relacionados con COVID-19 o la crisis del costo de vida, desviando fondos de aquellos que lo necesitan.
La IA también puede utilizarse como herramienta para influir en el debate político y la formulación de políticas públicas. Se puede utilizar, legítimamente, para hacer cabildeo a los titulares de cargos públicos mediante la preparación de análisis de proyectos de ley, enmiendas y documentos de consulta, para la cartografía de las partes interesadas y la elaboración de estrategias de cabildeo, o para la redacción de presentaciones y documentos de posición a los responsables de la toma de decisiones en las instituciones públicas (NY Times, 2023[84]; WFD and POPVOX, 2023[85]). Estos métodos pueden ayudar a los cabilderos a desarrollar aportes más eficaces a la formulación de políticas, permitiéndoles representar mejor sus intereses ante los responsables de la toma de decisiones, y podrían igualar las condiciones para las oportunidades de participación pública (WFD and POPVOX, 2023[85]). Sin embargo, cuando estas técnicas se utilizan indebidamente, para proporcionar información sesgada o falsa o para sobrerepresentar ciertos puntos de vista, la IA puede influir de manera más eficaz en los responsables políticos alejados del interés público y en favor de intereses privados específicos o incluso de los de potencias extranjeras (Sanders and Schneier, 2023[86]; Nay, 2023[87]). Además, la capacidad de la IA para generar contenido de “falsedad profunda” (deep fake) hace que sea más difícil separar lo que es verdadero de lo que no lo es. Ejemplos recientes demuestran cómo el contenido de falsedad profunda puede ser utilizado para influir en las campañas políticas, de una manera que tergiversa las campañas opuestas e influye ilegítimamente en el curso del debate en las democracias (WFD and POPVOX, 2023[85]; Murphy, 2024[88]). Aunque el uso de la IA para influir en las actividades puede no ser problemático en sí mismo, las salvaguardias de cabildeo de muchos países, que se han habiendo sido desarrolladas antes de la disponibilidad generalizada de estas herramientas, pueden no estar mitigando los riesgos de la IA en el cabildeo. Por ejemplo, muchos países no tienen estándares de conducta para las actividades de cabildeo que mitiguen el riesgo de que se representen intereses falsos, y mucho menos en la escala posible mediante el uso de la IA. También hay un margen claro para que los países elaboren sus orientaciones para los titulares de cargos públicos a fin de ayudarles a evaluar la fiabilidad de la información que se les presenta (OCDE, 2021[19]).
En general, la IA ofrece a los países de la OCDE una serie de oportunidades para defender la integridad del sector público de manera más eficaz, y lo hará cada vez más en los próximos años. La IA ha cambiado fundamentalmente la forma en que las autoridades públicas evalúan y gestionan la integridad y el riesgo de corrupción en las instituciones públicas. Sin embargo, los países deben comprender las limitaciones y los riesgos asociados al uso de la IA en el sector público. Las limitaciones son especialmente frecuentes cuando los países están luchando por recopilar los datos necesarios para que la IA funcione. Los países también deberían considerar cuán bien preparados están sus marcos de cabildeo para gestionar las actividades de cabildeo basadas en la IA, especialmente en términos de estándares para el uso de la IA en el cabildeoy su orientación a los titulares de cargos sobre cómo hacer frente a las actividades de cabildeo.