À mesure que l'adoption de l'IA continue de croître, l'atténuation réussie des risques nécessitera une base factuelle solide. La base de données AI Incident Monitor (AIM) de l'OCDE documente les incidents et les dangers liés à l'IA pour fournir de meilleures preuves aux décideurs politiques, aux praticiens et aux autres parties prenantes sur les risques liés à l'IA et le contexte dans lequel ils se matérialisent. Au fil du temps, l’AIM contribuera à montrer les tendances des risques et à établir une compréhension collective des incidents d’IA et de leur nature multiforme.
Risques et incidents liés à l'IA
L'intelligence artificielle promet d'énormes avantages mais comporte également des risques réels. Certains de ces risques se matérialisent déjà en préjudices pour les individus et les sociétés : biais et discrimination, polarisation des opinions, atteintes à la vie privée, et problèmes de sécurité. Une IA digne de confiance appelle les gouvernements du monde entier à développer des approches interopérables basées sur les risques en matière de gouvernance de l’IA et une compréhension rigoureuse des incidents et des dangers liés à l’IA.
Messages clés
Alors que l’intelligence artificielle continue de pénétrer les sociétés et les économies, il est inévitable que les incidents liés à l’IA augmentent, ce qui rend vital la surveillance et la gestion des risques. L’IA ne connaissant pas de frontières, les parties prenantes ont besoin d’une compréhension rigoureuse et transnationale des incidents d’IA et d’un moyen cohérent et interopérable de les signaler.
Alors que les juridictions du monde entier se préparent à mettre en œuvre des systèmes de déclaration d’incidents obligatoires et volontaires, l’OCDE travaille sur un cadre de déclaration commun pour aider à aligner la terminologie entre les juridictions, optimiser l’interopérabilité et minimiser les incidents, risques et dangers liés à l’IA.
Le principe de « responsabilité » de l’intelligence artificielle de l’OCDE stipule que ceux qui déploient l’IA doivent être responsables du bon fonctionnement de leur système. L'OCDE propose un catalogue d'outils et de mesures pour aider les acteurs à garantir que l'IA est développée et utilisée de manière responsable.
Le cadre d'interopérabilité de haut niveau pour la gestion des risques liés à l'IA (lien en anglais) décrit quatre étapes communes pour une gestion efficace des risques : définir la portée de l'IA, évaluer les risques, y répondre, et les surveiller ainsi que communiquer à leur sujet.
Les données de l’OCDE montrent que si l’IA n’est pas utilisée de manière fiable, des risques importants pèsent sur les droits et la sécurité des travailleurs, tels que la confidentialité de leurs données, l’intensification du travail, les biais et la discrimination, ainsi que la responsabilité. Il existe également des risques liés à l'automatisation et à l'accentuation des inégalités sur le lieu de travail. Pour aider à évaluer et à atténuer ces risques, l’OCDE cartographie les risques et les actions politiques et prépare une feuille de route pour combler les lacunes.
Contexte
Avec la croissance de l'utilisation de l'IA, le nombre d'incidents signalés augmente également
Les incidents d’IA signalés dans les médias ont fortement augmenté depuis novembre 2022. Les données sur les incidents passés peuvent fournir des preuves permettant d’identifier les applications d’IA à haut risque, et il est essentiel de tirer les leçons des erreurs passées pour éviter de les répéter. À mesure que le nombre de rapports d'incidents augmente, les méthodes de signalement standard deviennent de plus en plus cruciales pour la gestion des risques à l'échelle mondiale.
Confidentialité de l’IA et collecte de données sur le lieu de travail
La plupart des travailleurs qui ont déclaré avoir collecté des données liées à l’IA ont exprimé des inquiétudes. Dans les secteurs de la finance et de l'industrie manufacturière, 62 % et 56 % ont déclaré ressentir une pression accrue pour performer en raison de la collecte de données, tandis que 62 % et 51 % ont exprimé des préoccupations en matière de confidentialité. Une majorité a également déclaré craindre qu'une trop grande partie de leurs données soit collectée (58 % et 54 %) et que la collecte de données ne conduise à des décisions biaisées à leur encontre (58 % et 51 %).
Cadre de l'OCDE pour la classification des systèmes d'IA
Une méthode commune de classification des systèmes d’IA constitue un élément essentiel d’un cadre commun de déclaration des incidents d’IA.
Publications associées
-
29 septembre 2023
-
Policy paper14 November 2024
Sujets associés
-
À mesure que l’intelligence artificielle se développe, le besoin de ressources informatiques à grande échelle augmente également. Les ressources pour la formation et le déploiement de l’IA, souvent appelées « calcul de l’IA », nécessitent un matériel puissant. Mais avec la demande croissante de calculs d’IA, des questions se posent sur les capacités nationales à mettre en œuvre des stratégies d’IA.En savoir plus
-
L'IA générative (GenAI) est une catégorie d'IA qui peut créer de nouveaux contenus tels que du texte, des images, des vidéos et de la musique. Il a attiré l'attention mondiale en 2022 grâce aux générateurs de texte en image et aux grands modèles linguistiques (LLM). Si l'IA générative a le potentiel de révolutionner des industries et des sociétés entières, elle pose également des défis et des considérations critiques auxquels les décideurs politiques doivent faire face.En savoir plus
-
Les principes de l'OCDE sur l'IA fournissent la première norme intergouvernementale sur l'IA. Ils promeuvent une IA innovante et digne de confiance qui respecte les droits humains et les valeurs démocratiques.En savoir plus