Façonner une approche centrée sur l'humain de l'intelligence artificielle
Principes de l'IA
Les Principes de l’OCDE sur l’IA constituent la première norme intergouvernementale sur l’IA. Ils promeuvent une IA innovante et digne de confiance qui respecte les droits humains et les valeurs démocratiques. Adoptés en 2019 et mise à jour, ils se composent de cinq principes fondés sur des valeurs et de cinq recommandations qui fournissent des orientations pratiques et flexibles aux décideurs politiques et aux acteurs de l'IA.
À propos des Principes de l'OCDE sur l'IA
L'intelligence artificielle (IA) offre des avantages considerable dans des domaines tels que la santé, la productivité et le progrès scientifique. Elle comporte également des risques potentiels liés à la désinformation, à la sécurité des données et à la violation du droit d'auteur. De plus, l'IA ne connaît pas de frontières. Dans ce contexte, les principes fournissent une base pour la coopération internationale et l'interopérabilité avec des orientations conçues pour résister à l'épreuve du temps dans le monde rapide de l'IA.
En respectant ces principes, les décideurs politiques peuvent guider le développement et le déploiement de l'IA pour maximiser ses avantages et minimiser ses risques. Ceci est crucial pour exploiter le potentiel des technologies d'IA pour la croissance économique, le bien-être social et la durabilité environnementale tout en protégeant les individus et les valeurs sociétales.
En mai 2023, les gouvernements avaient signalé plus de 1000 initiatives politiques dans plus de 70 juridictions dans la base de données des politiques nationales de l'OCDE.AI qui suivent les Principes de l'OCDE sur l'IA.
Les pays qui adhèrent aux Principes
À ce jour, les Principes de l'OCDE sur l'IA ont été adoptés par les pays membres de l'OCDE ainsi que par un certain nombre de partenaires dans le monde entier.
Des principes basés sur des valeurs
Les Principes de l'OCDE sur l'IA encouragent une utilisation de l'IA qui soit innovante et digne de confiance et qui respecte les droits humains et les valeurs démocratiques. Adoptés en mai 2019, ils établissent des normes pour l'IA suffisamment pratiques et flexibles pour résister à l'épreuve du temps.
Les parties prenantes devraient adopter de manière proactive une approche responsable en appui d’une IA digne de confiance afin de tendre vers des résultats bénéfiques pour les individus et la planète, tels que l’augmentation des capacités humaines et le développement de la créativité, l’inclusion des populations sous-représentées, la réduction des inégalités économiques, sociales, entre les sexes et autres, et la protection des milieux naturels, favorisant ainsi la croissance inclusive, le bien-être, le développement durable et la durabilité environnementale.
Les acteurs de l’IA devraient respecter l’état de droit, les droits humains, les valeurs démocratiques et les valeurs centrées sur l’humain, tout au long du cycle de vie des systèmes d’IA. Cela comprend la non-discrimination et l’égalité, la liberté, la dignité, l’autonomie des individus, la protection de la vie privée et des données, la diversité, l’équité, la justice sociale, ainsi que les droits des travailleurs reconnus à l’échelle internationale. Cela recouvre aussi la lutte contre la mésinformation et la désinformation amplifiées par l’IA, dans le respect de la liberté d’expression et des autres droits et libertés protégés par le droit international en vigueur.
Pour ce faire, les acteurs de l’IA devraient instituer des garanties et des mécanismes, tels que la capacité d’intervention et de surveillance humaines, y compris pour faire face aux risques découlant d’utilisations à des fins autres que celles prévues ou d’une mauvaise utilisation délibérée ou involontaire, d’une manière qui soit adaptée au contexte et à l’état de l’art.
Les acteurs de l’IA devraient s’engager à assurer la transparence et une divulgation responsable des informations liées aux systèmes d’IA. À cet effet, ils devraient fournir des informations pertinentes, adaptées au contexte et à l’état de l’art, afin :
- de favoriser une compréhension générale des systèmes d’IA, y compris de leurs capacités et de leurs limites,
- d’informer les parties prenantes de leurs interactions avec les systèmes d’IA, y compris dans la sphère professionnelle,
- de donner, lorsque cela est réalisable et utile, des informations claires et facilement compréhensibles sur les sources des données/entrées, les facteurs, les processus et/ou la logique ayant abouti à la prévision, au contenu, à la recommandation ou à la décision, pour permettre aux personnes concernées par un système d’IA d’en appréhender le résultat, et
- de fournir des informations permettant aux personnes qui subissent les effets néfastes d’un système d’IA d’en contester les résultats.
Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie, de sorte que, dans des conditions d’utilisation normales ou prévisibles, ou en cas d’utilisation abusive ou de conditions défavorables, ils soient à même de fonctionner convenablement, et ne fassent pas peser des risques de sûreté et/ou de sécurité démesurés.
Des mécanismes devraient être en place, le cas échéant, afin de garantir que, dans l’éventualité où des systèmes d’IA risqueraient de causer des préjudices injustifiés ou présenteraient un comportement indésirable, ils puissent être neutralisés, réparés et/ou mis hors service en toute sécurité, en tant que de besoin.
Des mécanismes devraient également être en place, lorsque cela est techniquement réalisable, pour renforcer l’intégrité de l’information, tout en veillant au respect de la liberté d’expression.
Les acteurs de l’IA devraient être responsables du bon fonctionnement des systèmes d’IA et du respect des principes exposés ci-dessus, selon leurs rôles, le contexte et l’état de l’art.
Pour ce faire, les acteurs de l’IA devraient veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, afin de permettre l’analyse des résultats issus desdits systèmes d’IA et le traitement des demandes d’information, compte tenu du contexte et de l’état de l’art.
Les acteurs de l’IA devraient, selon leurs rôles respectifs, le contexte et leur capacité à agir, appliquer de manière continue une approche systématique de la gestion du risque, à chaque phase du cycle de vie des systèmes d’IA, et assurer la conduite responsable des entreprises afin de gérer les risques y afférents, notamment, en tant que de besoin, par la coopération entre les différents acteurs de l’IA, les pourvoyeurs de connaissances et de ressources liées à l’IA, les utilisateurs de systèmes d’IA et les autres parties prenantes. Ces risques sont ceux liés aux biais préjudiciables, au non-respect des droits humains tels que la sûreté, la sécurité et la protection de la vie privée, et au non-respect des droits des travailleurs et des droits de propriété intellectuelle.
Recommandations à l'intention des décideurs politiques
Les pouvoirs publics devraient envisager des investissements publics à long terme et encourager les investissements privés dans la recherche et le développement et dans la science ouverte, notamment les efforts interdisciplinaires, afin de stimuler l’innovation dans une IA digne de confiance, axée sur les défis techniques importants, ainsi que sur les implications sociales, juridiques et éthiques et les politiques liées à l’IA.
Les pouvoirs publics devraient par ailleurs envisager des investissements publics et encourager les investissements privés dans des outils en open source et des ensembles de données en libre accès qui soient représentatifs et qui garantissent la protection de la vie privée et des données, pour soutenir un environnement de recherche et développement en matière d’IA qui soit exempt de biais préjudiciables, et renforcer l’interopérabilité et l’utilisation de normes.
Les pouvoirs publics devraient favoriser le développement et l’accessibilité d’un écosystème numérique inclusif, dynamique, durable et interopérable en appui d’une IA digne de confiance. Cet écosystème se compose, entre autres, des données, des technologies d’IA, des infrastructures de calcul et de connectivité et des mécanismes de partage des connaissances en matière d’IA, en fonction des besoins. À cet égard, les pouvoirs publics devraient envisager de promouvoir des mécanismes, tels que les fiducies de données (« data trusts »), pour favoriser le partage des données de façon sûre, équitable, légale et éthique.
Les pouvoirs publics devraient promouvoir l’instauration d’un cadre d’action souple qui soutienne la transition du stade de recherche et développement à celui de déploiement et d’exploitation de systèmes d’IA dignes de confiance. À cette fin, ils devraient envisager le recours à l’expérimentation, afin de fournir un environnement contrôlé dans lequel les systèmes d’IA peuvent être testés et déployés à une plus grande échelle, selon les besoins. Ils devraient en outre adopter des approches axées sur les résultats qui offrent de la souplesse dans la réalisation des objectifs de gouvernance et favoriser la coopération entre les pays et territoires et en leur sein, afin de promouvoir la mise en place de cadres de gouvernance et d’action interopérables, en tant que de besoin.
Les pouvoirs publics devraient examiner et adapter, selon les besoins, leur cadres politiques et réglementaires et leurs mécanismes d’évaluation applicables aux systèmes d’IA, afin d’encourager l’innovation et la concurrence dans le développement d’une IA digne de confiance.
Les pouvoirs publics devraient travailler en étroite collaboration avec les parties prenantes en vue de préparer la transformation du monde du travail et de la société. Ils devraient donner aux personnes les moyens d’utiliser efficacement les systèmes d’IA et d’interagir avec eux, au travers de leurs différentes applications, notamment en les dotant des compétences nécessaires.
Les pouvoirs publics devraient prendre des mesures, y compris en recourant au dialogue social, pour assurer une transition équitable des travailleurs au fur et à mesure du déploiement de l’IA, en particulier par le biais de programmes de formation tout au long de la vie active, du soutien aux personnes affectées par les suppressions de postes, au moyen notamment de la protection sociale, et de l’accès aux nouvelles opportunités sur le marché du travail.
Les pouvoirs publics devraient par ailleurs travailler en étroite collaboration avec les parties prenantes pour promouvoir l'utilisation responsable de l'IA au travail, renforcer la sécurité des travailleurs et la qualité des emplois et des services publics, favoriser l’entrepreneuriat et la productivité, et veiller à ce que les avantages de l’IA soient partagés largement et équitablement.
Les pouvoirs publics, y compris ceux des pays en développement, en association avec les parties prenantes, devraient coopérer activement afin de faire avancer la mise en œuvre de ces principes et de progresser dans une approche responsable en appui d’une IA digne de confiance.
Les pouvoirs publics devraient travailler de concert, au sein de l’OCDE et d’autres instances mondiales et régionales pertinentes, en vue de favoriser le partage des connaissances en matière d’IA, selon les besoins. Ils devraient encourager les initiatives multipartites internationales, intersectorielles et ouvertes afin de bâtir une expertise à long terme en matière d’IA.
Les pouvoirs publics devraient encourager l’élaboration de normes techniques internationales multipartites fondées sur la recherche de consensus, au service d’une IA interopérable et digne de confiance.
Les pouvoirs publics devraient en outre encourager la mise au point et l’utilisation, pour leurs propres besoins, d’indicateurs comparables au plan international, afin de mesurer la recherche et le développement dans le domaine de l’IA et le déploiement de l’IA, et de constituer la base factuelle nécessaire au suivi des progrès quant à la mise en œuvre des principes exposés dans les présentes.
Dernières actualités
-
Communiqué de presse22 juillet 2024
Publications associées
-
Document politique10 juillet 2024
-
29 septembre 2023
Sujets associés
-
À mesure que l’intelligence artificielle se développe, le besoin de ressources informatiques à grande échelle augmente également. Les ressources pour la formation et le déploiement de l’IA, souvent appelées « calcul de l’IA », nécessitent un matériel puissant. Mais avec la demande croissante de calculs d’IA, des questions se posent sur les capacités nationales à mettre en œuvre des stratégies d’IA.En savoir plus
-
La fracture numérique se traduit par un accès inégal aux technologies numériques, notamment en ce qui concerne la connectivité à l'internet et la disponibilité des appareils, ainsi que par des disparités en matière d'infrastructures, de compétences et d'accessibilité financière. Ces écarts se traduisent par des opportunités inégales d'accès à l'information et de participation numérique.En savoir plus
-
L'IA générative (GenAI) est une catégorie d'IA qui peut créer de nouveaux contenus tels que du texte, des images, des vidéos et de la musique. Il a attiré l'attention mondiale en 2022 grâce aux générateurs de texte en image et aux grands modèles linguistiques (LLM). Si l'IA générative a le potentiel de révolutionner des industries et des sociétés entières, elle pose également des défis et des considérations critiques auxquels les décideurs politiques doivent faire face.En savoir plus
-
Alors que l'intelligence artificielle progresse rapidement, il est essentiel de comprendre comment l'éducation sera affectée. Les questions importantes à prendre en compte sont les suivantes : Comment l'IA peut-elle être comparée à l'homme ? Comment les systèmes d'IA effectuent-ils des tâches dans différents domaines de capacités tels que le langage, le raisonnement, les domaines sensorimoteurs ou d'interaction sociale ? Quelles sont les implications pour l'éducation et la formation ?En savoir plus
-
L'intelligence artificielle promet d'énormes avantages mais comporte également des risques réels. Certains de ces risques se matérialisent déjà en préjudices pour les individus et les sociétés : biais et discrimination, polarisation des opinions, atteintes à la vie privée, et problèmes de sécurité. Une IA digne de confiance appelle les gouvernements du monde entier à développer des approches interopérables basées sur les risques en matière de gouvernance de l’IA et une compréhension rigoureuse des incidents et des dangers liés à l’IA.En savoir plus
-
Les données et les technologies numériques telles que l'IA sont de puissants moteurs d'innovation dans l'éducation, offrant des possibilités de transformation pour la gestion des systèmes et des écoles ainsi que pour l'enseignement et l'apprentissage. Cependant, elles créent également des problèmes politiques, tels que les questions d'équité et d'interopérabilité, que les pays doivent atténuer.En savoir plus