L’incidence réelle de l’IA sur les travailleurs et l’organisation du travail, et la question de savoir si ses avantages l’emporteront sur les risques, dépendront également des mesures prises par les pouvoirs publics. Le déploiement de l’IA dans le cadre professionnel ne doit pas être interrompu, car il est porteur de nombreux avantages. Néanmoins, il faut se garder de tomber dans le piège du « déterminisme technologique », selon lequel la technologie façonne les changements sociaux et culturels et non l’inverse. Pour paraphraser l’économiste du travail David Autor, plutôt que se demander ce que l’IA peut faire, nous devons nous demander ce que nous voulons qu’elle fasse pour nous.
Il est urgent d’agir pour s’assurer que l’IA est utilisée de manière responsable et digne de confiance sur le lieu de travail.
D’une part, il est nécessaire de donner aux travailleurs et aux employeurs les moyens de tirer profit des avantages de l’IA tout en s’y adaptant, notamment grâce à la formation et au dialogue social.
Les pays ont pris des mesures pour préparer leur main-d’œuvre aux transformations de l’emploi induites par l’IA, mais ces initiatives restent à ce jour limitées. Certains pays ont investi pour étendre les programmes d’enseignement scolaire (comme l’Irlande) ou ont lancé des initiatives visant à relever le niveau de compétence de la population en matière d’IA par l’intermédiaire de la formation professionnelle et de la formation continue (Allemagne, Espagne et Finlande par exemple). Les recherches de l’OCDE montrent aussi que les résultats sont meilleurs lorsque les travailleurs sont formés à interagir avec l’IA, et qu’ils sont consultés au sujet de l’adoption de ces technologies.
D’autre part, des interventions publiques urgentes s’imposent pour remédier aux risques que l’IA peut poser lorsqu’elle est utilisée dans le cadre professionnel – en termes de vie privée, de sécurité, d’équité et de droits du travail – et pour garantir la responsabilité, la transparence et la possibilité d’expliquer les décisions en matière d’emploi emploi qui s’appuient sur l’IA.
Les pouvoirs publics, les organisations internationales et les autorités de réglementation doivent définir un cadre pour l’utilisation de l’IA en milieu professionnel. Il s’agit notamment de fixer des normes, de faire appliquer des réglementations ou des lignes directrices adaptées, et de promouvoir une surveillance adéquate de ces nouvelles technologies. L’OCDE a joué un rôle de pionnier dans ce domaine en élaborant les Principes de l’OCDE pour une approche responsable en appui d’une IA digne de confiance, qui ont été adoptés en mai 2019 par les pays membres de l’Organisation (et ont inspiré les Principes du G20 sur l’IA), puis par l’Argentine, le Brésil, l’Égypte, Malte, le Pérou, la Roumanie, Singapour et l’Ukraine.
De nombreux pays disposent déjà de réglementations pertinentes pour faire appliquer certains des principes fondamentaux d’une utilisation fiable de l’IA en entreprise. La législation existante, notamment sur la protection des données, prévoit des dispositions qui peuvent s’appliquer à l’IA. Toutefois, ces dernières années, une évolution majeure a été la proposition de cadres réglementaires spécifiques à cette technologie qui traitent des systèmes ou des impacts à haut risque de l’IA, même si l’approche varie considérablement d’un pays à l’autre.
L’utilisation des systèmes d’IA dans le cadre professionnel doit se faire dans le respect de la législation anti-discrimination, des règlements sur la sécurité et la santé au travail et la protection de la vie privée des travailleurs, et des dispositions relatives à la liberté syndicale. Ainsi, tous les pays membres de l’OCDE ont mis en place des lois visant à protéger les données et la vie privée. Par exemple, en Allemagne, en France et en Italie, un accord préalable doit être conclu avec les représentants des travailleurs sur la surveillance des salariés au moyen de technologies numériques ; il existe en outre des réglementations imposant aux employeurs d’informer les salariés des politiques de surveillance électronique. Dans certains pays, comme l’Italie, la législation anti-discrimination a été appliquée avec succès dans des procédures judiciaires liées à l’utilisation de l’IA au travail. Toutefois, les dispositions réglementaires qui n’ont pas été élaborées spécialement pour l’IA devront probablement être adaptées.
L’utilisation de l’IA pour soutenir les décisions qui affectent les opportunités et les droits des travailleurs devrait également s’accompagner d’informations accessibles et compréhensibles et de responsabilités clairement définies. L’ambition de parvenir à la responsabilité, à la transparence et à l’explicabilité incite à prendre des mesures spécifiques à l’IA qui ont des implications directes sur les utilisations qui en sont faites sur le lieu de travail.
Un exemple notable est la proposition de loi de l’UE sur l’IA, qui adopte une approche fondée sur les risques pour garantir que les systèmes d’IA soient supervisés par des personnes, qu’ils soient sûrs, transparents, traçables et non discriminatoires. Aux États-Unis, en octobre 2022, le Bureau de la politique scientifique et technologique de la Maison Blanche a publié un document intitulé Blueprint for an AI Bill of Rights, qui établit une feuille de route pour l’utilisation responsable de l’IA. En juin 2022, le Canada a présenté au Parlement la loi sur l’intelligence artificielle et les données (AIDA), qui exige des « explications en langage clair » sur la manière dont les systèmes d’IA parviennent à leurs résultats. De nombreux pays, organisations et entreprises élaborent également des cadres, des lignes directrices, des normes techniques et des codes de conduite pour une IA digne de confiance.
Lorsqu’il s’agit d’utiliser l’IA pour prendre des décisions qui affectent les opportunités et les droits des travailleurs, les décideurs politiques envisagent déjà certaines pistes : adapter la législation sur le lieu de travail à l’utilisation de l’IA ; encourager l’utilisation d’outils d’audit et de certification robustes ; utiliser une approche qui mette de l’humain dans la boucle ; développer des mécanismes permettant d’expliquer de manière compréhensible la logique qui sous-tend les décisions prises par l’IA.
De nombreux experts s’inquiètent généralement du fait que le rythme de la réponse politique ne suit pas l’évolution très rapide de l’IA générative et que la réponse politique manque encore de spécificité et d’applicabilité.
En effet, de nombreux appels ont été lancés pour que l’on agisse dans le domaine de l’IA générative. L’Union européenne a annoncé son intention d’introduire un code de conduite volontaire sur l’IA, qui devrait être adopté rapidement. La déclaration conjointe États-Unis-UE du Conseil du commerce et de la technologie de mai 2023 a décidé de mettre un accent particulier sur l’IA générative dans le cadre des travaux sur la feuille de route relative aux outils d’évaluation et de mesure pour une IA digne de confiance et la gestion des risques, et le Premier ministre britannique a annoncé la tenue d’un sommet sur la sécurité de l’IA à la fin de l’année 2023. La réglementation liée à l’IA soulève également de nouveaux défis en ce qui concerne leur interopérabilité internationale, ce qui nécessite une action internationale pour promouvoir l’alignement des définitions clés et de leur mise en œuvre technique, le cas échéant.
Nombre de ces appels sont traités dans le cadre du « processus d’Hiroshima sur l’IA » lancé par les dirigeants du G7 en mai 2023 dans le but d’aligner les pays (y compris l’UE) sur une approche convenue de l’IA générative. L’OCDE a été invitée à soutenir ce processus en cours.
Cette action devra être rapidement complétée par des plans de mise en œuvre concrets, réalisables et applicables afin de garantir que l’IA soit digne de confiance. La coopération internationale sur ces questions sera essentielle pour garantir une approche commune qui évitera une fragmentation des efforts qui nuirait inutilement à l’innovation et créerait un fossé réglementaire susceptible de conduire à un nivellement par le bas.
Stefano Scarpetta,
Directeur de la Direction de l’emploi, du travail et des affaires sociales,
OCDE