Angelica Salvi del Pero
Annelore Verhagen
Intelligence artificielle et marché du travail
Angelica Salvi del Pero
Annelore Verhagen
Le présent chapitre offre un tour d’horizon des mesures adoptées par les pays concernant le développement et l’utilisation d’une intelligence artificielle (IA) digne de confiance en entreprise. Il examine les politiques publiques qui visent à protéger les droits fondamentaux des travailleurs, à assurer la transparence et l’explicabilité des systèmes d’IA et à définir les responsabilités tout au long de la chaîne de valeur de l’IA. Il examine en quoi des lois ne portant pas spécifiquement sur l’IA, comme celles relatives à la lutte contre les discriminations et à la protection des données, peuvent servir de fondement à la gouvernance de l’IA dans le cadre professionnel. Si, dans certains pays, les tribunaux ont efficacement appliqué ces lois à des affaires liées à l’utilisation de l’IA en entreprise, l’adoption de mesures spécifiques à cet égard pourrait s’imposer. Aujourd’hui, la plupart des pays font appel à des instruments non contraignants pour les questions concernant l’IA, mais certains élaborent des projets de loi spécifiques applicables à son utilisation en milieu professionnel.
Les systèmes d’intelligence artificielle (IA) offrent des possibilités d’améliorer l’environnement de travail – en renforçant la sécurité en entreprise par exemple – mais, s’ils ne sont pas bien conçus ou mis en œuvre, ils présentent également pour les droits fondamentaux et le bien-être des salariés des risques qui vont au-delà de leur incidence sur le nombre d’emplois. Ils pourraient par exemple systématiser les biais humains dans les décisions professionnelles. Par ailleurs, il n’est pas toujours facile de savoir si les employés travaillent en interaction avec un système d’IA ou avec une personne réelle, les décisions prises par ces systèmes sont parfois difficiles à comprendre, et il est souvent délicat de déterminer qui est responsable en cas de problème lorsque des systèmes d’IA sont utilisés sur le lieu de travail.
Ces risques, conjugués au rythme de développement et de déploiement rapide de l’IA, font que les responsables politiques doivent intervenir d’urgence et prendre des mesures pour assurer l’utilisation d’une IA digne de confiance en entreprise. Suivant les principes de l’OCDE sur l’IA, une « IA digne de confiance » est une IA dont le développement et l’utilisation sont sûrs et respectueux des droits fondamentaux, comme la vie privée, le principe d’équité et les droits des travailleurs, et le cheminement suivi pour prendre des décisions liées à l’emploi transparent et compréhensible par les humains. Cela signifie également que les employeurs, les travailleurs et les demandeurs d’emploi doivent être conscients qu’ils utilisent l’IA et transparents à cet égard, et que les responsabilités doivent être clairement définies en cas de problème.
Le présent chapitre dresse un panorama des actions engagées par les pays pour garantir une IA digne de confiance dans le cadre de l’entreprise (voir le chapitre 7 pour celles menées par les partenaires sociaux). Il présente une série d’exemples destinés à aider les employeurs, les salariés et leurs représentants, ainsi que les développeurs, à s’orienter dans l’environnement réglementaire actuel de l’IA et à inspirer les responsables publics qui cherchent à réglementer son utilisation dans la sphère du travail dans leur pays. Les principaux résultats sont les suivants :
S’agissant de l’utilisation de l’IA en entreprise pour prendre des décisions qui influent sur les perspectives professionnelles et les droits des salariés, les gouvernants envisagent déjà certaines pistes : adapter la réglementation du travail à l’utilisation de l’IA ; encourager le recours à des outils d’audit et de certification rigoureux ; appliquer une approche exigeant une intervention humaine ; établir des mécanismes permettant d’expliquer de manière compréhensible la logique qui sous-tend les décisions guidées par cette technologie.
Actuellement, la plupart des mesures spécifiques adoptées par les pays de l’OCDE pour favoriser une IA digne de confiance en milieu professionnel sont essentiellement non contraignantes et reposent sur la capacité des entreprises à s’autoréglementer (instruments non contraignants). Le nombre de pays ayant mis en place une stratégie d’IA a sensiblement augmenté ces cinq dernières années, en particulier en Europe, en Amérique du Nord et en Asie de l’Est. Nombreux sont ceux qui œuvrent également à l’élaboration des principes, cadres et lignes directrices en matière d’éthique, de normes techniques et de codes de conduite pour une IA digne de confiance.
L’un des principaux avantages des dispositions non contraignantes pour la gouvernance de l’IA tient à leur facilité d’application et, le cas échéant, d’adaptation, ce qui assure la souplesse nécessaire pour une technologie en constante mutation. Néanmoins, comme elles manquent souvent de force exécutoire, une combinaison bien agencée d’instruments non contraignants et de réglementations exécutoires (ou « législation contraignante ») pourrait s’avérer nécessaire pour prévenir ou réparer efficacement les dommages liés à l’IA en entreprise à mesure que la technologie continue d’évoluer.
La législation existante (non spécifique à l’IA) – en matière de discrimination, de droit d’organisation des travailleurs ou de responsabilité du fait des produits par exemple – constitue un socle solide pour la réglementation de l’IA sur le lieu de travail. Ainsi, tous les pays membres de l’OCDE ont mis en place des lois visant à protéger les données et la vie privée. Dans certains, comme l’Italie, la législation antidiscrimination a été appliquée avec succès dans des affaires judiciaires liées à l’utilisation de l’IA en entreprise.
Cela dit, la législation en vigueur est rarement conçue pour s’appliquer à l’utilisation de l’IA en milieu professionnel, et la jurisprudence pertinente demeure limitée. Celle‑ci devra donc faire l’objet d’un suivi pour que l’on puisse déterminer si, et dans quelle mesure, la législation doit être adaptée pour couvrir efficacement l’utilisation de l’IA dans le cadre du travail.
Certains pays ont pris les devants afin d’éviter d’éventuels vides juridiques et élaboré de nouveaux textes législatifs portant spécifiquement sur l’IA ; ces propositions ont souvent des implications importantes pour l’utilisation de cette technologie dans l’environnement professionnel. Certaines pourraient encore être sensiblement amendées avant de prendre effet, mais nombre d’entre elles représentent des avancées prometteuses vers le développement et l’utilisation d’une IA digne de confiance sur le lieu de travail.
La proposition de loi de l’UE sur l’IA en est un exemple notable, puisqu’elle vise à réglementer de nombreux aspects de l’IA dans ses États membres. Pour ce faire, elle adopte une approche différenciée qui prévoit des dispositions spécifiques pour certaines applications présentant un risque élevé sur le lieu de travail. Une approche fondée sur les risques permet d’éviter de réglementer les utilisations de l’IA qui en présentent peu et offre une certaine souplesse.
Certains pays ont également élaboré des dispositions spécifiques à l’IA suivant une approche plus étroite. Des mesures ont ainsi été proposées qui exigeraient des évaluations et des audits périodiques des risques tout au long du cycle de vie des systèmes d’IA en vue de repérer et d’atténuer leurs éventuels effets négatifs. Il existe aussi des projets de loi dédiés à l’IA qui exigent que les personnes soient informées lorsqu’elles interagissent avec un système d’IA. D’autres dispositions concernent l’explicabilité, comme dans la loi canadienne sur l’intelligence artificielle et les données (AIDA), et prescrivent des « explications en termes simples » sur la façon dont les systèmes d’IA obtiennent leurs résultats. Enfin, de nouveaux travaux législatifs ont pour objectif de renforcer la responsabilité des décisions fondées sur l’IA en imposant un contrôle humain.
La mise en œuvre d’une IA digne de confiance en entreprise suppose un cadre cohérent de dispositions non contraignantes et de législation contraignante couvrant toutes les composantes de cette confiance. Comme celles-ci sont interdépendantes, les politiques publiques pourraient servir des objectifs multiples, ce qui permettrait de réduire la charge réglementaire. Par exemple, la transparence est essentielle pour assurer la responsabilité, et des règles concernant l’explicabilité peuvent diminuer les biais dans les systèmes d’IA.
Dans le même temps, le cadre d’action concernant l’IA doit être souple et cohérent, au niveau national et international, afin de ne pas entraver l’application de la réglementation, étouffer l’innovation ou créer des obstacles inutiles à l’adoption d’une IA digne de confiance en milieu professionnel. Les approches différenciées de la réglementation de l’IA limitent la charge réglementaire, et des réexamens périodiques des définitions et cadres utilisés dans les textes législatifs permettent d’actualiser ces derniers en fonction des progrès de cette technologie. L’utilisation de bacs à sable réglementaires pour développer et tester les systèmes d’IA stimule l’innovation et fournit aux régulateurs des éléments concrets sur les ajustements éventuellement nécessaires au cadre réglementaire. L’élaboration des politiques publiques appelle en outre une collaboration entre les pays et les régions. Il convient également de donner aux développeurs et aux utilisateurs des orientations pour les aider à comprendre la législation, contraignante ou pas, en vigueur et son évolution et à s’y conformer.
Pour continuer d’améliorer les politiques en matière d’IA et faciliter leur application, il est indispensable que les responsables publics, les régulateurs, les travailleurs, les employeurs et les partenaires sociaux comprennent les avantages et les risques liés à l’utilisation de cette technologie en entreprise. Il convient donc d’assurer à toutes les parties prenantes l’accès à une formation sur ces questions (voir également le chapitre 5). Enfin, des évaluations seront indispensables pour déterminer quelles mesures sont efficaces et dans quels domaines des vides juridiques persistent. Ce point est d’autant plus important que les politiques nationales devront s’adapter à l’évolution rapide de l’IA. Les derniers progrès de l’IA générative et son utilisation de plus en plus répandue dans diverses professions et activités soulignent la nécessité d’agir rapidement et d’élaborer des plans coordonnés, pratiques et applicables pour assurer l’utilisation et le développement fiables de l’IA dans la sphère professionnelle.
Pour concrétiser pleinement leur potentiel en milieu professionnel, les systèmes d’IA doivent être développés et utilisés de manière fiable (ce que l’on désigne ci‑après par « IA digne de confiance »). Suivant les Principes de l’OCDE sur l’IA, une IA digne de confiance peut se définir comme suit (Encadré 6.1) :
l’adoption proactive par les parties prenantes d’une approche responsable à l’égard de l’IA afin de tendre vers des résultats bénéfiques pour les individus et la planète ;
le respect par tous les acteurs de l’IA de l’état de droit, des droits de l’homme et des valeurs démocratiques tout au long du cycle de vie des systèmes d’IA ;
l’engagement des acteurs de l’IA à assurer la transparence et une divulgation responsable des informations liées aux systèmes d’IA ;
la robustesse, la sûreté et la sécurité des systèmes d’IA tout au long de leur cycle de vie ;
la responsabilité de tous les acteurs de l’IA quant au bon fonctionnement des systèmes d’IA et au respect des autres composantes de la fiabilité.
La mise en œuvre d’une IA digne de confiance en entreprise peut s’avérer délicate, car cette technologie présente des risques, notamment au regard des droits de la personne humaine (vie privée, discrimination, droits des travailleurs par exemple), de la qualité des emplois, de la transparence, de l’explicabilité, et de la responsabilité (Salvi del Pero, Wyckoff et Vourc’h, 2022[1])1. Il convient en outre d’identifier les risques potentiels qui ne se manifestent pas actuellement, mais pourraient surgir dans un avenir proche, lorsque de nouveaux systèmes d’IA seront développés ou appliqués dans de nouveaux contextes.
Les risques liés à l’utilisation de l’IA dans le cadre professionnel et la rapidité du développement et du déploiement de cette technologie (notamment des derniers modèles d’IA générative) appellent une action décisive et anticipative des autorités et l’élaboration de politiques qui favorisent le développement et l’utilisation fiables de l’IA en entreprise. Une intervention tardive pourrait avoir des retombées défavorables sur la société, les employeurs et les salariés. À court terme, les mesures relatives à l’IA sur le lieu de travail permettront d’assurer un développement et une utilisation sûrs et responsables de l’IA dans ce contexte. À long terme, elles permettront également d’éviter des obstacles superflus à l’adoption de l’IA. La clarté juridique peut renforcer la confiance des utilisateurs éventuels de l’IA en leur montrant que les risques qu’elle présente sont déjà combattus. Elle peut également atténuer les craintes injustifiées de litiges chez les employeurs et les développeurs, ce qui peut stimuler la recherche, le développement et l’innovation, et ainsi entraîner des améliorations ultérieures des systèmes d’IA.
En même temps, d’aucuns craignent que des politiques mal conçues ou incohérentes et la multiplication des normes aient l’effet inverse et augmentent l’incertitude et les coûts de mise en conformité, fassent entrave à l’application de la réglementation et retardent inutilement l’adoption d’une IA avantageuse et digne de confiance. Les responsables publics sont donc confrontés au défi consistant à instaurer un cadre d’action clair, souple et cohérent garantissant une IA digne de confiance en milieu professionnel sans pour autant étouffer l’innovation ou créer d’obstacles inutiles à son adoption. Conscients de cette difficulté, les pays membres de l’OCDE et d’autres pays signataires ont récemment adopté un ensemble de principes détaillés – les principes sur l’IA – qui fixent à cet égard des normes suffisamment pratiques et souples pour résister à l’épreuve du temps (OECD.AI, 2023[2]) et garantissent en parallèle que l’IA est digne de confiance et qu’elle respecte les valeurs démocratiques et centrées sur l’être humain (Encadré 6.1).
Les Principes de l’OCDE sur l’intelligence artificielle ont été adoptés par les pays membres de l’Organisation en mai 2019. D’autres pays y ont depuis adhéré, dont l’Argentine, le Brésil, l’Égypte, Malte, le Pérou, la Roumanie, Singapour et l’Ukraine. Les Principes constituent aussi le fondement des Principes du G20 sur l’IA, https://www.mofa.go.jp/files/000486596.pdf.
Les parties prenantes devraient adopter de manière proactive une approche responsable en soutien d’une IA digne de confiance afin de tendre vers des résultats bénéfiques pour les individus et la planète, tels que le renforcement des capacités humaines et le renforcement de la créativité humaine, l’inclusion des populations sous-représentées, la réduction des inégalités économiques, sociales, entre les sexes et autres, et la protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être.
Les acteurs de l’IA devraient respecter l’état de droit, les droits de l’homme et les valeurs démocratiques tout au long du cycle de vie des systèmes d’IA. Ces droits et valeurs comprennent la liberté, la dignité et l’autonomie, la protection de la vie privée et des données, la non-discrimination et l’égalité, la diversité, l’équité, la justice sociale, ainsi que les droits des travailleurs reconnus à l’échelle internationale. Pour ce faire, les acteurs de l’IA devraient instituer des garanties et des mécanismes, tels que l’attribution de la capacité de décision finale à l’homme, qui soient adaptés au contexte et à l’état de l’art.
Les acteurs de l’IA devraient s’engager à assurer la transparence et une divulgation responsable des informations liées aux systèmes d’IA. À cet effet, ils devraient fournir des informations pertinentes, adaptées au contexte et à l’état de l’art, afin : i) de favoriser une compréhension générale des systèmes d’IA, ii) d’informer les parties prenantes de leurs interactions avec les systèmes d’IA, y compris dans la sphère professionnelle, iii) de permettre aux personnes concernées par un système d’IA d’en appréhender le résultat, et, iv) de permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et aisément compréhensibles sur les facteurs et sur la logique ayant servi à la formulation de prévisions, recommandations ou décisions.
Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie, de sorte que, dans des conditions d’utilisation normales ou prévisibles, ou en cas d’utilisation abusive ou de conditions défavorables, ils soient à même de fonctionner convenablement, et ne fassent pas peser un risque de sécurité démesuré. Pour ce faire, les acteurs de l’IA devraient veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, afin de permettre l’analyse des résultats produits par lesdits systèmes d’IA et le traitement des demandes d’information, compte tenu du contexte et de l’état de l’art de la technologie. Par ailleurs, les acteurs de l’IA devraient, selon leurs rôles respectifs, le contexte et leur capacité à agir, appliquer de manière continue une approche systématique de la gestion du risque, à chaque phase du cycle de vie des systèmes d’IA, afin de gérer les risques y afférents, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais.
Les acteurs de l’IA devraient être responsables du bon fonctionnement des systèmes d’IA et du respect des principes exposés ci-dessus, selon leurs rôles, le contexte et l’état de l’art.
Source : OCDE (2019[3]), Recommandation du Conseil sur l’intelligence artificielle, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
Toutes les composantes de la fiabilité de l’IA sont d’importance égale et doivent être considérées dans un cadre d’action cohérent. Comme elles sont très étroitement associées et interdépendantes, les politiques pourraient porter sur plusieurs d’entre elles à la fois, ce qui permettrait d’éviter une charge réglementaire superflue. Par exemple, lorsque les salariés ou leurs représentants pourront examiner les algorithmes et comprendre comment un système d’IA est parvenu à une décision liée à l’emploi (transparence et explicabilité : principe 1.3), il sera plus facile de déterminer la cause et le responsable d’une décision erronée (responsabilité : principe 1.5), ce qui pourra encourager les développeurs à remédier au problème et à prévenir des dommages ultérieurs (principes 1.1, 1.2 et 1.4).
Les politiques qui visent à promouvoir une IA digne de confiance dans le cadre professionnel sont importantes pour les travailleurs, les employeurs et les partenaires sociaux. L’enquête Genesys Workplace Survey de 2019 (Genesys, 2019[4]) a constaté que 54 % des salariés estiment que leur entreprise devrait disposer d’une procédure écrite sur l’utilisation éthique de l’IA ou des bots (Graphique 6.1). Seuls 23 % des employeurs interrogés en ont établi une, mais 40 % de ceux qui n’en ont pas (31 % des employeurs interrogés) considèrent que leur entreprise devrait remédier à cette lacune.
Le présent chapitre offre un tour d’horizon des mesures en faveur du développement et de l’utilisation d’une IA digne de confiance en milieu professionnel. Il couvre les dispositions générales qui ne portent pas exclusivement sur l’IA ou sur l’environnement de travail (mais qui ont des conséquences pour l’IA utilisée dans ce cadre), mais aussi des mesures qui sont spécifiques à l’un et/ou à l’autre. Il couvre les approches non contraignantes comme les stratégies, lignes directrices et normes en matière d’IA (« instruments non contraignants ») et les cadres législatifs juridiquement contraignants (« instruments contraignants »). Les partenaires sociaux ont également un rôle important à jouer dans la gestion des usages de l’IA en milieu professionnel, par le biais de la négociation collective et du dialogue social (voir le chapitre 7).
La section 6.1 examine comment les dispositions non contraignantes peuvent encourager le développement et l’utilisation fiable de l’IA sur le lieu de travail. La section 6.2 analyse en quoi des cadres législatifs juridiquement contraignants peuvent d’une part empêcher l’IA de faire du tort aux demandeurs d’emploi et aux salariés et protéger leurs droits fondamentaux, et d’autre part accroître la transparence et l’explicabilité de l’IA en milieu professionnel2 ; elle examine aussi dans quelle mesure la législation en vigueur et les projets de loi actuels permettent d’établir la responsabilité des acteurs de l’IA. La section 6.3 viendra en conclusion.
Le chapitre examine séparément les approches fondées sur des instruments non contraignants et celles fondées sur des instruments contraignants, mais, dans la pratique, les unes et les autres vont souvent de pair. Cela tient en partie à ce que toutes deux présentent des avantages et des inconvénients (comme analysé aux sections 6.1 et 6.2). La mise en place d’un cadre bien coordonné d’instruments non contraignants et d’instruments contraignants permettrait d’assurer que les mesures sont applicables et faciles à respecter, et de les adapter dans le même temps aux dernières évolutions de l’IA. Il convient par ailleurs de noter que, comme toutes les composantes de la fiabilité sont interdépendantes, les exemples de mesures examinés dans une sous-section peuvent s’appliquer à d’autres.
Jusqu’ici, les mesures spécifiques à l’IA adoptées par les pays de l’OCDE pour promouvoir une IA digne de confiance dans le cadre du travail ont essentiellement privilégié les approches non contraignantes qui reposent sur la capacité des entreprises à s’autoréglementer. Il s’agit par exemple de cadres et lignes directrices en matière d’éthique, de normes techniques et de codes de conduite à l’appui d’une IA digne de confiance3. Dans de nombreux pays membres de l’OCDE, ces instruments concordent avec les Principes de l’OCDE sur l’IA (Encadré 6.1). Les syndicats, les organisations patronales, ainsi que des employeurs indépendants ont également élaboré leurs propres lignes directrices et principes en la matière, ainsi que des outils destinés à renforcer une IA digne de confiance (voir le chapitre 7).
L’un des principaux avantages du recours à des instruments incitatifs pour la gouvernance de l’IA tient à ce qu’ils sont plus faciles à appliquer et à adapter que des textes législatifs (ou « instruments contraignants ») (Abbott et Snidal, 2000[5]), ce qui permet de combler certaines des lacunes existantes ou nouvelles dans la législation relative à l’IA. La plupart des textes législatifs spécifiques à l’IA sont en cours d’élaboration et il faudra sans doute plusieurs années avant qu’ils n’entrent en vigueur. Dans l’intervalle, les dispositions non contraignantes sont un instrument de gouvernance utile pour fournir des incitations et des lignes directrices à l’appui d’une IA digne de confiance en entreprise. Elles peuvent en outre offrir la souplesse nécessaire compte tenu des progrès rapides de cette technologie : les textes législatifs ne pourront sans doute pas toujours couvrir efficacement les risques créés par les toutes dernières avancées de l’IA (Gutierrez et Marchant, 2021[6]). Les instruments non contraignants peuvent aussi faciliter la conformité juridique quand la législation est trop générale ou complexe pour que les acteurs de l’IA la comprennent ou la mettent en pratique. Enfin, comme ils sont généralement plus faciles à appliquer, ils sont également utilisés pour établir une coordination et une collaboration internationales en matière d’IA. Ces dernières sont importantes pour éviter l’élaboration de politiques divergentes, voire pour en favoriser l’harmonisation au niveau international, ce qui pourrait réduire l’incertitude et les coûts de mise en conformité pour les entreprises, notamment les plus petites.
Plusieurs pays membres de l’OCDE sont en train d’élaborer une législation spécifique à l’IA (section 6.2), mais d’autres, outre qu’ils appliquent la législation en vigueur à l’IA sur le lieu de travail, recourent essentiellement à des dispositions non contraignantes. C’est le cas du Royaume‑Uni, où les autorités ont demandé aux régulateurs de faire appel dans toute la mesure du possible aux instruments incitatifs et aux procédures existantes pour la gouvernance du développement et de l’utilisation de l’IA (voir Encadré 6.2). Un autre exemple est celui du Japon, où les « exigences horizontales juridiquement contraignantes pour les systèmes d’IA sont jugées inutiles pour le moment » (METI, 2021[7]). Les autorités japonaises préfèrent formuler des orientations pour aider les entreprises à prendre des mesures volontaires en matière d’IA, sur la base d’un dialogue multipartite.
Le 23 mars 2023, le gouvernement britannique a publié le Livre blanc sur la réglementation de l’IA qui présente ses dernières propositions en vue de réglementer cette technologie au Royaume‑Uni. Ces propositions se fondent sur cinq principes fondamentaux qui définissent les attentes des autorités britanniques en ce qui concerne des systèmes d’IA de qualité et responsables :
Sûreté, sécurité, robustesse
Transparence et explicabilité appropriées
Équité
Responsabilité et gouvernance
Contestabilité et voies de recours
Les autorités aideraient les régulateurs indépendants britanniques1 à interpréter ce que ces principes signifient pour le développement et l’utilisation de l’IA dans leur environnement et leur secteur spécifiques et à déterminer si des mesures adaptées à l’usage de l’IA dans leur secteur s’imposent et, le cas échéant, le calendrier et les modalités de leur mise en œuvre. Pour ce faire, elles devraient éventuellement formuler des orientations ou créer des modèles d’évaluation des risques ou d’impact. Le Livre blanc confirme par ailleurs l’engagement du gouvernement britannique à établir un bac à sable réglementaire pour l’IA afin d’aider les développeurs à se familiariser avec la réglementation et à mettre leurs produits sur le marché. Ce bac à sable aiderait aussi les autorités à comprendre l’interaction entre la réglementation et les nouvelles technologies et à l’améliorer en cas de besoin.
Compte tenu des protections prévues par la règle de droit en vigueur dans tous les domaines et secteurs, le gouvernement britannique ne voit actuellement pas la nécessité d’adopter une législation supplémentaire ou spécifique à l’IA. Le Livre blanc souligne par ailleurs que la méthode non contraignante « permettra à la réglementation britannique de s’adapter au développement rapide de l’IA, garantissant la protection de la population sans pour autant empêcher les entreprises de recourir à cette technologie » (Gouvernement du Royaume-Uni, 2023[8]). L’approche contextuelle reconnaît que les risques peuvent varier au sein d’un secteur, d’un secteur à l’autre et avec le temps. Pour éviter des règlements discordants et contradictoires, le gouvernement encourage la coordination réglementaire, par exemple dans le cadre du Forum de coopération pour la réglementation numérique (Digital Regulation Co‑operation Forum).
Le cadre réglementaire proposé dans le Livre blanc repose sur un ensemble de nouvelles fonctions centrales, hébergées dans un premier temps au sein de l’administration centrale. Il s’agit notamment d’une fonction d’évaluation des risques qui assurera le suivi et la surveillance du cadre pour vérifier qu’il a les effets visés en ce qui concerne les risques et veillera dans le même temps à ce qu’il n’ait pas de conséquences inacceptables sur l’innovation.
Le gouvernement britannique devrait publier une réponse aux parties prenantes à l’issue d’une période de consultation à laquelle participeront des particuliers et des organisations issus de l’écosystème de l’IA, du secteur des entreprises au sens large, de la société civile et du monde universitaire (date limite de participation : mi‑juin 2023).
1. Il s’agit souvent des organismes réglementaires sectoriels, comme l’Inspection de la santé et de la sécurité (Health and Safety Executive), la Commission sur l’égalité et les droits de la personne humaine ou l’Autorité de la concurrence et des marchés.
Source : gouvernement britannique (2023[8]), A pro‑innovation approach to AI regulation, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper#part-3-an-innovative-and-iterative-approach.
Les pays établissent également des orientations relatives à l’utilisation d’une IA digne de confiance en milieu professionnel. Au Royaume‑Uni, par exemple, le Centre pour l’éthique des données et l’innovation (Centre for Data Ethics and Innovation – CDEI)4 a élaboré, en collaboration avec la Confédération du recrutement et de l’emploi (Recruitment and Employment Confederation – REC), un guide pratique pour aider les recruteurs à déployer de manière efficace et responsable des outils de recrutement fondés sur des données, vérifier que des mesures appropriées ont été prises pour atténuer les risques qu’ils présentent et optimiser les possibilités qu’ils offrent (REC/CDEI, 2021[9]). À Singapour, l’Autorité pour le développement des médias d’information et de communication (IMDA) et la Commission pour la protection des données personnelles (PDPC) mettent actuellement au point une boîte à outils, appelée A.I. Verify, qui permettrait aux entreprises de signaler les tâches que leurs systèmes d’IA peuvent accomplir et les mesures qui ont été prises pour atténuer les risques qui leur sont liés. Elle permettrait de vérifier la conformité des résultats de n’importe quel système d’IA (y compris en entreprise) aux promesses de son développeur et aux principes éthiques en matière d’IA acceptés au niveau international (IMDA, 2023[10]).
Par ailleurs, les pays intègrent souvent des mesures visant à promouvoir une IA digne de confiance en milieu professionnel dans leurs stratégies. Rogerson et al. (2022[11]) signalent une forte progression du pourcentage de pays ayant publié une stratégie en matière d’IA ces cinq dernières années, notamment en Europe, en Amérique du Nord et en Asie de l’Est. Celle de l’Allemagne, par exemple, établit que les applications d’IA doivent amplifier et renforcer l’efficacité humaine. Elle contient en outre un engagement explicite à assurer le développement et l’utilisation responsables d’une IA servant les intérêts de la société et à favoriser un vaste dialogue sociétal sur son utilisation (Hartl et al., 2021[12]). La stratégie nationale de l’Espagne à cet égard comporte un pilier éthique, et encourage notamment l’élaboration d’une certification de fiabilité pour les spécialistes de l’IA (La Moncloa, 2020[13]). L’Agence espagnole de surveillance de l’intelligence artificielle – la première du genre en Europe – sera chargée de promouvoir une IA digne de confiance et de surveiller les systèmes d’IA susceptibles de présenter des risques importants pour la santé, la sécurité et les droits fondamentaux (España Digital, 2023[14])5.
Plusieurs pays ont publié des stratégies concernant l’utilisation d’une IA digne de confiance dans le secteur public en particulier : une première cartographie réalisée par Berryhill et al. (2019[15]) en a recensé 36. L’Agence australienne pour la transformation numérique (Digital Transformation Agency) a ainsi élaboré un guide pour l’adoption de l’IA dans le secteur public qui établit entre autres que les décideurs humains demeurent responsables des décisions assistées par des machines, et qu’ils doivent donc comprendre les données d’entrée et les résultats des technologies (Gouvernement de l’Australie, 2023[16]).
Les pays et les parties prenantes appuient également la mise en œuvre d’une IA digne de confiance dans le cadre professionnel moyennant l’élaboration de normes6. Dans certains cas, comme aux États-Unis, celle‑ci est imposée par la loi (Congrès des États-Unis, 2021[17]). Le National Institute of Standards and Technology (NIST) définit actuellement des critères d’évaluation des technologies d’IA, pilote l’élaboration de normes techniques en matière d’IA et y participe (NIST, 2022[18])7. Les normes visant à favoriser une IA digne de confiance ont également mobilisé une coopération internationale, comme le montrent la déclaration commune inaugurale du Conseil du commerce et des technologies UE‑États-Unis (Commission européenne, 2021[19]) ou le projet lancé par le Royaume‑Uni, par l’intermédiaire de l’Institut Alan Turing, en vue d’établir des normes mondiales en matière d’IA (Alan Turing Institute, 2022[20]).
La présente section montre dans l’ensemble que les instruments non contraignants sont un outil de gouvernance de premier plan pour encourager le développement et l’utilisation fiables de l’IA dans la sphère professionnelle. Néanmoins, compte tenu de leur caractère non exécutoire, ces instruments pourraient s’avérer insuffisants pour prévenir ou réparer les dommages liés à l’IA en entreprise. Pour leurs détracteurs, ils peuvent même constituer une forme de « blanchiment éthique », car les mesures prises par les entreprises de leur propre initiative en matière d’éthique de l’IA sont soumises à une obligation de rendre compte limitée ou ne parviennent guère à faire évoluer les comportements (Whittaker et al., 2018[21] ; McNamara, Smith et Murphy-Hill, 2018[22]). Étant donné la rapidité de l’évolution technologique, une combinaison d’instruments non contraignants et contraignants pourrait donc s’imposer pour continuer à assurer une IA digne de confiance dans le cadre professionnel.
Les sections qui suivent examinent l’évolution de la législation contraignante visant à assurer une IA digne de confiance dans le cadre du travail. Outre sa grande force exécutoire, elle est souvent plus détaillée et plus précise que les instruments non contraignants, et peut déléguer (à des juges par exemple) un pouvoir d’interprétation et d’exécution (Abbott et Snidal, 2000[5]). Qui plus est, elle fait forcément l’objet de procédures démocratiques (débats et votes parlementaires par exemple), ce qui n’est pas nécessairement le cas des instruments non contraignants. En revanche, du fait de ces procédures, elle est moins souple que les normes non contraignantes, ce qui peut créer des vides juridiques dans le cas de la réglementation d’une technologie en perpétuelle évolution comme l’IA.
Un moyen d’assurer l’adaptation constante de la législation aux progrès de l’IA consiste à y intégrer l’obligation de réexaminer périodiquement le cadre juridique. Ces examens pourraient mobiliser la participation des spécialistes de ce domaine, ainsi que celle des partenaires sociaux et de parties prenantes comme les associations professionnelles et les organisations de défense des consommateurs. La proposition de loi sur l’IA de l’UE et la proposition canadienne de loi sur l’intelligence artificielle et les données (LIAD), par exemple, adoptent une approche « différenciée » ou « fondée sur les risques » ; autrement dit, seules certaines applications d’IA (présentant un risque élevé) sont assujetties à une réglementation spécifique ou tout simplement interdites (Encadré 6. et Encadré 6.4). La mise à jour périodique de la définition des systèmes présentant « un risque élevé » et « un risque inacceptable » assouplirait le cadre législatif. En concentrant la surveillance sur les applications d’IA les plus susceptibles de provoquer des dommages et en limitant en parallèle la charge de la mise en conformité pour les applications inoffensives et bénéfiques, l’approche différenciée permet en outre de mieux cibler et moduler la législation (Lane et Williams, 2023[23]).
Une autre méthode envisageable pour assouplir la législation consiste à créer des « bacs à sable » réglementaires qui permettent de procéder à des essais contrôlés des nouvelles technologies d’IA dans un environnement sûr et réglementé. Ils offrent la possibilité d’étudier de nouvelles applications d’IA sans exposer les usagers ou la société à des risques inconsidérés et permettent d’adapter les cadres juridiques existants ou d’en élaborer de nouveaux en fonction de ces nouvelles technologies ou applications (Appaya, Gradstein et Haji Kanz, 2020[24] ; Madiega et Van De Pol, 2022[25] ; Attrey, Lesher et Lomax, 2020[26]).
Nous nous pencherons dans cette section sur le rôle des textes législatifs spécifiques à l’IA et/ou au lieu de travail et sur celui de la législation plus générale applicable à l’IA (en entreprise), qu’il s’agisse des textes déjà en vigueur ou de ceux encore en cours d’élaboration. Les politiques publiques concernant les travailleurs dont les emplois sont menacés d’automatisation par l’IA sont examinées au chapitre 3, les négociations collectives et le dialogue social portant sur ce thème au chapitre 7. La législation visant à remédier aux conséquences négatives du recours à l’IA sur les entreprises (pertes économiques ou dommages matériels) n’est pas examinée ici.
L’IA est en mesure d’automatiser pleinement les décisions liées à l’emploi, notamment le ciblage des annonces de postes sur certains demandeurs d’emploi, la présélection des candidats sur la base de leur CV, l’attribution des tâches au travail et les décisions relatives aux primes, aux promotions ou à la formation. Si cette capacité permet aux cadres dirigeants de consacrer plus de temps aux aspects interpersonnels de leur travail (voir le chapitre 4), elle soulève la question de savoir si les décisions qui ont des conséquences appréciables sur les perspectives professionnelles et le bien-être des travailleurs doivent être prises en l’absence de toute participation humaine, ou du moins sans possibilité d’intervention humaine. Les Principes de l’OCDE sur l’IA appellent donc les acteurs du secteur à instituer des mécanismes qui garantissent une capacité d’intervention et de surveillance humaines afin de promouvoir les valeurs centrées sur l’humain et l’équité dans les systèmes d’IA (OCDE, 2019[3]).
À ce jour, l’automatisation intégrale de la gestion des entreprises et de l’évaluation du personnel reste rare (voir le chapitre 4). Outre les difficultés techniques inhérentes à la modélisation de toutes les tâches et incertitudes que les gestionnaires humains doivent prendre en compte dans le cadre de leur travail (Wood, 2021[27]), divers facteurs sont susceptibles d’en limiter l’adoption, notamment les coûts, le manque de compétences pour travailler avec l’IA (voir le chapitre 5) et, dans certains cas, la réglementation. Par exemple, certains pays – dans l’UE notamment, en application du Règlement général sur la protection des données (RGPD) (Encadré 6.) – accordent aux individus le droit à une contribution humaine concrète aux décisions importantes qui les concernent, ce qui leur permet de refuser un processus de décision entièrement automatisé sur le lieu de travail (Journal officiel de l’Union européenne, 2016[28] ; Parlement du Royaume-Uni, 2022[29] ; Wood, 2021[27])8. Par ailleurs, de nouveaux travaux législatifs sont en cours qui visent à empêcher l’adoption d’outils de décision entièrement automatisés dans des environnements à risque élevé comme celui de l’entreprise, et exigent pour ce faire un contrôle humain (autrement dit une intervention humaine). On trouvera une analyse approfondie de ce concept à la section 6.2.3.
Le Règlement général sur la protection des données (RGPD) consacre les droits en matière de données dont bénéficient les personnes établies dans l’UE et les obligations imposées aux entités qui traitent des données à caractère personnel (Journal officiel de l’Union européenne, 2016[28]). Ces droits s’appliquent aux technologies générales de collecte et de traitement des données et ont des conséquences particulières pour l’IA. C’est notamment le cas des droits en matière de transparence des informations et des communications, ainsi que des droits d’accès (articles 12, 13 et 15), de rectification, d’effacement et à la limitation du traitement (articles 16‑17). Ces droits visent entre autres à protéger les données personnelles des individus et à renforcer la transparence du traitement des données. L’article 88 porte spécifiquement sur la protection des données dans le cadre des relations de travail et donne aux États membres la possibilité d’édicter des règles plus spécifiques pour assurer la protection des données à caractère personnel des employés.
Par ailleurs, point important, l’article 22 donne aux personnes le droit « de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant […] ». Comme il peut être extrêmement difficile d’obtenir ce type de consentement juridique dans le cadre des relations de travail, l’article 22 interdit de fait la gestion algorithmique que suppose un processus de décision complètement automatisé (Parviainen, 2022[30] ; Wood, 2021[27]). La Directive de l’UE concernant les conditions de travail des travailleurs de plateforme prévoit d’autres protections relatives à l’utilisation de la gestion algorithmique des personnes travaillant par l’intermédiaire de plateformes numériques (voir le chapitre 4).
La proposition de loi sur l’intelligence artificielle de l’Union européenne présentée en 2021 vise à réglementer les systèmes d’IA disponibles ou utilisés dans les 27 États membres afin de parer aux risques pour la sécurité, la santé et les droits fondamentaux, et prévoit notamment des dispositions portant spécifiquement sur l’utilisation de certaines applications d’IA à risque élevé dans le cadre professionnel. Elle établit un cadre juridique uniforme pour que le développement, la commercialisation et l’utilisation de l’IA n’aient pas d’incidence préjudiciable significative sur la santé, la sécurité et les droits fondamentaux des citoyens dans l’Union (Commission européenne, 2021[31]).
La loi proposée suit une approche réglementaire fondée sur les risques qui introduit une distinction entre les utilisations de l’IA qui créent : i) un risque minimal ; ii) un risque faible ; iii) un risque élevé ; iv) un risque inacceptable. Elle classe certains systèmes d’IA utilisés pour le recrutement, la prise de décisions de promotion et de licenciement, l’attribution des tâches et le suivi des personnes dans le cadre de relations professionnelles contractuelles, dans la catégorie des « risques élevés ». Du fait de cette catégorisation, ces systèmes seraient assujettis à des exigences légales concernant la gestion des risques, la qualité et la gouvernance des données, la documentation et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, la robustesse, l’exactitude et la sécurité.
Cette approche fondée sur les risques a été saluée (Ebers et al., 2021[32] ; DOT Europe, 2021[33] ; Veale et Borgesius, 2021[34]), la catégorisation des différents systèmes faisant toutefois l’objet d’un débat (Johnson, 2021[35]). La proposition, censée entrer en vigueur en 2025, pourrait donc être encore profondément modifiée avant de prendre effet. Le Conseil, par exemple, suggère que la Commission évalue la nécessité d’amender la liste des systèmes à risque élevé tous les 24 mois (Conseil de l’Union européenne, 2022[36]), et le Parlement propose des mesures de transparence supplémentaires pour les modèles génératifs comme GPT (Parlement européen, s.d.[37]).
Pour remédier aux principaux problèmes qui créent une incertitude juridique pour les fournisseurs et pour favoriser un apprentissage réglementaire fondé sur des données d’observation, la loi encourage les États membres de l’UE à mettre en place des « bacs à sable réglementaires » permettant de développer et de mettre à l’essai des systèmes d’AI dans un environnement contrôlé pendant la phase de précommercialisation. En Espagne, par exemple, le projet pilote de bac à sable réglementaire sur l’IA vise à mettre concrètement en œuvre les exigences du futur règlement sur l’IA de l’UE (Commission européenne, 2022[38]).
Même si la procédure de décision n’est pas entièrement automatisée, l’utilisation de l’IA dans le cadre professionnel peut réduire l’autonomie et la capacité d’agir des salariés, diminuer les contacts humains et accroître l’interaction entre l’humain et la machine, ce qui risque de se traduire par un isolement social, un recul du bien-être des travailleurs et, à l’extrême, une perte de dignité dans le travail (Briône, 2020[39] ; Nguyen et Mateescu, 2019[40]). Les mesures et réglementations destinées à parer au risque de perte de contact humain résultant de l’utilisation de l’IA en entreprise demeurent rares. La réglementation en matière de santé et de sécurité au travail peut couvrir les problèmes de santé mentale, mais il n’est pas certain qu’elle couvre correctement les risques psychosociaux posés par les systèmes d’IA (Nurski, 2021[41]). L’Allemagne constitue une exception : un rapport rédigé par la Commission nationale d’étude sur l’IA a souligné la nécessité de « veiller à ce que, en tant qu’êtres sociaux, les humains aient la possibilité d’entretenir des contacts sociaux avec d’autres humains sur leur lieu de travail, qu’ils bénéficient d’un retour d’information humain et qu’ils aient le sentiment de faire partie du personnel » (Deutscher Bundestag Enquete-Kommission, 2020[42]).
La collecte et le traitement de données à caractère personnel, que ce soit pour des systèmes d’IA ou à d’autres fins, présentent un risque d’atteinte à la vie privée si la gouvernance des données laisse à désirer, par exemple si les données sont utilisées de manière abusive ou sans le consentement requis, ou si elles sont insuffisamment protégées (Partenariat Mondial sur l’Intelligence Artificielle (PMIA), 2020[43] ; OCDE, 2023[44]). Les atteintes à la vie privée constituent une violation des droits fondamentaux inscrits dans la Déclaration universelle des droits de l’homme des Nations Unies (Nations Unies, 1948[45]) et dans plusieurs autres traités nationaux et régionaux portant sur ce thème. Bien que le risque d’atteinte à la vie privée lié aux technologies numériques ne soit pas limité à l’utilisation de l’IA, le volume de données à caractère personnel traitées par les systèmes d’IA est souvent supérieur à celui des données collectées par les humains ou par d’autres technologies9, ce qui aggrave le préjudice potentiel dans le cas où un problème surviendrait (voir le chapitre 4). Qui plus est, les systèmes d’IA peuvent inférer des informations sensibles sur les personnes (religion, orientation sexuelle ou affiliations politiques par exemple) à partir de données non sensibles (Wachter et Mittelstadt, 2019[46]). En même temps, l’IA peut aussi renforcer la protection de la vie privée et la gouvernance des données en donnant aux entreprises les moyens d’anonymiser automatiquement les données et de classer les informations sensibles en temps réel, garantissant ainsi le respect des règles et réglementations existantes en matière de protection de la vie privée.
Comme l’IA repose sur les données, les réglementations générales en matière de protection des données s’appliquent habituellement à son utilisation dans le contexte professionnel. Tous les pays membres de l’OCDE, et 71 % des pays de la planète, ont adopté des lois visant à protéger les données (sensibles) et la vie privée (CNUCED, 2023[47]). Le Règlement général sur la protection des données (RGPD), adopté par l’UE en 2018, est peut-être le plus connu à cet égard (Encadré 6.). Il impose aux entreprises de protéger convenablement les données personnelles, par une authentification à double facteur par exemple. Ces exigences s’appliquent dans tous les contextes, y compris celui du travail. L’article 35 du RGPD exige également des analyses d’impact relatives à la protection des données, en particulier pour les nouvelles technologies et lorsque les opérations de traitement sont susceptibles d’engendrer un risque élevé pour les droits et libertés des personnes physiques. Le RGPD requiert en outre la transparence quant aux informations d’ordre personnel qui sont traitées par les systèmes d’IA et limite les possibilités de traitement de données à caractère personnel sensibles, comme celles révélant une origine ethnique, des opinions politiques ou des convictions religieuses, que les personnes ne souhaitent pas forcément partager, même si des mesures optimales de protection des données sont en place (GDPR.EU, 2022[48])10. Ainsi, en avril 2023, l’agence italienne de protection des données a provisoirement interdit à ChatGPT de traiter les données à caractère personnel des citoyens italiens en raison de plusieurs violations présumées du RGPD (Altomani, 2023[49]). Plusieurs autres pays européens ont entrepris de vérifier la conformité de ChatGPT à la législation sur la protection de la vie privée, et le Parlement européen s’emploie actuellement à définir des règles plus rigoureuses pour les modèles génératifs du même genre dans le cadre de la législation sur l’IA de l’UE, en les distinguant de l’IA à usage général (Madiega, 2023[50] ; Bertuzzi, 2023[51] ; Parlement européen, 2023[52]).
Plusieurs pays membres de l’OCDE ont établi une législation analogue au RGPD de l’UE. Le RGPD britannique et la Lei Geral de Proteçao de Dados (LGPD) brésilienne, par exemple, s’en inspirent directement, et la loi sud-coréenne de 2011 sur la protection des informations à caractère personnel comprend de nombreuses dispositions de même nature, notamment l’obligation d’obtenir le consentement des personnes concernées (Simmons, 2022[53] ; GDPR.EU, 2023[54]). Le niveau de protection des données et de la vie privée varie cependant d’un pays à l’autre et, dans certains, il est relativement faible. Aux États‑Unis, par exemple, il n’existe pas de loi fédérale sur la confidentialité des données qui s’applique à tous les secteurs d’activité, et la législation des États est à cet égard limitée (International Association of Privacy Professionals (IAPP), 2023[55]).
Le domaine de l’emploi peut présenter des problèmes particuliers que la législation actuelle en matière de protection des données et de la vie privée ne permet pas de traiter avec efficacité, comme les droits et intérêts collectifs des employés et l’asymétrie d’information et de pouvoir inhérente à la relation d’emploi (Abraha, Silberman et Adams-Prassl, 2022[56]). Par exemple, alors que les dispositions réglementaires à cet égard, comme le RGPD, exigent souvent que les personnes concernées donnent leur consentement explicite à l’utilisation de leurs données personnelles, il est douteux qu’un consentement valable puisse être obtenu dans des situations d’asymétrie de pouvoir et de dépendance comme les entretiens d’embauche et les relations de travail. Les candidats à un poste et les salariés peuvent craindre qu’un refus de leur part ait des conséquences défavorables sur leurs perspectives d’emploi ou d’évolution professionnelle (Intersoft Consulting, 2022[57]). Par ailleurs, certains spécialistes doutent que des travailleurs dotés d’une connaissance et d’une compréhension limitées des systèmes d’IA soient véritablement en mesure de donner un consentement éclairé. En effet, le Comité européen de la protection des données juge « problématique que les employeurs traitent les données à caractère personnel de leurs employés actuels ou potentiels en se fondant sur leur consentement, dès lors qu’il est peu probable que celui-ci soit donné librement » (EDPB, 2020[58])11. En 2019, un tribunal australien a fait droit à l’appel d’un employé d’une scierie et statué qu’il avait été licencié abusivement pour avoir refusé d’utiliser les lecteurs numériques d’empreintes digitales pour pointer à l’arrivée et à la sortie du travail (Chavez, Bahr et Vartanian, 2022[59]).
L’Allemagne est l’un des rares pays européens à s’être fondé sur l’article 88 du RGPD pour élaborer des règles de protection des données spécifiquement applicables à la sphère professionnelle (Abraha, Silberman et Adams-Prassl, 2022[56]). Néanmoins, le conseil interdisciplinaire indépendant sur la protection des données des salariés a récemment constaté que, malgré cette réglementation complémentaire, le cadre législatif allemand ne garantit toujours pas véritablement la sécurité juridique en la matière. Il devrait par exemple comporter des exemples-types d’(in)admissibilité du consentement ; le conseil recommande fermement que l’utilisation de l’IA dans le domaine de l’emploi soit réglementée par la loi (Independent interdisciplinary council on employee data protection, 2022[60]).
Même sans l’IA, les préjugés et les discriminations en milieu professionnel ne sont malheureusement pas rares (Cahuc, Carcillo et Zylberberg, 2014[61] ; Quillian et al., 2017[62] ; Becker, 2010[63] ; Bertrand et Mullainathan, 2004[64]), ce qui constitue une violation des droits fondamentaux des travailleurs (Nations Unies, 1948[45]). Le recours à une IA digne de confiance dans le cadre du recrutement peut produire des recommandations objectives, cohérentes et fondées sur des données susceptibles d’accroître la diversité sur le lieu de travail et d’amener à sélectionner des candidats globalement plus performants (Fleck, Rounding et Özgül, 2022[65])12. Or, de nombreux systèmes d’IA se heurtent au problème des biais, car l’IA sera d’autant moins à même de faire reculer les préjugés et la discrimination que les systèmes comportent des biais dans leur conception et font appel à des données biaisées (Accessnow, 2018[66] ; Bureau exécutif du Président, États-Unis, 2016[67] ; Fleck, Rounding et Özgül, 2022[65] ; Partenariat Mondial sur l’Intelligence Artificielle (PMIA), 2020[43]). En conséquence, l’utilisation de l’IA en entreprise peut introduire des biais concernant entre autres le ciblage des offres d’emploi, la sélection des candidats pour un entretien et l’évaluation du rendement des travailleurs (voir le chapitre 4).
Diverses lois visant à lutter contre la discrimination au travail en vigueur dans les pays membres de l’OCDE peuvent s’appliquer à l’utilisation de l’IA en entreprise. Ainsi, en 2021, un tribunal italien a invoqué les dispositions législatives antidiscriminatoires existantes pour interdire un algorithme utilisé par la plateforme numérique Deliveroo pour attribuer des créneaux de travail aux livreurs. Le tribunal a considéré que Deliveroo donnait un accès préférentiel aux différents créneaux au moyen d’un algorithme qui « notait » les livreurs en fonction de leur fiabilité et de leur participation13. Il a jugé que l’algorithme faisait appel à une méthode de traitement des données opaque, sans contextualisation possible, pour établir le classement, et qu’il pratiquait de ce fait une discrimination indirecte à l’encontre des livreurs qui avaient réservé un créneau, mais ne pouvaient travailler, y compris en cas de problèmes personnels, de maladie ou de participation à une grève (Geiger, 2021[68] ; Allen QC et Masters, 2021[69] ; Tribunale Ordinario di Bologna, 2020[70])14. Bornstein (2018[71]) observe qu’aux États-Unis les employeurs peuvent être poursuivis en justice s’ils ont délibérément décidé d’introduire dans le modèle des données biaisées qui reprennent les discriminations antérieures et si l’IA reproduit en conséquence ces discriminations.
Quoi qu’il en soit, la législation en vigueur n’est, le plus souvent, pas conçue pour s’appliquer à l’utilisation de l’IA dans le cadre professionnel, et la jurisprudence pertinente demeure limitée. Dans la pratique, contester des décisions d’emploi fondées sur l’IA en invoquant uniquement les lois antidiscrimination existantes risque donc de s’avérer difficile. Les plaignants peuvent par exemple se heurter à des difficultés pour accéder à l’algorithme en raison des réglementations relatives à la protection de la vie privée et à la propriété intellectuelle, et même s’ils y ont accès, il se peut que l’algorithme soit si complexe que même les programmeurs et les administrateurs ne savent pas ou ne comprennent pas comment le résultat a été obtenu (Rudin, 2019[72] ; O’Keefe et al., 2019[73] ; Bornstein, 2018[71]). Il se peut en outre que de nombreux candidats et salariés ne soient même pas informés que l’IA est utilisée pour les évaluer ou n’aient pas les moyens, les compétences et les outils nécessaires pour déterminer si le système d’IA établit une discrimination à leur encontre, ce qui pose des problèmes dans les pays qui misent fortement sur l’action individuelle pour obtenir réparation (voir la section 6.2.2 pour un examen approfondi de ce point). Un suivi de la jurisprudence appliquant la législation antidiscriminatoire à l’IA devra être assuré pour déterminer si, et dans quelle mesure, celle‑ci devra être adaptée pour couvrir efficacement l’utilisation de l’IA en entreprise.
Certaines institutions appellent également à une réglementation rigoureuse, voire à l’interdiction des technologies de reconnaissance faciale (guidées par l’IA) à l’échelle de la société15, en raison des préoccupations liées à la protection de la vie privée et à la précision limitée de ces technologies pour certains groupes, comme les femmes et les minorités ethniques (Buolamwini et Gebru, 2018[74]). Des experts estiment de surcroît que ces technologies ne permettent pas d’interpréter de manière fiable la personnalité ou les émotions d’une personne (Whittaker et al., 2018[21]). En mai 2020, l’État du Maryland, aux États-Unis, a adopté une loi interdisant l’utilisation de la reconnaissance faciale durant les entretiens d’embauche, à moins que la personne interrogée ne signe un consentement (Fisher et al., 2020[75]). On ignore toutefois dans quelle mesure les demandeurs d’emploi et les salariés ont véritablement le choix à cet égard ; la législation a été critiquée au motif qu’elle ne définit pas précisément en quoi consistent les « services de reconnaissance faciale » et les « modèles faciaux » qu’ils créent, et pourrait donc nécessiter une interprétation (Glasser, Forman et Lech, 2020[76]). Par ailleurs, un rapport de 2021 du Haut‑Commissariat des Nations Unies aux droits de l’homme appelle à une interdiction temporaire de la reconnaissance faciale (Conseil des droits de l’homme des Nations Unies, 2021[77]) et, dans ses orientations de 2021 sur la façon dont les pays européens devraient réglementer le traitement des données biométriques, le Conseil de l’Europe invite ces pays à interdire complètement les outils d’analyse faciale censés « détecter les traits de personnalité, les sentiments profonds, la santé mentale ou l’engagement des travailleurs à partir d’images des visages » (Conseil de l’Europe, 2021[78]).
Le droit des travailleurs à constituer des organisations de leur choix et à s’y affilier (liberté d’association) est un droit humain fondamental proclamé dans la Déclaration universelle des droits de l’homme (Nations Unies, 1948[45]) et dans la Déclaration de l’OIT relative aux principes et droits fondamentaux au travail (OIT, 1998[79]). Il est étroitement associé au droit de négociation collective (OIT, 1998[79]). Comme indiqué au chapitre 7, les technologies d’IA peuvent favoriser le dialogue social et la négociation collective en apportant aux partenaires sociaux des informations, des éclairages et des arguments fondés sur des données. En revanche, elles peuvent aussi diminuer le pouvoir de négociation des travailleurs en raison des déséquilibres de pouvoir et des asymétries d’information entre les travailleurs, les employeurs et leurs représentants, et le contrôle basé sur l’IA peut faire obstacle à l’organisation collective et aux activités syndicales (voir le chapitre 7).
Le droit d’organisation et de négociation collective des travailleurs est généralement transposé dans les lois nationales relatives au travail, mais le niveau de protection et d’application de ces lois varie d’un pays à l’autre, notamment en raison du pourcentage variable d’affiliation syndicale (OCDE, 2019[80]). En août 2021, l’Espagne a adopté une loi qui oblige les plateformes numériques à communiquer aux représentants des travailleurs des renseignements sur les formules mathématiques ou algorithmiques utilisées pour déterminer les conditions de travail ou le statut au regard de l’emploi (Pérez del Prado, 2021[81] ; Aranguiz, 2021[82]). La loi espagnole prévoit ainsi le maintien du dialogue social et de la négociation collective ; d’autres cycles de dialogue entre les plateformes et les syndicats interviendront sans doute, et d’autres modifications pourraient être apportées aux mesures en vigueur16.
L’IA peut améliorer la sécurité physique des travailleurs, par exemple en effectuant les tâches périlleuses (Lane, Williams et Broecke, 2023[83] ; Milanez, 2023[84] ; EU-OSHA, 2021[85]), ou en alertant les travailleurs susceptibles de trop s’approcher de matériel dangereux (Wiggers, 2021[86]) (voir le chapitre 4). En revanche, s’ils ne sont pas bien conçus ou mis en œuvre, les systèmes d’IA peuvent aussi menacer la sécurité physique et le bien-être des travailleurs, par exemple en cas de dysfonctionnement dangereux des machines ou d’intensification du rythme de travail en raison d’objectifs de résultats plus ambitieux. La nécessité de se former aux nouvelles technologies et les inquiétudes suscitées par le renforcement de la surveillance exercée par l’IA peuvent également accentuer le stress (Milanez, 2023[84]).
Le droit du travail et les réglementations en matière de sécurité et de santé au travail s’appliquent souvent directement à l’utilisation de l’IA en entreprise17, par exemple en obligeant les employeurs à s’assurer au préalable que les outils utilisés sur le lieu de travail seront sans danger pour les travailleurs (OIT, 2011[87]), disposition qui s’appliquerait également aux outils guidées par l’IA. La responsabilité des dommages causés par l’IA dans le cadre du travail pourrait donc peser entièrement sur l’employeur ; des affaires judiciaires concernant des décisions de recrutement (Maurer, 2021[88] ; Engler, 2021[89] ; Butler et White, 2021[90]) et la gestion des résultats fondés sur l’IA (Wisenberg Brin, 2021[91]) ont déjà été portées devant les tribunaux18. La gestion algorithmique risque par ailleurs de grever la dynamique de négociation et d’information au niveau des entreprises (voir le chapitre 7).
Compte tenu de l’intégration croissante des systèmes d’IA dans l’environnement de travail, les réglementations en matière de sécurité et de santé au travail devront sans doute être adaptées, voire étendues, de manière à prendre efficacement en compte les préoccupations soulevées par l’utilisation de cette technologie (Jarota, 2021[92] ; Kim et Bodie, 2021[93]). Toutefois, à ce jour, de nombreuses incertitudes subsistent quant à savoir si et comment ces modifications prendront effet, et de quelle manière elles s’articuleront avec les nouvelles propositions législatives, comme la loi sur l’IA de l’UE, qui couvrent également les risques pour la sécurité et la santé au travail.
Même si un cadre législatif extrêmement détaillé est en place pour atténuer ou prévenir les risques liés à l’IA, les individus et les employeurs doivent être en mesure de vérifier si et comment le système influe sur les décisions relatives à l’emploi. La communication de ce type d’informations (« transparence ») sous une forme compréhensible (« explicabilité ») ne permet pas seulement aux individus d’agir s’ils estiment que les systèmes d’IA les pénalisent ; elle permet également aux salariés et aux employeurs de prendre des décisions éclairées concernant l’achat d’un système d’IA pour l’entreprise ou son utilisation, et peut renforcer l’adhésion à l’IA et la confiance dans cette technologie, éléments indispensables pour promouvoir la diffusion d’une IA digne de confiance en milieu professionnel.
Cela dit, la mise en place de mesures visant à assurer la transparence et l’explicabilité de l’IA peut s’avérer délicate. Les obligations de transparence peuvent, par exemple, constituer un risque pour la vie privée des personnes concernées. L’exigence d’explicabilité peut compromettre la précision et le fonctionnement du système, dans la mesure où elle suppose parfois de limiter les variables des dispositifs à un ensemble suffisamment restreint pour que les humains puissent l’appréhender, ce qui serait insuffisant pour des problèmes multidimensionnels complexes (OECD.AI, 2022[94]). Ces deux critères pourraient aussi être difficiles à satisfaire du fait que les développeurs doivent être en mesure de protéger leur propriété intellectuelle19 et parce que certains systèmes d’IA – comme l’IA générative ou les réseaux neuronaux profonds – sont si complexes que même leurs développeurs ne pourront comprendre ou appréhender pleinement la démarche suivie pour obtenir certains résultats. Les mesures destinées à assurer la transparence et l’explicabilité peuvent également accroître la complexité et les coûts des systèmes d’IA, ce qui risque de pénaliser tout particulièrement les petites entreprises (OECD.AI, 2022[94]).
Cela étant posé, une vue d’ensemble du processus de décision n’est pas forcément nécessaire pour assurer la transparence et l’explicabilité, qui peuvent être obtenues au moyen d’informations interprétables par l’humain sur les éléments ayant principalement influencé ou déterminé un résultat ou sur ce qui se passerait dans une situation contrefactuelle (Doshi-Velez et al., 2017[95]). Par exemple, si un employé se voit refuser une promotion sur la base d’une recommandation d’un système d’IA, des informations peuvent être fournies sur les facteurs qui ont eu une influence sur la décision, sur le caractère positif ou négatif de cette influence, et sur leur poids respectif. Autre possibilité, des modèles contrefactuels pourraient produire une liste des caractéristiques essentielles que l’employé devrait présenter pour obtenir le résultat souhaité, par exemple « vous auriez obtenu le poste si vous aviez eu un meilleur niveau d’anglais et au moins trois années d’expérience supplémentaires dans votre fonction actuelle » (Loi, 2020[96]). Il faudrait cependant vérifier l’équité de ces modèles également. Cette section examine les mesures prises par les pays pour garantir que l’IA utilisée dans le cadre du travail est transparent et explicable.
Les salariés ne savent pas toujours qu’ils sont recrutés, contrôlés, promus ou gérés par le biais de l’IA. Une enquête mondiale20 a constaté que 34 % des personnes interrogées pensent avoir récemment été en contact avec l’IA, alors que d’après leur utilisation déclarée de certains services et dispositifs, ce serait le cas de 84 % d’entre elles (Pega, 2019[97]). Les demandeurs d’emploi, par exemple, ne sont pas toujours conscients que l’IA sélectionne les annonces de postes qu’ils consultent ou qu’elle analyse leur CV ou leur entretien vidéo et, partant, qu’une offre d’emploi, ou un refus, sont (en partie) fondés sur cette technologie. Par ailleurs, les employeurs ne jugent pas toujours nécessaire d’informer les salariés ou les candidats à un poste de leur recours à l’IA. La transparence suppose au contraire de donner des indications sur la façon dont les décisions liées à l’emploi sont prises par l’IA ou avec son assistance. Une décision de l’autorité néerlandaise de protection des données doit ainsi être rendue comme suite à des plaintes déposées par des chauffeurs français d’Uber concernant, entre autres, leur déconnexion de la plateforme sans explication satisfaisante et le refus d’accès à l’information (Hießl, 2023[98]).
Les employeurs, pour leur part, ne sont pas toujours conscients que leurs employés ou les candidats à un poste font appel à l’IA pour les aider dans leurs tâches. Par exemple, les générateurs de texte alimentés par l’IA, comme ChatGPT, peuvent rédiger des CV, des lettres de candidature, des compositions écrites et des rapports (ainsi que des segments de code) dans un style parfaitement naturel qui, souvent, n’est pas détecté par les logiciels antiplagiat actuels. L’« hypertrucage » (ou deepfake), à savoir la modification ou la manipulation réalistes, par des systèmes d’IA, d’images ou de contenu audio ou vidéo dans l’objectif de falsifier les propos ou les actes d’un individu, constitue également un risque pour les employeurs (voire pour les travailleurs). Le Federal Bureau of Investigation (FBI) des États-Unis a signalé une augmentation du recours à l’hypertrucage et à l’usurpation d’identité pour postuler à des emplois en télétravail (FBI, 2022[99]). Pour garantir la transparence, il est indispensable d’informer les intervenants qu’ils sont en contact avec un système d’IA (ou ses résultats).
Dans l’UE et au Royaume‑Uni, le RGPD exige des employeurs qu’ils demandent aux candidats à un poste et aux salariés un consentement explicite au traitement de leurs données à caractère personnel21 et aux décisions automatisées prises sans intervention humaine significative22. Un tribunal néerlandais23 a ainsi récemment jugé que la désactivation du compte de cinq chauffeurs Uber était contraire à l’article 22 du RGPD, car elle était fondée sur un traitement automatisé des données (Hießl, 2023[98]). Le RGPD continuera de s’appliquer aux systèmes d’IA qui s’appuient sur des données à caractère personnel ou qui les traitent, mais le projet de loi sur l’IA de l’UE imposerait également aux fournisseurs de systèmes d’informer les utilisateurs de leurs interactions avec ces dispositifs, y compris celles qui ne reposent pas sur des données à caractère personnel (Commission européenne, 2021[31])24. Parmi les dernières modifications que le Parlement européen préconise d’apporter à ce projet de loi sur l’IA figurent de nouvelles dispositions en matière de transparence pour les modèles génératifs (comme ChatGPT), comme la divulgation de l’existence de contenu généré par l’IA et la publication de résumés des données protégées par le droit d’auteur utilisées pour l’entraînement des systèmes (Parlement européen, s.d.[37] ; Parlement européen, 2023[52]). La proposition de directive de l’UE relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme (« directive sur le travail de plateforme ») prévoit également le droit à la transparence en ce qui concerne l’utilisation et le fonctionnement des systèmes automatisés de contrôle et de décision (Commission européenne, 2021[100] ; Commission européenne, 2021[101]).
Aux États-Unis également, certaines juridictions exigent que les candidats à un poste et les salariés soient informés de leurs interactions avec l’IA, mais aussi qu’ils donnent leur consentement avant que cette interaction puisse avoir lieu. L’Artificial Intelligence Video Interview Act (loi sur les entretiens vidéo analysés par l’intelligence artificielle) de l’Illinois impose aux employeurs d’informer les candidats de leur utilisation de l’IA avant que l’entretien vidéo ne commence, d’en expliquer le fonctionnement et d’obtenir le consentement écrit de l’intéressé (ILCS, 2019[102])25. Néanmoins, comme le souligne Wisenberg Brin (2021[91]), elle ne définit pas clairement quel type d’explications l’employeur doit fournir aux candidats, et ne précise pas quelles informations sont requises concernant les algorithmes. Elle ne détermine pas non plus ce qu’il advient de la candidature d’une personne qui refuserait cette analyse. Elle risque en outre d’être incompatible avec d’autres lois fédérales et d’États fédérés qui exigent la préservation des preuves.
Certains pays ont adopté des textes législatifs spécifiquement destinés à réglementer la transparence des systèmes d’IA en entreprise. Ainsi, de nouvelles lois, comme la loi Rider promulguée par l’Espagne (voir la sous-section Liberté d’association et droit de négociation collective, section 6.2.1), devraient renforcer la sensibilisation aux risques liés à la transparence et à l’explicabilité des systèmes d’IA pour les travailleurs et les atténuer (De Stefano et Taes, 2021[103]). Le projet de directive de l’UE sur les plateformes de travail en est un autre exemple (Commission européenne, 2021[104]), qui préciserait sous quelle forme et à quel moment les plateformes numériques devraient fournir aux travailleurs et à leurs représentants, ainsi qu’aux autorités du travail, des informations concernant leur recours à des systèmes automatisés de contrôle et de prise de décision et les principaux éléments caractérisant ces derniers (Broecke, 2023[105]).
Comme l’IA repose sur des données, l’utilisation de systèmes d’IA suffisamment transparents et explicables dans le contexte du travail permettrait de mieux comprendre comment leurs décisions en matière d’emploi sont prises par rapport aux décisions relevant uniquement d’humains. Après tout, le processus de décision humain peut également être opaque et difficile à expliquer. L’IA offrirait également la possibilité de fournir aux demandeurs d’emploi et aux salariés, de manière systématique et à moindre coût, un retour d’information sur les décisions qu’elle a guidées.
Cela dit, les systèmes d’IA sont souvent plus complexes et leurs résultats plus difficiles à expliquer que ceux d’autres technologies et outils de prise de décision automatisée. Pour instaurer une IA digne de confiance en entreprise et veiller à ce qu’il soit possible de rectifier ses résultats en cas de besoin, les salariés, les employeurs et leurs représentants doivent disposer d’explications compréhensibles quant aux raisons motivant des décisions importantes et à la façon dont elles sont prises (les décisions qui influent sur le bien-être, l’environnement/les conditions de travail ou la possibilité pour une personne de gagner sa vie par exemple). Si l’on ne comprend pas la logique des décisions d’emploi prises ou guidées par des systèmes d’IA, il sera extrêmement difficile de corriger les résultats de ces décisions, ce qui porterait atteinte au droit des personnes à une procédure régulière (voir la section 6.2.3). De surcroît, il est peu probable que les salariés acceptent des décisions basées sur l’IA qui ne sont pas explicables (Cappelli, Tambe et Yakubovich, 2019[106]).
En Nouvelle‑Zélande, l’Employment Relations Act (loi sur les relations d’emploi) de 2000 a été utilisée en 2013 pour invalider une décision de licenciement d’un employé, en partie parce que celle‑ci était fondée sur les résultats d’un test psychométrique guidé par l’IA que l’employeur n’a pas été en mesure d’expliquer, ni même apparemment de comprendre. Comme les informations concernant l’algorithme (notamment la question de savoir s’il s’agissait d’IA à proprement parler ou d’un algorithme moins complexe) n’étaient pas accessibles à l’employé, celui-ci a été privé du droit à « la possibilité de formuler des observations » avant que la décision ne soit prise (Colgan, 2013[107] ; Parliamentary Counsel Office (Nouvelle-Zélande), 2000[108]). Cet exemple montre que la transparence et l’explicabilité sont nécessaires, pour la personne faisant l’objet de la décision guidée par l’IA, mais aussi pour l’entreprise qui utilise ou déploie le système.
Certains pays sont en train d’établir une législation spécifique pour réglementer la transparence et l’explicabilité des systèmes d’IA. Au Canada par exemple, la proposition de loi sur l’intelligence artificielle et les données (LIAD) et la loi sur la protection de la vie privée des consommateurs obligerait les développeurs et les utilisateurs de systèmes de prise de décision automatisés et de systèmes d’IA à incidence élevée à fournir des explications « en langage clair » sur la manière dont ces systèmes parviennent à un résultat donné (Chambre des communes du Canada, 2022[109]) – voir l’Encadré 6.4.
Le 16 juin 2022, le gouvernement canadien a présenté le projet de loi C‑27, également connu sous le nom de Loi de 2022 sur la mise en œuvre de la Charte numérique. Si elle est adoptée, la Charte proposera trois nouvelles lois : la loi sur la protection de la vie privée des consommateurs, la loi sur le Tribunal de la protection des renseignements personnels et des données et la loi sur l’intelligence artificielle et les données (LIAD) (Chambre des communes du Canada, 2022[109]).
La Loi sur la protection de la vie privée des consommateurs réformerait la législation existante en matière de protection des données à caractère personnel, dont le nouveau tribunal facilitera l’application. Elle s’appliquerait à tous les acteurs utilisant des informations personnelles dans le cadre d’activités commerciales et couvrirait par conséquent explicitement les systèmes de décision automatisés basés, par exemple, sur l’apprentissage automatique, l’apprentissage profond ou les réseaux neuronaux.
La LIAD vise à renforcer la confiance des Canadiens à l’égard du développement et de la mise en œuvre des systèmes d’intelligence artificielle dans le secteur privé (Gouvernement du Canada, 2022[110]) : les institutions publiques en sont explicitement exclues. Elle établirait des obligations communes pour la conception, le développement et l’utilisation des systèmes d’IA, notamment des mesures visant à atténuer les risques de préjudices physiques ou psychologiques et de résultats biaisés, en particulier pour les « systèmes d’IA à incidence élevée ». Elle interdirait également certains systèmes d’IA susceptibles de causer un préjudice grave aux Canadiens ou à leurs intérêts. Néanmoins, l’essentiel du fond et des détails – y compris la définition des systèmes d’IA « à incidence élevée » et ce qui constitue un « résultat biaisé » (Witzel, 2022[111]) – seront précisés dans de futures réglementations (Ferguson et al., 2022[112]).
Un autre obstacle à l’explicabilité tient à ce que de nombreux dirigeants, travailleurs et représentants des travailleurs, ainsi que les responsables politiques et les régulateurs, n’ont parfois qu’une expérience limitée de l’IA et ne possèdent pas les compétences nécessaires pour comprendre l’action ou le fonctionnement de ses applications (voir le chapitre 5). Une enquête réalisée en 2017 a constaté que plus de deux répondants sur cinq aux États-Unis et au Royaume‑Uni ont reconnu « n’avoir aucune idée de ce qu’est l’IA » (Sharma, 2017[113])26. Des compétences numériques modérées suffisent pour comprendre cette technologie, mais, dans les pays de l’OCDE, plus d’un tiers des adultes en moyenne ne possèdent pas les compétences les plus élémentaires en la matière (Verhagen, 2021[114]).
Des formations permettant aux individus de perfectionner leurs connaissances et leurs compétences dans ce domaine favoriseraient l’explicabilité (OCDE, 2019[115]), ce qui renforcerait peut-être la confiance dans les systèmes d’IA. Dans la pratique, les pays où les déclarants font état de niveaux de compréhension plus élevés de cette technologie font généralement davantage confiance aux entreprises qui l’utilisent (Ipsos, 2022[116]). Ce n’est pas seulement une question de transparence quant à l’utilisation de l’IA, mais de compréhension de son fonctionnement. Si les travailleurs et leurs représentants acquièrent une meilleure connaissance de l’IA, ils seront en mesure de mieux appréhender les avantages et les risques liés aux systèmes d’IA utilisés sur le lieu de travail, de participer aux consultations et, le cas échéant, d’agir. Les demandeurs d’emploi, par exemple, ignorent sans doute qu’ils n’ont même pas pu consulter une offre d’emploi parce qu’un algorithme a déterminé qu’ils ne convenaient pas pour le poste. Enfin, il importe que les responsables politiques, les juristes et les autres régulateurs comprennent le fonctionnement de ces systèmes. Pour que l’IA soit mieux perçue, il faut renforcer les systèmes de formation des adultes (voir Verhagen (2021[114]) ; OECD (2020[117]) ; et le chapitre 5). Les négociations collectives portant sur ce thème peuvent également remplir une fonction pédagogique, en permettant aux salariés et aux employeurs, dans un cadre d’échange concret, de se faire une idée plus exacte des risques et des avantages de l’IA (voir le chapitre 7).
La définition des responsabilités suppose de pouvoir associer un individu ou un organisme donné au bon fonctionnement d’un système d’IA ; il s’agit notamment de prévenir les préjudices (voir la section 6.2.1), d’assurer la transparence et l’explicabilité du système (section 6.2.2) ainsi que l’alignement avec les autres principes de l’OCDE sur l’IA (OCDE, 2019[3]). Outre l’attribution de ces fonctions à différents acteurs de l’IA, des mécanismes de responsabilité clairement définis permettent aux salariés ou aux employés ayant subi un préjudice causé par cette technologie de contester et rectifier le résultat.
L’absence de responsabilités clairement définies limite les possibilités d’instaurer une IA digne de confiance sur le lieu de travail. Ainsi, parmi les entreprises européennes qui n’y font pas encore appel, la « responsabilité pour les dommages causés par l’intelligence artificielle » est l’obstacle à l’adoption de cette technologie le plus souvent cité, avec le manque de financement (Graphique 6.2). Les risques liés à la responsabilité figurent aussi parmi les trois obstacles ou problèmes les plus couramment évoqués par les entreprises adoptantes, et sont plus souvent mentionnés par les grandes entreprises et par celles des secteurs de la santé et du transport (Commission européenne, 2019[118]).
De fait, les systèmes d’IA posent des problèmes en matière de responsabilité, car il n’est pas toujours évident de déterminer qui, parmi les acteurs concernés, est responsable en cas de problème. Ce flou tient à ce que, à la différence des biens et services traditionnels, certains systèmes d’IA peuvent évoluer au fur et à mesure de leur utilisation, du fait qu’ils apprennent à partir de nouvelles données. Des études montrent que rien ne garantit que les algorithmes atteindront l’objectif visé lorsqu’ils seront appliqués à de nouveaux cas, dans un nouveau contexte ou avec de nouvelles données (Neff, McGrath et Prakash, 2020[119] ; Heavens, 2020[120]). Les progrès récents de l’IA générative accentuent les risques liés à la responsabilité, notamment parce qu’il est difficile de définir qui est responsable du contenu créé par ces systèmes. De surcroît, les développeurs, les fournisseurs et les utilisateurs de systèmes d’IA ne sont pas forcément dans la même juridiction, et les approches en matière de responsabilité peuvent varier de l’une à l’autre. Cette situation risque de mettre les PME, qui ne disposent pas toujours d’un service juridique, dans une position particulièrement difficile.
De manière générale, la responsabilité est un fondement essentiel de l’utilisation d’une IA digne de confiance dans le cadre de l’entreprise. Des responsabilités clairement établies permettent de tenir les acteurs responsables et, éventuellement, de réclamer des dommages-intérêts à la suite d’un préjudice, mais aussi d’assurer le traitement préventif des risques (à savoir le recours à une IA digne de confiance sur le lieu de travail). En leur absence, il serait impossible d’établir qui, parmi les acteurs de l’IA, est responsable de l’application des principes antidiscrimination, par exemple, ou de la sécurité de fonctionnement des systèmes d’IA. Une définition précise des responsabilités est également importante pour garantir d’autres aspects de la fiabilité. Si personne n’est responsable lorsque les systèmes d’IA ne fonctionnent pas comme ils sont censés le faire, la transparence sur les problèmes rencontrés ne se traduira pas nécessairement par une amélioration des processus (Loi, 2020[96])27.
L’importance de répondre de l’utilisation de l’IA en entreprise et les problèmes connexes ont été bien illustrés par quelques affaires concernant le travail sur plateforme. Des chauffeurs d’Amazon Flex, par exemple, ont éprouvé des difficultés à faire établir la responsabilité des acteurs de l’IA dans la prise de décisions en leur défaveur – comme le rejet d’explications apparemment valables à des livraisons tardives ou des radiations de la plateforme sans explication claire – en raison de l’opacité des mécanismes de recours officiels (Soper, 2021[121]). Des plaintes de même ordre ont également été déposées à l’encontre d’Uber Eats au Royaume‑Uni concernant un logiciel de reconnaissance faciale basé sur l’IA, dans le cadre desquelles la responsabilité des acteurs a été difficile à établir dans la mesure où il n’était même pas envisageable que le système lui-même ait pu commettre des erreurs (Kersley, 2021[122])28. Du fait que les travailleurs sur plateformes sont parfois des travailleurs indépendants, voire de faux travailleurs indépendants, et que leur taux de syndicalisation est faible, il leur est encore plus difficile de contester ou d’obtenir la modification de décisions en matière d’emploi (OCDE, 2019[123]).
La législation en matière de responsabilité dans le contexte des processus de décision automatisés consiste souvent à imposer une intervention humaine (l’humain devra éventuellement approuver une décision) ou un contrôle humain (il peut par exemple visualiser et vérifier les décisions prises), dans une tentative délibérée d’assurer une responsabilité humaine (Enarsson, Enqvist et Naarttijärvi, 2021[124])29. En pratique, toutefois, de nombreuses incertitudes subsistent quant au rôle juridique et à la responsabilité de l’être humain, en partie parce que les termes « intervention humaine » ou « contrôle humain » n’ont à ce jour pas de signification ou d’effet juridiques déterminés (Enarsson, Enqvist et Naarttijärvi, 2021[124]). Ainsi, alors que la loi sur l’IA de l’UE précise les responsabilités et les obligations des fournisseurs et des utilisateurs d’IA et de la surveillance humaine30, ce sont les normes futures qui devront déterminer en quoi consiste exactement une intervention humaine visant à assurer une IA digne de confiance.
Par ailleurs, en septembre 2022, la Commission européenne a présenté deux propositions à l’appui d’une harmonisation ciblée des règles nationales en matière de responsabilité liée à l’IA : une révision de la directive en matière de responsabilité du fait des produits défectueux (directive sur la responsabilité du fait des produits, en abrégé) et une proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (directive sur la responsabilité en matière d’IA) (Commission européenne, 2022[125]). Les règles actuelles de l’UE en matière de responsabilité du fait des produits reposent sur la responsabilité de plein droit des fabricants, ce qui signifie que lorsqu’un produit défectueux cause un préjudice, son fabricant doit verser des dommages‑intérêts sans que le plaignant ait à établir qu’il y a eu faute ou négligence de sa part. La révision proposée de la directive modernise et renforce les règles existantes en matière de responsabilité du fait des produits afin d’apporter aux entreprises une clarté juridique en ce qui concerne l’indemnisation équitable des victimes de produits défectueux impliquant l’IA, mais elle maintient le régime de responsabilité de plein droit.
Contrairement à la responsabilité de plein droit, les régimes de responsabilité pour faute font peser la charge de la preuve sur le plaignant, qui doit démontrer que la partie accusée d’avoir commis un acte répréhensible (le fabricant par exemple) n’a pas respecté la norme de diligence prévue dans une situation donnée (Goldberg et Zipursky, 2016[126]). Or, étant donné l’opacité et la complexité des systèmes d’IA, il peut être difficile et coûteux pour les victimes de bâtir un argumentaire et d’expliquer en détail comment le préjudice a été causé. Pour remédier à ces difficultés, la directive sur la responsabilité en matière d’IA – un régime de responsabilité pour faute – propose d’alléger la charge de la preuve pour les victimes de l’IA moyennant une « présomption de causalité » réfragable (Commission européenne, 2022[125])31. La directive élargit également la définition du « préjudice », qui ne se limite plus aux questions de santé et de sécurité, mais englobe également les atteintes aux droits fondamentaux (discrimination et atteintes à la vie privée comprises). Par ailleurs, associée à la directive révisée sur la responsabilité du fait des produits, elle vise à faciliter l’accès des tribunaux européens et des particuliers aux informations sur les algorithmes (Goujard, 2022[127])32.
En outre, conformément aux RGPD de l’UE et du Royaume‑Uni, les responsables du traitement des systèmes de décision automatisés utilisant des données à caractère personnel sont tenus de mettre en œuvre « des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée », y compris le droit d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer leur point de vue et de contester la décision (Journal officiel de l’Union européenne, 2016[28] ; GDPR.EU, 2023[54])33.
Dans certains pays, comme le Canada, la fonction algorithmique d’un système d’IA n’est pas considérée comme un « produit » dans le cadre des régimes de responsabilité du fait des produits (Sanathkumar, 2022[128]), ce qui pourrait impliquer que les employeurs seraient responsables des dommages liés à l’IA du fait d’un algorithme défectueux. Il se peut que la LIAD canadienne transfère une partie de cette responsabilité aux développeurs des systèmes, par exemple en faisant de l’évaluation et de l’atténuation des risques de préjudices ou de résultats biaisés pouvant résulter de l’utilisation du système une responsabilité partagée entre ses concepteurs, ses développeurs et les personnes qui le mettent en œuvre ou en gèrent l’exploitation (vraisemblablement l’employeur, dans le cas de l’IA en entreprise) (Chambre des communes du Canada, 2022[109]).
En octobre 2022, après une année de consultation publique, l’Office of Science and Technology Policy de la Maison Blanche a publié The Blueprint for an AI Bill of Rights, un projet de charte sur l’IA, constituée d’un ensemble de cinq principes non contraignants visant à promouvoir le développement et l’utilisation fiables de systèmes de décision automatisés (The White House, 2022[129]), afin de faciliter la formulation des futures politiques en matière d’IA. Par ailleurs, le projet de loi sur la Commission de réglementation des plateformes numériques (Digital Platform Commission Act) de 2022 établirait une agence fédérale spécialisée chargée d’élaborer et d’appliquer la législation relative à ces plateformes et dotée du mandat spécifique de veiller à ce que les processus algorithmiques soient dignes de confiance (Congrès des États-Unis, 2022[130]).
En avril 2022, plusieurs membres du Congrès ont présenté la proposition de Loi sur la responsabilité des algorithmes (Algorithmic Accountability Act) de 2022 (Congrès des États-Unis, 2022[131]), une version actualisée de la Loi sur la responsabilité des algorithmes de 2019 (Congrès des États-Unis, 2019[132]). Celle‑ci propose que les entreprises qui font appel à des systèmes de décision automatisés réalisent des évaluations d’impact avant et après la mise en œuvre du système de manière à détecter et à atténuer les préjudices éventuels pour les consommateurs (Mökander et Floridi, 2022[133]). Les mêmes règles s’appliqueraient aux « processus de décision critique augmentée », à savoir les opérations qui utilisent un système de décision automatisé pour formuler une décision ou un jugement susceptibles d’avoir des retombées substantielles sur la vie d’un consommateur, notamment (entre autres) « l’emploi, la gestion des travailleurs ou le travail indépendant » (Congrès des États-Unis, 2022[131]).
Compte tenu de la priorité accordée à la prévention et à l’atténuation des préjudices éventuels pour les consommateurs, la Commission fédérale du commerce (Federal Trade Commission – FTC) serait chargée de vérifier si les exigences en matière d’évaluation d’impact sont respectées. Il lui appartiendrait de déterminer les documents et les informations qui devraient être soumis à l’issue de l’évaluation (Mökander et Floridi, 2022[133]). Les PME et les agences gouvernementales bénéficieraient d’une dérogation, car la loi proposée s’appliquerait uniquement aux entreprises qui relèvent de la compétence de la FTC1 et dont le chiffre d’affaires annuel est supérieur à 50 millions USD, qui disposent de capitaux propres d’un montant supérieur à 250 millions USD ou qui traitent les informations de plus d’1 million d’utilisateurs (Congrès des États-Unis, 2022[131]).
Plusieurs États fédérés ont proposé des réglementations similaires. On citera notamment l’Automated Decision Systems Accountability Act (loi sur la responsabilité des systèmes de décision automatisés) californienne (California Legislature, 2020[134]), l’Algorithmic Accountability Act (loi sur la responsabilité des algorithmes) du New Jersey (State of New Jersey Legislature, 2019[135]), la Stop Discrimination by Algorithms Act (loi visant à mettre un terme à la discrimination par les algorithmes) de Washington D.C. (Racine, 2021[136]) et la loi SB 5 527 de l’État de Washington (Hasegawa et al., 2019[137]).
En avril 2023, la National Telecommunications and Information Administration (NTIA) a publié une demande de commentaires sur les mesures et politiques relatives à la responsabilité concernant les systèmes d’IA. La date limite de soumission des commentaires a été fixée à la mi-juin 2023. Cette demande a pour objet d’obtenir des informations sur les mesures et politiques d’autoréglementation, de réglementation et autres, qui visent à garantir aux parties prenantes externes que les systèmes d’IA sont légaux, efficaces, éthiques, sûrs et généralement dignes de confiance. La NTIA publiera un rapport relatif à l’élaboration des politiques de responsabilité en matière d’IA établi sur la base de ces informations et d’autres consultations publiques sur ce thème. Le rapport mettra notamment l’accent sur l’écosystème d’assurance de l’IA (NTIA, 2023[138]).
1. La FTC assure l’application de la législation antitrust et relative à la protection des consommateurs, son action visant la concurrence déloyale et les pratiques frauduleuses. Elle couvre pratiquement tous les secteurs du commerce, quelques exceptions concernant les banques, les compagnies d’assurance, les organisations à but non lucratif, les entreprises de transport et de communication, les transporteurs aériens et quelques autres entités (Federal Trade Commission, 2023[139]).
« L’audit de l’IA » ou « audit algorithmique » est un outil de plus en plus prisé pour évaluer les systèmes d’IA et vérifier qu’ils respectent la loi et/ou les principes de fiabilité. En règle générale, lors d’un audit algorithmique, une tierce partie évalue dans quelle mesure et pourquoi un algorithme, un système d’IA et/ou le contexte dans lequel ils sont utilisés sont conformes aux principes éthiques ou à la réglementation. Ainsi, en novembre 2021, le conseil municipal de New York a interdit l’utilisation d’« outils automatisés de décision en matière d’emploi » ne prévoyant pas d’audit annuel des biais (Cumbo, 2021[140]). D’aucuns craignent cependant que les audits financés par les fournisseurs n’entérinent leur propre technologie, d’autant que peu d’éléments précisent en quoi doit consister l’audit, qui est chargé de l’effectuer et quel type d’informations doit être communiqué à l’auditeur et au public (Turner Lee et Lai, 2021[141]). La façon dont les audits algorithmiques doivent être réalisés pour favoriser effectivement une IA digne de confiance fait encore l’objet de recherches actives (Ada Lovelace Instititute, 2020[142] ; Brown, Davidovic et Hasan, 2021[143]).
Les systèmes d’intelligence artificielle (IA) offrent des possibilités d’améliorer le marché du travail et l’environnement professionnel, mais ils présentent également des risques. Comme l’indiquent les Principes de l’OCDE sur l’IA, cette technologie doit être développée et utilisée de manière fiable. Cela signifie que pour être digne de confiance, l’IA doit être sûre et respectueuse des droits fondamentaux comme la vie privée et le principe d’équité, et que son cheminement pour prendre des décisions liées à l’emploi doit être transparent et compréhensible par les humains. Cela implique également que les employeurs, les travailleurs et les demandeurs d’emploi sont transparents quant à leur utilisation de l’IA, et que les responsabilités sont clairement définies en cas de problème. Il faut en conséquence gérer les risques qui surgissent lorsque des systèmes d’IA sont utilisés dans la sphère professionnelle, depuis les procédures de recrutement et d’embauche jusqu’à l’appui aux salariés ou aux cadres dirigeants en passant par la fourniture de services à la personne.
L’avenir de l’IA au travail est entre les mains de la société et dépendra en partie des politiques que les pays décideront de mettre en œuvre. Les autorités doivent élaborer des mesures permettant de tirer parti des avantages que les systèmes d’IA peuvent apporter dans le contexte du travail et de parer dans le même temps aux risques qu’ils créent pour les droits fondamentaux et le bien-être des travailleurs. Compte tenu de la rapidité du développement et du déploiement de l’IA, elles doivent prendre les devants et adopter promptement des mesures visant à assurer le développement et l’utilisation fiables de l’IA dans le cadre de l’entreprise.
Le présent chapitre a passé en revue les politiques mises en place dans les pays pour assurer l’utilisation d’une IA digne de confiance sur le lieu de travail, ainsi que les mesures en élaboration. Certaines de ces politiques portent spécifiquement sur la sphère professionnelle, mais il a également été question ici de dispositions plus générales qui intéressent directement les entreprises. Nous en avons donné divers exemples afin d’aider les autorités, les développeurs d’IA, les employeurs, les salariés et leurs représentants à se repérer dans le nouvel environnement réglementaire de l’IA.
S’agissant de l’utilisation de l’IA en entreprise pour prendre des décisions qui influent sur les perspectives professionnelles et les droits des salariés, les gouvernants envisagent déjà certaines pistes : adapter la réglementation du travail à l’utilisation de l’IA ; encourager le recours à des outils d’audit et de certification rigoureux ; appliquer une approche exigeant une intervention humaine ; établir des mécanismes permettant d’expliquer de manière compréhensible la logique qui sous-tend les décisions guidées par l’IA.
La législation existante non spécifique à l’IA offre déjà des fondements solides pour assurer la gouvernance des systèmes d’IA dans le cadre professionnel, comme les dispositions relatives à la lutte contre la discrimination, à la protection des données et à la responsabilité du fait des produits. C’est pourquoi certains pays, comme le Royaume‑Uni et le Japon, ont choisi de gérer le développement et l’utilisation de l’IA au moyen d’instruments non contraignants (principes, lignes directrices et normes, par exemple) plutôt que par de nouveaux textes législatifs. Ces instruments présentent des avantages pour la gouvernance de l’IA, car ils sont plus aisément applicables et adaptables que les textes contraignants, d’autant que la législation spécifique à l’IA est encore en cours d’élaboration. Ils favorisent également la conformité juridique dans des situations complexes et facilitent la collaboration internationale sur les politiques en matière d’IA. Néanmoins, compte tenu de leur caractère non contraignant, ils risquent d’être insuffisants pour prévenir ou réparer les dommages liés à l’IA en entreprise. Les spécialistes s’accordent sur le fait que les lois actuelles en matière de lutte contre la discrimination et de protection des données et de la vie privée et les réglementations relatives à la sécurité et à la santé au travail devront sans doute être adaptées pour assurer une gouvernance efficace de l’utilisation de l’IA en milieu professionnel. La jurisprudence pertinente est encore limitée et devra faire l’objet d’un suivi pour déterminer l’efficacité de la législation régissant l’utilisation de l’IA en entreprise, et dans quelle mesure elle devrait être adaptée.
De nouvelles propositions législatives portant spécifiquement sur l’IA sont en cours d’élaboration (au Canada, dans l’Union européenne et aux États-Unis par exemple), qui tiennent également compte des derniers progrès de l’IA générative34. Elles ont des répercussions importantes pour l’IA utilisée dans le cadre professionnel, par exemple du fait qu’elles exigent un contrôle humain des décisions liées à l’emploi et fondées sur l’IA. Pour limiter la charge réglementaire et atténuer le risque que la législation relative à l’IA ne parvienne pas à suivre l’évolution rapide de cette technologie, les propositions législatives font appel à des mesures différenciées, généralement par catégorie de risque (dont elles prévoient la révision périodique), et des bacs à sable réglementaires.
Tous les éléments relatifs à la fiabilité sont interdépendants et de même importance. La transparence est par exemple essentielle pour assurer la responsabilité, et la réglementation visant à assurer l’explicabilité peut contribuer à atténuer les biais dans les systèmes d’IA. Dans ce contexte, le mise en place d’une IA digne de confiance sur le lieu de travail appellera un ensemble de mesures propres à empêcher que cette technologie ne cause des préjudices aux demandeurs d’emploi et aux travailleurs, à renforcer la transparence et l’explicabilité de son utilisation en entreprise, et à définir les responsabilités sur l’ensemble de sa chaîne de valeur. Par ailleurs, comme les deux types d’instruments, contraignants et non contraignants, présentent des avantages et des inconvénients, un dosage bien coordonné des deux sera sans doute nécessaire pour que les politiques en matière d’IA soient effectivement appliquées et faciles à respecter, et suivent en parallèle les avancées dans ce domaine.
Si l’application simultanée de différentes mesures peut combler les lacunes des politiques d’IA, elle risque aussi d’alourdir la charge réglementaire ou de se traduire par des politiques incohérentes, ce qui peut avoir des répercussions sur le respect de la réglementation et retarder inutilement l’adoption d’une IA digne de confiance et bénéfique. La multiplication des normes et règlements à l’échelle nationale et internationale risque en outre d’accroître l’incertitude et les coûts de mise en conformité avec la réglementation pour les entreprises, les plus petites notamment. C’est pourquoi, pour limiter les discordances, l’élaboration de mesures relatives au développement et à l’utilisation de l’IA en milieu professionnel appelle une collaboration et une coordination entre pays et régions. La loi de l’UE sur l’IA est inédite et ambitieuse à cet égard, car elle vise à réglementer la quasi-totalité du développement et de l’utilisation de l’IA dans les États membres au moyen d’un seul texte législatif. Des organismes de réglementation spécialisés dans l’IA, tels que celui proposé aux États-Unis, pourraient également faciliter la coordination réglementaire entre États.
L’instauration d’une IA digne de confiance sur le lieu de travail requiert un cadre d’action bien conçu, mais aussi la capacité et les ressources nécessaires pour que les responsables politiques et les régulateurs puissent examiner et élaborer des mesures et en assurer l’application efficace. Pour ce faire, il convient de donner aux développeurs et aux utilisateurs des orientations pour les aider à comprendre les dispositions existantes et nouvelles et à s’y conformer. Les gouvernants et les régulateurs devront en outre appréhender pleinement les avantages et les risques liés à l’utilisation de l’IA dans le cadre professionnel, ainsi que l’efficacité de la législation en vigueur. Il est également indispensable que les travailleurs, les employeurs et les partenaires sociaux disposent des connaissances qui leur permettront de comprendre les systèmes d’IA et leurs conséquences sur le lieu de travail. Plus d’un tiers des adultes ne possèdent même pas les compétences numériques les plus fondamentales. L’expansion des programmes de formation aux compétences numériques figure déjà en tête des priorités publiques dans la plupart des pays, mais l’utilisation croissante de l’IA dans le cadre professionnel accentue la nécessité d’y intégrer des contenus spécialisés dans ce domaine (chapitre 5). L’action publique devrait aussi aider les partenaires sociaux à encourager l’adoption d’une IA digne de confiance en entreprise (chapitre 7).
Enfin, à mesure que les pouvoirs publics intensifient leur action à cet égard, des évaluations régulières, rigoureuses, fondées sur des données probantes et comparatives seront essentielles pour déterminer quelles mesures fonctionnent et repérer les vides juridiques à combler. Ce point est d’autant plus important que les politiques devront s’adapter à l’évolution technologique rapide de l’IA.
[5] Abbott, K. et D. Snidal (2000), « Hard and Soft Law in International Governance », International Organization, vol. 54, pp. 421-456, https://www.jstor.org/stable/2601340.
[56] Abraha, H., M. Silberman et J. Adams-Prassl (2022), The Need for Employee-specific Data Protection Law: Potential Lessons from Germany for the EU, European Law Blog, https://europeanlawblog.eu/2022/09/30/the-need-for-employee-specific-data-protection-law-potential-lessons-from-germany-for-the-eu/ (consulté le 26 avril 2023).
[66] Accessnow (2018), Human rights in the age of artificial intelligence, Accessnow, https://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf.
[142] Ada Lovelace Instititute (2020), Examining Tools for assessing algorithmic systems, Ada Lovelace Institute.
[20] Alan Turing Institute (2022), New UK initiative to shape global standards for Artificial Intelligence, Alan Turing Institute, https://www.turing.ac.uk/news/new-uk-initiative-shape-global-standards-artificial-intelligence (consulté le 31 janvier 2022).
[69] Allen QC, R. et D. Masters (2021), An Italian lesson for Deliveroo: Computer programmes do not always think of everything!, ai-lawhub.com, https://ai-lawhub.com/2021/01/18/an-italian-lesson-for-deliveroo-computer-programmes-do-not-always-think-of-everything/ (consulté le 2 janvier 2022).
[49] Altomani, P. (2023), Italian Garante bans Chat GPT from processing personal data of Italian data subjects, Data Protection Report, https://www.dataprotectionreport.com/2023/04/italian-garante-bans-chat-gpt-from-processing-personal-data-of-italian-data-subjects/ (consulté le 27 avril 2023).
[24] Appaya, M., H. Gradstein et M. Haji Kanz (2020), Global Experiences from Regulatory Sandboxes, Groupe de la Banque mondiale, http://hdl.handle.net/10986/34789.
[82] Aranguiz, A. (2021), Spain’s platform workers win algorithm transparency, https://socialeurope.eu/spains-platform-workers-win-algorithm-transparency (consulté le 12 décembre 2022).
[26] Attrey, A., M. Lesher et C. Lomax (2020), « The role of sandboxes in promoting flexibility and innovation in the digital age », Going Digital Toolkit Note, n° 2, https://goingdigital.oecd.org/data/notes/No2_ToolkitNote_Sandboxes.pdf.
[63] Becker, G. (2010), The Economics of Discrimination, The University of Chicago Press, https://press.uchicago.edu/ucp/books/book/chicago/E/bo22415931.html.
[15] Berryhill, J. et al. (2019), « Hello, World: Artificial intelligence and its use in the public sector », Documents de travail de l’OCDE sur la gouvernance publique, n° 36, Éditions OCDE, Paris, https://doi.org/10.1787/726fd39d-en.
[64] Bertrand, M. et S. Mullainathan (2004), « Are Emily and Greg More Employable Than Lakisha and Jamal? A Field Experiment on Labor Market Discrimination », American Economic Review, vol. 94/4, pp. 991-1013, https://doi.org/10.1257/0002828042002561.
[51] Bertuzzi, L. (2023), AI Act: MEPs close in on rules for general purpose AI, foundation models, EURACTIV.com, https://www.euractiv.com/section/artificial-intelligence/news/ai-act-meps-close-in-on-rules-for-general-purpose-ai-foundation-models/ (consulté le 11 mai 2023).
[159] Boldrin, M. et D. Levine (2013), « The Case Against Patents », Journal of Economic Perspectives, vol. 27/1, pp. 3-22, https://doi.org/10.1257/jep.27.1.3.
[160] Boldrin, M. et D. Levine (2002), « The Case Against Intellectual Property », American Economic Review, vol. 92/2, pp. 209-212, https://doi.org/10.1257/000282802320189267.
[71] Bornstein, S. (2018), « Antidiscriminatory Algorithms », Alabama Law Review, vol. 70/2, pp. 519-572, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3307893 (consulté le 14 avril 2022).
[39] Briône, P. (2020), My boss the algorithm: an ethical look at algorithms in the workplace, Acas, https://www.acas.org.uk/my-boss-the-algorithm-an-ethical-look-at-algorithms-in-the-workplace/html.
[105] Broecke, S. (2023), « Artificial intelligence and labour market matching », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 284, Éditions OCDE, Paris, https://doi.org/10.1787/2b440821-en.
[143] Brown, S., J. Davidovic et A. Hasan (2021), « The algorithm audit: Scoring the algorithms that score us », Big Data & Society, vol. 8/1, p. 205395172098386, https://doi.org/10.1177/2053951720983865.
[74] Buolamwini, J. et T. Gebru (2018), « Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification », Proceedings of Machine Learning Research, vol. 81, pp. 1-15, https://proceedings.mlr.press/v81/buolamwini18a.html.
[67] Bureau exécutif du Président, États-Unis (2016), Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights, Bureau exécutif du Président, États-Unis.
[90] Butler, D. et K. White (2021), EEOC is Monitoring Use of Artificial Intelligence, https://www.natlawreview.com/article/employers-beware-eeoc-monitoring-use-artificial-intelligence (consulté le 18 octobre 2021).
[61] Cahuc, P., S. Carcillo et A. Zylberberg (2014), Labor Economics, The MIT Press, https://mitpress.mit.edu/9780262027700/labor-economics/.
[134] California Legislature (2020), AB-2269 Personal rights: automated decision systems., https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB2269 (consulté le 24 janvier 2023).
[106] Cappelli, P., P. Tambe et V. Yakubovich (2019), « Artificial Intelligence in Human Resources Management: Challenges and a Path Forward », SSRN Electronic Journal, https://doi.org/10.2139/SSRN.3263878.
[158] CDDO (2022), Algorithmic Transparency Standard, Gouvernement du Royaume-Uni, https://www.gov.uk/government/collections/algorithmic-transparency-standard (consulté le 12 décembre 2022).
[109] Chambre des communes du Canada (2022), Projet de loi C-27 - Première lecture - Loi de 2022 sur la mise en œuvre de la Charte du numérique, https://www.parl.ca/DocumentViewer/fr/44-1/projet-loi/C-27/premiere-lecture (consulté le 28 novembre 2022).
[59] Chavez, K., J. Bahr et T. Vartanian (2022), AI has made its way to the workplace. So how have laws kept pace?, OECD.AI, https://oecd.ai/en/wonk/workplace-regulation-2022 (consulté le 12 décembre 2022).
[47] CNUCED (2023), Data Protection and Privacy Legislation Worldwide, https://unctad.org/page/data-protection-and-privacy-legislation-worldwide (consulté le 11 janvier 2023).
[107] Colgan, G. (2013), Gilbert v. Transfield Services (New Zealand) Ltd, Employment Court Christchurch, https://www.pbarrett.net/tbv/2013-NZEmpC-71-Gilbert-v-Transfield-Services-NZ-Ltd.pdf (consulté le 20 décembre 2021).
[125] Commission européenne (2022), De nouvelles règles en matière de responsabilité applicables aux produits et à l’IA pour protéger les consommateurs et favoriser l’innovation, https://ec.europa.eu/commission/presscorner/detail/fr/ip_22_5807 (consulté le 9 novembre 2022).
[38] Commission européenne (2022), Présentation du premier sas réglementaire sur l’intelligence artificielle - Bâtir l’avenir numérique de l’Europe, DIGIBYTE, https://digital-strategy.ec.europa.eu/fr/news/first-regulatory-sandbox-artificial-intelligence-presented (consulté le 28 novembre 2022).
[19] Commission européenne (2021), EU-US Trade and Technology Council Inaugural Joint Statement, https://ec.europa.eu/commission/presscorner/detail/fr/statement_21_4951.
[101] Commission européenne (2021), Proposition de Directive du Parlement européen et du Conseil relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52021PC0762 (consulté le 23 décembre 2021).
[31] Commission européenne (2021), Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union - COM/2021/206 final, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A52021PC0206 (consulté le 17 mai 2023).
[104] Commission européenne (2021), Propositions de la Commission pour améliorer les conditions de travail des personnes travaillant via une plateforme de travail numérique, https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_6605 (consulté le 28 novembre 2022).
[100] Commission européenne (2021), Propositions de la Commission pour améliorer les conditions de travail des personnes travaillant via une plateforme de travail numérique, https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_6605 (consulté le 11 mai 2023).
[118] Commission européenne (2019), European enterprise survey on the use of technologies based on artificial intelligence, https://digital-strategy.ec.europa.eu/en/library/european-enterprise-survey-use-technologies-based-artificial-intelligence (consulté le 12 août 2021).
[130] Congrès des États-Unis (2022), Digital Platform Commission Act, https://www.congress.gov/bill/117th-congress/senate-bill/4201/text.
[131] Congrès des États-Unis (2022), H.R.6580 - Algorithmic Accountability Act of 2022, https://www.congress.gov/bill/117th-congress/house-bill/6580.
[17] Congrès des États-Unis (2021), William M. (Mac) Thornberry National Defense Authorization Act for Fiscal Year 2021, 116e Congrès.
[132] Congrès des États-Unis (2019), S.1108 - Algorithmic Accountability Act of 2019, https://www.congress.gov/bill/116th-congress/senate-bill/1108.
[78] Conseil de l’Europe (2021), Lignes directrices sur la reconnaissance faciale, https://edoc.coe.int/en/artificial-intelligence/9749-lignes-directrices-sur-la-reconnaissance-faciale.html (consulté le 28 novembre 2022).
[36] Conseil de l’Union européenne (2022), Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts - Preparation for Coreper, https://artificialintelligenceact.eu/wp-content/uploads/2022/11/AIA-CZ-Draft-for-Coreper-3-Nov-22.pdf.
[77] Conseil des droits de l’homme des Nations Unies (2021), A/HRC/48/31 : Le droit à la vie privée à l’ère du numérique - Rapport de la Haute-Commissaire des Nations Unies aux droits de l’homme, https://documents-dds-ny.un.org/doc/UNDOC/GEN/G18/239/59/PDF/G1823959.pdf?OpenElement.
[157] Cowgill, B. (2020), Bias and Productivity in Humans and Algorithms: Theory and Evidence from Résumé Screening, https://conference.iza.org/conference_files/MacroEcon_2017/cowgill_b8981.pdf (consulté le 11 janvier 2023).
[140] Cumbo, L. (2021), The New York City Council - File #: Int 1894-2020, https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E-81F8-6596032FA3F9&Options=ID|Text|&Search=artificial+intelligence (consulté le 14 décembre 2021).
[103] De Stefano, V. et S. Taes (2021), Management algorithmique et négociation collective, Institut syndical européen, https://www.etui.org/sites/default/files/2021-06/Management%20algorithmique%20et%20n%C3%A9gociation%20collective-web-2021.pdf.
[42] Deutscher Bundestag Enquete-Kommission (2020), Artificial Intelligence – Social Responsibility and Economic, Social and Ecological Potential, https://www.bundestag.de/resource/blob/804184/f31eb697deef36fc271c0587e85e5b19/Kurzfassung-des-Gesamtberichts-englische-Uebersetzung-data.pdf.
[161] DKE (2020), German Standardization Roadmap on Artificial Intelligence, https://www.din.de/resource/blob/772610/e96c34dd6b12900ea75b460538805349/normungsroadmap-en-data.pdf.
[95] Doshi-Velez, F. et al. (2017), « Accountability of AI Under the Law: The Role of Explanation », SSRN Electronic Journal, https://arxiv.org/abs/1711.01134v3.
[33] DOT Europe (2021), DOT Europe Position on the Artificial Intelligence Act, DOT Europe, https://doteurope.eu/wp-content/uploads/2021/09/DOTEurope_AI-PP.pdf.
[32] Ebers, M. et al. (2021), « The European Commission’s Proposal for an Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society (RAILS) », J., vol. 4/4, pp. 589-603, https://doi.org/10.3390/J4040043.
[58] EDPB (2020), Lignes directrices 5/2020 sur le consentement au sens du règlement (UE) 2016/679, Comité européen de la protection des données, https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_202005_consent_fr.pdf.
[124] Enarsson, T., L. Enqvist et M. Naarttijärvi (2021), « Approaching the human in the loop – legal perspectives on hybrid human/algorithmic decision-making in three contexts », Information & Communications Technology Law, vol. 31/1, pp. 123-153, https://doi.org/10.1080/13600834.2021.1958860.
[89] Engler, A. (2021), Auditing employment algorithms for discrimination, Brookings, https://www.brookings.edu/research/auditing-employment-algorithms-for-discrimination/.
[14] España Digital (2023), AI regulatory and ethical framework, https://espanadigital.gob.es/en/measure/ai-regulatory-and-ethical-framework (consulté le 21 avril 2023).
[85] EU-OSHA (2021), « Impact de l’intelligence artificielle sur la sécurité et la santé au travail », EU-OSHA, https://osha.europa.eu/fr/publications/impact-artificial-intelligence-occupational-safety-and-health.
[99] FBI (2022), Deepfakes and Stolen PII Utilized to Apply for Remote Work Positions (I-062822-PSA), https://www.ic3.gov/Media/Y2022/PSA220628 (consulté le 12 décembre 2022).
[139] Federal Trade Commission (2023), What the FTC Does, https://www.ftc.gov/news-events/media-resources/what-ftc-does (consulté le 6 juin 2023).
[112] Ferguson, C. et al. (2022), The Regulation of Artificial Intelligence in Canada and Abroad: Comparing the Proposed AIDA and EU AI Act, https://www.lexology.com/library/detail.aspx?g=894b90db-040b-4a20-a1f6-c2af4a09b69d (consulté le 28 novembre 2022).
[75] Fisher et al. (2020), Bill Text: MD HB1202, https://legiscan.com/MD/text/HB1202/id/2169556 (consulté le 14 décembre 2021).
[65] Fleck, L., N. Rounding et P. Özgül (2022), « Artificial Intelligence in hiring: friend or foe? », ROA External Reports. AI :conomics policy brief, n° May 2022, https://cris.maastrichtuniversity.nl/ws/portalfiles/portal/114785758/aiconomics_policybrief02_eng_V2.pdf (consulté le 11 janvier 2023).
[54] GDPR.EU (2023), How do the UK’s GDPR and EU’s GDPR regulation compare?, https://www.gdpreu.org/differences-between-the-uk-and-eu-gdpr-regulations/ (consulté le 12 décembre 2022).
[48] GDPR.EU (2022), What is GDPR, the EU’s new data protection law?, https://gdpr.eu/what-is-gdpr/ (consulté le 28 novembre 2022).
[68] Geiger, G. (2021), Court Rules Deliveroo Used ’Discriminatory’ Algorithm, Vice, https://www.vice.com/en/article/7k9e4e/court-rules-deliveroo-used-discriminatory-algorithm (consulté le 2 janvier 2022).
[4] Genesys (2019), New Workplace Survey Finds Nearly 80% of Employers Aren’t Worried About Unethical Use of AI — But Maybe They Should Be, https://www.genesys.com/en-gb/company/newsroom/announcements/new-workplace-survey-finds-nearly-80-of-employers-arent-worried-about-unethical-use-of-ai-but-maybe-they-should-be (consulté le 3 août 2021).
[76] Glasser, N., A. Forman et C. Lech (2020), New Maryland Law Requires Applicant Consent Prior to Using Facial Recognition Technology in Job Interviews, https://www.natlawreview.com/article/new-maryland-law-requires-applicant-consent-prior-to-using-facial-recognition (consulté le 14 décembre 2021).
[126] Goldberg, J. et B. Zipursky (2016), « The Strict Liability in Fault and the Fault in Strict Liability », Fordham Law Review, vol. 85/2, https://ir.lawnet.fordham.edu/flr/vol85/iss2/16 (consulté le 17 mai 2023).
[127] Goujard, C. (2022), Robo-cop: EU wants firms to be held liable for harm done by AI, https://www.politico.eu/article/artificial-intelligence-european-commission-ai-liability-directive/ (consulté le 9 novembre 2022).
[16] Gouvernement de l’Australie (2023), Adoption of AI in the Public Sector, https://www.architecture.dta.gov.au/sp_aga2?id=aga_capability_display&kb=KB0011078 (consulté le 21 avril 2023).
[110] Gouvernement du Canada (2022), Sommaire du projet de loi C-27 : Loi de 2022 sur la mise en œuvre de la Charte du numérique, https://ised-isde.canada.ca/site/innover-meilleur-canada/fr/charte-canadienne-numerique/sommaire-projet-loi-loi-2020-mise-oeuvre-charte-numerique (consulté le 28 novembre 2022).
[8] Gouvernement du Royaume-Uni (2023), A pro-innovation approach to AI regulation, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper#part-3-an-innovative-and-iterative-approach (consulté le 26 avril 2023).
[156] gov.uk (2023), Centre for Data Ethics and Innovation, https://www.gov.uk/government/organisations/centre-for-data-ethics-and-innovation (consulté le 13 janvier 2023).
[155] Gray, J. (2021), The bossware boom is upon us: a look inside the employee monitoring software market | The Business of Business, https://www.businessofbusiness.com/articles/employee-monitoring-software-productivity-activtrak-hubstaff-covid/ (consulté le 3 novembre 2021).
[6] Gutierrez, C. et G. Marchant (2021), How soft law is used in AI governance, https://www.brookings.edu/techstream/how-soft-law-is-used-in-ai-governance/ (consulté le 14 avril 2023).
[154] Habuka, H. (2023), Japan’s Approach to AI Regulation and Its Impact on the 2023 G7 Presidency, Center for Strategic and International Studies, https://www.csis.org/analysis/japans-approach-ai-regulation-and-its-impact-2023-g7-presidency (consulté le 21 avril 2023).
[12] Hartl, A. et al. (2021), « Germany’s human-centred approach to AI is inclusive, evidence-based and capacity-building », OECD.AI, https://oecd.ai/wonk/germany-takes-an-inclusive-and-evidence-based-approach-for-capacity-building-and-a-human-centred-use-of-ai.
[137] Hasegawa et al. (2019), SB 5527 - 2019-20, Washington State Legislature, https://app.leg.wa.gov/billsummary?BillNumber=5527&Year=2019 (consulté le 14 décembre 2021).
[120] Heavens, W. (2020), The way we train AI is fundamentally flawed, MIT Technology Review, https://www.technologyreview.com/2020/11/18/1012234/training-machine-learning-broken-real-world-heath-nlp-computer-vision/.
[98] Hießl, C. (2023), Case Law on Algorithmic Management at the Workplace: Cross-European Comparative Analysis and Tentative Conclusions, Commission européenne, https://doi.org/10.2139/SSRN.3982735.
[153] IEEE (2022), Autonomous and Intelligent Systems (AIS), IEEE Standards Association, https://standards.ieee.org/initiatives/autonomous-intelligence-systems/ (consulté le 12 décembre 2022).
[102] ILCS (2019), 820 ILCS 42/ Artificial Intelligence Video Interview Act, https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=4015&ChapterID=68 (consulté le 14 décembre 2021).
[10] IMDA (2023), A.I. Verify - AI Governance Testing Framework & Toolkit - Infocomm Media Development Authority, https://www.imda.gov.sg/How-We-Can-Help/AI-Verify (consulté le 24 janvier 2023).
[60] Independent interdisciplinary council on employee data protection (2022), Report of the independent interdisciplinary council on employee data protection, Ministère fédéral du Travail et des Affaires sociales, Allemagne, https://www.denkfabrik-bmas.de/en/topics/employee-data-protection/report-of-the-independent-interdisciplinary-council-on-employee-data-protection.
[55] International Association of Privacy Professionals (IAPP) (2023), US State Privacy Legislation Tracker, https://iapp.org/resources/article/us-state-privacy-legislation-tracker/ (consulté le 11 janvier 2023).
[57] Intersoft Consulting (2022), GDPR - Consent, https://gdpr-info.eu/issues/consent/ (consulté le 28 novembre 2022).
[116] Ipsos (2022), Global Opinions and Expectations about AI: A Global Advisor survey, https://www.ipsos.com/sites/default/files/ct/news/documents/2022-01/Global-opinions-and-expectations-about-AI-2022.pdf.
[152] ISO (2022), ISO/IEC JTC 1/SC 42 : Intelligence artificielle, Organisation internationale de normalisation, https://www.iso.org/fr/committee/6794475.html (consulté le 12 décembre 2022).
[92] Jarota, M. (2021), « Artificial intelligence and robotisation in the EU - should we change OHS law? », Journal of Occupational Medicine and Toxicology, vol. 16/1, https://doi.org/10.1186/s12995-021-00301-7.
[35] Johnson, K. (2021), The Fight to Define When AI Is ‘High Risk’, Wired, https://www.wired.com/story/fight-to-define-when-ai-is-high-risk/ (consulté le 1 février 2022).
[28] Journal officiel de l’Union européenne (2016), Règlement (UE) 2016/ 679 du Parlement européen et du Conseil, https://eur-lex.europa.eu/legal-content/fr/TXT/?qid=1687955560758&uri=CELEX:32016R0679 (consulté le 23 novembre 2021).
[122] Kersley, A. (2021), « Couriers say Uber’s ‘racist’ facial identification tech got them fired », Wired UK, https://www.wired.co.uk/article/uber-eats-couriers-facial-recognition (consulté le 18 octobre 2021).
[93] Kim, P. et M. Bodie (2021), « Artificial Intelligence and the Challenges of Workplace Discrimination and Privacy », ABA Journal of Labor & Employment Law, vol. 35/2, pp. 289-315, https://www.americanbar.org/content/dam/aba/publications/aba_journal_of_labor_employment_law/v35/no-2/artificial-intelligence.pdf.
[13] La Moncloa (2020), Pedro Sánchez presents National Artificial Intelligence Strategy with public investment of 600 million euros for period 2021-2023, La Moncloa, https://www.lamoncloa.gob.es/lang/en/presidente/news/Paginas/2020/20201202_enia.aspx (consulté le 23 novembre 2021).
[23] Lane, M. et M. Williams (2023), « Defining and classifying AI in the workplace », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 290, Éditions OCDE, Paris, https://doi.org/10.1787/59e89d7f-en.
[83] Lane, M., M. Williams et S. Broecke (2023), « The impact of AI on the workplace: Main findings from the OECD AI surveys of employers and workers », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 288, Éditions OCDE, Paris, https://doi.org/10.1787/ea0a0fe1-en.
[96] Loi, M. (2020), People Analytics must benefit the people - An ethical analysis of dtat-driven algorithmic systems in human resources management, Algorithm Watch, https://algorithmwatch.org/en/auto-hr/ethical-analysis-loi/.
[50] Madiega, T. (2023), General-purpose artificial intelligence, Service de recherche du Parlement européen, https://www.europarl.europa.eu/thinktank/en/document/EPRS_ATA(2023)745708.
[25] Madiega, T. et A. Van De Pol (2022), Artificial intelligence act and regulatory sandboxes, Service de recherche du Parlement européen, https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf.
[151] Maltseva, K. (2020), « Wearables in the workplace : the brave new world of employee engagement », Business Horizons, vol. 63/2, pp. 493-505, https://doi.org/10.1016/j.bushor.2020.03.007.
[88] Maurer, R. (2021), « Use of AI in the Workplace Raises Legal Concerns », Society for Human Resource Management, https://www.shrm.org/resourcesandtools/hr-topics/technology/pages/use-of-ai-in-the-workplace-raises-legal-concerns.aspx (consulté le 18 octobre 2021).
[22] McNamara, A., J. Smith et E. Murphy-Hill (2018), « Does ACM’s code of ethics change ethical decision making in software development? », Proceedings of the 2018 26th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, https://doi.org/10.1145/3236024.3264833.
[7] METI (2021), AI Governance in Japan Ver. 1.1: Report from the expert group on how AI principles should be implemented, Ministère de l’Économie, du Commerce et de l’Industrie, Japon, https://www.meti.go.jp/english/press/2020/0616_001.html.
[84] Milanez, A. (2023), « The impact of AI on the workplace: Evidence from OECD case studies of AI implementation », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 289, Éditions OCDE, Paris, https://doi.org/10.1787/2247ce58-en.
[150] Milne, S. (2021), Bosses turn to ‘tattleware’ to keep tabs on employees working from home, The Guardian, https://www.theguardian.com/us-news/2021/sep/05/covid-coronavirus-work-home-office-surveillance (consulté le 3 novembre 2021).
[133] Mökander, J. et L. Floridi (2022), « From algorithmic accountability to digital governance », Nature Machine Intelligence, vol. 4/6, pp. 508-509, https://doi.org/10.1038/s42256-022-00504-5.
[45] Nations Unies (1948), Déclaration universelle des droits de l’homme, https://www.un.org/fr/about-us/universal-declaration-of-human-rights.
[119] Neff, G., M. McGrath et N. Prakash (2020), AI @ Work, Oxford Internet Institute, https://cdn.futuresays.org/content/uploads/2020/08/14084038/FS_PDF_GINA_V4.pdf.
[40] Nguyen, A. et A. Mateescu (2019), Explainer: Algorithmic Management in the Workplace, Data & Society Research Institute, https://datasociety.net/library/explainer-algorithmic-management-in-the-workplace/.
[18] NIST (2022), AI Risk Management Framework: Initial Draft, National Institute of Standards and Technology, https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pdf.
[138] NTIA (2023), AI Accountability Policy Request for Comment, Federal Register, https://www.federalregister.gov/documents/2023/04/13/2023-07776/ai-accountability-policy-request-for-comment (consulté le 28 avril 2023).
[41] Nurski, L. (2021), Algorithmic management is the past, not the future of work, Bruegel, https://www.bruegel.org/2021/05/algorithmic-management-is-the-past-not-the-future-of-work/ (consulté le 6 janvier 2022).
[44] OCDE (2023), Trust and risks of data misuse, OCDE, Paris, https://www.oecd.org/digital/data-governance-indicators/trust/ (consulté le 14 février 2023).
[117] OCDE (2020), Perspectives de l’OCDE sur les compétences 2019 : Prospérer dans un monde numérique, Éditions OCDE, Paris, https://doi.org/10.1787/a0e29ca9-fr.
[115] OCDE (2019), L’intelligence artificielle dans la société, Éditions OCDE, Paris, https://doi.org/10.1787/b7f8cd16-fr.
[123] OCDE (2019), « Ne laisser personne de côté : la protection sociale face à l’évolution constante du marché du travail », dans Perspectives de l’emploi de l’OCDE 2019 : L’avenir du travail, Éditions OCDE, Paris, https://doi.org/10.1787/cdfbc09d-fr.
[80] OCDE (2019), Negotiating Our Way Up: Collective Bargaining in a Changing World of Work, Éditions OCDE, Paris, https://doi.org/10.1787/1fd2da34-en.
[3] OCDE (2019), Recommandation du Conseil sur l’intelligence artificielle, OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
[149] OECD.AI (2023), OECD-NIST Catalogue of AI Tools & Metrics, https://oecd.ai/en/catalogue/overview (consulté le 12 décembre 2022).
[2] OECD.AI (2023), Principes sur l’IA de l’OCDE, https://oecd.ai/fr/ai-principles (consulté le 14 avril 2023).
[94] OECD.AI (2022), Transparence et l’explicabilité, https://oecd.ai/fr/dashboards/ai-principles/P7 (consulté le 12 décembre 2022).
[87] OIT (2011), Système de gestion de la SST : un outil pour une amélioration continue, Organisation internationale du Travail, https://www.ilo.org/global/topics/safety-and-health-at-work/resources-library/promotion/WCMS_154126/lang--fr/index.htm.
[79] OIT (1998), Déclaration de l’OIT relative aux principes et droits fondamentaux au travail, Organisation internationale du Travail, https://www.ilo.org/declaration/lang--fr/index.htm.
[73] O’Keefe, J. et al. (2019), Professional Perspective AI Regulation and Risks to Employers, http://bna.com/copyright-permission-request/.
[29] Parlement du Royaume-Uni (2022), Data Protection and Digital Information Bill (143 2022-23), https://bills.parliament.uk/bills/3322 (consulté le 1 décembre 2022).
[52] Parlement européen (2023), Un pas de plus vers les premières règles sur l’intelligence artificielle | Communiqué de presse | Parlement européen, https://www.europarl.europa.eu/news/fr/press-room/20230505IPR84904/un-pas-de-plus-vers-les-premieres-regles-sur-l-intelligence-artificielle (consulté le 16 mai 2023).
[37] Parlement européen (s.d.), Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, https://secure.ipex.eu/IPEXL-WEB/document/COM-2021-0206 (consulté le 17 mai 2023).
[108] Parliamentary Counsel Office (Nouvelle-Zélande) (2000), Employment Relations Act 2000 No 24 (as at 26 November 2021), https://www.legislation.govt.nz/act/public/2000/0024/latest/DLM58317.html#DLM58327 (consulté le 20 décembre 2021).
[43] Partenariat Mondial sur l’Intelligence Artificielle (PMIA) (2020), Data Governance Working Group: A Framework Paper for GPAI’s work on Data Governance, https://gpai.ai/projects/data-governance/gpai-data-governance-work-framework-paper.pdf (consulté le 14 février 2023).
[30] Parviainen, H. (2022), « Can algorithmic recruitment systems lawfully utilise automated decision-making in the EU? », European Labour Law Journal, vol. 13/2, pp. 225-248, https://doi.org/10.1177/20319525221093815.
[97] Pega (2019), What Consumers Really Think About AI: A Global Study, https://www.pega.com/ai-survey (consulté le 2 septembre 2021).
[81] Pérez del Prado, D. (2021), « The legal framework of platform work in Spain: The new Spanish “Riders’ Law” », Comparative Labor Law and Policy Journal, https://cllpj.law.illinois.edu/content/dispatches/2021/Dispatch-No.-36.pdf.
[148] Phillips, P. et al. (2020), Four Principles of Explainable Artificial Intelligence, National Institute of Standards and Technology (NIST), https://doi.org/10.6028/nist.ir.8312-draft.
[62] Quillian, L. et al. (2017), « Meta-analysis of field experiments shows no change in racial discrimination in hiring over time », PNAS, vol. 114/41, pp. 10870-10875, https://doi.org/10.1073/pnas.1706255114.
[136] Racine, K. (2021), AG Racine Introduces Legislation to Stop Discrimination In Automated Decision-Making Tools That Impact Individuals’ Daily Lives, https://oag.dc.gov/release/ag-racine-introduces-legislation-stop (consulté le 24 janvier 2023).
[147] Raji, D. et al. (2020), « Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing », vol. 7, https://doi.org/10.1145/3375627.3375820.
[9] REC/CDEI (2021), Data-driven tools in recruitment guidance, https://www.rec.uk.com/our-view/research/practical-guides/data-driven-tools-recruitment-guidance (consulté le 13 janvier 2023).
[11] Rogerson, A. et al. (2022), Government AI Readiness Index 2022, Oxford Insights, https://www.oxfordinsights.com/government-ai-readiness-index-2022.
[72] Rudin, C. (2019), « Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead », Nature Machine Intelligence, vol. 1/5, pp. 206-215, https://doi.org/10.1038/s42256-019-0048-x.
[1] Salvi del Pero, A., P. Wyckoff et A. Vourc’h (2022), « Using Artificial Intelligence in the workplace: What are the main ethical risks? », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 273, Éditions OCDE, Paris, https://doi.org/10.1787/840a2d9f-en.
[128] Sanathkumar, S. (2022), Rethinking Liability Regimes for AI-Related Claims – Should Canada Follow Europe?, Aird & Berlis, https://www.airdberlis.com/insights/publications/publication/rethinking-liability-regimes-for-ai-related-claims-should-canada-follow-europe.
[146] Schwartz, R. et al. (2021), A Proposal for Identifying and Managing Bias in Artificial Intelligence, National Institute of Standards and Technology, https://doi.org/10.6028/nist.sp.1270-draft.
[145] Schwartz, R. et al. (2022), Towards a standard for identifying and managing bias in artificial intelligence, National Institute of Standards and Technology (États-Unis), Gaithersburg, MD, https://doi.org/10.6028/nist.sp.1270.
[113] Sharma, K. (2017), « Artificial Intelligence Is a Useful Tool for Business and Consumers », Business Insider, https://www.businessinsider.com/artificial-intelligence-is-a-useful-tool-for-business-and-consumers-2017-11?IR=T (consulté le 5 août 2021).
[53] Simmons, D. (2022), 17 Countries with GDPR-like Data Privacy Laws, Comforte, https://insights.comforte.com/countries-with-gdpr-like-data-privacy-laws (consulté le 11 janvier 2023).
[121] Soper, S. (2021), Fired by Bot: Amazon Turns to Machine Managers And Workers Are Losing Out, Bloomberg, https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns-to-machine-managers-and-workers-are-losing-out (consulté le 17 octobre 2021).
[162] Standards Australia (2020), An Artificial Intelligence Standards Roadmap: Making Australia’s Voice Heard, https://www.standards.org.au/getmedia/ede81912-55a2-4d8e-849f-9844993c3b9d/R_1515-An-Artificial-Intelligence-Standards-Roadmap-soft.pdf.aspx.
[135] State of New Jersey Legislature (2019), NJ A5430 - New Jersey Algorithmic Accountability Act, https://legiscan.com/NJ/text/A5430/id/2023465 (consulté le 24 janvier 2023).
[129] The White House (2022), Blueprint for an AI Bill of Rights, The White House, https://www.whitehouse.gov/ostp/ai-bill-of-rights/.
[70] Tribunale Ordinario di Bologna (2020), FILCAMS CGIL Bologna; NIDIL CGIL Bologna; FILT CGIL Bologna vs. Deliveroo Italia S.R.L., http://www.bollettinoadapt.it/wp-content/uploads/2021/01/Ordinanza-Bologna.pdf.
[141] Turner Lee, N. et S. Lai (2021), Why New York City is cracking down on AI in hiring, https://www.brookings.edu/blog/techtank/2021/12/20/why-new-york-city-is-cracking-down-on-ai-in-hiring/ (consulté le 1 avril 2022).
[34] Veale, M. et F. Borgesius (2021), « Demystifying the Draft EU Artificial Intelligence Act », Computer Law Review International, vol. 22/4, pp. 97-112, https://doi.org/10.9785/cri-2021-220402.
[114] Verhagen, A. (2021), « Opportunities and drawbacks of using artificial intelligence for training », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 266, Éditions OCDE, Paris, https://doi.org/10.1787/22729bd6-en.
[46] Wachter, S. et B. Mittelstadt (2019), « A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI », Columbia Business Law Review, vol. 2019/2, pp. 494-620, https://doi.org/10.7916/cblr.v2019i2.3424.
[21] Whittaker, M. et al. (2018), AI Now Report 2018, AI Now Institute, New York, https://ainowinstitute.org/publication/ai-now-2018-report-2.
[86] Wiggers, K. (2021), Computer vision-powered workplace safety systems could lead to bias and other harms, https://venturebeat.com/2021/09/21/computer-vision-powered-workplace-safety-systems-could-lead-to-bias-and-other-harms/ (consulté le 4 novembre 2021).
[91] Wisenberg Brin, D. (2021), AI’s Potential Role in Employee Discipline Draws Attention in Europe, Society for Human Resource Management, https://www.shrm.org/resourcesandtools/hr-topics/global-hr/pages/europe-ai-employee-discipline.aspx (consulté le 18 octobre 2021).
[144] Wisenberg Brin, D. (2019), New Illinois Bill Sets Rules for Using AI with Video Interviews, Society for Human Resource Management, https://www.shrm.org/resourcesandtools/legal-and-compliance/state-and-local-updates/pages/illinois-ai-video-interviews.aspx (consulté le 14 décembre 2021).
[111] Witzel, M. (2022), A Few Questions about Canada’s Artificial Intelligence and Data Act, Centre pour l’innovation dans la gouvernance internationale, https://www.cigionline.org/articles/a-few-questions-about-canadas-artificial-intelligence-and-data-act/ (consulté le 28 novembre 2022).
[27] Wood, A. (2021), Algorithmic Management: Consequences for Work Organisation and Working Conditions, Centre commun de recherche, https://joint-research-centre.ec.europa.eu/publications/algorithmic-management-consequences-work-organisation-and-working-conditions_en.
← 1. Des retards inutiles dans l’adoption d’une IA digne de confiance entraînent également le risque implicite de ne pouvoir tirer profit des avantages qu’elle offre, comme l’amélioration de la santé et de la sécurité au travail ou les gains de productivité.
← 2. La « transparence » consiste à signaler quand l’IA est utilisée. « L’explicabilité » consiste à donner aux personnes concernées par les résultats d’un système d’IA les moyens de comprendre comment ces résultats ont été obtenus (OECD.AI, 2023[2]).
← 3. Le Catalogue OCDE‑NIST des outils et indicateurs de l’IA recueille et catégorise les outils et indicateurs opérationnels, éducatifs et techniques au service d’une IA digne de confiance (OECD.AI, 2023[149]). Il comprend, par exemple, des collections interactives d’outils techniques pour supprimer les biais, d’indicateurs pour évaluer le respect de la vie privée, d’outils de documentation pour renforcer la transparence et d’outils éducatifs pour acquérir des compétences en matière d’IA. Il devrait aider les acteurs de l’IA à assumer leur responsabilité et à créer et déployer des systèmes et des applications d’IA respectueux des droits de la personne humaine, équitables, transparents, explicables, solides, sécurisés et sûrs.
← 4. Le CDEI est un organisme gouvernemental spécialisé qui facilite l’utilisation fiable des données et de l’IA (gov.uk, 2023[156]).
← 5. Par ailleurs, l’Observatoire sur l’incidence sociale et éthique des algorithmes (OBISAL) analysera l’incidence éthique et réglementaire des systèmes d’IA et procédera à des évaluations dans l’objectif d’établir des recommandations et des bonnes pratiques (España Digital, 2023[14]).
← 6. Plusieurs normes en matière d’IA sont en élaboration ou publiées actuellement, notamment celles mises au point par des organismes comme l’Organisation internationale de normalisation (ISO, 2022[152]) et l’Institut des ingénieurs, électriciens et électroniciens (IEEE, 2022[153]). Les autorités de normalisation de pays comme l’Allemagne (DKE, 2020[161]), l’Australie (Standards Australia, 2020[162]), les États-Unis (Phillips et al., 2020[148]) et le Royaume‑Uni (CDDO, 2022[158]) travaillent également en ce sens. Pour mettre concrètement en œuvre la loi sur l’IA de l’UE, les organismes de normalisation européens seront également invités à développer des normes, dont certaines portant sur des mesures relatives à une « supervision humaine », prévoyant, par exemple, une intervention humaine (voir la section 6.2.3).
← 7. Le NIST a également publié un document sur l’IA et ses biais qui s’inscrit dans le prolongement d’une proposition de 2021 à l’effet de recenser les biais tout au long du cycle de vie de l’IA (Schwartz et al., 2021[146]), mais note également qu’il importe de remédier aux biais humains et systémiques (Schwartz et al., 2022[145]).
← 8. Compte tenu de l’asymétrie de pouvoir et des liens de dépendance qui caractérisent les relations de travail, il est effectivement possible que le consentement à des décisions d’emploi entièrement automatisées ait été obtenu de manière abusive, car il est peu probable qu’il ait été donné librement – voir l’Encadré 6.3 et la sous-section portant sur les Atteintes à la vie privée.
← 9. Certains logiciels de télésurveillance auraient par exemple fréquemment pris des photos des salariés au moyen de la webcam de leur ordinateur portable et les auraient affichées sur un espace numérique partagé ; d’autres auraient enregistré les courriels que les employés n’avaient pas envoyés ou activé les webcams et les microphones de leurs ordinateurs (Gray, 2021[155] ; Milne, 2021[150]). Autre exemple, les dispositifs portables peuvent recueillir des données physiologiques sensibles sur l’état de santé des salariés, leurs habitudes, voire la nature de leurs interactions sociales. Si ces informations peuvent être collectées et utilisées pour améliorer la santé et la sécurité des employés, elles peuvent également être à l’origine – même de manière fortuite – de jugements lourds de conséquences de la part des employeurs (Maltseva, 2020[151]). Il convient de noter que bon nombre de ces atteintes à la vie privée sont sans doute illégales dans les pays membres de l’OCDE.
← 10. La législation européenne proposée sur l’IA autorise, moyennant des conditions rigoureuses, le traitement de données à caractère personnel sensibles lorsque celles-ci sont utilisées pour surveiller, détecter et corriger les biais des systèmes d’IA à risque élevé, fournissant ainsi une base juridique pour leur traitement licite au titre des exceptions prévues à l’article 9, paragraphe 2, du RGPD (Commission européenne, 2021[31]).
← 11. Le RGPD interdit toute pression ou influence inappropriée susceptible d’influer sur le consentement des personnes concernées, ainsi que l’établissement d’un lien entre le consentement et l’exécution d’un contrat (GDPR.EU, 2022[48]).
← 12. À titre d’exemple, une expérience pratique dans le cadre de laquelle un algorithme de recrutement annule de manière aléatoire la décision d’un recruteur humain de convoquer un candidat à un entretien d’embauche montre que l’algorithme augmente le recrutement de candidats plus productifs, ainsi que celui de candidats atypiques – comme les femmes et les personnes issues de minorités raciales – et de candidats sans recommandation professionnelle, diplômés d’établissements d’enseignement supérieur non prestigieux, ou dépourvus d’expérience professionnelle (Cowgill, 2020[157]).
← 13. La fiabilité diminuait si un livreur ne se connectait pas à l’application dans les 15 minutes suivant le début du créneau qui lui avait été attribué ; la participation augmentait s’il travaillait souvent pendant les heures de pointe.
← 14. Le tribunal a insisté sur les problèmes de transparence de l’algorithme et souligné que celui-ci devait contextualiser les données utilisées dans ses classements. Deliveroo a cessé d’utiliser l’algorithme en novembre 2020, mais a noté que son évaluation était fondée sur des cas hypothétiques et non sur des exemples concrets (Tribunale Ordinario di Bologna, 2020[70]).
← 15. Selon Raji et al., (2020[147]) la technologie de reconnaissance faciale recouvre des tâches allant de la détection des visages, qui consiste à localiser un visage sur une image, à l’analyse faciale, qui détermine les caractéristiques faciales d’un individu, en passant par l’identification des visages, qui consiste à différencier un visage de tous les autres.
← 16. La loi fait suite à un arrêt de la Cour suprême de septembre 2020 qui qualifiait les livreurs des plateformes numériques de salariés. Elle formalise un accord conclu entre les syndicats et les associations professionnelles en mars 2021.
← 17. Généralement, le droit du travail réglemente par exemple les conditions relatives au temps de travail ou aux préavis de licenciement ; les réglementations en matière de sécurité et de santé au travail, pour leur part, peuvent conférer aux employés un droit légal qui oblige les employeurs à assurer leur protection en prévenant les risques pour la sécurité et la santé (Nurski, 2021[41]).
← 18. Afin de garantir aux travailleurs une indemnisation en cas d’accident ou de maladie professionnels, de nombreux pays imposent aux employeurs, par voie législative, de souscrire une assurance de responsabilité patronale. Néanmoins, les employeurs ne sont généralement pas tenus responsables s’il peut être prouvé que le dommage a été causé par un dysfonctionnement de la machine, auquel cas la responsabilité retomberait sur le fabricant.
← 19. Les droits de propriété intellectuelle ne sont cependant pas le seul moyen d’encourager la découverte et le développement d’innovations, et ils risquent de ne pas être adaptés lorsqu’il existe d’importantes externalités négatives, comme pour certains systèmes d’IA (Boldrin et Levine, 2002[160] ; 2013[159]).
← 20. Pegasystems, une société de logiciels de gestion de la relation client, a mené une étude mondiale pour évaluer l’opinion des consommateurs vis-à-vis de l’IA et, plus particulièrement, ce qu’ils pensent de l’IA utilisée dans le cadre de la gestion de la clientèle. Au total, 6 000 personnes ont été interrogées en Amérique du Nord, dans la région Europe‑Moyen-Orient-Afrique et dans la région Asie‑Pacifique (Pega, 2019[97]).
← 21. Le traitement des données à caractère personnel sans le consentement de la personne concernée est licite dans un petit nombre de cas, à savoir : i) quand le traitement est nécessaire à l’exécution d’un contrat auquel la personne concernée est partie ou à l’exécution de mesures précontractuelles prises à la demande de celle‑ci ; ii) quand le traitement est nécessaire au respect d’une obligation légale à laquelle le responsable du traitement est soumis ; iii) quand le traitement est nécessaire à la sauvegarde des intérêts vitaux de la personne concernée ou d’une autre personne physique ; iv) quand le traitement est nécessaire à l’exécution d’une mission d’intérêt public ou relevant de l’exercice de l’autorité publique dont est investi le responsable du traitement ; v) quand le traitement est nécessaire aux fins des intérêts légitimes poursuivis par le responsable du traitement ou par un tiers, à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée qui exigent une protection des données à caractère personnel, notamment lorsque la personne concernée est un enfant (Journal officiel de l’Union européenne, 2016[28]).
← 22. On peut cependant faire valoir qu’il est extrêmement difficile d’obtenir un consentement valable dans des situations d’asymétrie de pouvoir et de dépendance, comme c’est le cas des entretiens d’embauche et des relations de travail (voir également la section 6.2.1).
← 23. Bien que les faits concernés se soient produits au Royaume‑Uni, ce sont les tribunaux néerlandais qui sont compétents du fait que le siège des plateformes est à Amsterdam (Hießl, 2023[98]).
← 24. Les fournisseurs n’auraient pas à informer les usagers de leurs interactions avec l’IA dans le cas où celles-ci seraient « évidentes pour une personne physique normalement informée et raisonnablement attentive et éclairée compte tenu des circonstances et du contexte d’utilisation ». (Conseil de l’Union européenne, 2022[36]).
← 25. En août 2019, l’État de l’Illinois a été le premier État des États-Unis, avec l’Artificial Intelligence Video Interview Act (loi sur les entretiens vidéo analysés par l’intelligence artificielle) à se pencher sur la question du déploiement de systèmes d’IA à des fins de recrutement (ILCS, 2019[102]). La loi est officiellement entrée en vigueur en janvier 2020 ; elle s’applique à tous les employeurs qui font appel à un système d’IA pour analyser les entretiens vidéo des candidats à des emplois basés dans l’Illinois et vise en partie à préciser le cadre réglementaire pour les entreprises intéressées par l’utilisation de ces outils (Wisenberg Brin, 2019[144]). À la demande d’un candidat, les employeurs devront également restreindre la diffusion des entretiens vidéo et détruire les images et leurs copies dans un délai de 30 jours.
← 26. La majorité des répondants aux enquêtes de l’OCDE sur l’IA (voir le chapitre 4) déclarent « Je sais à peu près ce qu’est l’IA, mais c’est difficile à expliquer » (dont 52 % dans le secteur de la finance et 60 % dans l’industrie manufacturière), et 3 % déclarent ignorer en quoi elle consiste (Lane, Williams et Broecke, 2023[83]).
← 27. Cela vaut particulièrement pour la responsabilité, mais tous les besoins de réglementation présentés dans ce chapitre sont en fait imbriqués, interdépendants et se renforcent mutuellement.
← 28. Au Royaume‑Uni, les livreurs d’Uber Eats sont tenus de scanner leur visage et de s’identifier au début de leur service ; or, de nombreux coursiers noirs, asiatiques ou membres de minorités ethniques ont allégué que la technologie de balayage n’a pas fonctionné pour eux, ce qui a entraîné leur exclusion de l’application en moins de 24 heures.
← 29. De fait, le RGPD interdit déjà de facto la prise de décision entièrement automatisée parce qu’il est extrêmement difficile, dans le cadre de relations d’emploi, d’obtenir le consentement légal des personnes concernées à faire l’objet de décisions fondées exclusivement sur un traitement automatisé.
← 30. L’intervention humaine doit, le cas échéant, ignorer, passer outre ou annuler les résultats du système d’IA à risque élevé, ou décider de ne pas y faire du tout appel dans une situation donnée (Conseil de l’Union européenne, 2022[36]).
← 31. Reste cependant à savoir si, dans la pratique, il sera suffisamment facile pour les salariés d’établir une présomption de causalité.
← 32. Cela va de pair avec la loi sur l’IA de l’UE qui stipule que les systèmes à risque élevé doivent être transparents et sont soumis à des obligations de conservation de documents (Conseil de l’Union européenne, 2022[36]).
← 33. Le projet de loi britannique sur la protection des données et l’information numérique (Data Protection and Digital Information Bill), propose une nouvelle disposition en vertu de laquelle les responsables du traitement devront également fournir à la personne concernée des informations relatives aux décisions prises à son sujet et lui permettre de formuler des observations concernant ces décisions (Parlement du Royaume-Uni, 2022[29]).
← 34. Il convient de noter que le cadre politique applicable à l’utilisation de l’IA dans le cadre professionnel évolue très rapidement et qu’il est possible que les propositions examinées dans ce chapitre soient profondément remaniées.