Stijn Broecke
Perspectives de l’emploi de l’OCDE 2023
Intelligence artificielle et marché du travail
2. Intelligence artificielle et marché du travail : introduction
Abstract
Les progrès de l’intelligence artificielle (IA) sont tels que, dans certains domaines, il est désormais impossible de distinguer ses résultats de ceux de l’homme. Ces progrès rapides, conjugués à la baisse des coûts de production et d’adoption de ces nouvelles technologies, laissent à penser que les économies de l’OCDE pourraient être à l’aube d’une révolution de l’IA susceptible de transformer radicalement le monde du travail. Si les avantages potentiels de l’IA sont nombreux, les risques qui lui sont associés sont considérables et nécessitent des actions urgentes. Les politiques publiques et le dialogue social peuvent jouer un rôle décisif en atténuant ces risques sans pour autant étouffer les bienfaits potentiels de l’IA. Pour y parvenir, de meilleures données sont toutefois nécessaires, et c’est précisément ce que propose la présente édition des Perspectives de l’emploi de l’OCDE.
Il faut (re)parler de l’avenir du travail...
En 2019, les Perspectives de l’emploi de l’OCDE, placées sous le thème de « L’avenir du travail », examinaient comment diverses mégatendances, comme la transformation numérique, la mondialisation et le vieillissement démographique, transformaient le monde du travail. Le message général était un message d’optimisme prudent : un grand nombre de ces mégatendances paraissaient ouvrir de nouvelles perspectives d’amélioration de la situation du marché du travail et un chômage technique de masse semblait peu probable. Et fin 2019, avant la crise du COVID‑19, les taux d’emploi atteignaient effectivement des niveaux record dans la plupart des pays de l’OCDE, en dépit de l’adoption des technologies d’automatisation. Certains risques liés à la qualité des emplois et à l’inclusivité avaient certes été mis en évidence, surtout pour les travailleurs peu et moyennement qualifiés, mais l’OCDE considérait qu’avec des politiques et des institutions adaptées, il serait possible à la fois d’atténuer ces risques et de saisir les opportunités (OCDE, 2019[1]).
Quatre ans plus tard seulement, l’OCDE consacre une nouvelle édition des Perspectives de l’emploi à l’avenir du travail et, plus précisément, aux conséquences de l’intelligence artificielle (IA) sur le marché du travail. L’OCDE définit l’IA comme suit1 :
« Un système d’intelligence artificielle est un système automatisé qui, pour un ensemble donné d’objectifs, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur l’environnement. Il utilise des données et entrées générées par la machine et/ou apportées par l’homme pour (i) percevoir des environnements réels et/ou virtuels ; (ii) produire une représentation abstraite de ces perceptions sous forme de modèles issus d’une analyse automatisée (par exemple, apprentissage automatisé) ou manuelle ; et (iii) utiliser les résultats inférés du modèle pour formuler différentes options de résultats. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers. »
La raison pour laquelle nous consacrons une nouvelle édition des Perspectives de l’emploi à l’avenir du travail tient aux progrès incroyables accomplis par l’IA, à tel point que, dans certains domaines, il est aujourd’hui difficile, voire impossible, de distinguer ses résultats de ceux de l’homme. Des questions urgentes et essentielles se posent donc au sujet de l’avenir du travail. Prenons par exemple les deux paragraphes suivants consacrés aux effets de l’IA sur les travailleurs, dont l’un a été rédigé par l’IA, et l’autre par un être humain :
i. L’IA pourrait transformer notre société et nos modes de travail, comme l’ont fait d’autres innovations au cours des dernières décennies, notamment l’informatique et Internet. Parce qu’elle est capable d’analyser d’importants volumes de données, de percevoir le monde qui l’entoure et de générer du texte, l’IA sera un outil utile pour certains travailleurs, mais elle en remplacera d’autres. Le consensus parmi les économistes est que l’IA ne signe pas la fin du travail, mais ils s’interrogent quant à son incidence sur les salaires et l’emploi et la possibilité qu’elle creuse les inégalités, et s’inquiètent de savoir si les technologies d’IA conçues et mises en œuvre actuellement sont les bonnes.
ii. L’IA devrait avoir une incidence à la fois positive et négative sur les travailleurs. Point positif, l’IA peut automatiser des tâches répétitives, ce qui peut générer des gains d’efficience et de productivité et libérer des travailleurs pour qu’ils se concentrent sur des tâches plus créatives et exigeantes. Cela peut donc déboucher sur de nouvelles possibilités d’emploi et une hausse des salaires pour les travailleurs dotés des compétences requises pour mettre à profit ces nouvelles technologies. Point négatif, l’IA peut aussi entraîner des suppressions d’emplois, les machines et les algorithmes prenant en charge des tâches auparavant réalisées par des humains, avec à la clé une contraction des salaires et des possibilités d’emploi pour certains types de travailleurs.
Le deuxième paragraphe a été rédigé par l’IA, plus précisément par le robot Chat Generative Pre‑Trained Transformer (plus connu sous son acronyme ChatGPT) – un grand modèle de langage (LLM) entraîné au moyen d’importants volumes de données issues d’Internet afin de produire du texte ressemblant à ce que pourrait écrire un humain. S’il est possible de repérer le texte généré par l’IA (notamment en raison de sa formulation plus impersonnelle que le texte humain), ses capacités ne font aucun doute et ses applications possibles dans un large éventail de situations de la vie réelle, y compris au travail, sautent immédiatement aux yeux. En fait, depuis que ChatGPT a été lancé en novembre 2022, diverses applications possibles des grands modèles de langage à l’environnement de travail sont apparues – de la rédaction d’articles scientifiques (Stokel-Walker, 2023[2]) à la réussite d’examens du supérieur en droit et en gestion (Murphy Kelly, 2023[3]), en passant par l’aide à la prise de décisions cliniques (Science Media Centre, 2023[4]) et judiciaires (Jamal, 2023[5]).
Avant même l’apparition des grands modèles de langage comme ChatGPT, certains progrès rapides de l’IA avaient particulièrement retenu l’attention. Si les progrès récents de l’IA générative sont stupéfiants (y compris en ce qui concerne la génération d’images2, de voix et même de vidéos), l’IA a progressé de manière tout aussi impressionnante dans de nombreux autres domaines, comme la vision par ordinateur (classification et étiquetage des images par exemple), le raisonnement, la résolution de problèmes, les jeux ou encore la compréhension de l’écrit et l’apprentissage. L’IA peut déjà répondre à 80 % des questions sur la littératie de l’Enquête de l’OCDE sur les compétences des adultes du PIAAC (Programme pour l’évaluation internationale des compétences des adultes), et à deux tiers des questions sur la numératie (OCDE, 2023[6]). Ce qui est encore plus étonnant, c’est la rapidité avec laquelle ces progrès ont été accomplis. Il y a tout juste six ans, l’IA avait défrayé la chronique pour avoir battu le champion du monde de go, un jeu relativement simple qui suit un ensemble de règles clairement définies (BBC, 2017[7]). Aujourd’hui, l’IA est capable de battre les humains au jeu de stratégie Diplomacy, qui nécessite des capacités de persuasion, de coopération et de négociation (Hsu, 2022[8]). Selon les experts, l’IA sera en mesure de résoudre l’ensemble des tests de littératie et numératie du PIAAC d’ici à 2026 (OCDE, 2023[6])
Pour autant, il y a encore des limites à ce que peut faire l’IA. Si ses progrès sont impressionnants, il y a encore beaucoup de choses que l’IA ne peut pas faire, comme la résolution de problèmes complexes, la gestion à haut niveau et les interactions sociales (Lassébie et Quintini, 2022[9]). Par ailleurs, en dépit du battage médiatique, l’IA fait souvent la une de l’actualité pour de mauvaises raisons : accidents impliquant des voitures autonomes (Laing, 2023[10]), logiciel de reconnaissance d’images raciste (Kayser-Bril, 2020[11]), outils de recrutement biaisés (Dastin, 2018[12]) ou bévues des robots conversationnels (Laing, 2023[10]). ChatGPT a notamment été accusé de biais (Jain, 2023[13]), d’hallucinations (Smith, 2023[14]) et d’atteintes aux droits d’auteur (McKendrick, 2022[15]). Ces limites mettent en évidence certains des risques inhérents à l’utilisation des outils d’IA, en particulier sans supervision humaine.
Pour le meilleur ou pour le pire, l’IA se fraye déjà un chemin dans le monde du travail
En dépit de ses limites et des risques qui lui sont associés, l’IA fait progressivement son entrée dans le monde du travail. En 2022, l’OCDE a recueilli, au moyen de nouvelles enquêtes et études de cas, des données relatives à l’incidence de l’IA sur les travailleurs et les entreprises dans les secteurs de l’industrie manufacturière et des finances de huit pays membres de l’OCDE3. Ces travaux, qui sont antérieurs à certaines des dernières avancées de l’IA générative, ont permis de recueillir de nombreux exemples instructifs de l’utilisation de l’IA au travail, notamment : une technologie de reconnaissance d’images qui identifie les pièces détachées automobiles à partir de photos téléchargées par les clients ; un système de suivi et de contrôle de la production qui s’appuie sur la vision par ordinateur pour localiser les outils et les amener au bon endroit au bon moment ; et un outil de traitement du langage naturel qui aide les spécialistes de la maintenance à identifier les problèmes à l’origine des pannes de machines en interrogeant une base de données sur les incidents passés et leur résolution.
Si l’adoption de l’IA reste encore relativement faible, ses progrès rapides, la baisse des coûts et le nombre croissant de travailleurs dotés de compétences en matière d’IA donnent à penser que les économies de l’OCDE pourraient être à l’aube d’une révolution de l’IA. Selon les données disponibles, la proportion d’entreprises ayant adopté l’IA reste inférieure à 10 %, et parmi elles les grandes entreprises sont plus nombreuses que les autres (à hauteur d’une sur trois environ) (Lane, Williams et Broecke, 2023[16]). Le coût de l’IA est le principal obstacle à son adoption : il a été cité par plus de la moitié des entreprises des secteurs financier et manufacturier interrogées par l’OCDE en 2022 sur l’utilisation de l’IA dans le cadre professionnel (Lane, Williams et Broecke, 2023[16])4. Le deuxième obstacle principal recensé dans l’enquête est le manque des compétences nécessaires à l’adoption de l’IA (voir aussi le chapitre 5). Ces conclusions corroborent étroitement celles d’autres enquêtes, comme celle menée par IBM (2022[17]). Pourtant, le coût des technologies d’IA diminue rapidement. Ainsi, depuis 2018, le coût d’entraînement d’un système de classification d’images a diminué de 63.6 % (Zhang et al., 2022[18]) ; à mesure que l’IA entre dans le domaine public, la baisse des coûts devrait s’accélérer. La disponibilité des applications d’IA générative telles que ChatGPT augmente, pour un tarif mensuel modique, voire gratuitement. Parallèlement, l’offre de main-d’œuvre dotée des compétences requises s’accroît elle aussi. Selon les recherches de l’OCDE, le nombre de travailleurs possédant des compétences en matière d’IA a plus que triplé entre 2012 et 2019 (Green et Lamby, 2023[19]). À cela s’ajoute le fait que l’IA est une technologie d’application générale, c’est-à-dire une technologie qui peut être utilisée dans l’ensemble de l’économie, ce qui donne à penser que l’IA pourrait bientôt se diffuser largement dans les entreprises, dans tous les secteurs et toutes les professions.
Pour les employeurs, les gains de productivité constituent l’une des principales raisons d’adopter l’IA, avec éventuellement à la clé des avantages pour les travailleurs également. En tant que technologie d’automatisation, l’IA promet des économies et des gains de productivité, permettant aux employeurs d’obtenir un avantage concurrentiel. Ainsi, l’un des membres du comité d’entreprise d’un constructeur de pièces automobiles a décrit à l’OCDE l’importance de l’adoption de l’IA dans son secteur d’activité en ces termes : « Si une entreprise n’adopte pas les nouvelles technologies, tôt ou tard elle cesse d’exister » (Milanez, 2023[20]). L’IA peut aussi aider les entreprises à améliorer la qualité de leurs produits ou de leurs services. Les travailleurs peuvent également tirer avantage de l’IA, grâce à une amélioration de la qualité des emplois, ainsi que du bien-être et de la satisfaction au travail. L’IA peut en effet éliminer des tâches dangereuses ou fastidieuses pour les remplacer par des tâches plus complexes et intéressantes. Elle peut accroître la motivation des travailleurs, renforcer leur autonomie, et même améliorer leur santé mentale. Certains travailleurs pourraient également voir leur rémunération augmenter (chapitre 4).
Si l’IA peut être synonyme d’avantages, les risques qui lui sont associés sont considérables, notamment en matière d’emploi. Les entreprises ne cachent pas le fait que l’une des principales raisons qui les conduit à investir dans l’IA est l’optimisation des performances des travailleurs (c’est-à-dire de leur productivité) et la réduction des coûts de personnel (Lane, Williams et Broecke, 2023[16]). Il n’est donc pas surprenant qu’environ 20 % des travailleurs dans les secteurs de la finance et manufacturier (dans sept pays de l’OCDE) se déclarent très, voire extrêmement, préoccupés par le risque de perdre leur emploi au cours des dix prochaines années (Lane, Williams et Broecke, 2023[16]). Par rapport aux technologies antérieures, l’une des principales différences est que l’IA est capable d’automatiser des tâches non répétitives. Jusqu’à présent, les progrès les plus importants de l’IA ont été réalisés dans les domaines du classement des informations, de la mémorisation, de la vitesse de perception et du raisonnement déductif, qui sont tous liés à des tâches cognitives non répétitives (voir chapitre 3). Par conséquent, les professions hautement qualifiées sont les plus exposées aux progrès accomplis récemment par l’IA, et notamment : les spécialistes des fonctions administratives et commerciales des entreprises, les dirigeants, les professionnels des sciences et de l’ingénierie, et les juristes et professionnels du secteur social et culturel. Ces avancées étendent donc le champ d’application possible de l’automatisation bien au-delà de ce qui était envisageable auparavant5. S’il y a peu, jusqu’à présent, d’éléments signalant des effets négatifs de l’IA sur l’emploi (chapitre 3), cela tient peut-être au fait que l’adoption de l’IA reste relativement faible et/ou que les entreprises préfèrent s’en remettre à des départs volontaires et à des départs à la retraite pour ajuster leurs effectifs. Les effets négatifs éventuels de l’IA sur l’emploi pourraient donc tarder à se concrétiser. Par ailleurs, les risques d’automatisation ne sont pas répartis de manière égale entre les différentes catégories sociodémographiques, ce qui pourrait nuire à l'inclusion. Si les conséquences de la dernière vague d’IA générative ne sont pas encore totalement claires, les premières estimations de l’exposition des professions à l’IA qui tiennent compte des capacités des grands modèles de langage comme ChatGPT aboutissent à des conclusions similaires à celles des estimations antérieures : ce sont principalement les professions à la rémunération élevée qui requièrent un niveau d’études ou de formation supérieur à la moyenne qui sont les plus exposées à l’IA.
Des risques pèsent aussi sur la qualité des emplois et l’IA soulève plusieurs questions d’éthique. Si l’IA peut améliorer certains aspects de la qualité des emplois, il semble qu’elle puisse aussi accroître l’intensité du travail et le stress (chapitre 4). Par ailleurs, l’utilisation de l’IA dans le cadre professionnel soulève, ou amplifie, tout une série de questions éthiques (chapitre 6), dont certaines peuvent aussi avoir une incidence négative sur la qualité de l’emploi. Par exemple, l’IA peut changer les modalités de suivi ou de supervision du travail, ce qui peut améliorer le sentiment d’équité, mais présente des risques pour la vie privée des travailleurs et leur autonomie dans l’exécution des tâches. L’IA peut aussi introduire ou perpétuer des biais. En outre, des questions se posent en matière de transparence et d’explicabilité, mais aussi de responsabilité. Un grand nombre de ces questions ne sont pas nouvelles, mais l’IA pourrait les exacerber. Par exemple, même si les êtres humains peuvent prendre des décisions d’embauche fondées sur des préjugés, les conséquences négatives de l’IA pourraient être beaucoup plus importantes compte tenu du volume et de la rapidité des décisions qu’elle prend, avec le risque de systématiser et de multiplier les biais. Une fois encore, ces risques sont généralement plus importants pour certains groupes sociodémographiques qui sont souvent déjà désavantagés sur le marché du travail.
C’est maintenant qu’il faut agir
Si l’impact que l’IA aura sur les marchés du travail est très incertain, il convient d’éviter tout déterminisme technologique. L’un des messages clés des Perspectives de l’emploi de l’OCDE 2019 est que « l’avenir du travail dépendra largement des décisions politiques prises par les pays ». Ce message est également porté par d’éminents économistes du travail comme David Autor, qui affirme que « Alors que nous réfléchissons à notre avenir incertain en matière d’IA, notre objectif ne devrait pas être simplement de prédire cet avenir, mais de le créer. » (Autor, 2022[21]).
Une intervention des pouvoirs publics s’impose de toute urgence pour assurer une conception et une utilisation dignes de confiance de l’IA. Cela signifie que l’IA doit être sûre et respecter les droits fondamentaux comme la vie privée, le principe d’équité, le droit des travailleurs à s’organiser, la transparence et l’explicabilité. Cela suppose aussi que les responsabilités soient clairement définies en cas de problème. Une démarche proactive et résolue est non seulement cruciale pour protéger les travailleurs, mais aussi pour promouvoir l’innovation et la diffusion de l’IA, car elle réduit l’incertitude. Des principes tels que ceux définis par l’OCDE peuvent contribuer à promouvoir une utilisation de l’IA à la fois innovante, digne de confiance, et respectueuse des droits humains et des valeurs démocratiques (OCDE, 2019[22]). En tant qu’instrument juridique de l’OCDE, les Principes de l’OCDE sur l’IA représentent une aspiration commune pour les pays adhérents et ont été adoptés en mai 2019. Depuis, d’autres pays y ont adhéré, parmi lesquels l’Argentine, le Brésil, l’Égypte, Malte, le Pérou, la Roumanie, Singapour et l’Ukraine, et, en juin 2019, le G20 a adopté des principes relatifs à l’IA centrés sur l’humain, inspirés des Principes de l’OCDE. En outre, nombre d’entreprises et de secteurs ont adopté leurs propres principes en matière d’IA.
Certains pays adaptent, renforcent et/ou appliquent la législation. Des lignes directrices peuvent être plus opportunes et plus adaptables en réponse à un paysage changeant, la législation est plus facile à faire respecter. Dans la plupart des pays, la législation existante qui ne porte pas spécifiquement sur l’IA fournit déjà un socle solide pour répondre à certaines questions relatives à l’utilisation de l’IA au travail, notamment la législation relative à la protection des données, la discrimination et la protection des consommateurs (voir chapitre 6). Il sera crucial de veiller à ce que cette législation soit à jour et reflète les réalités et difficultés nouvelles associées à l’IA. Par ailleurs, de nombreux pays envisagent d’adopter une législation spécialement dédiée à l’IA, comme la législation de l’UE sur l’IA ou l’Algorithmic Accountability Act aux États-Unis. Les progrès récents de l’IA générative semblent avoir relancé les actions menées dans ce domaine. Le succès de ces mesures dépendra autant de leur formulation que de leur mise en œuvre. Certaines mesures pourraient faciliter la mise en œuvre, comme des normes techniques et des mécanismes de supervision (instances réglementaires ou audit indépendant). Par ailleurs, des orientations fournies aux développeurs de l’IA et aux employeurs afin de comprendre la législation et de la respecter, ainsi que la coopération avec les parties prenantes peuvent favoriser une compréhension mutuelle des objectifs de la législation et des obligations qu’elle prévoit. Une approche pluridimensionnelle couvrant l’ensemble de ces mesures pourrait être nécessaire afin d’assurer une mise en œuvre efficace.
La négociation collective et le dialogue social ont un rôle de soutien important à jouer pour accompagner les travailleurs et les entreprises dans la transition vers l’IA. Ils peuvent faciliter l’adoption et l’utilisation de l’IA au travail, et contribuer à la définition et la mise en application de droits permettant de s’attaquer aux problèmes liés à l’IA de manière flexible et pragmatique, dans un souci d’équité. La négociation collective peut aussi compléter les politiques publiques en renforçant la sécurité et l’adaptabilité des travailleurs. Dans les secteurs de l’assurance et des télécommunications par exemple, les partenaires sociaux européens ont signé deux accords-cadres sur l’IA qui abordent la question de la transparence dans l’utilisation et la protection des données afin d’éviter les biais et la discrimination. Plus récemment, les partenaires sociaux ont initié des « négociations sur les algorithmes », même si l’on compte encore peu d’accords touchant à l’IA à ce stade. Pourtant, le dialogue social et la négociation collective font face à un certain nombre de défis : les taux de syndicalisation et de couverture conventionnelle des travailleurs sont en recul dans de nombreux pays de l’OCDE. Par ailleurs, de par ses caractéristiques propres et la façon dont elle est mise en œuvre – dont la rapidité de sa diffusion, sa capacité d’apprentissage et les déséquilibres qu’elle est susceptible d’introduire dans les rapports de force – l’IA est une contrainte supplémentaire dans le domaine des relations professionnelles. Les technologies d’IA pourraient aider les partenaires sociaux à atteindre leurs objectifs et stratégies, mais le manque de connaissances spécialisées des partenaires sociaux est un défi de taille (chapitre 7).
La formation sera essentielle pour permettre aux travailleurs d’opérer cette transition. Les effets de l’IA sur les tâches et les emplois feront évoluer les besoins en compétences. D’un côté, l’IA reproduira certaines compétences, comme les capacités manuelles et psychomotrices fines, et les compétences cognitives telles que la compréhension, la planification et le conseil. De l’autre, les compétences nécessaires à la conception et à la maintenance des systèmes d’IA, ainsi qu’à l’adoption, l’utilisation et l’interaction avec les applications d’IA, seront de plus en plus importantes. La demande de compétences numériques élémentaires, de compétences en science des données et d’autres compétences cognitives et transversales augmentera elle aussi. Si les entreprises qui utilisent l’IA déclarent offrir une formation à ces outils, le manque de compétences adaptées demeure un obstacle majeur à leur adoption, ce qui laisse à penser qu’il faudrait en faire plus. Les politiques publiques auront donc un rôle essentiel à jouer, non seulement pour encourager les employeurs à proposer des formations, mais aussi parce qu’une part importante de la formation requise pour la conception et l’adoption de l’IA intervient dans le cadre de l’enseignement formel. L’IA elle‑même pourrait offrir des opportunités de mieux concevoir, cibler et dispenser les formations, mais divers risques se posent et des difficultés doivent être résolues (chapitre 5).
Les politiques publiques doivent être fondées sur des données probantes ; or on sait encore peu de choses quant à l’incidence de l’IA sur les travailleurs, les entreprises et le marché du travail en général. La présente édition des Perspectives de l’emploi de l’OCDE vise à combler cette lacune et les chapitres qui suivent dressent, pour les décideurs, un état des lieux des connaissances dont nous disposons sur les conséquences de l’IA sur la quantité des emplois (chapitre 3) et leur qualité (chapitre 4), ainsi que ses implications dans trois domaines d’action clés, à savoir la politique relative aux compétences (chapitre 5), les enjeux éthiques de l’IA (chapitre 6), et le rôle du dialogue social et de la négociation collective à l’appui de la transition vers l’IA (chapitre 7). Ces chapitres s’appuient sur les travaux que l’OCDE a menés dans ces domaines au cours des dernières années, ainsi que sur d’autres données disponibles6.
Si la présente édition des Perspectives de l’emploi peut contribuer à étayer la formulation des politiques par des données probantes dans le domaine de l’IA, de grandes incertitudes demeurent. Le défi qui se pose aux chercheurs est le même que celui qui se pose aux décideurs : les progrès et la diffusion de l’IA sont si rapides qu’il est difficile de suivre le rythme. À l’avenir, les recherches devront non seulement viser à recueillir des informations sur les conséquences des dernières technologies d’IA (comme l’IA générative) sur le marché du travail, mais aussi à explorer les pistes suivantes : les effets de l’IA sur l’inclusivité et la concentration du marché du travail ; le rôle de l’IA dans l’offre de services publics ; son incidence sur les pratiques de gestion ; et les procédures et structures de gouvernance nécessaires pour une adoption en confiance de l’IA au travail, entre autres. L’OCDE continuera de travailler sur ces sujets, et sur d’autres sujets connexes, dans les années à venir. Dans le cadre de ces travaux, il sera crucial de continuer à recueillir des données nouvelles et de meilleure qualité sur l’adoption de l’IA et son utilisation.
Références
[21] Autor, D. (2022), « The labor market impacts of technological change: From unbridled enthusiasm to qualified optimism to vast uncertainty », dans Qureshi, Z. (dir. pub.), An Inclusive Future? Technology, New Dynamics, and Policy Challenges, Brookings Institution, https://www.brookings.edu/wp-content/uploads/2022/05/Inclusive-future_Technology-new-dynamics-policy-challenges.pdf.
[7] BBC (2017), Google AI defeats human Go champion, BBC, https://www.bbc.com/news/technology-40042581 (consulté le 3 février 2023).
[27] Brodsky, S. (2022), Some Human Authors Worry AI Will Take Their Jobs—Here’s Why, Lifewire, https://www.lifewire.com/some-human-authors-worry-ai-will-take-their-jobs-heres-why-6951001 (consulté le 7 février 2023).
[12] Dastin, J. (2018), « Amazon scraps secret AI recruiting tool that showed bias against women », Reuters, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G (consulté le 21 février 2022).
[26] Gault, M. (2022), « An AI-Generated Artwork Won First Place at a State Fair Fine Arts Competition, and Artists Are Pissed », Vice, https://www.vice.com/en/article/bvmvqm/an-ai-generated-artwork-won-first-place-at-a-state-fair-fine-arts-competition-and-artists-are-pissed (consulté le 31 janvier 2023).
[19] Green, A. et L. Lamby (2023), « The supply, demand and characteristics of the AI workforce across OECD countries », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 287, Éditions OCDE, Paris, https://doi.org/10.1787/bb17314a-en.
[25] Harris, L. (2023), The Latest Casualty of Generative AI? Animators, dot.LA, https://dot.la/the-dog-and-the-boy-2659365902.html (consulté le 7 février 2023).
[24] Hirani, L. (2023), Can AI replace us all?, Barn and Bench, https://www.barandbench.com/law-firms/view-point/can-ai-replace-us-all (consulté le 7 février 2023).
[8] Hsu, J. (2022), Artificial intelligence: AIs built by Meta beat human experts at Diplomacy, New Scientist, https://www.newscientist.com/article/2343027-ais-built-by-meta-beat-human-experts-at-diplomacy/ (consulté le 3 février 2023).
[17] IBM (2022), IBM Global AI Adoption Index 2022, IBM, Armonk, NY, https://www.ibm.com/downloads/cas/GVAGA3JP (consulté le 31 janvier 2023).
[13] Jain, A. (2023), ChatGPT won’t crack jokes on women & Indians, netizens left guessing why, mint, https://www.livemint.com/news/india/chatgpt-won-t-crack-jokes-on-women-indians-netizens-left-guessing-why-11676171036353.html (consulté le 4 mai 2023).
[5] Jamal, S. (2023), Pakistani judge uses ChatGPT to make court decision, Gulf News, https://gulfnews.com/amp/world/asia/pakistan/pakistani-judge-uses-chatgpt-to-make-court-decision-1.95104528 (consulté le 4 mai 2023).
[11] Kayser-Bril, N. (2020), Google apologizes after its Vision AI produced racist results, AlgorithmWatch, https://algorithmwatch.org/en/google-vision-racism/ (consulté le 4 mai 2023).
[10] Laing, K. (2023), Tesla (TSLA) Reports New Fatal Crash for Self-Driving Car Model S, Bloomberg, https://www.bloomberg.com/news/articles/2023-04-17/tesla-reports-new-fatal-crash-for-self-driving-car-model-s (consulté le 4 mai 2023).
[16] Lane, M., M. Williams et S. Broecke (2023), « The impact of AI on the workplace: Main findings from the OECD AI surveys of employers and workers », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 288, Éditions OCDE, Paris, https://doi.org/10.1787/ea0a0fe1-en.
[9] Lassébie, J. et G. Quintini (2022), « What skills and abilities can automation technologies replicate and what does it mean for workers? : New evidence », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 282, Éditions OCDE, Paris, https://doi.org/10.1787/646aad77-en.
[15] McKendrick, J. (2022), Who Ultimately Owns Content Generated By ChatGPT And Other AI Platforms?, Forbes, https://www.forbes.com/sites/joemckendrick/2022/12/21/who-ultimately-owns-content-generated-by-chatgpt-and-other-ai-platforms/ (consulté le 4 mai 2023).
[20] Milanez, A. (2023), « The impact of AI on the workplace: Evidence from OECD case studies of AI implementation », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 289, Éditions OCDE, Paris, https://doi.org/10.1787/2247ce58-en.
[3] Murphy Kelly, S. (2023), ChatGPT passes exams from law and business schools, CNN Business, https://edition.cnn.com/2023/01/26/tech/chatgpt-passes-exams/index.html (consulté le 4 mai 2023).
[6] OCDE (2023), Is Education Losing the Race with Technology? AI’s Progress in Maths and Reading, https://www.oecd.org/education/is-education-losing-the-race-with-technology-73105f99-en.htm (consulté le 30 mai 2023).
[22] OCDE (2019), L’intelligence artificielle dans la société, Éditions OCDE, Paris, https://doi.org/10.1787/b7f8cd16-fr.
[1] OCDE (2019), Perspectives de l’emploi de l’OCDE 2019 : L’avenir du travail, Éditions OCDE, Paris, https://doi.org/10.1787/b7e9e205-fr.
[23] O’Connor, S. (2022), Actors worry that AI is taking centre stage, Financial Times, https://www.ft.com/content/7c26a93f-88ec-4a50-8529-7df81af86208 (consulté le 7 février 2023).
[4] Science Media Centre (2023), Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam, Science Media Centre, https://www.sciencemediacentre.org/expert-reaction-to-study-on-chatgpt-almost-passing-the-us-medical-licensing-exam/ (consulté le 4 mai 2023).
[14] Smith, G. (2023), Hallucinations Could Blunt ChatGPT’s Success, IEEE Spectrum, https://spectrum.ieee.org/ai-hallucination (consulté le 4 mai 2023).
[2] Stokel-Walker, C. (2023), « ChatGPT listed as author on research papers: many scientists disapprove », Nature, vol. 613/7945, pp. 620-621, https://doi.org/10.1038/D41586-023-00107-Z.
[18] Zhang, D. et al. (2022), The AI Index 2022 Annual Report, AI Index Steering Committee, Stanford Institute for Human-Centered AI, Stanford University, https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf (consulté le 3 février 2023).
Notes
← 2. En 2022, l’IA a stupéfié le monde entier par ses capacités en matière de génération d’images (DALL-E 2 et Stable Diffusion par exemple), qui sont aujourd’hui d’une telle qualité que les humains peuvent s’y méprendre et qu’elle peut remporter des concours artistiques, comme le concours d’art numérique de la Colorado State Fair (Gault, 2022[26]).
← 3. États-Unis, Canada, Allemagne, Autriche, Royaume‑Uni, Irlande, France et Japon (Lane, Williams et Broecke, 2023[16] ; Milanez, 2023[20]). Il convient toutefois de noter que les conclusions de ces études ne s’appliquent pas nécessairement à d’autres secteurs. Par ailleurs, comme dans toutes les études transversales, il convient d’interpréter ces résultats avec prudence dans la mesure où ils peuvent refléter en partie un biais de sélection puisque seuls les travailleurs qui restent dans l’entreprise après l’adoption de l’IA sont interrogés.
← 4. L’enquête n’a pas fourni d’informations plus détaillées sur les différents types de coûts, mais ils pourraient englober le coût d’acquisition de la technologie et le coût de traitement des données nécessaires pour faire fonctionner les outils.
← 5. Des inquiétudes se sont exprimées selon lesquelles la dernière vague d’IA générative pourrait élargir encore l’éventail de professions exposées au risque d’automatisation. Plusieurs catégories professionnelles ont exprimé des inquiétudes quant à la dernière vague de l’IA générative. En février 2023, les professionnels de l’animation se sont indignés quand un studio d’animation a eu recours à un logiciel d’IA pour générer des images de décor pour un nouveau film, menaçant ainsi de nombreux emplois dans le secteur (Harris, 2023[25]). Les acteurs de doublage (O’Connor, 2022[23]) et les auteurs (Brodsky, 2022[27]) s’inquiètent eux aussi des implications de l’IA pour leur travail, tandis que la profession d’avocat est aussi concernée, puisque l’IA pourrait remplacer une part considérable du travail humain dans ce secteur (Hirani, 2023[24]).
← 6. Les travaux de l’OCDE sur l’intelligence artificielle au travail, l’innovation, la productivité et les compétences (AI-WIPS) bénéficient de la contribution généreuse du ministère allemand de l’Emploi et des Affaires sociales, avec le soutien du ministère fédéral autrichien du Travail, des Affaires sociales et de la Protection des consommateurs, d’Emploi et Développement social Canada, du ministère des Entreprises, du Commerce et de l’Emploi d’Irlande, du ministère du Travail des États-Unis, de l’Economic and Social Research Council du Royaume‑Uni, de l’ESSEC Business School et du Japan Institute for Labour Policy and Training.