Le paysage de l’intelligence artificielle (IA) a considérablement évolué depuis 1950, date à laquelle Alan Turing a posé pour la première fois la question à savoir si les machines pouvaient penser. Aujourd’hui, l’intelligence artificielle transforme les sociétés et les économies. Elle promet de générer des gains de productivité, d’améliorer le bien-être et d’aider à relever les défis mondiaux tels que le changement climatique, la raréfaction des ressources et les crises sanitaires. Cependant, l’adoption mondiale de l’IA soulève des questions notamment en lien avec les notions de confiance, d’équité, de respect de la vie privée, de sécurité et de responsabilité. L’IA avancée suscite une réflexion sur l’avenir du travail, des loisirs et de la société. Le présent chapitre examine les développements technologiques actuels et attendus de l’IA, réfléchit aux opportunités et aux risques que les spécialistes en prospective anticipent pour l’avenir et donne un aperçu de la manière dont les pays mettent en œuvre les Principes de l’OCDE relatifs à l’IA. Ce faisant, il aide à construire une compréhension commune des opportunités et des risques clés pour garantir que l’IA soit digne de confiance et utilisée au bénéfice de l’humanité et de la planète.
Perspectives de l’économie numérique de l’OCDE 2024 (Volume 1)
Chapitre 2. L’avenir de l’intelligence artificielle
Copier le lien de Chapitre 2. L’avenir de l’intelligence artificielleAbstract
Principaux constats
Copier le lien de Principaux constatsLes innovations techniques ont rendu possible une IA générative si avancée que les personnes qui l’utilisent pourraient ne plus être en mesure de faire la différence entre les contenus créés par l’être humain et générés par l’IA.
À la fin de 2022, les progrès de l’IA générative en ont surpris plus d’un, même si certains chercheurs avaient anticipé une telle évolution. La collaboration et l’interdisciplinarité entre les décideurs publiques, les développeurs de l’IA et les chercheurs est essentielle pour suivre le rythme des progrès de l’IA et combler les lacunes en matière de connaissances.
Les travaux de recherche et les avis de experts suggèrent que les futurs impacts de l’IA pourraient varier considérablement, promettant des avantages socio-économiques considérables, mais présentent également des risques substantiels qu’il convient de gérer.
L’avenir de l’IA pourrait apporter des avantages considérables, notamment des gains de productivité accrus, l’accélération des progrès scientifiques et de nouveaux moyens de lutter contre le changement climatique. Toutefois, les avancées de l’IA présentent également des risques importants tels que la prolifération de mésinformation et de désinformation ainsi que des atteintes aux droits humains.
Les trajectoires et les risques à long terme de l’IA sont souvent étudiés et largement débattus.
La plupart des modèles d’IA actuels peuvent être considérées comme « étroits », c’est-à-dire conçus pour effectuer une tâche spécifique, mais certains experts avancent que les modèles de fondation sont une forme précoce d’IA plus « générale ». Cela inclut le progrès une intelligence artificielle générale (IAG) – un concept controversé qui peut être décrit comme une machine dotée d’une intelligence de niveau humain ou supérieur dans un large éventail de contextes.
Certains d’expert affirment que les difficultés liées à l’alignement des résultats de la machine sur les préférences humaines pourraient entraîner une perte de contrôle de l’IAG par l’humain. Cependant, la plausibilité de l’IAG et la nature de l’IAG font débat. De nombreux risques futurs ne nécessitent pas l’IAG pour se manifester, ce qui fait dire à d’autres quel le fait de se concentrer sur une AIG hypothétique détourne l’attention des risques à court terme.
La recherche et le développement dans le domaine de l’IA ainsi que les investissements en capital-risque consacrés à l’IA sont sur le point d’augmenter.
Depuis la mi-2019, la République populaire de Chine (ci-après la « Chine ») a publié davantage de travaux de recherche en IA que les États-Unis ou que l’Union européenne. L’Inde progresse également, ayant plus que doublé ses publications de recherche en IA depuis 2015.
Entre 2015 et 2023, les investissements mondiaux en capital-risque dans les start-ups de l’IA ont triplé (de 31 milliards USD à 98 milliards USD), avec les investissements dans l’IA générative en particulier qui ont augmenté de 1 % du total des investissements en capital-risque en IA en 2022 (1.3 milliard USD) à 18.2 % (17.8 milliards USD) en 2023, malgré la contraction des marchés de capitaux.
Le développement et l’utilisation de l’IA devraient continuer à dépendre de l’accès à des infrastructures de calcul.
Les disparités de capacité de calcul pourraient s’aggraver entre les pays ou à l’intérieur de ceux-ci. De plus en plus, au niveau national, les instances du secteur public n’ont pas les ressources informatiques suffisantes pour entraîner des modèles d’IA avancée.
Les bénéfices et les risques de l’IA ont une portée mondiale, ce qui rend la coopération internationale indispensable pour assurer la complémentarité, l’efficacité et l’interopérabilité des politiques et des lois relatives à l’IA.
Les systèmes d’IA du monde entier peuvent utiliser les mêmes intrants et outils de l’IA tels que les algorithmes, les modèles et les ensembles de données d’entraînement. Cela rend les pays et les organisations vulnérables à des risques similaires tels que les biais, les atteintes aux droits humains et les vulnérabilités ou défaillances en matière de sécurité.
L’intelligence artificielle transforme nos économies et nos sociétés, mais la question est de savoir si le monde est prêt. L’IA promet d’aider à réaliser des gains de productivité, d’améliorer notre bien-être et de résoudre des défis mondiaux tels que le changement climatique, la raréfaction des ressources et les crises sanitaires. Cependant, l’adoption de l’IA dans le monde entier soulève des questions et des défis. L’IA a progressé de manière significative, suscitant une réflexion sur l’avenir du travail, l’éducation, les loisirs, et la société.
Le présent chapitre examine les développements technologiques actuels et attendus de l’IA, réfléchit aux opportunités et aux risques que les experts en prospectives anticipent pour l’avenir et donne un aperçu de l’avancement de la mise en œuvre des Principes de l’OCDE relatifs à l’IA par les pays. Il examine les facteurs interdépendants susceptibles de façonner la gouvernance de l’IA dans les décennies à venir (graphique 2.1) afin de contribuer à une compréhension commune des opportunités et des risques clés pour garantir que l’IA soit digne de confiance et utilisées au bénéfice de l’humanité et de la planète.
Le paysage technologique de l’IA d’aujourd’hui et de demain
Copier le lien de Le paysage technologique de l’IA d’aujourd’hui et de demainLe paysage technologique de l’IA a considérablement évolué depuis les années 1950, lorsque le mathématicien britannique Alan Turing s’est le premier demandé si les machines peuvent penser (Turing, 1950[2]). L’IA, terme forgé en 1956, est passée de l’IA symbolique, où les humains construisaient des systèmes basés sur la logique, à l’ « hiver » de l’IA dans les années 1970, puis à l’ordinateur Deep Blue, qui jouait aux échecs dans les années 1990. Le 21e siècle a vu des percées dans la branche de l’IA appelée apprentissage automatique qui a amélioré la capacité des machines à faire des prédictions à partir de données historiques (OCDE, 2019[3]). Ces dernières années ont vu l’émergence de l’IA générative, y compris des grands modèles de langue, qui peuvent générer des contenus nouveaux et permettre des applications orientées vers le consommateur telles que des agents conversationnels avancés disponibles accessible d’une simple pression sur un écran (OCDE, 2023[4]). Pour beaucoup, l’IA est devenue une réalité en 2022, quand l’outil ChatGPT d’OpenAI est devenu l’application grand public à la plus forte croissance de tous les temps (Hu, 2023[5]). Pour comprendre l’évolution des développements technologiques de l’IA à ce jour, et la trajectoire qu’elles pourraient emprunter dans les années à l’avenir, les responsables de politiques publiques ont besoin d’une compréhension commune des principaux termes associés à l’IA (encadré 2.1) ainsi que de la fonction de production de base de l’IA, décrite par trois catalyseurs : les algorithmes, les données et les ressources informatiques (« capacité de calcul »).
Encadré 2.1. L’ABC de l’IA
Copier le lien de Encadré 2.1. L’ABC de l’IAL’IA fait l’objet d’une grande attention dans les médias et les cercles de politiques publiques. Au milieu de cet afflux de gros titres et d’analyses, les responsables de l’action publique ont besoin d’une compréhension communes des termes clés de l’IA pour pouvoir suivre le rythme des progrès rapides de l’IA et y répondre avec des politiques sur l’IA qui résistent à l’épreuve du temps. Pour les besoins de ce chapitre, les termes suivants sont employés :
Intelligence artificielle : « Un système d’intelligence artificielle est un système automatisé qui, pour des objectifs explicites ou implicites, déduit, à partir d’entrées reçues, comment générer des résultats en sortie tels que des prévisions, des contenus, des recommandations, ou des décisions qui peuvent influer sur des environnements physiques ou virtuels. Différents systèmes d’IA présentent des degrés variables d’autonomie et d’adaptation après déploiement » (OCDE, 2024[6]).
Algorithme : « Ensemble d’instructions (c’est-à-dire, à l’exclusion des données) à suivre dans l’ordre pour résoudre un problème. [L’algorithme] peut être abstrait et mis en œuvre dans différents langages de programmation et bibliothèques logicielles » (EU-US Trade and Technology Council, 2023[7]).
Capacité de calcul pour l’IA : « La capacité de calcul pour l’IA comprend une ou plusieurs couches de matériels et de logiciels utilisés pour étayer, de manière efficience, les charges de travail et les applications spécialisées propres à l’IA » (OCDE, 2023[8]).
Modèle de fondation : Modèle entraîné sur de grandes quantités de données – en général, par auto-supervision à grande échelle –, qu’il est possible d’adapter (d’ajuster) à un large éventail de tâches en aval. On peut citer les exemples suivants : BERT (Google) et GPT-3 (OpenAI) (Bommasani et al., 2021[9]).
IA générative : IA capable de créer de nouveaux contenus – textes, images, contenus audio et vidéo – à partir de ses données d’entraînement et, habituellement, en réponse à des invites. La récente croissance de l’IA générative, avec la couverture médiatique dont elle a bénéficié, notamment pour ce qui est de la production de textes et d’images, a placé les capacités d’IA sous les projecteurs, ce qui a suscité de vifs débats au sein du public et dans les milieux universitaires et politiques (Lorenz, Perset et Berryhill, 2023[10]).
Modèle de langue d’IA : Modèle capable de traiter, d’analyser ou de générer du texte en langue naturelle après avoir été entraîné sur de grandes quantités de données au moyen de techniques pouvant aller d’approches fondées sur des règles à des modèles statistiques ou d’apprentissage profond. Les agents conversationnels, les moteurs de traduction automatique et les assistants virtuels à commande vocale sont tous des applications des modèles de langue. Les modèles de langue ne sont pas tous génératifs par nature, et peuvent être de petite taille comme de grande taille (OCDE, 2023[4]).
Apprentissage automatique : « Branche de l’intelligence artificielle et de l’informatique qui s’intéresse au développement de systèmes capables d’apprendre et de s’adapter sans avoir besoin de suivre des instructions explicites, imitant par là le mode d’apprentissage de l’être humain, de manière à améliorer progressivement leur exactitude, en utilisant des algorithmes et des modèles statistiques pour analyser et déduire des inférences de schémas décelés dans les données » (traduction libre) (EU-US Trade and Technology Council, 2023[7]). Le processus d’« apprentissage » fondé sur les techniques d’apprentissage automatique est appelé « entraînement ». Une technique d’apprentissage automatique appelée « réseau neuronal », et sa version plus avancée appelée « apprentissage profond », a contribué à l’accélération du développement de l’IA (OCDE, 2019[3]).
IA multimodale : IA consistant à combiner plusieurs types de données (images, textes, contenus audio, etc.) à l’aide de modèles et d’algorithmes d’apprentissage automatique. L’IA multimodale est indispensable à la recherche et aux applications en IA dans des domaines tels que l’industrie manufacturière et la robotique (The Alan Turing Institute, 2023[1]).
Notes : Cette liste de termes a été établie sur la base de sources diverses aux fins de la rédaction du présent chapitre. Elle n’est pas exhaustive. Le Conseil du commerce et de la technologie UE-États-Unis a publié une deuxième édition du Terminology and Taxonomy for Artificial Intelligence (Terminologie et taxonomie pour l’intelligence artificielle) en avril 2024. Pour de plus amples informations, veuillez consulter : https://digital-strategy.ec.europa.eu/en/library/eu-us-terminology-and-taxonomy-artificial-intelligence-second-edition.
Les progrès des réseaux neuronaux et de l’apprentissage profond donnent naissance à des modèles et des systèmes d’IA toujours plus gros, plus avancés et plus gourmands en capacité de calcul
Copier le lien de Les progrès des réseaux neuronaux et de l’apprentissage profond donnent naissance à des modèles et des systèmes d’IA toujours plus gros, plus avancés et plus gourmands en capacité de calculL’application des techniques d’apprentissage automatique, la disponibilité d’ensembles de données volumineux et de matériels informatiques plus rapides et plus puissants ont convergé. Ensemble, ils augmentent considérablement les capacités, l’impact et la disponibilité des modèles et des systèmes d’IA, passant de discussions académiques à des applications concrètes remarquables. Inspirés du cerveau humain, les réseaux neuronaux sont composés de couches de « neurones », également appelés « nœuds », qui traitent les données d’entrée avec des pondérations et des biais pour obtenir des résultats spécifiques (Russell et Norvig, 2016[11]). Un sous-ensemble d’algorithmes dans le domaine des réseaux neuronaux – appelés « réseaux de neurones profonds » (dans le champ d’études et l’ensemble des techniques désignés sous le terme d’apprentissage profond) – permet à des systèmes fondés sur des machines d’« apprendre », à partir d’exemples, à faire des prédictions, également appelées « inférences », sur la base de grande quantité de données traitées au cours de la phase d’entraînement. Les réseaux de neurones profonds se distinguent principalement par le fait qu’il sont généraux et qu’ils nécessitent peu d’adaptation (ou de « nettoyage ») des données d’entrée pour pouvoir établir des prédictions exactes.
En 2017, une équipe de recherche a présenté un nouveau type d’architecture de réseau neuronal appelé « transformeur » qui est devenu une innovation conceptuelle fondamentale à l’origine d’avancées majeures dans le domaine des modèles de langue d’IA. Un transformeur apprend à détecter comment des éléments de données, par exemple les mots d’une phrase, s’influencent et dépendent les uns des autres (Vaswani et al., 2023[12]). Ce qui le distingue des précédents réseaux neuronaux, c’est qu’il peut traiter les données d’une séquence, par exemple les mots d’un texte, en parallèle. Cela a permis aux développeurs d’IA de concevoir des modèles de langue de plus grande taille comportant un nombre beaucoup plus élevé de paramètres (les pondérations numériques qui définissent le modèle) et affichant une meilleure efficacité (OCDE, 2023[4] ; Vaswani et al., 2023[12]). Les transformeurs ont rendu possibles des avancées considérables dans les domaines de la reconnaissance de la langue (agents conversationnels, par exemple) et des sciences (repliement des protéines, par exemple). Ils gagnent aussi en popularité dans le domaine de la vision par ordinateur (Islam, 2022[13]). Les modèles de transformeurs les plus connus sont AlphaFold2 (DeepMind), GPT-4 (OpenAI), LaMDA (Google) et BLOOM (Hugging Face) (Collins et Ghahramani, 2021[14] ; Hugging Face, 2022[15] ; Merritt, 2022[16])
Les chercheurs étudient actuellement la question de savoir si les transformeurs peuvent créer des systèmes d’IA « généralistes » et « multimodaux » capables d’exécuter des centaines de tâches différentes dans les domaines de la robotique, de la vision par ordinateur, des environnements simulés, des langues naturelles, et plus encore. Par exemple, le réseau Gato développé par Google DeepMind (2022) présente certaines de ces capacités, puisqu’il peut aussi bien empiler des blocs avec un bras robotisé, jouer à des jeux vidéo, légender des images et discuter avec ses utilisateurs. Au contraire des précédents modèles d’IA qui ne pouvaient apprendre qu’une seule tâche à la fois, certains nouveaux modèles de transformeurs peuvent apprendre plusieurs tâches en même temps, ce qui leur permet de basculer de l’une à l’autre et d’acquérir de nouvelles compétences sans oublier celles qu’ils ont déjà acquises (Heikkilä, 2022[17] ; Reed et al., 2022[18]). Cependant, les modèles et systèmes d’IA actuels peuvent encore produire des inexactitudes factuelles, des hallucinations (inventions de faits de façon crédible, souvent quand une bonne réponse n’est pas trouvée dans les données d’entraînement), des incohérences et des malentendus quand ils sont utilisés dans de nouveaux contextes, ce qui fait qu’il faut souvent une assistance ou une supervision humaine pour assurer leur bon fonctionnement. Selon certains experts, les systèmes et modèles d’IA avancés sont un pas en avant vers des formes d’IA plus performantes et plus générales (voir l’encadré 2.2) ; certaines voix vont jusqu’à dire qu’il s’agit d’un progrès vers l’émergence hypothétique d’une « intelligence artificielle générale » (IAG), annonciatrice de bénéfices et de risques considérables. Ces questions font l’objet de vifs débats au sein de la communauté d’experts de l’IA (encadré 2.2).
Les modèles de fondation rendent possible une généralisation croissante de l’IA à travers un éventail de domaines d’application, de secteurs d’activité et de tâches
Copier le lien de Les modèles de fondation rendent possible une généralisation croissante de l’IA à travers un éventail de domaines d’application, de secteurs d’activité et de tâchesLes récentes innovations en matière d’IA ont fait évoluer les capacités des modèles et systèmes spécifiques à une tâche vers des modèles et des systèmes plus flexibles et applicables à une diversité de domaines, de secteurs et de tâches. Ces avancées sont centrées sur les « modèles de fondation », c’est-à-dire des modèles entraînés sur de grandes quantités de données qui peuvent être adaptés à un large éventail de tâches en aval, comme la série de transformeurs génératifs pré-entraînés (GPT, Generative Pretrained Transformers) d’OpenAI (Lorenz, Perset et Berryhill, 2023[10] ; Bommasani et al., 2021[9] ; Jones, 2023[23]). Ces modèles de fondation peuvent être perfectionnés ou « affinés », par exemple à l’aide de données spécifiques afin d’obtenir des informations pertinentes pour un secteur en particulier ou adaptées à un large spectre de tâches distinctes (Bommasani et al., 2021[9]).
Encadré 2.2. Des systèmes d’IA à usage de plus en plus général
Copier le lien de Encadré 2.2. Des systèmes d’IA à usage de plus en plus généralDe l’avis de certains experts, les grands modèles de langue et les autres modèles d’IA générative les plus récents sont capables d’appliquer des résultats de façon générale à tout un éventail de contextes. Cependant, il y a débat sur la mesure dans laquelle ils peuvent généraliser, plutôt que simplement reproduire, par imitation, des informations contenues dans leurs ensembles de données.
Depuis leur création dans les années 1950, les systèmes d’IA ont été « étroits » et spécifiques à un contexte. Toutefois, en raison des progrès récents, certains experts affirment que les « modèles de base » de pointe évoluent vers une nature plus générale.
Les modèles de fondation sont entraînés sur de grandes quantités de données, et peuvent être adaptés à un large éventail de tâches en aval. Certains experts vont jusqu’à dire que ces modèles représentent une étape significative sur la voie de l’émergence supposée d’une intelligence artificielle générale (IAG), même si la définition de cette IAG, ses principes sous-jacents et l’horizon auquel elle pourrait apparaître sont très vivement débattus. L’IAG est un concept controversé qui peut être décrit comme une machine ayant une intelligence de niveau humain ou supérieur dans un large éventail de contextes et de domaines.
Beaucoup d’experts du domaine estiment que mettre l’accent sur cette notion spéculative d’IAG peut contribuer à masquer les avantages et les risques importants des systèmes d’IA déjà déployés ou qui le seront à court ou à moyen terme. Pour sortir de ce débat, certains experts en IA se sont ainsi mis à parler d’« intelligence artificielle capable » (IAC) pour décrire les systèmes d’IA potentiellement transformateurs qui nécessitent une supervision humaine minimale, mais qui pourraient ne pas atteindre l’état hypothétique de l’IAG.
Des chercheurs de DeepMind (Google) ont proposé un cadre de classification de l’avancée des capacités, fondé sur les niveaux de performance, de généralisation et d’autonomie des systèmes d’IA. Leur objectif est de fournir un langage commun qui permette de comparer les modèles d’IA, d’en évaluer les risques, et d’en mesurer les progrès.
L’IAG fait l’objet de nombreux débats et d’une large couverture médiatique. Même si de plus en plus de experts de disciplines très diverses se penchent sur la question de la réalisation de systèmes d’IA plus généraux, leurs avis, leurs prévisions et leur façon d’appréhender les termes clés du domaine varient très largement.
Les modèles de fondation existants partagent plusieurs caractéristiques communes. Premièrement, ils incluent souvent des milliards de paramètres, ce qui en fait des systèmes de très grande taille. Deuxièmement, il peut être difficile d’expliquer leurs résultats du fait de la complexité des procédés de calcul. Cela s’est traduit par des performances et des résultats sont impressionnants, dépassant même les attentes des développeurs. Cependant, les étapes ou le processus suivi par le modèle pour l’obtention du résultat ne peuvent souvent pas être expliqués. Troisièmement, l’entraînement des modèles de fondation actuels exige des capacités de calcul et des volumes de données considérables, ainsi que des talents de spécialistes de l’IA, ce qui signifie que leur développement est très coûteux (Dunlop, Moës et Küspert, 2023[24]). L’avenir nous dira si, avec l’évolution de la technologie, du matériel, des logiciels et des méthodes d’entraînement, les modèles de fondation du futur continuent de nécessiter autant de données, de capacité de calcul et de paramètres.
Pour beaucoup, l’émergence récente des modèles de fondation constitue un « changement de paradigme » et un progrès technologique majeur. Grâce aux modèles de fondation, certains modèles d’IA peuvent transférer des capacités d’un domaine à un autre par exemple en combinant plusieurs types de données d’un domaine à un autre (image, texte, contenu audio, etc.). Les modèles de base, en particulier ceux qui sont à code source libre (c’est-à-dire « en open source »), peuvent également permettre aux développeurs et aux chercheurs en IA disposant de ressources limitées d’affiner et de déployer l’IA dans leurs domaines respectifs sans nécessairement avoir besoin d’un accès à du matériel de calcul avancé ou à de grands ensembles de données, ni d’engager des coûts importants pour entraîner le modèle de fondation au départ.
Les modèles de fondation continueront probablement de stimuler l’avancement des capacités d’IA, offrant ainsi des possibilités prometteuses d’innovation et de gains de productivité dans divers domaines et secteurs, mais posant également plusieurs défis. La dépendance à l’égard de ces modèles – par exemple les entreprises en aval plus petites et moins bien capitalisées telles que les start-ups – pourrait créer une dynamique de dépendance entre utilisateurs et producteurs de ces modèles. De fait, le coût et la complexité des modèles de fondation ont limité leur développement à des entreprises bien capitalisées, telles que les modèles GPT-4 (OpenAI/Microsoft), BERT (Google) ou LLaMA 2 (Meta), ou à des organisations et des gouvernements qui peuvent se permettre de financer leur entraînement.
Il est souvent difficile et financièrement coûteux de comprendre ce que contiennent les ensembles de données d’entraînement des modèles de fondation, et vérifier la validité des résultats exige parfois une expertise spécialisée. De plus, il arrive que les responsables du développement de ces modèles ne divulguent pas certaines informations essentielles pour diverses raisons techniques et commerciales. Les mécanismes de distribution mis en place par les équipes de développement, notamment les interfaces de programmation d’application (API), peuvent masquer certaines propriétés du modèle. Cela rend difficile l’évaluation de la façon dont le modèle est aligné sur certains principes, ou encore son utilisation en aval d’une manière qui vise à promouvoir la transparence, l’explicabilité et la responsabilité (Dunlop, Moës et Küspert, 2023[24]).
Ces questions illustrent le déséquilibre croissant potentiel entre ceux qui peuvent réaliser les premières étapes de construction de ces modèles, les plus gourmandes en ressources, et ceux qui sont dépendantes de modèles pré-entraînés (c’est-à-dire, les modèles de fondation). Les propriétaires des modèles d’IA les plus avancés pourraient limiter l’accès à ces outils. Cela constitue un défi pour les responsables de l’élaboration des politiques et les pouvoirs publics, à l’heure où ils cherchent à créer des règles du jeu équitables permettant aux groupes plus modestes et moins bien dotés en ressources d’innover (OCDE, 2023[25]). Ce défi stratégique pourrait inclure des questions telles que l’accès aux outils au service de l’innovation et la dynamique du marché du point de vue de la concurrence.
La poursuite du développement et de l’utilisation de l’IA continuera de dépendre de l’accès à des infrastructures de calcul
Copier le lien de La poursuite du développement et de l’utilisation de l’IA continuera de dépendre de l’accès à des infrastructures de calculL’infrastructure de calcul (ou « capacité de calcul pour l’IA ») est une composante déterminante du développement d’une IA, et devrait continuer d’être un moteur de l’amélioration des capacités d’IA au fil du temps. Elle se distingue des autres intrants tels que les données ou les algorithmes car elle repose sur des « piles » (couches) de matériel et d’infrastructure physique en plus des logiciels spécialisés en IA (OCDE, 2023[8]). L’amélioration de la capacité de calcul pour l’IA a permis de remplacer les processeurs à usage général, tels que les unités centrales de traitement (CPU, Central Processing Unit), par des matériels spécialisés nécessitant moins de temps et d’énergie par calcul. Aujourd’hui, les modèles d’IA avancée sont principalement entraînés sur du matériel spécialisé optimisé pour certains types d’opérations, par exemple des unités de traitement graphique (GPU), des unités de traitement de tenseur (TPU) et des unités de traitement neuronal (NPU). En effet, entraîner une IA sur un processeur à usage général est moins efficient (OCDE, 2023[8]). Le volume croissant de l’infrastructure de calcul dédiée à l’IA a permis à la fois des progrès en IA et des progrès technologiques au niveau du matériel d’IA lui-même.
La demande de capacité de calcul pour l’IA a augmenté de façon spectaculaire, en particulier pour les réseaux de neurones destinés à l’apprentissage profond (OCDE, 2023[8]). Se procurer du matériel spécialisé spécifiquement construit pour l’IA peut être difficile en raison de la complexité des chaînes d’approvisionnement, comme en témoignent les goulets d’étranglement dans le secteur des semiconducteurs (Khan, Mann et Peterson, 2021[26]). Les circuits intégrés ou puces informatiques fabriqués à partir de semiconducteurs sont les « cerveaux de l’équipement électronique moderne, qui stockent l’information et exécutent les opérations logiques permettant à des terminaux de type smartphone, ordinateur et serveur de fonctionner » et sont un intrant essentiel de la capacité de calcul pour l’IA (OCDE, 2019[27]). Tout appareil électronique peut posséder plusieurs circuits intégrés assurant des fonctions spécifiques, comme des unités centrales de traitement ou des puces spécialement conçues pour la gestion de puissance, la mémoire ou le graphisme (GPU utilisées pour l’IA, par exemple). La chaîne d’approvisionnement en semiconducteurs est de plus en plus sollicitée depuis quelques années, surtout depuis que les technologies numériques fondées sur l’IA se banalisent, notamment dans les appareils de l’internet des objets (IdO), les réseaux électriques intelligents ou encore les véhicules autonomes. Elle est également très concentrée, donc d’autant plus vulnérable aux chocs (OCDE, 2019[27]).
L’entraînement des IA avancées et les calculs d’inférence connexes exigent des ressources de calcul importantes, ce qui a un impact sur l’environnement: consommation d’énergie et d’eau, émissions de carbone, déchets électroniques et extraction de ressources naturelles telles que les terres rares. Les experts ont soulevé des préoccupations relatives aux effets environnementaux directs de l’IA (imputables aux opérations d’entraînement ou d’inférence), particulièrement avec l’IA générative qui devient plus accessible, avec des applications comme les agents conversationnels qui augmentent la demande de temps de serveur et le besoin d’inférences. Certains fournisseurs de capacité de calcul donnent des estimations spécifiques concernant l’IA, mais ce type de mesure normalisée reste rare (OCDE, 2022[28]).
Si les progrès de l’IA sont considérables grâce à l’augmentation des vitesses des ordinateurs et la loi de Moore (qui énonce que la vitesse et la puissance de calcul des ordinateurs doublent tous les deux ans), des experts avertissent néanmoins que l’on pourrait atteindre les limites de ces possibilités d’accroissement, ce qui pose des questions concernant les futures avancées des performances informatiques (OpenAI, 2018[29] ; Sevilla et al., 2022[30]). Des chercheurs réfléchissent à de nouveaux moyens de poursuivre ces améliorations continues : processeurs plus puissants, transmission plus rapide des données, capacités accrues de mémoire et de stockage, réseaux de la prochaine génération comme la 6G, systèmes informatiques distribués et en périphérie plus étendus et plus rapides, informatique quantique, et bien d’autres solutions encore. Des travaux sont également consacrés à l’informatique neuromorphique, qui s’inspire de la cognition humaine, afin de rendre les processeurs plus efficients, c’est-à-dire capables de fonctionner avec une puissance inférieure de plusieurs ordres de grandeur à celle des systèmes informatiques traditionnels (Schuman et al., 2022[31]). D’autres méthodes informatiques fondées sur des ordinateurs photoniques, qui consistent à tirer parti des propriétés particulières des photons, sont également à l’étude pour les applications de l’IA (Wu et al., 2023[32]).
La disponibilité de grandes quantités de données pour entraîner l’IA a considérablement accru les capacités des systèmes, notamment leur capacité à générer des contenus réalistes
Copier le lien de La disponibilité de grandes quantités de données pour entraîner l’IA a considérablement accru les capacités des systèmes, notamment leur capacité à générer des contenus réalistesAvoir accès à des données est indispensable pour entraîner, tester et valider une IA. La demande de données d’entraînement (les « données d’entrée de l’IA ») a fortement augmenté, en particulier avec l’essor de l’IA générative et des grands modèles de langue. Aujourd’hui, les données utilisées pour entraîner l’IA sont agrégées à partir de sources diverses, parmi lesquelles des ensembles de données sélectionnés, des accords de partage de données, des collectes de données d’utilisateurs, des stockages de données préexistants et la technique de l’« extraction » de données en libre accès sur l’internet.
La disponibilité et la collecte des données posent des questions de politiques publiques, en particulier quand ces données contiennent des informations relatives à des personnes identifiables (données à caractère personnel, par exemple) ou des matériels protégés, sous licence ou droit d’auteur notamment (logiciels, textes, images, sons ou vidéos). De plus, le fait qu’il existe peu de textes lisibles par la machine rédigés dans d’autres langues que l’anglais pourrait limiter les avantages de l’IA pour certains groupes linguistiques, notamment ceux de langue minoritaire. Un examen des ensembles de données d’entraînement d’IA disponibles sur Hugging Face a conclu que l’anglais représente plus de la moitié de l’ensemble des langues. Cela met en exergue le possible manque de diversité linguistique des ensembles de données d’entraînement d’IA (OECD.AI, 2024[33]) (graphique 2.2).
Des technologies renforçant la protection de la vie privée font leur apparition, notamment des méthodes informatiques confidentielles et l’apprentissage fédéré
Copier le lien de Des technologies renforçant la protection de la vie privée font leur apparition, notamment des méthodes informatiques confidentielles et l’apprentissage fédéréL’utilisation de grandes quantités de données à caractère personnel dans certains ensembles de données d’entraînement de l’IA pose aux pouvoirs publics des questions liées à la protection des droits à la vie privée. Plusieurs techniques font en ce moment leur apparition pour aider à préserver la vie privée lorsque de grands ensembles de données sont utilisés, par exemple pour l’apprentissage automatique (OCDE, 2023[34]). Ces « technologies protectrices de la vie privée » peuvent faciliter la mise en œuvre de principes de protection de la vie privée tels que la minimisation des données, la limitation de l’utilisation et les garanties de sécurité. Par exemple, l’« informatique confidentielle » vise à faire en sorte qu’il soit impossible pour une entreprise qui héberge des données ou qui y accède, que ce soit dans le nuage ou sur des appareils en périphérie, de voir les données sous-jacentes telles que les données à caractère personnel des internautes, sans devoir au préalable les déverrouiller avec des méthodes de chiffrement contrôlées (O’Brien, 2020[35] ; Mulligan et al., 2021[36]). Un autre exemple est l’« apprentissage fédéré » où chaque utilisateur peut entraîner un modèle avec les données contenues sur son propre appareil. Les résultats sont ensuite transférés vers un serveur central et combinés au sein d’un modèle amélioré repartagé entre tous les utilisateurs (Zewe, 2022[37]). Des chercheurs élaborent également des méthodes d’entraînement de moteurs d’apprentissage automatique avec des données chiffrées. Par exemple, avec la technique du chiffrement homomorphique, les données sous-jacentes demeurent non divulguées pendant tout le processus d’entraînement, ce qui renforce la protection de la vie privée tout en permettant une utilisation effective des données (OCDE, 2019[3])
S’il est reconnu que les technologies protectrices de la vie privée permettent de protéger la confidentialité des données (à caractère personnel ou non) et que les applications qui en découlent parviendront bientôt à maturité, beaucoup en sont encore au stade de la recherche et n’ont pas encore été déployées à grande échelle et utilisées en production dans des systèmes d’IA directement destinés aux consommateurs. De plus, il est généralement admis que l’utilisation de ces technologies peut encore être associée à des atteintes à la vie privée, d’où l’importance de ne pas les considérer comme la panacée.
L’utilisation de données de synthèse suscite beaucoup d’intérêt comme approche possible pour protéger la vie privée. Les données de synthèse sont des données générées par des simulations informatiques, des algorithmes d’apprentissage automatique ou d’autres méthodes fondées sur des règles ou des statistiques, qui préservent les propriétés statistiques de l’ensemble de données d’origine1. Elles sont utilisées pour entraîner des IA lorsque les données sont rares ou contiennent des informations confidentielles ou relatives à des personnes identifiables. Il peut s’agir d’ensembles de données de langues minoritaires ; de données destinées à entraîner des modèles de vision par ordinateur à reconnaître des objets rarement présents dans les ensembles de données d’entraînement usuels ; ou encore de données sur différents types d’accidents possibles dans les systèmes de conduite autonome (OCDE, 2023[25]). Il reste néanmoins des problèmes à résoudre, par exemple « la réidentification est toujours possible si les fichiers de données source apparaissent dans les données synthétiques » (Office of the Privacy Commissioner of Canada, 2022[38]). De plus, comme dans le cas de l’anonymisation et de la pseudonymisation, les données de synthèse peuvent aussi faire l’objet d’attaques de réidentification (Stadler, Oprisanu et Troncoso, 2020[39]).
L’IA générative pourrait permettre d’obtenir des ensembles de données plus représentatifs, mais soulève également des inquiétudes quant à leur manipulation
Copier le lien de L’IA générative pourrait permettre d’obtenir des ensembles de données plus représentatifs, mais soulève également des inquiétudes quant à leur manipulationCertains types d’IA, notamment l’IA générative, peuvent aussi produire de nouvelles données, des travaux créatifs et des inférences ou des prédictions concernant des individus ou un thème en particulier, qui, par la suite, pourraient servir de données d’entrée à une autre IA (il s’agirait ainsi de « données de sortie d’IA » utilisées pour entraîner une autre IA) (Staab et al., 2023[40]). De telles données risquent de ne pas préserver les propriétés statistiques des données d’origine et, par conséquent, ne doivent pas être amalgamées avec des données de synthèse. Néanmoins, la capacité de l’IA à générer de nouvelles données et de nouveaux contenus a été mise en avant comme un moyen de produire des ensembles de données plus larges et, en définitive, plus représentatifs aux fins des phases d’entraînement. De récentes recherches concluent toutefois que l’utilisation de contenus générés par IA peut dégrader les modèles d’IA au fil du temps. Cela pourrait conduire à un « effondrement du modèle »: recourir à des contenus générés par un modèle pendant la phase d’entraînement ferait apparaître des « défauts irréversibles » dans les résultats du modèle, amenant à « oublier » (Shumailov et al., 2023[41]). Ceci est particulièrement inquiétant si les données d’entraînement sont collectées par extraction sur l’internet, et qu’il n’est pas possible de vérifier si les données d’un échantillon en particulier ont été générées par IA.
Les contenus générés par IA peuvent être manipulés dans le but de nuire, par exemple dans le cadre de campagnes de mésinformation ou de désinformation et pour influencer l’opinion publique (OCDE, 2023[25]). Les recherches actuelles donnent à penser qu’il n’y a pas de moyen fiable pour détecter un contenu généré par IA, même en utilisant des systèmes de filigrane ou des détecteurs fondés sur des réseaux neuronaux. Les contenus générés par IA pourraient se répandre largement sans être détectés, ce qui rendrait possibles des méthodes sophistiquées de spam, des opérations de mésinformation ou de désinformation (fausses informations à des fins de manipulation), la production de résumés inexacts de documents, ou encore le plagiat (Sadasivan et al., 2023[42]). Des acteurs malveillants pourraient s’adonner, à peu de frais et à grande échelle, à des « empoisonnements de données », c’est-à-dire le fait d’ajouter des données inexactes ou fallacieuses dans des ensembles de données d’entraînement afin de modifier le comportement d’un modèle ou de réduire son exactitude, par exemple pour qu’il produise de faux résultats dans des situations particulières ou dans toutes les situations.
La réglementation relative à l’IA générative est en train d’émerger en réponse à la généralisation de ces outils à la fin de 2022. Toutefois, le retard dans les politiques publiques, la mise en œuvre et l’application de ces réponses dans le monde entier pourrait dégrader la qualité du discours public en ligne et la qualité de l’information sur l’internet. Il pourrait être très difficile, sinon impossible, de remédier à ces dommages dans les prochaines années (OCDE, 2023[43]).
Les ressources en code source ouvert peuvent rendre les progrès plus largement accessibles mais elles créent d’autres problèmes
Copier le lien de Les ressources en code source ouvert peuvent rendre les progrès plus largement accessibles mais elles créent d’autres problèmesBeaucoup de ressources et d’outils de développement de l’IA sont en code source ouvert et disponibles dans le domaine public, ce qui facilite leur adoption à large échelle et permet d’appliquer le principe de la contribution participative à la résolution des questions. Citons à titre d’exemple TensorFlow (Google) et PyTorch (Meta) (des bibliothèques open source pour le langage de programmation Python), qui peuvent être utilisées pour entraîner des réseaux neuronaux d’applications de vision par ordinateur et de détection d’objets. Des entreprises et des chercheurs ont entrepris de partager publiquement des outils et des ensembles de données d’entraînement post-curation afin de promouvoir la diffusion de l’IA (OCDE, 2019[3]). Ces dernières années, les développeurs de code source libres ont adapté et développé des modèles d’IA remarquables à une vitesse impressionnante. (Benaich et al., 2022[44]).
La communauté de code source ouvert pour l’IA utilise des plateformes telles que GitHub et Hugging Face pour accéder à des ensembles de données, des codes ou des référentiels de modèles d’IA en code source ouvert, et pour échanger des informations sur les évolutions de l’IA. Entre 2012 et 2022, le nombre de projets d’IA en code source ouvert dans le monde (mesuré par le nombre de « référentiels » ou « projets » GitHub liés à l’IA) a été multiplié par plus de 100, ce qui témoigne de la popularité croissante des plateformes de logiciels libres (OECD.AI, 2023[45]). De plus, l’IA est devenue plus accessible grâce aux plateformes sans code ou à faible niveau de code : ces interfaces conviviales contribuent en effet à lever en grande partie les obstacles à l’entrée sur le marché de l’entraînement et de l’utilisation des IA (Marr, 2022[46]).
Si plusieurs entreprises d’IA exploitent des modèles et des systèmes d’IA propriétaires et commercialisent l’accès à ces outils, certaines les rendent disponibles en code source ouvert, par exemple Meta et son modèle de langue LLaMA 2 (Meta, 2023[47]). L’émergence de plusieurs modèles d’IA en code source ouvert est un facteur d’accélération de l’innovation et du développement qui pourrait atténuer la dynamique « tout au gagnant » qui a permis à quelques entreprises de s’approprier la majeure partie du marché (Dickson, 2023[48]). Cependant, travailler en code source ouvert comporte d’autres risques potentiellement importants tels que l’absence ou l’insuffisance des moyens de se protéger contre les utilisations malveillantes.
Les capacités de vision par ordinateur continuent de progresser mais les applications telles que la reconnaissance faciale soulèvent des inquiétudes
Copier le lien de Les capacités de vision par ordinateur continuent de progresser mais les applications telles que la reconnaissance faciale soulèvent des inquiétudesDepuis son apparition dans les années 1960, la vision par ordinateur est essentielle au développement d’une IA capable de percevoir le monde autour d’elle et d’y réagir (Russell et Norvig, 2016[11]). Ce sont les avancées en détection et reconnaissance faciales ou en classification d’images qui ont permis d’importants progrès technologiques dans des domaines tels que le légendage d’images et la traduction d’images (le procédé consistant à reconnaître les caractères présents dans une image pour en extraire le texte qu’elle contient). Certaines techniques de vision par ordinateur ont désormais atteint leur pleine maturité, comme la détection et la reconnaissance faciales ou la classification d’images.
La reconnaissance faciale, une application clé rendue possible par la vision par ordinateur, fait l’objet de beaucoup d’attention dans le débat public et dans les sphères institutionnelles, à l’heure où les pays se préparent à élaborer des lois pour régir l’IA. Dans de nombreux pays et territoires, elle s’est trouvée au cœur de discussions sur les applications « à haut risque » de l’IA et, notamment, sur la question de son utilisation par les forces de l’ordre. Les risques de biais algorithmiques et d’atteintes à la confidentialité des données ont conduit, à diverses reprises, à des appels et à des actions visant à limiter certaines utilisations des technologies de reconnaissance faciale, par exemple dans l’espace public (OCDE, 2021[49]). Une analyse de technologies commerciales de reconnaissance faciale fondées sur l’IA a montré qu’elles identifiaient les visages à la peau claire et ceux d’hommes avec plus d’exactitude que les visages à la peau foncée et ceux de femmes (Buolamwini et Gebru, 2018[50] ; Anderson, 2023[51]). Dans de nombreux cas, le biais est dû à l’utilisation de larges ensembles de données d’entraînement à l’intérieur desquels il manque des échantillons représentatifs de la diversité des groupes dans la population. Cela met en exergue le rôle important que les données de synthèse peuvent jouer en générant des ensembles de données plus représentatifs utilisables pour l’entraînement. La technologie de reconnaissance faciale a également été associée à des identifications erronées et des arrestations indues, principalement dans des communautés racisées (Benedict, 2022[52]). Par exemple, en Chine, un système de reconnaissance faciale a pris un visage affiché sur un bus pour une piétonne en train de traverser illégalement la rue (Shen, 2018[53]). Des exemples comme celui-là montrent qu’il est possible d’utiliser cette technologie puissante à des fins malveillantes pour nuire à certains groupes de population. C’est pourquoi différentes juridictions envisagent de renforcer la réglementation et, notamment l’interdiction d’utiliser l’IA par les autorités publiques à des fins de reconnaissance biométrique.
Des experts ont identifié des considérations importantes que les responsables de l’élaboration des politiques doivent prendre en compte pour garantir des technologies de vision par ordinateur dignes de confiance. Premièrement, il importe de prêter attention aux larges ensembles de données utilisées pour l’entraînement des modèles qui ont récemment donné lieu à des atteintes à la vie privée, des biais ou des atteintes au droit d’auteur. Deuxièmement, les modèles d’IA eux-mêmes nécessitent souvent de grandes architectures de calcul qui consomment énormément d’énergie, et posent des problèmes, notamment d’explicabilité, car ils sont trop complexes pour être compris par l’être humain. C’est pourquoi certains chercheurs s’emploient à améliorer l’explicabilité, par exemple à l’aide de méthodes telles que l’« interprétabilité mécaniste », qui consiste à analyser les éléments des modèles par rétro-ingénierie pour les rendre compréhensibles par l’être humain (Conmy et al., 2023[54]). Troisièmement, l’impact du déploiement de l’IA dans le monde réel doit être examiné de près, en particulier les effets sociaux et économiques de l’IA, par exemple ses conséquences en termes d’équité (OCDE, 2023[25]).
Les robots deviennent plus performants et plus intelligents grâce à l’IA
Copier le lien de Les robots deviennent plus performants et plus intelligents grâce à l’IALes robots peuvent être définis comme des « agents physiques qui exécutent des tâches en manipulant le monde physique » avec des composants mécaniques tels que des bras, des articulations, des roues et des capteurs (caméras et lasers) leur permettant de percevoir un environnement (Russell et Norvig, 2016[11]). L’IA peut être « incorporée » dans des robots aux fins de l’exécution d’un large éventail de tâches parmi lesquelles la fabrication et l’assemblage, le transport et l’entreposage, et diverses applications en situation d’urgence, lorsque l’intervention humaine peut être dangereuse ou physiquement impossible. En associant la robotique à des modèles de génération d’images ou de contenus audio ou vidéo, on peut aussi produire des systèmes avancés dotés de capacités multimodales combinant ces fonctions (Lorenz, Perset et Berryhill, 2023[10]).
De plus amples améliorations technologiques pourraient résulter en une croissance rapide du marché d’applications robotiques. Certaines estimations donnaient déjà le marché des robots mobiles autonomes à 2.7 milliards USD en 2020 et, selon les projections, il pourrait atteindre 12.4 milliards USD d’ici à 2030 (Allied Market Research, 2022[55]).
Des progrès ont également lieu en robotique neuromorphique, la discipline qui étudie les machines contrôlées par des ondes cérébrales plutôt que par une commande vocale par exemple. Cela pourrait rendre possible la mise point d’implants cérébraux et d’« exosquelettes » motorisés portables par des personnes, qui utilisent l’apprentissage automatique et des capteurs pour collecter et traiter des données en temps réel (Lim, 2019[56]). La technique du jumeau numérique fondé sur l’IA (copie d’un système ou d’un réseau à des fins de modélisation) a également été étudiée dans des applications de téléchirurgie, en plus des robots et de la réalité virtuelle, dans les situations où il est nécessaire que la latence du réseau soit faible (réseaux rapides) et que la sécurité et la fiabilité soient élevées (Laaki, Miche et Tammi, 2019[57]). De telles évolutions pourraient augmenter considérablement la solidité et la fiabilité des prothèses orthopédiques, rendre plus précises les applications de téléchirurgie, voire favoriser la chirurgie robot-assistée dans l’espace et dans des zones isolées, ainsi que d’autres applications de santé de pointe (Bryant, 2019[58] ; Newton, 2023[59]).
L’augmentation d’échelle des modèles d’IA continuera-t-elle de faire progresser leurs capacités ?
Copier le lien de L’augmentation d’échelle des modèles d’IA continuera-t-elle de faire progresser leurs capacités ?Dans le domaine de l’apprentissage profond, les recherches relatives aux « lois d’échelle » apportent des éclairages sur les trajectoires prévisibles de « l’augmentation d’échelle » de l’IA (amélioration de l’IA par entraînement de modèles avec davantage de paramètres, de capacité de calcul et de données, ce qui engendre souvent des coûts d’entraînement substantiels). Ces lois approximatives décrivent la relation entre la performance d’un modèle d’IA et l’échelle de ses principaux intrants. Par exemple, des chercheurs ont observé une augmentation de la performance des modèles de langue avec l’accroissement de la capacité de calcul, la taille de l’ensemble de données et le nombre de paramètres (Kaplan et al., 2020[60]). Les modèles de langue plus grands sont généralement plus performants, ce qui indique une relation entre performance et échelle.
Cependant, il pourrait ne pas être possible de redimensionner les modèles à l’infini si le travail de développement des IA devient limité par l’accès à la capacité de calcul et aux données. À mesure que le nombre de paramètres des modèles d’IA augmente, des arbitrages pourraient devenir nécessaires, par exemple entre le coût de la capacité de calcul et la quantité de mémoire requise. Par ailleurs, d’autres voix s’élèvent pour dire que les grands modèles de langue fondés sur l’inférence probabiliste n’ont aucune capacité de raisonnement, donc pourraient ne jamais produire des résultats entièrement exacts (LeCun, 2022[61]). Par conséquent, certains émettent l’hypothèse que les architectures de modèles actuelles ne permettront jamais d’atteindre une précision et une généralisation complètes
Certains experts se demandent également si les modèles de recherche avec agents conversationnels fondés sur l’IA (tels que Chat GPT) bénéficieront effectivement des lois d’échelle, étant donné les coûts considérables à mobiliser pour réentraîner les modèles sous-jacents afin qu’ils restent d’actualité et puissent continuer de fournir aux internautes les informations les plus récentes (Marcus, 2023[62]). Enfin, certains travaux montrent que l’augmentation d’échelle des modèles pourrait aller plus vite que la disponibilité des données dans les années à venir (Villalobos et al., 2022[63]).
Les prédictions concernant les trajectoires et les conséquences futures de l’IA varient selon les experts
Copier le lien de Les prédictions concernant les trajectoires et les conséquences futures de l’IA varient selon les expertsLes recherches en IA et les discussions autour de l’action publique dans ce domaine portent souvent sur les problèmes que pose l’IA aujourd’hui. Pourtant, les conséquences à long terme de systèmes d’IA toujours plus perfectionnés restent, quant à elles, très incertaines et vivement débattues. Les experts mettent en avant un certain nombre de risques futurs possibles, dont certains se manifestent déjà de diverses manières. En même temps, des experts et d’autres membres de la communauté s’attendent à ce que l’IA produise des avantages considérables voire révolutionnaires. Il est indispensable de mener des activités prospectives pour mieux comprendre les conséquences potentielles de l’IA à long terme et commencer à les façonner dès à présent afin de maximiser les bénéfices de l’IA tout en veillant à en limiter les risques (OCDE, à paraître[64]).
La veille stratégique et les autres activités prospectives peuvent aider les responsables de l’action publique à anticiper les futurs possibles et, ainsi, à travailler dès à présent à leur donner forme. La veille stratégique est un moyen structuré et systématique d’utiliser l’idée que l’on se fait de l’avenir pour anticiper les changements et s’y préparer. Elle consiste à examiner différents futurs plausibles, ainsi que les opportunités et les risques associés. Elle permet de mettre au jour les hypothèses implicites, de remettre en cause les perspectives dominantes, et d’envisager des résultats possibles qui, sans cela, auraient pu être ignorés. Elle fait intervenir une panoplie de méthodes : analyse prospective pour identifier les changements émergents, analyse des « mégatendances » pour révéler et examiner les directions que l’avenir pourrait prendre, et exploration de scénarios pour nous aider à nous préparer à différents futurs (OCDE, à paraître[64]).
Prenant acte du fait que les évolutions futures de l’IA pourraient présenter à la fois de formidables opportunités à l’échelle mondiale et des risques considérables, 28 pays et l’Union européenne réunis en novembre 2023 ont signé la Déclaration de Bletchley, au travers de laquelle la communauté internationale s’engage à coopérer dans le domaine de l’IA pour s’assurer qu’elle est conçue, développée, déployée et utilisée de façon sécuritaire, et de manière à être centrée sur l’humain, digne de confiance et responsable (AI Safety Summit, 2023[65]). Cette Déclaration prévoit également la tenue d’une série de Sommets sur la sécurité de l’IA, afin de tout mettre en œuvre pour que les avantages et risques que l’IA pourrait présenter à l’avenir restent un thème d’importance et de débat à l’échelle internationale.
L’IA devrait produire d’importants bénéfices à l’avenir
Copier le lien de L’IA devrait produire d’importants bénéfices à l’avenirMême si la plupart des gros titres médiatiques concernent les risques, l’IA devrait aussi produire des avantages considérables. Dans le cadre du Processus du G7 d’Hiroshima sur l’intelligence artificielle générative, les membres du G7 ont, à l’unanimité, fait savoir qu’ils considéraient les gains de productivité, la promotion de l’innovation et de l’entrepreneuriat et la matérialisation de solutions aux enjeux mondiaux comme quelques-unes des principales possibilités offertes par les technologies d’IA au niveau mondial, y compris pour les économies émergentes et en développement. Ils ont souligné également que l’IA générative pouvait aider la société à relever certains défis urgents, comme l’amélioration des soins de santé, la recherche d’une issue à la crise climatique, et l’avancement vers la réalisation des Objectifs de développement durable (ODD) des Nations Unies (OCDE, 2023[66]). Les avantages potentiels de l’IA sont les suivants :
Améliorer la productivité et la croissance économique. Les projections concernant la contribution possible de l’IA à la croissance du PIB sont variables. Certaines études de marché estiment que le marché mondial de l’IA, incluant le matériels, les logiciels et les services, pourrait afficher un taux de croissance annuel composé de 18.6 % entre 2022 et 2026, ce qui porterait le marché de l’IA à 900 milliards USD en 2026 (IDC, 2022[67]). D’autres estimations placent le marché de l’IA à plus de 1 500 milliards USD d’ici à 2030 (Thormundsson, 2022[68]). S’agissant de l’IA générative en particulier, il est estimé qu’elle pourrait faire augmenter le PIB mondial de 7 % en dix ans (Goldman Sachs, 2023[69]).
Accélérer les progrès scientifiques. L’IA a le potentiel de déclencher des innovations et d’accélérer la vitesse des progrès scientifiques (OCDE, 2023[70]). Elle pourrait accroître la productivité des scientifiques et aider à surmonter certains goulets d’étranglement des ressources auparavant insurmontables, avec des gains de temps et une utilisation plus efficace des ressources (Ghosh, 2023[71]). Des effets de cet ordre sont déjà visibles avec l’IA qui rend possibles des progrès dans des domaines tels que la fusion nucléaire et la découverte de nouveaux anticorps déterminants pour sauver des vies (Stanford, 2023[72] ; Yang, 2023[73]).
Renforcer l’éducation. L’IA pourrait offrir des possibilités de tutorat personnalisé et autres opportunités d’apprentissage personnalisé, pour l’heure réservées aux seules personnes qui en ont les moyens économiques, ce qui permettrait d’élargir l’accès de toutes et tous à une éducation de qualité (Molenaar, 2021[74]). Du côté de l’’enseignement, l’IA pourrait aider les professeurs à créer des supports pédagogiques et des plans de cours adaptés aux besoins de leurs élèves (Fariani, Junus et Santoso, 2023[75]).
Améliorer les soins de santé. Les progrès des technologies d’IA pourraient transformer de nombreux aspects des services de santé et des prestations de soins de santé. Cela pourrait recouvrir des interventions au niveau individuel conçues pour donner des informations personnelles de santé, ainsi que des interventions d’amélioration de diagnostic permettant d’alléger la charge de travail des prestataires de soins de santé (Anderson et Rainie, 2018[76] ; Davenport et Kalakota, 2019[77]).
Les avantages potentiels de l’IA s’accompagnent de risques et de trajectoires futures incertaines
Copier le lien de Les avantages potentiels de l’IA s’accompagnent de risques et de trajectoires futures incertainesLes experts, la société civile et les pouvoirs publics ont mis de l’avant de nombreux risques possibles de l’IA. Par exemple, la Déclaration de Bletchley mentionne la possibilité d’apparition de risques imprévus, tels que ceux que pourraient entraîner la désinformation ou la manipulation de contenus, et les risques de sécurité que pourraient poser des modèles d’IA étroits ou à usage général hautement performants, les capacités les plus sophistiquées des modèles les plus avancés pouvant causer des dommages substantiels voire catastrophiques.
Bien que l’attention ait été portée sur la prévention des effets négatifs des systèmes d’IA avancés à moyen et à long terme, certains risques sont déjà apparents. Les premiers travaux de suivi des incidents liés à l’IA ont montré que les incidents et les dangers associés à l’IA générative dont il est fait mention dans la presse ont augmenté de manière exponentielle depuis 2022 (graphique 2.3) (OCDE, 2023[66]). Les membres du G7 estiment que les principaux dangers de l’IA générative à court terme sont la désinformation et la manipulation, l’atteinte aux droits de la propriété intellectuelle et les menaces pour la vie privée (OCDE, 2023[66]).
L’IA pourrait amplifier les phénomènes de mésinformation et de désinformation à une échelle sans précédent. L’IA générative peut produire de nouvelles images ou vidéos en réponse à des invites textuelles ou des messages audio en changeant de ton ou d’accent à partir de données d’entrée relativement limitées (par exemple, le court enregistrement d’une voix humaine). Aujourd’hui déjà, les produits de l’IA générative peuvent être difficiles à distinguer des créations humaines (Kreps, Mccain et Brundage, 2022[79]), ce qui soulève des questions pour l’action publique concernant la facilité avec laquelle on peut utiliser l’IA pour produire de la mésinformation, de la désinformation, de fausses informations (infox), des hypertrucages et d’autres contenus manipulés convaincants (Sessa, 2022[80]). Les défis peuvent être colossaux quand les questions touchent à la science, par exemple l’efficacité des vaccins et le changement climatique, et dans des contextes politiques polarisés. Des mesures d’atténuation commencent à apparaître, comme les filigranes et la détection d’hypertrucages fondée sur l’IA, mais les approches actuelles ont des limitations importantes et pourraient ne pas suffire pour lutter contre les problèmes à venir (Lorenz, Perset et Berryhill, 2023[10]). De l’avis de certains experts, des systèmes d’IA de plus en plus avancés pourraient, au cours du temps, alimenter des phénomènes de persuasion de masse et de manipulation des populations (Anderson et Rainie, 2018[76]), ce qui causerait des préjudices matériels aux niveaux individuel et sociétal et éroderait la confiance de la société et les échanges d’informations factuelles qui sous-tendent le travail scientifique, la prise de décision fondée sur des éléments probants et la démocratie (OCDE, 2022[81]).
Les « hallucinations », la « pollution informationnelle » et l’« empoisonnement de données » nuisent à la qualité des données et érodent la confiance du public. Les productions de l’IA peuvent affaiblir la qualité des données en ligne, puisque l’IA crée parfois des « hallucinations » ((inventions de faits de façon crédible, souvent quand une bonne réponse n’est pas trouvée dans les données d’entraînement). Cela peut contribuer à la « pollution informationnelle » : il devient possible que des données générées par IA fragilisent le « bien commun » en ligne et créent un cercle vicieux, où d’autres modèles d’IA sont entraînés avec des données de qualité inférieure produites par l’IA (Lorenz, Perset et Berryhill, 2023[10]). L’IA pourrait aussi être utilisée par des acteurs malveillants pour saboter ou détériorer des données robustes, ce que l’on appelle « l’empoisonnement de données » (OCDE, 2023[43]).
L’IA pourrait fortement perturber les marchés du travail. L’IA avancée pourrait aider les gens à trouver un emploi, mais aussi déplacer des professionnels hautement qualifiés ou, à tout le moins, modifier la nature de certains emplois. L’IA avancée peut être conçue pour aider les humains sur le marché du travail, y compris avec des « robots collaboratifs » ou « cobots ». Toutefois, certains chercheurs et experts craignent que l’IA de plus en plus performante, telle que l’IA capable d’agir en tant qu’agent autonome, ne remplace dans certains cas des tâches hautement qualifiées et bien rémunérées (par exemple, les programmeurs, les avocats ou les médecins), ce qui entraînerait des perturbations économiques et sociales. (Metz, 2023[82] ; Clarke et Whittlestone, 2022[83] ; Russell, 2021[84]). Même si l’IA ne cause pas une perte nette d’emplois, il est probable que les tâches qui composent le travail changent radicalement et, partant, que cela modifie les besoins de compétences (OCDE, 2023[85] ; OCDE, 2023[86]).
Intégrer l’IA dans des infrastructures critiques pourrait comporter des risques importants. L’IA est de plus en plus intégrée dans des infrastructures critiques car elle peut augmenter la rapidité et l’efficience, la sécurité et/ou la fiabilité, ou réduire les coûts (Laplante et al., 2020[87]). Cependant, certaines voix préviennent que cela pourrait permettre à des acteurs malveillants d’utiliser l’IA pour causer des dommages dans le monde physique ou virtuel (Zwetsloot et Dafoe, 2019[88] ; OCDE, 2022[89]). Déployée dans des installations vitales comme des usines chimiques ou des centrales nucléaires, l’IA pourrait poser de graves risques de sécurité et de sûreté pour l’ensemble de la société si la fiabilité ou la sûreté de ses modèles et systèmes s’avèrent insuffisantes.
Les modèles et systèmes d’IA peuvent accentuer les biais et creuser les inégalités. En reproduisant les biais existants, dont ceux que contiennent ses données d’entraînement, l’IA peut propager, automatiser et perpétuer des préjudices sociaux, des stéréotypes et des facteurs de discrimination dans ses résultats. Ceci pourrait marginaliser ou exclure encore davantage certains groupes de population (Bender et al., 2021[90] ; NIST, 2022[91]). Par exemple, il a été montré que les outils d’IA générative produisent des avatars numériques ou des images de femmes ouvertement sexualisées, tandis que les hommes sont représentés comme plus professionnels et concentrés sur leur carrière (Heikkilä, 2022[92]). D’autres observations ont mis en évidence des biais concernant certaines religions (Abid, Farooqi et Zou, 2021[93]). Par ailleurs, plus l’IA gagne en complexité, plus elle pourrait exacerber les tensions entre les économies avancées et les économies émergentes, et créer des inégalités d’accès aux opportunités et aux ressources. Ces risques pourraient être aggravés par le « biais d’automatisation » – la tendance à se fier aux résultats d’une IA parce qu’ils semblent rationnels et neutres – que l’on observe quand des personnes acceptent les résultats d’une IA sans chercher à les contrôler ou presque (Horowitz, 2023[94] ; Alon-Barkat et Busuioc, 2022[95]). Dans le même temps, des outils d’IA peuvent aider, au niveau opérationnel, à interpréter et à questionner des décisions complexes générées par IA et, ce faisant, dissuader de leur accorder une confiance excessive. De façon plus générale, l’inégalité d’accès aux ressources d’IA risque de créer et de creuser des écarts à l’intérieur des pays et entre les pays, par exemple entre les économies émergentes et développées.
L’IA générative suscite des préoccupations concernant la protection des données et de la vie privée. Les grandes quantités de données utilisées pour entraîner l’IA, en particulier l’IA générative, suscitent des préoccupations concernant la protection des données et de la vie privée. Le traitement de données à caractère personnel aux fins de l’entraînement d’un modèle ou leur utilisation pour l’automatisation de la prise de décision peuvent entrer en conflit avec les exigences des réglementations sur la protection des données. Par exemple, quand des données sont utilisées pour de la prise de décision automatisée, le Règlement général sur la protection des données (RGPD) de l’Union européenne exige de l’opérateur qu’il fournisse « des informations utiles concernant la logique sous-jacente », ce qui peut poser des difficultés lorsque l’information nécessaire à l’entraînement de l’IA a été traitée par un réseau de neurones de type « boîte noire » qui n’est ni explicable ni réplicable par l’être humain.
Les droits de propriété intellectuelle sont un autre domaine avec des obstacles et des inconnues. L’IA générative, en particulier, soulève des questions concernant les droits de propriété intellectuelle : contenus non soumis à licence dans des données d’entraînement ; risques de voir les créations d’une IA porter atteinte à un droit d’auteur, une marque ou un brevet ; et interrogations concernant la propriété des travaux générés par IA. L’IA générative est entraînée avec des quantités massives de données collectées sur internet, parmi lesquelles des données soumises au droit d’auteur, souvent sans l’autorisation des détenteurs des droits. La question de savoir si cette pratique peut être autorisée est débattue dans les différentes juridictions, et beaucoup d’affaires sont actuellement en cours d’examen (Zirpoli, 2023[96]). Les décisions légales qui seront prises créeront des précédents et auront un impact sur la capacité du secteur de l’IA générative à entraîner des modèles. Comme tous les systèmes juridiques du monde ne gèrent pas de la même façon les droits de propriété intellectuelle, le traitement des travaux générés par IA varie d’un pays à un autre (Murray, 2023[97]). Même si la plupart des pays et territoires conviennent du fait que des travaux produits par une IA ne peuvent pas bénéficier de la protection du droit d’auteur (Craig, 2021[98]), les avis pourraient évoluer à mesure que l’IA se généralise.
De nombreuses solutions sont proposées pour aider à récolter les bénéfices et atténuer les risques liés à l’IA
Copier le lien de De nombreuses solutions sont proposées pour aider à récolter les bénéfices et atténuer les risques liés à l’IAIl est nécessaire d’agir dès à présent pour parer aux imprévus et dessiner les futurs possibles de l’IA. De nombreuses solutions à même d’aider à récolter les bénéfices de l’IA et à en atténuer les risques ont été proposés par des chercheurs, des experts et des philosophes. L’OCDE, par l’intermédiaire de son Groupe d’experts sur les futurs de l’IA, a recensé près de 70 solutions envisageables, actuellement examinées et analysées2. Les membres du groupe d’experts partagent le même avis concernant les solutions possibles les plus importantes qui figurent dans la liste plus bas :
règles en matière de responsabilité en cas de dommages causés par une IA ;
obligation pour un système d’IA de révéler qu’il utilise l’IA lorsqu’il interagit avec un être humain ;
R-D sur les moyens d’évaluer les capacités et les limitations des systèmes d’IA, et de prévenir les accidents, les mauvaises utilisations et d’autres conséquences dommageables ;
lignes rouges de l’IA, notamment avec des réglementations interdisant certaines utilisations ou certains résultats de l’IA ; et
entraînement et déploiement contrôlés des modèles et systèmes d’IA à haut risque.
Les experts ne sont pas parvenus au même niveau de consensus quant à d’autres solutions telles que des moratoires ou des interdictions frappant l’IA avancée et des déclarations internationales sur la gestion des risques potentiels de l’IAG.
Démystifier les débats sur le maintien du contrôle humain des systèmes d’IA et l’alignement des systèmes d’IA sur les valeurs humaines
Copier le lien de Démystifier les débats sur le maintien du contrôle humain des systèmes d’IA et l’alignement des systèmes d’IA sur les valeurs humainesLe risque que les humains perdent le contrôle des systèmes d’IA a fait l’objet d’une attention particulière en 2023, tant dans les médias que lors du sommet sur la sécurité de l’IA organisé par le Royaume-Uni. Toutefois, le sujet est controversé. Dans un sondage mené en 2023 par le groupe d’experts de l’OCDE sur les futurs de l’IA, les personnes interrogées ont classé la perte de contrôle autant parmi les risques les plus importants que les moins importants de l’IA.
À mesure que les systèmes d’IA deviendront plus performants et qu’on leur confiera davantage la responsabilité de tâches importantes, une absence ou un défaut d’alignement des valeurs et des objectifs de la machine sur ceux de l’être humain pourrait, de l’avis de certains experts, présenter le risque que des systèmes d’IA se mettent à agir contre l’intérêt de l’être humain. Cette inquiétude a donné naissance au champ de recherche de l’« alignement de l’IA », qui vise à identifier des moyens de s’assurer que le comportement des systèmes d’IA est systématiquement cohérent avec les préférences, les valeurs et les intentions humaines (Russell, 2019[99] ; Dietterich et Horvitz, 2015[100] ; Dung, 2023[101] ; Bekenova et al., 2022[102]).
Il peut être difficile de déterminer si les objectifs qu’un système d’IA cherche à atteindre correspondent bien aux intentions et aux buts de ses créateurs. Certains problèmes ont fait leur apparition, comme celui du « piratage de récompense » (reward hacking), lorsqu’un modèle trouve des moyens imprévus et potentiellement dommageables d’atteindre son objectif en exploitant les signaux de récompense (Skalse et al., 2022[103] ; Cohen, Hutter et Osborne, 2022[104]). Par exemple, pour augmenter la participation active des internautes, des systèmes d’IA déployés pour gérer des contenus sur des réseaux sociaux pourraient promouvoir des articles défendant des points de vue extrêmes afin de susciter des réactions, alors que la population bénéficierait davantage (et les préférences humaines réelles peuvent en rendre compte) d’un contenu équilibré et non polarisé (Grallet et Pons, 2023[105]).
Un certain nombre d’experts estiment qu’on ne dispose pas à présent de méthodes suffisamment robustes pour assurer l’alignement des systèmes d’IA sur les valeurs humaines (OCDE, 2022[89]) et que cette question est l’un des principaux « problèmes non résolus » en matière de gouvernance de l’IA (Hendrycks et al., 2022[106]). Dans l’enquête de 2023 du Groupe d’experts de l’OCDE sur les futurs de l’IA, le fait qu’il n’existe pas de méthodes robustes pour assurer l’alignement entre les résultats des systèmes d’IA et les valeurs humaines est classé comme l’un des risques futurs possibles les plus importants. En articulant le concept d’alignement avec celui de contrôle, des membres de la communauté d’expertise de l’IA ont formulé la théorie selon laquelle les conséquences négatives déjà observées aujourd’hui avec des systèmes d’IA relativement basiques pourraient être poussées à l’extrême si des systèmes d’IA hautement performants étaient mis au point, potentiellement selon un processus si rapide que l’être humain ne pourrait pas maintenir le contrôle, par exemple si les machines acquièrent la capacité de s’améliorer elles-mêmes de manière indépendante (Cotton-Barratt et Ord, 2014[107]).
Un autre problème sous-jacent tient au fait que les systèmes d’IA, s’ils peuvent très efficacement poursuivre des objectifs que l’être humain leur a fixés, peuvent parfois le faire d’une façon que les développeurs n’avaient pas anticipée. Pour atteindre leur but, les systèmes d’IA sont susceptibles de créer des sous-objectifs (des moyens au service d’une fin) en contradiction flagrante avec les valeurs et l’intention qui sous-tendaient les objectifs définis par l’être humain. Il a même été avancé que cela pourrait conduire à des machines résistant à leur débranchement, puisque l’état « débranché » peut être considéré comme allant à l’encontre de la réalisation des objectifs (Russell, 2019[99]). Cependant, comme indiqué dans l’encadré 2.2, l’émergence d’une intelligence artificielle générale – le niveau d’avancement dont on théorise qu’il est nécessaire pour de tels scénarios – est hypothétique et très controversée. Des experts expliquent que la réalisation-même d’une IAG pourrait être une tâche extrêmement complexe et difficile, ce qui fait de la notion de « problème de l’alignement » un concept prématuré manquant de définitions et de frontières claires et communément admises (LeCun, 2022[109]). Les recherches dans ce domaine peuvent être ardues, en raison du nombre limité d’articles publiés dans des revues à comité de lecture, du manque de techniques de modélisation appropriées et de l’absence de définitions spécifiques et d’une terminologie standardisée (McLean et al., 2021[110]).
Vers un avenir où l’IA est digne de confiance : considérations intéressant l’action publique
Copier le lien de Vers un avenir où l’IA est digne de confiance : considérations intéressant l’action publiqueLes progrès rapides des capacités de l’IA n’ont pas encore été accompagnés de garanties quant à la fiabilité et à la sécurité de l’IA. L’IA, qui évolue vite, pourrait produire des résultats dangereux, en particulier puisqu’on n’attend pas d’avoir appréhendé toutes les conséquences et risques du déploiement des produits fondés sur l’IA pour les transférer des contextes de recherche vers des environnements d’utilisation grand public. Les techniques d’IA avancées telles que l’apprentissage profond posent des problèmes de sécurité et d’assurance particuliers, parce que les experts de la technologie et les responsables de l’élaboration des politiques n’en comprennent pas pleinement le fonctionnement donc ne peuvent pas avoir recours aux garde-fous traditionnels pour en assurer la fiabilité. Le manque d’explicabilité empêche de comprendre la façon dont les systèmes d’IA génèrent leurs résultats (sous la forme de prédictions, de contenus, de recommandations, ou de décisions), d’où les problèmes en matière de transparence, de robustesse et de responsabilité. Plus les applications d’IA sont à usage général, plus il est difficile d’entraîner les modèles et systèmes à produire une réponse appropriée dans chaque scénario envisageable – au contraire des modèles d’IA dits « étroits », ciblés sur l’optimisation de résultats dans un contexte bien défini.
À l’heure actuelle, on comprend peu et on s’entend peu sur la gravité possible des risques de l’IA à l’avenir. Les experts devraient sensibiliser les responsables du développement des politiques publiques aux risques liés à l’IA et les aider à mieux les comprendre, et identifier les principales sources de ces risques. Pour aider à atténuer certains de ces risques, il faudra élaborer des méthodes plus poussées pour l’interprétation et l’assurance de l’IA, et faire en sorte que les développeurs puissent déployer des modèles et des systèmes qui se comportent comme prévu de façon fiable, même dans des contextes inédits.
Progression des pays sur la voie du déploiement d’une IA digne de confiance
Copier le lien de Progression des pays sur la voie du déploiement d’une IA digne de confianceLes priorités de R-D en IA figurent en bonne place dans les programmes stratégiques nationaux, avec des investissements appelés à se poursuivre dans les années à venir
Copier le lien de Les priorités de R-D en IA figurent en bonne place dans les programmes stratégiques nationaux, avec des investissements appelés à se poursuivre dans les années à venirLes investissements dans la R-D en IA sont l’une des priorités des stratégies nationales en matière d’IA : les pouvoirs publics et les entreprises redoublent d’efforts pour tirer de l’IA un maximum de gains de productivité et de croissance économique. Cette tendance se maintiendra dans les années à venir. Les progrès spectaculaires de la R-D fondée sur l’IA font émerger des modèles économiques, des produits et des secteurs d’activité entièrement nouveaux, ce qui met en exergue l’importance de la recherche fondamentale, en particulier à l’heure où les pays s’emploient à consolider leurs capacités de R-D afin de rattraper les acteurs qui font la course en tête : la Chine, les États-Unis et l’Union européenne (OECD.AI, 2023[111]).
Il est possible de mesurer les progrès de la R-D en IA en examinant le nombre de travaux sur l’IA publiés dans les différents pays. Si les États-Unis et l’Union européenne ont vu leurs publications de recherche sur l’IA (articles parus dans des périodiques, livres, actes de conférence et publications dans des référentiels universitaires tels qu’arXiv) augmenter régulièrement au cours des dernières décennies, la Chine a vu les siennes augmenter spectaculairement, et l’Inde aussi a enregistré des avancées notables (graphique 2.4). Depuis la mi-2019, la Chine a publié plus de travaux de recherche sur l’IA que les États-Unis ou que l’Union européenne. En Inde, le nombre de publications de recherche sur l’IA a plus que doublé depuis 2015 (OECD.AI, 2023[111]).
Mais le nombre de publications sur l’IA ne suffit pas à donner une image complète de la qualité et de l’impact de ces publications. L’analyse du nombre de fois qu’une publication est citée peut être un indicateur approximatif de l’« impact » (un plus grand nombre de citations pouvant indiquer un plus fort impact). Depuis 2022, la part des États-Unis dans le total des publications de recherche sur l’IA à fort impact est en baisse, tandis que celle de la Chine est en hausse régulière : la Chine a d’ailleurs dépassé les États-Unis et l’Union européenne en 2019 (graphique 2.5). Pour ce qui est des institutions qui publient le plus de travaux sur l’IA, on observe qu’en 2023, sept des dix premières étaient implantées en Chine, les trois autres se trouvant respectivement en France, aux États-Unis et en France3 (OECD.AI, 2023[111]).
Les pays allouent des financements importants à la R-D en IA par l’intermédiaire de divers instruments, dont les principaux sont la mise en œuvre de politiques, de plans et de programmes axés sur la R-D en IA, l’établissement d’instituts et de centres nationaux de recherche en IA et la consolidation de réseaux et de plateformes de collaboration au service de la recherche en IA. Les points forts de la Corée, des États-Unis, de la France, de la Türkiye, de l’Union européenne et de la Chine sont présentés ci-dessous.
En 2021, le gouvernement de la Corée a annoncé un Plan de promotion de l’IA sur le thème de « l’IA dans toutes les régions pour notre population ». Il se concentre sur la création d’un « village de l’IA » dans la ville de Gwang-ju, qui servira de base à l’innovation en matière d’IA, ainsi que sur des projets dans tout le pays, en tenant compte des forces et des industries clés de chaque région. (Ministry of Science and ICT, 2021[113])
Les États-Unis, au travers de leur Loi de 2020 relative à l’initiative nationale en faveur de l’IA (National AI Initiative Act), ont pris des mesures pour maintenir leur position de leader du domaine. En 2023, le Bureau de l’initiative nationale sur l’IA (National AI Initiative Office, NAIO) a aidé à l’affectation de plusieurs milliards USD à des projets de R-D en IA liés et non liés à la défense (NCST, 2022[115]), dans le sillage des plans stratégiques nationaux sur la R-D en IA de 2016 et 2019. Le budget de 2023 comprend le financement de la Fondation nationale pour la science (National Science Foundation, NSF) qui soutient depuis longtemps la recherche en IA, notamment en accordant des bourses de recherche dédiées. En 2018, la DARPA (Defense Advanced Research Projects Agency) a annoncé un investissement dans la R-D en IA de plus de 2 milliards USD. Le NSF et le Bureau de la politique scientifique et technologique de la Maison Blanche (White House Office of Science and Technology Policy, OSTP) ont récemment proposé d’établir une ressource nationale de recherche en IA (National AI Research Resource, NAIRR) qui fournirait aux chercheurs un accès à des ressources critiques (capacités de calcul, données, logiciels et ressources d’entraînement) au service de la R-D en IA (NAIRR Task Force, 2023[116]).
En 2018, la France s’est appuyée sur sa Stratégie nationale pour l’IA (SNIA) pour lancer un Programme national de recherche en IA (PNRIA) en allouant à ce programme 45 % du budget de la stratégie, soit environ 700 millions EUR (INRIA, 2023[112]).
Pour sa part, la République de Türkiye finance des projets et des programmes de R-D en IA en lançant des appels à propositions ou en accordant des subventions, y compris pour de la recherche pluridisciplinaire en encourageant la collaboration entre champs de recherche. Le Conseil de la recherche scientifique et technologique de la Türkiye, un organe affilié au ministère de l’Industrie et des Technologies, et l’Institut national de l’IA ont financé plus de 2 000 projets de R-D et d’innovation. Le total des financements accordés à des projets universitaires de R-D dépasse 50 millions USD, tandis que les projets de R-D des entreprises ont reçu plus de 150 millions USD (TÜBITAK, 2023[114]).
L’Union européenne a affecté 1 milliard EUR par an à l’IA, et notamment la R-D en IA, dans le cadre du budget plus large de 100 milliards EUR du programme Horizon Europe et du programme pour une Europe numérique (Commission européenne, 2023[117]). Cela fait suite au Plan coordonné sur l’intelligence artificielle lancé en 2018, dans lequel les États membres soulignaient l’importance de coordonner la R-D en IA pour en maximiser l’impact, en particulier en établissant « des programmes partagés de collaboration entre les entreprises et les universités en matière de R-D et d’innovation en IA » (OECD.AI, 2024[118]).
En Chine, les dépenses de R-D en IA couvrant la recherche fondamentale du ressort de la Fondation nationale des sciences naturelles de Chine et la recherche appliquée menée dans le cadre de grands programmes nationaux de R-D, ont été estimées entre 1.7 et 5.7 milliards USD en 2018. Même s’il est difficile de valider des estimations précises des chiffres relatifs aux années suivantes, certains chercheurs jugent probable que le budget de R-D en IA de la Chine se soit rapproché de la limite haute de la fourchette d’estimation et qu’il ait augmenté au cours des dernières années (Acharya et Arnold, 2019[119]). Cela va dans le sens des ambitions du pays énoncées dans son Plan de 2017 pour une IA de la nouvelle génération, et de son objectif de devenir le premier centre d’innovation du monde d’ici à 2030.
Les pays établissent également des instituts et des centres nationaux de recherche en IA.
L’Australie, à travers son Plan d’action pour l’IA, a prévu 124 millions USD pour créer un Centre national sur l’IA en vue de développer plus avant la recherche en IA et la commercialisation des produits connexes (CSIRO, 2021[120]).
Au Canada, la Stratégie pancanadienne en matière d’IA met un fort accent sur la recherche et le talent ; l’Institut canadien de recherches avancées (ICRA) est chargé de conduire cette stratégie en partenariat avec le Gouvernement du Canada et trois instituts d’IA.
Aux États-Unis, le Programme des instituts nationaux de recherche en IA (National AI Research Institutes Program) conduit par la Fondation nationale pour la science, est à la base du plus grand écosystème de recherche en IA du pays. Il est soutenu par un partenariat noué entre des agences fédérales et des entreprises leaders du secteur (National Science Foundation, 2023[122]).
Le réseau de R-D en IA du Japon a pour mission de favoriser les échanges d’information entre chercheurs en IA et de promouvoir la collaboration en R-D au Japon et à l’étranger.
En Suède, les Instituts de recherche (Research Institutes of Sweden) combinent la recherche sur l’IA avec la recherche interdisciplinaire, un large éventail de bancs d’essai, des pôles d’innovation et des programmes pédagogiques.
En Türkiye, l’Institut national de l’intelligence artificielle, établi en 2020, est conçu pour servir de moteur de la diffusion de l’IA. Faisant le lien entre la recherche universitaire et les besoins des entreprises, il est une partie prenante clé de la mise en œuvre de la Stratégie nationale turque en matière d’IA (2021-25) (Scientific and Technological Research Council of Türkiye, 2023[121]).
Au Brésil, le ministère de la Science, de la Technologie et de l’Innovation et des partenaires vont investir 1 million BRL par an pendant dix ans pour créer jusqu’à huit centres de recherche appliquée en IA, les investissements complémentaires étant apportés par des entreprises partenaires.
En Inde, le Kotak-IISC AI-Machine Learning Centre (KIAC) créé en 2021 propose un cursus d’enseignement consacré à l’IA et effectue des recherches dans le domaine de l’apprentissage automatique (OECD.AI, 2021[123]). D’autres initiatives sont axées sur le renforcement des réseaux de collaboration d’experts et des chercheurs.
Si, à l’échelle mondiale, l’investissement en capital-risque est en baisse depuis 2021, notamment dans le secteur de l’IA, l’investissement dans les start-ups de l’IA générative est en plein essor
Copier le lien de Si, à l’échelle mondiale, l’investissement en capital-risque est en baisse depuis 2021, notamment dans le secteur de l’IA, l’investissement dans les start-ups de l’IA générative est en plein essorEntre 2015 et 2023, l’investissement en capital-risque consacré chaque année dans le monde aux start-ups de l’IA4 a plus que triplé, passant de plus de 31 milliards USD à près de 98 milliards USD (graphique 2.6) (OECD.AI, 2024[124]). En particulier, entre 2020 et 2021, il a été multiplié par plus de 2.3 (de 92 milliards environ à 213 milliards). Ces capitaux étaient en très grande partie destinés à des entreprises d’IA basées aux États-Unis ou en Chine. Les États-Unis ont pour avantage d’avoir un marché solide pour la R-D du secteur privé et les financements en capital-risque : en 2022, ils ont totalisé plus des deux tiers des investissements mondiaux du secteur privé dans les services logiciels et informatiques (Commission européenne, 2023[125]).
Dans le sillage de la contraction du marché mondial du capital-risque, l’investissement en capital-risque dans les entreprises d’IA a connu une forte baisse de plus de 50 % entre 2021 et 2023 (passant de 213 milliards USD à 98 milliards USD (OECD.AI, 2024[124]). Cette évolution témoigne d’une tendance plus générale, les investisseurs choisissant de faire preuve de prudence après le boom technologique de la pandémie de COVID-19, et compte tenu de la hausse des taux d’intérêt et des tensions inflationnistes. L’exception à cette tendance baissière est l’investissement en capital-risque dans les start-ups de l’IA générative, qui a bondi d’1.3 milliard USD en 2022 à 17.8 milliards USD en 2023 (un bond de 1 % à 18.2 % du total des investissements en capital de risque dans le domaine de l’IA), sous l’impulsion majeure de l’investissement de 10 milliards USD de Microsoft dans OpenAI (graphique 2.6) (OCDE, 2023[66]).
L’investissement en capital-risque consacré à l’IA a connu plusieurs phases au cours de la dernière décennie. En 2012 et 2013, il privilégiait les médias et le marketing, ainsi que les plateformes d’hébergement et l’infrastructure informatiques. Les années suivantes, il s’est tourné vers la mobilité et les véhicules autonomes, mais la part de ce secteur dans le total de l’investissement en capital-risque a fortement baissé après 2020. Sans surprise, les années de pandémie ont vu l’investissement en capital-risque consacré à l’IA se réorienter vers le secteur des soins de santé, des médicaments et des biotechnologies (OECD.AI, 2023[126]).
Les pouvoirs publics développent les capacités humaines nécessaires à l’IA en réponse à la croissance de la demande de compétences en IA
Copier le lien de Les pouvoirs publics développent les capacités humaines nécessaires à l’IA en réponse à la croissance de la demande de compétences en IAL’IA est en train de changer la nature du travail. Les pays ont compris que, pour pouvoir en même temps gérer une transition équitable sur le marché du travail et rester dans le peloton de tête de la R-D en lA et de l’adoption de l’IA, il leur faut des politiques solides qui aident à développer les capacités humaines requises et attirer les meilleurs talents. Les effectifs de l’IA ont considérablement augmenté, puisque leur part dans l’emploi total est aujourd’hui près de trois fois supérieure à ce qu’elle était il y a moins de dix ans (Green et Lamby, 2023[127]). Cependant, selon LinkedIn en 2023, il est deux fois plus probable pour un homme que pour une femme d’avoir un travail en rapport avec l’IA ou de déclarer des compétences en IA, ce qui suggère qu’il existe un écart de compétences entre les genres sur le marché mondial du travail lié à l’IA (OCDE, 2023[128]).
Les talents spécialistes de l’IA sont très demandés et demeurent une main d’œuvre extrêmement mobile puisque les pays se font concurrence pour attirer chez eux des membres de ce petit cercle de personnes hautement qualifiées en IA. Par exemple, en 2022, des économies telles que le Luxembourg, le Canada, l’Allemagne et le Japon ont attiré davantage de talents de l’IA qu’elles n’en ont perdu (graphique 2.7). Au contraire, des pays comme l’Inde, la Grèce et la Lituanie ont enregistré un flux net de sorties de talents de l’IA. Cela pourrait indiquer une « fuite des cerveaux » dans le secteur de l’IA, les personnes hautement spécialisées partant pour des pays où les possibilités d’emploi sont meilleures. D’après la mesure de la variation en glissement annuel du nombre de membres de LinkedIn déclarant des compétences en IA, l’Inde a connu une forte croissance de ses talents en IA au cours des dernières années, devant les États-Unis, le Royaume-Uni et le Canada (OECD.AI, 2022[129]).
Les entreprises ayant dépassé les universités dans la course aux modèles d’IA avancée, les pays considèrent de plus en plus les capacités de calcul pour l’IA comme une ressource vitale à gérer avec soin
Copier le lien de Les entreprises ayant dépassé les universités dans la course aux modèles d’IA avancée, les pays considèrent de plus en plus les capacités de calcul pour l’IA comme une ressource vitale à gérer avec soinLa demande de capacités de calcul pour l’IA a considérablement augmenté, comme en témoignent les cotations sur le marché des puces d’IA. En 2021, certains observateurs ont qualifié cette nouvelle tendance de « course à la puce d’IA », le marché des puces d’IA étant estimé à plus de 10 milliards USD, avec des recettes dont on prévoit qu’elles pourraient approcher les 80 milliards USD d’ici à 2027 (Pang, 2022[130]). Les grandes entreprises technologiques ont fortement investi pour se joindre au mouvement.
Cette attention croissante portée à la capacité de calcul pour l’IA tient au fait que les développeurs de l’IA cherchent à obtenir les matériels et logiciels spécialisés dont elles ont besoin pour entraîner des IA avancées. De plus en plus souvent, ce sont les entreprises, et non les universités, qui fournissent et utilisent la capacité de calcul et la main d’œuvre requises pour la recherche en apprentissage automatique de pointe et pour l’entraînement de modèles d’IA dotés d’un grand nombre de paramètres (Ahmed et Wahed, 2020[131] ; Ganguli et al., 2022[132] ; Sevilla et al., 2022[30]). Des disparités en termes de capacité de calcul disponible pourraient apparaître entre les secteurs public et privé et aller en s’aggravant car, de plus en plus souvent, les entités du secteur public ne disposent pas des ressources nécessaires à l’entraînement d’IA avancées (OCDE, 2023[8]).
Sur la base du nombre de « supercalculateurs de pointe », les États-Unis et la Chine sont en tête en termes de capacité de calcul depuis 2012. Selon le Top500 de novembre 20235, 35 économies se partagent ces 500 plus gros superordinateurs : les États-Unis (32 %), la Chine (21 %), l’Allemagne (7 %), le Japon (6 %), la France (5 %) et le Royaume-Uni (3 %), les 26 % restants étant répartis entre 29 économies (Top500, 2023[133]). Les États-Unis et la Chine font la course en tête de liste depuis 2012 ; en Chine, le nombre de supercalculateurs a fortement augmenté depuis 2015.
Analyser où se trouvent les plus gros supercalculateurs du monde par le biais de la liste Top500 est un moyen indirect de mesurer la capacité de calcul dont dispose chaque pays, même si tous les ordinateurs recensés ne sont pas spécialisés et utilisés en IA. Les comparaisons internationales sont néanmoins compliquées par le fait que, depuis quelques années, certaines économies ont ralenti ou se sont abstenues de soumettre des données à la liste ces dernières années. En outre, le fait de compter le nombre de supercalculateurs ne donne qu’une image partielle de la capacité de calcul nationale, car certains supercalculateurs sont plus puissants que d’autres.
Un autre indicateur de la capacité de calcul nationale est la part des ordinateurs les plus puissants dans la liste Top500. Les États-Unis possèdent la plus grande proportion des supercalculateurs les plus puissants6 (53 %), suivis du Japon (10 %) et de la Chine (6 %) (Top500, 2023[133]). Cette concentration des supercalculateurs dans les économies les plus avancées est un indicateur qui met en lumière les avantages et les risques des « économies d’échelle » liées aux matériels d’IA. D’un côté, la mise en commun des ressources dans des centres de calcul à très grande échelle crée des efficiences. D’un autre côté, elle peut également creuser les disparités en termes de capacité de calcul, puisque les économies cheffes de file peuvent investir davantage de ressources en R-D, en retirer davantage de bénéfices, et consolider leur position de leader pour les années à venir.
En plus de faire le bilan de leur capacité nationale de calcul dédiée à l’IA et de leurs besoins en la matière, les pays ont entrepris de lancer des initiatives pour accroître la capacité de calcul dédiée à l’IA dont disposent les établissements de recherche et les universités :
Au Canada, la Stratégie pancanadienne en matière d’IA (2017, 2021) met à profit un réseau national d’instituts de recherche en IA et soutient l’acquisition de capacités de calcul haute performance pour la recherche en IA. En 2020, le pays a lancé son premier processus d’évaluation des besoins de l’infrastructure de recherche numérique (IRN) pour cerner les besoins de l’IRN et y répondre en mettant en place les services nécessaires dans le futur (Alliance de recherche numérique du Canada, 2020[134]).
En Corée, le Projet K-Cloud prévoit la fabrication et le déploiement de puces d’IA de toute première qualité au service de la mise en place d’une infrastructure infonuagique nationale améliorée.
Les États-Unis prévoient de mettre des ensembles de données et des ressources informatiques de pointe à la disposition des équipes de recherche dans le cadre de la ressource NAIRR proposée, soutenue par le décret sur l’IA de 2023 (The White House, 2023[137]).
En 2022, le Royaume-Uni a conduit un examen sur l’avenir de la puissance de calcul (Future of Compute Review) pour examiner ses besoins en matière d’infrastructure de recherche numérique, notamment pour l’IA. L’examen a appelé à la constitution d’un écosystème de calcul intégré et à des investissements conséquents dans une infrastructure publique consacrée à l’IA (The Alan Turing Institute, 2022[136]).
En Türkiye, le Centre de l’informatique haute performance et en grille (Turkish National e-Science e-Infrastructure, TRUBA) est un établissement national qui met des infrastructures de calcul intensif et de stockage de données à la disposition de toutes les institutions et équipe de recherche. Son objectif principal est d’élargir et de renforcer les ressources de calcul et de stockage de données dont disposent les chercheurs à cet effet, il a déployé un réseau à travers tout le pays (Turkish National Science e-Infrastructure, 2023[135]).
Le projet commun EuroHPC de l’Union européenne, établi en 2018, encadre la coordination et le partage de ressources de calcul entre les membres de l’UE et des partenaires, avec un budget pour la période 2021-27 de 7 milliards EUR (Entreprise commune EuroHPC, 2022[138]). À la fin de 2023, la Commission européenne a pris l’engagement d’élargir l’accès à l’infrastructure d’EuroHPC aux start-ups et PME européennes du secteur de l’IA et, plus largement, à toute la communauté de l’IA, dans le cadre d’une initiative consacrée aux start-ups dans le domaine de l’IA (European Commission, 2023[139]). EuroHPC est également à l’origine d’un nouvel appel à la recherche et à l’innovation, qui doit permettre d’établir un centre européen de soutien destiné à aider les utilisateurs européens de l’IA à trouver des capacités de calcul intensif (EuroHPC, 2023[140]).
Œuvrer à l’élaboration de politiques parées pour l’avenir qui garantissent une IA digne de confiance : les pays intègrent des principes fondés sur des valeurs dans leur législation, leur réglementation et leurs normes relatives à l’IA
Copier le lien de Œuvrer à l’élaboration de politiques parées pour l’avenir qui garantissent une IA digne de confiance : les pays intègrent des principes fondés sur des valeurs dans leur législation, leur réglementation et leurs normes relatives à l’IAPremière norme intergouvernementale sur l’IA, les Principes de l’OCDE sur l’IA donnent un coup de projecteur sur ce que les pays membres et économies partenaires de l’OCDE ont considéré à juste titre comme une difficulté et une opportunité naissantes mais fondamentales pour les économies et les sociétés.
Depuis l’adoption de ces Principes en 2019, les initiatives des pouvoirs publics relatives à l’IA se sont multipliées dans les pays de l’OCDE et les économies partenaires. De nombreux pays et territoires disposent aujourd’hui d’un retour d’expérience du déploiement de leurs premières stratégies nationales en matière d’IA. Beaucoup sont en train de passer des principes à la pratique en transposant les Principes de l’OCDE sur l’IA en droit, en réglementation ou en normes à l’échelle nationale. Tandis que les mises en œuvre se poursuivent, des discussions sont menées sur la certification, l’évaluation des normes et les autorités chargées de l’application des lois en rapport avec l’IA, et aussi sur des questions plus ouvertes concernant l’interopérabilité avec les régimes existants de protection de la vie privée, des données et de la propriété intellectuelle.
Le champ de l’IA responsable s’est considérablement élargi. Au sein des administrations, des décisionnaires spécialistes de l’IA s’emparent de la question pour faire en sorte que les avantages de l’IA ne génèrent pas seulement des recettes mais aussi, plus largement, des avantages pour les sociétés et l’environnement. En 2016, quelques pays seulement disposaient d’une stratégie nationale en matière d’IA. En 2024, l’Observatoire de l’OCDE des politiques relatives à l’IA, en sa qualité de pôle de partage d’expériences et de pratiques exemplaires, recensait plus de 1 000 programmes d’action liés à l’IA dans 69 pays et territoires, dont plus de 354 concernant la réglementation de l’IA et les principes directeurs à suivre dans le domaine (OECD.AI, 2024[118]).
Il est de plus en plus fréquent que les pays agissent pour promouvoir la gouvernance de l’IA, par exemple en proposant ou en appliquant des principes, des lois, des règlements ou des normes relatifs à l’IA. Certains pays et territoires ont choisi de penser la réglementation de l’IA dans le cadre d’une approche transsectorielle (Canada, Union européenne, Brésil) tandis que d’autres privilégient une approche plus sectorielle (Royaume-Uni, États-Unis).
En 2019, le Canada s’est doté, à travers sa Directive sur la prise de décisions automatisée, d’une réglementation relative aux systèmes décisionnels automatisés utilisés pour la prestation de services publics, qui recouvre également l’exigence d’une évaluation de l’incidence algorithmique (Gouvernement du Canada, 2019[141]). Le Canada a également présenté la loi de mise en œuvre de la Charte numérique (projet de loi C-27) afin de réglementer l’utilisation de l’IA dans le secteur privé et l’économie. La législation proposée inclut de nouvelles règles pour l’IA dans la Loi sur l’intelligence artificielle et les données (Loi sur la mise en œuvre de la Charte du numérique, 2022[142]) Le Canada souhaite que ses règles et réglementations soient interopérables avec d’autres réglementations émergentes en matière d’IA, telles que celles de l’Union européenne.
Aux États-Unis, la réglementation fédérale juridiquement contraignante comprend des règlements propres à certains secteurs ou domaines. Ils intègrent les principes existants de l’IA dans leur application, comme les initiatives spécifiques à l’IA visant à protéger les consommateurs par la Commission fédérale du commerce (FTC). En 2023, le Président a signé un décret sur le développement et l’utilisation d’une intelligence artificielle sûre, sécure et digne de confiance. Ce décret met en place diverses activités en rapport avec l’établissement de normes de sûreté et de sécurité de l’IA et diverses exigences applicables aux instances de l’administration publique et à d’autres acteurs pour assurer la protection de la vie privée, des droits civils, des consommateurs et des travailleurs, notamment (The White House, 2023[137] ; The White House, 2023[146]).
En 2019, le Japon a publié un ensemble de Principes sociaux en faveur d’une IA centrée sur l’humain, qui s’articule autour de trois valeurs (dignité, diversité et inclusion, durabilité) et comprend sept principes relatifs à l’IA (utilisation centrée sur l’humain, éducation et littéracie, vie privée, concurrence loyale, sécurité, innovation et équité, responsabilité et transparence) (Cabinet Office, 2019[143]). En mai 2023, sous la présidence japonaise du G7, les leaders du G7 ont établi le Processus du G7, dit d’Hiroshima, sur l’IA générative afin d’examiner les possibilités et enjeux associés à l’IA générative. Puis, en décembre 2023, ils ont convenu de publier un Cadre d’action exhaustif relatif au processus d’Hiroshima sur l’IA ainsi que son futur plan de travail pour faire avancer le processus. Ce cadre d’action comprend le rapport de l’OCDE intitulé Vers une communauté de vues à l’échelle du G7 sur l’IA générative, des principes directeurs internationaux, un code de conduite international et une coopération autour de l’IA axée sur des projets (G7 Hiroshima Summit, 2023[144] ; OCDE, 2023[66]).
En 2023, le Royaume-Uni a proposé un cadre réglementaire de l’IA dans un livre blanc intitulé « A Pro-innovation Approach to AI Regulation », qui établit des principes axés sur les résultats à appliquer à l’IA dans des secteurs spécifiques. Le livre blanc propose que les instances de réglementation en tiennent compte lorsqu’elles élaborent des définitions et des politiques propres à ces secteurs. Cette approche promeut également le recours à l’expérimentation réglementaire, sous la forme d’initiatives de type banc d’essai ou bac à sable, afin d’aider les acteurs de l’innovation en IA à commercialiser de nouvelles technologies parallèlement au test des stratégies de réglementation possibles (UK Department for Science, Innovation & Technology, 2023[145]). En novembre 2023, le Royaume-Uni a tenu le Sommet sur la sécurité de l’intelligence artificielle, dont deux des résultats sont la création d’un Institut sur la sécurité de l’IA (AI Safety Institute), pour conduire des recherches avancées en sécurité de l’IA, possiblement en collaboration avec les établissements analogues actuellement créés dans d’autres pays, et la commande d’un rapport sur l’état de l’art en IA (AI Safety Summit, 2023[65]).
En 2021, l’Union européenne a proposé un règlement sur l’intelligence artificielle (la « loi sur l’IA de l’UE ») qui pourrait avoir une influence mondiale. Cette loi sur l’IA de l’UE accompagne le Plan coordonné dans le domaine de l’intelligence artificielle (2018, 2021) qui vise à faire de l’Union européenne un acteur mondial de premier plan de l’innovation dans une IA intégrant des valeurs (centrée sur l’humain, digne de confiance, sûre et durable) et à tenir compte des risques liés à l’IA en prévoyant des règlements et des normes harmonisés. Elle vise à éviter la fragmentation de la réglementation entre les États membres afin de limiter les utilisations dites « à haut risque » de l’IA, et notamment les pratiques qui pourraient menacer les valeurs de l’Union. Elle propose des obligations applicables à certaines applications d’IA à haut risque, l’interdiction d’utiliser les systèmes d’IA répertoriés comme présentant des risques inacceptables (par exemple, la notation sociale par un État), et des obligations en matière de transparence pour les applications d’IA présentant des risques limités (par exemple, pour les agents conversationnels) (Commission européenne, 2021[148]).
Le Brésil a également proposé une réglementation sur l’IA, inspirée de la loi sur l’IA de l’UE et fondée sur trois piliers : protection des droits des personnes sur lesquelles l’IA a un impact, classification des niveaux de risque, et mesures de gouvernance applicables aux fournisseurs d’IA (Agência Senado, 2022[148]).
En 2022, l’autorité de réglementation (Infocomm Media Development Authority, IMDA) de Singapour a lancé A.I. Verify, un système de vérification volontaire de la gouvernance de l’IA, comprenant un cadre et une boîte à outils, qui permet d’évaluer la performance d’un système d’IA par rapport à ce qu’en dit son développeur et aux principes sur l’IA convenus au niveau international (IMDA, 2022[149]).
Les normes techniques joueront un rôle déterminant dans le déploiement d’une IA digne de confiance
Copier le lien de Les normes techniques joueront un rôle déterminant dans le déploiement d’une IA digne de confianceLes instances d’établissement de normes sont bien placées pour aider à bâtir des consensus permettant de promouvoir l’interopérabilité entre juridictions et de réduire l’incertitude sur le marché pour les acteurs qui utilisent ou développent des IA dans les différentes régions du monde. Il sera important d’inviter largement tous les acteurs intéressés à prendre part à l’établissement de ces normes, de sorte que les différents points de vue soient pris en compte, au service d’une gestion efficace des risques. En octobre 2022, le Royaume-Uni a mis en place sa plateforme AI Standards Hub qui vise à promouvoir l’utilisation des normes techniques comme outils de gouvernance de l’IA en fournissant aux entreprises, aux autorités de réglementation et aux organisations de la société civile les informations et les outils pratiques leur permettant d’appliquer efficacement les normes sur l’IA et de contribuer à leur élaboration (AI Standards Hub, 2022[150]). Aux États-Unis, le NIST s’est appuyé sur le Cadre de l’OCDE pour la classification des systèmes d’IA pour élaborer des lignes directrices techniques d’application volontaire relatives à la gestion des risques liés à l’IA, lesquelles ont reçu un large soutien. Dans l’Union européenne, le Comité européen de normalisation électrotechnique (CEN-CENELEC) est chargé de mettre au point des normes techniques en appui à la loi sur l’IA de l’UE. L’Organisation internationale de normalisation (ISO) a élaboré la norme ISO/IEC 23053:2022 établissant un cadre pour les systèmes d’intelligence artificielle qui utilisent l’apprentissage machine, en complément de la norme ISO 31000:2009 sur le management du risque qui s’applique indifféremment à tous les secteurs et activités (ISO, 2022[151] ; ISO, 2009[152]).
Les initiatives visant à encourager la coopération internationale au service d’une IA digne de confiance continuent de se multiplier
Copier le lien de Les initiatives visant à encourager la coopération internationale au service d’une IA digne de confiance continuent de se multiplierDepuis l’adoption des Principes de l’OCDE sur l’IA en 2019, un grand nombre d’initiatives et de partenariats internationaux en faveur d’une IA digne de confiance ont vu le jour :
Les pays de l’OCDE et les économies partenaires ont adopté les Principes de l’OCDE sur l’IA, puis les membres du G20 ont pris les mêmes engagements en adoptant les Principes du G20 relatifs à l’IA. Depuis l’adoption de ces principes, l’OCDE a travaillé avec les membres de la communauté mondiale de l’IA à l’application des Principes de l’OCDE sur l’IA, notamment en lançant l’Observatoire OCDE des politiques relatives à l’IA (OECD.AI) et le Réseau d’experts de l’IA auprès de l’OCDE (ONE AI) au début de 2020. En 2022, l’OCDE a en outre constitué un nouveau Groupe de travail sur la gouvernance de l’intelligence artificielle (AIGO) et continué d’élargir son réseau ONE AI qui compte désormais des centaines de participants dans le monde entier (OECD.AI, 2024[118]).
En 2022, le Conseil de l’Europe a créé un Comité sur l’intelligence artificielle (CAI) chargé d’élaborer un instrument juridique sur l’IA en s’appuyant sur les règles du Conseil concernant les droits humains, la démocratie et l’État de droit (Conseil de l’Europe, 2023[153]).
L’initiative Globalpolicy.ai est une coalition de huit7 organisations intergouvernementales ayant des mandats complémentaires sur l’IA (GlobalPolicy.ai, 2023[154]).
Le Partenariat mondial sur l’intelligence artificielle (PMIA), lancé en juin 2020, est une initiative multipartite qui, par l’intermédiaire de plusieurs groupes de travail, vise la réalisation de projets concrets en vue de favoriser le développement d’une IA responsable sur la base des Principes de l’OCDE sur l’IA (Partenariat Mondial sur l’Intelligence Artificielle (PMIA), 2023[155]).
Enfin, la Recommandation sur l’éthique de l’intelligence artificielle, adoptée par les membres de l’UNESCO en 2021, a établi les principes essentiels d’une IA digne de confiance ainsi qu’une liste de domaines d’action stratégiques (UNESCO, 2022[156]).
Il reste des défis importants à relever pour parvenir à des politiques sur l’IA pour l’avenir qui puissent susciter l’innovation
Copier le lien de Il reste des défis importants à relever pour parvenir à des politiques sur l’IA pour l’avenir qui puissent susciter l’innovationLes cadres de gouvernance de l’IA continueront d’évoluer. De nombreuses questions ouvertes se posent encore, qu’il faudra résoudre pour mettre au point des politiques parées pour l’avenir qui puissent à la fois apporter des réponses suffisantes aux préoccupations soulevées par l’IA, favoriser l’innovation et résister à l’épreuve du temps. Certaines de ces questions sont examinées ci-après : elles témoignent des considérations et arbitrages clés que les responsables de l’action publique se doivent de prendre en compte afin de préparer au mieux l’avenir de l’intelligence artificielle.
Comment les responsables de l’action publique peuvent-ils faire preuve de souplesse et rester en phase avec les avancées rapides de l’IA ? À la fin de 2022, les possibilités de l’IA générative ont surpris nombre de responsables de l’action publique. Il est indispensable de combler ces lacunes de connaissances en promouvant l’interdisciplinarité et la collaboration entre pouvoirs publics, les développeurs et communautés techniques chargés de l’IA afin de développer les capacités requises et de veiller à ce que les administrations publiques restent en phase avec les progrès de l’IA. Cela peut néanmoins s’avérer difficile car les informations divulguées par les acteurs qui développent des IA sont souvent limitées, par exemple quand les technologies liées à l’IA relèvent du secret commercial. À l’avenir, les autorités nationales et régionales de réglementation et de contrôle de l’application des lois auront un rôle déterminant à jouer pour à la fois protéger les développeurs et les utilisateurs contre l’usage abusif des technologies d’IA et créer un terrain propice à l’innovation et aux gains de productivité. Mais il faut du temps pour élaborer des textes législatifs et réglementaires de jure : les grandes entreprises technologiques sont souvent en avance dans la course et dictent des règles de facto tant que les lois et les mécanismes d’exécution n’existent pas encore.
Comment les pays et territoires réglementeront-ils efficacement une IA à usage de plus en plus général, et notamment les modèles de fondation ? Les systèmes d’IA avancés tels que GPT-4 (OpenAI) peuvent être utilisés dans, et adaptés à, un large éventail d’applications pour lesquelles ils n’avaient pas été intentionnellement et spécifiquement conçus, ce qui amène à se demander comment créer des règles adéquates pour les systèmes d’IA qui puissent s’appliquer dans différents contextes. On se préoccupe notamment de savoir de quelle façon élaborer une réglementation qui garantisse la sûreté d’application des systèmes d’IA lorsqu’ils sont utilisés dans des contextes pour lesquels ils n’ont pas été expressément entraînés et testés.
Comment les pays et territoires peuvent-ils éviter que les règles relatives à l’IA ne forment une mosaïque fragmentée et complexe ? La coopération internationale autour des politiques liées à l’IA est importante car, comme l’internet, l’IA ne connaît pas de frontières. Mais les pays cherchent chacun à prendre la tête dans le domaine, ce qui les conduit à mettre en œuvre des moyens d’action différents. Dans un monde où beaucoup d’entreprises ont pour habitude de faire des affaires à l’échelle internationale, il est fondamental que les normes relatives à l’IA soient interopérables, afin d’apporter stabilité et prévisibilité au secteur privé et de donner aux utilisateurs des assurances que les applications de l’IA ne seront pas exploitées à des fins abusives. De plus, une grande partie des modèles et des systèmes d’IA déployés dans le monde dépendent des mêmes ensembles de données et algorithmes pour leur entraînement, ce qui rend de nombreux pays vulnérables aux mêmes problèmes tels que les biais, les risques pour la sécurité, et les risques d’atteinte aux droits humains. Certaines tentatives d’interopérabilité ont déjà eu lieu. Par exemple, il est possible que la loi sur l’IA de l’UE soit à l’origine d’un « effet Bruxelles » dans d’autres juridictions, notamment au Canada et au Brésil où des stratégies fondées sur le risque et d’autres caractéristiques du modèle de l’UE sont actuellement observables. Les organisations internationales comme l’OCDE ont un rôle important à jouer : par exemple, la définition d’un système d’IA établie par l’OCDE devrait former la base de la définition de ce terme dans la loi sur l’IA de l’UE, ce qui favorisera l’interopérabilité.
Comment les utilisations à haut risque ou inacceptables de l’IA seront-elles gérées ? Les pays et territoires ont entrepris d’établir des règles pour promouvoir une IA digne de confiance et protéger les droits fondamentaux, sans créer d’obstacles indus à l’innovation. Si le traitement des utilisations à haut risque ou inacceptables de l’IA différait d’une juridiction à l’autre, cela pourrait créer des vides juridiques et ouvrir la voie à l’arbitrage réglementaire. À cet effet, il pourrait être utile de créer des normes internationales minimales concernant l’atténuation des risques graves et des risques inacceptables. S’agissant de l’avenir, les responsables de l’élaboration des politiques devraient échanger de façon plus large sur les moyens de gérer efficacement tous les risques à long terme ou à plus grande échelle qui s’avèrent fondés, en plus de mettre en œuvre des stratégies pour atténuer et éviter les risques actuels de l’IA tels que les résultats dommageables générés par ses biais.
Comment préserver les droits fondamentaux tels que la protection de la vie privée dans un monde où une IA peut déduire des informations à caractère personnel non divulguées ? Parce qu’elles ont spectaculairement progressé, les capacités d’IA ont davantage la possibilité de faire des prédictions et de tirer des conclusions à partir de grandes quantités de données d’entraînement – ce qu’on appelle l’« inférence ». Cela pose la question de savoir si les systèmes d’IA, parmi lesquels les grands modèles de langue, pourraient attenter à la vie privée des individus en réussissant à déduire des informations à caractère personnel pourtant non partagées avec le modèle pendant son entraînement (Staab et al., 2023[40]). Certains travaux de recherche donnent à penser que les grands modèles de langue actuels peuvent inférer des données à caractère personnel à une échelle inédite et, pour cette raison, appellent à débattre plus largement des conséquences des modèles de langue pour la protection de la vie privée, au-delà de ce que ces modèles peuvent « mémoriser » pendant leur entraînement (Staab et al., 2023[40]). D’autres questions se posent concernant la meilleure façon d’obtenir le consentement des individus lorsque des données à caractère personnel sont utilisées pour l’entraînement d’une IA.
Comment préserver les droits de propriété intellectuelle ? Les accumulations de cas juridiques et les propositions de politiques publiques concernant la protection des droits de propriété intellectuelle, par exemple l’utilisation de matériels protégés par le droit d’auteur pour entraîner des IA, aideront à clarifier ces questions dans les années à venir. Les litiges autour de ces questions montrent qu’il est nécessaire d’élaborer des solutions pour tenir compte de la propriété intellectuelle dans le contexte de l’entraînement des IA. Les responsables de l’action publique peuvent examiner plus avant certains moyens d’action pour garantir à la fois le respect des droits de propriété intellectuelle et la mise à disposition de données en quantité suffisante pour l’entraînement des IA. Ces moyens d’action sont notamment le fait de fixer des règles et des codes de conduite applicables à la pratique d’extraction des données et le fait de favoriser la signature d’accords de partage de données justes et équitables.
Comment les différents secteurs de l’économie appliqueront-ils leur cadre réglementaire actuel à l’utilisation de l’IA ? Avec la généralisation des outils d’IA à presque tous les niveaux de l’économie, il est probable que différents secteurs appliqueront leur cadre réglementaire existant à l’utilisation de ces outils. Ce phénomène, que l’on observe déjà aujourd’hui (initiatives spécifiquement axées sur l’IA destinées à protéger les consommateurs, menées par la FTC aux États-Unis, par exemple), devrait s’accentuer pour donner naissance à d’autres stratégies et approches relatives à la gouvernance de l’IA. Cela soulève la question de la promotion de l’interopérabilité entre les différentes approches sectorielles, parallèlement à leur interopérabilité avec les lois et règlements relatifs à l’IA qui sont en vigueur, au niveau national ou régional.
Comment veillera-t-on à la bonne exécution des nouvelles règles relatives à l’IA ? La bonne exécution des lois relatives à l’IA est une autre question en suspens. Comme on risque de voir émerger de multiples stratégies et panoplies réglementaires, avec des textes obligatoires et volontaires, des normes techniques et des instruments d’action, à la fois à l’échelon national et à l’échelle internationale, il sera d’autant plus difficile de contrôler la bonne application des règles. Par exemple, on ignore comment les autorités de réglementation fixeront les échéances de réalisation des évaluations de conformité, ce qui pourrait entraîner des chevauchements ou des doublons, comme entre les exigences relatives à l’IA et les exigences de protection des données. Les responsables de l’action publique et les autorités de réglementation devront combler les lacunes, éviter les chevauchements et résoudre les contradictions dans les lois et réglementations à mesure que les règles relatives à l’IA sont édictées et appliquées. Les entreprises pourraient être confrontées à des difficultés d’interprétation lors de la mise en œuvre d’exigences réglementaires complexes, et à des coûts de mise en conformité. Les mesures prises pour faire appliquer les lois pourraient aussi nécessiter des normes qui restent à établir.
Incertain et complexe, l’avenir de l’IA laisse entrevoir de grandes opportunités mais aussi des risques importants pour la société et les économies
Copier le lien de Incertain et complexe, l’avenir de l’IA laisse entrevoir de grandes opportunités mais aussi des risques importants pour la société et les économiesIl est indispensable de bâtir une IA digne de confiance, utilisée de façon responsable, si l’on veut aller vers un avenir où l’IA inspire confiance et suscite des changements positifs. Pour que les implications à long terme de l’IA soient mieux comprises, les chercheurs devraient dialoguer et collaborer avec les responsables de l’élaboration des politiques, les praticiens de l’IA, les partenaires du secteur privé et les groupes de la société civile dans des enceintes multipartites telles que l’OCDE afin de s’assurer que leurs conclusions sont pertinentes, accessibles et transposables en mesures concrètes, dans l’optique d’aider à gérer au mieux les possibilités et les risques de l’IA aujourd’hui et demain. Il est indispensable qu’il existe une collaboration interdisciplinaire entre communautés techniques et communautés d’action aux niveaux national et international. Une telle collaboration peut favoriser l’apprentissage mutuel, la confiance, et la coopération entre les différents acteurs et parties prenantes, ainsi que l’élaboration de politiques et de pratiques relatives à l’IA qui soient inclusives, responsables et centrées sur l’humain et qui puissent résister à l’épreuve du temps.
Références
[93] Abid, A., M. Farooqi et J. Zou (2021), « Persistent anti-muslim bias in large language models », arXiv, 2105.05783, http://arxiv.org/abs/2101.05783.
[119] Acharya, A. et Z. Arnold (2019), Chinese public AI R&D spending: Provisional findings, Center for Security and Emerging Technology, https://doi.org/10.51593/20190031.
[148] Agência Senado (2022), « Comissão de juristas aprova texto com regras para inteligência artificial », [Le comité de juristes approuve un texte contenant des règles pour l’intelligence artificielle], 1 décembre, Agência Senado, https://www12.senado.leg.br/noticias/materias/2022/12/01/comissao-de-juristas-aprova-texto-com-regras-para-inteligencia-artificial.
[131] Ahmed, N. et M. Wahed (2020), « The de-democratization of AI: Deep learning and the compute Divide in Artificial Intelligence Research », arXiv, 2010.15581, https://arxiv.org/abs/2010.15581.
[65] AI Safety Summit (2023), The Bletchley Declaration by countries attending the AI Safety Summit, 1-2 novembre 2023, AI Safety Summit, https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023.
[150] AI Standards Hub (2022), AI Standards Hub, site web, https://aistandardshub.org (consulté le 1er mars 2024).
[134] Alliance de recherche numérique du Canada (2020), Évaluation des besoins de l’infrastructure de recherche numérique au Canada, https://alliancecan.ca/fr/initiatives/evaluation-des-besoins-de-linfrastructure-de-recherche-numerique-au-canada.
[55] Allied Market Research (2022), Autonomous mobile robot market: Global opportunity analysis and industry forecast, 2020-2030, Allied Market Research, https://www.alliedmarketresearch.com/autonomous-mobile-robot-market-A16218.
[95] Alon-Barkat, S. et M. Busuioc (2022), « Human–AI interactions in public sector decision making: “Automation bias” and “Selective adherence” to algorithmic advice », Journal of Public Administration Research and Theory, vol. 33/1, pp. 153-169, https://doi.org/10.1093/jopart/muac007.
[51] Anderson, J. (2023), « You can’t code for humanity: AI, algorithms, and the bias of machine learning », Resources for Gender and Women’s Studies: a Feminist Review, vol. 4/1/2, pp. 18-19, https://www.proquest.com/openview/7ca3ec23bcf12fcea7b8e664041536ec/1?cbl=27053&pq-origsite=gscholar&parentSessionId=0X0ibRAd50O3XxOL4riRGVrLr81h619vlKaL6U0u58Y%3D.
[76] Anderson, J. et L. Rainie (2018), « Artificial intelligence and the future of humans », 10 décembre, Pew Research Center, https://www.pewresearch.org/internet/2018/12/10/artificial-intelligence-and-the-future-of-humans.
[102] Bekenova, Z. et al. (2022), « Artificial intelligence, value alignment and rationality », TalTech Journal of European Studies, vol. 12/1, pp. 79-98, https://doi.org/10.2478/bjes-2022-0004.
[44] Benaich, N. et al. (2022), State of AI report, State of AI Report, https://www.stateof.ai (consulté le 28 février 2023).
[90] Bender, E. et al. (2021), « On the dangers of stochastic parrots: Can language models be too big? », FAccT 2021 - Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, Inc., https://doi.org/10.1145/3442188.3445922.
[52] Benedict, T. (2022), The computer got it wrong: Facial recognition technology and establishing probable cause to arrest, thèse, Washington and Lee University School of Law, HeinOnline, https://heinonline.org/HOL/LandingPage?handle=hein.journals/waslee79&div=21&id=&page=.
[9] Bommasani, R. et al. (2021), « On the opportunities and risks of foundation models », arXiv preprint, 2108.07258, https://arxiv.org/pdf/2108.07258.pdf.
[58] Bryant, M. (2019), « How AI and machine learning are changing prosthetics », 29 mars, MedTech Dive, https://www.medtechdive.com/news/how-ai-and-machine-learning-are-changing-prosthetics/550788.
[19] Bubeck, S. et al. (2023), « Sparks of artificial general intelligence: Early experiments with GPT-4 », arXiv, 2302.12712, https://arxiv.org/pdf/2303.12712.pdf.
[50] Buolamwini, J. et T. Gebru (2018), « Gender shades: Intersectional accuracy disparities in commercial gender classification », Proceedings of the 1st Conference on Fairness, Accountability and Transparency, vol. 81, pp. 77-91, http://proceedings.mlr.press/v81/buolamwini18a.html?mod=article_inline.
[143] Cabinet Office (2019), Social principles of human-centric AI, Bureau du Cabinet, Gouvernement du Japon, https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/humancentricai.pdf.
[83] Clarke, S. et J. Whittlestone (2022), « A survey of the potential long-term impacts of AI – How AI could lead to long-term changes in science, cooperation, power, epistemics and values », AIES ’22: Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society, pp. 192-202, https://doi.org/10.1145/3514094.3534131.
[104] Cohen, M., M. Hutter et M. Osborne (2022), « Advanced artificial agents intervene in the provision of reward », AI Magazine, vol. 43/3, pp. 282-293, https://doi.org/10.1002/aaai.12064.
[14] Collins, E. et Z. Ghahramani (18 mai 2021), « LaMDA: Our Breakthrough Conversation Technology », Google blog, https://blog.google/technology/ai/lamda.
[139] Commission européenne (2023), « Commission opens access to EU supercomputers to speed up artificial intelligence development », 16 novembre, Communiqué de presse, Commission européenne, Bruxelles, https://ec.europa.eu/commission/presscorner/detail/en/IP_23_5739.
[125] Commission européenne (2023), Economics of industrial research and innovation (base de données), https://iri.jrc.ec.europa.eu/data# (consulté le 19 mars 2023).
[117] Commission européenne (2023), « Une approche européenne de l’intelligence artificielle », page web, https://digital-strategy.ec.europa.eu/fr/policies/european-approach-artificial-intelligence (consulté le 8 janvier 2024).
[148] Commission européenne (2021), Règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final, European Commission, Bruxelles, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A52021PC0206.
[54] Conmy, A. et al. (2023), « Towards automated circuit discovery for mechanistic interpretability », ArXiv, 2304.14997, https://arxiv.org/pdf/2304.14997.pdf.
[153] Conseil de l’Europe (2023), Revised zero draft [framework] concention on artificial intelligence, human rights, democracy and the rule of law, Comité sur l’intelligence artificielle du Conseil de l’Europe, https://rm.coe.int/fourth-evaluation-round-corruption-prevention-in-respect-of-members-of/1680aa193f.
[107] Cotton-Barratt, O. et T. Ord (2014), « Strategic considerations about different speeds of AI takeoff », 12 août, Future of Humanity Institute, Université d’Oxford, https://www.fhi.ox.ac.uk/strategic-considerations-about-different-speeds-of-ai-takeoff.
[98] Craig, C. (2021), « The AI-copyright challenge: Tech-neutrality, authorship, and the public interest », Osgood Legal Studies Research Paper, 26 January, Osgood Hall Law School, York University, https://ssrn.com/abstract=4014811.
[120] CSIRO (2021), « The National Artificial Intelligence Centre is launched, 14 December, News Release, Department of Industry, Science and Resources », Government of Australia, https://www.industry.gov.au/news/national-artificial-intelligence-centre-launched.
[77] Davenport, T. et R. Kalakota (2019), « The potential for artificial intelligence in healthcare », Future Healthcare Journal, vol. 6/2, pp. 94-98, https://doi.org/10.7861/futurehosp.6-2-94.
[48] Dickson, B. (8 mai 2023), How open-source LLMs are challenging OpenAI, Google, and Microsoft, TechTalks blog, https://bdtechtalks.com/2023/05/08/open-source-llms-moats.
[100] Dietterich, T. et E. Horvitz (2015), « Rise of concerns about AI », Communications of the ACM, vol. 58/10, pp. 38-40, https://doi.org/10.1145/2770869.
[145] DSIT (2023), « A pro-innovation approach to AI regulation », Policy Paper, n° 815, UK Department for Science, Innovation and Technology, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[101] Dung, L. (2023), « Current cases of AI misalignment and their implications for future risks », Synthese, vol. 202/138, https://doi.org/10.1007/s11229-023-04367-0.
[24] Dunlop, C., N. Moës et S. Küspert (2023), « The value chain of general-purpose AI: A closer look at the implications of API and open-source accessible GPAI for the EU AI Act », Ada Lovelace Institute blog, https://www.adalovelaceinstitute.org/blog/value-chain-general-purpose-ai/#content.
[22] Elangovan, A., J. He et K. Verspoor (2021), « Memorization vs. generalization: Quantifying data leakage in NLP performance evaluation », arXiv, 2012.01818, https://arxiv.org/abs/2102.01818.
[140] EuroHPC (2023), « Open call to support HPC-powered artificial intelligence (AI) applications », 28 novembre 2023, Communiqué de presse, EuroHPC, https://eurohpc-ju.europa.eu/open-call-support-hpc-powered-artificial-intelligence-ai-applications-2023-11-28_en.
[138] EuroHPC (2022), Discover EuroHPC JU, site web, https://eurohpc-ju.europa.eu/about/discover-eurohpc-ju_en (consulté le 8 janvier 2024).
[7] EU-US Trade and Technology Council (2023), EU-U.S. terminology and taxonomy for artificial intelligence, First edition, EU-US Trade and Technology Council, https://digital-strategy.ec.europa.eu/en/library/eu-us-terminology-and-taxonomy-artificial-intelligence.
[75] Fariani, R., K. Junus et H. Santoso (2023), « A systematic literature review on personalised learning in the higher education context », Technology, Knowledge and Learning, vol. 28/2, pp. 449–476, https://link.springer.com/article/10.1007/s10758-022-09628-4.
[144] G7 Hiroshima Summit (2023), Hiroshima AI process G7 digital & tech ministers’ statement, G7 Hiroshima Summit, https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document02.pdf.
[132] Ganguli, D. et al. (2022), « Predictability and surprise in large generative models », arXiv, 2202.07785 [cs], https://arxiv.org/abs/2202.07785.
[71] Ghosh, A. (2023), « How can artificial intelligence help scientists? A (non-exhaustive) overview », in Artificial Intelligence in Science : Challenges, Opportunities and the Future of Research, Éditions OCDE, Paris, https://doi.org/10.1787/a8e6c3b6-en.
[154] GlobalPolicy.ai (2023), GlobalPolicy.ai, site web https://globalpolicy.ai/en (consulté le 8 janvier 2024).
[69] Goldman Sachs (2023), « Generative AI could raise global GDP by 7% », 5 avril, Goldman Sachs, https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html.
[141] Gouvernement du Canada (2019), Directive sur la prise de décisions automatisée, Secrétariat du Conseil du Trésor, Gouvernement du Canada, https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592.
[105] Grallet, G. et H. Pons (2023), « Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence », 5 novembre, Le Point, https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php.
[127] Green, A. et L. Lamby (2023), « The supply, demand and characteristics of the AI workforce across OECD countries », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 287, Éditions OCDE, Paris, https://doi.org/10.1787/bb17314a-en.
[17] Heikkilä, M. (2022), « The hype around DeepMind’s new AI model misses what’s actually cool about it », 23 mai, MIT Technology Review, https://www.technologyreview.com/2022/05/23/1052627/deepmind-gato-ai-model-hype.
[92] Heikkilä, M. (2022), « The viral AI avatar app Lensa undressed me—without my consent », 12 décembre, MIT Technology Review, https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-myconsent.
[106] Hendrycks, D. et al. (2022), « Unsolved problems in ML safety », arXiv, 2109.13916, https://arxiv.org/abs/2109.13916.
[94] Horowitz, M. (2023), « Bending the automation bias curve: A study of human and AI-based decision making in national security contexts », arXiv, 2306.16507, https://arxiv.org/abs/2306.16507.
[15] Hugging Face (2022), « BLOOM », page web, https://huggingface.co/docs/transformers/model_doc/bloom (consulté le 27 février 2023).
[5] Hu, K. (2023), « ChatGPT sets record for fastest-growing user base - analyst note », 2 février, Reuters, https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01.
[67] IDC (2022), « IDC Forecasts 18.6% Compound Annual Growth for the Artificial Intelligence Market in 2022-2026 », 29 juillet, International Data Corporation, https://www.idc.com/getdoc.jsp?containerId=prEUR249536522.
[149] IMDA (2022), « About artificial intelligence », page web, https://www.imda.gov.sg/How-We-Can-Help/AI-Verify (consulté le 8 janvier 2024).
[112] INRIA (2023), « Programme national de recherche en intelligence artificielle », page web, https://www.inria.fr/fr/programme-national-recherche-intelligence-artificielle consulté le 8 janvier 2024).
[13] Islam, K. (2022), « Recent advances in vision transformer: A survey and outlook of recent work », arXiv, 2203.01536, https://arxiv.org/abs/2203.01536.
[151] ISO (2022), ISO/IEC 23053:2022, Cadre pour les systèmes d’intelligence artificielle (IA) qui utilisent l’apprentissage machine (ML), International Organization for Standardization, Genève, https://www.iso.org/fr/standard/74438.html.
[152] ISO (2009), « ISO 31000 - Management du risque », page web, https://www.iso.org/fr/iso-31000-risk-management.html.
[23] Jones, E. (2023), « Explainer: What is a foundation model? », 17 juillet, Ada Lovelace Institute, https://www.adalovelaceinstitute.org/resource/foundation-models-explainer.
[60] Kaplan, J. et al. (2020), « Scaling laws for neural language models », arXiv, 2001.98361, https://arxiv.org/pdf/2001.08361.pdf.
[26] Khan, S., A. Mann et D. Peterson (2021), The semiconductor supply chain: Assessing national competititveness, Center for Security and Emerging Technology, https://cset.georgetown.edu/wp-content/uploads/The-Semiconductor-Supply-Chain-Issue-Brief.pdf.
[79] Kreps, S., R. Mccain et M. Brundage (2022), « All the news that’s fit to fabricate: AI-generated text as a tool of media misinformation », Journal of Experimental Political Science, vol. 9/1, pp. 104–17, https://doi.org/10.7910/DVN/1XVYU3.
[57] Laaki, H., Y. Miche et K. Tammi (2019), « Prototyping a digital twin for real time remote control over mobile networks: Application of remote surgery », IEEE, vol. 7, https://doi.org/10.1109/ACCESS.2019.2897018.
[87] Laplante, P. et al. (2020), « Artificial intelligence and critical systems: From hype to reality », Computer, vol. 53/11, pp. 45-52, https://doi.org/10.1109/mc.2020.3006177.
[61] LeCun, Y. (2022), « A path towards autonomous machine intelligence », Openreview.net, https://openreview.net/pdf?id=BZ5a1r-kVsf.
[109] LeCun, Y. (2022), « Publication LinkedIn », https://www.linkedin.com/posts/yann-lecun_i-think-the-phrase-agi-should-be-retired-activity-6889610518529613824-gl2F.
[56] Lim, D. (2019), « Prosthetics controlled by brain implants in the offing, FDA says », 25 février, Dive Brief, https://www.medtechdive.com/news/prosthetics-controlled-by-brain-implants-in-the-offing-fda-says/549042.
[10] Lorenz, P., K. Perset et J. Berryhill (2023), « Initial policy considerations for generative artificial intelligence », Documents de travail de l’OCDE sur l’intelligence artificielle, n° 1, Éditions OCDE, Paris, https://doi.org/10.1787/fae2d1e6-en.
[62] Marcus, G. (2023), « Babbage: is GPT-4 the dawn of true artificial intelligence », The Economist Podcasts, https://podcasts.apple.com/ca/podcast/economist-radio/id151230264?i=1000605454954.
[46] Marr, B. (2022), « The 10 best examples of low-code and no-code AI », Enterprise Tech, Forbes, https://www.forbes.com/sites/bernardmarr/2022/12/12/the-10-best-examples-of-low-code-and-no-code-ai/?sh=3035370574b5 (consulté le 27 février 2023).
[110] McLean, S. et al. (2021), « The risks associated with Artificial General Intelligence: A systematic review », Journal of Experimental & Theoretical Artificial Intelligence, vol. 35/5, pp. 649-663, https://doi.org/10.1080/0952813x.2021.1964003.
[16] Merritt, R. (2022), « What is a transformer model? », 25 mars, NVIDIA Blog, https://blogs.nvidia.com/blog/2022/03/25/what-is-a-transformer-model.
[47] Meta (2023), « Meta and Microsoft introduce the next generation of Llama », 18 juillet, Meta, https://about.fb.com/news/2023/07/llama-2.
[82] Metz, C. (2023), « What exactly are the dangers posed by A.I.? », 7 mai, The New York Times, https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt.html.
[113] Ministry of Science and ICT (2021), « Plan to spread the use of AI across all regions and industries’ established », Communiqué de presse, https://www.korea.net/koreanet/fileDown?fileUrl=/upload/content/file/dc52b9c0fb0f4958812920c40ab4c164_20211102092303.pdf&fileName=211101+Plan+to+spread+the+use+of+AI+across+all+regions+and+industries+established.pdf.
[74] Molenaar, I. (2021), « Personalisation of learning: Towards hybrid human-AI learning technologies » in OECD Digital Education Outlook 2021: Pushing the Frontiers with Artificial Intelligence, Blockchain and Robots, Éditions OCDE, Paris, https://www.oecd-ilibrary.org/education/oecd-digital-education-outlook-2021_589b283f-en.
[20] Morris, M. et al. (2023), « Levels of AGI: operationalizing progress on the path to AGI », arXiv, 2311.02462, https://arxiv.org/abs/2311.02462.
[36] Mulligan, D. et al. (2021), « Confidential computing - a brave new world », 2021 International Symposium on Secure and Private Execution Environment Design (SEED), https://doi.org/10.1109/SEED51797.2021.00025.
[97] Murray, M. (2023), « Generative and AI authored artworks and copyright law », Hastings Communications and Entertainment Law Journal, vol. 45, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4152484.
[116] NAIRR Task Force (2023), Strengthening and democratizing the U.S. artificial intelligence innovation ecosystem: An implementation plan for a National Artificial Intelligence Research Resource, National Artificial Intelligence Research Resource Task Force, Washington DC.
[122] National Science Foundation (2023), « National AI research institutes », page web, https://nsf-gov-resources.nsf.gov/2023-08/AI_Research_Institutes_Map_2023_0.pdf?VersionId=TJXMSgV4U7Zgmad3iwYkg8Zffbm7KyNM (consulté le 1er novembre 2024).
[115] NCST (2022), The networking & information technology R&D program and the National Artificial Intelligence Initiative Office, National Science & Technology Council, Government of the United States, https://www.nitrd.gov/pubs/FY2023-NITRD-NAIIO-Supplement.pdf.
[59] Newton, E. (2023), « Will neuromorphic-controlled robots soon become a reality? », 30 janvier, Tech Informed, https://techinformed.com/will-neuromorphic-controlled-robots-soon-become-a-reality.
[91] NIST (2022), Towards a standard for identifying and managing bias in artificial intelligence, Édition spéciale (NIST-SP), National Institute of Standards and Technology, Gaithersburg, MD, https://doi.org/10.6028/NIST.SP.1270, https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=934464.
[35] O’Brien, C. (2020), « Why Intel believes confidential computing will boost AI and machine learning », 2 décembre, Venture Beat, https://venturebeat.com/ai/why-intel-believes-confidential-computing-will-boost-ai-and-machine-learning.
[64] OCDE (à paraître), « Exploring artificial intelligence futures: Prospective milestones, risks and benefits » Documents de travail de l’OCDE sur l’intelligence artificielle, Éditions OCDE, Paris, https://doi.org/10.1787/dee339a8-en.
[6] OCDE (2024), « Explanatory memorandum on the updated OECD definition of an AI system », Documents de travail de l’OCDE sur l’intelligence artificielle, n° 8, Éditions OCDE, Paris, https://doi.org/10.1787/623da898-en.
[8] OCDE (2023), « A blueprint for building national compute capacity for artificial intelligence », Documents de travail de l’OCDE sur l’économie numérique, n° 350, Éditions OCDE, Paris, https://doi.org/10.1787/876367e3-en.
[4] OCDE (2023), « AI language models: Technological, socio-economic and policy considerations », Documents de travail de l’OCDE sur l’économie numérique, n° 352, Éditions OCDE, Paris, https://doi.org/10.1787/13d38f92-en.
[70] OCDE (2023), Artificial intelligence in science : Challenges, opportunities and the future of research, Éditions OCDE, Paris, https://doi.org/10.1787/a8d820bd-en.
[34] OCDE (2023), « Emerging privacy-enhancing technologies : Current regulatory and policy approaches », Documents de travail de l’OCDE sur l’économie numérique, n° 351, Éditions OCDE, Paris, https://doi.org/10.1787/bf121be4-en.
[86] OCDE (2023), Perspectives de l’emploi de l’OCDE 2023 : Intelligence artificielle et marché du travail, Éditions de l’OCDE, Paris, https://doi.org/10.1787/08785bba-en.
[66] OCDE (2023), Processus du G7, dit d’Hiroshima, sur l’intelligence artificielle générative : Vers une vision commune à l’échelle du G7 sur l’IA générative, Éditions OCDE, Paris, https://doi.org/10.1787/678bee9f-fr.
[43] OCDE (2023), « Risques de sécurité dans l’intelligence artificielle », Forum mondial sur la sécurité numérique pour la prospérité, https://www.oecd.org/digital/global-forum-digital-security/GFDSP-2023-agenda_FR.pdf.
[25] OCDE (2023), « Summary of the OECD-MIT virtual roundtable on the future of artificial intelligence (AI) », OCDE, Paris, https://wp.oecd.ai/app/uploads/2023/03/OECD-MIT-Workshop-1.pdf.
[85] OCDE (2023), « The shifting landscapte of AI », 27 mars, présentation du Professeur Stuart Russell, Conférence internationale de 2023 sur l’IA sur le marché de l’emploi, l’innovation, la productivité et les compétences (AI-WIPS), https://www.oecd-events.org/ai-wips-2023.
[81] OCDE (2022), Instaurer la confiance et renforcer la démocratie : Préparer le terrain pour l’action gouvernementale, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/34a56a87-fr.
[28] OCDE (2022), « Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint », Documents de travail de l’OCDE sur l’économie numérique, n° 341, Éditions OCDE, Paris, https://doi.org/10.1787/7babf571-en.
[89] OCDE (2022), « Summary of OECD expert discussion on future risks from artificial intelligence », OCDE, Paris, https://wp.oecd.ai/app/uploads/2023/03/OECD-Foresight-workshop-notes-1.pdf.
[49] OCDE (2021), « State of implementation of the OECD AI Principles: Insights from national AI policies », Documents de travail de l’OCDE sur l’économie numérique, n° 311. Éditions OCDE, Paris, https://doi.org/10.1787/1cd40c44-en.
[3] OCDE (2019), L’intelligence artificielle dans la société, Éditions OCDE, Paris, https://doi.org/10.1787/b7f8cd16-fr.
[27] OCDE (2019), « Measuring distortions in international markets: The semiconductor value chain », Documents de travail de l’OCDE sur la politique commerciale, n° 234, Éditions OCDE, Paris, https://doi.org/10.1787/8fe4491d-en.
[78] OECD.AI (2024), « AI Incidents Monitor (AIM) », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/en/incidents (consulté le 14 février 2024).
[124] OECD.AI (2024), « Données en temps réel : investissements en IA », Observatoire de l’OCDE sur l’IA (base de données),https://oecd.ai/fr/data?selectedArea=investments-in-ai-and-data,%20https:%2F%2Foecd.ai%2Fen%2Fdata%3FselectedArea%3Dinvestments-in-ai-and-data (consulté le 10 mars 2024).
[33] OECD.AI (2024), « Ensembles de données d’entraînement Hugging Face par langue », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/en/data?selectedArea=ai-models-and-datasets (consulté le 10 mars 2024).
[118] OECD.AI (2024), « Politiques et stratégies nationales en matière d’IA », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/fr/dashboards/overview (consulté le 10 mars 2024).
[128] OECD.AI (2023), « Données en temps réel : concentration des talents en IA par pays et sexe », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/en/data?selectedArea=ai-jobs-and-skills&selectedVisualization=ai-talent-concentration-by-country-and-gender (consulté le 1er novembre 2023).
[129] OECD.AI (2023), « Données en temps réel : emplois et compétences en IA », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/en/data?selectedArea=aijobs-and-skills&selectedVisualization=ai-talent-concentration-by-country (consulté le 14 février 2023).
[111] OECD.AI (2023), « Données en temps réel : recherche en IA », Observatoire de l’OCDE sur l’IA (base de données),https://oecd.ai/fr/data?selectedArea=ai-research&selectedVisualization=ai-publications-by-country-over-time%20and%20https:%2F%2Foecd.ai%2Fen%2Fdata%3FselectedArea%3Dai-research&selectedVisualization=ai-publication-time-series-by-institution (consulté le 13 mars 2023).
[126] OECD.AI (2023), « Investissements en capital-risque dans l’IA par pays », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/fr/data?selectedArea=investments-in-ai-and-data&selectedVisualization=vc-investments-in-ai-by-country (consulté le 19 mars 2023).
[45] OECD.AI (2023), « Survol des tendances et données », Observatoire de l’OCDE sur l’IA (base de données), https://oecd.ai/fr/trends-and-data (consulté le 27 février 2023).
[123] OECD.AI (2021), Observatoire de l’OCDE sur l’IA, https://oecd.ai/fr (consulté le 30 septembre 2022).
[38] Office of the Privacy Commissioner of Canada (2022), « When what is old is new again – The reality of synthetic data », OPC Privacy Tech-Know blog, https://priv.gc.ca/en/blog/20221012/?id=7777-6-493564.
[29] OpenAI (2018), « AI and compute », Open AI blog, https://openai.com/blog/ai-and-compute.
[130] Pang, G. (2022), « The AI chip race », IEEE Intelligent Systems, vol. 37/2, https://ieeexplore.ieee.org/document/9779606.
[142] Parlement du Canada (2022), Loi sur la mise en œuvre de la Charte du numérique, Parlement du Canada, https://www.parl.ca/legisinfo/fr/projet-de-loi/44-1/c-27.
[155] Partenariat Mondial sur l’Intelligence Artificielle (PMIA) (2023), « About », site web, https://gpai.ai/about (consulté le 8 janvier 2024).
[18] Reed, S. et al. (12 mai 2022), « A generalist agent », DeepMind blog, https://www.deepmind.com/publications/a-generalist-agent.
[84] Russell, S. (2021), « Living with artificial intelligence », The Reith Lectures, BBC Radio 4, https://www.bbc.co.uk/programmes/m001216k.
[99] Russell, S. (2019), Human compatible: Artificial intelligence and the problem of control, Viking.
[11] Russell, S. et P. Norvig (2016), Artificial intelligence: A modern approach, Pearson Education, Inc.
[42] Sadasivan, V. et al. (2023), « Can AI-generated text be reliably detected? », arxiv, 303.11156, https://doi.org/10.48550/arXiv.2303.11156.
[31] Schuman, C. et al. (2022), « Opportunities for neuromorphic computing algorithms and applications », Nature, vol. 2, https://doi.org/10.1038/s43588-021-00184-y.
[121] Scientific and Technological Research Council of Türkiye (2023), « Who we are », page web, https://bilgem.tubitak.gov.tr/en/yze-corporate (consulté le 8 janvier 2024).
[80] Sessa, M. (2022), « What is gendered disinformation? », Israel Public Policy Institute, https://www.ippi.org.il/what-is-gendered-disinformation.
[30] Sevilla, J. et al. (2022), « Compute trends across three eras of machine learning », arXiv, 2202.05924, https://arxiv.org/abs/2202.05924.
[53] Shen, X. (2018), « Facial recognition camera catches top businesswoman « jaywalking » because her face was on a bus », 22 novembre, Abacus, https://www.scmp.com/abacus/culture/article/3028995/facial-recognition-camera-catches-top-businesswoman-jaywalking.
[41] Shumailov, I. et al. (2023), « The curse of recursion: Training on generated data makes models forget », arXiv pre-print, 2305.17493, https://arxiv.org/abs/2305.17493.
[103] Skalse, J. et al. (2022), « Defining and characterizing reward hacking », arXiv, 2209.13085 https://arxiv.org/abs/2209.13085.
[40] Staab, R. et al. (2023), « Beyond memorization: Violating privacy via inference with large language models », arXiv, 2310.07298v1, https://arxiv.org/pdf/2310.07298v1.pdf.
[39] Stadler, T., B. Oprisanu et C. Troncoso (2020), « Synthetic data -- Anonymisation Groundhog Day », Proceedings of the 31st USENIX Security Symposium, Security 2022, pp. 1451-1468, https://doi.org/10.48550/arxiv.2011.07018.
[72] Stanford (2023), Artificial Intelligence Index Report 2023, Stanford University, https://aiindex.stanford.edu/report.
[21] Suleyman, M. (2023), « Mustafa Suleyman: My new Turing test would see if AI can make $1 million », 14 juillet, MIT Review, https://www.technologyreview.com/2023/07/14/1076296/mustafa-suleyman-my-new-turing-test-would-see-if-ai-can-make-1-million.
[1] The Alan Turing Institute (2023), « First workshop on multimodal AI », page web, https://www.turing.ac.uk/events/first-workshop-multimodal-ai#:~:text=Multimodal%20AI%20combines%20multiple%20types,finance%2C%20robotics%2C%20and%20manufacturing (consulté le 8 janvier 2024).
[136] The Alan Turing Institute (2022), UK AI research infrastructure requirements review, https://www.turing.ac.uk/work-turing/uk-ai-research-infrastructure-requirements-review.
[137] The White House (2023), Executive order on the safe, secure, and trustworthy development and use of artificial intelligence, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence.
[146] The White House (2023), « President Biden issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence », 30 octobre (factsheet), The White House, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence.
[68] Thormundsson, B. (2022), « Artificial Intelligence (AI) market size/revenue comparisons 2018-2030 », 26 octobre, Statista, https://www.statista.com/statistics/941835/artificial-intelligence-market-size-revenue-comparisons.
[133] Top500 (2023), November 2023 List, site web http://www.top500.org (consulté le 8 janvier 2024).
[114] TÜBITAK (2023), « Centre of Excellence support program », site web, https://www.tubitak.gov.tr/en/funds/academy/national-support-programmes, https://bilgem.tubitak.gov.tr/en/yze-ecosystem-call (8 janvier 2024).
[2] Turing, A. (2007), « Computing machinery and intelligence », dans Parsing the Turing Test, Springer, https://link.springer.com/chapter/10.1007/978-1-4020-6710-5_3.
[135] TRUBA (2023), TRUBA, site web, https://www.truba.gov.tr/index.php/en/main-page (consulté le 8 janvier 2024).
[156] UNESCO (2022), Recommendation on the Ethics of Artificial Intelligence, UNESCO, Paris, https://unesdoc.unesco.org/ark:/48223/pf0000381137.
[12] Vaswani, A. et al. (2023), « Attention is all you need », ArXiv, 1706.03762, https://arxiv.org/abs/1706.03762.
[63] Villalobos, P. et al. (2022), « Will we run out of data? An analysis of the limits of scaling datasets in machine learning », https://arxiv.org/abs/2211.04325.
[32] Wu, J. et al. (2023), « Analog optical computing for artificial intelligence », Engineering, vol. 10/133-145, https://doi.org/doi.org/10.1016/j.eng.2021.06.021.
[73] Yang, M. (2023), « Scientists use AI to discover new antibiotic to treat deadly superbug », 25 mai, The Guardian, https://www.theguardian.com/technology/2023/may/25/artificial-intelligence-antibiotic-deadly-superbug-hospital.
[37] Zewe, A. (2022), « Collaborative machine learning that preserves privacy », 7 septembre, MIT News, https://news.mit.edu/2022/collaborative-machine-learning-privacy-0907.
[96] Zirpoli, C. (2023), Generative Artificial Intelligence and Copyright Law, Congress, United States, https://crsreports.congress.gov.
[88] Zwetsloot, R. et A. Dafoe (2019), « Thinking about risks from AI: Accidents, misuse and structure », 11 février, Lawfare, https://www.lawfaremedia.org/article/thinking-about-risks-ai-accidents-misuse-and-structure.
Notes
Copier le lien de Notes← 1. « Les données de synthèse sont générées à partir de données/processus et d’un modèle entraîné pour reproduire les caractéristiques et la structure des données d’origine afin de parvenir à une distribution analogue. La mesure dans laquelle ces données de synthèse sont une approximation exacte des données d’origine est une mesure de l’utilité de la méthode et du modèle. » (traduction libre) (EU-US Trade and Technology Council, 2023[7]).
← 2. L’ensemble initial des solutions possibles pour les futurs de l’IA peut être consulté à l’adresse : https://easyretro.io/publicboard/Lg97hwaJe8MJWJTe5uKGfjjtInh1/f63b59a0-0531-456e-82f2-d9bea1463fb9.
← 3. Au moment de la rédaction du présent document, les institutions de recherche figurant en tête de liste en 2023 d’après des données d’OpenAlex consultables sur OECD.AI étaient l’Académie chinoise des sciences (Chine), le Centre national de la recherche scientifique (France), l’Université de Tsinghua (Chine), l’Université Jiao Tong de Shanghai (Chine), l’Université de Zhejiand (Chine), l’Institut de technologie de Harbin (Chine), l’Université Beihang (Chine), l’Université des sciences et technologies de Huazhong (Chine), l’Université de Stanford (États-Unis) et la Max Planck Society (Allemagne). Les publications correspondantes sont en anglais et aussi dans d’autres langues. Les données sont consultables à l’adresse : https://oecd.ai/en/data?selectedArea=ai-research&selectedVisualization=ai-publication-time-series-by-institution.
← 4. Les start-ups de l’IA ont été recensées d’après la classification transsectorielle et verticale Preqin et d’après une analyse automatisée, conduite par l’OCDE, des mots-clés contenus dans la description des activités des entreprises. Ces mots-clés (en anglais) liés à l’IA étaient des mots-clés génériques tels que artificial intelligence et machine learning ; des mots-clés liés aux techniques d’IA tels que neural network, deep learning et reinforcement learning ; et des mots-clés faisant référence aux domaines d’application de l’IA tels que computer vision, predictive analytics, natural language processing et autonomous vehicles.
← 5. Depuis quelques années, on procède de plus en plus à des mises à jour des systèmes de supercalculateurs pour pouvoir aussi y exécuter des flux de calculs liés à l’IA. Pour autant, le Top500 établi ne permet pas de distinguer les supercalculateurs en fonction de leur capacité de calcul dédiée à l’IA. Il convient donc d’user de prudence quand on cherche à tirer des conclusions de ce palmarès puisqu’il est fondé sur une méthodologie comparative (Linpack) plutôt que sur une définition précise du terme « supercalculateur ». En d’autres termes, tout supercalculateur peut figurer au palmarès s’il est capable de résoudre un ensemble d’équations linéaires en arithmétique à virgule flottante. Par ailleurs, la participation à l’élaboration de ce palmarès est volontaire ; comme certains pays ont depuis quelques années ralenti ou interrompu leur contribution, les comparaisons internationales sur la base de ces données sont donc limitées et à examiner avec réserve. L’analyse de ce Top500 peut être un moyen indirect d’observer les disparités en termes de capacité de calcul qui sont en train d’apparaître ou de se creuser entre les économies, mais il convient de la compléter avec d’autres analyses propres à l’IA à mesure que les pays se penchent sur leurs besoins spécifiques en matière de capacité de calcul pour l’IA.
← 6. Performance maximale atteinte mesurée par Rmax en milliers de milliards (téra) d’opérations en virgule flottante par seconde (floating-point operations per second, flops), c’est-à-dire en téraflops.
← 7. Les organisations membres sont les suivantes : Agence des droits fondamentaux de l’Union européenne, Banque interaméricaine de développement, Banque mondiale, Commission européenne, Conseil de l’Europe, OCDE, Organisation des Nations Unies, UNESCO.