Le présent chapitre décrit les nouvelles possibilités offertes dans plusieurs secteurs où les technologies de l’intelligence artificielle connaissent une percée rapide, à savoir les transports, l’agriculture, la finance, le marketing et la publicité, la science, les soins de santé, la justice pénale, la sécurité, le secteur public et les applications de réalité augmentée et de réalité virtuelle. Les systèmes d’IA mis au point dans ces domaines peuvent détecter des schémas dans de gigantesques volumes de données et modéliser des systèmes complexes interdépendants pour produire des résultats synonymes d’amélioration de l’efficience de la prise de décision, de réduction des coûts et d’optimisation des ressources. La section relative à l’IA dans les transports a été préparée par l’Internet Policy Research Initiative du Massachusetts Institute of Technology. Plusieurs autres sections ont été rédigées sur la base de travaux de l’OCDE, notamment ceux du Comité de la politique de l’économie numérique et de son Groupe de travail sur la sécurité et la vie privée dans l’économie numérique, du Comité de la politique scientifique et technologique, de l’initiative e-Leaders du Comité de la gouvernance publique, ainsi que du Comité de la politique à l’égard des consommateurs et de son Groupe de travail sur la sécurité des produits de consommation.
L’intelligence artificielle dans la société
3. Applications de l’intelligence artificielle
Abstract
L’IA dans le secteur des transports avec les véhicules autonomes
Les systèmes d’IA font leur entrée dans tous les secteurs de l’économie. Mais c’est dans celui des transports qu’est en train de se produire l’un des plus grands changements de paradigme, avec la transition vers les véhicules autonomes.
Impacts économiques et sociaux des véhicules autonomes
Le secteur des transports est l’un des plus importants de la zone OCDE : en 2016, il a totalisé 5.6 % de son produit intérieur brut (OCDE, 2018[1])1. Le déploiement des véhicules autonomes pourrait avoir un impact économique majeur en réduisant le nombre d’accidents et les problèmes de congestion et en générant d’autres bénéfices. On estime qu’un taux d’adoption de 10 % de véhicules autonomes aux États-Unis permettrait de sauver 1 100 vies et d’économiser 38 milliards USD par an. À un taux de 90 %, on atteindrait 21 700 vies sauvées et 447 milliards USD d’économies par an (Fagnant et Kockelman, 2015[2]).
Des travaux de recherche plus récents calculent, pour plusieurs modes de transport en Suisse, des différences significatives de coût par kilomètre avec ou sans automatisation des véhicules (Bösch et al., 2018[3]). Les services de taxi économiseraient le plus. Les propriétaires de voitures particulières bénéficieraient d’une moindre baisse des coûts (Graphique 3.1). Les gains des premiers découleraient bien sûr principalement de l’élimination des salaires des chauffeurs.
Évolution du marché
Le marché des transports est actuellement très fluctuant sous l’effet de trois récentes évolutions majeures : la mise au point des véhicules autonomes, l’essor des services de partage de véhicule ou de trajet (autopartage, covoiturage, transport avec chauffeur, etc.), et la transition au profit des véhicules électriques. Deux tendances expliquent que les constructeurs automobiles historiques peinent à redéfinir leurs stratégies. Premièrement, les services de partage de véhicule ou de trajet sont une solution de transport que les usagers, en particulier les plus jeunes, jugent de plus en plus viable. Deuxièmement, il n’est pas sûr que le principe traditionnel de la propriété privée d’un véhicule continue d’exister à long terme. Les constructeurs de modèles haut de gamme expérimentent déjà de nouveaux modèles économiques fondés par exemple sur des services d’abonnement : en contrepartie d’une redevance fixe mensuelle, la clientèle des programmes « Access by BMW », « Mercedes Collection » ou « Porsche Passport » peut se procurer un véhicule ou en changer quand elle le souhaite.
Les entreprises technologiques, des multinationales aux startups, se lancent dans la conception de systèmes de véhicules autonomes, de solutions de partage de véhicule ou de trajet, ou de véhicules électriques – ou une combinaison des trois. Selon Morgan Stanley, la valorisation de la division Waymo d’Alphabet pourrait atteindre 175 milliards USD à elle seule, du fait principalement de son potentiel dans le secteur des services de livraison et de transport routier autonome de marchandises (Ohnsman, 2018[4]). De son côté, la récente startup Zoox, spécialisée dans les systèmes d’IA destinés à la conduite en zone urbaine dense, a pu lever 790 millions USD, ce qui situe actuellement sa valorisation à 3.2 milliards USD2 avant même la production de revenus (voir chapitre 2, section « Capital-investissement dans les startups spécialisées dans l’IA »). Ces démarches des entreprises technologiques viennent s’ajouter aux investissements des constructeurs et équipementiers historiques dans les applications automobiles des technologies de l’IA.
Étant donné la complexité des systèmes de véhicules autonomes, les entreprises tendent à agir dans leur propre domaine d’expertise, puis à nouer des partenariats avec des spécialistes d’autres domaines. Par exemple, Waymo a mis à profit sa maîtrise des gros ensembles de données et de l’apprentissage automatique pour devenir l’une des entreprises leaders du marché des véhicules autonomes mais, comme elle ne construit pas elle-même de voitures, elle a choisi de s’associer à des partenaires comme General Motors (GM) et Jaguar (Higgins et Dawson, 2018[6]).
Les grands constructeurs automobiles concluent également des accords avec des startups plus petites afin d’avoir accès à des technologies de pointe. Ainsi, en octobre 2018, le groupe Honda a annoncé qu’il investissait 2.75 milliards USD dans l’entreprise à risque GM’s Cruise, engagée dans le développement de véhicules autonomes (Carey et Lienert, 2018[7]). Les sociétés de transport avec chauffeur comme Uber investissent également beaucoup dans les véhicules autonomes, et mettent en place des partenariats avec des universités techniques de premier plan (CMU, 2015[8]). Cependant, ces évolutions posent la question de la responsabilité en cas d’accident, en particulier quand plusieurs parties prenantes ont la charge de différentes parties du système.
La diversité des acteurs prêts à miser sur les capacités des véhicules autonomes est confirmée par le nombre de brevets déposés par les différents groupes d’entreprises dans le domaine (Graphique 3.2). Les grands constructeurs investissent considérablement dans la propriété intellectuelle ; ils sont suivis de près par les équipementiers et les entreprises technologiques.
Évolution de la technologie
À la base, les véhicules autonomes sont dotés de systèmes de capteurs et de processeurs de calcul d’un genre nouveau, qui rendent d’autant plus complexe le processus d’extraction, de transformation et de chargement de leur système de données. Dans tous les domaines clés connexes, l’innovation, soutenue par de hauts niveaux d’investissement, est en plein essor. Par exemple, il est désormais possible de cartographier l’environnement du véhicule à l’aide de détecteurs de lumière et de distance moins coûteux. De nouvelles technologies de vision par ordinateur permettent en outre de suivre les yeux et la concentration de la personne au volant, pour repérer les moments où elle pourrait être distraite. En bout de chaîne, après la collecte et le traitement des données, l’IA ajoute une étape supplémentaire : la prise de décisions opérationnelles en une fraction de seconde.
Pour mesurer les progrès du développement des véhicules autonomes, on utilise généralement la norme de référence à six niveaux élaborée par la Society of Automotive Engineers (SAE) (ORAD, 2016[9]). Les six niveaux en question sont les suivants :
Niveau 0 (pas d’automatisation) : La conduite est entièrement à la charge d’un être humain. Le véhicule ne contient aucun système automatisé de direction, d’accélération, de freinage, etc.
Niveau 1 (assistance à la conduite) : Il existe une automatisation des fonctions de base, mais le conducteur ou la conductrice garde en permanence le contrôle de la plupart des fonctions. À ce niveau, précise la SAE, le contrôle latéral (direction) ou le contrôle longitudinal (par exemple, accélération) peuvent être automatiques, mais pas simultanément.
Niveau 2 (automatisation partielle de la conduite) : Les déplacements latéraux et longitudinaux se font automatiquement, par exemple avec un régulateur de vitesse adaptatif ou un dispositif de maintien du véhicule dans sa file de circulation.
Niveau 3 (automatisation conditionnelle de la conduite) : La voiture est conduite par le système, mais celui-ci doit pouvoir dire au conducteur ou à la conductrice de reprendre la main en cas de besoin. La personne qui se trouve au volant est la solution de repli du système : elle doit rester alerte et prête à conduire.
Niveau 4 (automatisation élevée de la conduite) : La voiture est conduite par le système qui n’a pas besoin que l’être humain reprenne la main en cas de problème. Cependant, le système n’est pas autonome en toutes circonstances (son autonomie dépend de la situation, de la zone géographique, etc.).
Niveau 5 (automatisation complète de la conduite) : La voiture se conduit seule, sans intervention humaine attendue, dans toutes les situations de conduite.
Les avis sont partagés quant au chemin parcouru sur la voie de l’automatisation complète de la conduite. Les acteurs du domaine ne sont pas non plus d’accord sur l’approche à suivre pour intégrer des fonctionnalités d’autonomie aux véhicules.
Le débat s’articule autour des deux thèmes que sont le rôle du conducteur et la disponibilité technologique :
a) Rôle du conducteur
Conduite sans être humain : Certaines entreprises de développement de véhicules autonomes telles que Waymo et Tesla pensent qu’il sera bientôt possible d’éliminer la nécessité de la présence d’une personne au volant (propriétaire ou responsable de la sécurité). Tesla vend aujourd’hui des voitures autonomes de niveau 3. Waymo avait le projet de lancer un service de taxis entièrement autonomes (sans conducteur) en Arizona à la fin de 2018 (Lee, 2018[10]).
Assistance à la conduite : D’autres concepteurs pensent que l’objectif à court terme doit être d’éviter les accidents plutôt que de remplacer la personne au volant. Toyota, le premier constructeur automobile du monde par capitalisation boursière, donne la priorité au développement d’un véhicule incapable de causer un accident (Lippert et al., 2018[5]).
b) Disponibilité technologique : Le déploiement de systèmes d’automatisation embarqués peut se faire selon deux approches, décrites par Walker-Smith (2013[11]) et FIT (2018[12]).
Toutes les fonctionnalités dans quelques zones : La voiture est équipée de fonctionnalités de très haut niveau opérationnelles uniquement dans certaines zones géographiques ou sur certaines routes cartographiées en détail. C’est le cas du système Super Cruise de Cadillac, qui n’est disponible qu’à certains endroits (il ne fonctionne que sur les autoroutes à chaussées séparées préalablement cartographiées).
Quelques fonctionnalités dans toutes les zones : La voiture est équipée des seules fonctionnalités d’autonomie utilisables en toute circonstance et sur n’importe quelle route. L’ensemble de ces fonctionnalités est donc limité, mais exploitable partout. Cette approche semble être celle que beaucoup de constructeurs automobiles privilégient actuellement.
Les entreprises les plus optimistes se sont fixé l’échéance de 2020 ou 2021 pour la fourniture de véhicules autonomes de niveau 4. Tesla et Zoox visent 2020 tandis que les groupes Audi/Volkswagen, Baidu et Ford misent sur 2021 et que Renault Nissan prévoit une livraison en 2022. D’autres constructeurs, qui investissent aussi beaucoup dans la technologie, ont choisi de privilégier la prévention des accidents de la conduite humaine, ou estiment que la technologie n’est pas assez développée pour une autonomie de niveau 4 à court terme. C’est le cas, notamment, de BMW, Toyota, Volvo et Hyundai (Welsch et Behrmann, 2018[13]).
Questions pour l’action publique
Le déploiement des véhicules autonomes pose un certain nombre de questions législatives et réglementaires importantes (Inners et Kun, 2017[14]). Certaines portent spécifiquement sur la sécurité et la protection de la vie privée (Bose et al., 2016[15]), mais d’autres concernent plus généralement l’économie et la société (Surakitbanharn et al., 2018[16]). Les pays de l’OCDE devraient concentrer leur réflexion sur les axes prioritaires suivants.
Sécurité et réglementation
En plus d’assurer la sécurité (voir chapitre 4, sous-section « Robustesse, sûreté et sécurité »), les pouvoirs publics doivent se poser les questions de la responsabilité civile, de la réglementation des équipements de régulation et de signalisation, de la réglementation applicable aux conducteurs, du code de la route et des règles d’exploitation (Inners et Kun, 2017[14]).
Données
Le succès des véhicules autonomes, comme des autres systèmes d’IA, passe par l’accès à des données permettant d’entraîner et d’ajuster les algorithmes. C’est pourquoi les constructeurs collectent d’immenses quantités de données au cours de leurs essais. Fridman (8 octobre 2018[17]) estime par exemple que Tesla possède les données relatives à plus de 2.4 milliards de kilomètres conduits par son Autopilot. Ces données de conduite en temps réel récupérées par les développeurs des véhicules autonomes sont propriétaires et, de ce fait, non partagées entre les entreprises. Cependant, des initiatives comme celle du Massachusetts Institute of Technology (MIT) (Fridman et al., 2018[18]) visent à construire des ensembles de données accessibles permettant de comprendre le comportement des conducteurs. Leur accessibilité rend ces ensembles de données d’autant plus importants pour les équipes de recherche et de développement qui souhaitent améliorer les systèmes. Les responsables de l’élaboration des politiques devraient discuter, entre autres, de l’accès aux données collectées par différents dispositifs et du rôle des pouvoirs publics dans le financement d’ensembles de données ouvertes.
Sécurité et vie privée
Afin de fonctionner dans des conditions de fiabilité et de sécurité, les véhicules autonomes ont besoin de beaucoup de données concernant le système, le comportement des conducteurs et l’environnement. Ils doivent aussi pouvoir se connecter à divers réseaux pour relayer l’information. C’est pourquoi les données qu’ils collectent, consultent et utilisent doivent être suffisamment protégées de tout accès non autorisé. Parmi ces données peuvent figurer des informations sensibles – emplacement et comportement de l’utilisateur, par exemple – qu’il s’agit de gérer et de protéger (Bose et al., 2016[15]). Le Forum international des transports appelle à la mise en place de cadres complets de cybersécurité pour régir la conduite automatisée (FIT, 2018[12]). À cet effet, de nouveaux protocoles et systèmes cryptographiques promettent de mieux protéger la vie privée et sécuriser les données. Mais leur mise en œuvre pourrait augmenter le temps de calcul nécessaire au tâches critiques pour la mission et pour la sécurité. De plus, leur développement commence à peine, ce qui veut dire qu’ils ne sont pas encore disponibles aux échelles et aux vitesses requises pour le déploiement de véhicules autonomes en temps réel.
Perturbation du marché du travail
L’essor des véhicules autonomes pourrait avoir un impact substantiel sur les métiers des secteurs du transport de marchandises, des taxis et de la livraison et sur d’autres emplois de service. Aux États-Unis par exemple, on estime que 2.86 % des travailleurs ont un métier axé sur la conduite (Surakitbanharn et al., 2018[16]). Bösch et al. (2018[3]) mettent en avant les économies potentiellement importantes que ces secteurs pourraient enregistrer en basculant vers des systèmes autonomes. C’est pourquoi, dans une perspective de maximisation des profits, on peut s’attendre à une transition rapide vers les véhicules autonomes lorsque la technologie sera suffisamment avancée. Il faudrait néanmoins que soient levés les obstacles non techniques, et notamment réglementaires. La mutation technologique évincera certains travailleurs, d’où la nécessité d’une action publique centrée sur les compétences et l’emploi dans le contexte d’un environnement de travail en transition (OCDE, 2014[19]).
Infrastructures
Le déploiement des véhicules autonomes pourrait nécessiter de modifier les infrastructures pour qu’elles conviennent à un environnement de conduite mixte mêlant voitures conduites et systèmes automatisés. À terme, les véhicules autonomes pourraient être équipés de moyens de communiquer les uns avec les autres. Mais les automobiles plus anciennes, avec conducteur, demeureraient une source importante d’incertitude. Les véhicules autonomes devraient être en mesure d’ajuster leurs décisions en fonction de celles des personnes toujours au volant de leur voiture. On réfléchit actuellement à la possible création de voies ou d’infrastructures dédiées aux véhicules autonomes, ce qui permettrait de les séparer des voitures conduites (Surakitbanharn et al., 2018[16]). Il faudra prendre l’habitude de planifier les politiques d’infrastructure en tenant compte des véhicules autonomes, à mesure que leurs technologies et leur déploiement progresseront.
L’IA dans le secteur de l’agriculture
L’agriculture est en train de se transformer, sous l’effet de l’amélioration de la précision des technologies informatiques cognitives telles que la reconnaissance d’image. Jusqu’ici, elle dépendait de l’œil et des mains de fermiers expérimentés capables d’identifier les plantes à récolter. Aujourd’hui, des « robots cueilleurs » avec systèmes d’IA et données transmises par des caméras et des capteurs peuvent prendre cette décision en temps réel. Les robots de ce type peuvent réaliser de plus en plus de tâches autrefois dévolues à l’être humain et à son savoir.
Des startups technologiques élaborent des solutions innovantes pour tirer le meilleur parti de l’IA dans le secteur de l’agriculture (FAO, 2017[20]). Les innovations peuvent être réparties en trois catégories (Tableau 3.1) :
Les robots agricoles effectuent des tâches agricoles essentielles telles que la récolte. Comparés aux êtres humains, ils sont de plus en plus rapides et productifs.
Les systèmes de surveillance des sols et des cultures exploitent la vision par ordinateur et des algorithmes d’apprentissage profond pour surveiller l’état du sol et des cultures. Leurs performances se sont améliorées à mesure que les données par satellite sont devenues plus disponibles (Graphique 3.3).
L’analyse prédictive utilise des modèles d’apprentissage automatique pour suivre et prédire l’impact des facteurs environnementaux sur le rendement des cultures.
Tableau 3.1. Exemples de startups spécialistes de l’IA en agriculture
Catégorie |
Entreprise |
Description |
Robots agricoles |
Abundant Robotics |
Conceptrice d’un robot cueilleur de pommes qui utilise la vision par ordinateur pour détecter et cueillir des pommes avec la même précision et le même soin qu’un être humain. L’entreprise affirme que le travail d’un robot équivaut à celui de dix personnes. |
Blue River Technology |
Conceptrice du robot See & Spray dont la fonction est de surveiller les plantes et les sols et de pulvériser de l’herbicide sur les mauvaises herbes dans les plantations de laitue et de coton. Une pulvérisation de précision peut aider à empêcher la résistance aux herbicides et réduire de 80 % le volume de produits chimiques consommé. En septembre 2017, l’équipementier John Deere a acquis cette entreprise pour 305 millions USD. |
|
Harveset CROO Robotics |
Conceptrice d’un robot de cueillette et d’emballage de fraises. Capable de couvrir une superficie de 3.2 hectares par jour et de remplacer 30 personnes, ce robot peut aider à gérer les pénuries de main d’œuvre dans certaines régions agricoles clés, et à empêcher les pertes de revenu associées. |
|
Surveillance du sol et des cultures |
PEAT |
Conceptrice d’une application d’apprentissage profond programmée pour identifier les éventuels défauts des sols ou déficiences nutritives. Cette application peut établir un diagnostic de santé d’une plante sur la base des images prises l’agriculteur. |
Resson |
Conceptrice d’algorithmes de reconnaissance d’image programmés pour détecter et classer avec précision les parasites et les maladies qui affectent les plantes. Resson a noué un partenariat avec McCain Foods pour aider à réduire les pertes au niveau de la chaîne de production des pommes de terre. |
|
SkySquirrel Technologies |
Conceptrice d’un système qui analyse la santé des vignes sur la base d’images. Les utilisateurs téléchargent les photos obtenues à l’aide de drones dans le système infonuagique de l’entreprise qui, en retour, produit un diagnostic de l’état des feuilles de vignes. L’entreprise affirme que sa technologie permet de scanner 20 hectares en 24 minutes et d’analyser les données avec une précision de 95 %. |
|
Analyse prédictive |
aWhere |
Conceptrice d’algorithmes d’apprentissage automatique utilisant des données par satellite pour prédire les conditions météorologiques et transmettre des avis personnalisés aux agriculteurs, consultants semenciers et chercheurs. L’entreprise fournit aussi à ses utilisateurs l’accès à plus d’un milliard de points de données agronomiques par jour. |
FarmShots |
Conceptrice d’un système d’analyse de données agricoles tirées d’images prises par des drones ou des satellites. Ce système peut détecter des maladies, des parasites ou des plantes dont la nutrition est insuffisante dans les exploitations agricoles et indiquer aux utilisateurs où, précisément, leurs champs ont besoin d’engrais. La consommation d’engrais serait ainsi réduite de près de 40 %. |
Source : Descriptions des entreprises sur leurs sites web respectifs.
Obstacles à l’adoption de l’IA en agriculture
L’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) prédit une augmentation de la population mondiale de près de 30 % d’ici 2050, autrement dit de 7 milliards à 9 milliards de personnes. Pourtant, seuls 4 % de terres supplémentaires seront cultivés (FAO, 2009[21]). Dans ce contexte, l’OCDE étudie les opportunités et les défis de la transformation numérique dans le secteur agricole et alimentaire (Jouanjean, 2019[22]). Les applications de l’IA sont, de toutes les technologies numériques, celles qui se révèlent particulièrement prometteuses pour augmenter la productivité agricole. Cependant, les difficultés suivantes font obstacle à leur généralisation (Rakestraw, 2017[23]) :
Manque d’infrastructures : Les connexions au réseau restent mauvaises dans beaucoup de zones rurales. De plus, la construction d’applications robustes nécessiterait des systèmes d’entreposage des données.
Production de données de qualité : Parce qu’elles ont pour but de reconnaître les plantes ou les feuilles, les applications agricoles de l’IA ont besoin de données de haute qualité. La collecte de ces données peut être coûteuse car elle ne peut se faire que pendant la saison de végétation.
Différences de perspectives entre les startups technologiques et les agriculteurs : Les premières ont pour habitude de concevoir et de lancer rapidement leurs produits et services, mais les agriculteurs tendent à adopter de nouveaux procédés ou technologies à un rythme plus progressif. Les grosses entreprises agricoles elles-mêmes conduisent de longs essais au champ pour vérifier la régularité des performances et s’assurer que l’adoption d’une nouvelle technologie produira effectivement des bénéfices.
Coût, notamment pour les transactions : Les équipements agricoles de haute technologie (par exemple, robots agricoles) exigent de gros investissements dans des capteurs et dispositifs d’automatisation. À titre d’exemple, la France élabore actuellement des politiques agricoles destinées à encourager l’investissement dans certaines applications agricoles de l’IA. Cela pourrait faciliter l’adoption des nouvelles technologies, y compris par les propriétaires de petites exploitations (OCDE, 2018[24]).
Moyens envisageables pour encourager l’adoption de l’IA en agriculture
On élabore actuellement des solutions pour relever les défis de l’IA en agriculture. Dans ce secteur comme dans d’autres, sont notamment développés des logiciels open source qui pourraient aider à résoudre les problèmes de coût. Par exemple, l’entreprise Connectra est partie de la suite logicielle open source TensorFlow de Google pour mettre au point un détecteur de mouvement qui s’attache au cou d’une vache et peut en surveiller la santé (Webb, 2017[27]). L’apprentissage par transfert (voir chapitre 4, sous-section « Accessibilité et utilisation des données ») contribue à lever les difficultés liées aux données en donnant le moyen d’entraîner les algorithmes avec des ensembles de donnés beaucoup plus réduits. Ainsi, mettant à profit l’apprentissage effectué pour une autre variété de plante, des chercheurs ont conçu un système de détection des maladies susceptibles de toucher les plants de manioc : sur la base d’un ensemble de seulement 2 756 images de feuilles de manioc de Tanzanie, ces spécialistes en apprentissage automatique ont correctement identifié la présence d’une cercosporiose (maladie des taches foliaires brunes) avec une précision de 98 % (Simon, 2017[28]).
L’IA dans le secteur des services financiers
Dans le secteur de la finance, les grandes entreprises telles que JPMorgan, Citibank, State Farm et Liberty Mutual s’attachent à déployer rapidement l’intelligence artificielle. Il en est de même pour des startups telles que Zest Finance, Insurify, WeCash, CreditVidya et Aire. Les sociétés de services financiers combinent différentes pratiques d’apprentissage automatique, à l’instar de la startup française QuantCube Technology qui analyse plusieurs milliards de points de données collectés dans plus de 40 pays, puis utilise le traitement du langage, l’apprentissage profond, la théorie des graphes et d’autres méthodes encore pour concevoir des solutions d’IA d’aide à la décision destinées aux groupes financiers.
Déployer l’IA dans le secteur financier présente plusieurs avantages importants : amélioration de l’expérience client, identification rapide d’opportunités d’investissements pertinents, ou encore possibilité d’accorder à la clientèle davantage de crédits dans de meilleures conditions. Mais une telle évolution soulève aussi des questions concernant l’action publique, notamment sur les moyens d’assurer l’exactitude, d’empêcher les discriminations, et sur les impacts plus larges de l’automatisation sur l’emploi.
Cette section propose un tour d’horizon des applications de l’IA dans le secteur financier. Elle s’intéresse aux systèmes d’évaluation de la solvabilité des emprunteurs, à la technologie financière (fintech), à la négociation algorithmique, à la réduction des coûts des services financiers, à l’expérience client et à la conformité.
Systèmes d’évaluation de la solvabilité des emprunteurs
Le secteur des services financiers utilise depuis longtemps des méthodes statistiques à différentes fins, notamment le calcul des montants des apports personnels et l’estimation des risques d’insolvabilité. Dans ce dernier cas, les institutions financières conduisent une analyse statistique pour noter l’emprunteur en fonction de sa solvabilité. En d’autres termes, il s’agit d’évaluer le risque que cette personne ne puisse plus satisfaire à ses obligations de remboursement. Avec les modèles traditionnels, les analystes formulent des hypothèses concernant les attributs qui impactent ces notations et créent des segments de consommateurs.
Les techniques plus récentes des réseaux neuronaux permettent d’analyser de gros volumes de données issues des rapports de solvabilité et d’identifier dans le détail les facteurs les plus pertinents et les relations entre eux. Bâtis sur de grands ensembles de données, les algorithmes des systèmes d’IA déterminent automatiquement la meilleure configuration possible du réseau neuronal sous-jacent et, partant, les différents segments de consommateurs et leur pondération. Selon les agences de notation de crédit des États-Unis, les techniques d’apprentissage profond qui permettent d’analyser les données de manière inédite induiraient une hausse de la précision des prédictions pouvant atteindre 15 % (Press, 2017[29]).
Comme dans d’autres secteurs, il est problématique qu’il soit difficile d’expliquer les résultats des algorithmes fondés sur l’apprentissage automatique. Plusieurs législations nationales exigent un haut niveau de transparence dans le secteur des services financiers. Citons notamment le Fair Credit Reporting Act (1970) et l’Equal Credit Opportunity Act (1974) qui, aux États-Unis, disposent que le déroulement et le résultat de tout algorithme soient explicables. Les entreprises semblent agir en ce sens. Par exemple, l’agence de notation de crédit Equifax et l’entreprise d’analyse de données SAS ont créé un outil d’évaluation de la solvabilité des emprunteurs, fondé sur l’apprentissage profond, qui reste interprétable.
Technologie financière et crédit instantané
La croissance des entreprises de technologie financière (fintech) est très rapide depuis quelques années. Les plateformes de crédit fintech offrent la possibilité de rechercher un prêt, de déposer une demande et d’obtenir la réponse en quelques clics seulement. Elles fournissent aux établissements prêteurs les données qu’on retrouve traditionnellement dans les rapports de solvabilité (historique des paiements, montants dus, ancienneté, nombre de comptes, etc.). Mais elles leur donnent aussi accès à d’autres sources de données très diverses, parmi lesquelles les sinistres d’assurance, les activités sur les réseaux sociaux, les informations relatives aux achats en ligne via certaines plateformes comme Amazon, les données d’expédition des services postaux, les profils de navigation sur le web, ou encore le type de téléphone ou de navigateur utilisé (Jagtiani et Lemieux, 2019[30]). Selon certaines recherches, les données alternatives que les entreprises fintech analysent avec l’IA peuvent donner aux personnes dépourvues d’historique bancaire classique un accès facilité au crédit. Elles peuvent aussi réduire les coûts associés au crédit, à la fois pour l’emprunteur et pour le prêteur (CSF, 2017[31]).
Une étude a cherché à comparer les performances des algorithmes de prédiction de la probabilité d’insolvabilité avec la notation FICO3 habituelle aux États-Unis ou avec des données alternatives (Berg et al., 2018[32]). Si on utilise la seule notation FICO, le taux de précision est de 68.3 %, tandis que si on utilise les données alternatives, on atteint 69.6 %. Combinées, les deux sources de données permettent d’obtenir un taux de précision de 73.6 %. Ce résultat donne à penser que les données alternatives complètent les informations des agences de notation de crédit, mais sans s’y substituer. Un établissement prêteur peut donc prendre de meilleures décisions s’il a recours à la fois à des données traditionnelles (FICO) et à des données nouvelles.
En République populaire de Chine (ci-après, « la Chine »), la société Ant Financial a mis en exergue le rôle de l’IA dans le succès de sa stratégie de crédit (Zeng, 2018[33]), qui lui a permis de prêter plus de 13.4 milliards USD à près de trois millions de petites entreprises. Ant Financial utilise des algorithmes pour gérer l’important volume des données de transaction générées par les petites entreprises sur sa plateforme. Ces algorithmes analysent automatiquement, en temps réel, les données de transaction et les données comportementales relatives à tous les emprunteurs. Quelques minutes suffisent pour traiter une demande de prêt, dont le montant n’est parfois que de quelques centaines de CNY (environ 50 USD). Chaque action effectuée par une entreprise sur la plateforme Alibaba – transaction, communication entre vendeur et acheteur, ou connexion à d’autres services – a un impact sur sa notation de crédit. Mais les algorithmes qui calculent les notations évoluent eux aussi au cours du temps, ce qui permet une amélioration de la qualité des décisions à chaque itération. Ces opérations de microcrédit sont associées à un taux d’impayés d’environ 1 %, contre 4 % en moyenne à l’échelle de la planète selon une estimation de 2016 de la Banque mondiale.
Autre exemple, l’agence de notation de crédit Alipay utilise des points de données relatifs aux consommateurs pour calculer ses notations (O’Dwyer, 2018[34]). Les données en question peuvent être des historiques d’achats, le modèle de téléphone utilisé, les jeux pratiqués ou les amis sur les réseaux sociaux. La notation de crédit social mise en place en Chine peut impacter, outre les traditionnelles décisions concernant l’attribution d’un prêt, le montant de la caution de location d’un appartement ou encore les mises en relation sur un site de rencontre. Par exemple, une personne qui jouerait chaque jour à des jeux vidéo pendant des heures pourrait se voir attribuer une notation de crédit social inférieure à celle d’une autre personne qui a acheté des couches, et dont on suppose donc qu’elle est un parent responsable (Rollet, 2018[35]). La Chine prévoit de déployer d’ici 2020 un système de crédit social élargi qui permettra de noter le « degré de confiance » que l’on peut accorder à un particulier, une entreprise ou un fonctionnaire.
L’utilisation de nouvelles sources de données donne la possibilité d’élargir l’accès au crédit. Mais elle soulève également des inquiétudes s’agissant des éventuelles disparités d’impact, de la protection de la vie privée, de la sécurité et de l’« explicabilité » (Gordon et Stewart, 2017[36]). C’est pourquoi, le Consumer Financial Protection Bureau des États-Unis a enquêté sur la façon dont ces données alternatives sont utilisées dans le calcul des notations de crédit (CFPB, 2017[37]).
Déployer l’IA pour réduire les coûts des services financiers
L’IA bénéficie aux clients et aux établissements financiers à tous les niveaux de l’interaction, c’est-à-dire à l’avant-plan (échanges avec le client, par exemple), au niveau intermédiaire (soutien aux échanges avec le client, par exemple) et à l’arrière-plan (règlements, ressources humaines, conformité, par exemple). Le déploiement de l’IA à ces trois niveaux devrait faire économiser aux entités financières une somme estimée à 1 000 milliards USD d’ici 2030 aux États-Unis, et impacter 2.5 millions d’employés des services financiers (Sokolin et Low, 2018[38]). En effet, plus l’intelligence artificielle progresse, moins l’intervention humaine est nécessaire.
À l’avant-plan de l’interaction avec le client (front office), les données financières et les opérations de gestion des comptes sont peu à peu intégrées à des agents logiciels fondés sur l’IA, qui peuvent dialoguer avec les clients via des plateformes telles que Facebook Messenger ou Slack grâce à des modules de traitement avancé du langage. Mais beaucoup d’entreprises du secteur financier, en plus d’améliorer leurs prestations habituelles de services, utilisent l’IA pour piloter des « robots conseillers ». Dans ce cas, les algorithmes proposent des offres et des conseils financiers automatisés (OCDE, 2017[39]).
Une autre évolution intéressante est le recours à l’analyse des émotions sur les plateformes des médias sociaux financiers. Des entreprises comme Seeking Alpha et StockTwits ont choisi de se concentrer sur le marché des actions : elles permettent aux utilisateurs de dialoguer entre eux et de consulter des professionnels pour faire fructifier leurs investissements. Les données produites sur ces plateformes peuvent ensuite être intégrées aux processus décisionnels (Sohangir et al., 2018[40]). L’IA facilite aussi les services bancaires en ligne et mobile en proposant des outils d’authentification par reconnaissance des empreintes digitales ou reconnaissance faciale grâce aux photos prises par les smartphones. Les banques utilisent aussi la reconnaissance vocale, plutôt que des mots de passe alphanumériques (Sokolin et Low, 2018[38]), pour autoriser l’accès à leurs services.
Au niveau intermédiaire (middle office), l’IA peut faciliter les processus de gestion des risques et de surveillance réglementaire. Elle aide les gestionnaires de portefeuilles à investir de façon plus précise et plus efficiente. Enfin, à l’arrière-plan (back office), elle élargit les sources de données exploitées pour évaluer les risques d’insolvabilité, les risques liés à la souscription d’une assurance, et les éventuels dommages (par exemple, évaluer un bris de pare-brise à l’aide d’un dispositif de vision par ordinateur).
Conformité juridique
Le secteur financier doit se conformer à des normes et exigences de déclaration réglementaire dont on sait qu’elles représentent un coût élevé. Les nouvelles réglementations entrées en vigueur aux États-Unis et dans l’Union européenne depuis une décennie ont encore augmenté les dépenses engagées par les banques pour se conformer à leurs obligations. En particulier, on estime à 70 milliards USD par an ce qu’elles ont dépensé ces dernières années pour s’assurer de leur conformité juridique et s’équiper en logiciels de gouvernance – un montant qui reflète le coût du travail des juristes bancaires, du personnel parajuridique et des autres agents chargés de vérifier la conformité des transactions. Le total de ces activités devait atteindre près de 120 milliards USD en 2020 (Chintamaneni, 26 juin 2017[41]). Or, le déploiement de l’IA, en particulier les technologies de traitement du langage, pourrait réduire de quelque 30 % les dépenses de conformité des banques, et considérablement raccourcir le temps de vérification de chaque transaction. L’IA peut aider à interpréter les documents réglementaires et à codifier les règles de conformité. Le programme Coin créé par JPMorgan Chase, par exemple, examine les documents en fonction de règles commerciales et de principes de validation des données : en quelques secondes, il peut passer en revue l’équivalent de ce qu’une personne mettrait 360 000 heurs à étudier (Song, 2017[42]).
Détection des fraudes
Les sociétés financières comptent aussi beaucoup sur l’IA pour la détection des fraudes. Les banques ont depuis toujours l’habitude de surveiller les profils d’activité des comptes. Avec l’apprentissage automatique, elles peuvent désormais espérer établir une surveillance en temps quasi-réel, ce qui leur permettrait, dès l’apparition d’une anomalie, de la repérer et de déclencher une procédure d’examen. Le fait que l’IA puisse continûment analyser de nouveaux schémas comportementaux et ajuster son programme en conséquence est une caractéristique spécifique fondamentale pour la détection des fraudes car, dans ce domaine, les profils évoluent rapidement. En 2016, l’établissement bancaire Credit Suisse Group AG a créé une coentreprise axée sur l’IA avec Palantir Technologies, une entreprise de la Silicon Valley spécalisée dans la surveillance et la sécurité. Pour aider les banques à détecter les négociations non autorisées, ils ont mis au point une solution destinée à repérer les employés aux comportements contraires à l’éthique avant qu’ils puissent mettre la banque en danger (Voegeli, 2016[43]). La détection des fraudes fondée sur des systèmes de sécurité biométrique à algorithme d’apprentissage automatique s’implante aussi progressivement dans le secteur des télécommunications.
Négociation algorithmique
On appelle négociation algorithmique le fait de confier à des algorithmes informatiques la tâche de décider automatiquement des transactions, de soumettre des ordres et de gérer ces ordres après leur soumission. En une décennie, cette pratique a spectaculairement gagné en popularité, au point qu’elle est aujourd’hui à l’origine de la majorité des ordres de bourse passés dans le monde. En 2017, JPMorgan estimait que seuls 10 % du volume des actions négociées sur les places boursières avaient fait l’objet d’une sélection spécifique en fonction de la valeur intrinsèque des titres, ce que l’on appelle le « stock picking » (Cheng, 2017[44]). Les possibilités accrues du calcul informatique favorisent également les « transactions à haute fréquence » (THF), c’est-à-dire la transmission quotidienne de millions d’ordres et l’étude simultanée de nombreux marchés. Si la plupart des négociateurs (« traders ») utilisent encore le même type d’outils de prédiction, l’IA permet la prise en compte d’un nombre plus élevé de facteurs.
L’IA dans le secteur du marketing et de la publicité
L’IA influe sur le marketing et la publicité de diverses manières. Il a pour effet premier de permettre une personnalisation de l’expérience en ligne de la clientèle, à laquelle on peut désormais proposer les contenus les plus susceptibles de l’intéresser. Les progrès de l’apprentissage automatique et l’augmentation concomitante des quantités de données générées donnent aux équipes publicitaires de plus en plus de moyens de cibler leurs campagnes. Elles peuvent aujourd’hui communiquer aux consommateurs des annonces personnalisées et dynamiques à une échelle sans précédent (Chow, 2017[45]). La publicité ciblée offre d’importants avantages aux entreprises et à leurs clientèles. Aux premières, elle pourrait apporter une hausse des ventes et du retour sur investissement des campagnes de marketing. Aux secondes, elle propose des services en ligne qui, financés par les revenus publicitaires, sont souvent gratuits dont permettent de fortement réduire les coûts de recherche.
Le panorama non exhaustif suivant donne une idée des progrès de l’IA qui pourraient impacter le plus les pratiques commerciales et publicitaires à l’échelle de la planète.
Traitement du langage : Le traitement du langage naturel (TLN) est l’un des sous-domaines majeurs de l’IA pour ce qui est de la personnalisation des messages publicitaires et commerciaux. Il permet d’adapter les campagnes au contexte linguistique, par exemple les messages postés sur les réseaux sociaux, les courriels, les interactions des clients avec le service après-vente, ou les avis relatifs aux produits. Les algorithmes de TNL « apprennent » à reconnaître les mots et à identifier les schémas récurrents des langues naturelles, et augmentent progressivement la précision de leurs prédictions. Ce faisant, ils peuvent en déduire les préférences ou les intentions d’achat des consommateurs (Hinds, 2018[46]). Ils permettent ainsi d’améliorer la qualité des résultats d’une recherche en ligne et de mieux aligner les publicités présentées sur les attentes personnelles de la clientèle, pour une plus grande efficacité publicitaire. Par exemple, si une personne a effectué une recherche en ligne en rapport avec une marque spécifique de chaussures, un algorithme publicitaire fondé sur l’IA peut afficher des publicités ciblées relatives à cette marque quand la personne effectue d’autres tâches en ligne. Il peut même lui envoyer une notification sur son téléphone si elle passe à proximité d’un magasin de chaussures proposant des réductions.
Analyse de données structurées : L’impact de l’IA dans le secteur du marketing va au-delà de la seule utilisation de modèles de TLN pour analyser des « données non structurées ». Avec l’IA, les algorithmes actuels de recommandation en ligne font beaucoup plus que ne le peuvent de simples ensembles de règles ou des historiques de notes attribuées par les utilisateurs. Ayant accès à des données très diverses, ils peuvent produire des recommandations très ciblées. Par exemple, Netflix propose des listes personnalisées de recommandations vidéo sur la base d’une analyse des films que chaque personne a déjà visionnés ou des notes qu’elle a données à ces films. Mais l’algorithme tient aussi compte du nombre de fois qu’un même film a été regardé et des actions (retour arrière ou avance rapide) en cours de visionnage (Plummer, 2017[47]).
Calcul d’une probabilité de succès : Le taux de clics – c’est-à-dire le nombre de personnes ayant cliqué sur un message publicitaire divisé par le nombre de personnes ayant vu le message – est un important indicateur de la performance d’une publicité en ligne. Des systèmes de prédiction du nombre de clics fondés sur des algorithmes d’apprentissage automatique ont donc été développés pour maximiser l’impact des publicités payantes et des campagnes de marketing en ligne. Dans la plupart des cas, c’est la technique de l’apprentissage automatique par renforcement qui est utilisée pour sélectionner la publicité dont les caractéristiques maximiseront le taux de clics dans la population cible. L’augmentation du taux de clics peut substantiellement accroître les revenus d’une entreprise : une hausse de ce taux de 1 % suffirait à booster les ventes (Hong, 27 août 2017[48]).
Personnalisation des prix4 : Grâce aux technologies de l’IA, les entreprises peuvent proposer des prix continuellement alignés sur les préférences et les comportements des consommateurs. Elles peuvent aussi réagir en fonction des lois de l’offre et de la demande, de l’exigence de profit et des externalités. Les algorithmes d’apprentissage automatique permettent de prédire le prix plafond que quelqu’un est prêt à payer pour un produit. Les prix sont ainsi calculés en fonction de chaque personne au point d’engagement, par exemple les plateformes en ligne (Waid, 2018[49]). S’il est vrai qu’on peut utiliser l’IA pour personnaliser les prix au service des clients, il ne faut pas oublier que la personnalisation des prix peut être une pratique nuisible si elle est fondée sur l’exploitation, la distorsion ou l’exclusion (Brodmerkel, 2017[50]).
Application combinée de la réalité augmentée et de l’IA : La réalité augmentée superpose à l’environnement réel perçu une représentation numérique d’un produit. En associant réalité augmentée et intelligence artificielle, on peut donner à quelqu’un une idée de ce à quoi ressemblerait le produit final une fois placé dans le contexte physique pour lequel il est prévu. Les systèmes de réalité augmentée qui fonctionnent avec l’IA peuvent « apprendre » des préférences individuelles, et ainsi adapter l’image du produit générée par ordinateur afin d’améliorer l’expérience du client et d’augmenter la probabilité d’achat (De Jesus, 2018[51]). Ils pourraient ainsi élargir le marché du commerce électronique et augmenter les revenus de la publicité en ligne.
L’IA dans le secteur de la science
Notre société est confrontée à des défis planétaires qui vont du changement climatique à la résistance bactérienne aux antibiotiques. Relever la plupart d’entre eux passe par l’approfondissement de nos connaissances scientifiques. À cet effet, l’IA pourrait augmenter la productivité des sciences – à l’heure où certains voix du monde universitaire soutiennent qu’il est de plus en plus difficile de trouver de nouvelles idées (Bloom et al., 2017[52]). L’IA promet aussi d’améliorer la productivité de la recherche, malgré les pressions croissantes qui pèsent sur les budgets publics qui lui sont affectés. L’émergence de nouveaux savoirs dépend de notre aptitude à donner sens aux gigantesques volumes de données produits par l’instrumentation scientifique moderne. C’est pourquoi, la science a absolument besoin de l’IA. Qui plus est, les scientifiques ayant sans doute atteint leur « pic de lecture », l’IA sera un complément nécessaire de l’être humain pour le dépouillement des articles scientifiques, publiés en nombre toujours plus élevé5.
Appliquée à la science, l’IA pourrait aussi donner naissance à de nouvelles formes de découvertes et augmenter la reproductibilité de la recherche scientifique. Ses applications scientifiques et industrielles sont aujourd’hui nombreuses et de plus en plus déterminantes. Elle a permis, entre autres, de prédire le comportement de systèmes chaotiques, de résoudre des problèmes calculatoires complexes en génétique, d’améliorer la qualité des images astronomiques et de découvrir certaines règles de la synthèse chimique. Elle est actuellement déployée à d’autres fins qui peuvent aller de l’analyse de grands ensembles de données, l’abduction (la production d’hypothèses) et l’analyse et la compréhension de la littérature scientifique en vue de faciliter la collecte de données, à la conception expérimentale et à l’expérimentation elle-même.
Moteurs récents de l’IA en science
Cela fait déjà quelque temps qu’on applique diverses formes de l’IA à la découverte scientifique, même si ces tentatives sont sporadiques. Par exemple, dans les années 1960, le programme d’IA DENDRAL a aidé à identifier des structures chimiques. Une décennie plus tard, une IA connue sous le nom d’Automated Mathematician assistait la recherche en mathématique. Depuis ces premiers essais, les matériels et logiciels informatiques se sont spectaculairement améliorés, et les données sont beaucoup plus accessibles. Mais d’autres facteurs expliquent aussi l’application croissante de l’IA à la science : l’IA est bien financée, en particulier dans le secteur commercial ; les données scientifiques sont de plus en plus abondantes ; le calcul hautes performances s’améliore ; et le milieu de la recherche a désormais accès à des codes d’IA en open source.
Diversité des applications scientifiques de l’IA
De nombreuses disciplines font appel à l’IA pour faciliter leurs recherches. La physique des particules, par exemple, y a souvent recours quand elle cherche à repérer des configurations spatiales complexes dans les grands flux de données produits par les détecteurs de particules. En traitant les données collectées sur les réseaux sociaux, l’IA renseigne sur les relations entre utilisation des langues, psychologie et santé, et résultats économiques et sociaux. L’IA permet aussi, entre autres, de s’attaquer à des problèmes calculatoires complexes en génétique, d’améliorer la qualité des images astronomiques et de découvrir certaines règles de la synthèse chimique (OCDE, 2018[53]). La fréquence et l’éventail des applications de l’IA continueront probablement de croître. Plus les processus d’apprentissage automatique progresseront, plus la communauté scientifique, le secteur privé et d’autres utilisateurs prendront l’habitude de se tourner vers l’IA.
Des avancées ont aussi été enregistrées dans le domaine de l’abduction. Par exemple, IBM a produit un système prototype appelé KnIT qui explore les informations contenues dans les publications scientifiques, qui les représente explicitement sous la forme d’un réseau interrogeable, puis qui raisonne sur leur base pour produire de nouvelles hypothèses testables. En explorant la littérature publiée dans le domaine, KnIT a ainsi identifié de nouvelles kinases – des enzymes qui catalysent le transfert d’un ion phosphate de molécules à haut potentiel énergétique vers des substrats spécifiques. Ces kinases ont introduit un groupe phosphate dans une protéine de suppression tumorale (Spangler et al., 2014[54]).
De même, l’IA contribue à l’examen, la compréhension et l’analyse des publications scientifiques. Les techniques de traitement du langage naturel permettent aujourd’hui d’en extraire automatiquement à la fois des relations et du contexte. On a vu que dans le cas du système KnIT, l’exploration des textes publiés débouche sur une production automatisée d’hypothèses. La startup Iris.AI6 propose quant à elle un outil gratuit d’extraction des concepts clés des résumés de recherche, qui donne à voir graphiquement ces concepts (c’est-à-dire que l’utilisateur peut voir les relations interdisciplinaires). Cet outil collecte aussi les articles pertinents dans une bibliothèque de plus de 66 millions de publications en accès ouvert.
L’IA peut en effet aider à collecter des données à grande échelle. Par exemple, les sciences participatives comptent sur des applications de l’IA pour aider les utilisateurs à identifier des spécimens inconnus de plantes ou d’animaux (Matchar, 2017[55]).
Combiner l’IA à la robotique pour mener des recherches scientifiques en boucle fermée
La science pourrait bénéficier à de multiples niveaux d’une convergence de l’IA et de la robotique. Les systèmes d’automatisation de laboratoire peuvent physiquement exploiter des techniques de l’IA pour la conduite d’expériences. Ainsi, dans le laboratoire de l’Université d’Aberystwyth (Pays de Galles), un robot du nom d’Adam utilise ces techniques pour effectuer automatiquement des cycles d’expérimentation scientifique. Il a été décrit comme la première machine à découvrir de nouvelles connaissances scientifiques de manière indépendante. Plus précisément, il a découvert un composé, le Triclosan, qui agit contre les espèces de type sauvage résistantes aux médicaments Plasmodium falciparum et Plasmodium vivax (King et al., 2004[56]). L’automatisation complète de la science aurait plusieurs avantages (OCDE, 2018[57]) :
Une découverte scientifique accélérée : Les systèmes automatisés peuvent générer et tester des milliers d’hypothèses en parallèle, là où, du fait de leurs limites cognitives, les êtres humains ne peuvent examiner que quelques hypothèses à la fois (King et al., 2004[56]).
Des expérimentations moins coûteuses : Les systèmes d’IA peuvent sélectionner les expériences dont la réalisation coûte moins cher (Williams et al., 2015[58]). Leur puissance rend possibles l’exploration et l’exploitation efficientes de paysages expérimentaux inconnus, ce qui pourrait conduire au développement de nouveaux médicaments (Segler, Preuss et Waller, 2018[59]), matériaux (Butler et al., 2018[60]) ou appareils (Kim et al., 2017[61]).
Des formations facilitées : Enseignement initial compris, la formation complète d’un ou d’une scientifique dure plus de 20 ans et nécessite beaucoup de ressources. Les êtres humains ne peuvent absorber des connaissances que progressivement, par l’enseignement et l’expérience. Au contraire, les robots peuvent directement absorber les connaissances d’un autre.
Une amélioration des échanges de savoirs et de données et de la reproductibilité scientifique : L’une des questions les plus importantes en biologie – et dans d’autres disciplines scientifiques – est celle de la reproductibilité. Les robots ont la capacité surhumaine d’enregistrer les tâches expérimentales et les résultats correspondants, lesquels sont, avec les métadonnées associées et les procédures appliquées, automatiquement et exhaustivement enregistrés conformément aux normes en vigueur et sans coût supplémentaire. Au contraire, l’enregistrement des données, des métadonnées et des procédures ajoute jusqu’à 15 % au coût total d’une expérience conduite par un être humain.
L’automatisation de laboratoire est essentielle dans la plupart des filières scientifiques et technologiques. Toutefois, coûteuse et difficile d’utilisation du fait du petit nombre d’unités vendues et de l’immaturité du marché, elle est surtout rentable quand elle est centralisée sur un seul et même grand site. C’est pourquoi les entreprises et les universités tendent de plus en plus à concentrer leurs systèmes d’automatisation de laboratoire. L’exemple le plus avancé en la matière est l’automatisation infonuagique. Cette pratique consiste à réunir de très nombreux équipements sur un même site, puis à proposer aux biologistes, par exemple, d’y envoyer leurs échantillons et de concevoir leurs expériences avec l’aide d’une application spécifique.
Considérations pour l’action publique
En ayant davantage recours aux systèmes d’IA, la science pourrait voir se modifier certains de ses aspects, notamment sociologiques et institutionnels : mode de transmission des connaissances, systèmes de crédit pour les découvertes scientifiques, mécanisme d’examen par les pairs, ou encore gestion des droits de propriété intellectuelle. À mesure que l’IA s’y généralisera, les politiques qui concernent l’accès aux données et le calcul hautes performances gagneront en importance. Qui plus est, la place croissante de l’IA dans le processus de découverte pose de nouvelles questions, dont on ignore encore la réponse. Faut-il inclure les machines dans les citations des publications ? Les systèmes de gestion des droits de propriété intellectuelle devront-ils être modifiés dans un monde où les machines peuvent inventer ? Qu’en est-il, enfin, de la question fondamentale de l’enseignement et de la formation (OCDE, 2018[57]) ?
L’IA dans le secteur de la santé
Contexte
Appliquée aux soins de santé et à l’industrie pharmaceutique, l’IA peut aider à détecter précocement des maladies, proposer des services de prévention, optimiser la prise de décision clinique et découvrir des traitements et des médicaments. Elle ouvre également la voie à une personnalisation des soins de santé et une médecine de précision, grâce aux outils, applications et moniteurs d’autosurveillance dans lesquels on la retrouve. Elle pourrait être avantageuse à la fois en termes de qualité et de coût des soins. Elle pose néanmoins certaines questions pour l’action publique, notamment en ce qui concerne l’accès aux données (de santé) et la protection de la vie privée (voir chapitre 4, sous-section « La protection des données personnelles »). Cette section se concentre sur les impacts spécifiques de l’IA sur les soins de santé.
D’une certaine façon, le secteur de la santé est une enceinte idéale pour le déploiement de systèmes d’IA et l’illustration parfaite de ses effets possibles. À forte intensité de connaissances, il ne peut améliorer ses thérapies et ses pratiques sans données ni capacités d’analyse. C’est pourquoi on y constate un élargissement considérable de l’éventail des informations collectées – qui peuvent être cliniques, génétiques, comportementales ou environnementales. Les professionnels de santé, les acteurs de la recherche biomédicale et les patients produisent chaque jour des quantités massives de données au moyen d’une multitude de dispositifs, parmi lesquels les dossiers de santé informatisés, les séquenceurs de gènes, les appareils d’imagerie médicale à haute résolution, les applications pour smartphones et les capteurs ubiquitaires, ainsi que tous les objets connectés, relevant de l’internet des objets, conçus pour surveiller l’état de santé de quelqu’un (OCDE, 2015[62]).
Effets positifs de l’IA sur les soins de santé
L’exploitation des données générées par l’IA pourrait être très utile pour les soins de santé et la recherche. Dans tous les pays, les secteurs de la santé se transforment en profondeur à mesure qu’ils mettent à profit les possibilités offertes par les technologies de l’information et de la communication. Ce processus de mutation obéit à des objectifs clés que sont l’amélioration de l’efficience, de la productivité et de la qualité des soins (OCDE, 2018[24]).
Exemples spécifiques
Prodiguer de meilleurs soins aux patients : Avec l’utilisation secondaire des données de santé, on peut espérer améliorer la qualité et l’efficacité des soins, que ce soit en milieu hospitalier ou au domicile des patients. Par exemple, des systèmes d’IA peuvent alerter les administrateurs ou les soignants de première ligne quand des indicateurs liés à la qualité ou à la sécurité des patients s’écartent de la normale. Ils peuvent aussi mettre en évidence les déterminants possibles de ces déviations (Institut canadien d'information sur la santé, 2013[63]). L’un des volets spécifiques de l’amélioration des soins aux patients est celui de la médecine de précision, qui repose sur le traitement rapide d’une diversité de données complexes telles que celles du dossier médical, les réactions physiologiques et les données génétiques. La santé mobile en est un autre : les technologies mobiles fournissent un utile retour d’information en temps réel tout au long du continuum des soins – de la prévention au diagnostic, au traitement et au suivi. En association avec d’autres données personnelles, notamment sur le lieu de vie ou les préférences, les technologies de l’IA sont à même d’identifier les comportements à risque ou d’encourager les comportements bénéfiques. Elles peuvent alors produire des interventions ciblées pour promouvoir des comportements plus sains (par exemple, prendre les escaliers au lieu de l’ascenseur, boire de l’eau ou marcher plus) dans la perspective d’une amélioration de la santé. Ces technologies, comme les équipements de suivi qui utilisent des capteurs, offrent la possibilité d’une surveillance continue et directe et d’une intervention personnalisée. En tant que telles, elles sont particulièrement indiquées pour améliorer la qualité des soins aux personnes âgées et aux personnes en situation de handicap (OCDE, 2015[62]).
Gestion des systèmes de santé : Les données de santé peuvent venir étayer des décisions concernant les programmes, les politiques et les financements et, de cette façon, aider à gérer le système de santé, et à en améliorer l’efficacité et l’efficience. En déployant des systèmes d’IA, on peut identifier les interventions inefficaces, les opportunités manquées et les services dupliqués et donc réduire les coûts. Quatre angles d’action sont envisageables pour élargir l’accès aux soins et réduire les temps d’attente. Premièrement, les systèmes d’IA ont la capacité d’appréhender le parcours des patients le long du continuum des soins. Deuxièmement, ils peuvent faire en sorte que les patients reçoivent les services les mieux adaptés à leurs besoins. Troisièmement, ils peuvent prédire avec précision les futurs besoins de soins de santé de la population. Quatrièmement, ils constituent un moyen d’optimiser l’allocation des ressources à l’échelle du système (Institut canadien d'information sur la santé, 2013[63]). Dans le contexte du renforcement de la surveillance des thérapies et des événements causés par des produits pharmaceutiques ou des dispositifs médicaux (OCDE, 2015[62]), les administrations nationales peuvent déployer l’IA pour faire progresser l’identification des schémas récurrents à l’échelle du système, qu’ils s’agisse des erreurs ou des succès. De façon plus générale, l’innovation fondée sur les données donne à voir le système de santé comme un système « apprenant », c’est-à-dire à même d’intégrer en continu de nouvelles données issues des établissements de recherche, des prestataires de soins, ou des patients. Le système peut alors, sur cette base, améliorer les algorithmes cliniques généraux afin de mettre en évidence le type de soin préférable à certains nœuds de l’arbre décisionnel en vue d’appuyer la prise de décision clinique (OCDE, 2015[62]).
Comprendre et gérer les questions de santé publique : Les données peuvent aider non seulement à surveiller de plus près l’émergence de problèmes de santé publique comme une épidémie de grippe ou d’autres virus, mais aussi à identifier les effets secondaires imprévus et les contre-indications des nouveaux médicaments (Institut canadien d'information sur la santé, 2013[63]). Les technologies de l’IA permettent de détecter le plus tôt possible l’apparition d’une maladie et d’en surveiller la propagation. Grâce aux réseaux sociaux, par exemple, il est possible d’obtenir aussi bien que de diffuser des informations sur la santé publique. En effet, l’association de l’IA et des outils de traitement du langage naturel donne les moyens d’analyser les messages postés sur les réseaux sociaux pour en extraire des informations sur des effets secondaires potentiels (Comfort et al., 2018[64] ; Patton, 2018[65]).
Faciliter la recherche dans le domaine de la santé : Les données de santé peuvent étayer la recherche clinique et accélérer la découverte de nouvelles thérapies. L’analyse des données massives offre de nouvelles possibilités plus prometteuses de mesurer la progression des maladies et l’état de santé de la population, pour de meilleurs diagnostics et prestations de soins, ainsi qu’une meilleure recherche translationnelle et clinique, par exemple s’agissant de la mise au point de nouveaux médicaments. À titre d’illustration, l’entreprise pharmaceutique Atomwise a collaboré en 2015 avec des chercheurs de l’Université de Toronto et avec IBM pour appliquer l’IA à la recherche d’un traitement contre le virus Ebola7. L’IA est également de plus en plus souvent testée pour le diagnostic médical, et vient d’ailleurs de bénéficier d’une approbation remarquée, délivrée par la Food and Drug Administration des États-Unis. Cette décision autorise la commercialisation du premier dispositif médical à utiliser l’IA pour « détecter un état supérieur au niveau bénin de rétinopathie diabétique chez les adultes atteints de diabète » (FDA, 2018[66]). De la même façon, on peut se servir des techniques d’apprentissage automatique pour entraîner des modèles à classer des images de l’œil, ce qui pourrait conduire à intégrer des détecteurs de cataracte dans des smartphones que l’on pourrait alors emporter dans les zones reculées (Lee, Baughman et Lee, 2017[67] ; Patton, 2018[65]). Une étude récente a consisté à entraîner un algorithme d’apprentissage profond avec plus de 100 000 images de mélanomes (nævus malins) et de grains de beauté (nævus bénins) : en définitive, le programme a pu détecter un cancer de la peau avec une performance supérieure à celle d’un groupe international de 58 dermatologues (Mar et Soyer, 2018[68]).
Déployer l’IA dans le secteur de la santé – facteurs de risque et de succès
La pleine exploitation des capacités de l’IA dans le secteur de la santé passe par la mise en place des infrastructures suffisantes et des bons mécanismes d’atténuation des risques.
Les administrations nationales prennent de plus en plus l’habitude d’établir des dossiers de santé informatisés (DSI) et d’adopter des solutions de santé mobile (m-santé), c’est-à-dire des services mobiles à l’appui de la pratique de la médecine et de la santé publique (OCDE, s.d.[69]). De solides éléments de preuve montrent en quoi les DSI peuvent aider à réduire les erreurs de médication et mieux coordonner les soins (OCDE, 2018[24]). Cependant, toujours selon la même étude, l’intégration des outils n’est forte que dans quelques pays ayant capitalisé sur la possibilité d’extraire des données des DSI à des fins de recherche, à des fins statistiques, ou pour d’autres utilisations secondaires. Les systèmes de santé tendent encore à collecter les données en silos et à les analyser séparément. Exploiter le plein potentiel des DSI nécessite de relever les défis clés de la normalisation et de l’interopérabilité (OCDE, 2018[24]).
Il est également critique pour l’utilisation de l’IA dans le secteur de la santé de réduire autant que possible les risques d’atteinte à la vie privée des personnes concernées par les données (les « sujets »). Les risques liés à une augmentation de la collecte et du traitement des données personnelles sont décrits dans la sous-section « La protection des données personnelles » du chapitre 4. Cette sous-section porte spécifiquement sur la nature hautement sensible des données de santé. Les biais de fonctionnement des algorithmes de recommandation d’un traitement particulier pourraient créer de réels risques de santé au sein de certains groupes. D’autres risques d’atteinte à la vie privée sont propres au secteur de la santé. Ainsi, des questions liées à l’exploitation de données extraites de dispositifs médicaux implantables comme les pacemakers pourraient être présentées devant des tribunaux8. De plus, la sophistication croissante de ces dispositifs augmente les risques de sécurité, par exemple le risque qu’un tiers malveillant prenne le contrôle d’un appareil pour effectuer une action dangereuse. L’utilisation d’échantillons biologiques (tissus, notamment) pour l’apprentissage automatique soulève aussi des questions complexes de consentement et de propriété (OCDE, 2015[62] ; Ornstein et Thomas, 2018[70])9.
Du fait de ces inquiétudes, de nombreux pays de l’OCDE déclarent disposer d’obstacles législatifs à l’utilisation des données personnelles de santé, parmi lesquels la désactivation des liens entre les données et des entraves au développement de bases de données fondées sur les DSI. La Recommandation de 2016 du Conseil sur la gouvernance des données de santé est une étape importante sur la voie du renforcement de la cohérence en matière de gestion et d’utilisation des données de santé (OCDE, 2016[71]). Son principal objectif est de promouvoir l’élaboration et le déploiement d’un cadre national de gouvernance des données de santé, qui encouragerait la mise à disposition et l’utilisation des données personnelles de santé au service de la santé publique, tout en demandant que soient protégées la vie privée, les données personnelles de santé et la sécurité des données. Adopter une démarche cohérente de gestion des données aiderait à éviter d’avoir à faire des compromis entre utilisation des données et sécurité.
Impliquer toutes les parties concernées est un moyen important de susciter la confiance et l’adhésion du public concernant l’utilisation de l’IA et la collecte des données à des fins de gestion de la santé. Dans le même ordre d’idée, les pouvoirs publics pourraient élaborer des cursus adaptés pour former les futurs experts en science des données de santé, ou associer des experts en science des données au personnel soignant pour qu’ils travaillent ensemble à l’approfondissement de la compréhension des possibilités et des risques de cette discipline émergente (OCDE, 2015[62]). La participation des soignants à la conception et au développement de systèmes de soins de santé fondés sur l’IA pourrait être déterminante pour obtenir la confiance des patients et des prestataires de soins dans les produits et services de santé fondés sur l’IA.
L’IA dans le secteur de la justice pénale
IA et algorithmes prédictifs pour la justice
L’IA offre la possibilité d’améliorer l’accès à la justice ainsi que l’impartialité et l’efficacité de la prise de décision. Cependant, elle suscite des inquiétudes du fait des problèmes qu’elle pourrait soulever en matière de participation citoyenne, de transparence, et de respect de la dignité, de la vie privée et de la liberté. Cette section portera principalement sur les progrès de l’IA appliquée à la justice pénale, même si certaines évolutions dans d’autres domaines de la justice sont également abordées.
L’IA apparaît de plus en plus à différents stades de la procédure pénale, qu’il s’agisse de prédire l’occurrence d’un crime ou le résultat d’une procédure pénale, de conduire une évaluation des risques posés par les prévenus, ou encore de gérer les procédures avec davantage d’efficience. Même si beaucoup d’applications sont encore expérimentales, quelques outils de prédiction plus avancés sont déjà utilisés par l’administration judiciaire et les forces de l’ordre. L’IA permet en effet de mieux établir des connexions, détecter des schémas récurrents, prévenir et résoudre les crimes (Wyllie, 2013[72]). Le recours croissant à de tels outils traduit une évolution plus générale qui tend à donner la préférence à des méthodes axées sur les faits, pour la raison qu’elles sont un moyen plus efficient, rationnel et rentable d’allouer les ressources limitées dont disposent les forces de l’ordre (Horgan, 2008[73]).
La justice pénale se situe à un carrefour sensible des échanges entre les pouvoirs publics et les citoyens, où l’asymétrie de l’information et des relations de pouvoir est particulièrement prononcée. Sans garde-fous suffisants, elle pourrait produire des résultats négatifs disproportionnés et renforcer les biais systémiques voire en créer de nouveaux (Barocas et Selbst, 2016[74]).
Police prédictive
On parle de police prédictive quand les forces de l’ordre se servent de l’IA pour identifier des schémas et ainsi faire des prédictions statistiques sur l’activité criminelle possible (Ferguson, 2014[75]). Les méthodes de police prédictive préexistent à l’IA : dans un cas notable, une analyse des données accumulées avait permis de cartographier des villes pour y repérer les quartiers à risque faible ou élevé (Brayne, Rosenblat et Boyd, 2015[76]). Avec l’IA, cependant, il est possible de mettre en relation de nombreux ensembles de données et de conduire des analyses plus complexes donnant des résultats plus fins, à même de donner des prédictions plus précises. En combinant par exemple les lecteurs automatiques de plaques d’immatriculation, les caméras ubiquitaires, les dispositifs de stockage à moindre coût et la puissance de calcul, les forces de police peuvent obtenir des informations importantes sur beaucoup de monde et, partant, identifier des schémas, notamment de comportements criminels (Joh, 2017[77]).
Il existe deux grandes méthodes de police prédictive. La prédiction situationnelle utilise des données rétrospectives de la criminalité pour prévoir quand et où de nouveaux crimes sont susceptibles de se produire. Les lieux pris en compte peuvent être des débits de boissons alcoolisées, des bars et des parcs où d’autres faits ont déjà été signalés. Dans ce cas, les services de police peuvent décider, pour prévenir de nouveaux crimes, d’envoyer un agent patrouiller dans la zone, à un moment précis de la journée ou de la semaine. La prédiction axée sur la personne utilise les statistiques de la criminalité pour prévoir quels individus ou groupes d’individus sont les plus susceptibles d’être concernés par un crime – soit parce qu’ils en seraient les victimes, soit parce qu’ils en seraient les auteurs.
Des initiatives de police prédictive fondée sur l’IA sont en cours d’expérimentation dans diverses villes du monde, dont Manchester, Durham, Bogota, Londres, Madrid, Copenhague et Singapour. Au Royaume-Uni, les services de police du Grand Manchester ont mis au point un système de cartographie prédictive de la criminalité dès 2012. Un an plus tard, la police du Kent a commencé à utiliser un système appelé PredPol. Ces deux systèmes estiment la probabilité d’occurrence de crimes à certains endroits et à certaines périodes. Ils reposent sur un algorithme développé à l’origine pour prédire les tremblements de terre.
En Colombie, la Data-Pop Alliance exploite des données de criminalité et de transport pour prédire les points chauds de la criminalité à Bogota. Des forces de police sont alors déployées sur les lieux précis et aux heures précises où le risque de crime est le plus élevé.
De nombreux services de police tirent également parti des réseaux sociaux à des fins très diverses, comme la découverte d’une activité criminelle, l’obtention d’une cause probable pour un mandat de recherche, la collecte d’éléments de preuve en vue d’une audience au tribunal, la localisation d’un criminel, la gestion de situations volatiles, l’identification de témoins, la diffusion d’informations ou l’appel au public pour la collecte d’informations (Mateescu et al., 2015[78]).
Mais l’IA soulève aussi des questions concernant l’utilisation des données personnelles (voir chapitre 4, sous-section « La protection des données personnelles ») et les risques de biais (voir chapitre 4, sous-section « Équité et éthique »). Le fait qu’elle puisse manquer de transparence et le fait qu’on ne puisse pas toujours comprendre son fonctionnement sont deux points d’inquiétude particulièrement sensibles quand il s’agit de justice pénale. L’une des méthodes retenues pour améliorer la transparence algorithmique, et qui est appliquée au Royaume-Uni, est un cadre appelé ALGO-CARE dont l’objectif est de faire en sorte que les forces de police qui ont recours à des outils algorithmiques d’évaluation des risques en envisagent les principaux aspects juridiques et pratiques (Burgess, 2018[79]). Ce cadre transpose les principes clés du droit public et des droits humains, qui figurent dans les documents à haut niveau, en termes et en directives pratiques à l’intention des services de police.
IA pour l’autorité judiciaire
Dans plusieurs pays, les autorités judiciaires utilisent avant tout l’IA pour évaluer les risques. Les résultats de ces évaluations viennent étayer divers types de décisions pénales, dont la fixation du montant d’une caution ou d’autres conditions de libération ou l’éligibilité à la libération conditionnelle (Kehl, Guo et Kessler, 2017[80]). Quand elle est ainsi appliquée pour évaluer les risques, l’IA fait intervenir d’autres formes d’outils actuariels que ceux dont les juges se servent depuis des décennies (Christin, Rosenblat et Boyd, 2015[81]). Des chercheurs du Berkman Klein Center de l’Université de Harvard travaillent actuellement sur une base de données de tous les outils d’évaluation des risques utilisés dans le cadre de la justice pénale aux États-Unis pour étayer la prise de décision (Bavitz et Hessekiel, 2018[82]).
Les algorithmes d’évaluation des risques prédisent le niveau de risque sur la base d’un petit nombre de facteurs, généralement répartis en deux groupes : les antécédents criminels (par exemple, précédentes arrestations et condamnations, défauts de comparution) et les caractéristiques sociodémographiques (par exemple, âge, sexe, emploi et lieu de résidence). Les algorithmes prédictifs font la synthèse des informations pertinentes pour la prise de décision plus efficacement que le cerveau humain, d’une part parce qu’ils traitent davantage de données à une vitesse supérieure, et d’autre part parce qu’il se pourrait qu’ils soient moins exposés aux préjugés humains (Christin, Rosenblat et Boyd, 2015[81]).
Les outils d’évaluation des risques fondés sur l’IA que mettent au point les entreprises privées soulèvent des inquiétudes inédites en termes de transparence et d’explicabilité. En effet, les accords de non-divulgation empêchent souvent l’accès au code propriétaire pour protéger la propriété intellectuelle ou prévenir les actes de malveillance (Joh, 2017[77]). Or, sans accès au code, il reste peu de moyens d’examiner la validité et la fiabilité des outils.
L’organisation de presse à but non lucratif ProPublica a rapporté avoir testé la validité de l’outil propriétaire COMPAS utilisé dans certaines juridictions aux États-Unis : il ressort de ces tests que les prédictions de COMPAS sont exactes dans 60 % des cas, tous crimes confondus, mais que la précision de prédiction n’est plus que de 20 % dans le cas des crimes violents. Des disparités raciales ont également été mises au jour : l’algorithme a qualifié par erreur des accusés noirs de futurs criminels deux fois plus souvent qu’il ne l’a fait pour les accusés blancs (Angwin et al., 2016[83]). Cette enquête a fait parler d’elle dans les médias et ses résultats ont été remis en question sur la base d’erreurs statistiques (Flores, Bechtel et Lowenkamp, 2016[84]). COMPAS est un algorithme de type « boîte noir », ce qui signifie que personne, pas même ses utilisateurs, n’a accès au code source.
L’utilisation de COMPAS a été contestée au tribunal, ses opposants affirmant que sa nature propriétaire est en violation avec le droit des accusés à un procès équitable. La Cour suprême du Wisconsin a approuvé l’utilisation de COMPAS dans le cadre du prononcé de la peine. Cependant, l’outil doit rester un moyen d’assistance et le juge doit conserver l’entière liberté de déterminer quels sont les facteurs complémentaires à prendre en compte et avec quel poids ils doivent l’être10. La Cour suprême des États-Unis a refusé le recours lui demandant d’entendre l’affaire11.
Dans le cadre d’une autre étude de l’impact de l’IA sur la justice pénale, Kleinberg et al. (2017[85]) ont construit un algorithme d’apprentissage automatique destiné à prédire si une personne accusée commettrait un nouveau crime dans l’intervalle jusqu’au procès ou chercherait à se soustraire au procès (manquements avant le procès). Les variables d’entrée étaient connues. L’algorithme devait calculer les sous-catégories pertinentes et leurs pondérations respectives : par exemple, pour la variable « âge », l’algorithme a déterminé les intervalles les plus statistiquement pertinents, notamment les deux tranches 18-25 ans et 25-30 ans. Les auteurs ont constaté que cet algorithme pouvait considérablement réduire les taux d’incarcération, ainsi que les disparités raciales. L’IA a en outre réduit les biais humains : les auteurs ont conclu que toute information autre que les facteurs nécessaires à la prédiction pouvait distraire les juges et augmenter le risque de jugement biaisé.
Les outils avancés d’IA développés pour évaluer les risques sont aussi utilisés au Royaume-Uni. Les services de police de Durham ont mis au point un outil spécifique, le Harm Assessment Risk Tool, pour évaluer les risques de récidive. Les facteurs pris en compte sont notamment les antécédents criminels de la personne, son âge, son code postal et d’autres informations de contexte. Sur la base de ces indicateurs, l’algorithme affecte à la personne un degré de risque faible, moyen ou élevé.
IA pour prédire le résultat des procédures
Avec des techniques avancées de traitement du langage et d’analyse des données, des chercheurs ont construit des algorithmes pour réduire l’issue des procédures avec un taux élevé de précision. Ainsi, des équipes de l’University College de Londres et des Universités de Sheffield et de Pennsylvanie ont développé un algorithme d’apprentissage automatique capable de prédire l’issue des affaires entendues par la Cour européenne des droits de l’homme avec un taux de précision de 79 % (Aletras et al., 2016[86]). D’autres chercheurs de l’Illinois Institute of Technology de Chicago ont conçu un algorithme à même de prédire l’issue des affaires entendues par la Cour suprême des États-Unis avec un taux de précision de 79 % (Hutson, 2017[87]). De tels algorithmes pourraient aider les parties à évaluer la probabilité de succès du procès en première instance ou en appel (en fonction des résultats d’affaires analogues). Ils pourraient aussi aider les avocats à identifier les points à mettre en avant pour augmenter leurs chances de gagner.
Autres utilisations de l’IA dans le cadre des procédures juridiques
Les juridictions civiles peuvent appliquer l’IA à des fins plus larges. Les avocats s’en servent pour rédiger des contrats ou pour analyser des documents et en extraire des données dans le cadre des procédures d’enquête et de vérification (Marr, 2018[88]). L’utilisation de l’IA pourrait s’étendre à d’autres domaines similaires de la justice pénale comme les négociations de peine et les interrogatoires. Cependant, parce que les modalités de conception et d’utilisation des algorithmes peuvent influer sur leurs résultats, il convient de porter la plus grande attention aux répercussions de l’IA sur l’action publique.
L’IA dans le secteur de la sécurité
L’IA promet d’aider à résoudre les problèmes complexes de sécurité physique et numérique. En 2018, les dépenses mondiales de défense devraient atteindre 1 670 milliards USD, ce qui représente une augmentation de 3.3 % en glissement annuel (IHS, 2017[89]). Mais le secteur public n’est pas le seul à investir dans la sécurité : il était estimé que le secteur privé dépenserait 96 milliards USD, à l’échelle de la planète, pour répondre aux risques de sécurité en 2018, soit une hausse de 8 % par rapport à 2017 (Gartner, 2017[90]). En montrant que les violations des données peuvent avoir de larges conséquences économiques et sociales et des répercussions sur la sécurité nationale, les récentes attaques de sécurité numérique de grande ampleur ont rendu la société dans son ensemble plus sensible à la question. Dans ce contexte, les acteurs privés comme publics adoptent et déploient des technologies de l’IA pour s’adapter à la nouvelle situation mondiale en matière de sécurité. Cette section s’intéresse à deux filières du secteur de la sécurité qui connaissent un essor particulier : la sécurité numérique et la surveillance12,13.
IA et sécurité numérique
L’IA est déjà très présente dans les applications de sécurité numérique pour tout ce qui concerne la sécurité des réseaux, la détection des anomalies, l’automatisation des opérations de sécurité et la détection des menaces (OCDE, 2018[24]). Dans le même temps, on s’attend à une augmentation des utilisations malveillantes de l’IA, qui peuvent se manifester notamment à travers l’identification des vulnérabilités logicielles dans le but de les exploiter et ainsi de porter atteinte à l’accessibilité, l’intégrité ou la confidentialité des systèmes, des réseaux ou des données. Cette évolution modifiera la nature et le niveau global des risques de sécurité numérique.
Deux tendances rendent les systèmes d’IA d’autant plus pertinents pour la sécurité : le nombre croissant d’attaques de sécurité numérique et la pénurie de main d’œuvre dans le secteur de la sécurité numérique (ISACA, 2016[91]). Dans ce contexte, les outils d’apprentissage automatique et les systèmes d’IA gagnent en pertinence pour automatiser la détection des menaces et la réponse aux incidents (MIT, 2018[92]). Face à des logiciels malveillants en mutation constante, l’apprentissage automatique est devenu indispensable pour combattre les attaques telles que les virus polymorphiques, le déni de service et le hameçonnage14. Des fournisseurs de messagerie de premier plan, comme Gmail et Outook, utilisent, avec un succès variable, l’apprentissage automatique depuis plus de dix ans pour filtrer les courriels non désirés ou pernicieux. L’Encadré 3.1 illustre quelques-unes des utilisations possibles de l’IA pour protéger les entreprises des menaces de malveillance.
Encadré 3.1. Utiliser l’IA pour gérer les risques de sécurité numérique dans les entreprises
Beaucoup d’entreprises comme Darktrace ou Vectra appliquent l’apprentissage automatique et l’intelligence artificielle à la détection et à la gestion des attaques de sécurité numérique en temps réel. Le produit Enterprise Immune System de Darktrace n’a besoin d’aucune expérience préalable de menace pour comprendre les dangers potentiels. Les algorithmes d’IA découvrent par itération les schémas récurrents et les principes de cohérence propres à un réseau pour déceler les menaces émergentes qui, autrement, ne seraient pas repérées. D’un point de vue méthodologique, le système de Darktrace est analogue au système immunitaire humain, qui apprend le fonctionnement normal du corps, identifie automatiquement les situations anormales, et neutralise les menaces.
De son côté, Vectra a développé une plateforme automatisée toujours active et en apprentissage, appelée Cognito Platform, qui débusque les attaquants dans les environnements en nuage. Cette plateforme rend pleinement visibles les comportements des attaquants dans le nuage et les flux de travaux des centres de données vers les utilisateurs et les terminaux connectés. Il est ainsi de plus en plus difficile pour les attaquants de se cacher.
Source : www.darktrace.com/ ; https://vectra.ai/.
L’erreur humaine est fréquente en codage informatique. On estime à neuf sur dix le nombre d’attaques de sécurité numérique dont l’origine est due à une erreur dans le code logiciel, et ce en dépit du temps important de développement – de 50 % à 75 % – consacré aux tests (FT, 2018[93]). Étant donné les milliards de lignes de code écrites chaque année, et la réutilisation des routines des bibliothèques logicielles propriétaires constituées par des tiers, la détection et la correction des erreurs de code sont des tâches éprouvantes pour l’œil humain. Des pays comme les États-Unis et la Chine financent des projets de recherche pour concevoir des systèmes d’IA capables de détecter les vulnérabilités de sécurité des logiciels. Des entreprises comme l’éditeur de jeux vidéo Ubisoft commencent à utiliser l’IA pour repérer les erreurs encore présentes dans le code avant son déploiement, ce qui a de fait permis de réduire le temps de test de 20 % (FT, 2018[93]). En pratique, les technologies de vérification du code fondées sur l’IA fonctionnent comme les correcteurs orthographiques et grammaticaux des logiciels de traitement de texte. Mais elles ont la capacité d’apprendre et de gagner en efficacité au fil des utilisations (FT, 2018[93]).
L’IA dans le secteur de la surveillance
Les villes s’équipent en infrastructures numériques, notamment de surveillance. Pour renforcer la sécurité publique, on déploie divers outils fondés sur l’IA. Les caméras intelligentes, par exemple, peuvent détecter une bagarre. Certains dispositifs peuvent aussi automatiquement repérer et enregistrer un tir d’arme à feu, le signaler et en fournir l’emplacement précis. Cette section examine la façon dont l’IA est en passe de transformer radicalement le monde de la surveillance et de la sécurité publique.
La vidéosurveillance est de plus en plus utilisée pour renforcer la sécurité publique. Au Royaume-Uni, une étude récente estime que les vidéos de sécurité ont fourni des éléments de preuve utiles dans 65 % des cas de crimes commis sur le réseau ferré britannique entre 2011 et 2015 quand un film de vidéosurveillance était disponible (Ashby, 2017[94]). Or, le nombre impressionnant de caméras de surveillance – 245 millions dans le monde en 2014 – signifie que le volume des données produites ne cesse de croître : de 413 pétaoctets (Po) d’information par jour en 2013, on est passé à environ 860 Po par jour en 2017 (Jenkins, 2015[95]) ; (Civardi, 2017[96]). Or, les capacités humaines ne suffisent pas à traiter de telles quantités d’informations. C’est pourquoi on utilise des technologies de l’IA pour traiter ces données massives et automatiser les processus mécaniques de détection et de contrôle. L’IA permet en outre aux systèmes de sécurité de repérer les crimes et d’intervenir en temps réel Encadré 3.2.
Encadré 3.2. Surveillance avec des caméras « intelligentes »
En France, le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) en partenariat avec Thales, utilise des algorithmes d’apprentissage profond pour analyser et interpréter automatiquement les vidéos d’applications de sécurité. Un module de détection d’événement violent repère automatiquement les interactions violentes telles qu’une bagarre ou une agression filmées par des caméras de télévision en circuit fermé et alerte les opérateurs en temps réel. Un autre module aide à localiser les auteurs sur le réseau de caméras. Ces applications sont actuellement évaluées par deux sociétés françaises de transport en commun, la RATP et la SNCF, à Châtelet-Les Halles et Gare du Nord, deux des stations parisiennes de métro et de train les plus fréquentées. La municipalité française de Toulouse utilise aussi des caméras intelligentes pour signaler les comportements inhabituels et les bagages abandonnés dans les lieux publics. Des projets analogues sont en cours d’expérimentation à Berlin, Rotterdam et Shanghai.
Source : Démonstrations et informations fournies à l’OCDE par CEA Tech et Thales en 2018. Pour de plus amples informations, consulter la page www.gouvernement.fr/sites/default/files/contenu/piece-jointe/2015/11/projet_voie_videoprotection_ouverte_et_integree_appel_a_projets.pdf.
Encadré 3.3. La reconnaissance faciale comme outil de surveillance
Les technologies de reconnaissance faciale sont de plus en plus utilisées à des fins de surveillance par les acteurs publics et privés (Graphique 3.4). L’IA améliore les systèmes traditionnels en permettant une identification plus rapide et plus précise dans les cas où ces derniers ne pourraient être efficaces, par exemple quand la luminosité est insuffisante ou quand la personne qu’on cherche à apercevoir est en partie cachée par quelque chose. Des entreprises comme FaceFirst ont combiné des outils de reconnaissance faciale et d’IA pour proposer des solutions de prévention du vol, de la fraude et de la violence. La conception de solutions de ce genre répond à des considérations spécifiques, dans le respect des plus hauts niveaux de sécurité et de protection de la vie privée : anti-profilage pour empêcher la discrimination, chiffrement des données des images, et intervalles de temps définis de façon stricte pour la purge des données. On retrouve ces outils de surveillance dans de nombreux secteurs, qui vont du commerce de détail (pour empêcher le vol à l’étalage) au secteur bancaire (pour empêcher l’usurpation d’identité), aux services de police (sécurité des frontières), à la gestion événementielle (pour reconnaître des personnes interdites d’accès) et aux casinos (pour repérer les personnalités).
Étant donné la dualité de l’IA, les outils de surveillance qui l’exploitent pourraient être utilisés à des fins illégitimes allant à l’encontre des principes décrits au chapitre 4. L’IA est légitime notamment quand il s’agit d’activités des services de police dans le cadre d’enquêtes criminelles, pour détecter et stopper les crimes dès que possible, ou quand il s’agit de lutte antiterroriste. Les technologies de reconnaissance vocale se sont révélées pertinentes à cet égard (Encadré 3.3). Cependant, l’impact de l’IA sur la surveillance va au-delà des systèmes de reconnaissance faciale. Elle contribue aussi de plus en plus à améliorer les technologies de reconnaissance sans visage, c’est-à-dire les techniques qui fondent l’identification sur d’autres informations relatives à la personne (la taille, le type de vêtements, la corpulence, la posture, etc.). De plus, l’IA est efficace lorsqu’on l’associe à des techniques de retouche numérique : on entraîne des réseaux de neurones, en leur présentant des millions d’images, à reconnaître les caractéristiques usuelles d’éléments physiques tels que la peau, les cheveux ou même les briques d’un mur. Le système peut ensuite reconnaître ces caractéristiques dans de nouvelles images et y ajouter des détails et des textures au moyen des connaissances précédemment acquises. On peut alors combler les lacunes des images de mauvaise résolution et améliorer l’efficacité des systèmes de surveillance (Medhi, Scholkopf et Hirsch, 2017[97]).
L’IA dans le secteur public
L’IA peut être utilisée à des fins très diverses par les administrations publiques. Ses applications ont déjà un impact sur les modalités de fonctionnement du secteur public et l’élaboration des politiques au service des citoyens et des entreprises. Les services concernés sont notamment les services de santé, de transport et de sécurité15.
Les pouvoirs publics des pays de l’OCDE expérimentent des solutions et mettent en œuvre des projets dans le but de mieux répondre, avec l’IA, aux besoin des utilisateurs des services publics. Ils veulent aussi améliorer la gestion de leurs ressources (par exemple, pour réduire le temps que les agents de la fonction public consacrent à l’assistance à la clientèle et aux tâches administratives). Justement, les technologies de l’IA pourraient augmenter l’efficience et la qualité de nombreuses procédures du secteur public. Par exemple, elles pourraient donner aux citoyens la possibilité de participer dès le début aux processus de conception d’un service et d’interagir avec les services de l’État de façon plus souple, efficace et personnalisée. Correctement conçues et déployées, elles pourraient être intégrées au processus d’élaboration des politiques dans son ensemble, soutenir les réformes du secteur public, et améliorer la productivité du secteur public.
Certains pays ont déjà déployé des systèmes d’IA pour renforcer leurs programmes médico-sociaux. L’IA permettrait par exemple d’optimiser les niveaux d’inventaire des bureaux des services d’action sanitaire et sociale. En effet, grâce à des technologies d’apprentissage automatique, on pourrait analyser les données des transactions et faire des prédictions de plus en plus précises concernant les réapprovisionnements. Cela faciliterait en retour la prévision et l’élaboration des politiques. Au Royaume-Uni, les pouvoirs publics utilisent aussi l’IA pour détecter la fraude aux prestations sociales (Marr, 2018[98]).
L’IA en association avec réalité augmentée et réalité virtuelle
Avec les technologies de l’IA et des tâches de reconnaissance visuelle à haut niveau comme la classification d’images et la détection d’objets, les entreprises développent des matériels et des logiciels de réalité augmentée et de réalité virtuelle. Ces nouveaux produits proposent de nouvelles formes d’expériences d’immersion, d’enseignement et de formation, d’aide aux personnes en situation de handicap ou encore de divertissement. La réalité augmentée et la réalité virtuelle se sont considérablement améliorées depuis le premier prototype de casque de réalité virtuelle mis au point en 1968 par Ivan Sutherland pour le visionnage d’images en 3D. Trop lourd à porter, le casque devait être fixé au plafond (Günger et Zengin, 2017[99]). Aujourd’hui, les entreprises de réalité virtuelle fournissent des expériences de flux vidéo (streaming) à 360 degrés avec des casques beaucoup plus légers. S’agissant de réalité augmentée, Pokemon GO a attiré l’attention des consommateurs en 2016 et les attentes restent très élevées. Des applications avec IA intégrée sont déjà commercialisées. IKEA propose à sa clientèle une appli mobile permettant de se rendre compte de l’effet et de la position d’un meuble dans un espace donné avec une précision pouvant aller jusqu’à 1 millimètre (Jesus, 2018[100]). Certaines entreprises technologiques développent aussi des applications pour les personnes malvoyantes16.
L’IA pour des applications de réalité augmentée/virtuelle interactives
Le développement de la réalité augmentée et de la réalité virtuelle s’accompagne de celui de l’IA qui offre le moyen de les rendre interactives, avec des contenus plus attractifs et intuitifs. Les technologies de l’IA permettent aux applications de réalité augmentée/virtuelle de détecter les mouvements d’une personne, en particulier de ses yeux et de ses mains, et de les interpréter avec une très haute précision permettant de personnaliser le contenu en temps réel en fonction de la réaction de la personne (Lindell, 2017[101]). En associant IA et réalité virtuelle, on peut par exemple savoir quand l’utilisateur observe une portion spécifique de l’espace, et n’y afficher un contenu à haute résolution que dans ce cas précis. On économise ainsi des ressources de calcul, on réduit les délais et on évite les pertes d’images (Hall, 2017[102]). Le développement symbiotique des technologies de l’IA, de la réalité augmentée et de la réalité virtuelle devrait se faire dans divers domaines comme la recherche marketing, les simulations de formation, ou encore l’éducation (Kilpatrick, 2018[103]), (Stanford, 2016[104]).
Des systèmes de réalité virtuelle pour entraîner l’IA
Il faut de grandes quantités de données pour entraîner certains systèmes d’IA. C’est pourquoi l’indisponibilité des données demeure un problème important. Par exemple, les systèmes d’IA des voitures autonomes doivent être entraînés à la gestion de situations critiques, mais il existe peu de données réelles sur des situations telles que des enfants qui traversent une rue en courant. L’autre solution serait donc de développer des réalités numériques : les systèmes d’IA seraient entraînés dans des environnements simulés par ordinateur, qui reproduisent fidèlement les caractéristiques pertinentes du monde réel. De tels environnements simulés pourraient aussi servir à valider la performance des systèmes d’IA (« examen de permis de conduire » pour les véhicules autonomes, par exemple) (Slusallek, 2018[105]).
Ce type d’application intéresse d’autres domaines que celui des transports. De fait, une équipe de recherche a conçu une plateforme appelée Household Multimodal Environment (HoME) pour simuler un environnement où entraîner des robots ménagers. Cette plateforme est actuellement dotée d’une base de données de plus de 45 000 configurations diverses d’habitations en 3D, grâce à laquelle elle peut créer un environnement réaliste dans lequel des agents artificiels peuvent apprendre par l’intermédiaire de la vision, de l’audition, de la sémantique, de la physique et de l’interaction avec des objets et d’autres agents (Brodeur et al., 2017[106]).
En permettant aux systèmes d’IA d’apprendre de façon empirique (essai et erreur), les simulations de réalité virtuelle dans le nuage seraient idéales pour des sessions d’entraînement, en particulier d’entraînement aux situations de crise. Le développement des technologies infonuagiques devrait aider à donner corps à de tels environnements. En octobre 2017, NVIDIA a annoncé la création d’un simulateur de réalité virtuelle dans le nuage, capable de répliquer avec précision les lois de la physique dans des environnements représentant le monde réel. Il est probable que l’on mettra au point un nouveau terrain d’entraînement des systèmes d’IA dans quelques années (Solotko, 2017[107]).
Références
[86] Aletras, N. et al. (2016), « Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective », PeerJ Computer Science, vol. 2, p. e93, http://dx.doi.org/10.7717/peerj-cs.93.
[83] Angwin, J. et al. (2016), « Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks », ProPublica, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
[94] Ashby, M. (2017), « The value of CCTV surveillance cameras as an investigative tool: An empirical analysis », European Journal on Criminal Policy and Research, vol. 23/3, pp. 441-459, http://dx.doi.org/10.1007/s10610-017-9341-6.
[74] Barocas, S. et A. Selbst (2016), « Big data’s disparate impact », California Law Review, vol. 104, pp. 671-729, http://www.californialawreview.org/wp-content/uploads/2016/06/2Barocas-Selbst.pdf.
[82] Bavitz, C. et K. Hessekiel (2018), Algorithms and Justice: Examining the Role of the State in the Development and Deployment of Algorithmic Technologies, Berkman Klein Center for Internet and Society, https://cyber.harvard.edu/story/2018-07/algorithms-and-justice.
[32] Berg, T. et al. (2018), « On the Rise of FinTechs – Credit Scoring Using Digital Footprints », NBER Working Paper Series, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3163781.
[52] Bloom, N. et al. (2017), « Are ideas getting harder to find? », document de travail, n° 23782, National Bureau of Economic Research, Cambridge, MA, http://dx.doi.org/10.3386/w23782.
[3] Bösch, P. et al. (2018), « Cost-based analysis of autonomous mobility services », Transport Policy, vol. 64, pp. 76-91.
[15] Bose, A. et al. (2016), « The VEICL Act: Safety and security for modern vehicles », Willamette Law Review, vol. 53, p. 137.
[76] Brayne, S., A. Rosenblat et D. Boyd (2015), « Predictive Policing, Data & Civil Rights: A New Era of Policing and Justice », Pennsylvania Law Review, vol. 163/327, http://www.datacivilrights.org/pubs/2015-1027/Predictive_Policing.pdf.
[106] Brodeur, S. et al. (2017), « HoME: A Household Multimodal Environment », arXiv, Cornell University, 1107, https://arxiv.org/abs/1711.11017.
[50] Brodmerkel, S. (2017), « Dynamic pricing: Retailers using artificial intelligence to predict top price you’ll pay », ABC News, 27 juin, http://www.abc.net.au/news/2017-06-27/dynamic-pricing-retailers-using-artificial-intelligence/8638340.
[108] Brundage, M. et al. (2018), The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Future of Humanity Institute, University of Oxford, Centre for the Study of Existential Risk, University of Cambridge, Centre for a New American Security, Electronic Frontier Foundation and Open AI, https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf.
[79] Burgess, M. (2018), « UK police are using AI to make custodial decisions but it could be discriminating against the poor », WIRED 1 mars, http://www.wired.co.uk/article/police-ai-uk-durham-hart-checkpoint-algorithm-edit.
[60] Butler, K. et al. (2018), « Machine learning for molecular and materials science », Nature, vol. 559/7715, pp. 547-555, http://dx.doi.org/10.1038/s41586-018-0337-2.
[7] Carey, N. et P. Lienert (2018), « Honda to invest $2.75 billion in GM’s self-driving car unit », Reuters, 3 octobre, https://www.reuters.com/article/us-gm-autonomous/honda-buys-in-to-gm-cruise-self-driving-unit-idUSKCN1MD1GW.
[37] CFPB (2017), « CFPB explores impact of alternative data on credit access for consumers who are credit invisible », Consumer Financial Protection Bureau, https://www.consumerfinance.gov/about-us/newsroom/cfpb-explores-impact-alternative-data-credit-access-consumers-who-are-credit-invisible/.
[44] Cheng, E. (2017), « Just 10% of trading is regular stock picking, JPMorgan estimates », CNBC, 13 June, https://www.cnbc.com/2017/06/13/death-of-the-human-investor-just-10-percent-of-trading-is-regular-stock-picking-jpmorgan-estimates.html.
[41] Chintamaneni, P. (26 juin 2017), How banks can use AI to reduce regulatory compliance burdens, digitally.cognizant Blog, https://digitally.cognizant.com/how-banks-can-use-ai-to-reduce-regulatory-compliance-burdens-codex2710/.
[45] Chow, M. (2017), « AI and machine learning get us one step closer to relevance at scale », Google, https://www.thinkwithgoogle.com/marketing-resources/ai-personalized-marketing/.
[81] Christin, A., A. Rosenblat et D. Boyd (2015), Courts and Predictive Algorithms, Data & Civil Rights, A New Era of Policing and Justice, New York University, http://www.law.nyu.edu/sites/default/files/upload_documents/Angele%20Christin.pdf.
[96] Civardi, C. (2017), Video Surveillance and Artificial Intelligence: Can A.I. Fill the Growing Gap Between Video Surveillance Usage and Human Resources Availability?, Balzano Informatik, http://dx.doi.org/10.13140/RG.2.2.13330.66248.
[8] CMU (2015), « Uber, Carnegie Mellon announce strategic partnership and creation of advanced technologies center in Pittsburgh », Carnegie Mellon University News, 2 février, https://www.cmu.edu/news/stories/archives/2015/february/uber-partnership.html.
[64] Comfort, S. et al. (2018), « Sorting through the safety data haystack: Using machine learning to identify individual case safety reports in social-digital media », Drug Safety, vol. 41/6, pp. 579-590, https://www.ncbi.nlm.nih.gov/pubmed/29446035.
[26] Cooke, A. (2017), Digital Earth Australia, exposé présenté à la conférence AI: Intelligent Machines, Smart Policies, Paris, les 26 et 27 octobre 2017, http://www.oecd.org/going-digital/ai-intelligent-machines-smart-policies/conference-agenda/ai-intelligent-machines-smart-policies-cooke.pdf.
[31] CSF (2017), Artificial Intelligence and Machine Learning in Financial Services: Market Developments and Financial Stability Implications, Conseil de stabilité financière, Bâle.
[51] De Jesus, A. (2018), « Augmented reality shopping and artificial intelligence – Near-term applications », Emerj, 18 décembre, https://www.techemergence.com/augmented-reality-shopping-and-artificial-intelligence/.
[2] Fagnant, D. et K. Kockelman (2015), « Preparing a nation for autonomous vehicles: Opportunities, barriers and policy recommendations », Transportation Research A: Policy and Practice, vol. 77, pp. 167-181, https://www.sciencedirect.com/science/article/pii/S0.
[20] FAO (2017), « Can artificial intelligence help improve agricultural productivity? », e-agriculture, 19 décembre, http://www.fao.org/e-agriculture/news/can-artificial-intelligence-help-improve-agricultural-productivity.
[21] FAO (2009), Comment nourrir le monde en 2050, Organisation des Nations Unies pour l’alimentation et l’agriculture, Rome, http://www.fao.org/fileadmin/templates/wsfs/docs/expert_paper/How_to_Feed_the_World_in_2050.pdf.
[66] FDA (2018), FDA permits marketing of artificial intelligence-based device to detect certain diabetes-related eye problems, Food and Drug Administration, News Release 11 avril 2018, https://www.fda.gov/NewsEvents/Newsroom/PressAnnouncements/ucm604357.htm.
[75] Ferguson, A. (2014), « Big Data and Predictive Reasonable Suspicion », SSRN Electronic Journal, http://dx.doi.org/10.2139/ssrn.2394683.
[12] FIT (2018), Safer Roads with Automated Vehicles?, Forum international des transports, https://www.itf-oecd.org/sites/default/files/docs/safer-roads-automated-vehicles.pdf.
[84] Flores, A., K. Bechtel et C. Lowenkamp (2016), False positives, false negatives, and false analyses: A rejoinder to “Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks« , Federal probation, 80.
[17] Fridman, L. (8 octobre 2018), « Tesla autopilot miles », MIT Human-Centered AI Blog, https://hcai.mit.edu/tesla-autopilot-miles/.
[18] Fridman, L. et al. (2018), « MIT autonomous vehicle technology study: Large-scale deep learning based analysis of driver behavior and interaction with automation », arXiv, Cornell University, vol. 30/September, https://arxiv.org/pdf/1711.06976.pdf.
[93] FT (2018), « US and China back AI bug-detecting projects », Financial Times, Cyber Security and Artificial Intelligence, 28 septembre, https://www.ft.com/content/64fef986-89d0-11e8-affd-da9960227309.
[90] Gartner (2017), « Gartner’s worldwide security spending forecast », Gartner, 7 décembre, https://www.gartner.com/newsroom/id/3836563.
[36] Gordon, M. et V. Stewart (2017), « CFPB insights on alternative data use on credit scoring », Law 360, 3 May, https://www.law360.com/articles/919094/cfpb-insights-on-alternative-data-use-in-credit-scoring.
[99] Günger, C. et K. Zengin (2017), A Survey on Augmented Reality Applications using Deep Learning, https://www.researchgate.net/publication/322332639_A_Survey_On_Augmented_Reality_Applications_Using_Deep_Learning.
[102] Hall, N. (2017), « 8 ways AI makes virtual & augmented reality even more real, », Topbots, 13 mai, https://www.topbots.com/8-ways-ai-enables-realistic-virtual-augmented-reality-vr-ar/.
[6] Higgins, T. et C. Dawson (2018), « Waymo orders up to 20,000 Jaguar SUVs for driverless fleet », Wall Street Journal, 27 mars, https://www.wsj.com/articles/waymo-orders-up-to-20-000-jaguar-suvs-for-driverless-fleet-1522159944.
[46] Hinds, R. (2018), How Natural Language Processing is shaping the Future of Communication, MarTechSeries, Marketing Technology Insights, 5 février, https://martechseries.com/mts-insights/guest-authors/how-natural-language-processing-is-shaping-the-future-of-communication/.
[48] Hong, P. (27 août 2017), « Using machine learning to boost click-through rate for your ads », LinkedIn Blog, https://www.linkedin.com/pulse/using-machine-learning-boost-click-through-rate-your-ads-tay/.
[73] Horgan, J. (2008), « Against prediction: Profiling, policing, and punishing in an actuarial age – by Bernard E. Harcourt », Review of Policy Research, vol. 25/3, pp. 281-282, http://dx.doi.org/10.1111/j.1541-1338.2008.00328.x.
[87] Hutson, M. (2017), « Artificial intelligence prevails at predicting Supreme Court decisions », Science Magazine, 2 mai, http://www.sciencemag.org/news/2017/05/artificial-intelligence-prevails-predicting-supreme-court-decisions.
[61] Hu, X. (dir. pub.) (2017), « Human-in-the-loop Bayesian optimization of wearable device parameters », PLOS ONE, vol. 12/9, p. e0184054, http://dx.doi.org/10.1371/journal.pone.0184054.
[89] IHS (2017), « Global defence spending to hit post-Cold War high in 2018 », IHS Markit 18 décembre, https://ihsmarkit.com/research-analysis/global-defence-spending-to-hit-post-cold-war-high-in-2018.html.
[14] Inners, M. et A. Kun (2017), Beyond Liability: Legal Issues of Human-Machine Interaction for Automated Vehicles, Proceedings of the 9th International Conference on Automotive User Interfaces and Interactive Vehicular Applications, septembre, pp. 245-253, http://dx.doi.org/10.1145/3122986.3123005.
[63] Institut canadien d’information sur la santé (2013), « Une meilleure information pour une meilleure santé : vision de l’utilisation des données pour les besoins du système de santé au Canada », en collaboration avec Inforoute Santé du Canada, https://www.cihi.ca/sites/default/files/hsu_vision_report_fr_0.pdf.
[91] ISACA (2016), The State of Cybersecurity: Implications for 2016, An ISACA and RSA Conference Survey, Cybersecurity Nexus, https://www.isaca.org/cyber/Documents/state-of-cybersecurity_res_eng_0316.pdf.
[30] Jagtiani, J. et C. Lemieux (2019), « The roles of alternative data and machine learning in Fintech lending: Evidence from the LendingClub Consumer Platform », Document de travail, n° 18-15, Federal Reserve Bank of Philadelphia, http://dx.doi.org/10.21799/frbp.wp.2018.15.
[95] Jenkins, N. (2015), « 245 million video surveillance cameras installed globally in 2014 », IHS Markit, Market Insight, 11 June, https://technology.ihs.com/532501/245-million-video-surveillance-cameras-installed-globally-in-2014.
[100] Jesus, A. (2018), « Augmented reality shopping and artificial intelligence – near-term applications », Emerj, 12 décembre, https://www.techemergence.com/augmented-reality-shopping-and-artificial-intelligence/.
[77] Joh, E. (2017), « The undue influence of surveillance technology companies on policing », New York University Law Review, vol. 91/101, http://dx.doi.org/10.2139/ssrn.2924620.
[22] Jouanjean, M. (2019), « Digital opportunities for trade in the agriculture and food sectors », Documents de l’OCDE sur l’alimentation, l’agriculture et les pêcheries, n° 122, Éditions OCDE, Paris, https://doi.org/10.1787/91c40e07-en.
[80] Kehl, D., P. Guo et S. Kessler (2017), Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessment in Sentencing, Responsive Communities Initiative, Responsive Communities Initiative, Berkman Klein Center for Internet & Society, Harvard Law School.
[103] Kilpatrick, S. (2018), « The rising force of deep learning in VR and AR », Logik, 28 mars, https://www.logikk.com/articles/deep-learning-in-vr-and-ar/.
[56] King, R. et al. (2004), « Functional genomic hypothesis generation and experimentation by a robot scientist », Nature, vol. 427/6971, pp. 247-252, http://dx.doi.org/10.1038/nature02236.
[85] Kleinberg, J. et al. (2017), « Human decisions and machine predictions », document de travail, n° 23180, National Bureau of Economic Research, Cambridge, MA.
[67] Lee, C., D. Baughman et A. Lee (2017), « Deep learning is effective for classifying normal versus age-related macular degeneration OCT images », Opthamology Retina, vol. 1/4, pp. 322-327.
[10] Lee, T. (2018), « Fully driverless Waymo taxis are due out this year, alarming critics », Ars Technica, 1 octobre, https://arstechnica.com/cars/2018/10/waymo-wont-have-to-prove-its-driverless-taxis-are-safe-before-2018-launch/.
[101] Lindell, T. (2017), « Augmented reality needs AI in order to be effective », AI Business, 6 novembre, https://aibusiness.com/holographic-interfaces-augmented-reality/.
[5] Lippert, J. et al. (2018), « Toyota’s vision of autonomous cars is not exactly driverless », Bloomberg Business Week, 19 septembre, https://www.bloomberg.com/news/features/2018-09-19/toyota-s-vision-of-autonomous-cars-is-not-exactly-driverless.
[88] Marr, B. (2018), « How AI and machine learning are transforming law firms and the legal sector », Forbes, 23 May, https://www.forbes.com/sites/bernardmarr/2018/05/23/how-ai-and-machine-learning-are-transforming-law-firms-and-the-legal-sector/#7587475832c3.
[98] Marr, B. (2018), « How the UK government uses artificial intelligence to identify welfare and state benefits fraud », Forbes, 29 October, https://www.forbes.com/sites/bernardmarr/2018/10/29/how-the-uk-government-uses-artificial-intelligence-to-identify-welfare-and-state-benefits-fraud/#f5283c940cb9.
[68] Mar, V. et H. Soyer (2018), « Artificial intelligence for melanoma diagnosis: How can we deliver on the promise? », Annals of Oncology, vol. 29/8, pp. 1625-1628, http://dx.doi.org/10.1093/annonc/mdy193.
[55] Matchar, E. (2017), « AI plant and animal identification helps us all be citizen scientists », Smithsonian.com, 7 June, https://www.smithsonianmag.com/innovation/ai-plant-and-animal-identification-helps-us-all-be-citizen-scientists-180963525/.
[78] Mateescu, A. et al. (2015), Social Media Surveillance and Law Enforcement, New Era of Criminal Justice and Policing, Data Civil Rights, http://www.datacivilrights.org/pubs/2015-1027/Social_Media_Surveillance_and_Law_Enforce.
[97] Medhi, S., B. Scholkopf et M. Hirsch (2017), « EnhanceNet: Single image super-resolution through automated texture synthesis », arrXiv, Cornell University, 1612.07919, https://arxiv.org/abs/1612.07919.
[92] MIT (2018), « Cybersecurity’s insidious new threat: Workforce stress », MIT Technology Review, 7 August, https://www.technologyreview.com/s/611727/cybersecuritys-insidious-new-threat-workforce-stress/.
[57] OCDE (2018), « Artificial intelligence and machine learning in science », OECD Science, Technology and Innovation Outlook 2018, Éditions OCDE, Paris.
[1] OCDE (2018), Base de données pour l’analyse structurelle (STAN), Rév. 4, divisions 49-53, consulté en janvier 2018, http://www.oecd.org/fr/industrie/ind/stanbasededonneespourlanalysestructurelle.htm.
[109] OCDE (2018), « Personalised pricing in the digital era – Note by the United Kingdom », Key paper for the joint meeting of the OECD Consumer Protection and Competition committees, OCDE, Paris, http://www.oecd.org/daf/competition/personalised-pricing-in-the-digital-era.htm.
[24] OCDE (2018), Perspectives de l’économie numérique de l’OCDE 2017, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264282483-fr.
[53] OCDE (2018), Science, technologie et innovation : Perspectives de l’OCDE 2018 (version abrégée) : S’adapter aux bouleversements technologiques et sociétaux, Éditions OCDE, Paris, https://dx.doi.org/10.1787/sti_in_outlook-2018-fr.
[39] OCDE (2017), Technology and Innovation in the Insurance Sector, Éditions OCDE, Paris, https://www.oecd.org/finance/Technology-and-innovation-in-the-insurance-sector.pdf (consulté le 28 août 2018).
[71] OCDE (2016), Recommandation du Conseil sur la gouvernance des données de santé, Éditions OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0433.
[62] OCDE (2015), Data-Driven Innovation : Big Data for Growth and Well-Being, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264229358-en.
[19] OCDE (2014), « Skills and jobs in the Internet economy », Documents de travail de l’OCDE sur l’économie numérique, n° 242, Éditions OCDE, Paris.
[69] OCDE (s.d.), La gestion des nouvelles technologies de santé : Concilier accès, valeur et viabilité, Éditions OCDE, Paris, https://dx.doi.org/10.1787/g2g73036-fr.
[34] O’Dwyer, R. (2018), Algorithms are making the same mistakes assessing credit scores that humans did a century ago, Quartz, 14 mai 2018, https://qz.com/1276781/algorithms-are-making-the-same-mistakes-assessing-credit-scores-that-humans-did-a-century-ago/.
[4] Ohnsman, A. (2018), « Waymo dramatically expanding autonomous taxi fleet, eyes sales to individuals », Forbes, 31 May, https://www.forbes.com/sites/alanohnsman/2018/05/31/waymo-adding-up-to-62000-minivans-to-robot-fleet-may-supply-tech-for-fca-models.
[9] ORAD (2016), « Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles », On-Road Automated Driving (ORAD) Committee, SAE International, http://dx.doi.org/10.4271/j3016_201609.
[70] Ornstein, C. et K. Thomas (2018), Sloan Kettering’s Cozy Deal With Start-Up Ignites a New Uproar, The New York Times, 20 septembre 2018, https://www.nytimes.com/2018/09/20/health/memorial-sloan-kettering-cancer-paige-ai.html.
[65] Patton, E. (2018), Integrating Artificial Intelligence for Scaling Internet of Things in Health Care, OCDE-GCOA-Cornell-Tech Expert Consultation on Growing and Shaping the Internet of Things Wellness and Care Ecosystem, 4-5 octobre, New York.
[47] Plummer, L. (2017), « This is how Netflix’s top-secret recommendation system works », WIRED, 22 August, https://www.wired.co.uk/article/how-do-netflixs-algorithms-work-machine-learning-helps-to-predict-what-viewers-will-like.
[29] Press, G. (2017), « Equifax and SAS leverage AI and deep learning to improve consumer access to credit », Forbes, 20 February, https://www.forbes.com/sites/gilpress/2017/02/20/equifax-and-sas-leverage-ai-and-deep-learning-to-improve-consumer-access-to-credit/2/#2ea15ddd7f69.
[23] Rakestraw, R. (2017), « Can artificial intelligence help feed the world? », Forbes, 6 September, https://www.forbes.com/sites/themixingbowl/2017/09/05/can-artificial-intelligence-help-feed-the-world/#16bb973646db.
[25] Roeland, C. (2017), EC Perspectives on the Earth Observation, exposé présenté à la conférence AI: Intelligent Machines, Smart Policies, Paris, les 26 et 27 octobre 2017, http://www.oecd.org/going-digital/ai-intelligent-machines-smart-policies/conference-agenda/ai-intelligent-machines-smart-policies-roeland.pdf.
[35] Rollet, C. (2018), « The odd reality of life under China’s all-seeing credit score system », WIRED, 5 June, https://www.wired.co.uk/article/china-blacklist.
[59] Segler, M., M. Preuss et M. Waller (2018), « Planning chemical syntheses with deep neural networks and symbolic AI », Nature, vol. 555/7698, pp. 604-610, http://dx.doi.org/10.1038/nature25978.
[28] Simon, M. (2017), « Phone-powered AI spots sick plants with remarkable accuracy », WIRED, 2 February, https://www.wired.com/story/plant-ai/.
[105] Slusallek, P. (2018), Artificial Intelligence and Digital Reality: Do We Need a CERN for AI?, The Forum Network, OCDE, Paris, https://www.oecd-forum.org/channels/722-digitalisation/posts/28452-artificial-intelligence-and-digital-reality-do-we-need-a-cern-for-ai.
[40] Sohangir, S. et al. (2018), « Big data: Deep learning for financial sentiment analysis », Journal of Big Data, vol. 5/1, http://dx.doi.org/10.1186/s40537-017-0111-6.
[38] Sokolin, L. et M. Low (2018), Machine Intelligence and Augmented Finance: How Artificial Intelligence Creates $1 Trillion Dollar of Change in the Front, Middle and Back Office, Autonomous Research LLP, https://next.autonomous.com/augmented-finance-machine-intelligence.
[107] Solotko, S. (2017), « Virtual reality is the next training ground for artificial intelligence », Forbes, 11 October, https://www.forbes.com/sites/tiriasresearch/2017/10/11/virtual-reality-is-the-next-training-ground-for-artificial-intelligence/#6e0c59cc57a5.
[42] Song, H. (2017), « JPMorgan software does in seconds what took lawyers 360,000 hours », Bloomberg.com, 28 February, https://www.bloomberg.com/news/articles/2017-02-28/jpmorgan-marshals-an-army-of-developers-to-automate-high-finance.
[54] Spangler, S. et al. (2014), Automated Hypothesis Generation based on Mining Scientific Literature, ACM Press, New York, http://dx.doi.org/10.1145/2623330.2623667.
[104] Stanford (2016), Artificial Intelligence and Life in 2030, AI100 Standing Committee and Study Panel, Stanford University, https://ai100.stanford.edu/2016-report.
[16] Surakitbanharn, C. et al. (2018), Preliminary Ethical, Legal and Social Implications of Connected and Autonomous Transportation Vehicles (CATV), Purdue University, https://www.purdue.edu/discoverypark/ppri/docs/Literature%20Review_CATV.pdf.
[43] Voegeli, V. (2016), « Credit Suisse, CIA-funded palantir to target rogue bankers », Bloomberg, 22 March, https://www.bloomberg.com/news/articles/2016-03-22/credit-suisse-cia-funded-palantir-build-joint-compliance-firm.
[49] Waid, B. (2018), « AI-enabled personalization: The new frontier in dynamic pricing », Forbes, 9 July, https://www.forbes.com/sites/forbestechcouncil/2018/07/09/ai-enabled-personalization-the-new-frontier-in-dynamic-pricing/#71e470b86c1b.
[11] Walker-Smith (2013), « Automated vehicles are probably legal in the United States », Texas A&M Law Review, vol. 1/411.
[27] Webb, L. (2017), Machine Learning in Action, exposé présenté à la conférence AI: Intelligent Machines, Smart Policies, Paris, les 26 et 27 octobre 2017, http://www.oecd.org/going-digital/ai-intelligent-machines-smart-policies/conference-agenda/ai-intelligent-machines-smart-policies-webb.pdf.
[13] Welsch, D. et E. Behrmann (2018), « Who’s winning the self-driving car race? », Bloomberg, 7 May, https://www.bloomberg.com/news/articles/2018-05-07/our-world-s-fragile-cities-need-a-78-trillion-boost.
[58] Williams, K. et al. (2015), « Cheaper faster drug development validated by the repositioning of drugs against neglected tropical diseases », Journal of The Royal Society Interface, vol. 12/104, pp. 20141289-20141289, http://dx.doi.org/10.1098/rsif.2014.1289.
[72] Wyllie, D. (2013), « How ’big data’ is helping law enforcement », PoliceOne.Com 20 August, https://www.policeone.com/police-products/software/Data-Information-Sharing-Software/articles/6396543-How-Big-Data-is-helping-law-enforcement/.
[33] Zeng, M. (2018), Alibaba and the Future of Business, Harvard Business Review, septembre-octobre 2018, https://hbr.org/2018/09/alibaba-and-the-future-of-business.
Notes
← 1. Base de données STAN pour l’analyse structurelle, 2018, valeur ajoutée des services « Transports et entreposage », CITI Rev. 4 Divisions 49 à 53, en pourcentage de la valeur ajoutée totale, moyenne non pondérée de 2016 dans la zone OCDE. La moyenne pondérée de 2016 dans la zone OCDE était de 4.3 %.
← 2. D’après https://www.crunchbase.com/.
← 3. La notation FICO a été créée en 1989 par l’entreprise Fair, Isaac and Company (FICO). Elle est toujours utilisée par la majorité des banques et des établissements de prêt.
← 4. Le Comité de la politique à l’égard des consommateurs (CPC) de l’OCDE a adopté la définition de la personnalisation des prix donnée par l’Office of Fair Trading du Royaume-Uni, à savoir : « la pratique consistant pour une entreprise à utiliser l’information fournie volontairement, recueillie par observation ou obtenue par inférence au sujet du comportement des individus ou de leurs caractéristiques personnelles pour différencier les prix entre consommateurs (individuellement ou collectivement sur la base de certaines catégories) en fonction de ce que l’entreprise estime être leur consentement à payer » (OCDE, 2018[109]). Appliquée par les vendeurs, cette pratique pourrait conduire certains clients à payer moins pour un bien ou un service donné, et d’autres à payer plus que ce qu’ils auraient dû payer si le prix proposé avait été le même pour tout le monde.
← 5. Cette section s’inspire de travaux du Comité de la politique scientifique et technologique (CPST) de l’OCDE, en particulier le chapitre 5 de la publication OCDE (2018[53]), consacré à l’intelligence artificielle et à l’apprentissage automatique, dont les principaux auteurs sont Ross D. King, de l’Université de Manchester, et Stephen Roberts, de l’Université d’Oxford.
← 6. Voir https://iris.ai/.
← 10. State of Wisconsin v. Loomis, 881 N.W.2d 749 (Wis. 2016).
← 11. Loomis v. Wisconsin, 137 S.Ct. 2290 (2017).
← 12. Les dépenses publiques consacrées aux technologies de l’IA à des fins de défense ont leur importance, mais ce domaine d’étude n’entre pas dans le champ de la présente publication.
← 13. Sauf mention contraire, la présente publication utilise le terme « sécurité numérique » pour désigner la gestion des risques économiques et sociaux résultant d’infractions à l’accessibilité, l’intégrité ou la confidentialité des technologies de l’information et de la communication, et des données.
← 14. Le hameçonnage est une pratique frauduleuse consistant à tenter d’obtenir d’une cible des informations sensibles par messagerie électronique en lui faisant croire à tort qu’elle est en contact avec un intermédiaire de confiance. Demandant plus de travail, le harponnage est une variante de l’hameçonnage consistant à adapter spécifiquement la méthode à l’individu ou l’organisation visée en collectant et en utilisant des informations sensibles telles que le nom, le sexe, l’affiliation, etc. (Brundage et al., 2018[108]). Le harponnage est le vecteur d’infection le plus courant : il était à l’origine de 71 % des cyberattaques en 2017.
← 15. Tel que confirmé par le groupe e-Leaders, rattaché au Comité de la gouvernance publique de l’OCDE. Son groupe thématique sur les technologies émergentes – composé de représentants de 16 pays – s’intéresse principalement à l’IA et à la chaîne de blocs.
← 16. BlindTool (https://play.google.com/store/apps/details?id=the.blindtool&hl=en) et Seeing AI (https://www.microsoft.com/en-us/seeing-ai) en sont des exemples.