Reimsbach-Kounatze Christian
La prochaine révolution de la production
Chapitre 2. Avantages et déf is de la transformation numérique de la production1
Abstract
Ce chapitre examine les incidences de l’émergence des nouvelles applications TIC – de l’analyse des données massives à l’infonuagique, en passant par l’internet des objets (IdO) –, qui ouvrent la voie à des processus productifs et organisationnels inédits, et des modèles économiques nouveaux, principalement dans les secteurs industriels. Il s’intéresse aux gains de productivité induits par l’adoption de ces nouvelles applications, non seulement dans les entreprises pionnières de certains secteurs (tels que l’automobile et l’industrie aérospatiale), mais aussi dans des secteurs traditionnels comme l’agriculture. Il envisage enfin les cadres d’action qu’il conviendrait de mettre en place pour concrétiser le potentiel de productivité et les autres avantages découlant de l’utilisation des technologies numériques dans la production, tout en limitant certains risques associés.
Introduction
La transformation numérique de l’économie et de la société progresse rapidement, en particulier dans les pays développés. À tel point qu’aujourd’hui, trois habitants de la zone OCDE sur quatre ont accès au haut débit mobile sans fil, et pas moins de 95 % des entreprises sont connectées à l’internet. Les trois quarts des entreprises sont présentes sur le web, et une proportion quasi équivalente prend part au commerce électronique (OCDE, 2015a ; 2015b).
La production industrielle se transforme sous l’effet conjugué de l’interconnexion croissante des machines, des stocks et des produits grâce à l’IdO, des fonctionnalités des logiciels embarqués sur les machines, de l’analyse des volumes considérables de données numériques (les « données massives ») générées par les capteurs, et de l’accès universel à une puissance de calcul, rendu possible par l’infonuagique. Le résultat de cette transformation s’est vue qualifiée de : « Industrie 4.0 » (Jasperneite, 2012), « internet industriel » (Bruner, 2013), ou encore « fabrication en réseau » (Economist Intelligence Unit, 2014). Les nouvelles technologies numériques recèlent un potentiel économique considérable. Les estimations disponibles donnent en effet à penser que la contribution de l’IdO au produit intérieur brut (PIB) mondial pourrait représenter entre 10 000 et 15 000 milliards USD sur les 20 prochaines années (Evans et Anninziata, 2012).
Le présent chapitre examine dans quelle mesure la conjonction des nouvelles technologies numériques – en particulier l’analyse des données massives, l’infonuagique et l’IdO – ouvre la voie à des biens et des services plus personnalisables, grâce à la mise en place de processus productifs et organisationnels inédits, et à l’émergence de modèles économiques nouveaux, principalement dans les secteurs industriels. S’appuyant en partie sur des études de cas commandées par l’OCDE, il étudie les gains de productivité induits par l’adoption de ces technologies, non seulement dans les entreprises pionnières de certains secteurs (tels que l’automobile et l’industrie aérospatiale), mais aussi dans des secteurs conventionnels comme l’agriculture. Il décrit les étapes que les entreprises traditionnelles peuvent suivre pour réussir leur transition vers les modèles économiques du numérique.
On y formule ensuite des propositions d’action en réponse aux principaux défis que pose la transformation numérique de la production industrielle, à savoir : élargir l’accès aux données et aux infrastructures et applications TIC essentielles ; améliorer l’interopérabilité et soutenir le développement de normes ; tirer parti des systèmes en place – en les améliorant, si nécessaire – afin de lever un certain nombre d’incertitudes naissantes (notamment sur les questions de responsabilité dans le cadre de l’automatisation, et de propriété dans un environnement où les actifs incorporels comme les données peuvent devenir une composante essentielle de la création de valeur) ; réduire les risques liés à la sécurité numérique et au respect de la vie privée ; et stimuler la concurrence dans les nouveaux environnements numériques. Enfin, le chapitre aborde une condition nécessaire à la réalisation des actions précitées : développer les compétences indispensables pour mener à bien la prochaine révolution de la production.
Intégrer les TIC avancées aux processus de production
Dans l’industrie manufacturière comme dans l’agriculture, les nouvelles technologies transforment la production, à mesure que les entreprises se tournent vers les TIC avancées tel que les progiciels de gestion intégrés (PGI), ou les logiciels de gestion de la chaîne logistique, pour accroître leur productivité2. D’ailleurs, l’utilisation de ces logiciels progresse rapidement. Ainsi, en 2015, plus de 60 % des entreprises manufacturières utilisaient des progiciels de gestion intégrés aux Pays-Bas, en Finlande et en Suède. En 2009, elles n’étaient que 40 % aux Pays-Bas et en Finlande, et 50 % en Suède. Autre exemple, en Allemagne, pas moins de 70 % des acteurs du secteur manufacturier étaient équipés de PGI en 2015, contre environ 40 % en 2009 (Graphique 2.1). En revanche, seuls 40 % de l’ensemble des entreprises (tous secteurs confondus) des trois premiers pays cités utilisaient ce type de logiciel en 2015 ; l’Allemagne fait figure d’exception, avec un taux s’élevant, cette année-là, à 60 %.
La révolution numérique ouvre la voie à un renforcement du contrôle de la production, une souplesse accrue en termes d’échelle et de gamme de production, et une réduction des coûts d’exploitation (voir Encadré 2.1 sur l’utilisation des systèmes d’exécution de la production ou MES pour Manufacturing Execution System en anglais). Dans le secteur agricole, par exemple, les exploitants produisent des données que les entreprises comme John Deere et DuPont Pioneer peuvent exploiter grâce à de nouveaux services logiciels fondés sur les données (Noyes, 2014). Les capteurs installés sur les équipements dernier cri de John Deere permettent ainsi aux agriculteurs de gérer leur parc de véhicules et de réduire les temps d’arrêt de leurs tracteurs, ainsi que leur consommation de ressources (Big Data Startups, 2013). La transformation numérique de la production industrielle entraîne également une mutation de certaines industries, dont les activités s’apparentent de plus en plus à des services, une tendance qualifiée de « servicisation » (Lodefalk, 2010). Des entreprises ont d’ores et déjà pris ce virage, de Rolls-Royce à Boeing, en passant par Michelin ou John Deere, pour n’en citer que quelques-unes (voir sections suivantes).
Encadré 2.1. Le potentiel des systèmes d’exécution de la production (MES) : l’exemple de MPDV Mikrolab GmbH
La transformation numérique de la production industrielle ne manquera pas d’ajouter à la pression concurrentielle déjà considérable qui s’exerce sur les entreprises manufacturières. Ces dernières doivent aujourd’hui être capables de faire preuve de plus de réactivité et de souplesse face aux changements inattendus, de manière à optimiser l’utilisation de l’ensemble des ressources. Pour faire face à ces exigences, elles sont nombreuses à se tourner vers les TIC avancées, en premier lieu pour gérer la complexité sans cesse croissante liée à la diversification des produits et à la réduction de leur cycle de vie, et pour produire des informations fiables, si possible en temps réel, à l’appui d’une meilleure prise de décision à court et long termes.
L’intensification de la transformation numérique fait des TIC avancées, et tout particulièrement des systèmes d’exécution de la production (MES), des outils essentiels aux entreprises manufacturières. Les systèmes MES sont utilisés pour gérer les opérations en atelier, généralement en assurant l’interface entre, d’une part, les progiciels de gestion intégrés (PGI) de l’entreprise et, d’autre part, les systèmes de contrôle et d’acquisition de données (SCADA) et les automates programmables industriels PLC pour Programmable Logic Controller en anglais qui équipent l’atelier (Graphique 2.2). Un système d’exécution de la production prend en charge différentes fonctions, de la programmation d’un nombre restreint de machines critiques à la gestion de l’intégralité du processus de fabrication. Selon Harris (2017), « les fonctions des systèmes MES couvrent l’établissement des nomenclatures, la gestion et la programmation des ressources, la préparation et la répartition des ordres de fabrication, l’établissement des rapports sur les en-cours de fabrication et le suivi des lots de production. Les systèmes avancés intègrent également une bibliothèque de définitions de produits avec suivi des versions, et peuvent transmettre au système PGI des informations quant à l’état d’avancement de la production ».
Les principaux fournisseurs de systèmes d’automatisation, dont Emerson, General Electric, Honeywell, Invensys, Rockwell et Siemens, proposent des solutions MES, tout comme les grands éditeurs de progiciels de gestion intégrés, Microsoft, Oracle, Sage et SAP en tête. Ils tendent à se concentrer sur les grandes entreprises, qui constituent le cœur de leur clientèle. MPDV Mikrolab GmbH, une PME installée à Mosbach, en Allemagne, est l’un des principaux fournisseurs de solutions MES destinées aux PME. L’entreprise offre à ses quelque 930 clients répartis dans le monde entier un large éventail d’applications MES spécialisées, testées sur le terrain, commercialisées sous la marque HYDRA.
Selon MPDV, les clients équipés des solutions HYDRA ont vu le taux de rendement global (TRG) de leurs équipements progresser de plus de 15 % les deux premières années – le TRG mesure l’efficacité de l’utilisation des ressources de production.
Des travaux de recherche illustrent les avantages que les entreprises tirent de l’utilisation des systèmes d’exécution de la production. Adler et al. (1995), par exemple, ont montré qu’ils pouvaient contribuer à réduire de 10 à 30 % le temps de travail des équipes de production et des groupes d’appui, à condition toutefois de procéder à des investissements complémentaires afin de reconfigurer les processus métier. Selon Strategic Direction (2004), les systèmes MES permettent de réduire les délais totaux d’environ 30 %. Plus récemment, une étude publiée par Nasarwanji et al. (2009) a confirmé les réductions potentielles au niveau des coûts de main-d’œuvre. Pour autant, les auteurs ont montré que ces économies n’étaient réalisables que si les usines fonctionnaient à plus de 80 % de leur capacité de production.
Sources : OCDE, d’après www.plattform-i40.de/I40/Redaktion/DE/Anwendungsbeispiele/232-mpdv/beitrag-mpdv.html (consulté le 15 janvier 2017) ; Adler, D. et al. (1995), « Does a manufacturing execution system reduce the cost of production for bulk pharmaceuticals? » ; Nasarwanji, A. et al. (2009), « The impact of manufacturing execution systems on labor overheads », www.iaeng.org/publication/WCE2009/WCE2009_pp734-737.pdf ; Strategic Direction (2004), « Meeting the manufacturing challenge: Performance advantage of MES », http://dx.doi.org/10.1108/02580540410567265 ; Snatkin, A. et al. (2013), « Real time production monitoring system in SME », http://dx.doi.org/10.3176/eng.2013.1.06 ; et Harris, D. (2017), « Compare manufacturing execution systems (MES): Buyer’s Guide », www.softwareadvice.com/manufacturing/execution-systems-comparison/.
L’internet des objets (IdO) permet aujourd’hui aux entreprises manufacturières d’assurer un meilleur suivi de l’utilisation de leurs produits et, ainsi, de proposer des services personnalisés, facturés sur la base des données d’utilisation transmises en temps réel. Dès les années 80, Rolls-Royce a montré la voie en renonçant à vendre ses moteurs à réaction seuls, pour proposer une offre de services à coût fixe sur une durée déterminée, dénommée Power by the Hour (OCDE, 2016b)3. Désormais, les données servent également à surveiller et analyser l’efficience des produits et, à ce titre, sont de plus en plus souvent commercialisées dans le cadre de nouvelles offres de services proposées aux fournisseurs et aux clients, existants ou prospects. L’entreprise Schmitz Cargobull, premier fabricant mondial de cabines et de remorques de camions dont le siège se trouve en Allemagne, utilise en outre l’IdO pour assurer le suivi de la maintenance, des conditions de déplacement et des itinéraires de l’ensemble de ses véhicules (Chick, Netessine et Huchzermeier, 2014), ce qui permet de minimiser les pannes que pourraient subir ses clients. Autre exemple, les fabricants d’équipements de production d’énergie ont de plus en plus recours aux données des capteurs pour aider leurs clients à optimiser la gestion des impondérables dans le cadre des activités de planification de projets complexes (Chick, Netessine et Huchzermeier, 2014).
On dispose à ce jour de peu d’éléments quantitatifs sur les retombées économiques de la transformation numérique sur l’industrie. Toutefois, des estimations publiées au Japon donnent à penser que l’utilisation des données massives et de l’analytique par certains départements des entreprises manufacturières japonaises pourrait donner lieu à une réduction des coûts de maintenance de près de 5 000 milliards JPY (ce qui représente plus de 15 % des ventes réalisées en 2010). À cela s’ajouteraient plus de 50 milliards JPY d’économies sur les factures d’électricité (MIC, 2013). Des estimations disponibles pour l’Allemagne indiquent par ailleurs que l’utilisation des TIC avancées dans l’industrie pourrait faire progresser la productivité de 5 % à 8 %. Les fabricants de composants industriels et constructeurs automobiles devraient enregistrer les gains de productivité les plus élevés (Rüssmann et al., 2015). D’autres estimations laissent entendre que l’« industrie 4.0 » pourrait être une source de valeur ajoutée dans les secteurs allemands de la mécanique, des équipements électriques, de l’automobile, des produits chimiques, de l’agriculture et des TIC ; cette création de valeur pourrait atteindre 78 milliards EUR supplémentaires (soit une progression de 15 %) d’ici à 2025 (BITKOM et Fraunhofer,2014)4.
La convergence des technologies numériques impulse la transformation de la production industrielle
Deux tendances majeures expliquent les bouleversements de la production industrielle induits par les technologies numériques : la baisse des coûts y afférents, qui en favorise la diffusion, y compris au sein des PME ; et, surtout, la combinaison de ces technologies, qui ouvre la voie à de nouveaux types d’applications. Le Graphique 2.3 illustre les principales TIC à l’œuvre dans la transformation numérique de la production industrielle5. Les technologies de la partie inférieure du Graphique 2.3 sous-tendent celles de la partie supérieure, comme le montrent les flèches. Les technologies de la partie supérieure du schéma (en blanc), à savoir la fabrication additive (dont l’impression 3D), les machines et systèmes autonomes, et l’intégration homme-machine, sont les applications qui devraient donner lieu aux principaux gains de productivité industrielle. Utilisées conjointement, ces technologies pourraient conduire à la mise en place, à terme, de processus entièrement automatisés, de la conception à la livraison (Encadré 2.2). Les technologies figurant dans le Graphique 2.3 et leurs applications sont présentées dans les paragraphes suivants.
Encadré 2.2. Quel processus de fabrication en 2025 ?
À court terme, pourquoi pas dès 2025, la fabrication pourrait être appelée à devenir une activité presque entièrement automatisée. Au vu des capacités actuelles, le scénario hypothétique suivant pourrait être envisageable.
Un groupe de concepteurs crée un nouveau produit. Il présente les prototypes fabriqués à l’aide d’une imprimante 3D à des acheteurs potentiels, ce qui débouche sur la signature d’un contrat avec un revendeur étranger. Les informations de conception et de conditionnement, ainsi que la liste des composants, sont publiées sur une place de marché en ligne, où les fabricants entrent en concurrence pour se voir confier la fabrication des pièces et l’assemblage du dispositif. L’un des fabricants remporte le contrat d’assemblage du produit. Il utilise alors des outils de CAO fondés sur l’infonuagique pour simuler la conception et la fabrication du dispositif. Des algorithmes d’apprentissage automatique testent différentes combinaisons de robots et d’outils afin de déterminer la solution d’assemblage la plus efficiente. Certains composants, comme les systèmes sur puce et les capteurs, peuvent être obtenus auprès de fabricants existants. D’autres peuvent devoir être créés spécialement. Des robots produisent en masse les composants.
L’ensemble des composants et les données associées sont ensuite envoyés à l’unité d’assemblage. Sur la chaîne de montage, les robots s’équipent et se réorganisent. Les véhicules robotisés transportent les composants vers le poste robotique idoine de l’atelier, puis les robots commencent à assembler les produits. À chaque fois qu’un produit est assemblé par les robots, les algorithmes d’apprentissage automatique, qui s’exécutent dans le nuage, analysent les données et les comparent aux simulations, puis relancent les simulations, et déterminent si le processus correspond toujours aux paramètres et s’il peut être optimisé. Un robot procède à la mise en carton du produit fini ; un autre charge le carton dans un camion autonome, qui le livre au revendeur.
Chez le commerçant, un robot procède au déchargement, puis place le produit dans l’entrepôt, à l’emplacement de stockage qui convient. Lorsqu’un client commande le produit, un robot de plus petite taille le livre à son domicile. Si le produit rencontre un succès commercial supérieur aux attentes et que les commandes augmentent partout dans le monde, les concepteurs peuvent être amenés à accroître les capacités de production. Ils font donc de nouveau appel au marché ; les fabricants installés dans les régions où le produit a été commandé entrent alors en concurrence pour fabriquer des lots de produits plus ou moins volumineux. Les résultats des algorithmes d’apprentissage automatique précédemment utilisés sont communiqués aux usines qui remportent le marché dans les diverses régions du monde, où différents robots déterminent comment fabriquer le produit. Lorsqu’une usine a produit la quantité commandée, ses robots adaptent leurs outils et se réorganisent pour fabriquer un autre produit. Du moment où le produit a été conçu, jusqu’à sa livraison chez le client, aucun employé n’est intervenu dans sa fabrication. Des personnes ont certes supervisé le processus. En revanche, aucune intervention humaine n’a été nécessaire ni pour le moulage des matières plastiques, ni pour l’assemblage, ni pour la logistique.
L’analyse des données massives transforme tous les secteurs de l’économie, y compris les plus traditionnels
L’expression « données massives » désigne les données caractérisées par leur volume, la vitesse à laquelle elles sont générées, mises à disposition, traitées et analysées, et leur variété (données structurées et non structurées). Ces trois caractéristiques (dites les « 3 V ») sont en constante évolution, dans la mesure où elles décrivent des propriétés techniques qui progressent au rythme des avancées en matière de stockage et de traitement des données. D’aucuns ont proposé d’ajouter un quatrième V, pour « valeur », reflet de la valeur socioéconomique croissante des données (OCDE, 2013).
L’utilisation des données massives ouvre la voie à des améliorations notables des produits, des processus, des méthodes organisationnelles et des marchés, un phénomène dénommé « innovation fondée sur les données » (OCDE, 2015b). Dans l’industrie manufacturière, les données obtenues par le biais des capteurs servent à surveiller et analyser l’efficience des machines, afin d’en optimiser le fonctionnement et de proposer des services après-vente, comme la maintenance préventive. Les données peuvent également être utilisées dans le cadre des échanges avec les fournisseurs, voire, dans certains cas, commercialisées en tant que nouveaux services (pour optimiser le contrôle de la production, par exemple). Dans l’agriculture, l’utilisation de cartes géocodées des exploitations et la surveillance en temps réel de chaque activité agricole, de l’ensemencement à la récolte, sont autant d’usages qui contribuent à accroître la productivité. Les données générées par les capteurs peuvent ensuite être réutilisées et liées aux données historiques et à des données en temps réel sur les conditions météorologiques, l’état du sol, l’usage ou non d’engrais et les caractéristiques des cultures, afin d’optimiser la production agricole et d’établir des prévisions. Les méthodes de culture traditionnelles peuvent ainsi être améliorées,et le savoir-faire des agriculteurs expérimentés, formalisé et diffusé à grande échelle.
Si l’on dispose de peu de données macroéconomiques probantes sur les effets de l’innovation fondée sur les données, les études menées au niveau des entreprises révèlent que les organisations qui y ont recours enregistrent une croissance de la productivité du travail 5 % à 10 % plus rapide que celles qui ne le font pas (OCDE, 2015b). Aux États-Unis, Brynjolfsson, Hitt et Kim, 2011estime que la production et la productivité des entreprises qui s’appuient sur un processus de prise de décision étayé par des données sont 5 % à 6 % plus élevées qu’attendu, compte tenu des autres investissements dans les TIC réalisés par ces entreprises et de l’usage qu’elles en font. Elles obtiennent également de meilleurs résultats en termes d’utilisation des actifs, de rendement des capitaux propres et de valeur de marché. Une étude menée au Royaume-Uni sur 500 sociétés a révélé que les entreprises qui se trouvent dans le premier quartile de l’utilisation des données en ligne ont une productivité supérieure de 13 % à celle des entreprises du dernier quartile (Bakhshi, Bravo-Biosca et Mateos-Garcia, 2014). Par ailleurs, une hausse de 10 % de la qualité et de l’accessibilité des données – en les présentant de manière plus concise et cohérente sur les différentes plateformes, et en les rendant plus faciles à manipuler – se traduirait par une progressionmoyenne de la productivité du travail de 14 %, avec toutefois de fortes variations intersectorielles (Barua, Mani et Mukherjee, 2013)6. Toutefois, les données massives restent utilisées majoritairement dans le secteur des TIC, en particulier par les prestataires de services internet. Selon Tambe (2014), par exemple, seuls 30 % des investissements dans la technologie Hadoop proviennent de secteurs autres que les TIC, comme la finance, les transports, les services aux collectivités, le commerce de détail, la santé, les laboratoires pharmaceutiques et la biotechnologie. Pour autant, l’industrie manufacturière tend à consommer des volumes croissants de données (voir McKinsey Global Institute, 2011).
Dans le secteur agricole, l’utilisation des données et de leur analyse (dans le cadre de l’agriculture de précision) ouvre la voie à des gains de productivité grâce à l’optimisation de l’exploitation des ressources agricoles – avec, notamment, une réduction des quantités de semences, d’engrais et d’eau d’irrigation, sans compter les gains de temps pour les agriculteurs (Encadré 2.3). Selon le type d’économies considéré, les estimations des effets sur la productivité varient. Par exemple, l’une des estimations révèle que dans le cas de la culture du maïs aux États-Unis, l’agriculture de précision pourrait améliorer les rendements de 5 à 10 boisseaux par acre, soit un gain d’environ 100 USD par acre – àune époque où le revenu brut diminué des coûts non fonciers s’élevait à quelque 350 USD par acre – (Noyes, 2014). En extrapolant, on peut estimer qu’aux États-Unis, les avantages économiques induits par l’agriculture de précision pourraient avoisiner 12 milliards USD par an. Soit environ 7 % de la valeur ajoutée totale (de 177 milliards USD) apportée par l’agriculture au PIB des États‐Unis7. Si l’on exclut les gains en termes de temps de travail des agriculteurs, les bénéfices par acre liés à l’agriculturede précision devraient s’avérer plus modestes. Schimmelpfennig et Ebel (2016), par exemple, les évaluent à 14.50 USD par acre. Craig Smith, de l’Université Fort Hays de l’État du Kansas, a réalisé une étude similaire, axée sur les mêmes sources de gains d’efficience issus de l’agriculture de précision pour des exploitations agricoles de différentes tailles8. Ces travaux ont porté sur le contrôle automatique des rangées et sections qui, aux fins de l’agriculture de précision, consiste à utiliser un système GPS pour éviter d’apporter tout intrant de culture superflu, comme des engrais et autres produits phytosanitaires (John Deere, 2015). Les économies réalisées par les agriculteurs exploitant les champs de maïs, comparables aux exploitations où sont cultivées des plantes en larges rangs, s’échelonnaient entre 1 et 15 USD par acre.
Encadré 2.3. Agriculture de précision et données massives : l’exemple de la société John Deere
L’agriculture de précision fournit aux agriculteurs des analyses en temps quasiment réel de données clés sur leurs exploitations. L’entreprise John Deere a fait ses premiers pas dans ce secteur avec des outils de cartographie des rendements et de modulation simple des intrants, puis une technologie de guidage automatique (AutoTrac1). Ces premiers produits ont par la suite été perfectionnés, avec la création de véhicules agricoles automatisés, capables de communiquer entre eux. Dès l’origine, les solutions John Deere se sont appuyées sur les données de localisation GPS. L’entreprise a ensuite mis au point ses premières fonctions de « raccordement » afin de connecter les machines agricoles entre elles et avec le Centre opérationnel MyJohnDeere (MJD), qu’elle décrit comme « un ensemble d’outils en ligne fournissant des informations sur une exploitation agricole, à l’endroit et au moment où les agriculteurs en ont besoin » (Arthur, 2016).
En appui aux véhicules utilisés dans les champs, John Deere a mis au point une solution de gestion à distance sans fil des équipements agricoles. Cette solution tire parti des réseaux de communications satellitaires et cellulaires interconnectés, d’un système radio propriétaire et du Wi-Fi. Elle a contribué à réduire le temps nécessaire pour récolter les cultures ou mener à bien d’autres tâches. Par exemple, l’utilisation d’au moins deux véhicules autopropulsés programmables permet de couvrir une superficie allant de 500 à 600 acres par jour (qu’il s’agisse de planter ou de récolter), contre généralement 100 à 150 acres pour un agriculteur travaillant seul. Parmi les améliorations apportées par John Deere dans le domaine de l’ensemencement, citons notamment le semoir Exact Emerge et le système AutoTrac, qui ont contribué à étendre les surfaces susceptibles d’être ensemencées dans des conditions optimales. Grâce au système perfectionné d’ensemencement et de suivi, la superficie couverte a ainsi pu passer de 600 à plus de 800 acres par jour. Pour ce qui est des opérations de récolte, elles s’avéreraient elles aussi beaucoup plus efficientes si les véhicules étaient équipés du système AutoTrac.
Grâce à l’association de capteurs et de systèmes GPS, les tracteurs John Deere sont non seulement autonomes, mais ils utilisent également des systèmes analytiques qui leur permettent d’effectuer les opérations d’ensemencement, d’irrigation et de récolte avec une précision de deux centimètres. En outre, ces systèmes sont capables de communiquer entre eux. Selon les estimations de John Deere, l’entreprise compte plus de 100 000 machines connectées dans le monde. Les cabines des tracteurs disposent d’une liaison Wi-Fi permettant de communiquer avec les dispositifs mobiles et autres systèmes de capteurs embarqués ; à cela s’ajoutent des radios pour les communications mobiles avec les autres véhicules. Les agriculteurs peuvent ainsi synchroniser leurs opérations et partager des données avec d’autres exploitants.
Grâce à l’utilisation des dispositifs interconnectés et des capteurs intelligents au sein de ce réseau de communications, John Deere est parvenu à combiner les données de base et les données de performance de ses machines avec des données de terrain géoréférencées, pour une meilleure analyse. Une fois ces données capturées par les systèmes et transmises au Centre opérationnel, elles alimentent une base plus vaste intégrant également des informations environnementales. John Deere peut combiner les informations transmises par les agriculteurs et des données sur les conditions environnementales (données météorologiques, climatiques, sur la qualité des sols, etc.), ainsi que sur les rendements réels. Les agriculteurs sont alors en mesure d’identifier les parcelles qui sont plus productives. Les fonctions d’analyse des données leur permettent d’optimiser les rendements de leurs cultures. De fait, « les agriculteurs peuvent utiliser les données pour décider de ce que chaque équipement va semer, fertiliser, irriguer et récolter et où il va le faire… et ce, pour des parcelles même réduites, à partir d’un mètre sur trois » (Jahangir Mohammed, 2014).
En 2011, John Deere a consolidé sa stratégie à long terme pour mettre l’accent sur les produits intégrés fondés sur les données. Autre objectif : porter les investissements dans la recherche et le développement (R-D) à 5.5 % du chiffre d’affaires net, alors que ses concurrents y consacrent 4 à 5 %. Cette priorité à l’innovation a permis à John Deere de maintenir à 5 % le taux de croissance annuel composé de la productivité des employés (chiffre d’affaires par employé) enregistré sur les 30 dernières années (Deere & Company, 2016). Pour étoffer ses capacités dans ce domaine, John Deere a racheté plusieurs entreprises pionnières de l’agriculture de précision, à l’instar de Precision Planting (Agweb, 2015), une entreprise leader des technologies d’ensemencement qui fournit également du matériel et des capteurs, et de Monosem, un fabricant de semoirs basé en France. John Deere recrute en outre des « scientifiques des données » (data scientist en anglais) pour renforcer ses capacités d’analyse des données massives. Ces professionnels assurent les missions suivantes :
Identifier les données, les sources et les applications pertinentes.
Utiliser des techniques d’exploration des données massives comme la détection de tendance, l’analyse de graphiques et les analyses statistiques, afin de « les faire parler ».
Mettre en œuvre des processus de collecte et développer l’infrastructure et les environnements à l’appui des analyses.
Utiliser des langages de programmation parallèle pour mettre en œuvre les applications.
Les perspectives de croissance du marché sont particulièrement prometteuses pour John Deere et les entreprises proposant aux agriculteurs des véhicules autopropulsés et des systèmes d’agriculture de précision. Selon les prévisions, le marché mondial de l’agriculture de précision devrait croître de 4.92 milliards USD d’ici à 2020. Ce qui représente un taux de croissance annuel composé (TCAC) de près de 12 % entre 2015 et 2020. À l’heure actuelle, le marché mondial de l’agriculture de précision s’élève à 2.8 milliards USD (Mordor Intelligence, 2016). Le marché américain représente à lui seul entre 1 et 1.2 milliard USD de ventes par an. Si l’on se base sur les estimations pour les exploitations de plantes cultivées en larges rangs, de maïs et de soja, où les deux tiers des surfaces cultivées s’appuient sur l’agriculture de précision, on peut raisonnablement penser que les ventes de John Deere dans ce domaine représentent environ un quart du marché des États-Unis, soit entre 250 et 350 millions USD2.
1. Le système AutoTrac Vision fait appel à une caméra montée sur le châssis avant, qui permet de voir, en début de saison, les récoltes de maïs, de soja et de coton d’une hauteur d’au moins 10 à 15 cm. Ce système permet d’éviter d’endommager les récoltes avec les roues des pulvérisateurs, même en cas de mauvais alignement (John Deere, 2017).
2. Selon une prévision de marché, celui-ci couvrirait diverses technologies intégrées (systèmes de guidage, télédétection et modulation des intrants, en particulier). Les principales technologies seraient les systèmes de guidage avec GPS, systèmes d’information géographique (SIG), systèmes de géolocalisation et navigation par satellite (GNSS), etc. D’après cette prévision de marché, plusieurs systèmes de suivi et de cartographie devraient gagner en importance, et la croissance des applications logicielles de gestion des cultures et des exploitations, et de suivi météorologique devrait s’accélérer pendant la période considérée (voir Mordor Intelligence, 2016).
L’infonuagique renforce la souplesse, l’évolutivité et l’interopérabilité des entreprises
L’infonuagique est une solution souple permettant d’accéder, à la demande, aux ressources informatiques, tout en minimisant les efforts de gestion (OCDE, 2014a)9. De nombreuses applications industrielles à fort potentiel, telles que les machines et systèmes autonomes et la simulation complexe, nécessitent une puissance de calcul particulièrement élevée que seuls des superordinateurs peuvent offrir. L’infonuagique a joué un rôle majeur dans l’amélioration de la disponibilité, l’augmentation de la capacité et la réduction des coûts de ressources informatiques hautement évolutives, en particulier pour les start-ups et les PME. De fait, les services infonuagiques peuvent être facilement redimensionnés en fonction des besoins, utilisés à la demande et facturés selon le nombre d’utilisateurs ou la capacité exploitée. Ils peuvent être proposés sous forme de logiciels (on parle alors de logiciels en tant que services, ou SaaS), ou étendus à des plateformes (plateformes en tant que services, ou PaaS) ou des infrastructures (infrastructures en tant que services, IaaS), et peuvent être déployés à l’échelle d’un environnement privé (pour une utilisation exclusive), public (ouvert au public), ou hybride (un mélange des deux formules). Les entreprises se tournent avant tout vers l’infonuagique pour renforcer leur flexibilité et réduire le coût de leurs investissements TIC. Une étude réalisée par l’éditeur de technologies infonuagiques VMware (2011)révèle que pour 57 % des répondants, les principales raisons qui ont motivé leur choix de l’infonuagique ont trait à l’accélération de l’exécution des projets et l’amélioration de l’expérience des clients ; viennent ensuite la capacité à saisir rapidement les opportunités commerciales (56 %) et les perspectives de réduction des coûts (55 %). Toutefois, dans certains pays, tels que l’Autriche, l’Islande, la Norvège et les Pays-Bas, la grande majorité des entreprises continuent de penser que les avantages liés à la réduction des coûts des TIC sont imperceptibles ou limités (OCDE, 2015a).
Par ailleurs, l’omniprésence de l’infonuagique en fait une plateforme idéale pour le partage de données entre différents sites et au-delà des frontières des entreprises, ce qui permet une intégration des systèmes à la fois au sein des organisations (intégration verticale) et entre elles (intégration horizontale). À l’heure actuelle, de nombreuses entreprises rivalisent pour combiner au mieux leurs biens et services. Cette tendance illustre non seulement l’importance croissante de l’IdO en tant que plateforme d’intégration des objets physiques et de l’internet (voir section suivante), mais aussi le rôle de l’infonuagique comme plateforme d’intégration des services. Par exemple, une entreprise comme Boeing ne pourrait pas proposer la plupart de ses services actuels sans une plateforme capable d’intégrer les données collectées à partir de ses avions (Encadré 2.4). Pas plus qu’elle ne pourrait rivaliser avec les poids lourds de son secteur, comme Airbus, qui déploie des efforts comparables pour étendre sa capacité à surveiller ses appareils, notamment l’Airbus A380-1000 (Marr, 2015).
Encadré 2.4. Intégration des systèmes via l’infonuagique : l’exemple de Boeing
Les avionneurs comme Boeing et Airbus sont aujourd’hui confrontés à des défis de taille, les appareils commerciaux modernes devenant peu à peu des « engins volants intelligents bourrés d’électronique ». Ils doivent donc être capables à la fois d’évaluer et de gérer des systèmes embarqués à bord des avions, de gérer les commandes électroniques et de surveiller les caractéristiques physiques comme les volets hypersustentateurs, le tout en temps réel. En outre, ils doivent fournir les informations de support et de maintenance aux compagnies aériennes qui volent sur leurs avions, afin de faciliter les réparations et de minimiser les temps au sol. Pour relever ces défis, les avionneurs intègrent leurs propres données historiques – sur les performances et la maintenance des avions –, à celles générées par les appareils et aux informations sur les produits transmises par les fournisseurs, au sein de bases de données, ce qui permet la prise en charge d’un large éventail de services : livraison de pièces en fonction des besoins (services matériels) ; optimisation des performances et de l’exploitation de la flotte (en examinant comment des flottes entières d’avions opérés par différentes compagnies aériennes sont gérées et exploitées)1#xA0;; mise à disposition des informations de vol fondées sur des données de vol en temps réel ; et prise en charge de services d’informationapportant des éclairages sur la gestion de chacun de ces services.
Boeing commence alors à proposer des produits alliant un bien physique (un avion) et des services numériques (fondés sur les données). Le choix d’ajouter une gamme de services nouveaux à ses produits sert un objectif plus large : être capable de gérer et de contrôler ses systèmes de production et de prestation de services. Trois changements illustrent les efforts déployés récemment par Boeing. Premièrement, l’avionneur a conjugué l’analyse des données massives et l’IdO pour gérer et évaluer son réseau de fournisseurs2. Deuxièmement, il a déployé dans son usine un système composé de robots et de logiciels intelligents interconnectés (voir Boeing, 2013a ; et Airbus Group, 2016). Ce système interconnecté complexe nécessite de nouvelles compétences de gestion et sert de lien avec les systèmes d’information des fournisseurs de Boeing. Troisièmement, Boeing a mis au point un logiciel de gestion et d’analyse des nombreux systèmes embarqués à bord de ses avions.
Grâce à ces changements, l’avionneur est en mesure de réaliser des analyses en quasi temps réel des informations enregistrées par les capteurs, transmises depuis les avions en vol. Ces analyses permettent de concevoir de nouveaux services à proposer à ses clients. Elles s’inscrivent dans le cadre de la stratégie mise en place par Boeing pour étoffer son offre d’avions avec des services à la clientèle. Pour son dernier modèle, le Boeing 787, « 146 000 points de données sont surveillés en permanence par les systèmes embarqués ; les données sont automatiquement transmises au sol » (Boeing, 2013b).
Les trois évolutions précitées ont nécessité la mise en place d’une infrastructure numérique à l’appui de l’échange et de l’analyse des données. Pour ce faire, l’avionneur a créé une « plateforme » de services baptisée Boeing Edge, que les compagnies aériennes volant avec des Boeing peuvent utiliser pour accéder à des informations sur les services décrits plus haut.
À cela s’ajoute le système infonuagique Digital Aviation Platform, une plateforme en tant que service (Paas) qui permet aux développeurs d’applications de créer des logiciels à l’aide des composants qui y sont hébergés. L’interconnexion entre les systèmes d’appui des compagnies aériennes et la plateforme Digital Aviation Platform se fait par le biais d’API. Ces systèmes d’appui intègrent les plannings, la facturation ou les règlements, les autorisations, la tenue à jour des enregistrements, la conformité réglementaire, la comptabilité et les services informatiques. Ils gèrent généralement les informations sur la maintenance des avions, les passagers et les vols (Crabbe, 2013).
Boeing a également créé une infrastructure de base de données en tant que service, qui s’appuie sur les services infonuagiques Amazon Web Services. Elle intègre plus de 20 000 bases de données décrivant les pièces qui composent les avions, ainsi que les instructions à suivre pour leur remplacement. Les compagnies aériennes peuvent accéder à ces bases par le biais d’une connexion sécurisée.
Par ailleurs, Boeing met actuellement au point un Center for Applied Simulation and Analytics (CASA), afin de créer et de développer des technologies de simulation et d’analyse pour évaluer la conception et les performances potentielles des nouveaux modèles ainsi que des avions en circulation.
Grâce au renforcement de sa capacité à gérer et contrôler ses systèmes, Boeing exerce un pouvoir accru sur ses fournisseurs. En 2015, par exemple, l’avionneur a influé sur des opérations de fusion « en usant de sa position pour approuver le transfert des contrats d’un fournisseur à l’autre… En s’appuyant sur ces « clauses de cessibilité », qui donnent à Boeing le droit de refuser le transfert des contrats existants à une nouvelle entreprise », l’avionneur peut « s’opposer à ces transferts ; il exerce donc de facto un droit de veto sur les transactions » (Scott, 2015). L’intégration des données sur les pièces fabriquées par les fournisseurs aux systèmes analytiques de Boeing confère à l’avionneur une influence encore plus importante sur la base de fournisseurs de moteurs et de pièces. De fait, le recours à l’analyse des données donne à Boeing une visibilité accrue sur les activités de ses fournisseurs. Cette asymétrie croissante de l’information s’accompagne d’un déplacement du pouvoir des fournisseurs vers l’avionneur.
1. Si les compagnies aériennes en avaient fait une priorité, l’accès de Boeing à un large éventail d’informations sur les performances et la gestion des avions via l’IdO lui a permis de jouer un rôle majeur dans l’interprétation des données en temps réel et des performances des appareils. Son rôle économique vis-à-vis du secteur aérien s’en trouve modifié.
2. Boeing a mis en place une chaîne logistique plus élaborée pour son modèle 787, mais, suite à des problèmes avec ses fournisseurs, a investi à fonds perdus des milliards de dollars dans des travaux sur des avions innovants (voir Denning, 2013).
Au sein de nombreuses organisations, des silos demeurent, empêchant le partage des données et créant par là même des frictions (interorganisationnelles) au sein des chaînes de valeur. Selon une enquête menée par The Economist Intelligence Unit (2012), près de 60 % des entreprises considèrent les silos organisationnels comme le principal obstacle à l’utilisation des données massives à l’appui d’une prise de décision efficace. Les dirigeants des entreprises dont le chiffre d’affaires annuel dépasse 10 milliards USD sont plus nombreux à citer le cloisonnement des données comme un problème que ceux des entreprises dont le chiffre d’affaires est inférieur à 500 millions USD (72 % contre 43 %, respectivement).
L’infonuagique peut aider les organisations à mettre fin aux silos et favoriser la cohésion et l’automatisation, les données étant stockées et mises à disposition dans un référentiel commun situé « dans le nuage » (Rüssmann et al., 2015). Les services infonuagiques doivent être interopérables, grâce, par exemple, à des interfaces de programmation (API) accessibles. Pour autant, l’absence de normes adaptées et l’enfermement propriétaire pratiqué par certains éditeurs de solutions peuvent compromettre l’interopérabilité de ces services. D’ailleurs, ces deux phénomènes sont les freins à l’adoption de l’infonuagique les plus fréquemment cités, en dehors des questions de protection de la vie privée et de sécurité (OCDE, 2015a, Chapitre 3).
On note toutefois de fortes disparités dans l’adoption de l’infonuagique selon les pays et la taille des entreprises. Dans des pays comme la Finlande, Israël, l’Italie, la Suède et le Danemark, près de la moitié des entreprises ont d’ores et déjà recours aux services infonuagiques, une proportion très supérieure aux taux constatés dans la plupart des autres pays (Graphique 2.4). Même constat lorsque l’on observe les taux d’adoption selon la taille des entreprises, les grandes structures (de plus de 250 salariés) étant davantage susceptibles de se tourner vers l’infonuagique. Au Royaume-Uni, par exemple, 21 % des petites entreprises (de 10 à 49 salariés) ont recours à ce type de services, contre 54 % des entreprises de plus grande taille. Dans certains pays, on constate en outre des disparités marquées entre les taux d’adoption constatés dans le secteur manufacturier et ceux enregistrés dans le reste de l’économie (Graphique 2.5).
L’IdO change la donne
L’internet des objets (IdO) désigne le fait de connecter des appareils et des objets au réseau de réseaux (publics et privés) qu’est l’internet. Parmi les objets interconnectés figurent notamment les capteurs et les dispositifs de commande qui, conjugués à l’analyse des données massives et à l’infonuagique, permettent de faire fonctionner machines autonomes et systèmes intelligents.
Il est difficile d’évaluer le nombre d’appareils IdO connectés à l’internet, les pays commençant à peine à collecter des données en la matière. Toutefois, une source (Shodan, premier moteur de recherche au monde dédié aux appareils connectés à l’internet) recense 363 millions de terminaux en ligne, dont quelque 84 millions enregistrés en République populaire de Chine (ci-après dénommée « la Chine ») et 78 millions aux États-Unis. Viennent ensuite la Corée, le Brésil et l’Allemagne avec 18 millions d’appareils connectés, puis le Japon, l’Espagne, le Royaume-Uni et le Mexique, qui comptent chacun entre 8 et 10 millions d’équipements. Les efforts déployés pour classer les pays en fonction du nombre d’appareils connectés pour 100 habitants se heurtent au manque de données ; le Graphique 2.6 dresse malgré tout un palmarès des dix premiers.
Selon les estimations disponibles, l’IdO pourrait contribuer au PIB mondial à hauteur de 10 000 à 15 000 milliards USD sur les 20 prochaines années (Evans et Anninziata, 2012). Le fait d’équiper les machines de capteurs pourrait favoriser le développement de la maintenance prédictive, avec à la clé des gains d’efficience. Dans le secteur de l’aéronautique, un gain d’efficience de 1 % pourrait permettre aux compagnies aériennes commerciales d’économiser, à l’échelle mondiale, 2 milliards USD par an (Evans et Anninziata, 2012). Selon Vodafone (2015), l’adoption de l’IdO se traduit en moyenne par 18 % d’économies pour l’industrie, et près de 10 % des entreprises ayant franchi le cap ont réduit leurs coûts de plus de 25 %. Outre les réductions de coûts, les entreprises indiquent avoir constaté des améliorations à différents niveaux, notamment : efficience des processus ; service à la clientèle ; rapidité et souplesse de la prise de décision ; cohérence de l’offre sur les différents marchés ; transparence/prévisibilité des coûts ; et performances sur les nouveaux marchés (Vodafone, 2015). Par exemple, en alliant l’analyse des données massives à l’IdO, un géant américain du secteur automobile a économisé 2 milliards USD au cours des quatre à cinqdernières années (Encadré 2.5). Des économies liées en grande partie à l’optimisation des chaînes logistiques. Par ailleurs, l’entreprise réalise des simulations fondées sur les données massives pour optimiser la conception de ses camions, de manière à réduire la consommation de carburant et les coûts de production10. Sans compter que l’IdO ouvrira également la voie à une multitude d’avantages économiques et sociaux qui ne sont pas directement liés à la production, dans des domaines comme la santé, le recours aux compteurs intelligents et l’utilisation efficiente des véhicules11.
Encadré 2.5. Un géant américain de l’automobile mise sur l’IdO, les données massives et l’infonuagique
Aux États-Unis, un constructeur automobile a réduit ses coûts d’environ 2 milliards USD sur les cinq dernières années (sur la période 2011-14 et la majeure partie de 2015) en développant sensiblement ses capacités en matière d’IdO et d’analyse des données. L’objectif premier était d’apporter des renseignements sur la conception de ses véhicules, en évaluant par exemple dans quelle mesure l’utilisation de l’aluminium permettrait de réduire la consommation de carburant, avant de lancer la production d’un nouveau modèle de camion. Les économies les plus significatives sont venues des changements opérés au sein de sa chaîne logistique et de l’amélioration de l’efficicacité des concessionnaires.
Le constructeur a obtenu des résultats probants dans deux domaines principaux : d’une part, un meilleur contrôle de sa chaîne logistique et, d’autre part, l’utilisation de l’analyse des données afin de proposer aux clients, une sélection de véhicules, couleurs et caractéristiques affinés.
Pour sa chaîne logistique, il est parti du constat que les pièces représentent entre un tiers et la moitié de la valeur d’un véhicule coûtant 30 000 USD. Il a en outre considéré que l’analyse des données pouvait l’aider à réduire les coûts au sein de sa chaîne logistique de 1 à 1.5 % par an (d’après des études réalisées par d’autres entreprises). En supposant que l’entreprise tire de la vente de ses véhicules un chiffre d’affaires de 20 milliards USD par an aux États-Unis, elle réaliserait alors entre 200 et 300 millions USD d’économies par an, soit 1 à 1.5 milliard USD sur cinq ans. En ce qui concerne l’amélioration du choix des véhicules confiés aux revendeurs, un résultat mesurable a été identifié : l’optimisation de la gestion des stocks grâce à la réduction du temps que les véhicules passent dans les concessions. Cela pourrait représenter 50 à 100 USD par véhicule sur un parc d’environ 2 millions de voitures par an, soit entre 500 millions et 1 milliard USD sur cinq ans. Au total, les économies réalisées pourraient donc atteindre entre 1.5 et 2.5 milliards USD sur cinq ans.
Les investissements nécessaires pour parvenir à ces réductions de coûts s’échelonneraient entre 350 et 500 millions USD sur cinq ans. On estime que le constructeur américain a affecté au groupe chargé des fonctions analytiques 200 salariés percevant une rémunération annuelle moyenne de 150 000 à 200 000 USD (cette estimation correspond à une fourchette haute, sachant que certains spécialistes perçoivent des revenus supérieurs à 300 000 USD par an), toutes charges comprises. Cela équivaudrait à une masse salariale annuelle totale de 30 à 40 millions USD, soit 150 à 200 millions USD sur cinq ans. Si l’on considère en outre que le coût des équipements logiciels et matériels nécessaires aux fonctions d’analyse des données est comparable, voire légèrement supérieur, le coût de mise en place de l’architecture logicielle du constructeur automobile pour permettre l’analyse de données et à la création d’un environnement IdO (interne) atteindrait entre 200 et 300 millions USD sur cinq ans. Ce qui correspondrait, au total, à un rendement d’environ 2 milliards USD pour un investissement de 350 à 500 millions USD sur cinq ans, soit un taux de rendement de 300 à 470 %.
L’estimation des retombées de l’adoption de l’IdO sur les performances financières de l’entreprise révèle que le gros des économies pourrait provenir des efforts de maîtrise des coûts au sein de la chaîne logistique. Le constructeur a d’ores et déjà regroupé la production sur une plateforme unique en vue de réduire le nombre de pièces nécessaires à la construction d’une voiture. La mise en place d’un système analytique plus élaboré devrait être synonyme d’économies supplémentaires. Il étudie en outre des solutions pour relier davantage de véhicules équipés de plateformes de capteurs embarquées à son environnement infonuagique. Il teste l’utilisation de capteurs destinés à aider les conducteurs à améliorer leurs performances de conduite. Les voitures électriques sont d’ores et déjà équipées d’un système connecté à l’internet, qui communique avec les dispositifs mobiles. Le système est capable d’indiquer au conducteur si la batterie du véhicule est chargée, ainsi que les bornes de charge les plus proches. Le constructeur n’a pas évalué l’ampleur des retombées de ce système, ni établi de prévisions quant à leur évolution si le parc de véhicules électriques augmente à l’avenir.
À l’heure actuelle, les véhicules électriques fabriqués par l’entreprise génèrent quelque 25 pétaoctets1 de données par heure. Le constructeur estime qu’avec les nouvelles technologies satellitaires qui pourraient voir le jour au cours des deux à trois prochaines années, le volume de données par voiture pourrait être multiplié par 100. Sans compter les volumes considérables de données produites par les capteurs utilisés dans les usines, les ateliers et dans le cadre des programmes de recherche. Le constructeur voit le véhicule comme un « système de commande en boucle fermée ». En conséquence, l’entreprise pourrait se retrouver à recevoir des exaoctets2 de données supplémentaires émises par de nouveaux systèmes équipant des dizaines de millions de véhicules, soit des zettaoctets de données générées par an à l’horizon 2019-20. Un tel taux de croissance – de plus de 250 % par an – n’irait pas sans poser des défis de taille en termes de gestion des données.
1. 1 pétaoctet = 1 million de gigaoctets.
2. 1 exaoctet = 1 milliard de gigaoctets.
L’internet des objets, les données massives et l’infonuagique sont les principaux vecteurs de la percée soudaine des applications de l’intelligence artificielle (IA), à l’instar des véhicules sans conducteur. Sous l’effet de l’IdO, les objets physiques sont désormais intégrés aux flux d’informations et deviennent « intelligents ». Par exemple, les voitures autonomes reçoivent de l’infrastructure routière, des autres véhicules et des services web (tels les cartes électroniques) les informations dont elles ont besoin12. Il n’est donc pas nécessaire de les équiper de systèmes de traitement d’images comparables à la vision humaine, comme on le pensait à l’origine. De même, dès lors que l’ensemble des dispositifs et des machines d’une usine peut transmettre des informations, cela ouvre la voie à une multitude de nouvelles applications robotiques.
La transformation numérique révolutionne la production
L’adoption des technologies numériques entraîne souvent dans son sillage la « destruction créatrice » d’entreprises, de marchés et de réseaux à valeur ajoutée. Ce qui pose des défis aux entreprises (traditionnelles), qui pourraient renoncer, du fait de l’environnement concurrentiel, à réaliser des investissements dans l’innovation de rupture à court terme. Deux raisons principales à cela : d’une part, ce type d’investissements peut mobiliser des ressources rares dont les unités fonctionnelles les plus rentables ont besoin (pour affronter la concurrence) ; d’autre part, l’innovation de rupture présente un risque élevé dans la mesure où elle n’est pas toujours rentable à court terme. Sans compter qu’elle peut nécessiter de modifier en profondeur les structures organisationnelles, les processus métier, voire les modèles économiques, des évolutions qui peuvent être synonymes de coûts irrécupérables13. Outre les facteurs économiques, la mise en œuvre des changements peut se heurter à une résistance interne liée à la culture organisationnelle et à une réticence psychologique de la part de l’équipe de direction et des employés. Christensen (1997) qualifie ce phénomène de « dilemme de l’innovateur » : des entreprises prospères accordent une importance excessive à leur réussite immédiate et négligent parconséquent d’innover sur le long terme.
La crainte du changement et des bouleversements, conjuguée à une réflexion à court terme, de mise dans les entreprises traditionnelles, font que l’innovation par le numérique reste souvent l’apanage des entreprises TIC et, en particulier, des start-ups (voir OCDE, 2015b). Comme le montrent Criscuolo, Nicolaou et Salter (2012), les nouvelles technologies et les innovations sont souvent commercialisées en premier lieu par des start-ups qui ont l’avantage de ne pas subir le poids d’un historique et d’une clientèle existante, et sont donc libres de créer un large éventail de modèles économiques présumés nouveaux. Christensen (1997) affirme également – même si cet avis est controversé – que les innovations de rupture ne sont, pour la plupart, pas immédiatement valorisées par les clients existants. C’est pourquoi les entreprises en place, généralement soucieuses de satisfaire avant tout leur clientèle, délaissent parfois les marchés les plus exposés aux innovations de rupture, même si elles investissent massivement dans la recherche.
Les entreprises traditionnelles sont alors confrontées à un environnement concurrentiel plus complexe, où elles sont « contraintes de rivaliser sur plusieurs fronts à la fois et de coopérer avec leurs concurrents » (Gao et al., 2016)14. Ces concurrents peuvent être des acteurs des TIC comme Alphabet (Google) et Apple, qui bénéficient d’avantages compétitifs dans le domaine des technologies numériques. La création de nouveaux modèles économiques susceptibles de perturber les secteurs traditionnels peut s’avérer nécessaire. Ce qui peut obliger les entreprises en place à repenser leurs propres modèles pour rester compétitives sur le long terme.
Les nouveaux modèles économiques font la part belle aux services à forte valeur ajoutée
Alors que les marges bénéficiaires des produits s’amenuisent, de nombreuses entreprises manufacturières développent de nouveaux services complémentaires qui viennent étoffer leur offre commerciale. C’est ainsi que Rolls-Royce est passé d’une solution axée sur trois composantes (produit, temps et service) à un modèle de service commercialisé sous la marque Power by the Hour, ou PBH (Encadré 2.6). Le numérique a joué un rôle essentiel dans ce virage vers des services (complémentaires) à plus forte valeur ajoutée.
Encadré 2.6. « Servicisation » de la production manufacturière : l’exemple de l’offre Power by the Hour (PBH) de Rolls-Royce
Rolls-Royce est passé d’une solution axée sur trois composantes (produit, temps et service) à un modèle de service commercialisé sous la marque Power by the Hour (PBH)1. Le principe consiste à facturer les clients en fonction du temps d’utilisation d’un moteur. Rolls-Royce n’aurait pas pu mettre en place cette solution s’il n’avait pas été en mesure de collecter d’importants volumes de données à partir des réseaux de capteurs installés sur ses moteurs.
La mise en place de ce modèle de service s’est faite en trois étapes. Dans un premier temps, l’entreprise a développé des solutions pour utiliser les données issues des réseaux de capteurs afin d’assurer la gestion opérationnelle de ses propres services. Puis elle a perfectionné le modèle en gérant plus directement les services et l’assistance à l’intention de ses clients. Enfin, dans un troisième temps, elle est parvenue à uniformiser les gros volumes de données à l’échelle de sa clientèle extrêmement variée, optimisant ainsi l’intégralité de son écosystème de données. Son modèle de service est, de ce fait, devenu plus proactif, l’objectif étant de minimiser, voire d’éliminer les temps d’arrêt imposés à ses clients (chaîne YouTube Frank-Partners, juillet 2016).
Ce nouveau modèle est fondé, non plus sur un support produit et ventes, mais sur une activité de services. Rolls-Royce a ainsi réussi à prendre le contrôle du marché des pièces détachées, plutôt que de permettre à des acteurs tiers de créer des pièces de rechange pour ses moteurs d’avions. Le nouveau modèle a également permis de répartir plus équitablement les risques liés à l’utilisation des moteurs entre le fournisseur et le client.
Rolls-Royce a commencé par placer ses clients au cœur de ses propres activités. L’entreprise a d’abord travaillé en étroite collaboration avec American Airlines pour créer la solution Total Care, axée sur l’intégralité des besoins du client. De là sont nés les centres opérationnels, dans lesquels les ingénieurs de Rolls-Royce veillent à la gestion quotidienne de la flotte de chaque client. Il n’est pas rare que ces centres soient intégrés aux opérations des clients ; l’entreprise a ainsi commencé par nouer une étroite coopération dans le secteur de la défense, au Royaume-Uni (chaîne YouTube Frank-Partners, juillet 2016).
Rolls-Royce vise désormais l’objectif « zéro perturbation » pour ses clients. Pour ce faire, l’entreprise procède à une modélisation sophistiquée des solutions qu’elle leur propose, au niveau à la fois des produits et de la flotte des clients. Ce virage vers une optique pronostique suppose que Rolls-Royce recueille les données générées par les moteurs et les agrège de manière à appréhender le mode de fonctionnement de l’ensemble de la flotte. Les données sont ensuite consolidées à l’échelle des différents clients afin d’obtenir une vue d’ensemble de la manière dont elles sont utilisées. À l’avenir, Rolls-Royce se concentrera également sur la disponibilité des appareils, s’assurant que lorsqu’un avion s’apprête à décoller, il ait toutes les chances d’y parvenir sans rencontrer de problème lié aux moteurs.
Le nouveau modèle de service permet à Rolls-Royce d’améliorer ses performances à deux niveaux :
Rolls-Royce peut réduire les coûts inhérents aux réparations planifiées en minimisant les coûts de maintenance et en évitant les pannes, d’où un allongement de la période pendant laquelle le moteur reste en place sur l’aile de l’avion, et, par ricochet, un accroissement des revenus tirés de ses services. Un laboratoire national américain a estimé que la maintenance prédictive des équipements pouvait permettre d’économiser jusqu’à 12 % sur les réparations planifiées, avec à la clé une réduction des coûts de maintenance globaux pouvant aller jusqu’à 30 % et une diminution des pannes jusqu’à 70 % (Sullivan et al., 2010 ; cité dans Daugherty et al., 2015). Si les économies réalisées par Rolls-Royce sont du même ordre, avec une baisse de 12 % des coûts de prestation des services, elles pourraient s’échelonner, d’après le chiffre d’affaires de l’exercice budgétaire 2014, entre 400 et 600 millions USD. Rolls-Royce parvient non seulement à allonger la durée de vie attendue de ses moteurs, mais tire également des revenus supplémentaires des services de maintenance. Ce qui permet d’allonger la durée de vie du moteur, des quatre à six ans habituels, jusque six à huit ans. Elle devrait donc dégager davantage de revenus de ses services dans les secteurs civil comme militaire. L’augmentation pourraitd’ailleurs atteindre 15 à 20 % par an. Si l’on se réfère au chiffre d’affaire 2014, cela pourrait représenter un surplus de 1.0 à 1.35 milliard USD par an. Par conséquent, les retombées annuelles totales imputables au nouveau modèle de service s’échelonneraient entre 1.4 et 1.95 milliard USD.
Rolls-Royce est en mesure d’offrir une forme de garantie de service à ses clients en assurant la disponibilité des appareils et en visant l’objectif « zéro perturbation » : en réduisant les perturbations venant compromettre la capacité de ses clients à mener à bien leurs activités, Rolls-Royce ajoute une garantie de performance aux services standard assurés par l’intermédiaire de ses centres opérationnels et de ses centres d’affaires. Il reste toutefois difficile d’estimer les retombées économiques du dispositif « zéro perturbation »2.
1. Avec les dispositifs de type Power by the Hour, les clients et les fournisseurs de produits vitaux, comme les équipements servant à la fabrication des semi-conducteurs, les avions commerciaux et les systèmes d’armement militaire, reconnaissent que l’acquisition de produits d’excellence ne suffit pas, et qu’il est désormais nécessaire d’y adjoindre des services de maintenance et de support avancés et économiques, tout au long de la phase après-vente de la relation client-fournisseur. L’un des volets essentiels de ces efforts consiste à repenser les relations contractuelles et informelles entre les clients et les fournisseurs dans le cadre de la chaîne logistique de l’offre de services (Knowledge@Wharton, 2007).
2. Aucune information n’est disponible sur la valeur économique des dispositifs de type « zéro perturbation ». Une étude de cas sur les efforts déployés en ce sens par le constructeur japonais FANUC laisse entendre qu’ils pourraient permettre à General Motor de réduire les temps d’immobilisation et d’économiser 40 millions USD par an (voir Roboglobal, 2016 ; et Cisco, 2016).
Par le passé, la transformation numérique des modèles économiques a dans un premier temps été impulsée par la formalisation et la codification des activités des entreprises, qui ont conduit à l’informatisation des processus métier grâce aux logiciels. Les entreprises ont ainsi pu répliquer plus rapidement les processus métier à l’échelle des organisations, avec, à la clé, une augmentation non seulement de la productivité, mais aussi des parts et de la valeur de marché. Brynjolfsson et al. (2008) a décrit ce phénomène comme un changement d’échelle sans masse critique. Avec les entreprises de l’internet, la transformation numérique a franchi un nouveau cap. De fait, elles sont parvenues à optimiser ce changement d’échelle sans masse critique, mieux encore que dans le reste de l’économie15.
Les modèles économiques des entreprises de l’internet les plus prospères vont aujourd’hui au-delà de la formalisation et de la codification des processus à l’aide des logiciels, pour couvrir la collecte et l’analyse d’importants flux de données (OCDE, 2015b). En recueillant et en analysant des données massives – dont une grande part provient des internautes (consommateurs) –, elles sont en mesure d’automatiser leurs processus, et de tester et d’impulser le développement de nouveaux produits et modèles économiques à un rythme bien plus élevé que les autres entreprises. Plutôt que de se borner à la formulation (explicite) et la codification des processus métier, elles exploitent les données massives pour « entraîner » les algorithmes de l’intelligence artificielle à exécuter des processus plus complexes, sans intervention humaine. L’innovation rendue possible par l’IA sert désormais à transformer les processus métier à l’ensemble de l’économie. Grâce à la convergence entre les TIC et d’autres technologies (du fait notamment de l’intégration des logiciels et de l’IdO), la transformation numérique peut gagner des secteurs même traditionnels, tels l’industrie manufacturière et l’agriculture.
L’analyse des modèles de l’économie numérique ayant fait leurs preuves révèle que les initiatives qui tirent parti des applications précitées peuvent conduire à une transformation numérique des entreprises traditionnelles. Parmi ces initiatives, citons notamment :
La numérisation des actifs physiques, processus qui consiste à coder des informations sous une forme binaire (en « bits », pour binary digits) afin qu’elles puissent être traitées par les ordinateurs (OCDE, 2015b). Il s’agit là de l’une des étapes les plus élémentaires de la transformation numérique des entreprises. Le secteur du divertissement et de la production de contenu a été parmi les premiers à franchir ce cap, en numérisant les livres, la musique et les vidéos pour les proposer sur l’internet. Grâce au déploiement des scanners et imprimantes 3D, la numérisation n’est plus limitée au contenu, mais s’étend désormais aux objets matériels. L’impression 3D promet notamment de raccourcir les processus de conception industrielle grâce à la rapidité du prototypage, voire, dans certains cas, d’accroître la productivité en réduisant le gaspillage (voir Chapitre 5). Boeing, par exemple, a déjà remplacé l’usinage par l’impression 3D pour plus de 20 000 unités de 300 pièces différentes (Davidson, 2012).
La « mise en données » (datafication en anglais) des processus d’entreprise, qui désigne la production de données par le biais non seulement de la numérisation des contenus, mais aussi du suivi d’activités, y compris des activités et phénomènes physiques (en dehors du cyberenvironnement), surveillés à l’aide des capteurs. L’expression « mise en données » est la traduction du terme anglais datafication, mot-valise formé à partir de data et de quantification, à ne pas confondre avec la notion de digitisation (en français, numérisation), qui désigne uniquement la conversion d’informations analogiques au format numérique (OCDE, 2015b)16. De nombreuses plateformes ont recours à la mise en données pour surveiller les activités de leurs utilisateurs. Sans compter qu’avec l’IdO, cette approche ne se limite plus aux entreprises de l’internet. Les données collectées à partir des machines agricoles, à l’instar de celles fabriquées par Monsanto, John Deere et DuPont Pioneer, servent ainsi à optimiser la distribution et la modification génétique des cultures (Encadré 2.3Encadré 2.6).
L’interconnexion des objets physiques via l’IdO, vecteur d’innovation de produit et de procédé. Par exemple, Scania AB, l’un des principaux constructeurs suédois de véhicules commerciaux, tire aujourd’hui un sixième de ses revenus de services nouveaux s’appuyant sur les fonctions de communication sans fil intégrées à ses véhicules (Encadré 2.7). L’entreprise a ainsi pu opérer un virage en se spécialisant dans la logistique, les réparations et d’autres services. L’interconnexion des véhicules lui a permis d’améliorer son offre de services de gestion de parc. L’interconnexion d’objets physiques ouvre également la voie à la production et l’analyse de données massives qui peuvent être utilisées pour créer de nouveaux services. Scania propose ainsi un ensemble de services pour renforcer l’efficacité de la conduite (et, par là même, des ressources), avec, par exemple, un programme d’accompagnement personnalisé des conducteurs fondé sur les données.
La codification et l’automatisation des processus d’entreprise grâce aux logiciels et à l’IA. Les logiciels ont aidé et incité les entreprises à standardiser leurs processus, et, lorsque ces derniers n’étaient pas au cœur de leur modèle économique, à vendre à d’autres entreprises les processus codifiés dans des solutions logicielles. Il en est ainsi de la suite Global Expenses Reporting Solutions d’IBM, développée à l’origine pour automatiser la gestion interne des dépenses liées aux déplacements professionnels. Le système déployé en interne est devenu un service vendu partout dans le monde (Parmar et al., 2014). La messagerie Gmail de Google en est un autre exemple. Il s’agissait à l’origine d’un système de messagerie interne, jusqu’à ce que Google annonce au grand public le lancement d’une version bêta limitée, en avril 2004 (McCracken, 2014).
Encadré 2.7. Coopération ou concurrence : l’exemple des véhicules connectés de Scania
Scania AB, l’un des principaux constructeurs suédois de véhicules commerciaux, a de plus en plus recours à son dispositif dit « communicateur » pour collecter des données en vue de suivre et d’analyser l’efficience de ses véhicules. Le constructeur entend ainsi accroître la part de ses ventes de services de 25 à 30 % de son chiffre d’affaires total à l’horizon 2020. Scania, qui propose depuis longtemps des services techniques et financiers, opère peu à peu un virage vers divers services connectés. Avec un objectif : faire en sorte qu’ils représentent un sixième de ses ventes de services liés à ses produits d’ici à 2020.
Plusieurs raisons ont motivé cette décision de mettre l’accent sur son offre de services. Dans la mesure où les ventes de services ne sont pas autant sujettes aux fluctuations économiques que les ventes de véhicules neufs, le constructeur a pour ambition de mieux équilibrer ses revenus sur le cycle de l’activité économique. Scania voit en outre cette stratégie comme un moyen d’accroître son chiffre d’affaires en créant de nouveaux services en phase avec l’évolution de la demande des clients dans le secteur des transports. Qui plus est, l’offre combinée de services et de véhicules lui permet de créer sa propre niche sur le marché des véhicules lourds. Dans ce domaine, Scania entend faciliter l’intégration de ses véhicules connectés aux parcs de véhicules multiconstructeurs des entreprises de transport.
Scania constate en effet que les transporteurs tendent à se spécialiser dans la logistique et à sous-traiter les réparations et autres services. En outre, la relation entre Scania et ses clients prend davantage la forme d’un partenariat dans lequel les parties travaillent de concert pour développer et optimiser la rentabilité des véhicules, et, par ricochet, celle des clients. Dans ce contexte, le développement de véhicules plus durables, sûrs et efficients ne peut se faire sans une coopération entre le constructeur et ses clients. Scania s’appuie sur différents services (numériques) pour agir sur les coûts et les revenus de ces derniers. Du côté des coûts, cela peut passer par la mise en place de programmes de services ou de réduction de la consommation de carburant. Pour ce qui concerne les revenus, il s’agit d’agir sur le principal facteur de rentabilité : le temps de disponibilité réelle des véhicules aux fins du transport.
La transition vers les services connectés nécessite de développer l’accès à une expertise et des capacités à la pointe de la technique. Par conséquent, les constructeurs comme Scania n’ont d’autre choix que de nouer des partenariats d’un nouveau type avec des entreprises TIC. Parallèlement, une nouvelle forme de concurrence voit le jour, avec l’arrivée d’entreprises spécialisées dans des domaines tels que les TIC, qui entrevoient la possibilité de s’emparer de segments entiers de la chaîne de valeur des transports. Sans compter les nouvelles opportunités qui s’offrent aux autres parties prenantes, telles les compagnies d’assurance et les équipementiers automobiles, qui peuvent accéder plus facilement aux données issues des capteurs installés sur les véhicules, par exemple.
Les acteurs du secteur automobile comme Scania sont donc au défi d’identifier les activités qui, au sein de la chaîne de valeur de la mobilité, seraient susceptibles de générer à l’avenir la plus forte valeur, et de déterminer dans quelle mesure les progrès techniques actuels y contribueront. Scania a choisi de miser sur une offre élargie de services répondant aux besoins en mutation des clients dans le secteur des transports. Parallèlement, du fait de l’évolution des marchés, il lui est devenu plus difficile de tirer des revenus de certains services qui jusque-là étaient au cœur de son portefeuille de produits. Tel est le cas par exemple des services d’aide à la gestion des parcs de véhicules des transporteurs. De fait, ces services ont été progressivement standardisés, de telle sorte que de nombreux fournisseurs tiers exercent désormais une pression sur les prix.
Scania est également confronté à un certain nombre de défis directement liés aux politiques mises en place par les pouvoirs publics. Le constructeur est ainsi de plus en plus tributaire de la qualité de l’infrastructure de réseau mobile. Dans la mesure où il n’a pas la main sur les réseaux de communication, il doit nouer des partenariats d’itinérance avec des opérateurs de télécommunications internationaux afin d’assurer le bon fonctionnement de ses services numériques.
Enfin, la transition vers les véhicules sans conducteur, qui, selon Scania, devrait intervenir d’ici 5 à 25 ans, ne va pas sans poser de nouveaux défis liés aux questions de responsabilité dans le domaine de la sécurité routière, qu’il est difficile d’anticiper d’un point de vue juridique.
Le commerce des données (en tant que service), qui est possible dès lors que des actifs physiques ont été numérisés, ou des processus « mis en données » (voir, plus haut, le point consacré à ce sujet). Les données générées en tant que produits dérivés des activités d’une entreprise peuvent présenter une valeur considérable pour d’autres entreprises (y compris dans des secteurs distincts). Ainsi, le prestataire de services de communications mobiles français Orange utilise sa technologie Floating Mobile Data (FMD) pour exploiter les données anonymisées de déplacement des téléphones portables, qui sont vendues à des tierces parties telles que des organismes publics et des fournisseurs de services d’information sur le trafic. En outre, les entreprises peuvent tirer parti du fait que les données sont par nature non rivales pour créer des marchés multiples, où les activités menées sur un marché donne lieu à une collecte de données, qui sont exploitées et utilisées sur un autre marché. Pour autant, il reste très souvent difficile de prévoir la valeur que les données conféreront aux tierces parties. Ce qui a incité certaines entreprises à se tourner vers les données ouvertes (voir OCDE, 2015b).
L’utilisation (ou la réutilisation) et la connexion des données à l’échelle intrasectorielle et intersectorielle (à savoir l’association de données composites), devenus synonymes d’opportunités commerciales pour les entreprises qui jouent un rôle central au sein de leur chaîne logistique. Walmart et Dell sont deux exemples probants d’entreprises qui ont réussi à intégrer les données à l’échelle de leurs chaînes d’approvisionnement. À mesure que l’industrie gagne en « intelligence », grâce à l’IdO et à l’analyse des données, cette approche commence également à intéresser les entreprises manufacturières. Les données issues des capteurs peuvent ainsi être utilisées pour surveiller et analyser l’efficacité des produits, optimiser les opérations à l’échelle d’un système, ou encore assurer les services après-vente, notamment les opérations de maintenance préventive (voir l’exemple de Schmitz Cargobull, présenté plus haut).
Le paysage concurrentiel gagne en complexité à mesure que la « coopétition » s’impose comme la nouvelle norme
L’importance croissante des TIC, de l’analyse des données massives à l’IdO, en passant par l’intelligence artificielle, confère aux entreprises capables de s’approprier ces technologies un avantage compétitif décisif. Les entreprises TIC qui parviennent à étendre le champ de leurs activités à d’autres secteurs partent donc avec un avantage certain. En revanche, pour les entreprises (traditionnelles) en place, la situation s’avère délicate. Et pour cause : elles doivent non seulement apprendre à utiliser de manière optimale les TIC, mais aussi nouer de nouveaux partenariats avec les entreprises spécialisées pour se doter des capacités techniques nécessaires.
Certaines d’entre elles ont décidé d’acquérir des start-ups prometteuses (John Deere a ainsi racheté Precision Planting), tandis que d’autres ont entrepris de coopérer avec des entreprises TIC, qui peuvent toutefois vite devenir des concurrents (Encadré 2.7). Cette relation quelque peu ambiguë, à mi-chemin entre coopération et concurrence, a été qualifiée de « coopétition ».
La complexité du paysage concurrentiel est particulièrement prégnante dans l’industrie automobile, où les constructeurs traditionnels doivent rivaliser certes avec leurs concurrents directs, y compris les nouveaux venus comme Tesla, mais aussi, de plus en plus fréquemment, avec des géants des TIC comme Apple, Alphabet (Google) et Uber Technologies (Uber), pour ne citer que quelques exemples. Plusieurs tendances sociales et technologiques sous-tendent ce bouleversement profond. En voici trois, considérées comme les plus marquantes dans le secteur automobile.
Le degré croissant d’intégration des TIC (et, en particulier, des logiciels) dans les véhicules. Les logiciels représentent une part de plus en plus élevée dans les coûts de mise au point des nouveaux véhicules – les voitures haut de gamme reposent aujourd’hui sur des millions de lignes de code informatique. On estime d’ailleurs que 90 % des nouvelles fonctionnalités équipant les voitures ont une composante logicielle importante (amélioration de l’injection de carburant, caméras embarquées, systèmes de sécurité, etc.). Les véhicules hybrides et électriques sont particulièrement gourmands en code informatique : l’hybride rechargeable Chevrolet Volt contient environ 10 millions de lignes de code. Les logiciels comptent également pour une part considérable des coûts de développement des véhicules entièrement nouveaux – si les constructeurs tendent à taire les chiffres exacts, certains estiment cette part à environ 40 % – (OCDE, 2015d).
La tendance aux véhicules autonomes (sans conducteur), qui implique que les systèmes logiciels faisant appel à l’intelligence artificielle représenteront la plus grande part de la valeur ajoutée de chaque véhicule. Les logiciels représentent la majeure partie des coûts de développement (entre 60 % et 80 %, si l’on inclut les systèmes d’information de divertissement17). Il n’est donc pas surprenant que les entreprises disposant de capacités logicielles avancées, notamment dans le domaine de l’IA, s’intéressent de près aux véhicules autonomes. Google fait souvent figure de pionnier, avec son projet Self-Driving Car, lancé en 2009 (même si la plupart des constructeurs automobiles de premier plan travaillaient déjà sur le concept depuis au moins dix ans18). Pour sa part, Tesla, qui a récemment mis à jour le microprogramme sur lequel fonctionne son système semi-autonome, dénommé « Autopilot », a mis la pression sur les acteurs historiques du marché automobile, les poussant à accélérer la cadence pour proposer des produits aux fonctionnalités comparables (c’est ainsi que Toyota Motor a annoncé son intention d’investir, d’ici à 2020, 1 milliard USD dans le développement de voitures autonomes).
Un possible changement de paradigme vers une « mobilité sous forme de service », qui pourrait dissuader les conducteurs de devenir propriétaires de leur voiture. L’utilisation des smartphones et applications mobiles, alliée à l’analyse des données massives, a ouvert la voie à une consommation collective de biens privés durables en surcapacité. Dans le cas des véhicules automobiles, de nombreux services de mobilité partagée ont vu le jour : location de voitures privées (Zipcar), de services de VTC (Uber, Lyft, BlaBlaCar) et de places de stationnement (JustPark), autopartage sans station (Car2go, DriveNow), ou encore location de véhicules avec station, qu’il s’agisse de voitures (Autolib’) ou de vélos (Velib’) (OCDE, 2015a). Ces entreprises captent par conséquent d’importants flux de capitaux. Par exemple, Apple a investi il y a peu 1 milliard USD dans Didi Chuxing, un service de VTC concurrent d’Uber en Chine.
Toutes ces tendances ont favorisé l’entrée des entreprises TIC sur les marchés de l’automobile et des services de mobilité, par le biais non seulement d’un recours croissant à des alliances stratégiques, mais aussi de fusions et d’acquisitions. Un certain nombre de partenariats se sont concentrés sur le développement de véhicules autonomes (sans conducteur). Par exemple, en mai 2016, le constructeur automobile Fiat Chrysler (FCA) et Alphabet, la société mère de Google, ont annoncé leur intention de développer conjointement un parc de 100 monospaces autonomes. Le mois suivant, BMW a annoncé qu’il allait s’allier à Intel et Mobileye pour mettre au point un système de conduite entièrement automatisée. Pour ce qui est des fusions-acquisitions, General Motors a déboursé récemment 1 milliard USD pour le rachat de Cruise Automation, une start-up spécialisée dans la conception de systèmes logiciels de conduite autonome.
À cela s’ajoute un nombre croissant de collaborations et d’investissements centrés sur les services de mobilité. Il en est ainsi de Volkswagen, qui a investi il y a peu 300 millions USD dans une start-up israélienne, Gett, concurrente d’Uber opérant essentiellement à New York, Londres, Moscou et Tel Aviv. Dans la même veine, Toyota Motor Corporation a investi dans Uber Technologies, tandis que General Motors a injecté 500 millions USD dans Lyft, le principal rival d’Uber aux États-Unis, qui a l’intention de mettre en place un réseau de voitures autonomes à la demande, à l’échelle nationale. Pour les fournisseurs des plateformes, l’objectif est souvent d’accéder à des parcs de véhicules ; les constructeurs automobiles, eux, cherchent à accéder aux données de mobilité et aux capacités analytiques des fournisseurs des plateformes.
À la lumière de ces efforts collaboratifs, certains observateurs ont constaté que les constructeurs automobiles peuvent être tirés vers le bas de la chaîne de valeur s’ils ne disposent pas des compétences nécessaires en matière de solutions logicielles et de services faisant appel à l’intelligence artificielle. Réagissant à l’annonce d’Apple d’investir dans un projet automobile, Ewing (2015) a formulé la conclusion suivante :
« Le principal risque pour les constructeurs automobiles n’est probablement pas tant qu’une voiture Apple sonnerait le glas de Mercedes-Benz ou de BMW comme l’iPhone a anéanti Nokia, le finlandais autrefois premier fabricant mondial de téléphones mobiles. En revanche, Apple et Google pourraient reléguer les constructeurs au rang de simples fabricants de matériel – et accaparer les bénéfices. »
Cela dit, les constructeurs traditionnels conservent un avantage décisif : leur capacité à gérer la complexité inhérente à la fabrication de véhicules fiables et confortables, ainsi que la chaîne logistique. Et demeurent détenteurs de marques extrêmement puissantes. Reste à savoir dans quelle mesure un nouveau venu pourra externaliser le processus de fabrication, comme Apple sous-traite la production de la partie matérielle de l’iPhone, ou nouer des partenariats avec des industriels, comme Google le fait pour Android. Quoi qu’il en soit, toutes les parties prenantes devront identifier précisément leurs cœurs de métier et les activités sur lesquelles elles peuvent miser, au sein de la chaîne de valeur, pour tirer le meilleur parti de leurs avantages compétitifs. L’exploitation de droits de propriété intellectuelle (DPI) existants et des données comme « points de contrôle » pourrait s’avérer être la clé des stratégies des entreprises, et l’on peut s’attendre à des conséquences déterminantes pour la concurrence sur les marchés concernés (voir OCDE, 2015b).
Automatisation de la fabrication industrielle et de l’agriculture
Dans le secteur manufacturier, les robots ont été, jusqu’à présent, utilisés en priorité là où leur rapidité, leur précision, leur dextérité et leur adaptabilité à des conditions dangereuses sont particulièrement utiles. Cela dit, les robots classiques ne sont rapides que dans des environnements très précis, et il faut des mois – voire des années – pour configurer l’usine qui doit les accueillir. Si les robots peuvent être équipés de capteurs, la plupart de leurs mouvements doivent néanmoins être planifiés et programmés, ce qui ne permet pas une grande souplesse dans la fabrication des produits. C’est pourquoi la fabrication des appareils électroniques grand public demeure souvent manuelle, car le cycle de vie et le délai de commercialisation de ces appareils sont si courts que l’usine robotisée ne serait pas encore prête à démarrer la fabrication de l’un d’eux que son successeur devrait déjà être sur le marché. Aujourd’hui, pourtant, l’IA change la donne : sous son impulsion, les machines deviennent plus flexibles et autonomes, et peuvent désormais exécuter un éventail plus large de tâches manuelles plus complexes. À tel point que certaines usines modernes, à l’instar de l’usine de fabrication de rasoirs Philips de Drachten, aux Pays-Bas, sont presque entièrement robotisées (Markoff, 2012). Cette usine compte seulement un dixième de la main-d’œuvre employée dans l’usine de Philipsqui fabrique les mêmes rasoirs en Chine.
Autre secteur dans lequel les machines autonomes sont en plein essor : l’agriculture. Dans le domaine de l’élevage bovin, les machines traient les vaches, distribuent les aliments et nettoient les étables sans aucune intervention humaine. Le robot de traite fabriqué par Lely ajuste ainsi automatiquement les processus d’alimentation et de traite, de manière à optimiser la production laitière de chaque vache. Plusieurs études ont d’ailleurs prédit que la fin de l’intervention humaine dans l’agriculture n’était désormais qu’une question de temps.
L’un des scénarios envisageables serait par conséquent que les activités des entreprises agricoles se limitent au gardiennage des exploitations, des animaux et des données. Il s’agirait alors de surveiller les opérations concentrées au bas de la chaîne de valeur, à l’image du concept actuel d’agriculture contractuelle19. Les producteurs alimentaires, les distributeurs, voire les consommateurs, pourraient interagir directement avec le réseau qui gravite autour de l’agriculteur, y compris les fournisseurs de semences, les machines intelligentes (autonomes), les vétérinaires, etc. Dans ce scénario, l’agriculteur s’apparente à un donneur d’ordres qui veille à la fluidité des interactions entre les acteurs du système agricole, du côté de l’offre comme de la demande. On pourrait également envisager un scénario alternatif, où les agriculteurs s’appuieraient sur les données et les résultats de l’analytique pour adapter les processus en fonction de leurs connaissances des idiosyncrasies locales et propres aux exploitations agricoles.
L’IdO facilite certes l’intégration des systèmes physiques, mais pas seulement : il a également vocation à favoriser celle des milieux vivants – plantes, animaux et hommes – au sein des systèmes physiques20. Cette intégration pourrait profiter à l’homme : les applications basées sur la réalité augmentée pourraient, par exemple, fournir aux employés les informations en temps réel dont ils ont besoin pour améliorer la prise de décision et les procédures de travail. Les instructions de réparation pourraient ainsi s’afficher directement dans le champ de vision des personnes équipées de lunettes à réalité augmentée (Rüssmann et al., 2015). Par ailleurs, l’utilisation d’informations disponibles en temps réel peut aider les employés à organiser par eux-mêmes le roulement des équipes, comme le montre le projet KapaflexCy en Allemagne (Encadré 2.8). Pour autant, les exemples présentés jusqu’à présent laissent entrevoir le risque qu’une telle intégration conduise à une déshumanisation de la production. Les processus de production étant hautement automatisés, l’intégration et les interactions entre les hommes et les systèmes autonomes sont déjà à l’œuvre. Elles sont présentes en particulier pour des tâches faisant encore appel à l’intelligence humaine etpour lesquelles il n’existe aucun algorithme rentable. Ces travailleurs se placent donc davantage au service des systèmes IdO plutôt que dans une position d’utilisateurs (Encadré 2.9).
Les grands entrepôts, qui ont été jusqu’à présent d’importants pourvoyeurs d’emplois, sont une bonne illustration de ce système. Ces entrepôts sont aujourd’hui nombreux à utiliser les technologies numériques pour diriger les employés vers les étagères idoines et leur indiquer les articles à y prélever. Les employés scannent ensuite les codes-barres des articles prélevés et déposés. Ils parcourent chaque jour de nombreux kilomètres21. D’autres entrepôts sont équipés de tapis roulants pour les produits. Ce sont alors les ordinateurs qui « contrôlent » les hommes. En revanche, dans certains cas, le modèle d’organisation a évolué : ce sont en effet les étagères qui viennent aux employés, déplacées par de petits robots comme ceux fabriqués par Kiva Systems, une entreprise rachetée par Amazon après que ce dernier eût commencé à utiliser ses produits. Kiva Systems a ouvert la voie à un nouveau type d’entrepôt, où les employés restent à leur poste et les étagères viennent à eux. L’emplacement des produits est constamment optimisé : les produits les plus vendus sont ainsi stockés sur les étagères les plus proches, de manière à leur faire parcourir la plus courte distance22. Un laser indique à l’employé quel produit doit être prélevé etoù le déposer. Résultat : un entrepôt ultra-efficient où l’on fait appel à moins d’employés pour gérer le même volume de commandes.
Encadré 2.8. Organisation autonome flexible des capacités de production au service de l’industrie 4.0 : le projet de recherche KapaflexCy
Pour fabriquer des produits hautement personnalisés, les entreprises doivent faire preuve de davantage de dynamisme et d’agilité, et porter une attention accrue aux besoins des clients. Ce qui ne peut se faire sans une flexibilité maximale, au niveau tant des installations techniques que du personnel. Dans l’optique d’une production économe en ressources, le déploiement du personnel doit être au plus près de la demande réelle. Dans la pratique, ce processus s’avère généralement inefficient : les chefs d’équipe et les responsables de quart coordonnent le calendrier des présences et des absences des employés, souvent oralement, parfois par courriel.
Le projet de recherche KapaflexCy a rassemblé diverses institutions qui ont collaboré à la mise au point d’un système auto-organisé de contrôle des capacités géré – les institutions concernées sont Fraunhofer IAO, BorgWarner, Bruker Optik, l’aéroport de Stuttgart, l’institut IAT (Institut für Arbeitswissenschaft und Technologiemanagement), Introbest, Kaba, SAP et Trebing & Himstedt). Grâce à ce système, les entreprises peuvent contrôler leurs capacités de production en impliquant directement les cadres dirigeants, pour une prise de décision extrêmement flexible, sur le court terme et à l’échelle de l’organisation. Même en période de variation des volumes de commandes et d’instabilité des marchés, elles peuvent réagir plus rapidement, éviter les temps morts et réduire les coûts inhérents au contrôle des capacités. Les salariés bénéficient d’un plan de déploiement du personnel transparent et coordonnent leurs périodes d’affectation. Avec, à la clé, un meilleur équilibre entre travail, famille et loisirs, et une motivation renforcée.
Encadré 2.9. Recours à la contribution participative pour les tâches faisant appel à l’intelligence humaine : l’« informatique basé sur l’humain »
Si les technologies en matière d’informatique et d’automatisation ne cessent de progresser, de nombreuses tâches continuent d’être exécutées plus efficacement par les hommes que par les machines – l’identification d’objets dans une vidéo ou la transcription d’enregistrements audio en sont des exemples. Les entreprises ont généralement pour habitude de se tourner vers des travailleurs intérimaires. Mais une alternative se fait jour : externaliser la réalisation de ces micro-tâches, dites « tâches d’intelligence humaine » (human intelligence tasks, ou HIT) via le recours à la contribution participative. Ce processus, qui offre aux entreprises une flexibilité accrue, est souvent qualifié d’« informatique basé sur l’humain », dans la mesure où l’on fait appel à des hommes pour des problèmes que les ordinateurs ne parviennent pas à résoudre.
Amazon reste le principal fournisseur de services d’« informatique basé sur l’humain » sur l’internet, depuis le lancement, en 2005, de sa plateforme de contribution participative pour l’exécution de tâches numériques, dénommée Amazon Mechanical Turk (MTurk). Les clients publient des annonces pour des projets d’envergure limitée qui ne peuvent être entièrement menés à bien grâce à l’informatique. Les travailleurs – appelés turkers – exécutent ces tâches ponctuelles, en contrepartie d’une rémunération allant de 0.01 USD pour une tâche de courte durée à 100 USD pour certaines missions plus complexes. À l’heure actuelle, quelque 500 000 travailleurs de 190 pays sont inscrits sur Amazon MTurk. MTurk et d’autres services similaires sont parfois considérés comme une opportunité économique, en particulier pour les travailleurs des pays en développement. Par exemple, Samasource, une organisation sans but lucratif, fournit des services de données à de grandes entreprises basées aux États‐Unis et en Europe. Elle divise le travail en micro-tâches dont la réalisation est confiée à des centres d’exécution dans des pays en développement (Gino et Staats, 2012).
S’ils offrent des possibilités de travail à certains, MTurk et les services de même ordre, tels Samasource, ont également essuyé des critiques, allant jusqu’à être accusés de pratiquer un esclavage numérique, dans la mesure où, comme l’a souligné un universitaire, ils contournent un certain nombre de lois et de pratiques en vigueur dans la plupart des pays développés (Zittrain, 2009, cité dans MIT Technology Review, 2010). La rémunération de ces « microtravailleurs » est souvent inférieure aux taux horaires moyens (Uddin, 2012 ; Cushing, 2013 ; Horton et Chilton, 2010). Néanmoins, selon une enquête portant sur la perception des conditions de travail, menée auprès de 200 personnes inscrites sur MTurk, celles-ci considèrent que leurs chances d’être traitées équitablement dans le cadre de ces cyberemplois sont au moins équivalentes, voire supérieures, à celles qui leur sont offertes dans les emplois traditionnels (MIT Technology Review, 2010 ; Horton, 2011). La situation n’en reste pas moins problématique, malgré une pétition, déposée en 2014 par des travailleurs de la plateforme MTurk, dans laquelle ils appellent Jeff Bezos, PDG d’Amazon, à améliorer leurs conditions de travail (Harris, 2014 ; Dholakia, 2015).
Source : OCDE (2015b), Data-Driven Innovation: Big Data for Growth and Well-Being, http://dx.doi.org/10.1787/9789264229358-en.
De nouvelles possibilités d’action et de nouveaux défis sont à attendre
Bien que prometteuse, la transformation numérique de la production industrielle et agricole n’a pas encore atteint son plein potentiel. Il y a plusieurs raisons à cela, l’exemple de l’adoption des technologies liées à l’agriculture de précision aux Pays-Bas le montre (Encadré 2.10). Cette section examine les principales problématiques qui, si elles trouvent une réponse adaptée, pourraient maximiser les avantages de la transformation numérique.
Encadré 2.10. Moteurs et enjeux de l’adoption des technologies liées à l’agriculture de précision
Le concept d’agriculture de précision suscite l’imagination des acteurs de l’industrie et des décideurs, même si le marché des solutions spécialisées dans ce domaine n’en est qu’à ses balbutiements.
Dans une enquête réalisée auprès des agriculteurs néerlandais, environ 55 % des répondants ont indiqué posséder des outils d’aide à l’agriculture de précision (Université et centre de recherche de Wageningen, WUR). Il s’agit dans la plupart des cas de tracteurs équipés d’un GPS et, dans une moindre mesure, d’outils de surveillance des cultures et du sol. En revanche, l’intégration des données générées par les machines dans les systèmes de gestion opérationnelle reste limitée. Les agriculteurs recourent à ce type de solution avant tout lorsqu’ils y sont contraints par la réglementation ou les exigences des clients en matière de sécurité alimentaire. En d’autres termes, ces outils sont davantage utilisés à des fins d’enregistrement que dans l’optique de produire des données de gestion tangibles. L’utilité des systèmes de gestion devient plus manifeste à mesure que les exploitations grandissent et ont besoin de meilleures capacités de traitement de l’information. Quelque 45 % des répondants exploitent les données collectées pour planifier la fertilisation, l’irrigation et la pulvérisation de pesticides. Toutefois, cette planification ne s’appuie généralement pas sur des données en temps réel et n’est pas prise en charge automatiquement par les machines. On est donc loin d’exploiter le plein potentiel des technologies.
La facilité d’utilisation des outils TIC et les compétences TIC des agriculteurs sont des facteurs de poids dans l’adoption et l’utilisation des technologies qui sous-tendent l’agriculture de précision. Entrent également en ligne de compte la taille des exploitations, les perspectives de réductions de coûts, le revenu total de l’exploitation agricole, le régime foncier, l’accès à l’information (par le biais de services de vulgarisation et des fournisseurs de services et de technologies), ou encore la localisation (Perpaoli et al., 2013).
Les taux d’adoption des technologies liées à l’agriculture de précision varient selon les sous-secteurs. Diverses sources laissent à penser que l’utilisation des données et de l’analytique dans le domaine de l’élevage et de la culture sous serre est plus répandue que dans la culture de plein champ. La raison pourrait en être que les deux premiers sous-secteurs affichent des cycles de production plus courts et opèrent dans des environnements contrôlables, ce qui rend les solutions d’agriculture de précision et l’automatisation plus rentables.
Autre levier de diffusion important : la pénétration du haut débit (mobile). Le projet européen de recherche AgriXchange a en effet mis en évidence le fait que l’absence de haut débit dans de nombreuses zones rurales d’Europe constitue un frein majeur à l’adoption des innovations s’appuyant sur la collecte et l’échange de données.
Surmonter les obstacles à la diffusion des TIC, à l’interopérabilité et aux normes
La transformation numérique de la production industrielle passe par la diffusion des TIC clés, en particulier dans les PME. Pourtant, de nombreuses entreprises tardent à franchir le cap. Pour preuve, l’adoption de l’infonuagique, des solutions de gestion de la chaîne logistique, des progiciels de gestion intégrés et des applications de radio-identification (RFID) par les entreprises reste très inférieure à celle des réseaux haut débit ou des sites internet (Graphique 2.7). Or ce sont ces mêmes TIC avancées qui sont à l’origine de la transformation numérique de la production industrielle.
Parmi les freins à l’utilisation des TIC avancées dans les entreprises, citons notamment l’enfermement propriétaire23, souvent liés à l’utilisation de solutions propriétaires, l’absence de standards (ouverts), ou encore les risques de failles de sécurité (les grandes entreprises, en particulier, se disent préoccupées par la sécurité des données). En outre, il est souvent difficile pour les petites entreprises d’opérer des changements organisationnels, du fait des ressources limitées dont elles disposent, notamment de la pénurie de personnel qualifié.
L’identification des appareils constitue un aspect essentiel de l’interopérabilité. Le déploiement de l’IdO pourrait se heurter à un défi de taille : assurer l’interopérabilité entre des identifiants hétérogènes. Et pour cause : l’IdO concerne des milliards d’objets qui sont connectés à des réseaux internet existants et doivent être adressables de manière unique.
Un autre problème lié à l’interopérabilité apparait lorsque les utilisateurs tentent d’utiliser des appareils et des applications IdO émanant de fabricants et fournisseurs différents. Tel est le cas, notamment, si un utilisateur a recours à des applications IdO sur différents systèmes ou réseaux – par exemple, d’un pays à l’autre – transfert d’équipement – à l’instar de sa voiture – vers un nouveau fournisseur de services ou un nouveau réseau. Une étude du Forum économique mondial (FEM, 2015) confirme que l’absence d’interopérabilité figure parmi les trois principaux freins à l’adoption de l’IdO (après les préoccupations en matière de sécurité, mais avant les incertitudes quant à la rentabilité des investissements). Qui plus est, les faits montrent que la plupart des données générées par les capteurs ne parviennent pas jusqu’aux décideurs opérationnels en raison des problèmes d’interopérabilité (McKinsey Global Institute, 2015).
Des obstacles réglementaires peuvent également freiner l’adoption effective de certaines TIC. Ainsi, les entreprises recourant à l’IdO à grande échelle, comme les constructeurs automobiles, qui doivent pouvoir contrôler les cartes SIM équipant leurs produits, y sont empêchés dans de nombreux pays. Par conséquent, dès lors qu’une voiture est équipée d’une carte SIM appartenant à un réseau mobile, le constructeur ne peut quitter ce réseau pendant la durée de vie du produit. Les utilisateurs possédant de multiples équipements (parfois dénommés « utilisateurs aux millions d’appareils ») peuvent donc se retrouver liés par des contrats longs (allant souvent de 10 à 30 ans). Cela signifie en outre que lorsqu’une voiture franchit une frontière, l’utilisateur intensif du service se voit facturer par l’opérateur des frais d’itinérance élevés.
Faire face aux potentielles pénuries de qualifications
L’utilisation croissante des TIC avancées comme l’analyse des données renforce la demande de qualifications nouvelles. Or l’adoption des TIC peut être freinée par une pénurie de compétences spécialisées. Certaines enquêtes montrent en effet que le manque de spécialistes des données est l’une des principales entraves au déploiement de l’analyse des données dans les entreprises. Aux États-Unis, depuis 1999, les emplois occupés par les personnes dotées de compétences TIC avancées sont parmi ceux qui ont connu la plus forte croissance en termes de salaire relatif, ce qui (conjugué à d’autres observations) laisse entrevoir une possible pénurie.
De nombreux pays peinent à développer les compétences nécessaires. Selon les données de l’OCDE, entre 7 % et 27 % des adultes des pays membres de l’Organisation n’ont aucune expérience de l’utilisation d’un ordinateur ou ne disposent pas des compétences les plus élémentaires. Seuls 6 % des habitants de la zone OCDE24 présentent le niveau de compétences TIC « le plus élevé ». Dans des pays comme l’Autriche, les États-Unis, la Corée, l’Estonie, la République slovaque, l’Irlande et la Pologne, leur part est inférieure ou égale à 5 % (Graphique 2.8).
Les faits montrent par ailleurs que la situation géographique joue un rôle certain. De fait, la plupart des technologies liées aux données massives, à l’instar d’Hadoop, sont si récentes que peu d’experts disposent des connaissances ou de l’expertise suffisantes pour les exploiter ; qui plus est, les personnes dotées d’un niveau de compétences élevé tendent à se concentrer dans des régions comme la baie de San Francisco, aux États-Unis. Au vu de ces observations, il convient d’interpréter avec précaution les statistiques relatives à l’emploi et aux compétences à l’échelle nationale, qui ne reflètent pas toujours la dynamique des marchés du travail ni les déficits de qualifications au niveau régional (ou infrarégional).
Il n’est pas rare que la pénurie de compétences techniques se traduise par une méconnaissance du potentiel productif des TIC. Sont particulièrement concernées les entreprises qui peinent à transformer leur organisation. Une étude récente (Hammermann et Stettes, 2016) consacrée à l’impact de la révolution numérique sur les compétences et l’emploi en Allemagne révèle que les capacités à planifier, à organiser, et à agir de manière autonome, conjuguée à l’expérience professionnelle dans une entreprise et un métier donnés, sont des conditions essentielles à la réussite de la transformation numérique des entreprises. En revanche, des études montrent également que la capacité à exploiter la valeur du numérique au service de l’avenir des entreprises fait souvent défaut. D’où l’absence d’une stratégie de transformation numérique à l’échelle des organisations. Kane et al. (2015), par exemple, observent que les jeunes entreprises tendent à se concentrer sur la technologie : ce faisant, elles utilisent les TIC – le cas échéant – non pas pour transformer leur organisation, mais uniquement pour améliorer leurs opérations. Seuls 52 % des entreprises qui utilisent les TIC de manière moins intensive (primo-adoptants) déclarent que la transformation de leur organisation fait partie intégrante de leur stratégie numérique.
Les données, nouvelle infrastructure pour la production du XXIe siècle
Les données sont une ressource d’infrastructure. Elles constituent une forme de capital susceptible d’être utilisée pour un éventail théoriquement illimité d’usages. Les infrastructures physiques, comme les routes et les ponts, contribuent à accroître les retombées économiques de certaines activités, en favorisant notamment les échanges commerciaux et sociaux. L’utilisation des données produit elle aussi un effet d’entraînement sur l’ensemble de l’économie. Mais certaines retombées sont difficiles à observer ou à quantifier – il en est ainsi, par exemple, du renforcement de la confiance induit par la transparence et les applications fondées sur les données, qui s’appuient toutes deux sur les données ouvertes du secteur public. En conséquence, les pays risquent de ne pas investir suffisamment dans les données et l’analytique, et de réserver l’accès aux données à des usages plus limités que ce qui serait socialement optimal. Cela pourrait, par ricochet, compromettre leur capacité d’innovation, dont les données et leur analyse sont devenues une composante indispensable.
La valeur des données dépend du contexte dans lequel elles sont exploitées, de l’utilisation d’actifs complémentaires (comme les fonctions d’analytique et les autres données – ou métadonnées), ainsi que de leur degré de réutilisation. Il existe au moins trois moyens d’optimiser la valeur des données, à savoir :
Améliorer la qualité des données afin d’en faciliter l’exploitation.
Renforcer les capacités d’analyse des données en investissant dans les logiciels spécialisés, le savoir-faire et les compétences, ainsi que dans les données (ou métadonnées) complémentaires contribuant à enrichir les données existantes.
Élargir l’accès aux données afin de tirer le meilleur parti de leur nature infrastructurelle (en tant qu’actif productif d’usage général non rival).
Dès lors que la valeur sociale dépasse la valeur privée des données, il devient bénéfique d’en élargir l’accès, en offrant par exemple un accès libre (non discriminatoire) via l’ouverture des données publiques, la portabilité des données ou le partage de données.
Préserver le caractère ouvert de l’internet pour les chaînes de valeur mondiales
On assiste à une multiplication des échanges et une augmentation de l’utilisation des données et des services numériques entre les secteurs et au-delà des frontières nationales. De fait, les entreprises tendent à fractionner leurs processus numériques – hébergement, stockage et traitement – dans différents pays.
Certes, on ignore la répartition exacte des services numériques à l’échelle internationale, ainsi que l’ampleur des flux transfrontières de données. En revanche, l’analyse des principaux sites internet mondiaux fait apparaître une concentration disproportionnée des services numériques aux États-Unis, qui représentaient à eux seuls plus de 50 % de l’ensemble des sites de renom hébergés dans la zone OCDE en 2013 (Graphique 2.9). L’écart se resserre peu à peu avec le Canada, l’Allemagne, la France, l’Irlande, les Pays-Bas, le Japon et le Royaume-Uni, ainsi que la Chine, l’Inde et la Fédération de Russie, dont la contribution aux échanges mondiaux de services à forte intensité de TIC progresse.
Les pays qui comptent le plus de sites internet de renom sont également ceux qui affichent le plus grand nombre de centres de données de colocalisation (centres de données partagés par plusieurs utilisateurs). C’est aussi là que l’on trouve les services à forte intensité de données. Les grands exportateurs de services numériques et les principales zones de concentration des services fondés sur les données constituent généralement les principales destinations des flux transfrontières de données. Par conséquent, les grands importateurs de services basés sur les TIC de la zone OCDE sont aussi les principales sources d’échanges de données liées au commerce. Ces pays dépendent donc fortement des échanges transfrontières de données.
Stimuler les investissements dans la R-D sur les TIC clés génériques
La transformation numérique de la production industrielle nécessite d’investir dans la R-D axée sur les produits et services numériques, dont l’IdO, l’analyse des données et l’informatique. Les pays qui ont développé leurs capacités de manière à fournir et utiliser ces produits et services seront les mieux placés pour bénéficier des avantages du premier arrivé induits par cette transformation.
Les données afférentes aux dépôts de brevets internationaux témoignent de l’essor rapide des activités de création dans les technologies liées à la transformation numérique de la production industrielle. Pour preuve, depuis 2007, le nombre de dépôts de brevets dans les domaines de l’IdO, de l’analyse des données massives, et de l’informatique et des télécommunications quantiques a connu une croissance à deux chiffres. En 2012 – soit la dernière année pour laquelle on dispose de données –, le taux de croissance a dépassé 40 %. Toutefois, l’offre de technologies liées à l’innovation fondée sur les données reste concentrée dans une poignée d’économies. Les États-Unis arrivent en tête du nombre de brevets déposés ; suivent le Canada, la France, l’Allemagne, la Corée, le Japon et le Royaume-Uni, ainsi que la Chine (Graphique 2.10).
Gérer les problématiques de responsabilité, de transparence et de propriété
L’analyse des données ouvre de nouveaux horizons en matière de prise de décision, avec des expérimentations rapides et économiques, souvent fondées sur des corrélations, et l’utilisation de l’IA dans les machines et les systèmes autonomes. À la clé, des perspectives d’accélération de la prise de décision et de gains de productivité.
Pour autant, les décisions fondées sur les données et l’intelligence artificielle ne sont pas infaillibles. Plusieurs causes possibles à cela : la qualité médiocre des données utilisées, une mauvaise utilisation des données et de l’analytique, ou une évolution inattendue de l’environnement dont les données sont issues. Il est arrivé, par exemple, que des comportements imprévus des systèmes de négociation algorithmique engendrent des pertes financières, comme ce fut le cas pour Knight Capital Group, qui a subi en 2012 une perte de 440 millions USD.
Le risque que de mauvaises décisions soient prises pose la question de l’attribution de la responsabilité entre les décideurs et les fournisseurs des données et des TIC. Une problématique exacerbée par les défis liés à la notion de propriété des données. À la différence d’autres biens immatériels, les données font généralement intervenir des attributions complexes de différents droits entre diverses parties prenantes. Lorsque les données sont considérées comme revêtant un caractère personnel, la notion de propriété pose problème, dans la mesure où la plupart des régimes de protection de la vie privée confèrent à la personne concernée des droits de contrôle explicites sur des données qui ne sont pas restreintes (voir par exemple le Principe de la participation individuelle, énoncé dans les Lignes directrices régissant la protection de la vie privée et les flux transfrontières de données de caractère personnel). Ainsi, les données générées à partir des compteurs intelligents sont considérées comme présentant un caractère personnel si elles renseignent sur la consommation électrique individuelle, ce qui va à l’encontre de tout droit de propriété exclusif que le propriétaire du compteur pourrait faire valoir sur ces données.
Alors que se généralisent les applications faisant appel à l’analyse des données et à l’IA, les utilisateurs doivent en connaître les limites. À défaut, ces applications pourraient avoir des conséquences économiques et sociales préjudiciables. Le problème est particulièrement prégnant quand les utilisateurs de ces applications ne sont pas suffisamment sensibilisés à la nécessité de minimiser les risques pour les tierces parties. Cela peut arriver lorsque l’analyse des données à caractère personnel profite en premier lieu au client de l’utilisateur d’une application et non aux personnes auprès desquelles les données ont été collectées.
Repenser les cadres d’action gouvernementale et réglementaire dans les domaines de la protection de la vie privée, des droits de propriété intellectuelle, de la concurrence et de la fiscalité
L’analyse des données massives, l’infonuagique et l’IdO pourraient poser des défis de taille en termes de protection de la vie privée, de protection des droits de propriété intellectuelle (DPI), de défense des consommateurs, de droit de la concurrence et de fiscalité. Or les cadres réglementaires en vigueur pourraient s’avérer dans certains cas inadaptés pour affronter ces nouveaux défis. Des efforts doivent donc être déployés pour évaluer les potentialités et les contraintes liées aux cadres existants, dans le contexte de la transformation numérique de la production industrielle.
La collecte de données exhaustive qui va de pair avec l’IdO pourrait donner lieu à des atteintes à la vie privée ; de fait, les progrès de l’analyse des données permettent parfois d’obtenir des informations sensibles, y compris à partir de données ne présentant pas un caractère personnel (telles que les métadonnées, par exemple). L’utilisation frauduleuse de ces renseignements peut menacer les valeurs et les principes sociaux fondamentaux, comme l’autonomie de l’individu, l’égalité et la liberté de parole. En outre, l’application des principes fondamentaux sur lesquels repose la protection de la vie privée (la définition des données à caractère personnel et le rôle du consentement, par exemple) est mise à mal par les volumes, la vitesse et la variété des données collectées de toutes parts.
Qui plus est, l’innovation fondée sur les données pose un certain nombre de défis aux autorités chargées de la concurrence, qui doivent notamment :
Définir le marché concerné – l’utilisation des données donne lieu à la création de marchés multiples ; les cyberplateformes comme Facebook et Uber en sont des exemples probants. Or l’approche traditionnelle de la définition des marchés est généralement centrée sur une seule de ces faces.
Évaluer le degré de concentration du marché, ce qui nécessite d’analyser les prix du marché. Or une grande partie des produits fondés sur les données sont proposés soit « gratuitement » en contrepartie de l’accès aux données à caractère personnel, soit dans le cadre d’une offre groupée de services « premium ».
Évaluer les préjudices que les consommateurs pourraient subir en cas d’atteinte à leur vie privée – les autorités de concurrence tendent à rediriger les questions propres aux problèmes de confidentialité vers les organismes chargés de la protection de la vie privée, qui, eux, ne sont pas compétents pour statuer sur les questions de concurrence (voir OCDE, 2015b).
Par ailleurs, l’utilisation transfrontalière des données et des TIC peut compliquer la tâche des administrations fiscales, qui peinent à déterminer le lieu où les activités imposables sont menées et où la valeur est créée (OCDE, 2015a). Avec, en filigrane, la difficulté de mesurer la valeur monétaire des données, d’en déterminer la propriété et d’obtenir une vision précise de la répartition et de l’interconnexion, à l’échelle mondiale, des services fondés sur les données.
Enfin, la convergence entre l’infrastructure de production et les TIC, ainsi que le rôle croissant des logiciels, confèrent aux droits de propriété intellectuelle (DPI) et, plus particulièrement, aux droits d’auteur, une place stratégique en tant que point de contrôle dans la production de demain. Des travaux menés récemment par l’OCDE (2015d) ont d’ores et déjà montré que, parmi les différents types de DPI, les droits d’auteur se démarquent sur plusieurs plans : l’ampleur des investissements qu’ils attirent, le taux de progression de ces investissements et la croissance de l’emploi qui s’ensuit. Le poids économique des droits d’auteur semble se renforcer. En particulier, dans la majeure partie des pays, ces droits protègent des volumes considérables d’investissements dans les logiciels.
Le rôle grandissant des DPI dans l’avenir de la production s’accompagne d’un certain nombre de défis. On s’inquiète notamment du fait que le contrôle des DPI stratégiques sur lesquels reposent aujourd’hui des écosystèmes entiers pourrait conduire à des comportements anticoncurrentiels. Et ce, malgré l’utilisation croissante de logiciels libres, qui ont contribué à atténuer certaines des contraintes auxquelles étaient confrontés jusqu’alors les utilisateurs des infrastructures informatiques (voir OCDE, 2015b). Par exemple, d’aucuns ont craint que le brevet US 7650331 B1 relatif à MapReduce25, délivré à Google, n’entraîne des risques pour les entreprises qui s’appuient sur la mise en œuvre open source (code source libre) de MapReduce, telles que Hadoop ou CouchDB. Or, dans la mesure où Hadoop est aujourd’hui largement utilisé, y compris par des géants comme IBM, Oracle et bien d’autres, y compris Google, beaucoup considèrent que Google « a déposé ce brevet à des fins défensives » (Paul, 2010)26. En concédant une licence à Apache Hadoop (librement accessible) dans le cadre de l’accord de licence Apache Contributor License Agreement (CLA), Google a officiellement apaisé les craintes d’une action en justice contre les projets Hadoop et CouchDB (Metz, 2010).
Les DPI pourraient également jouer un rôle dans un autre domaine lié aux systèmes de production fondés sur les TIC : les interfaces de programmation d’applications (API). La protection des droits d’auteur inhérents aux API pourrait en effet aider à lutter contre les applications non autorisées. Cette protection contribue non seulement à stimuler l’investissement et l’innovation dans les applications, mais aussi à promouvoir la cybersécurité, dans la mesure où les applications non autorisées peuvent être utilisées pour introduire des programmes malveillants dans les systèmes de production. Toutefois, certains experts craignent que la protection des droits d’auteur liés aux API ne pénalise la création et l’adoption de nouvelles applications, et que le contrôle des DPI n’induise des comportements anticoncurrentiels27. La tendance à la création d’API plus fermées inquiète donc une partie des acteurs dont les services innovants reposent sur les API libres.
Considérations intéressant l’action des pouvoirs publics
À la lumière des thématiques examinées dans la section qui précède, un certain nombre de pistes d’action se dessinent. Elles peuvent être regroupées sous trois objectifs : promouvoir les investissements dans les TIC et les données, y compris dans les changements organisationnels complémentaires ; soutenir le développement des compétences et des qualifications à l’appui de la transformation numérique de la production ; et traiter les risques et incertitudes qui se font jour, qu’ils soient liés à l’utilisation des nouvelles technologies numériques ou aux lacunes des cadres réglementaires actuels.
Promouvoir les investissements dans les TIC et les données, et faciliter leur utilisation
Les gouvernements qui cherchent à favoriser l’offre de TIC clés devraient envisager de soutenir les investissements en faveur de la R-D axée sur les technologies génériques comme l’analyse des données massives, l’infonuagique, l’informatique à hautes performances, l’IdO et les technologies renforçant la sécurité et la protection de la vie privée. Dans sa stratégie nationale pour l’économie numérique lancée en 2014, le Canada prévoit par exemple d’investir 15 millions CAD sur trois ans pour soutenir la recherche de pointe dans les technologies quantiques et la commercialisation des résultats de ces activités. La France entend quant à elle investir 150 millions EUR à l’appui de la R-D dans cinq technologies jugées stratégiques : l’IdO, le calcul intensif, l’infonuagique, l’analyse des données massives et la sécurité.
Les pouvoirs publics devraient envisager de prendre des mesures agissant sur la demande pour encourager les investissements en faveur des TIC clés génériques et leur adoption, en particulier dans les PME, par le biais notamment d’activités de sensibilisation, de formation et de mentorat, ou via la mise en place de systèmes de bons (Encadré 2.11). Ces mesures devraient également avoir pour objectif de stimuler l’investissement dans les formes complémentaires de capital intellectuel (CI), y compris dans le changement organisationnel (voir OCDE, 2016b). Les dispositifs agissant sur la demande devraient en outre être complémentaires des politiques (déjà en place) de stimulation de l’offre de TIC (à l’instar des programmes de R-D et des stratégies nationales de déploiement du haut débit). En Allemagne, par exemple, les politiques destinées à soutenir l’investissement dans la R-D liée aux applications industrielles des TIC, les activités de recherche sur la sécurité informatique, la microélectronique et les services numériques vont de pair avec des politiques d’action sur la demande mettant l’accent sur la sensibilisation et la formation (comme en témoignent les deux centres de solutions liées aux données massives créés à Berlin et à Dresde). Qui plus est, le gouvernement allemand a rassemblé plus de 260 exemples de mises en œuvre réussies de projets de type Industrie 4.0 sur une carte interactive28.
Les pouvoirs publics devraient mettre en place une combinaison de mesures (policy mix) en faveur de l’innovation afin d’encourager les investissements dans les données (collecte, curation, réutilisation et couplage) ayant des retombées positives dans différents secteurs, tout en s’attelant à la problématique de la faible appropriation des avantages du partage des données. Sont concernées en premier lieu les données qui revêtent une valeur sociale supérieure à leur valeur privée. En ce qui concerne la question de l’appropriation des avantages du partage des données, il conviendrait d’approfondir la réflexion sur le recours à des solutions combinant droits de propriété intellectuelle (DPI), licences et mécanismes d’incitation alternatifs, tels que les citations de données, les dons de données ou les activités philanthropiques. Ces mécanismes alternatifs se sont révélés particulièrement efficaces dans les domaines de la science et de la recherche. Les chercheurs qui souhaitent donner plus de visibilité à leurs travaux peuvent ainsi publier des ensembles de données par le biais de mécanismes comparables à ceux qui existent déjà pour les citations d’articles scientifiques. Sachant toutefois que les citations de données ne bénéficient pas encore d’une large reconnaissance au sein de la communauté scientifique.
Il conviendrait de promouvoir le recours à des normes ouvertes, y compris pour les API et les formats de données. On pourrait envisager de promouvoir les normes fondées sur des modèles de référence favorisant la concurrence et technologiquement ouverts, de manière à renforcer l’interopérabilité et la réutilisation des données, dynamiser les services numériques et réduire les verrouillages technologiques, tout en stimulant la concurrence entre les prestataires de services (voir OCDE, 2015a, Chapitre 2). Par exemple, la stratégie du Royaume-Uni sur l’économie de l’information vise à « garantir le déploiement des principales normes fondamentales – afin d’aider les entreprises à mettre en place facilement des systèmes innovants qui restent ouverts à de nouvelles idées ». Pour ce faire, le gouvernement britannique s’attelle actuellement, par le biais de l’ETSI, du BSI et d’autres organismes de normalisation, à rassembler diverses parties prenantes afin d’assurer la cohérence entre les programmes, d’exploiter les connaissances existantes et de faire en sorte que le Royaume-Uni soit en position de devenir un acteur de poids dans la formulation des futures normes à l’échelle internationale. Le gouvernement allemand promeut quant à lui l’adoption de normes permettant de relier les industries traditionnelles et le secteur des TIC (Encadré 2.11).
Encadré 2.11. Exemples d’initiatives publiques destinées à favoriser l’adoption des TIC par les PME
De nombreux gouvernements ont pris des mesures afin d’inciter les PME à adopter les TIC, soit dans le cadre de leur stratégie numérique nationale, soit au titre de stratégies et de programmes distincts. Ces initiatives sont généralement motivées par le constat que l’insuffisance des connaissances et des ressources financières, ainsi que les obstacles freinant le changement organisationnel, peuvent compromettre l’utilisation efficace des TIC. Les petites entreprises qui, trop souvent, ne disposent pas de services informatiques en interne ni de savoir-faire maison, sont les premières concernées. De fait, elles ne possèdent pas les ressources – financières et autres – nécessaires pour investir dans les TIC ou faire appel à des prestataires de services extérieurs. Les initiatives destinées aux PME portent pour la plupart sur : la sensibilisation et la formation, souvent axées sur le développement du savoir-faire lié aux TIC et, parfois, aux aspects organisationnels ; l’aide financière ; et les réseaux sociaux.
Au Canada, par exemple, la Banque de développement du Canada (BDC) a repensé son soutien aux PME en 2011, de manière à mettre l’accent sur l’adoption des TIC. Son action s’articule autour de trois phases :
sensibilisation, par le biais notamment de livres et d’articles numériques, de témoignages et de récits d’expériences réussies, et d’évaluations gratuites de la situation, sur le plan technologique, de certaines entreprises par rapport à d’autres PME canadiennes
soutien financier afin de permettre aux PME de bénéficier de services de conseil destinés à les aider à adapter les solutions TIC à leurs activités, et, plus spécifiquement, à surmonter les obstacles financiers
crédits pour l’achat de matériel, de logiciels et de services de conseil (avec un budget de 200 millions CAD).
L’intérêt suscité par ces mesures et leur utilisation ont dépassé les attentes. Au cours des 18 premiers mois qui ont suivi leur mise en place, soit entre octobre 2011 et mai 2013, près de 220 000 visiteurs ont consulté le site SmartTech de la BDC ; les deux livres numériques ont été téléchargés à plus de 10 000 reprises ; et la BDC a réalisé plus de 35 000 évaluations en ligne, environ 900 évaluations des solutions TIC et plus de 300 missions de conseil. En outre, la BDC a accordé en moyenne 130 crédits TIC par mois. En revanche, elles ne s’adressent qu’à un segment réduit spécifique du marché canadien des PME, et de nombreuses autres entreprises gagneraient à bénéficier de ces services.
Autre exemple, l’initiative Mittelstand-Digital (ou « PME numériques ») a été mise en place en Allemagne par le ministère fédéral de l’Économie et de l’Énergie (Bundesministerium für Wirtschaft und Energie, BMWi). Elle vise à montrer aux PME et aux artisans qualifiés l’importance de recourir à des logiciels pour gérer les processus métier, et les aider à amorcer la transformation numérique de leurs activités. L’initiative s’articule autour de trois piliers :
Mittelstand 4.0 – production et processus de travail numériques : ce pilier vise à aider les PME et les artisans qualifiés à opérer la transformation numérique de leurs processus métier et à déployer les applications de l’Industrie 4.0 via des centres de compétences. Des efforts sont notamment entrepris pour sensibiliser aux opportunités et aux défis, développer les compétences technologiques et organisationnelles, et offrir des possibilités de démonstration et de test.
Simplement intuitif – facilité d’utilisation pour les PME : l’objectif est de fournir des mécanismes d’aide au développement et au test afin que les PME puissent améliorer la qualité et l’ergonomie des logiciels de gestion et de production. Ce pilier trouve sa justification dans le constat suivant : l’intuitivité est globalement absente des logiciels utilisés par les PME, alors qu’elle est devenue une composante essentielle des solutions destinées aux utilisateurs particuliers.
Standards numériques – standardiser les processus métier, pour une mise en œuvre réussie : il s’agit là de développer un langage commun aux PME et aux différents domaines d’activité de manière à faciliter l’échange de données. Ce pilier s’appuie sur le constat que les PME doivent supporter des coûts initiaux considérables si elles souhaitent utiliser et mettre en œuvre les standards numériques.
L’initiative Mittelstand-Digital montre l’importance de la confiance des PME. Les informations officielles fournies par le gouvernement fédéral, exemptes de tout parti pris, recueillent une large adhésion, contrairement à celles émanant des consultants informatiques ayant un intérêt commercial, qui reçoivent un accueil plus frileux. La création de réseaux de parties prenantes, qui offrent aux entrepreneurs la possibilité d’apprendre de leurs expériences respectives, a contribué à susciter l’adhésion des PME.
Autre exemple : en Corée, 17 centres d’innovation et d’économie créative ont été créés à l’échelle nationale pour promouvoir l’innovation par le numérique. Un nombre important de centres concentrent leurs efforts sur l’innovation au service de la transformation numérique de la production. Les autorités locales et les grandes corporations coréennes (SKT, Hyundai-Kia, GS, Doosan, LG, Samsung et Lotte, par exemple) gèrent conjointement les centres régionaux. Ceux-ci prennent en charge diverses tâches, à savoir : soutenir les start-ups et les PME dans les différents domaines de spécialité, organiser les partenariats ou la collaboration sur le plan écologique entre les grandes corporations et les entreprises régionales, les aider à surmonter d’éventuelles difficultés financières, encourager l’innovation managériale et technologique et les services de conseil (à travers le tutorat), promouvoir la communication et la coopération entre les participants, et explorer de nouveaux marchés, sur le territoire national comme à l’étranger.
Source : OCDE (2016b), Stimulating digital innovation for growth and inclusiveness: The role of policies for the successful diffusion of ICT, http://dx.doi.org/10.1787/5jlwqvhg3l31-en.
Soutenir le développement des compétences et des qualifications à l’appui de la transformation numérique de la production
Les systèmes éducatifs nationaux, en collaboration avec les entreprises et les syndicats, doivent favoriser le renforcement des compétences dans le domaine des TIC, à commencer par les compétences informatiques de base, jusqu’aux compétences spécialisées en matière de données. Les besoins de formation en la matière ne se limitent pas aux TIC, mais englobent la science, les technologies, l’ingénierie et les mathématiques (STIM). Pour y répondre, il convient de prendre des mesures pour : insuffler une culture numérique dans les établissements scolaires ; développer la formation professionnelle et la formation en cours d’emploi ; et relier les domaines d’enseignement, par le biais, par exemple, de la mise en place d’alliances stratégiques entre universités et entreprises, ou de centres de compétences interdisciplinaires. C’est ainsi qu’en Allemagne, deux centres de solutions liées aux données massives ont été créés, à Berlin et à Dresde, dans le cadre de la stratégie nationale pour l’économie numérique (Programme numérique 2014-17).
Les seules compétences techniques ne suffisent pas. Elles doivent être complétées par des connaissances propres à des domaines particuliers (maîtrise de l’intégralité du processus de production, par exemple) et par des compétences plus générales de savoir-être comme la communication, l’autonomie, la réflexion créative et la résolution de problèmes. La demande de compétences non techniques continuera de progresser avec la diffusion des technologies numériques et l’émergence de nouveaux modèles économiques qui transforment les modes de travail (OCDE, 2016d). Ces compétences sont indispensables pour faire face aux effets des technologies qui bouleversent les secteurs existants. De fait, les travailleurs peu qualifiés sont davantage susceptibles d’être victimes de suppressions d’emplois ; d’où l’importance d’améliorer leurs compétences non techniques afin de les aider à s’adapter à de nouveaux métiers et de nouveaux environnements professionnels. Entreprises et partenaires sociaux ont également un rôle essentiel à jouer, comme le montrent les exemples de bonnes pratiques en matière de mise en œuvre de la formation et de développement des qualifications dans les entreprises, publiés par le gouvernement allemand29.
Traiter les risques et les incertitudes qui font surface
Les pouvoirs publics peuvent être amenés à prendre des mesures si les incertitudes réglementaires empêchent l’adoption des TIC. Tel est notamment le cas lorsque les réglementations conçues pour l’ère pré-numérique ont pour effet involontaire de protéger les entreprises en place contre la concurrence créée par l’avènement des nouvelles technologies, ce qui pourrait mettre à mal les efforts d’innovation par le numérique (voir OCDE, 2017a). Dans le cas de l’IdO, par exemple, la suppression des obstacles réglementaires à l’entrée sur le marché des communications mobiles permettrait aux « utilisateurs aux millions d’appareils » (à l’instar de certains constructeurs automobiles) de s’affranchir du réseau mobile, d’où un renforcement de la concurrence (voir OCDE, 2016a). Autre exemple, dans le secteur de l’automobile et des services de mobilité, les réglementations applicables aux taxis peuvent ralentir la diffusion des applications de mobilité (y compris de covoiturage) et appeler des réexamens et des réformes afin d’autoriser le maintien de ces services basé sur des applications. Dans la même veine, les cadres réglementaires existants empêchent souvent le déploiement de solutions techniques, pourtant disponibles, pour les camions autonomes.
Les pouvoirs publics devraient insuffler une culture de la gestion du risque numérique, comme le préconise la Recommandation de l’OCDE de 2015 sur la gestion du risque de sécurité numérique pour la prospérité économique et sociale. À défaut, les parties prenantes continueront d’aborder la sécurité selon une approche traditionnelle qui, non seulement, ne protège pas pleinement les actifs dans l’environnement numérique actuel, mais risque également d’étouffer l’innovation et la croissance (voir OCDE, 2016c). Les obstacles à l’instauration d’une culture de la gestion du risque numérique dans les entreprises, en particulier les PME, sont généralement le manque de savoir-faire en la matière et la croyance – à tort – que la sécurité numérique est une question (technique) liée à la gestion informatique qui ne relève pas de la gestion d’entreprise. Pour y remédier, les pouvoirs publics ont donc donné la priorité à la sensibilisation, la formation et l’éducation dans ce domaine. En France, par exemple, la stratégie nationale pour la sécurité numérique prévoit que le secrétariat d’État au Numérique coordonne, en collaboration avec les ministères concernés et avec le soutien de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), la mise en place d’un programme de sensibilisation à la cybersécurité à l’intentiondes professionnels.
Les entraves à l’ouverture de l’internet, légitimes ou non, peuvent limiter les effets de la transformation numérique et nécessiter l’intervention des pouvoirs publics. Les obstacles les plus fréquents sont liés aux moyens techniques (filtrage des paquets IP, par exemple), utilisés notamment pour optimiser les flux de données pour des besoins particuliers, et aux efforts de « localisation des données » (à l’instar du routage territorial ou de l’obligation légale d’implanter les serveurs sur les marchés locaux). Les effets limitatifs des obstacles à l’ouverture de l’internet sont particulièrement marqués dans les économies présentant un faible déploiement des services fondés sur les données, en raison du dysfonctionnement des marchés d’infrastructures TIC. Néanmoins, comme le montre OCDE (2016e), l’ouverture peut elle aussi présenter des dangers, en particulier si elle est mise au service d’activités malveillantes. Les obstacles résultant de pratiques d’entreprises ou de politiques publiques peuvent donc avoir un fondement juridique (tel que la protection de la vie privée et des DPI), ou répondre à un impératif de sécurité. Les gouvernements qui cherchent à promouvoir les échanges de services numériques devraient s’inspirer des dispositions de la Recommandation de 2011 du Conseil de l’OCDE sur les principes pour l’élaboration des politiques de l’Internet. Ces principesvisent à préserver le caractère fondamentalement ouvert de l’internet et la libre circulation de l’information.
Il conviendrait d’examiner les obstacles à la réutilisation, au partage et à la connexion des données. Ces obstacles peuvent être d’ordre technique ; tel est le cas des contraintes limitant la lisibilité des données par les machines selon les plateformes. Ils peuvent également être d’ordre juridique. Il en est ainsi, par exemple, des clauses de « rétention des données » qui figurent dans de nombreux contrats de service, en particulier si elles « sont utilisées pour facturer des frais supplémentaires aux clients ou les empêcher de changer de fournisseur » (Becker, 2012)30. Une réflexion devrait être engagée sur l’accès non discriminatoire aux données (ou « accès dans des conditions d’égalité »), notamment concernant le partage de données ou données ouvertes, ainsi que sur la portabilité des données, que ce soit pour des utilisateurs ou des applications. Il est important lorsqu’il s’agit de la production de biens présentant des avantages publics et sociaux, que les pouvoirs publics ou les entreprises n’aient pas à choisir les « gagnants » – que ce soient des utilisateurs ou des applications – (Encadré 2.12).
Des cadres cohérents de gouvernance des données devraient être mis en place. L’accès aux données ne doit pas être nécessairement gratuit ou non réglementé : il importe de trouver un juste équilibre entre, d’une part, l’ouverture des données (et les avantages sociaux qui résultent de l’amélioration de l’accessibilité et de la réutilisation des données) et, d’autre part, les préoccupations légitimes des personnes dont la vie privée et les DPI peuvent être compromis. La mise en œuvre et le contrôle de la gouvernance des données et des cadres régissant les DPI ne sauraient donc se faire sans une démarche associant l’ensemble de l’administration. Pour l’heure, aucun consensus n’a été trouvé sur un cadre de gouvernance des données à l’appui de la réutilisation, du partage et du couplage des données dans les différents secteurs. Ce cadre devrait permettre de résoudre un certain nombre de problématiques telles que la responsabilité, la propriété des données, la curation et la réutilisation des données à des fins autres que celles prévues initialement. Dans le cadre des transactions entre entreprises, ces questions pourraient être traitées par le biais d’accords contractuels bilatéraux (comme c’est d’ailleurs souvent le cas). L’établissement de standards et de bonnes pratiques n’en reste pas moins nécessaire pour limiter l’expositionau risque numérique au sein des chaînes logistiques.
Les pouvoirs publics peuvent chercher à encourager l’utilisation responsable des données à caractère personnel pour empêcher les violations de la vie privée. Ils pourraient envisager de promouvoir les technologies renforçant la protection de la vie privée et de favoriser l’autonomisation des individus en améliorant la transparence du traitement et la portabilité des données, par le biais d’initiatives comme midata (au Royaume-Uni) et MesInfos (en France). Peut-être devront-ils améliorer l’efficacité des autorités chargées de l’application des règles de protection de la vie privée (en les dotant de moyens et de compétences techniques). Les réglementations en matière de protection des données devraient avoir pour objectif d’assurer une protection optimale de la vie privée et être faciles à mettre en œuvre, de manière à favoriser l’adoption la plus large possible.
Les pouvoirs publics devront peut-être évaluer la concentration des marchés et les obstacles à la concurrence au moyen de définitions actualisées des marchés visés et en tenant compte du préjudice causé aux consommateurs victimes d’atteintes à la vie privée. Cela pourrait passer par l’instauration d’un dialogue entre les autorités chargées de la réglementation (en particulier dans les domaines de la concurrence, de la protection de la vie privée et de la défense des consommateurs), comme évoqué dans OCDE (2015a, Chapitre 2).
Il est nécessaire d’approfondir la réflexion sur l’attribution de la responsabilité en cas de décisions inadéquates fondées sur les données. Les pouvoirs publics pourraient avoir à vérifier si les réglementations et lois en vigueur répondent pleinement à la question de l’attribution de la responsabilité (entre les décideurs et les fournisseurs des données et des fonctions analytiques) lorsque les décisions fondées sur les données s’avèrent préjudiciables. L’instauration d’un dialogue multipartite aux niveaux national et international pourrait favoriser les échanges de bonnes pratiques et aider à la mise au point d’approches compatibles face à ces défis.
Encadré 2.12. Les données ouvertes au service de l’amélioration des performances agricoles : l’exemple du Département de l’Agriculture des États-Unis (USDA)
Les données irriguent de plus en plus l’agriculture, à tel point que les agriculteurs en ont aujourd’hui besoin pour être compétitifs. Les débutants, qui ne disposent pas toujours de données historiques, pourraient donc être pénalisés.
Pour remédier à cette situation, le Département américain de l’Agriculture a ouvert l’accès à ses données. Sont concernées notamment les données relatives à l’offre alimentaire, la demande économique et celles issues de la télédétection, qui sont publiées par le Service national des statistiques agricoles des États-Unis (National Agricultural Statistical Service, NASS) et son Service de recherche économique (Economic Research Service, ERS). De nombreux ensembles de données couvrent les 100 dernières années et sont accessibles par le biais d’API. Le NASS propose par exemple l’API CropScape, qui permet d’accéder directement à une image matricielle intégrant une classification des terres cultivées à des fins agricoles, publiée une fois par an, à la fin de la saison de croissance, ainsi que l’API VegScape, qui permet de visualiser une image matricielle de l’état de la végétation, actualisée toutes les deux semaines et ce, tout au long de l’année. L’USDA publie également les données de l’ERS sur les pratiques de financement agricole et de production végétale, notamment sur les pratiques et les coûts de production (utilisation d’engrais et de pesticides, main-d’œuvre, travail du sol et semences) et sur les ressources financières des entreprises agricoles, ainsi qu’un éventail d’informations financières et démographiques (âge, éducation, profession, revenus non agricoles) relatives aux exploitants agricoles et à leurfoyer.
Pour promouvoir la réutilisation des données, l’USDA a lancé, en collaboration avec Microsoft, la compétition Innovation Challenge, un marathon de programmation axé sur le développement d’applications logicielles fondées sur les données. L’objectif est d’examiner les effets que pourraient avoir les changements climatiques sur la résilience des systèmes alimentaires aux États-Unis. Des récompenses d’une valeur de 63 000 USD ont été attribuées aux applications qui utilisent les données de l’USDA pour fournir des éclairages utiles aux agriculteurs, aux entreprises agricoles, aux chercheurs ou aux consommateurs américains. L’une des applications primées, dénommée FarmPlenty Local Crop Trends, permet aux agriculteurs d’identifier les meilleures cultures en consultant les cultures environnantes, les tendances et les prix : « Ces informations aident les agriculteurs à mieux appréhender quelles cultures tendent à se développer ou, au contraire, à se raréfier dans leur région, et à anticiper l’évolution des prix et de la demande »1.
1. Voir http://devpost.com/software/farmplenty-local-crop-trends (consulté le 15 janvier 2017).
Il convient d’examiner avec attention le bien-fondé d’une prise de décision entièrement automatisée, des exigences de transparence et de la nécessité de l’intervention humaine dans les domaines où les décisions peuvent être à l’origine d’importants préjudices. Les responsables de l’action publique devraient avoir à l’esprit qu’il pourrait être nécessaire d’étendre les exigences de transparence aux processus et algorithmes qui sous-tendent la prise de décision automatisée. Sachant toutefois que ces exigences de transparence pourraient aller à l’encontre des DPI, ainsi que des processus et algorithmes qui se trouvent au cœur des opérations de certaines entreprises. D’autres études doivent être réalisées afin de déterminer comment évaluer au mieux le bien-fondé des algorithmes, tout en respectant les DPI qui s’y appliquent.
Les pouvoirs publics pourraient devoir encourager l’amélioration du système de mesure afin de mieux évaluer la valeur économique des données et d’empêcher l’érosion de la base d’imposition et le transfert des bénéfices. L’érosion de la base d’imposition et le transfert de bénéfices est le fait d’une planification fiscale agressive par des entreprises cherchant à réduire artificiellement leur revenu imposable ou à transférer des bénéfices vers des territoires à faible imposition en tirant parti du caractère immatériel des données et, par là même, de la facilité de les transférer d’une juridiction à l’autre (voir OCDE, 2015a, Chapitre 2).
Références
Adler, D. et al. (1995), « Does a manufacturing execution system reduce the cost of production for bulk pharmaceuticals? », ISA Transactions, vol. 34, n° 4, pp. 343-347.
Agweb (2015), « John Deere to purchase precision planting », Agweb, www.agweb.com/article/john-deere-to-purchase-precision-planting-naa-agwebcom-editors/.
Airbus Group (2016), Factory of the future, page internet, www.airbusgroup.com/int/en/story-overview/factory-of-the-future.html# (consulté le 3 octobre 2016).
Arthur, L. (2016), « Getting the right team on the field: Creating an advantage by connecting people, equipment, technology, and insights », présentations John Deere, https://infoag.org/presentations/2215.pdf (consulté le 21 avril 2017).
Bakhshi, H., A. Bravo-Biosca et J. Mateos-Garcia (2014), Inside the datavores: Estimating the effect of data and online analytics on firm performance, Nesta, www.nesta.org.uk/sites/default/files/inside_the_ datavores_technical_report.pdf (consulté le 13 mai 2015).
Barua, A., D. Mani et R. Mukherjee (2013), Impacts of effective data on business innovation and growth, Chapitre 2 d’une étude en trois parties, Université du Texas à Austin (consulté le 20 mai 2015).
Beal, V. (2016), « In-vehicle infotainment (IVI) », Webopedia, www.webopedia.com/TERM/I/in-vehicle-infotainment-ivi.html (consulté le 15 octobre 2016).
Becker, M.B. (2012), « Interoperability case study: Cloud computing », Berkman Center Research Publication n° 2012-11, Université Harvard – Berkman Klein Center for Internet & Society, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2046987.
Big Data Startups (2013), Walmart is making big data part of its DNA, www.bigdata-startups.com/BigData-startup/walmart-making-big-data-part-dna/ (consulté le 22 août 2014).
BITKOM et Fraunhofer (2014), Industrie 4.0 – Volkswirtschaftliches Potenzial für Deutschland, www.bitkom.org/files/documents/Studie_Industrie_4.0.pdf (consulté le 15 juin 2015).
Boeing (2013a), Factory for the future, page internet, 22 août, www.boeing.com/features/2013/08/factory-for-the-future-08-22-13.page (consulté le 3 octobre 2016).
Boeing (2013b), 24/7 customer support, page internet, www.boeing.com/features/2013/07/bca-24-7-customer-sppt-07-30-13.page.
Bruner, J. (2013), « Defining the industrial Internet », O’Reilly Radar, http://radar.oreilly.com/2013/01/defining-the-industrial-internet.html.
Brynjolfsson, E. et al. (2008), « Scale without mass: Business process replication and industry dynamics », Harvard Business School Technology and Operations Management Unit Research Paper, n° 07-016.
Brynjolfsson, E., L.M. Hitt et H.H. Kim (2011), « Strength in numbers: How does data-driven decisionmaking affect firm performance? », Réseau de recherche en sciences sociales (SSRN), http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1819486.
Chick, S., S. Netessine et A. Huchzermeier (2014), « When big data meets manufacturing », Knowledge, INSEAD, http://knowledge.insead.edu/operations-management/when-big-data-meets-manufacturing-3297 (consulté le 15 mai 2015).
Christensen, C.M. (1997), The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail, Harvard Business School Press, Boston.
Cisco (2016), « Digital transformation with the Internet of Everything », 100 Customer Stories, www.cisco.com/c/dam/m/en_us/ioe/digital-transformation-stories/digital-transformation-with-the-internet-of-everything.pdf (consulté le 21 avril 2017).
Crabbe, J. (2013), « Cutting edge it at Boeing: Transforming commercial aviation using WS02 », WSO2Con US 2013, http://wso2.com/blogs/thesource/2014/02/wso2con-insights-how-boeing-transformed-commercial-aviation-using-wso2/ (consulté le 21 avril 2017).
Criscuolo, P., N. Nicolaou et A. Salter (2012), « The elixir (or burden) of youth? Exploring differences in innovation between start-ups and established firms », Research Policy, vol. 41, n° 2, pp. 319-333.
Cushing, E. (2013), « Amazon Mechanical Turk: The digital sweatshop », UTNE, www.utne.com/science-and-technology/amazon-mechanical-turk-zm0z13jfzlin.aspx (consulté le 25 mai 2015).
Daugherty, P. et al. (2015), « Driving unconventional growth through the industrial Internet of Things », Accenture Technology, www.accenture.com/us-en/labs-insight-industrial-internet-of-things (consulté le 21 avril 2017).
Davidson, P. (2012), « 3-D printing could remake U.S. manufacturing », USA Today, 10 juillet, http://usatoday30.usatoday.com/money/industries/manufacturing/story/2012-07-10/digital-manufacturing/56135298/1 (consulté le 15 mars 2017).
Dean, J. et S. Ghemawat (2004), « MapReduce: Simplified data processing on large clusters », in Proceedings of the Sixth Symposium on Operating System Design and Implementation, OSDI, San Francisco, http://research.google.com/archive/mapreduce.html (consulté le 12 juin 2015).
Denning, S. (2013), « What went wrong at Boeing? », blog Forbes, www.forbes.com/sites/stevedenning/2013/01/21/what-went-wrong-at-boeing/#2715e4857a0b77270ce75aad (consulté le 21 avril 2017).
Dholakia, U. (2015), « My experience as an Amazon Mechanical Turk (MTurk) Worker », LinkedIn Pulse, www.linkedin.com/pulse/my-experience-amazon-mechanical-turk-mturk-worker-utpal-dholakia (consulté le 21 avril 2017).
Duckett, C. (2014), « Computing experts call for repeal of copyrightable API decision », ZDnet, www.zdnet.com/computing-experts-call-for-repeal-of-copyrightable-api-decision-7000035590/ (consulté le 21 avril 2017).
Economist Intelligence Unit (2014), Networked manufacturing: The digital future, Economist Intelligence Unit pour le compte de Siemens, www.eiuperspectives.economist.com/sites/default/files/EIU%20-%20Siemens%20-%20Networked%20manufacturing%20The%20digital%20future%20WEB.pdf (consulté le 21 avril 2017).
Economist Intelligence Unit (2012), The deciding factor: big data & decision making, Economist Intelligence Unit pour le compte de Capgemini, www.capgemini.com/insights-and-resources/by-publication/the-deciding-factor-big-data-decision-making/ (consulté le 21 avril 2017).
EFF (2014), Brief of Amici Curiae computer scientists in support of petitioner, Electronic Frontier Foundation, 7 novembre.
Evans, P.C. et M. Anninziata (2012), « Industrial Internet: Pushing the boundaries of minds and machines », General Electrics, www.ge.com/docs/chapters/Industrial_Internet.pdf (consulté le 21 avril 2017).
Ewing, J. (2015), « Apple and Google create a buzz at Frankfurt Motor Show », The New York Times, 17 septembre, www.nytimes.com/2015/09/18/automobiles/apples-auto-inroads-create-a-buzz-at-frankfurt-motor-show.html.
FAO (2012), Guiding Principles for Responsible Contract Farming Operations, Organisation des Nations Unies pour l’alimentation et l’agriculture, www.fao.org/docrep/016/i2858e/i2858e.pdf.
FEM (2015), « Industrial Internet of Things: Unleashing the potential of connected products and services », WEF Industry Agenda, Forum économique mondial, janvier, www3.weforum.org/docs/WEFUSA_IndustrialInternet_Report2015.pdf.
Frank-Partners (2016), Interview with Dave Gordon of Rolls-Royce, chaîne YouTube Frank-Partners, juillet, www.youtube.com/watch?v=Ldsmpd6yMBo (consulté le 3 octobre 2016).
Gao, P. et al. (2016), Disruptive trends that will transform the auto industry, McKinsey & Company, www.mckinsey.com/industries/high-tech/our-insights/disruptive-trends-that-will-transform-the-auto-industry (consulté le 21 avril 2017).
Gino, F. et B.R. Staats (2012), « Samasource: Give work, not aid », Harvard Business School NOM Unit Case n° 912-011, UNC Kenan-Flagler Research Paper n° 2013-12, http://ssrn.com/abstract=2014220 (consulté le 26 mai 2015).
Hammermann, A. et O. Stettes (2016), « Qualifikationsbedarf und Qualifizierung Anforderungen im Zeichen der Digitalisierung », IW policy paper 3/2016, Institut der deutschen Wirtschaft, www.iwkoeln.de/_storage/asset/251834/storage/master/file/8562021/download/Qualifikationsbedarf _IW_policy_paper.pdf.
Harris, D. (2017), Compare manufacturing execution systems (MES): Buyer’s Guide, page internet, www.softwareadvice.com/manufacturing/execution-systems-comparison/ (consulté le 21 avril 2017).
Harris, M. (2014), « Amazon’s Mechanical Turk workers protest: “I am a human being, not an algorithm” », The Guardian, 3 décembre, www.theguardian.com/technology/2014/dec/03/amazon-mechanical-turk-workers-protest-jeff-bezos.
Horton, J.J. (2011), « The condition of the Turking class: Are online employers fair and honest? », Economics Letters, vol. 111, pp. 10-12, http://econpapers.repec.org/article/eeeecolet/v_3a111_3ay_3a2011_ 3ai_3a1_3ap_3a10-12.htm (consulté le 26 mai 2015).
Horton, J.J. et L.B. Chilton (2010), « The labor economics of paid crowdsourcing », Proceedings of the 11th ACM Conference on Electronic Commerce, pp. 209-18.
IPO (2014), Eight great technologies: the patent landscapes, Intellectual Property Office, Newport, www.gov.uk/government/uploads/system/uploads/attachment_data/file/360986/Eight_Great_ Technologies.pdf (consulté le 21 avril 2017).
Jahangir Mohammed, J. (2014), « Surprise: Agriculture is doing more with IoT Innovation than most other industries », VentureBeat, http://venturebeat.com/2014/12/07/surprise-agriculture-is-doing-more-with-iot-innovation-than-most-other-industries/.
Jasperneite, J. (2012), Was hinter Begriffen wie Industrie 4.0 steckt, computer-automation.de, 19 décembre, www.computer-automation.de/steuerungsebene/steuern-regeln/artikel/93559/0/ (consulté le 21 avril 2017).
John Deere (2017), AutoTrac Vision, page internet, www.deere.com/en_US/products/equipment/ag_ management_solutions/guidance/auto-trac-vision/auto-trac-vision.page (consulté le 17 mars 2017).
John Deere (2016), John Deere – Committed to those linked to the land: Investor presentation, pp. 11-12, www.deere.com/en_US/docs/Corporate/investor_relations/pdf/presentationswebcasts/strategy_ presentation-rev.pdf.
John Deere (2015), The payoff from precision agriculture, page internet, https://johndeerejournal.com/2015/08/the-payoff-from-precision-agriculture/ (consulté le 3 octobre 2016).
Kane, G. et al. (2015), « Strategy, not technology, drives digital transformation: Becoming a digitally mature enterprise », MITSloan Management Review, 14 juillet, http://sloanreview.mit.edu/projects/strategy-drives-digital-transformation/ (consulté le 15 mars 2017).
Knowledge@Wharton (2007), “Power by the hour”: Can paying only for performance redefine how products are sold and serviced?, Wharton School, Université de Pennsylvanie, http://knowledge.wharton.upenn.edu/article/power-by-the-hour-can-paying-only-for-performance-redefine-how-products-are-sold-and-serviced/ (consulté le 21 avril 2017).
Lodefalk, M. (2010), « Servicification of manufacturing – Evidence from Swedish firm and enterprise group level data », Working Papers n° 2010, p. 3, School of Business, Université d’Örebro, http://ideas.repec.org/p/hhs/oruesi/2010_003.html.
MAIC (2013), Information and communications in Japan, Livre blanc, Ministère des affaires intérieures et des communications, Japon.
Markoff, J. (2012), « Skilled work, without the worker », The iEconomy, Part 6: Artificial Competence, The New York Times, 18 août.
Marr, B. (2015), That’s data science: Airbus puts 10 000 sensors in every single wing!, page internet, www.datasciencecentral.com/profiles/blogs/that-s-data-science-airbus-puts-10-000-sensors-in-every-single (consulté le 21 avril 2017).
Mayer-Schönberger, V. et K. Cukier (2013), Big Data: A Revolution That Will Transform How We Live, Work and Think, John Murray, Londres.
McCracken, H. (2014), « How Gmail happened: The inside story of its launch 10 years ago », Time Magazine, 1 avril, http://time.com/43263/gmail-10th-anniversary/.
McKinsey Global Institute (2015), The Internet of Things: Mapping the value beyond the hype, McKinsey & Company, www.mckinsey.com/∼/media/mckinsey/business%20functions/mckinsey%20digital/our%20insights/the%20internet%20of%20things%20the%20value%20of%20digitizing%20the%20physical %20world/the-internet-of-things-mapping-the-value-beyond-the-hype.ashx (consulté le 21 avril 2017).
McKinsey Global Institute (2011), Big data: The next frontier for innovation, competition and productivity, McKinsey & Company, www.mckinsey.com/business-functions/digital-mckinsey/ourinsights/big-data-the-next-frontier-for-innovation (consulté le 21 avril 2017).
Metz, C. (2010), « Google blesses Hadoop with MapReduce patent license », The Register, 27 avril, www.theregister.co.uk/2010/04/27/google_licenses_mapreduce_patent_to_hadoop/.
MIT Technology Review (2010), « The truth about digital sweat shops », MIT Technology Review, 12 janvier, www.technologyreview.com/view/417082/the-truth-about-digital-sweat-shops/.
Mordor Intelligence (2016), Global precision farming market – by technology, application and geography market shares, forecasts and trends (2015-20), www.mordorintelligence.com/industry-reports/precision-farming-market?gclid=Cj0KEQjw7LS6BRDo2Iz23au25OQBEiQAQa6hwK_VYHWSIw7Z_WCx8TEd8lUOfqO3T5xJnApB-f49fokaAh_28P8HAQ (consulté le 21 avril 2017).
Nasarwanji, A. et al. (2009), « The impact of manufacturing execution systems on labor overheads », Proceedings of the World Congress on Engineering 2009, vol. I, WCE, Londres, www.iaeng.org/publication/WCE2009/WCE2009_pp734-737.pdf.
Noyes, K. (2014), « Cropping up on every farm: Big data technology », Fortune, http://fortune.com/2014/05/30/cropping-up-on-every-farm-big-data-technology/.
OCDE (2017a), Key issues for digital transformation in the G20, Rapport préparé en vue d’une conférence organisée conjointement par la Présidence allemande du G20 et l’OCDE, OCDE, Paris, www.oecd.org/g20/key-issues-for-digital-transformation-in-the-g20.pdf (consulté le 21 avril 2017).
OCDE (2017b), OECD.Stat, base de données, http://dotstat.oecd.org/index.aspx?DatasetCode=ICT_BUS (consulté en mars 2017).
OCDE (2016a), « The Internet of Things: Seizing the benefits and addressing the challenges », OECD Digital Economy Papers, n° 252, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jlwvzz8td0n-en.
OCDE (2016b), « Stimulating digital innovation for growth and inclusiveness: The role of policies for the successful diffusion of ICT », OECD Digital Economy Papers, n° 256, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jlwqvhg3l31-en.
OCDE (2016c), « Managing digital security and privacy risk », OECD Digital Economy Papers, n° 254, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jlwt49ccklt-en.
OCDE (2016d), « New skills for the digital economy », OECD Digital Economy Papers, n° 258, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jlwnkm2fc9x-en.
OCDE (2016e), « Economic and social benefits of Internet openness », OECD Digital Economy Papers, n° 257, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jlwqf2r97g5-en.
OCDE (2016f), OECD.Stat, base de données, http://dotstat.oecd.org/index.aspx?DatasetCode=ICT_BUS (consulté en septembre 2016).
OCDE (2015a), Perspectives de l’économie numérique 2015, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264243767-fr.
OCDE (2015b), Data-Driven Innovation: Big Data for Growth and Well-Being, Éditions OCDE, Paris, http://dx.doi.org/10.1787/9789264229358-en.
OCDE (2015c), Science, technologie et industrie : Tableau de bord de l’OCDE 2015 – L’innovation au service de la croissance et de la société, Éditions OCDE, Paris, http://dx.doi.org/10.1787/sti_scoreboard-2015-fr.
OCDE (2015d), Enquiries into Intellectual Property’s Economic Impact, Éditions OCDE, Paris, www.oecd.org/sti/ieconomy/intellectual-property-economic-impact.htm.
OCDE (2014a), « Cloud computing: The concept, impacts and the role of government policy », OECD Digital Economy Papers, n° 240, Éditions OCDE, Paris, http://dx.doi.org/10.1787/5jxzf4lcc7f5-en.
OCDE (2014b), Science, technologie et industrie : Perspectives de l’OCDE 2014, Éditions OCDE, Paris, http://dx.doi.org/10.1787/sti_outlook-2014-fr.
OCDE (2013), « Exploring Data-Driven Innovation as a New Source of Growth: Mapping the Policy Issues Raised by “Big Data” », OECD Digital Economy Papers, n° 222, Éditions OCDE, Paris, http://dx.doi.org/10.1787/10.1787/5k47zw3fcp43-en.
O’Connor, S. (2013), « Amazon unpacked », FT Magazine, 8 février, www.ft.com/intl/cms/s/2/ed6a985c-70bd-11e2-85d0-00144feab49a.html#slide0 (consulté le 24 mars 2015).
O’Reilly, T. (2014), « IoTH: The Internet of things and humans », O’Reilly Radar, http://radar.oreilly.com/2014/04/ioth-the-internet-of-things-and-humans.html (consulté le 21 avril 2017).
Parmar, R. et al. (2014), « The new patterns of innovation », Harvard Business Review, janvier-février, https://hbr.org/2014/01/the-new-patterns-of-innovation (consulté le 15 mars 2017).
Paul, R. (2010), Google’s MapReduce patent: What does it mean for Hadoop?, Arstechnica.com, http://arstechnica.com/information-technology/2010/01/googles-mapreduce-patent-what-does-it-mean-for-hadoop/ (consulté le 24 mai 2015).
Perkins, R. (2003), « Technological “lock-in” », International Society for Ecological Economics, Internet Encyclopaedia of Ecological Economics, www.isecoeco.org/pdf/techlkin.pdf.
Pierpaoli, E. et al. (2013), « Drivers of precision agriculture technologies adoption: A literature review », Procedia Technology, vol. 8, pp. 61-69, http://dx.doi.org/10.1016/j.protcy.2013.11.010.
Pingdom (2013), The top 100 web hosting countries, page internet, 14 mars, http://royal.pingdom.com/2013/03/14/web-hosting-countries-2013/ (consulté le 19 mai 2015).
Radermacher, F.J. et B. Beyers (2007), Welt mit Zukunft –Überleben im 21. Jahrhundert [Un monde d’avenir – Survivre au XXIe siècle], in Welt mit Zukunft – Die Ökosoziale Perspektive, 2001 (2e éd.), Murmann Verlag, Hambourg.
Roboglobal (2016), « Big data, the cloud and... FANUC and Kuka? », Robo News, Robo Global http://roboglobal.com/big-data-the-cloud-and-fanuc-and-kuka.
Ross, J. et al. (2010), « Who are the Turkers? – Worker demographics in Amazon Mechanical Turk », CHI EA 2010, pp. 2863-72, www.international.ucla.edu/media/files/SocialCode-2009-01.pdf (consulté le 15 mai 2015).
Rüssmann, M. et al. (2015), Industry 4.0: The future of productivity and growth in manufacturing industries, Boston Consulting Group, www.bcgperspectives.com/content/articles/engineered_products_project_ business_industry_40_future_productivity_growth_manufacturing_industries/ (consulté le 8 février 2016).
Schimmelpfennig D. et R. Ebel (2016), « Sequential adoption and cost savings from precision agriculture », Journal of Agricultural and Resource Economics, vol. 41, n° 1, pp. 97-115, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2714959.
Scott, A. (2015), « INSIGHT – Boeing uses its clout to control supplier consolidation », Reuters.
Snatkin, A. et al. (2013), « Real time production monitoring system in SME », Estonian Journal of Engineering, vol. 19, n° 1, pp. 62-75, http://dx.doi.org/10.3176/eng.2013.1.06.
Strategic Direction (2004), « Meeting the manufacturing challenge: Performance advantage of MES », Strategic Direction, vol. 20, n° 11, pp. 28-30, http://dx.doi.org/10.1108/02580540410567265.
Sullivan, G.P. et al. (2010), « Operations and maintenance best practices: A guide to achieving operational efficiency, release 3.0 », Pacific Northwest National Laboratory, Département américain de l’Énergie, Washington.
Tambe, P. (2014), « Big data investment, skills, and firm value », Management Science, http://ssrn.com/abstract=2294077 (consulté le 10 juin 2015).
Uddin, Z. (2012), « The dystopian digital sweatshop that makes the Internet run », AlterNet, www.alternet.org/labor/dystopian-digital-sweatshop-makes-internet-run (consulté le 21 avril 2017).
VMware (2011), « Business agility and the true economics of cloud computing », Business White Paper, www.vmware.com/files/pdf/accelerate/VMware_Business_Agility_and_the_True_Economics_of_Cloud_ Computing_White_Paper.pdf (consulté le 21 avril 2017).
Vodafone (2015), M2M Barometer 2015 report, Vodafone, http://m2m-mktg.vodafone.com/barometer2015.
Zittrain, J. (2009), « The Internet creates a new kind of sweatshop », Newsweek, 12 août, www.newsweek.com/internet-creates-new-kind-sweatshop-75751 (consulté le 15 mai 2015).
Notes
← 1. Les données statistiques concernant Israël sont fournies par et sous la responsabilité des autorités israéliennes compétentes. L’utilisation de ces données par l’OCDE est sans préjudice du statut des hauteurs du Golan, de Jérusalem-Est et des colonies de peuplement israéliennes en Cisjordanie aux termes du droit international.
← 2. On considère que les TIC avancées, à l’instar des progiciels de gestion intégrés, stimulent la compétitivité des entreprises dans la mesure où elles leur permettent de synchroniser les processus métier internes et de disposer de données en temps réel susceptibles d’étayer leurs décisions de gestion. De ce fait, elles contribuent à réduire les obstacles structurels entre les départements et favorisent la collaboration et l’innovation (pour une quantification des effets bénéfiques des investissements dans les PGI sur les performances des entreprises, voir Hitt et Zhou, 2002).
← 3. Rolls-Royce s’appuie sur les données massives pour réduire les temps d’arrêt de ses moteurs. Les fonctions analytiques embarquées sur ses systèmes transmettent uniquement les données qui dévient de la normale. Ses équipes sont donc en mesure de surveiller les moteurs en fonctionnement, et d’intervenir rapidement, avant que les problèmes ne prennent une ampleur telle qu’ils pourraient entraîner une interruption de service. Cette approche, qui va dans le sens des contrats de service Power by the Hour mis en place par Rolls-Royce, permet à l’entreprise de vendre ses moteurs non plus comme un produit, mais comme un service (Michelin a mis en place une offre similaire, baptisée kilometre by the hour).
← 4. Cela représente une croissance annuelle moyenne (en glissement annuel) de 1.7 %.Ce résultat est obtenu en additionnant les gains de valeur supplémentaire attendus dans chacun des secteurs : mécanique (23 milliards EUR à un taux de croissance en glissement annuel attendu de 2.21 %), équipements électriques (13 milliards EUR, + 2.21 %), automobile (15 milliards EUR, + 1.53 %), produits chimiques (12 milliards EUR, + 2.21 %), agriculture (3 milliards EUR, + 1.17 %) et TIC (14 milliards EUR, + 1.17 %).
← 5. Le Graphique 2.3 étant extrêmement schématisé, les relations complexes et les interactions entre ces technologies ne sont pour la plupart pas représentées.
← 6. Toutefois, ces estimations ne peuvent être généralisées et ce, pour diverses raisons. Premièrement, les effets attendus de l’innovation fondée sur les données varient d’un secteur à l’autre et sont tributaires de facteurs extérieurs tels que la disponibilité des compétences et des qualifications, ainsi que la disponibilité et la qualité des données utilisées (pertinence et délai de production). Deuxièmement, ces études sont souvent sujettes à des biais de sélection. Par exemple, on ignore si les entreprises qui recourent à l’innovation fondée sur les donnéesont gagné en productivité de ce fait, ou si elles étaient, dès l’origine, plus productives. Enfin, ces études vérifient rarement si certaines entreprises ont subi des pertes de productivité en se tournant vers l’innovation fondée sur les données, et ont, par conséquent, interrompu leurs investissements dans ce domaine.
← 7. Cette estimation s’appuie sur les données de valeur ajoutée par secteur du Bureau of Economic Analysis des États-Unis. Elles sont issues de la base de données GDP by Industry (www.bea.gov/iTable/iTable.cfm?ReqID=51&step=1#reqid=51&step=51&isuri=1&5114=a&5102=1).
← 8. L’étude de l’université Fort Hays a été réalisée à l’aide d’un outil d’estimation mathématique. Elle a porté sur 1 445 parcelles, pour une superficie totale de 135 755 acres réparties sur trois États.
← 9. En matière d’infonuagique, on distingue trois modèles de services différents, selon les ressources mises à disposition : les infrastructures en tant que services (IaaS) proposent aux utilisateurs des ressources brutes gérées et évolutives, comme des capacités de stockage et de calcul ; les plateformesen tant que services (PaaS) fournissent des ressources informatiques (toute la pile logicielle) via une plateforme sur laquelle des applications et des services peuvent être développés et hébergés ; enfin, les logiciels en tant que services (SaaS) sont des applications s’exécutant dans une infrastructure en nuage. Les « nuages » peuvent également être classés par type (privé, public ou hybride), selon leur appartenance et leur mode de gestion.
← 10. Suite à ces simulations, Ford a, par exemple, opté pour des châssis en aluminium, synonymes de réductions de coûts et de hausse de la rentabilité. Selon certaines sources, Ford dégagerait 50 % de profits sur ses nouveaux modèles F-150.
← 11. Un rapport publié par une organisation de parties prenantes révèle qu’à l’horizon 2020, les avantages liés à l’IdO pourraient atteindre 2 000 milliards USD ; 1 000 milliards USD pourraient correspondre à des réductions de coûts (grâce à l’utilisation de compteurs intelligents, sachant que les estimations tablent sur 1.1 milliard de dispositifs en fonctionnement d’ici à 2022) et 1 000 milliards USD à l’amélioration de services tels que la télésurveillance des patients souffrant de maladies chroniques. Une analyse va encore plus loin, en annonçant pour la seule industrie automobile des économies annuelles de plus de 5 600 milliards USD à l’échellemondiale, grâce à l’utilisation de technologies avancées de connectivité dans les voitures (véhicules semi-autonomes ou entièrement autonomes).
← 12. Les véhicules sans conducteur comme ceux mis au point par Google s’appuient sur la collecte des données émises par l’ensemble des capteurs connectés à la voiture (notamment par les caméras vidéo et les systèmes de radars), alliées aux données Google Maps et Google Street View (qui fournissent des informations sur les points de repère, ou encore les panneaux et les feux de signalisation).
← 13. Une entreprise qui investit 1 million USD dans le déploiement d’un logiciel de gestion à grande échelle doit supporter un coût ponctuel qui ne peut être récupéré par la suite.
← 14. Voir www.mckinsey.com/industries/high-tech/our-insights/disruptive-trends-that-will-transform-the-auto-industry (consulté le 15 janvier 2017).
← 15. Si les entreprises de l’internet figurant dans le classement des 250 premières entreprises TIC affichaient un chiffre d’affaires annuel moyen par salarié supérieur à 1 million USD en 2012, et dépassant 800 000 USD en 2013, les autres entreprises TIC de ce classementgénéraient quant à elles entre 200 000 USD (pour les entreprises prestataires de services informatiques) et 500 000 USD (pour les éditeurs de logiciels) (OCDE, 2015b).
← 16. Comme l’expliquent Mayer-Schönberger et Cukier (2013), mettre en données un phénomène consiste à le convertir dans un format quantifié de manière à pouvoir le présenter dans des tableaux et l’analyser.
← 17. On parle en anglais d’infotainment, mot-valise formé à partir d’information et d’entertainment (divertissement). Un système d’information récréative installé à bord d’un véhicule peut prendre en charge diverses tâches : gestion et diffusion de contenu audio, assistance à la conduite grâce aux fonctions de navigation, divertissement des passagers arrière, avec des films, des jeux ou l’accès aux réseaux sociaux, réception audio et envoi de SMS, appels téléphoniques, ou encore accès à des contenus via l’internet ou sur smartphone, des conditions de trafic aux résultats sportifs, en passant par les prévisions météorologiques (Beal, 2016).
← 18. Daimler reste considéré comme l’un des constructeurs automobiles leaders dans le domaine des voitures (semi-) autonomes. En janvier 2015, il a dévoilé, à l’occasiondu Consumer Electronics Show de Las Vegas, son modèle Mercedes F 015, qui a rejoint seul son emplacement dans le hall d’exposition.
← 19. L’agriculture sous contrat désigne la production agricole réglementée par un accord entre un acheteur et un producteur qui fixe les conditions relatives à la production et à la commercialisation d’un ou de plusieurs produit(s) agricole(s). En règle générale, l’agriculteur s’engage à fournir les quantités convenues d’un produit agricole donné (FAO, 2012).
← 20. On estime que d’ici à 2030, 8 milliards de personnes et quelque 25 milliards d’équipements « intelligents » actifs seront interconnectés et interagiront au sein d’un unique réseau informatique colossal, ce qui conduira à l’émergence d’un « superorganisme » intelligent dont l’internet représentera le « système nerveux numérique mondial » (Radermacher et Beyers, 2007 ; O’Reilly, 2014).
← 21. Par exemple, on estime que les employés des entrepôts d’Amazon au Royaume-Uni parcourent entre 11 et 24 kilomètres par jour (O’Connor, 2013).
← 22. Le système n’est opérationnel qu’après modélisation de l’emplacement de l’ensemble des produits stockésdans l’entrepôt, ainsi que des déplacements et possibilités de distribution les plus efficients.
← 23. Comme l’explique Perkins (2003), la notion de verrouillage est essentiellement liée au fait que les technologies et les systèmes technologiques suivent des trajectoires particulières qu’il est difficile et coûteux de ne pas suivre. C’est pourquoi ces systèmes tendent à perdurer dans le temps, même si des solutions de remplacement potentiellement meilleures viennent les concurrencer. Les verrous joueraient donc un rôle certain dans l’utilisation persistante de technologies jugées inférieures, du clavier AZERTY au moteur à combustion interne.
← 24. En 2013, l’investissement TIC dans la zone OCDE a représenté 13.5 % de l’investissement fixe total, ou 2.7 % du PIB ; plus des deux tiers de l’investissement TIC portait sur des logiciels et des bases de données.
← 25. MapReduce est un environnement de programmation conçu pour traiter des ensembles de données volumineux de façon distribuée, présenté par Dean et Ghemawat (2004). En 2006, une mise en œuvre open source (code source libre) de MapReduce a vu le jour sous le nom de Hadoop. Financé à l’origine par Yahoo, le moteur Hadoop est désormais disponible en tant que solution open source (sous licence Apache) et sous-tend la plupart des plateformes de traitement des données massives. En dehorsde Yahoo, Hadoop est à la base de nombreux produits et services fondés sur les données, proposés par les entreprises de l’internet comme Amazon, eBay, Facebook et LinkedIn.
← 26. Comme l’explique Paul (2010) : « Beaucoup d’entreprises dans les domaines techniques essaient de réunir autant de brevets généraux qu’elles le peuvent de manière à avoir un stock de munitions pour riposter quand elles sont attaquées en justice pour contrefaçon de produit breveté ». Pour en savoir plus sur les stratégies de protection des droits de propriété intellectuelle, voir OCDE (2015d).
← 27. Le débat sur la possibilité pour les entités juridiques de protéger les droits d’auteur liés aux API a pris de l’ampleur après une requête déposée par l’Electronic Frontier Foundation (EFF, 2014) auprès de la Cour suprême des États-Unis en novembre 2014 (voir Brief of Amici Curiae Computer Scientists in Support of Petitioner, Google Inc. versus Oracle America, Inc., Supreme Court of the US, No. 14-410, 7 novembre 2014). Cette requête faisait suite à une décision de justice prise en mai 2012, statuant que Google avait porté atteinte au droit d’auteur qu’Oracle détenait sur les API Java sous Android, sans que le jury n’ait pu « s’accorder sur le point de savoir si cela constituait un usage loyal » (Duckett, 2014).
← 28. Voir www.plattform-i40.de/I40/Navigation/DE/In-der-Praxis/Karte/karte.html (consulté le 16 janvier 2017).
← 29. Voir www.plattform-i40.de/I40/Redaktion/DE/Downloads/Publikation/digitale-transformation-im-betrieb-aus-und-weiterbildung.pdf (consulté le 16 janvier 2017).
← 30. Comme l’explique Becker (2012), les clauses de rétention des données sont employées lorsqu’un contrat liant un fournisseur de services infonuagiques et un client est indûment résilié par ce dernier ; elles permettent alors au fournisseur de conserver les données du client jusqu’à ce qu’il règle des frais de résiliation ou l’indemnise pour la perte d’activité, en versant une pénalité de rupture de contrat. Dans certains cas néanmoins, il arrive que ces dispositions soient utilisées pour facturer des frais supplémentaires aux clients ou les empêcher de changer de fournisseur.