Professeur Peter Cappelli, directeur du Centre des ressources humaines de Wharton à l’université de Pennsylvanie
Emploi et gestion publics 2021
2. Commentaire d’expert sur l’avenir de la fonction publique
Abstract
Ce chapitre présente le commentaire d’un expert indépendant sur l’avenir de la fonction publique, le professeur Peter Cappelli, directeur du Centre des ressources humaines de Wharton à l’université de Pennsylvanie. Il aborde deux types de prédictions assez différents concernant l’avenir : le premier concerne les prédictions basées sur des données historiques, tandis que le second type de prédiction - l’avis de l’expert - est utilisé lorsque le passé n’est pas un bon moyen de prédire l’avenir. Il prend en compte les deux types de prédictions en vue d’identifier les tendances en matière de gestion des ressources humaines et la manière dont celles-ci sont susceptibles (ou non) d’avoir un impact sur l’avenir de la fonction publique.
Deux types de prédictions sur l’avenir du travail
Peu de sujets suscitent autant d’intérêt, et sont peut-être plus importants, que la prévision de l’avenir. La manière de s’y prendre et, en particulier, d’évaluer des prévisions n’est pas bien connue. Les arguments ci-dessous examinent ce que nous savons sur ce sujet dans le contexte des prédictions sur l’avenir du travail. Les conclusions proposent des suggestions sur la manière de procéder face à une incertitude considérable sur ce que l’avenir nous réserve.
Comment comprendre les arguments qui font débat sur l’avenir du travail ?
Il existe au moins deux types différents de prédictions sur l’avenir qui sont faites dans les sciences. La première concerne les questions où nous prédisons des événements qui se sont produits auparavant et pour lesquelles nous disposons de données historiques. Nous calculons ces prédictions en établissant des prévisions. Il s’agit notamment des prédictions sur l’état de l’économie ou de la politique, où nous utilisons les résultats et les expériences du passé pour les appliquer au présent.
L’un des grands avantages de cette approche en matière d’épistémologie est que nous avons la possibilité d’évaluer la précision de nos prévisions pour l’avenir en fonction de la manière dont notre modèle a prédit les résultats dans le passé. L’inconvénient de cette approche est qu’elle ne fonctionne que si la structure sous-jacente de la situation ou du contexte reste la même dans le futur que celle de nos données historiques. De manière générale, nous ne pouvons pas le savoir tant que nous n’avons pas construit le modèle et découvert qu’il ne fonctionne pas.
Le deuxième type de prédiction est celui où le passé n’est pas susceptible d’être un bon prédicteur de l’avenir. Il s’agit de l’idée que quelque chose de nouveau s’est produit ou va se produire et que les mécanismes actuels seront, pour reprendre l’expression remarquablement galvaudée de Clayton Christiansen, ancien professeur à Harvard, « perturbés ». Les allégations concernant l’influence de l’intelligence artificielle peuvent entrer dans cette catégorie.
Nous pourrions qualifier l’effort visant à faire de telles prédictions de « jugement d’expert. » Tetlock (2017) a étudié de manière approfondie le phénomène des prédictions des experts, notamment en ce qui concerne les événements politiques. Il a constaté que la précision des experts dans ces prédictions était à peine supérieure à celle de « singes lançant des fléchettes sur un jeu de fléchettes » ou de manière moins créative, à celle du hasard. Tetlock et Gardner (2018) se sont livrés à un vaste exercice visant à déterminer ce qui fait que certains individus sont meilleurs que d’autres en matière de prédictions réelles d’événements qui pourraient être confirmés par la suite. Il est important de garder à l’esprit leurs conclusions lorsqu’on examine les prévisions d’événements perturbateurs.
Par exemple, ceux qui remettent en question les hypothèses, qui recherchent des situations et des événements comparables ailleurs et qui examinent les contre-arguments à leurs positions réussissent mieux à prédire. Ceux qui défendent une position plutôt que de l’examiner objectivement font de mauvaises prédictions. Cela n’est pas très surprenant. Dans de nombreux cas, l’objectif des défenseurs est bien plus d’attirer l’attention (et des affaires par la suite) que d’avoir raison dans leurs prévisions.
Ce qui a suscité l’intérêt du public pour l’avenir du travail semble être lié à des idées sur la façon dont le travail pourrait changer à l’avenir. Une évolution importante du lieu de travail qui a contribué à susciter l’intérêt des médias pour l’avenir du travail a été l’externalisation des tâches liées aux ressources humaines auprès de fournisseurs. Le secteur américain des fournisseurs réalise à lui seul un chiffre d’affaires de plus d’un demi-billion de dollars par an, ce qui équivaut presque à l’ensemble du secteur de la construction. Leurs activités de relations publiques comprennent la publication de rapports et d’études sur le travail. Il s’agit notamment de rapports sur des problèmes, principalement sur les effectifs ou des attributs connexes tels que l’éducation. Naturellement, ces entreprises proposent également des solutions à ces problèmes rencontrés.
À titre d’illustration, au milieu des années 1990, certains de ces fournisseurs ont commencé à affirmer que les États-Unis étaient confrontés à une véritable pénurie de main-d’œuvre en raison de la cohorte plus réduite de jeunes actifs du « baby bust », du moins par rapport aux baby-boomers. Jamais les États-Unis n’avaient connu de pénurie de main-d’œuvre à l’époque moderne, et les projections de l’US Bureau of Labour Statistics n’indiquaient aucun signe de réduction de la taille prévue de la main-d’œuvre. Néanmoins, les rapports ont continué à faire état de la nécessité de faire face à la pénurie de main-d’œuvre à venir, et les départements des ressources humaines ont élaboré des plans d’urgence à cet effet.
Ce phénomène a été suivi, au début des années 2000, par la création de la notion de « millénial », l’idée que les jeunes sont en quelque sorte câblés différemment de ceux qui les ont précédés et doivent être traités différemment. La National Academy of Sciences des États-Unis s’est penchée sur la question et a réfuté l’idée qu’il existe une génération Y définissable ayant des préférences spécifiques sur le lieu de travail. Elle a souligné que ces affirmations confondaient principalement le fait que ce groupe d’âge était simplement plus jeune que les individus plus âgés auxquels il était comparé et qu’il changerait en vieillissant1 Pourtant, les projets de conseil visant à comprendre les milléniaux et les programmes de formation destinés à les accueillir d’une manière ou d’une autre se poursuivent sans relâche.
Il est difficile de sous-estimer l’influence d’efforts comme ceux-ci sur les pratiques des employeurs. Le fait de s’attaquer à des problèmes qui ne sont pas réels a pour conséquence de détourner les responsables des ressources humaines et leurs ressources limitées des tâches qui comptent vraiment pour les employés et l’organisation. Même lorsque les rapports et les efforts de marketing sont destinés aux employeurs du secteur privé, ils finissent par atteindre également le secteur public, en partie à cause de l’idée que le secteur privé est mieux géré, plus avancé dans ses idées, etc. En particulier dans les pays anglo-américains où l’expertise commerciale est considérée comme particulièrement applicable aux opérations gouvernementales, les dirigeants du secteur public doivent réagir à ces idées simplement parce que leurs homologues du secteur privé les reprennent.2
Évaluation des prédictions
Dans le contexte du secteur public, de nombreux arguments, et peut-être les plus importants, concernant l’avenir du travail sont des pratiques qui ont déjà cours dans les secteurs privé et public. On part ici du principe que les dirigeants prévenants du secteur public peuvent se pencher sur ces arguments afin d’anticiper les changements. Des pressions sont également exercées sur certains dirigeants pour qu’ils adoptent les idées du secteur privé comme moyen de légitimité dans les pays où les entreprises jouissent d’une grande légitimité.
Parmi ces idées, on peut citer celles qui concernent la gestion des travailleurs. Ce sont les idées les plus faciles à évaluer, car elles existent déjà et nous savons comment ces pratiques sont utilisées et ce à quoi elles servent.
Voici une courte liste de développements récents dans ce domaine :
Un recours accru à la sous-traitance, qui inclut les entrepreneurs indépendants, mais surtout les employés « loués » fournis sous contrat par des fournisseurs.
Une plus grande externalisation des tâches de gestion des employés.
Des systèmes de gestion de projets agiles.
Des réformes de l’évaluation des performances et une évolution vers un retour d’information plus continu.
Un recours accru à la rémunération liée aux performances.
Une plus grande utilisation de la science des données pour fournir des réponses aux prédictions, telles que les candidats qui auront de bons résultats.
Une deuxième série concerne les allégations relatives à de nouveaux développements affectant le travail en lui-même et qui ne se sont pas encore produits. Ici, il semble y avoir deux postulats majeurs :
Le travail à distance permanent, du moins pour certains emplois
Le rôle de l’intelligence artificielle.
Tous ces éléments seront examinés dans les sections qui suivent.
Tendances en matière de gestion des RH
À la lumière des critères nommés plus haut qui contribuent à l’exactitude des prévisions, nous formulons la première série de projections sur la façon dont l’avenir du travail pourrait évoluer dans le secteur public. Il s’agit de pratiques et de dispositions liées à la gestion d’employés déjà en vigueur dans certaines grandes organisations. Certes, il s’agit de concepts qui ne sont probablement pas révolutionnaires, mais qui ont le mérite d’être pragmatiques. Ils sont déjà mis en application, et nous avons une idée assez claire de leur efficacité.La prévision importante est d’anticiper s’il serait avantageux d’en étendre l’application au secteur public.
Il existe une grande diversité au sein du secteur public d’un pays donné, ainsi qu’une diversité au sein d’une fonction ou d’un programme d’un pays à l’autre dans la manière dont le travail est réalisé et la gestion des employés. Il est difficile dans ce contexte de faire plus que des généralisations. Dans cette optique, nous nous tournons vers ces pratiques de gestion, qui sont devenues populaires dans la gestion du lieu de travail.
Externalisation et sous-traitance
Ces deux concepts liés font référence aux limites des organisations et à la mesure dans laquelle le travail de ces organisations est poussé hors de ses limites vers des fournisseurs sous la forme d’externalisation, et à la mesure dans laquelle des personnes autres que les employés sont recrutées au sein de l’organisation pour effectuer des tâches qui étaient auparavant effectuées par des employés. Les avantages de l’externalisation et de la sous-traitance en ce qui concerne la gestion d’un avenir incertain sont la capacité de garantir rapidement des capacités organisationnelles qui, autrement, nécessiteraient un temps considérable pour se développer, en particulier dans le secteur public qui connaît exigences de surveillance supplémentaires.
L’externalisation dépend de la disponibilité d’un marché concurrentiel de fournisseurs, un facteur qui est désormais incontournable dans pratiquement tous les aspects de la gestion du travail et du lieu de travail. Il est tout à fait possible que les fournisseurs puissent également accéder à une plus grande expertise et à un coût plus faible grâce à des économies d’échelle que nous ne pourrions réaliser même si les capacités étaient développées en interne. Les exemples les plus courants sont la gestion des salaires, lorsque les employés sont répartis sur plusieurs villes ou états, chacun ayant ses propres exigences en matière de fiscalité et de déclaration des salaires, et les avantages sociaux tels que les plans de retraite, pour lesquels les questions actuarielles et les considérations fiscales requièrent une expertise spécialisée.
Bien entendu, cela comporte aussi des inconvénients, dont certains sont fondamentaux. Le bon fonctionnement de l’externalisation dépend du contrat négocié pour ce type d’arrangement, car les fournisseurs ne sont pas tenus d’adapter ce qu’ils livrent à l’évolution des besoins du client ou si le client se trompe initialement sur ce dont il a besoin. Les fournisseurs peuvent également échouer et faire faillite, auquel cas la plupart de leurs obligations sont nulles ; même si les contrats les lient, les fournisseurs peuvent décider qu’un accord est devenu trop coûteux et payer les dommages et intérêts nécessaires pour s’en dégager ; les désaccords sur ce qui est livré sont courants et peuvent être difficiles à régler.
La sous-traitance prend deux formes. La première concerne les entrepreneurs individuels, qui interviennent pour effectuer des tâches spécifiques pouvant être décrites dans des contrats. La seconde consiste à faire appel à des fournisseurs pour fournir des travailleurs sous contrat à l’organisation, parfois connus sous le nom d’agences de dotation. Dans certains cas, la différence entre cette dernière et l’externalisation est minime. Par exemple, aux États-Unis, les « prestataires de services principaux » sont des fournisseurs qui prennent en charge des fonctions entières, généralement des travaux informatiques, directement dans les bureaux où le client est basé. Ils peuvent être profondément ancrés dans l’organisation, mais ne sont pas des employés de l’organisation.
Les avantages de la sous-traitance sont similaires à ceux de l’externalisation en ce qu’elle permet d’accéder à l’expertise ou même simplement à des mains supplémentaires dont l’organisation a besoin. Un deuxième avantage est que les accords de sous-traitance ont tendance à être beaucoup plus faciles à adapter que ceux liés à une externalisation. Les contrats des entrepreneurs individuels sont généralement de courte durée et leur violation, par exemple le fait de demander à un entrepreneur de faire autre chose, est souvent réglée de manière informelle sans recourir à des solutions juridiques. Selon le cadre juridique d’un pays, les travailleurs des agences de recrutement peuvent être réaffectés à différentes tâches par le client (les pays de common law appellent cela la « doctrine du salarié en détachement »), et les contrats avec le fournisseur permettent généralement au client d’ajuster le nombre de travailleurs fournis à la hausse ou à la baisse. On pourrait aussi dire que ces fournisseurs transforment la main-d’œuvre en un coût variable plutôt qu’en un coût fixe. Les inconvénients sont, tout d’abord, que trouver les compétences précises nécessaires pour opérer dans le secteur public pourrait bien être assez difficile sur le marché extérieur. Deuxièmement, les questions de départ, telles que les habilitations de sécurité, peuvent être considérables, et les entrepreneurs n’ont pas grand-chose qui les empêche de quitter un emploi si un meilleur poste se présente ailleurs.
En résumé, la sous-traitance permet aux clients d’avoir plus de contrôle que l’externalisation, et il est plus facile pour les clients d’obtenir des solutions en cas de problèmes.
Gestion de projet Agile
La plus grande innovation dans le domaine de la gestion du personnel au cours des années 2000 a sans doute été la montée en puissance de l’idée « d’agilité » comme approche de la gestion de projets. Le terme est apparu en 2001 lorsque les développeurs de logiciels d’Adobe ont établi une liste de facteurs clés pour le développement de logiciels de qualité. Comme l’ont souligné les concepteurs du Manifeste Agile en 2001, Alistair Cockburn et Jim Hightower (Cockburn et Highsmith, 2001[1]), privilégier les personnes et leurs interactions au processus et à la planification constitue la caractéristique principale de l’approche Agile dont la définition précise n’a de cesse de susciter un vif intérêt. En effet, pas moins de 1 500 articles universitaires ont été consacrés à ce sujet rien que dans la première décennie qui a suivi la publication du Manifeste Agile3. Toutefois, les nombreux auteurs affichent une certaine convergence de vues sur ses thèmes clés.
De petites équipes travaillant en collaboration selon une approche appelée « Scrum », où les décisions sont prises de manière transparente.
Priorité aux interactions en face à face, par opposition aux décisions descendantes, et aux itérations par rapport aux plans. Autonomie de l’équipe.
Les clients/utilisateurs sont impliqués tout au long du processus, y compris dans la conception.
Les ressources sont allouées en fonction des besoins au fur et à mesure qu’ils se présentent - y compris les « sprints » où elles sont utilisées de manière intensive pour mener à bien des tâches difficiles - et non en fonction de plans.
Création rapide de prototypes et obtention d’un retour d’information pour les améliorer.
Le retour d’information et les progrès des tests avec les utilisateurs sont légion
L’aspect le plus remarquable de la méthode Agile est peut-être ce qu’elle élimine, à savoir les systèmes de planification et de contrôle descendants. Auparavant, au début des projets, nous étions tenus, pour la plupart, d’élaborer un plan précisant l’objectif visé (un aperçu du résultat final, ses différentes implications, etc.) ainsi que les coûts escomptés, le temps nécessaire à la réalisation et un aperçu les objectifs intermédiaires (par exemple, les progrès à réaliser au cours de ce trimestre et ceux du suivant). Ce plan devait obtenir l’aval de la direction et surtout du directeur financier..
La plupart des personnes qui ont mené un projet à la lumière de cette approche savent que celle-ci comporte une grande part d’imprécisions. Or, s’en inspirer pour procéder à toutes ces prévisions avec précision relève de l’impossible pour tout projet novateur. Les gestionnaires de projet avisés devaient apprendre à ménager des marges de sécurité dans leurs calendriers et budgets pour faire face aux inévitables problèmes imprévus, présenter les résultats intermédiaires de façon à leur donner un semblant de progrès, voire faire fi de preuves d’avancées réelles pour donner l’impression que nous atteignons nos objectifs dans le plan.
Agile propose une approche tout à fait à l’opposé. L’équipe de projet est chargée de résoudre un problème et, bien qu’il puisse y avoir des discussions concernant les coûts potentiels, elle doit ensuite assumer de le faire seule, en demandant des ressources supplémentaires lorsqu’elle en a besoin et en le terminant dès qu’elle le peut. Les preuves dont nous disposons maintenant, y compris pour des entreprises comme GE qui ne se limitent pas à la technologie, sont que les projets agiles sont moins chers, plus rapides et offrent de meilleurs résultats que l’approche précédente basée sur la planification. Le simple fait d’éliminer le temps et l’énergie consacrés à la planification et les tampons qui sont intégrés pour garantir le respect du plan permet d’économiser beaucoup de temps et de ressources.
La méthode agile va-t-elle s’étendre dans le secteur public ?4 Des exemples naissants de projets basés sur la méthode agile sont en cours de réalisation dans de nombreux gouvernements du monde entier. Un an environ avant la pandémie, l’approche Agile était en passe d’être institutionnalisée dans de nombreuses entreprises, et il se pourrait qu’elle soit imposée comme l’une de ces « meilleures pratiques » à connaître une généralisation plus rapide dans le secteur public. L’application de l’approche Agile dans les activités gouvernementales se heurte à une limite non négligeable, à savoir l’absence de responsabilisation qui, dans le cadre des projets agiles, se matérialise par la difficulté de connaître à l’avance le bénéficiaire et la finalité des sommes engagées. En effet, le principe consistant à faire confiance aux employés pour consacrer les fonds publics au strict nécessaire s’avère difficile à imaginer. Des exemples de projets Agile réalisés dans le monde entier sont présentés de manière détaillée dans le document Agile Government: Building Greater Flexibility and Adaptability in the Public Sector. Deloitte Insights, mars 2021.
Les implications des systèmes Agile sur les ressources humaines méritent d’être prises en considération. Les équipes Agile ont besoin de disposer de ressources en temps utile pour résoudre les problèmes à mesure qu’ils surviennent. D’où la nécessité de mettre à disposition des équipes plus de personnel, des formations et des compétences additionnelles, des sous-traitants, etc. en cas de besoin, sans lesquels les systèmes Agile ne sauraient fonctionner efficacement. La question de savoir si les agences du secteur public peuvent offrir cette flexibilité des ressources reste ouverte. (Cappelli et al., 2018[2]).
Changements dans la gestion des performances
Au cœur de la gestion des performances se trouve l’idée qu’il est important de voir comment les employés se comportent dans leur travail, pour résoudre les problèmes de performance et, dans certains pays, et pour reconnaître et renforcer les meilleures performances. Cet intérêt est plus marqué dans les pays anglo-américains, peut-être parce qu’il est ancré dans la nature plus ouverte de l’emploi en common law et dans son ensemble d’obligations mutuelles qui doivent être gérées en permanence.
L’illustration la plus courante de la gestion des performances est le processus d’évaluation des performances.
À différentes époques, les évaluations de performance visaient un triple objectif : évaluer les performances des employés en vue d’accorder des promotions, aider les employés dans leur avancement de carrière, élément particulièrement important pour les cols blancs des entreprises dans les années 1950, et aider les employés à accroître leurs performances. Dans les années 1980, l’accent a été mis à nouveau sur la mesure des performances des travailleurs, cette fois pour les rendre responsables de ces performances, en récompensant les bons éléments par une rémunération au mérite et en sanctionnant les moins performants.
Le constat selon lequel la pratique contemporaine ne remplissait aucune de ces tâches correctement est répandu depuis des décennies. Plus précisément, le développement de carrière a plus ou moins disparu alors que l’avancement interne a régressé. Il était pratiquement impossible de mener les activités visant à améliorer les performances avec une simple comptabilité de fin d’année. Les budgets consacrés à la rémunération au mérite étaient trop modestes pour que l’on puisse en attendre une grande différenciation en matière de motivation.
L’évolution la plus importante de la gestion des performances depuis plus de 50 ans a commencé dans le secteur privé américain au cours des années 2010, à la suite d'une frustration liée au processus d’évaluation.
L’idée était simplement de délaisser l’exercice d’évaluation annuel au profit d’un processus de réflexion continu entre les supérieurs hiérarchiques et les subordonnés sur l’évolution du travail. Si ce processus pouvait être mis en œuvre, il est presque certain qu’il contribuerait davantage à l’amélioration des performances et qu’il ne pourrait pas être bien pire en matière de « responsabilisation des employés » qu’une seule réunion de fin d’année.
À en croire certains chiffres, avant la pandémie de 2020, jusqu’à 30 % des employeurs américains avaient renoncé à leur système d’évaluation annuelle des performances ou entrepris de le convertir en discussions plus continues. Il s’agissait d’entreprises telles que GE, qui s’était rendue célèbre sous la direction de Jack Welch pour avoir préconisé le renvoi obligatoire des personnes les moins performantes lors de son examen annuel, ainsi que toutes les grandes sociétés de comptabilité et de conseil et de nombreux employeurs de logiciels de la Silicon Valley. Les premiers bilans de ces nouvelles approches ont été presque uniformément positifs, comme on peut l’imaginer : il y avait plus d’apprentissages, les problèmes étaient identifiés et résolus plus rapidement, les relations avec les superviseurs s’amélioraient, etc.5
Toutefois, comme toute innovation, celle-ci implique un changement, ce qui entraîne également une résistance. Les cadres supérieurs ont été les premiers à mener la fronde contre la réforme de l’évaluation des performances au motif qu’il était important que chaque employé reçoive une note individuelle, faute de quoi la responsabilisation serait impossible.. Les activités de réforme ont échoué dans de nombreuses organisations pour cette seule raison.
De plus, l’abandon des évaluations de performance était la partie facile. Au regard des résultats peu satisfaisants obtenus en contraignant les supérieurs hiérarchiques à discuter avec leurs subordonnés, de nombreuses organisations n’ont pas eu d’autre choix que de renoncer à l’évaluation. Il n’est pas certain que ces activités se poursuivent après la pandémie. Elles ne sont pas encore considérées comme le type de meilleures pratiques uniformes que le secteur public serait censé adopter. Mais il serait très utile d’instituer la notion de conversations continues entre les superviseurs et les subordonnés au-delà du processus d’évaluation annuelle des performances.
Le fait que les dispositions relatives à l’emploi dans le secteur public diffèrent de celles du secteur privé en raison de la rareté des mesures incitatives et dissuasives - compte tenu de la difficulté de licencier des employés, les augmentations de salaire étant plus limitées, etc. - accroît la nécessité d’une meilleure gestion des performances, précisément parce que les récompenses et les sanctions ne suffisent pas. On résume très généralement les problèmes de performance à un manque de motivation, or c’est rarement le cas. Il existe souvent des malentendus sur les objectifs de performance, sur la façon dont les tâches doivent être exécutées et sur les problèmes auxquels sont confrontés les subordonnés. Les superviseurs ont également une bien plus grande influence qu’ils ne le pensent, car ils peuvent par exemple influer sur les tâches effectuées par leurs subordonnés et façonner leur travail pour le rendre plus significatif. La première étape pour y parvenir est d’avoir davantage de conversations avec les subordonnés, ce qui est l’objectif de la réforme de l’évaluation des performances.
Rémunération liée aux performances
Le principe sous-jacent de cette option est que les incitations constituent une source importante de motivation dont on peut tirer pleinement parti en conditionnant les paiements versés aux employés à l’atteinte des objectifs. Pour que les incitations soient efficaces, il est important que les employés sachent à l’avance quelles sont les attentes vis-à-vis d’eux et les récompenses qu’ils recevront en retour. Il s’agit à l’origine d’une notion anglo-américaine, particulièrement importante aux États-Unis, qui trouve son origine dans la conviction que les employés sont des acteurs économiques rationnels désireux de maximiser leur propre rémunération : « donnez-leur plus de récompenses pour une tâche que vous aimeriez qu’ils accomplissent, et ils en feront plus ».
Un grand avantage des incitations en tant que pratique de gestion est qu’elles sont simples à introduire, du moins au début. Contrairement aux initiatives de changement de culture organisationnelle ou d’amélioration de l’engagement des employés, qui s’avèrent compliquées, la mise en place d’incitations est généralement une intervention plus facile.
Un élément fondamental à prendre considération dans la rémunération incitative consiste à déterminer quelle doit être la mesure de la performance. La rémunération versée est-elle fonction des performances globales de l’organisation ou de l’entreprise, au motif que telle est notre finalité au bout du compte ? L’inconvénient est que les employés pris individuellement risquent de ne voir aucune possibilité d’influencer ces résultats de haut niveau. La rémunération est-elle versée à chaque employé selon les résultats par tâche à sa portée, au risque qu’il travaille en deçà de ses capacités à condition d’atteindre l’objectif fixé, par exemple en délaissant d’autres tâches pour accroître sa performance dans le domaine évalué ?.
Aux États-Unis, la rémunération incitative a été préconisée comme solution dans de nombreux contextes du secteur public, notamment dans le domaine de l’éducation, où l’on pensait que les écoles dirigées par des responsables offrant une incitation financière aux élèves afin qu’ils obtiennent de meilleurs résultats scolaires seraient plus performantes.
De nombreux éléments démontrent que les incitations produisent des résultats largement supérieurs aux récompenses promises aux employés, à condition que ceux-ci sachent comment s’y prendre. Par exemple, les élèves qui sont payés pour faire des devoirs à la maison en feront davantage. Il est également prouvé qu’elles ne semblent pas accroître la capacité des individus à accomplir des tâches qui ne leur sont pas familières : les écoles dont les dirigeants sont mieux payés lorsqu’ils obtiennent de meilleurs résultats pour les élèves ne produisent pas nécessairement ces résultats, en partie parce qu’amener les élèves à apprendre davantage est une tâche complexe et difficile. Le manque de motivation n’est pas nécessairement le problème. Il existe également de nombreuses preuves que les incitations encouragent les bénéficiaires à trouver des moyens sous-optimaux pour atteindre leurs objectifs. Par exemple, les écoles bénéficiant des incitations susmentionnées déploient des efforts considérables pour se débarrasser des élèves peu performants et attirer les plus performants afin d’améliorer les résultats moyens des élèves. Enfin, lorsque les gens font une activité dans un but social ou caritatif, le fait de les rémunérer pour qu’ils le fassent davantage réduit ces autres motivations.6
En bref, les incitations fonctionnent bien dans des contextes très ciblés où le résultat est sous le contrôle des individus, où il est facile à spécifier et à mesurer, où la possibilité de sous-optimisation (surutilisation des ressources pour atteindre l’objectif mesuré et réduction des autres résultats) est minimale.
Dans d’autres contextes, elles ne sont pas aussi utiles et peuvent même conduire à des résultats indésirables.
La pression exercée sur le secteur public afin qu’il utilise davantage d’incitations provient de ceux qui croient par principe qu’elles sont essentielles à la motivation et qui, à quelques exceptions près, ne sont pas conscients des preuves du contraire. Elles peuvent également apparaître comme une manière plus équitable de distribuer des ressources limitées : plutôt qu’une augmentation générale très mineure, il peut sembler plus raisonnable d’octroyer des augmentations significatives là où les performances se sont améliorées.
Cependant, il est également vrai que certains des mécanismes utilisés dans les contextes d’incitation peuvent créer une motivation même sans la récompense découlant de l’incitation. Mesurer et rendre compte des performances individuelles a un fort effet de motivation. Faire des comparaisons de performances entre individus a un effet de motivation distinct, celui lié aux comparaisons sociales et à la pression des pairs. Une partie de l’effet de motivation que produisent les programmes d’incitation peut en fait découler de cet effet.
Science des données
Outre les arguments faisant état des bénéfices potentiels de l’intelligence artificielle pour le travail de demain (voir ci-dessous), des prévisions indiquent que les interventions plus ciblées de la science des données pourraient être bénéfiques à la gestion de la main-d’œuvre. Étant donné que la science des données au service de la gestion des effectifs est déjà utilisée dans une grande partie du secteur privé, au moins de manière modeste, il n’est pas exagéré d’examiner les enseignements à en tirer et leur contribution potentielle au secteur public.
La science des données est issue du domaine de l’ingénierie ; elle est à la statistique ce que l’ingénierie est à la science : une approche davantage axée sur l’obtention de réponses précises que sur la manière dont ces réponses ont été générées. L’apprentissage automatique est la technique la plus couramment utilisée en science des données. Contrairement aux modèles statistiques standard qui mettent l'accent sur un ou deux facteurs déjà reconnus comme étant associés à un résultat tel que la performance professionnelle, les algorithmes d’apprentissage automatique sont agnostiques quant aux variables qui ont fonctionné auparavant ou à la raison pour laquelle elles fonctionnent. Plus on est de fous, plus on rit : Il les regroupe et produit un modèle permettant de prédire certains résultats, par exemple qui sera un bon candidat, en attribuant à chaque candidat un score unique, facile à interpréter, indiquant la probabilité qu’il soit performant dans un emploi. Il construit un modèle complexe et non linéaire qui met en correspondance les variables indépendantes, par exemple les attributs des individus, avec le résultat, par exemple leurs performances professionnelles. Ensuite, comme pour les prévisions, nous introduisons les attributs d’un candidat individuel dans ce modèle complexe, et il nous indique dans quelle mesure ce candidat est proche de nos employés les plus performants.
Contrairement aux modèles statistiques traditionnels, qui peuvent nous indiquer le score des candidats pour chacun des attributs dont il a été démontré ailleurs qu’ils permettent de prédire les performances professionnelles, comme le QI ou l’expérience, les modèles d’apprentissage automatique nous donnent un score qui résume tous les attributs d’un candidat individuel. En revanche, ce modèle ne parvient pas à expliquer pourquoi un candidat a obtenu de meilleurs résultats qu’un autre : était-ce dû à son score de personnalité, à ses notes universitaires ou à d’autres éléments ? L’identification de l’effet de l’un des facteurs dans un algorithme d’apprentissage automatique, sans parler de la comparaison entre les attributs, demande un effort supplémentaire considérable et de la programmation.
Les algorithmes obtenus de cette manière peuvent être utilisés pour effectuer une grande variété de prédictions sur le lieu de travail, non seulement pour déterminer quels candidats sont susceptibles d’obtenir les meilleurs résultats, mais aussi quels sont ceux qui devraient être promus, quels sont les parcours professionnels les plus pertinents en termes de réussite future, etc.
L’approche fondée sur la science des données présente d’ores et déjà l’avantage de nous faire prendre conscience de l’inefficacité de notre mécanisme de prise de décisions actuel. En effet, on confie généralement la prise de décisions à nos supérieurs immédiats, qui exploitent parfois ou pas les résultats des tests et autres mesures de qualités. D’où l’aboutissement à des décisions parfois empreintes de préjugés et d’incohérences d’un décideur à l’autre. Les algorithmes d’apprentissage automatique ont le grand avantage d’être moins biaisés à cet égard. Ils examinent les mêmes attributs pour tous les candidats et les traitent tous de la même manière, sur la base de leur relation dans les données « d’apprentissage » avec les éléments qui suivent réellement les résultats en question.
C’est en partie parce qu’ils normalisent à la fois les données et les pratiques et parce qu’ils n’ont qu’un seul objectif, celui de produire une estimation précise, qu’ils parviendront mieux que nous ne le faisons actuellement à prédire le résultat souhaité, quel qu’il soit. Toutefois, compte tenu de leur standardisation et de leur caractéristique consistant à traiter tout le monde de la même manière, en cas d’erreur, ils ont tendance à se transposer à une plus grande échelle et à être plus faciles à repérer. Parmi les exemples les plus connus, on peut citer ceux dans lesquels les algorithmes reposaient sur des données biaisées, ce qui n'est pas surprenant étant donné que pratiquement toutes les données historiques sont le reflet des biais de la période où elles ont été générées. Par exemple, si les femmes ont été victimes de discrimination dans le passé, elles ont été moins nombreuses à accéder aux postes les plus associés à la réussite, et un algorithme construit à partir de ces données indiquait que les candidates ont moins de chances de réussir.7
Le même préjugé est probablement ancré dans l’esprit des décideurs individuels, mais il est bien plus difficile à cerner et à identifier que dans un algorithme où il est facile de déterminer si, par exemple, les notes des femmes candidates sont inférieures à celles des hommes, toutes choses égales par ailleurs. (Hoffman, Kahn et Li, 2018[3]). À cet égard, la pratique actuelle dans le secteur public et les systèmes de la fonction publique en particulier sont susceptibles d’être bien meilleurs que ce que nous voyons dans le secteur privé, car les premiers sont plus standardisés et laissent moins de discrétion aux décideurs individuels.
Tout l’intérêt de l’utilisation des algorithmes de la science des données dans un domaine tel que l’embauche, où ils semblent être le plus utilisés, réside dans sa capacité à faire correspondre le meilleur candidat possible à un poste en tenant compte de l’importance d’autres facteurs, tels que l’équité du processus (justice procédurale) et de la manière dont les dividendes sont partagés entre les différentes parties prenantes (justice distributive). Ce facteur semble être plus important dans le secteur privé que dans le secteur public, où les questions de justice procédurale sont importantes et codifiées. Par exemple, un algorithme qui offre des prédictions judicieuses sur les personnes à embaucher aurait néanmoins du mal à convaincre s’il s’avérait qu’il n’est pas compatible avec les résultats des tests de la fonction publique (un problème de processus), ou s’il était plus favorable à certaines nationalités et moins à d’autres pour les emplois des agences internationales (un problème de répartition).
Pour des sujets qui ne sont pas aussi essentiels que l’embauche, l’utilisation des algorithmes pourrait s’avérer bénéfique. De même, pour des questions aussi importantes que l’embauche, il est possible de générer des algorithmes et de les utiliser comme l’unique entrée dans le processus d’embauche. Dans bien des cas, son utilisation pourrait sembler aller à l’encontre de son objectif, mais lorsque des questions autres que le meilleur outil de prédiction sont en jeu, cela pourrait bien constituer une approche raisonnable.
La science des données propulse l’utilisation de ces outils dans des domaines qui suscitent des inquiétudes, même dans le secteur privé. Par exemple, les algorithmes prédisant le chiffre d’affaires et qui sont construits à partir de données provenant de sites de médias sociaux posent des problèmes de confidentialité, soulevés plus tôt dans l’Union européenne. Il existe une préoccupation plus générale, à savoir l’incapacité à expliquer aux personnes visées par les algorithmes la signification de leurs scores. Lors de l’utilisation d’algorithmes pour la prise de décision décisions sur des sujets tels que les promotions, nous perdons la possibilité d’expliquer aux employés n’ayant pas progressé ce qu’ils doivent faire pour en avoir l’opportunité une prochaine fois.8
Des prédictions sur un avenir « perturbé »
Nous avons désormais recours aux prédictions les plus audacieuses, selon lesquelles certaines évolutions rendront l’avenir du travail incomparable à tout ce que nous avons connu par le passé. Il est donc impossible d’évaluer la probabilité de voir se réaliser ces prédictions selon les prévisions, ou de s’appuyer sur l’expérience pour déterminer ce qu’il convient de faire pour les réaliser ou pour évaluer les coûts et les avantages de leur adoption.
Le travail à distance et les enseignements tirés de la pandémie
La prédiction la plus facile à aborder concerne les pratiques temporaires associées aux politiques de distanciation sociale de la pandémie, à savoir l’idée du travail continu ou permanent à domicile. Plus généralement, l’idée est de séparer l’endroit où l’on travaille réellement et celui où se trouve son organisation.
Selon les pays, plus de la moitié des salariés font un travail susceptible d’être effectué à distance (principalement des emplois de bureau, à l’exclusion des emplois nécessitant une interaction avec des personnes, comme les services, et une intégration physique comme dans l’industrie manufacturière). Les employés du secteur public aux États-Unis ont semble-t-il des taux de travail à distance plus élevés que les autres secteurs de l’économie, comme l’indique le graphique ci-dessous.
Dans l’Union européenne, environ 42 % des employés de l’administration publique travaillaient à temps plein depuis leur domicile au cours de la pandémie (Eurofound, 2020[4]). La prédiction concerne l’évolution de ce chiffre au moment où les exigences de la pandémie s’atténuent et que les employés sont autorisés à retourner au bureau.
Pourquoi sommes-nous en droit de penser que les employés ne retourneront pas au bureau ? Certes, il n’est pas aisé d’évaluer dans quelle mesure le télétravail a été efficace d’un point de vue de l’atteinte des objectifs de l’organisation, mais tout au moins, l’on peut déjà affirmer sans risque de se tromper que le télétravail n’a pas donné lieu à la catastrophe annoncée par de nombreux employeurs. De surcroît, de nombreuses organisations se sont rendu compte que le travail s’est déroulé aussi bien qu’auparavant avec les employés en présentiel. De quoi conforter l’idée de poursuivre le télétravail.
Dans les pays disposant de données sur l’expérience des employés, ces derniers affirment, pour la plupart, apprécier certains aspects du télétravail qu’ils n’aimeraient pas voir disparaître. Bien entendu, les employés ont de nombreuses revendications auxquelles leurs employeurs ne donnent jamais accès. Si les employés le souhaitent, ils pourraient obtenir de leurs syndicats qu’ils militent pour ce nouveau modèle d’organisation du travail peut-être en lieu et place d’une augmentation des salaires, qui semble difficile à obtenir.
Du point de vue de l’organisation, pourquoi les employeurs seraient-ils prêts à accepter le travail à domicile ? Dans le secteur privé américain, les directeurs financiers apprécient l’idée, car elle permet de supprimer les bureaux et les coûts immobiliers. En d’autres termes, ils pensent à un travail à domicile permanent, et non à une utilisation occasionnelle comme le privilégient la plupart des employés. Les agences du secteur public peuvent avoir un intérêt similaire à réduire l’espace de bureau, en particulier celles qui opèrent dans des villes où le coût de la vie est élevé.
Les avantages du travail à distance pour les employeurs semblent concerner principalement le travail à distance permanent, lorsqu’il y a la possibilité de se passer d’espaces des bureaux. Il n’est pas certain qu’un grand nombre d’employés soient intéressés par cette disposition, et les recherches menées sur le travail à distance avant la pandémie révèlent que les employés travaillant à distance sont désavantagés à bien des égards par rapport à leurs homologues en poste. Pour un employeur, être ouvert à l’idée que ses employés travaillent hors du cadre du bureau ou depuis un autre endroit reviendrait pratiquement à les considérer comme des entrepreneurs indépendants..
Pendant le boom du dot-com à la fin des années 1990, les entreprises disposant de biens immobiliers onéreux encourageaient les employés à se rendre dans leurs bureaux seulement en cas de nécessité et sur rendez-vous. En dehors des États-Unis, cette pratique est connue sous le nom de « bureau à la carte » ou de « bureaux partagés ». L’idée était que, dans l’ensemble, moins de bureaux seraient nécessaires et que les entreprises pourraient réduire leurs coûts liés aux bureaux. Ce modèle a de fait échoué aux États-Unis, parce que les employés étaient attachés à leurs bureaux, et parce qu’un bureau où les personnes qui s’y trouvent sont chaque jour différentes présente peu d’avantages en terme social - pas d’interactions et de réseaux cohérents - ce qui est l’un des principaux avantages d’avoir des bureaux.
Les employés du secteur public et du secteur privé ont travaillé à distance à partir du printemps 2021 avec un certain succès, ce qui soulève la question de savoir ce que cette expérience pourrait apporter après la levée des restrictions. De nombreux employeurs parlent de lieux de travail hybrides, où les employés continuent à travailler à domicile pendant un certain temps. L’intérêt du secteur privé est nettement motivé par l’économie d’espace de bureau si les employés n’y travaillent plus. Il en résulte un intérêt considérable et des annonces anticipées de transfert de certains emplois vers le travail à distance permanent. L’autre solution, qui consiste à permettre aux employés de conserver leur bureau et de travailler également à domicile, est moins intéressante financièrement pour les employeurs et potentiellement plus complexe. Cette décision semble être motivée par le fait que les employés disent l’apprécier. Il n’est pas certain qu’il y ait des avantages équivalents pour les employeurs, si ce n’est que les horaires hybrides peuvent être un avantage qui attire les candidats à l’embauche, comme l’ont fait valoir certains employeurs du secteur des technologies.
Nous avons une bonne idée de ce qui arrive aux personnes qui travaillent à distance alors que leurs collègues ne le font pas, et les résultats ne sont pas bons. Ils ont tendance à être oubliés et coupés des relations sociales.9 Je garde une image peu reluisante de l’expérience empirique de nouveaux modèles de travail où certains employés travaillent au bureau tandis que d’autres le font à distance par voie électronique. Si les employés choisissent leurs propres horaires de travail, ces interactions entre le travail à distance sur zoom et le travail au bureau sont inévitables en raison de la difficulté de réunir les personnes nécessaires au bureau au bon moment.
Si les employeurs du secteur public décident de maintenir en permanence des taux plus élevés de travail à domicile, ce ne sera pas une tâche difficile, étant donné qu’ils l’ont fait pendant la pandémie et qu’ils le faisaient déjà, à des degrés divers, avant la pandémie. Nous avons eu l’occasion d’expérimenter ce modèle pendant plus d’un an pour déterminer si le maintenir en vaut la peine. Nous savons désormais quelles en sont les implications et quelles pourraient être les retombées négatives en cas d’erreur. Ce qui n’est pas aussi clair, ce sont les avantages, même si l’expérimentation permettrait de répondre à ces questions.
Intelligence artificielle
L’intelligence artificielle et ses possibles répercussions sur le monde du travail de demain se trouvent au cœur des idées les plus célèbres et les plus percutantes sur l’avenir du travail. En termes concrets, il s’agit de discours de rupture selon lesquels le monde du travail de demain sera sans aucune commune mesure avec celui du passé, et que les dernières percées en matière d’IA redéfiniront les relations de travail au point qu’il sera fort difficile de prédire l’avenir avec précision en se livrant à des généralisations résultant d’expériences antérieures. On peut considérer qu’il s’agit d’une double incertitude : nous ne pouvons pas dire de façon certaine à quoi ressembleront les innovations en matière d’IA à l’avenir, ce qui empêche d’évaluer les mesures nécessaires à leur introduction, les avantages qui en découleront et les coûts si les prédictions se révèlent fausses et que nous les suivons.
De toutes les prédictions, la plus marquante est sans doute celle de Brynjolfsson et McAfee selon laquelle le développement technologique que nous connaissons actuellement se révèle différent à bien des égards de celui du passé et que ses répercussions sur le monde du travail ne peuvent être que tout aussi différentes de celles du passé (Brynjolfsson et McAfee, 2012[5] ; Brynjolfsson et McAfee, 2014[6]).L’affirmation qui retient le plus l’attention dans leur livre, paru à un moment où le chômage est important aux États-Unis, est que cette nouvelle technologie entraînera des pertes d’emplois considérables. Jusqu’à présent, rien n’indique que cela se produise.
Frey et Osborne ont entrepris de recouper cet avis d’expert, pour le moins populaire, au travers d’un sondage invitant les experts en informatique à dire s’ils pensaient que, en l’état actuel ou dans un futur proche, la machine pourrait remplacer l’humain dans l’accomplissement du cœur de métier d’un ensemble d’emplois (Frey et Osborne, 2017[7]). Ils ont abouti à la conclusion selon laquelle la machine en était capable pour près de la moitié des emplois.
Toutefois, il se dégage de de cette étude la principale conclusion selon laquelle les personnes exerçant ces emplois seront bientôt remplacées par des ordinateurs. Or, le tout premier problème patent que pose cette conclusion est que les emplois sont constitués de nombreuses tâches dont le « cœur de métier » peut ne pas absorber la majorité du temps ni apporter la plus grande valeur ajoutée, etc. Même si les ordinateurs venaient à accomplir ce cœur de métier, il ne demeure pas moins que les autres tâches doivent être effectuées. En adoptant une méthodologie fondée sur les tâches, l’OCDE a abouti à la conclusion selon laquelle seuls 14 % et 32 % respectivement des emplois sont susceptibles d’être entièrement et partiellement automatisés.
On ne saurait déduire de la capacité technique d’un système informatique que celui-ci est capable d’exécuter une tâche de manière efficace et rentable. Plus important encore, les nouveaux systèmes informatiques ont tendance à ajouter des fonctionnalités qui n’existaient pas auparavant, créant ainsi de nouvelles tâches.
Plus directement, il est possible de comparer ce qui se passe au niveau de l’emploi lorsque les investissements informatiques augmentent. On part souvent du principe que l’informatique est introduite pour supprimer des emplois, mais il n’y a aucune preuve réelle de cette hypothèse. Bessen examine les données des États-Unis et constate que l’utilisation accrue des technologies de l’information est en fait associée à une augmentation des emplois. En outre, il ne trouve aucune preuve d’un lien entre la polarisation des emplois et une plus grande utilisation des TI (Bessen, 2016[8]).Aum, Lee et Shin ont constaté que les investissements en TI étaient en fait plus faibles pour les emplois de niveau inférieur correspondant à des tâches routinières que pour les emplois de niveau supérieur, ce qui va à l’encontre de l’opinion antérieure selon laquelle les TI éliminent les emplois de niveau inférieur, mais aussi de l’idée qu’elles ciblent de manière disproportionnée les emplois de niveau moyen (Aum, Lee et Shin, 2017[9]). Gregory, Salomons et Zierhn (2016) concluent également que les investissements en TI en Europe sont associés à une augmentation de l’emploi (Gregory, Salomons et Zierahn, 2016[10]).
En somme, autant il existe des données sur l’adoption des technologies par le passé, autant il n’existe aucune preuve tangible que ces technologies aient entraîné la suppression des postes. Bien sûr, l’argument avancé est que l’issue sera bien différente cette fois. En 2018, la perspective de l’avènement imminent d’une telle technologie avait tellement pignon sur rue qu’un candidat à la présidence des États-Unis a fait de la gestion de l’inévitable perte d’emplois chez les chauffeurs routiers un thème central de sa campagne.10Deux ans plus tard, les perspectives de l’existence d’une telle technologie dans un avenir proche semblaient s’être évanouies que la plupart de ses défenseurs de la première heure ont ménagé leurs efforts dans le développement des véhicules sans conducteur, notamment Uber, qui semblait avoir tout à gagner à remplacer les conducteurs (Marshall, 2020[11]).
Comme nous n’avons pas d’idée précise de l’impact de l’IA sur les emplois de la fonction publique en général, il est difficile de savoir comment réagir. Par exemple, nous savons que l’IA pourrait éliminer de nombreuses tâches procédurales, mais cela dépend du type introduit d’intelligence artificielle, et de nombreux emplois dans le secteur public exigent des compétences qui, jusqu’à présent, ne sont pas facilement remplaçables. Pour en revenir à la discussion ci-dessus, remplacer certaines tâches ne signifie pas nécessairement remplacer des emplois entiers. Pour ces raisons, les employeurs du secteur public peuvent se méfier des affirmations les plus radicales concernant l’impact de l’IA en théorie, en particulier celles concernant la disparition de familles entières d’emplois. Ils devraient plutôt reconnaître que les technologies numériques transformeront les emplois plutôt que de les remplacer. En outre, les gouvernements peuvent employer des stratégies de gestion du changement au cas par cas, en s’assurant qu’ils prennent le temps d’évaluer les impacts de tout projet technologique sur les effectifs, de concevoir des stratégies de formation et de transition appropriées pour les employés dont les emplois seront modifiés ou remplacés. Les gouvernements ne devraient pas sous-estimer les investissements dans les personnes qui vont de pair avec ceux dans la technologie. L’idée de reconvertir d’importants groupes de fonctionnaires pour d’autres emplois implique de savoir ce que devraient être ces autres emplois, ce qui n’est pas le cas. L’intelligence artificielle peut également accroître la demande de certains emplois clés, mais nous ne savons pas non plus quels seront ces emplois, en dehors du nombre relativement restreint de personnes en charge de son développement. En admettant que les prévisions de l’IA soient fiables, ne pas savoir exactement comment en disposer constitue un argument de poids pour approfondir les recherches, apprendre par la pratique et se concentrer sur des cas spécifiques.
Une stratégie pour les périodes d’incertitude
Les arguments ci-dessus commencent par la compréhension de la notion d’incertitude et surtout des prédictions sur l’avenir. La deuxième question est de savoir comment répondre à l’incertitude autrement qu’en se contentant de notre meilleure estimation.
Outre la nécessité d’établir la véracité des différentes prédictions et prévisions, il est important d’approfondir l’analyse et de tenir compte de l'éventail des résultats possibles auxquels des prédictions particulières aboutir : sur quelles hypothèses repose une prédiction donnée, et que faire si ces hypothèses se révèlent fausses ? Nous devons donc comprendre que nous sommes confrontés à un éventail de résultats possibles et que le choix ne se limite pas entre une option et une autre. En conséquence, la planification doit s’éloigner du processus traditionnel et mécanique d’extrapolation du passé.
Nous devons ainsi analyser les implications des prédictions pour proposer des réponses judicieuses. Quels sont les risques encourus en cas d’attente, d’action ou d’erreur si les prédictions sous-jacentes se révèlent fausses ou si nos interventions ne sont pas efficaces, etc. Quels outils pouvons-nous utiliser pour réduire les coûts de l’incertitude, c’est-à-dire le fait que nos prévisions se révèlent fausses ? En bref, la « planification » doit passer d’un exercice mécanique d’extrapolation à partir du présent à une gestion sérieuse de l’inévitable incertitude associée à un monde en mutation.
De nombreuses approches ont été utilisées pour mieux appréhender un avenir incertain. Les plus judicieuses d’entre elles s’éloignent d’une prédiction unique pour reconnaître la diversité des futurs possibles. La planification de scénario est un outil de ce type qui permet aux participants d’examiner des prédictions concurrentes de l’avenir et de comparer leurs implications. Les plans de scénario sont une sorte de jugement d’expert, exercé idéalement par des personnes bien informées, mais qui ne défendent pas de positions. L’approche commence par des jugements quant aux facteurs que l’on estime être relativement certains dans le futur pour la prédiction en question, puis des jugements sur les incertitudes les plus importantes. Les modèles de certitudes et d’incertitudes donnent lieu à des ensembles qui représentent les scénarios (Shoemaker, 1995[12]). D’autres approches sont également utiles, comme la répartition des acteurs pour débattre des avantages et des inconvénients des différentes prédictions qui sont mises en avant.
En examinant les profils des candidats susceptibles de changer la donner concernant l’avenir du travail dans le secteur public, il est tout à fait naturel de prendre au sérieux ceux qui décrivent des évolutions qui existent déjà sous une forme ou une autre, car ils présentent les meilleures marges de progression possibles. Ceux-ci portent essentiellement sur les changements démographiques au sein de chaque pays et sur les pratiques de gestion déjà en cours, parfois dans des segments du secteur public où nous pensons qu’ils pourraient se développer, et parfois à un stade précoce dans le secteur privé. Les projections qui méritent le moins d’être prises au sérieux sont aussi celles ayant reçu le plus d’attention, notamment parce qu’elles sont extrêmes. Celles-ci concernent l’IA. Étant donné que nous disposons de peu de preuves actuelles de la véracité de ces projections et que les incidences sur la manière de réagir n’ont rien d’évident, il est difficile d’envisager une action à grande échelle. Il est dans l’intérêt des employeurs qu’ils adoptent une solide approche de gestion de projets lors de la conception et l’application de l’IA à ces domaines. Ils doivent également mettre en place des stratégies de gestion du processus de changement à même d’identifier et d’atténuer les répercussions sur le personnel à chaque étape du processus.
Références
[9] Aum, S., S. Lee et Y. Shin (2017), « Industrial and Occupational Employment Changes During the Great Recession », Federal Reserve Bank of St. Louis Review, vol. 99/4, pp. 307-317, https://doi.org/10.20955/r.2017.307-317.
[8] Bessen, J. (2016), « How Computer Automation Affects Occupations: Technology, Jobs, and Skills », SSRN Electronic Journal, No. 15-49, https://doi.org/10.2139/ssrn.2690435.
[6] Brynjolfsson, E. et A. McAfee (2014), The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, WW Norton & Company, New York.
[5] Brynjolfsson, E. et A. McAfee (2012), Race against the machine: How the digital revolution is accelerating innovation, driving productivity, and irreversibly transforming employment and the economy, Digital Frontier Press, Lexington, Massachussets.
[16] Cappelli, P. et R. Bonet (2021), « After Covid, Should You Keep Working from Home? Here’s How to Decide », The Wall Street Journal, 22 March 2021, https://www.wsj.com/articles/after-covid-should-you-keep-working-from-home-heres-how-to-decide-11616176802.
[14] Cappelli, P. et A. Tavis (2016), « The Performance Management Revolution », Harvard Business Review.
[2] Cappelli, P. et al. (2018), « The New Rules of Talent Management », Harvard Business Review, https://hbsp.harvard.edu/product/R1802B-PDF-ENG.
[1] Cockburn, A. et J. Highsmith (2001), « Agile software development, the people factor », Computer, vol. 34/11, pp. 131-133, https://doi.org/10.1109/2.963450.
[17] Dingsøyr, T. et al. (2012), « A decade of agile methodologies: Towards explaining agile software development », Journal of Systems and Software, vol. 85/6, pp. 1213-1221, https://doi.org/10.1016/j.jss.2012.02.033.
[4] Eurofound (2020), « Living, working and COVID-19 », COVID-19 series, Publications Office of the European Union, Luxembourg.
[7] Frey, C. et M. Osborne (2017), « The future of employment: How susceptible are jobs to computerisation? », Technological Forecasting and Social Change, vol. 114, pp. 254-280, https://doi.org/10.1016/j.techfore.2016.08.019.
[10] Gregory, T., A. Salomons et U. Zierahn (2016), « Racing With or Against the Machine? Evidence from Europe », ZEW - Centre for European Economic Research Discussion Paper, No. 16-053, https://doi.org/10.2139/ssrn.2815469.
[13] Hilton, M. (2008), « Skills for Work in the 21st Century: What Does the Research Tell Us? », Academy of Management Perspectives, vol. 22/4, pp. 63-78, https://doi.org/10.5465/amp.2008.35590354.
[3] Hoffman, M., L. Kahn et D. Li (2018), « Discretion in Hiring », The Quarterly Journal of Economics, vol. 133/2, pp. 765-800, https://doi.org/10.1093/qje/qjx042.
[11] Marshall, A. (2020), « Uber Gives Up on the Self-Driving Dream », Wired, https://www.wired.com/story/uber-gives-up-self-driving-dream/ (consulté le 13 septembre 2021).
[15] Rey-Biel, P., U. Gneezy et S. Meier (2011), « When and Why Incentives (Don’t) Work to Modify Behavior », Journal of Economic Perspectives, vol. 25, pp. 191-210, https://doi.org/10.2307/41337236.
[12] Shoemaker, P. (1995), « Scenario Planning: A Tool for Strategic Thinking », Sloan Management Review, vol. 36/2, pp. 25-40.
Notes
← 1. National Academies. 2020. Are Generational Categories Meaningful Distinctions for Workforce Management? Washington, DC: National Academies Press.
← 2. À titre d’exemple, la National Academy of Sciences des États-Unis s’est penchée sur la question de savoir s’il existait un déficit de compétences en raison de l’augmentation présumée des exigences en matière de compétences dans les emplois. Cette tâche leur a été confiée par le directeur des National Institutes of Health, et elle lui a été transmise par les PDG des entreprises. J’étais membre de ce comité. Il en est ressorti qu’il n’y avait pas de déficit de compétences. Voir Margaret Hilton (2008[13]), “Skills for Work in the 21st Century : What Does the Research Tell Us ?”, Academy of Management Perspectives, Vol. 22/4, pp. 63-78.
← 3. Pour un compte rendu de la recherche universitaire sur le sujet de l’agile, voir Dingsøyr et al. (2012[17]), “A decade of agile methodologies: Towards explaining agile software development”, Journal of Systems and Software, Vol. 85/6, pp. 1213-1221, 033.
← 4. Des exemples de projets agiles dans le monde entier sont présentés dans Agile Government : Building Greater Flexibility and Adaptability in the Public Sector. Deloitte Insights, mars 2021.
← 5. Pour un examen des preuves, voir Peter Cappelli et Anna Tavis (2016[14])" The Performance Management Revolution", Harvard Business Review.
← 6. Pour une vue d’ensemble, voir Rey-Biel, Gneezy et Meier (2011[15])" When and Why Incentives (Don’t) Work to Modify Behavior", Journal of Economic Perspectives, Vol. 25, pp. 191-210.
← 7. NB de l’OCDE : Étant donné que ces modèles se basent sur des moyennes statistiques, ils peuvent également avoir des difficultés à évaluer correctement le potentiel des candidats dont les compétences et le leadership s’expriment de manière non conventionnelle, en dehors de la « norme ». Il faut également veiller à ce que les outils fonctionnent aussi bien pour toutes les personnes, y compris celles qui ont des accents différents, des conditions particulières ou des handicaps, etc. Certaines utilisations, telles que la technologie de reconnaissance faciale pour la détection des émotions à partir de l’expression faciale, ou pour déduire d’autres caractéristiques telles que l’affiliation politique, l’intelligence ou l’aptitude à l’emploi, sont critiquées comme étant discriminatoires, peu fiables et invasives, et devraient être totalement évitées.
← 8. NB de l’OCDE : La détection des préjugés dans les algorithmes exige des efforts de surveillance et d’analyse proactifs de la part de ceux qui déploient les modèles. Les institutions doivent veiller à ce que des explications significatives soient fournies aux personnes soumises à des évaluations automatisées, à ce que le modèle et les données utilisées soient transparents et à ce qu’elles surveillent les prédictions et les évaluations pour détecter les résultats inattendus.
← 9. Pour un examen de cette recherche, voir Peter Cappelli and Rocio Bonet (2021[16]), “After Covid, Should You Keep Working from Home? Here’s How to Decide", Wall Street Journal, 22 mars 2021.