J'ai sélectionné cet article car il est présenté comme un interview d'une spécialiste française de l'IA en matière économique
Bonnes questions et réponses plutôt inquiétantes.
https://www.lemonde.fr/idees/article/20 ... _3232.html
Axelle Arquié, économiste : « Une catastrophe sociale causée par l’IA fait partie des scénarios possibles »
Propos recueillis par Pascal Riché
Publié hier à 06h30
ENTRETIEN Selon la cofondatrice de l’Observatoire des emplois menacés et émergents, les responsables politiques et les économistes sous-estiment les risques que l’intelligence artificielle fait peser sur le travail et sur la démocratie.
Economiste au Centre d’études prospectives et d’informations internationales, Axelle Arquié anime l’Observatoire des emplois menacés et émergents, qui s’efforce d’anticiper l’impact de l’intelligence artificielle (IA) sur le travail. Selon elle, il faut se préparer aux scénarios les plus sombres si on veut éviter qu’ils ne se réalisent.
Faut-il prendre au sérieux les propos de Mustafa Suleyman, patron de Microsoft AI, qui prédit que « la plupart, sinon toutes des tâches » accomplies dans les bureaux pourraient être remplacées par l’IA dans les dix-huit mois à venir ?
Il faut prendre avec des pincettes les discours des constructeurs de modèles d’IA. Ils sont biaisés, car ils ont tout intérêt à vanter les prouesses disruptives de leurs technologies.
A l’inverse, j’ai le sentiment que les responsables politiques et les économistes ne prennent pas la mesure de ce qui pourrait se passer sur le marché du travail. Ils n’abordent la question que sous l’angle des gains productivité, et minimisent les effets potentiels sur l’emploi. Ce que l’on vit est pourtant peut-être un phénomène comparable à la révolution industrielle. Evidemment, il est impossible d’avoir des certitudes sur son ampleur. Mais une catastrophe sociale, susceptible d’entraîner des répercussions politiques majeures, fait partie des scénarios possibles. Je trouve étonnant d’écarter ce risque d’un revers de main.
De nombreux économistes décrivent l’IA comme une bonne nouvelle économique. Elle va certes détruire des emplois, mais aussi stimuler l’innovation ; d’autres emplois que l’on n’imagine même pas aujourd’hui vont émerger… C’est notamment le discours du Prix Nobel 2025, Philippe Aghion. Ont-ils tort ?
Ils ont raison de dire que de nouveaux métiers vont émerger. La question est de savoir s’il y en aura assez pour remplacer ceux qui sont détruits.
Ces économistes font appel à l’histoire : depuis deux cent cinquante ans, chaque fois qu’une nouvelle technologie a bousculé la structure de production, des emplois ont disparu et de nouveaux sont apparus. Ils oublient cependant parfois de préciser que ces transitions prennent du temps. Et que dans ces périodes d’ajustement, beaucoup de gens souffrent.
Il a quand même fallu soixante-dix ans pour que les apports de la révolution industrielle en Angleterre profitent à la société. En attendant, la plupart des Britanniques ont été appauvris, avec des situations intolérables comme le travail des enfants dans les mines. Idem pour la désindustrialisation : les ouvriers qui ont perdu leur emploi à Roubaix [Nord] ne se sont pas convertis par magie en data scientists à la défense. Ces périodes de transition sont coûteuses humainement, mais aussi politiquement. La montée de l’extrême droite, aux Etats-Unis comme en Europe, a été nourrie par la désindustrialisation…
Est-il certain que le processus de destruction créatrice se produira de nouveau avec l’IA ? On ne peut pas exclure un autre scénario : des nouveaux métiers trop peu nombreux, une automatisation massive.
Enfin, comme l’a noté le sociologue Juan Sebastian Carbonell, auteur d’Un taylorisme augmenté [Editions Amsterdam, 2025], le travail pourrait subir une transformation radicale. On peut ainsi imaginer des « chaînes d’assemblage cognitives ». Une activité cognitive que vous faisiez de A à Z sera fragmentée en différents éléments. Certains seront assurés par l’IA, d’autres non. Le risque est que l’on réserve aux humains les travaux les moins épanouissants, les moins porteurs de valeur ajoutée, comme la vérification. Et que le pouvoir de négociation des humains baisse − et leur salaire avec.
Ne peut-on pas imaginer l’inverse ? Que l’IA démultiplie la productivité de chaque travailleur et se charge des tâches répétitives ?
Oui, c’est d’ailleurs ce que je vis dans mon propre travail d’économiste. Mais je crains que les entreprises ne raisonnent pas ainsi. S’il est moins coûteux de laisser une IA traiter, par exemple, un problème de droit, en faisant une recherche de jurisprudence et en écrivant des conclusions, elles choisiront cette solution sans hésiter. Tant pis pour l’avocat qui, en prenant le temps, aurait pu rendre un travail magnifique.
Certains nous disent que l’infirmier va pouvoir, grâce à l’IA, faire un travail de médecin. Un diagnostic, par exemple. C’est possible, mais il faut s’interroger sur les conséquences. Le travail de l’infirmier ne va-t-il pas s’intensifier ? Son salaire va-t-il augmenter ou celui du médecin va-t-il baisser ?
Lorsqu’il y a des besoins, pourquoi l’IA ne créerait-elle pas d’emplois ? Prenons l’exemple de la traduction. Les traducteurs sont certes touchés de plein fouet par l’IA, mais d’un autre côté, la demande de traduction de textes est gigantesque, et le recrutement de professionnels est nécessaire pour encadrer le travail des algorithmes…
Théoriquement, vous avez raison. Quand la productivité augmente, les coûts baissent. Si cela permet d’augmenter la demande, l’emploi est maintenu. Sauf qu’il y a des secteurs où les besoins ont forcément des limites. La demande de résolution de problèmes juridiques n’est pas infinie, par exemple. Par ailleurs, dans le contexte macroéconomique morose actuel, je ne vois pas la demande globale exploser.
La révolution de l’IA est-elle d’une nature très différente de celle de l’ordinateur de bureau ou de la robotisation ?
L’ordinateur et la robotisation ont remplacé des tâches routinières dans les bureaux et dans les usines. Ce qui est nouveau avec l’IA générative, c’est qu’elle peut prendre en charge des tâches non répétitives, celles des travailleurs qui n’ont jamais été exposés à l’automatisation, les cols blancs : comptables, juristes, chefs de projet, etc. Au passage, ce sont des gens qui gagnent bien leur vie et paient donc plus d’impôts et de cotisations sociales que les autres, ce qui risque de poser problème pour les finances publiques.
Et la singularité de l’IA dite « agentique », c’est qu’on lui donne accès à des outils – courriels, fichiers, voire appels téléphoniques – par lesquels elle peut interagir avec le monde physique. En combinant plusieurs modèles de langage, on arrive à automatiser davantage qu’une simple tâche : un processus entier. Vous pouvez fixer des objectifs à votre agent IA : « Organise-moi le déplacement de tel journaliste dans telle ville, réserve les hôtels et une voiture et prévois-lui quelques interviews. » Les systèmes agissent ensuite avec une certaine autonomie, grâce à une capacité de planification des tâches. Et ils peuvent donc remplacer des travailleurs dans des fonctions non routinières.
Les IA agentiques, pour l’instant, n’envahissent pas le monde du travail…
Nous en sommes aux prémices, car il faut surmonter des obstacles techniques et organisationnels. Par exemple, un cabinet d’avocats qui veut déployer l’IA agentique doit d’abord réorganiser son activité, concevoir quelle sera la place des interventions humaines dans le processus, définir des procédures de vérification.
Un autre problème se pose, c’est celui de la « boîte noire » des IA. Celles-ci brassent des données et construisent des relations statistiques, stockées dans d’énormes matrices. Puis, à partir de ce qu’elles ont appris dans les données, elles génèrent des résultats – texte, image, vidéo. Mais il est quasiment impossible pour un humain de comprendre comment ils ont été générés. Chez les constructeurs de modèles d’IA, il existe des laboratoires entiers consacrés à étudier leur fonctionnement interne : ils essaient de rendre explicables et donc analysables les décisions prises par les modèles.
Il ne faut donc pas s’attendre à ce que de nombreuses tâches critiques soient automatisées dès demain, car les sociétés ont des problèmes de responsabilité. Par exemple, s’il y a le moindre risque, une usine chimique hésitera à confier le réglage de la température à une machine autonome dont la logique décisionnaire ne serait pas parfaitement intelligible.
Car les modèles d’IA se trompent parfois, c’est ce qu’on appelle les hallucinations. Cette imperfection technique, couplée au problème de compréhension des systèmes, ralentira le rythme d’implantation des agents IA dans les entreprises.
Il y a quinze ans, on pensait qu’on ne ferait jamais confiance aux voitures sans chauffeur pour des raisons de responsabilité. Mais il y a, aujourd’hui, un millier de véhicules de ce type en circulation dans les rues de San Francisco…
C’est vrai. Pour l’instant, on ne confie pas à des machines autonomes la comptabilité d’une entreprise ou la négociation d’un accord juridique. Car, en cas de problème, qui serait responsable ? Mais notre regard et le droit peuvent évoluer. Il se peut que nous finissions par tolérer les erreurs des IA. Après tout, les humains font aussi des erreurs.
Quels sont les métiers les plus exposés au remplacement par des agents IA ?
Ce sont les métiers effectués derrière un ordinateur, qui traitent des informations. Y compris ceux qui requièrent une expertise : avocats, comptables, économistes… Autrefois, ces compétences, acquises après des années d’études, protégeaient ces travailleurs contre l’automatisation. Ce n’est plus le cas. Les machines sont désormais capables à la fois d’improviser – un peu – et de parler, et elles concurrencent les humains.
Mais les cols blancs ne sont pas les seuls à être menacés. Avec le rapprochement entre les modèles d’IA et les progrès fulgurants de la robotique en matière d’agilité et de dextérité, des machines pourraient bientôt automatiser des métiers manuels cognitivement complexes.
Le Prix Nobel de physique en 2024, Geoffrey Hinton, une référence sur l’IA, a conseillé de devenir plombier pour échapper à la menace de l’IA…
Le plombier semble bien protégé parce qu’il doit sans cesse faire face à de nouvelles situations complexes, qui nécessitent un degré d’improvisation très élevé. Les IA ont encore du mal à affronter des problèmes radicalement nouveaux, absents de leurs données d’entraînement. Mais, à long terme, rien n’interdit de penser que même le métier de plombier est remplaçable. La robotisation accélérée qu’on constate en Chine devrait en tout cas nous faire réfléchir.
Est-ce que les métiers qui font intervenir des relations humaines, de l’empathie, ne sont pas les plus à l’abri ?
Pour le moment, dans nos valeurs sociales, la préférence pour le contact humain prime. A juste titre, on considère, par exemple, comme dangereux de faire reposer la psychothérapie sur une machine. Mais les IA apprennent à imiter les hommes, ce qu’elles font très bien. Des études troublantes ont été réalisées, dans lesquelles des professionnels de santé et des chatbots se faisant passer pour des soignants répondent, par écrit, à des personnes jouant le rôle de patients. Dans la plupart des cas, l’IA a produit des réponses jugées plus empathiques que celles des humains !
Vous avez évoqué le risque de répercussions politiques que pourrait entraîner l’impact de l’IA sur le marché du travail. Quelles seraient-elles ?
On sait quelles sont les conséquences politiques de la destruction d’emplois : une montée de l’extrême droite dans les régions concernées. Mais un autre risque politique est en jeu : un basculement du rapport de force en faveur du capital, et d’un capital extrêmement concentré entre quelques mains, celles des grands acteurs technologiques. Se pose le danger de voir émerger à terme des conglomérats ultrapuissants. Les Européens ont une autre raison de s’inquiéter, car l’essentiel de la chaîne de valeur – fabricants de puces graphiques, serveurs, producteurs de modèles d’IA – se situe aux Etats-Unis. Dans ce paysage, si le travail est massivement remplacé par des IA et des robots, on voit mal comment la redistribution des fruits de l’économie au plus grand nombre sera possible.
Que faire ?
Aux Etats-Unis, une régulation antitrust pourrait devenir nécessaire si une intégration verticale émergeait, mais je ne la vois pas advenir dans le contexte actuel. En Europe, il faut réussir à s’affranchir de notre dépendance vis-à-vis des Big Tech américaines. Il faut créer un écosystème technologique européen. Une voie prometteuse : des modèles ouverts (paramètres et données), « petits », hébergés localement, donc une IA plus « frugale » et souveraine. Et l’IA doit être pensée comme un bien commun. Or, pour le moment, elle est traitée comme une ressource complètement privée, intégralement prise en charge par le marché.
Faut-il créer des infrastructures publiques d’IA ?
La question se pose. Cela pourrait commencer par mettre à disposition des bases de données publiques pour entraîner des IA. On abaisserait ainsi le coût d’entraînement des nouveaux modèles, et on s’assurerait que les modèles respectent nos valeurs. Enfin, se pose la question de la taxation.
Une taxe sur les robots ?
Il ne faudrait sans doute pas taxer l’innovation, mais plutôt l’utilisation des modèles par les entreprises. Il faut en tout cas veiller à ce que la comptabilité et la fiscalité ne favorisent pas l’IA plutôt que l’humain, sinon elles encouragent mécaniquement l’automatisation. Aujourd’hui, l’investissement dans un robot est fiscalement amortissable, alors que le travail est soumis à des cotisations.
Pour faire émerger les nouveaux métiers, faut-il accroître le financement de la formation ?
C’est nécessaire, mais il ne faut pas se faire d’illusion. La formation est une politique qui a mal fonctionné dans le passé. Le vrai défi, pour éviter une catastrophe sociale et démocratique, c’est de parvenir à capter la richesse créée par l’IA pour la redistribuer à ses « perdants ».


