Contexte technique
J'ai lu The AI Layoff Trap avec attention, et ce n'est pas une énième histoire alarmiste sur la fin du travail. Les auteurs construisent un modèle très spécifique : les entreprises automatisent des tâches, économisent sur les salaires, mais ne tiennent pas compte du fait que les personnes licenciées cessent d'être des consommateurs. C'est là que l'implémentation de l'intelligence artificielle se heurte non pas à des API ou à la latence, mais à un effet secondaire macroéconomique.
Le mécanisme est d'une simplicité presque déconcertante. Chaque entreprise profite pleinement de la réduction des coûts, mais ne subit qu'une petite fraction de la baisse globale de la demande. S'il y a 20 acteurs sur le marché, chacun ressent les dommages de la baisse de la consommation comme environ 1/20e du problème, ce qui pousse tout le monde à automatiser plus rapidement que ce qui serait bénéfique pour le système dans son ensemble.
Les auteurs avancent une affirmation audacieuse : dans un environnement concurrentiel, les entreprises pourraient automatiser environ deux fois plus que le niveau socialement optimal. Plus les modèles sont performants et la concurrence est féroce, plus le déséquilibre est grand. Le piège persiste même si les salaires s'ajustent ou si l'entrée sur le marché est libre.
La partie la plus controversée mais aussi la plus intéressante de l'article : le revenu de base universel, la reconversion, la participation des employés au capital, les impôts sur les plus-values et même les négociations entre les parties ne corrigent pas les incitations. Dans leur modèle, seule une taxe pigouvienne sur l'automatisation fonctionne, c'est-à-dire une taxe visant spécifiquement l'effet externe que l'entreprise ignore.
Soyons clairs : il s'agit d'un article d'arXiv datant de mars 2026, pas d'une prescription politique clé en main ni d'un fait prouvé empiriquement. C'est un travail théorique avec une conclusion très forte. Mais en tant qu'ingénieur, j'apprécie ces articles pour une autre raison : ils montrent clairement où l'architecture de l'IA et l'économie peuvent entrer en conflit, même si les indicateurs locaux semblent excellents.
Impact sur l'entreprise et l'automatisation
Pour les entreprises, la conclusion n'est pas qu'il faut freiner l'automatisation par l'IA. C'est qu'on ne peut pas mesurer un projet uniquement par la réduction des effectifs. Si, après l'implémentation, vous avez accéléré les processus mais que vous avez nui à la demande au sein de votre propre écosystème ou segment de clientèle, le modèle de rentabilité n'est plus aussi attrayant.
Les entreprises qui automatisent des goulots d'étranglement étroits et coûteux, au lieu de supprimer aveuglément la couche humaine, sortiront gagnantes. Celles qui fondent leur stratégie sur le principe « remplaçons tout le monde et on verra après » perdront.
Je le constate également dans les projets clients : un bon développement de solution IA ne commence pas par la question « qui peut-on supprimer ? », mais par « où une personne ralentit-elle le système, et où soutient-elle le chiffre d'affaires, la confiance et la demande ? ». Chez Nahornyi AI Lab, c'est précisément ainsi que nous concevons l'automatisation avec l'IA : nous calculons non seulement la vitesse et les économies de coûts, mais aussi les effets secondaires sur les ventes, le support et la fidélisation des clients. Si vous êtes confronté à un tel choix, nous pouvons analyser ensemble l'architecture et déterminer où l'IA renforce réellement l'entreprise et où elle crée une illusion magnifique mais coûteuse.