Quelque chose dimportant est en train de se passer , a crit Matt Shumer, fondateur dune start-up spcialise dans lIA, dans un essai viral rcent qui refltait la confiance grandissante de son secteur dans le fait que cette technologie alimentera le prochain grand boom de la productivit. Jusqu prsent, lconomie na pas suivi le mouvement. En effet, depuis son ralentissement brutal dans les annes 1970, la productivit amricaine na connu quune seule brve pousse de croissance : lre informatique. La production horaire a bondi denviron 3 % par an la fin des annes 1990 et au dbut des annes 2000, avant de sessouffler.
L'IA pourrait-elle changer la donne ? Les optimistes mettent en avant la productivité globale du travail, qui a augmenté à un taux annualisé de 1,8 % au quatrième trimestre 2025. Une mesure plus précise de la Banque fédérale de réserve de San Francisco, qui exclut l'intensité cyclique (l'effet de la simple exploitation accrue des personnes et des machines), montre toutefois que la productivité du travail n'a augmenté que de 0,2 % en glissement annuel. Cela ne laisse guère présager de « quelque chose d'important ».
Au contraire, nous aurions de la chance si cette technologie égalait ne serait-ce que la révolution informatique, qui fut de courte durée. La croissance de la productivité risque d’être décevante, non pas parce que la technologie est faible, mais parce qu’elle automatise quelque chose de fondamentalement différent de ce qu’ont fait l’ordinateur personnel et Internet. Plus précisément, l’IA crée un goulot d’étranglement que les outils numériques antérieurs évitaient largement.
Considérez ce que la révolution informatique a réellement automatisé : des calculs plus rapides et l’accès à la connaissance. Les PC, les e-mails, les tableurs et le web ont éliminé les frictions du processus de recherche, de stockage et de transmission de l’information. Un chercheur qui avait besoin d’une source n’avait plus à fouiller dans une bibliothèque ni à attendre qu’elle lui parvienne par la poste. Les gains de productivité étaient relativement simples, car les humains pouvaient simplement substituer la méthode plus rapide (Google) à la plus lente (une bibliothèque). Les informations trouvées en ligne étaient les mêmes que celles que l'on aurait trouvées sur une étagère.
Surtout, lorsque les ordinateurs effectuaient des tâches essentielles, ils le faisaient de manière déterministe. Un tableur pouvait propager des données erronées, mais il n'inventait pas l'arithmétique. Les moteurs de recherche pouvaient faire apparaître des contenus non pertinents, mais ils ne fabriquaient pas de sources. Le principal risque était l'erreur humaine, pas l'invention persuasive.
L'IA automatise quelque chose de différent : la production des résultats cognitifs eux-mêmes — de l'écriture au codage. Elle accomplit souvent ces tâches avec brio. Comme elle peut aussi se tromper avec assurance d'une manière qui semble plausible, elle crée cependant une tension à laquelle ceux qui ont traversé la révolution informatique n'ont jamais été confrontés : si les humains doivent rester dans la boucle pour vérifier les résultats de l'IA, ils auront toujours besoin des connaissances spécialisées que l'IA est censée remplacer. Garantir la fiabilité nécessite toujours une expertise et un temps rares. Ainsi, une partie du temps gagné lors de la génération est partiellement — et parfois entièrement — compensée par le temps passé à reconstruire le raisonnement, à tester les affirmations et à assumer la responsabilité du résultat.
Un tribunal des faillites de Manhattan a fourni la dernière illustration de ce problème ce mois-ci. Sullivan & Cromwell — l’un des cabinets les plus prestigieux de Wall Street — a déposé une requête d’urgence truffée de citations inventées de toutes pièces et d’autres erreurs générées par l’IA. Ces erreurs n’ont pas été détectées par le processus de révision interne du cabinet, mais par l’avocat de la partie adverse. Cet épisode était absurde, mais aussi révélateur. Il a montré ce qui se passe lorsqu’un outil produisant des résultats fluides se heurte à un monde qui exige une vérité vérifiable.
Le problème plus profond n’est pas simplement que l’IA puisse se tromper. C’est que le coût des erreurs est en train de changer. À mesure que les systèmes deviennent plus autonomes — qu’ils agissent de manière autonome, plutôt que de se contenter de générer du texte ou du code en réponse à des invites distinctes —, les erreurs ont des conséquences plus graves. Un chatbot qui invente un paragraphe est agaçant. Un agent qui modifie du code, transfère de l’argent, classe des documents, supprime une base de données ou déclenche des actions à travers les systèmes peut causer de réels dommages à la vitesse de la machine.
Appelons cela la « taxe de vérification ». Dans tout contexte où quelqu’un est responsable d’un résultat — droit, médecine, finance réglementée, ingénierie ou politique publique —, le résultat d’une IA n’est pas un produit fini. C’est un brouillon qui doit être vérifié. Le travail ne disparaît pas ; il passe de la production à la supervision. La productivité nette correspond au temps gagné à générer un brouillon moins le temps passé à s’assurer de sa fiabilité.
Ainsi, dans une vaste étude de terrain sur le service client, un assistant IA génératif a augmenté la productivité d’environ 14 % en moyenne, avec des gains bien plus importants pour les novices et peu d’avantages pour les travailleurs les plus expérimentés. Comme les tâches étaient standardisées, les résultats étaient plus faciles à évaluer et l’outil pouvait diffuser rapidement les meilleures pratiques.
Lorsque le contexte est plus complexe et que l’exactitude est plus difficile à vérifier, la charge de vérification peut l’emporter sur les avantages. Un essai randomisé mené auprès de développeurs open source expérimentés travaillant sur leurs propres dépôts a révélé que l'accès à des outils d'IA de pointe les ralentissait d'environ 19 % — principalement parce qu'ils passaient leur temps à donner des instructions, à attendre, à relire et à corriger.
Ces résultats impliquent que le gain apporté par l'IA dépend de la structure de la tâche. Lorsque les erreurs sont peu coûteuses et que les résultats sont faciles à tester, l'IA peut accélérer le travail. Lorsque les erreurs sont coûteuses et que l'exactitude est difficile à vérifier, le goulot d'étranglement passe de la « réalisation du travail » à sa « certification ». La machine peut produire des résultats à l'infini, mais l'organisation ne peut pas absorber une vérification sans fin. Comme l' affirment les économistes Christian Catalini, Xiang Hui et Jane Wu, lorsque l'IA ramène le coût d'exécution à zéro, la contrainte déterminante devient la capacité de vérification humaine — notre capacité limitée à valider les résultats et à assumer la responsabilité.
Ce cadre met également en lumière un risque à plus long terme. Si les entreprises réagissent à l’IA en embauchant moins de juristes et d’analystes juniors, en réduisant la formation et en partant du principe que la machine se chargera de la première ébauche, elles sapent l’expertise même nécessaire pour vérifier les résultats de la machine. L’organisation paraîtra plus légère jusqu’à ce que l’erreur cachée refasse surface au grand jour.
Que faudrait-il donc pour que l’IA génère des gains de productivité significatifs, plutôt qu’une multitude d’activités et une montagne de risques inestimables ? La réponse réside dans l’infrastructure de vérification. Par exemple, un juge fédéral du Texas exige désormais que les avocats certifient que tout texte rédigé par l’IA a été vérifié à l’aide de recherches juridiques traditionnelles.
Un changement similaire est nécessaire dans l'ensemble du secteur des cols blancs. Si les entreprises veulent que des agents IA modifient du code, transfèrent des fonds et classent des documents, elles auront besoin de traçabilité pour les réclamations, de pistes d'audit et de normes claires en matière de diligence raisonnable. Un tel changement institutionnel ne se produit pas à la même vitesse que la publication des modèles. Tant que la réglementation, les services de conformité, les normes professionnelles, les assurances et les tribunaux n'auront pas rattrapé leur retard, le potentiel de l'IA restera limité.
Par Carl Benedikt Frey


JDF TV
L'actualité en vidéo