Retour à la veille
Société·26 avril 2026·Source : Caducee.net / OpenEdition
Empreinte HumaineIpsos BVAGreat Place To Work

Au-delà de l'automatisation, l'IA redéfinit la charge cognitive du management

Lien copié
Analyse

Des données empiriques récentes, notamment le baromètre Empreinte Humaine–Ipsos BVA et l'étude “Great Insights 2026”, dressent un tableau préoccupant de la santé mentale au travail : 59% des actifs décrivent le travail comme une source de stress et 47% se déclarent en détresse psychologique. Des analyses en sociologie du travail, publiées notamment sur OpenEdition, établissent un lien entre cette dégradation et la transformation numérique accélérée par l'IA. Elles montrent que l'IA ne fait pas que supprimer des tâches : elle intensifie le contrôle pour certaines catégories de personnel et augmente l'incertitude sur la valeur de l'expertise humaine. La pression concurrentielle pousse à déployer des solutions pour des gains de productivité rapides, sans piloter la charge cognitive induite par la supervision de ces nouveaux systèmes, la gestion des erreurs et la redéfinition constante des rôles.

Le Fait

Près d'un salarié sur deux (47%) se déclare en détresse psychologique, un chiffre que des études corrèlent à l'intensification et à la surveillance accrues par les outils numériques, dont l'IA. La technologie est déployée pour augmenter le débit, mais la charge de supervision humaine reste un impensé.

La Lecture

Ce phénomène illustre la confusion critique entre Rassurance et Assurance. Les organisations implémentent des agents IA mais, faute d'un système d'Assurance (auditabilité systémique, gouvernance automatisée), elles se reposent sur la Rassurance humaine : une surveillance constante, passive et anxiogène. Cette surveillance est un travail non reconnu qui alourdit la charge cognitive. L'IA, censée réduire le travail, ne fait que déplacer l'effort de l'exécution vers une validation mal outillée, aggravant la Dette Décisionnelle en bout de chaîne.

L’Enseignement

La responsabilité d'un dirigeant n'est pas de déployer l'IA, mais de concevoir le système de confiance qui l'encadre. Avant de lancer un agent, la question à poser est : 'Comment allons-nous auditer son travail de manière automatisée ?' plutôt que 'Qui va le superviser ?'.

Moyen terme

Les entreprises les plus matures créeront des rôles de 'concepteurs de systèmes de confiance' ou d' 'auditeurs de processus algorithmiques', déplaçant la valeur de la supervision humaine vers la conception de la gouvernance.

Lien copié

À lire ensuite