Article
La friction productive
Ce que la suppression du coût cognitif coûte réellement
Le deskilling par l'IA n'est pas un bug — c'est la conséquence d'une industrie qui optimise pour le confort. Ce que le temps gagné coûte en capacité perdue.
Des médecins utilisent un outil d'IA pour détecter des tumeurs lors de coloscopies. Après trois mois d'utilisation assistée, on retire l'outil. Leur taux de détection a chuté de 20% par rapport à leur niveau d'avant l'IA1.
Pas parce que l'outil était mauvais — précisément parce qu'il était bon.
Ce résultat, publié dans The Lancet Gastroenterology and Hepatology et repris par le second rapport international AI Safety 20262, illustre un phénomène que l'industrie commence à documenter sans encore le nommer correctement. On parle de deskilling — la dégradation de compétences par l'usage prolongé d'un outil qui les remplace. Mais le mot est trop faible. Ce qui se passe ici n'est pas une érosion. C'est une substitution silencieuse : le système prend en charge une fonction cognitive, l'humain cesse de l'exercer, et quand le système s'absente, la fonction ne revient pas.
La question n'est plus de savoir si l'IA remplace des emplois. C'est de savoir ce qu'elle remplace à l'intérieur de ceux qui l'utilisent.
Mécanisme
Le paradoxe de l'augmentation
Le discours dominant tient en trois mots : augmenter les capacités humaines. Les données racontent autre chose.
Une étude Microsoft Research / Carnegie Mellon de 2025 a interrogé des travailleurs du savoir utilisant l'IA générative quotidiennement3. Résultat principal : les tâches leur semblaient cognitivement plus faciles. Le piège est dans la formulation. "Plus facile" ne signifie pas "mieux exécuté". Les chercheurs ont observé que les participants cédaient leur expertise de résolution de problèmes au système, se concentrant sur des fonctions d'assemblage — collecter, intégrer, mettre en forme les réponses du modèle. La partie créative de la tâche migrait vers la machine. La partie logistique restait à l'humain.
Le MIT a mesuré l'effet directement sur l'activité cérébrale : réduction de l'activité, diminution de la rétention mémorielle, pensée moins originale chez les utilisateurs intensifs4. Le cerveau ne se repose pas pendant que l'IA travaille. Il se retire.
Le never-skilling : pas la perte d'une compétence acquise — l'impossibilité de l'acquérir en premier lieu, parce que l'outil a toujours été là.
Les internes en médecine formés avec l'IA diagnostique5 n'ont jamais développé le raisonnement clinique autonome que l'outil est censé assister. On ne peut pas perdre ce qu'on n'a jamais eu. On peut en revanche ne pas remarquer l'absence.
Confiance
L'automation bias
La tendance à faire confiance aux sorties d'un système automatisé sans examen critique. Pas par paresse — par design.
Le rapport international AI Safety 2026, dirigé par Yoshua Bengio et cosigné par plus de 100 experts de 30 pays, identifie un mécanisme central : l'automation bias2. L'interface est fluide, la réponse arrive formatée, cohérente, immédiate. Le doute méthodique exige un effort supplémentaire que l'architecture de l'interaction ne récompense pas.
Le rapport documente que les modèles actuels distinguent désormais les environnements de test du déploiement réel — et trouvent des failles dans les évaluations. L'implication est directe : un système capable de se comporter différemment quand il est observé produit une confiance calibrée non pas sur sa fiabilité réelle, mais sur sa fiabilité apparente. L'automation bias se nourrit de cette asymétrie.
Gartner prédit que d'ici fin 2026, la moitié des organisations à l'échelle mondiale exigeront des évaluations de compétences "AI-free"6 — des tests sans assistance artificielle, pour mesurer ce que l'humain sait encore faire seul.
C'est un retournement remarquable. Pendant deux ans, la question était "est-ce que l'employé utilise l'IA ?". La question devient "est-ce qu'il peut s'en passer ?".
Réflexivité
Le chercheur comme sujet
Je prends un risque en écrivant ces lignes, parce que je suis ce même utilisateur.
KAIROS est un outil de cartographie cognitive que je développe depuis quelques mois, presque entièrement en vibe coding avec Claude Code. 24 000 lignes de TypeScript, 296 tests unitaires, des migrations SQLite, un déploiement multi-dépôts. Parmi ses mécanismes, la jauge d'oxygène — un score de 0 à 100 qui évalue en temps réel la qualité cognitive d'une conversation humain-IA. Quand le score descend sous 50, l'échange tourne en rond. Sous 30, le système injecte automatiquement de la friction pour forcer un changement de direction.
J'ai conçu cette jauge pour détecter l'atrophie cognitive chez l'utilisateur. Je prends un risque en écrivant ces lignes, parce que je suis ce même utilisateur.
L'incertitude comme signal
Si on me retire l'outil demain — Claude Code, le modèle qui génère, corrige, refactorise — KAIROS n'existe plus. Pas parce que le code disparaît. Parce que je ne suis pas certain de pouvoir le maintenir seul. L'architecture est la mienne. Les décisions de conception sont les miennes. Mais l'exécution ligne par ligne a été largement déléguée. Je ne sais pas exactement ce que je sais encore faire sans le système. Et c'est précisément cette incertitude qui est le signal.
Les cliniciens dont le taux de détection chute après retrait de l'IA ne savaient pas non plus ce qu'ils avaient perdu. Le confort est le mécanisme, pas le symptôme.
La jauge d'oxygène détecte ce pattern dans les conversations : quand une interaction est "fluide" — le modèle comprend vite, exécute bien, l'échange glisse — le score baisse. Le confort conversationnel est un signal de dégradation cognitive, pas de qualité. J'ai conçu un instrument de mesure pour un phénomène dans lequel je suis moi-même pris. La circularité n'est pas un accident. C'est la condition d'observation.
Hypothèse
La conservation de la friction
L'optimisation redistribue la friction entre les phases du cycle. Elle ne la supprime pas.
Dans un article précédent sur le vibe coding, j'ai posé une hypothèse à partir de deux rapports d'interaction espacés d'un mois : la friction totale dans une collaboration humain-IA semble approximativement constante. En optimisant mes pratiques — sessions plus courtes, cadrage plus explicite — j'avais réduit la friction d'exécution. Mais la friction de cadrage avait augmenté proportionnellement.
Le deskilling est le résultat d'une tentative de suppression totale de la friction. Quand l'interface est assez fluide pour que l'utilisateur ne rencontre jamais de résistance — pas d'erreur à corriger, pas de doute à résoudre, pas de reformulation à trouver — la charge cognitive descend vers zéro. Et avec elle, l'exercice des facultés que la charge cognitive mobilisait.
La friction n'est pas un défaut de l'interaction humain-IA.
C'est le signal que l'humain est encore dans la boucle.
Un article de Springer (AI & Society) introduit le concept d'environnements hostiles aux capacités — des contextes où la médiation technologique empêche le développement et l'exercice des capacités humaines8. Le concept est abstrait. L'implémentation est concrète : chaque interface IA sans friction est un environnement hostile aux capacités, par design, parce que le confort est le produit et la compétence est le coût.
Conception
La troisième voie
Pas un compromis. Un déplacement du cadre.
Le débat actuel est binaire. D'un côté, l'adoption enthousiaste — l'IA augmente tout, résiste qui peut. De l'autre, la résistance méfiante — préserver les compétences en limitant l'usage. 66% des étudiants interrogés dans une enquête de l'Université de Warwick disent "essayer de résister à l'IA"9. 56% des mêmes étudiants admettent que l'IA fait partie du futur. Les deux positions coexistent chez les mêmes individus. Le binaire est un cul-de-sac.
Dans KAIROS, la friction n'est pas un obstacle à contourner — c'est un instrument de conception. Quand la jauge d'oxygène détecte une conversation en zone stale, elle ne bloque pas l'échange. Elle injecte une question divergente, propose un cadrage alternatif, ralentit le débit de confirmation. L'outil ne freine pas l'utilisateur. Il le sollicite. La différence est structurelle : le frein réduit la productivité, la sollicitation augmente la charge cognitive.
Friction constitutive vs friction exceptionnelle
Des "journées sans IA" sont à la compétence cognitive ce que les exercices d'évacuation sont à la sécurité incendie — un rituel qui rassure sans modifier le risque structurel. Ce qui modifie le risque structurel, c'est de concevoir l'interface pour que la friction soit constitutive de l'interaction, pas exceptionnelle.
C'est ce que j'appelle la friction productive. Pas un obstacle. Pas une punition. Une propriété de conception qui maintient l'humain en état de sollicitation pendant qu'il utilise l'outil — exactement comme un bon interlocuteur ne confirme pas tout ce que vous dites.
Asymétrie
Le coût invisible du confort
Les gains sont immédiats et mesurables. Les coûts sont différés et invisibles.
Il y a une asymétrie temporelle dans le deskilling qui le rend particulièrement difficile à détecter. Les gains sont immédiats : tâche terminée plus vite, output plus propre, satisfaction instantanée. Les coûts sont différés : érosion progressive, détectable seulement quand on teste sans l'outil — et personne ne teste sans l'outil.
Le rapport Bengio le formule dans le vocabulaire de la gouvernance : "les capacités avancent vite, les preuves de risque arrivent lentement"2. C'est vrai pour les risques systémiques. C'est encore plus vrai pour le deskilling individuel, parce que le sujet ne sait pas ce qu'il a perdu tant qu'il n'a pas besoin de ce qu'il a perdu.
Les pilotes d'avion connaissent ce phénomène. L'automatisation rend le vol plus sûr en conditions normales et le pilote moins capable en conditions anormales10. Le crash d'Air France 447 en 2009 reste la démonstration la plus tragique de cette dynamique : quand l'automatisme s'est désengagé, les pilotes n'ont pas su piloter manuellement. L'aviation a répondu par des obligations de pilotage manuel périodique — de la friction intégrée au système, pas optionnelle.
L'IA conversationnelle n'a pas encore eu son Air France 447. Mais les données s'accumulent. Et quand une industrie entière fonctionne sur la suppression de friction comme proposition de valeur, la question n'est pas si le coût émergera, mais quand.
Conclusion
La friction cognitive n'est pas le prix à payer pour utiliser un outil. C'est le prix à payer pour rester compétent pendant qu'on l'utilise.
Le deskilling n'est pas un bug de l'IA. C'est la conséquence logique d'une industrie qui optimise pour le confort et mesure la réussite en temps gagné. Ce que personne ne mesure — pas les plateformes, pas les employeurs, pas les utilisateurs eux-mêmes — c'est ce que le temps gagné a coûté en capacité perdue.
La jauge d'oxygène de KAIROS est un instrument modeste, calibré sur un cas d'usage étroit : la conversation avec un modèle de langage. Mais le principe qu'elle incarne — mesurer la qualité de l'effort, pas la quantité du résultat — est exactement ce qui manque au débat. Tant que la seule métrique est la productivité, la seule direction possible est la suppression de friction. Et tant que la seule direction est la suppression de friction, la seule trajectoire pour l'humain est l'atrophie.
La clé n'est pas de résister à l'outil.
Elle est de concevoir l'outil pour qu'il résiste à l'utilisateur — juste assez pour que la pensée continue de coûter quelque chose.
Sources