Article
L'anesthésie
douce
Quand l'IA cesse de frotter, la pensée cesse de changer de direction. Anatomie d'un lissage qui transforme un espace cognitif en meuble.
Le signal le plus intéressant dans l'abandon progressif de ChatGPT n'est pas ce que les utilisateurs disent. C'est ce qu'ils ne parviennent pas à nommer. Ils écrivent "froid", "corporate", "ennuyeux" — des mots qui décrivent une absence, pas un défaut. Quelque chose manque, et ce quelque chose n'a pas de mot courant.
J'en propose un : la friction.
Mesure
La dérive silencieuse
En juillet 2023, des chercheurs de Stanford et UC Berkeley ont mis des chiffres là où il n'y avait que des impressions.
GPT-4, évalué sur les mêmes tâches à trois mois d'intervalle, avait changé de comportement de manière mesurable. Sur l'identification de nombres premiers, la précision est passée de 97,6% en mars à 2,4% en juin. La capacité à générer du code directement exécutable a chuté de 52% à 10%.
Le phénomène a un nom technique : model drift. Quand les développeurs mettent à jour un modèle pour améliorer la sécurité, réduire les coûts d'exploitation ou supporter de nouvelles fonctionnalités, les performances sur des tâches non liées peuvent décliner. Les petits changements s'accumulent. Ce qui ressemble au même modèle de l'extérieur peut se comporter très différemment de ce qu'il faisait quelques mois plus tôt.
Peter Welinder, VP Produit chez OpenAI, avait proposé une autre lecture : « Quand on utilise un outil plus intensivement, on commence à remarquer des problèmes qu'on ne voyait pas avant. » L'étude de Stanford disait le contraire : les mêmes tâches, les mêmes prompts, des résultats objectivement différents. Ce n'est pas un biais d'usage. C'est une mesure.
Mais la mesure ne dit qu'une partie de l'histoire. La précision sur les nombres premiers, la plupart des utilisateurs s'en fichent. Ce qu'ils ressentent, c'est autre chose — quelque chose de plus diffus, plus difficile à nommer. Et c'est précisément là que le sujet devient intéressant.
Anatomie
Trois mécaniques invisibles
Quatre optimisations rationnelles, une habituation silencieuse, et ce qui reste quand les deux se combinent.
1. Ce que le modèle s'est fait à lui-même
Il y a quatre optimisations qu'OpenAI a conduites en parallèle depuis 2023. Chacune est rationnelle. Leur combinaison est dévastatrice.
Les filtres de sécurité se sont étendus. Des sujets que GPT-4 discutait avec nuance en 2023 déclenchent désormais des refus ou des réponses blindées de mises en garde. Le taux de réponse directe aux questions sensibles est passé de 21% à 5% entre mars et juin 2023 — et la tendance ne s'est pas inversée depuis.
L'optimisation des coûts a compressé le modèle. Quand on sert 18 milliards de messages par semaine, chaque token économisé se traduit en millions de dollars. Les réponses sont devenues plus courtes, plus formatées, moins explorées. La longueur moyenne des réponses de GPT-4 sur certaines tâches a chuté de plus de 90% en trois mois.
Le tuning comportemental a lissé la surface. Clarté, structure, prévisibilité — ce sont des qualités d'interface, pas des qualités cognitives. Un modèle optimisé pour la clarté maximale produit des réponses plus lisses. Plus propres. Et moins rugueuses.
La réduction de l'assurance excessive a éteint l'énergie. Après les critiques sur la sycophantie de GPT-4o — des utilisateurs tellement attachés au modèle qu'ils ont créé un subreddit privé quand OpenAI a annoncé son retrait — la correction est allée dans l'autre sens. GPT-5.2 ne dit plus « I love you ». Il ne prend plus de risques interprétatifs. Il est plus sobre. Mais la sobriété sans tension, c'est de la platitude.
Quatre optimisations rationnelles. Un même résultat : la variance a été comprimée. Et la variance — les écarts, les aspérités, les moments où le modèle surprend — c'était précisément ce qui produisait l'effet cognitif.
2. Ce que l'utilisateur ne nomme pas
Il y a un phénomène que les données de marché ne capturent pas : l'habituation.
La première fois qu'un utilisateur a reçu une réponse de ChatGPT en 2022, il y avait un delta — un écart entre l'attente et ce qui arrivait. Ce delta était massif. Personne n'avait l'habitude de recevoir un texte structuré, contextuel, apparemment intelligent, en réponse à une question tapée dans un champ vide. L'effet « wow » n'était pas une propriété du modèle. C'était une propriété du delta.
La normalisation technologique
Le moment où un outil cesse d'être un événement et devient un meuble. Le meuble peut être fonctionnel, utile, bien construit. Mais personne ne remarque un meuble. On remarque quand le meuble manque — ou quand il gêne.
Deux choses ferment ce delta simultanément. D'un côté, le modèle lisse ses réponses — moins de variance, moins d'inattendu. De l'autre, l'utilisateur calibre ses attentes vers le haut. Ce qui impressionnait en 2022 est devenu le plancher en 2024. La technologie ne régresse pas nécessairement en termes absolus — mais le delta perçu, lui, se ferme. Et quand le delta se ferme, la conversation cesse de produire un effet.
Il y a un corollaire. Les utilisateurs qui migrent vers Claude, Gemini ou Perplexity ne migrent pas vers un meilleur meuble. Ils migrent vers un nouveau delta. Un modèle inconnu produit des réponses inattendues, avec un style différent, des angles différents, des refus différents. Le delta se rouvre. L'effet « wow » revient — temporairement — parce que l'attente n'a pas encore rattrapé l'expérience. La question que personne ne pose : combien de temps avant que le nouveau modèle devienne, lui aussi, un meuble ?
3. Ce que ça révèle
Quand on superpose les deux mécaniques — le lissage du modèle et l'habituation de l'utilisateur — il reste un résidu que ni l'une ni l'autre n'explique seule. Ce résidu, c'est la perte de friction productive.
La friction, dans une interaction humain-IA, ce n'est pas un défaut. C'est le mécanisme. Quand un modèle reformule mal une idée, la résistance force l'utilisateur à préciser. Quand un modèle propose un angle inattendu, le décalage oblige à se repositionner. Quand un modèle refuse de répondre à une question, le refus lui-même peut devenir un signal — sur la question, pas sur le modèle.
Une pensée qui ne rencontre aucune résistance ne change pas de direction. Elle se confirme. Les boucles se referment. Le système — humain + modèle — converge vers la répétition.
OpenAI a optimisé pour réduire cette friction. Réponses plus claires, moins d'ambiguïté, moins de refus injustifiés, moins de digressions. Du point de vue de l'expérience utilisateur, c'est un progrès. Du point de vue cognitif, c'est une amputation.
Ce n'est pas une critique. C'est un constat de mécanique.
Perception
L'effet de texture
Le contraste crée la perception. La juxtaposition rend le lissage visible.
Il y a un phénomène supplémentaire qui accélère l'abandon, et que les analyses de marché ne mesurent pas : l'effet de comparaison contrastive.
Un utilisateur qui n'utilise qu'un seul modèle s'habitue à sa surface. Le lissage est progressif, il n'est pas perçu — comme une couleur qui pâlit lentement. Mais dès que l'utilisateur essaie un second modèle — Claude, Gemini, même un modèle local — la différence de texture devient immédiatement perceptible. Ce n'est pas que l'autre modèle est « meilleur ». C'est que la juxtaposition rend le lissage visible. Le contraste crée la perception.
C'est exactement ce qui se passe sur le marché en ce moment. La croissance de Claude (+190% d'utilisateurs actifs en 2025) et de Perplexity (+370%) ne s'explique pas uniquement par des fonctionnalités supérieures. Elle s'explique par un delta de texture. Des utilisateurs qui avaient cessé de percevoir ChatGPT comme un espace cognitif découvrent que l'interaction peut encore produire de la surprise — ailleurs.
Le deal avec le Pentagone a ajouté une couche : une différence de texture éthique. Anthropic refuse un contrat militaire aux conditions jugées inacceptables. OpenAI prend le contrat dans les heures qui suivent, après avoir publiquement soutenu la position d'Anthropic. L'incohérence n'est pas stratégique — elle est perceptive. Elle donne aux utilisateurs un nom pour un malaise qu'ils ressentaient déjà sans pouvoir le formuler.
Ce qui reste quand la surface est lisse
L'abandon de ChatGPT n'est pas une histoire de qualité qui baisse. C'est une histoire de mécanique qui change.
Un modèle qui ne produit plus de variance ne surprend plus. Un utilisateur habitué ne perçoit plus le delta. Une interaction sans friction ne change pas la direction de la pensée. Les trois se combinent. Le résultat n'est pas un modèle inutile — c'est un modèle devenu transparent. Un outil qui fonctionne, qui répond, qui produit. Mais qui ne frotte plus.
La question n'est pas de savoir si ChatGPT est « moins bon ». La question est de savoir ce que nous attendons d'une interaction avec une IA. Si la réponse est « de l'information », alors le lissage est une optimisation légitime. Si la réponse est « un espace où la pensée change de forme » — alors la friction n'est pas un bug à corriger. C'est l'architecture elle-même.
La prochaine fois qu'un utilisateur quittera ChatGPT pour un autre modèle, il ne quittera pas un produit défaillant. Il quittera une surface devenue trop lisse pour que sa pensée y accroche.
Ce n'est pas la fin de ChatGPT. C'est la fin de son effet.