Et si on se posait enfin la bonne question ?
Les gens s’inquiètent et on fait tout pour les stresser et les angoisser : Le management par la peur…
Mais c’est passer à côté de l’essentiel. Car, il est probable que loin de remplacer tous les cols blancs, les IA vont seulement modifier le rôle dévolu à chacun, ce qui devrait mobiliser l’enseignement dès maintenant pour apprendre aux plus jeunes à devenir des opérateurs de l’abondance de temps rendu aux travailleurs.
Et pour l’heure, ce sont ceux qui sont fraîchement diplômés de formations « Plus-plus » qui en font les frais : L’IA les aura remplacés et il faut qu’ils inventent de nouveaux métiers pour survivre…
Ce n’est pas le discours entendu diffusé par les prophètes des malheurs d’autrui.
Car quelques jours plus tôt, des économistes d’Anthropic publiaient des données empiriques racontant une histoire bien plus nuancée.
Entre ces deux lectures, finalement une question demeure non encore tranchée : Dans un monde où la machine produit instantanément, abondamment, et souvent convenablement, qu’est-ce que l’humain doit impérativement conserver comme capacité propre pour garder sa place centrale dans le monde de demain ?
Car l’humain reste central : Sans ça il n’aurait pas développé autant de technologies pour son propre confort !
Un débat bien de l’époque anxiogène.
Jensen Huang utilise une formule a priori séduisante selon laquelle l’IA génère des réponses en temps réel, contextualisées et d’une plausibilité souvent confondante. En quelques secondes, elle produit un projet de conclusions judiciaires, une synthèse bibliographique, une analyse de risques, un plan de cours, etc.
C’est techniquement exact.
Et il ne faut pas oublier que le gars vend aussi sa soupe…
Mais cette exactitude masque une ambiguïté fondamentale : Produire ne signifie pas valoir.
Il faut aussi pouvoir produire et livrer une valeur marchande là où elle est attendue au moment où elle est attendue, à un utilisateur solvable qui en a besoin pour progresser…
Dans quel contexte ?
Avec quelles conséquences si l’on se trompe ?
Et comment je me fais payer en retour … ?
Or, à ces questions, le modèle ne répond pas, parce qu’elle exige une forme de connaissance qualifiée par d’autre de « tacite », qui n’est pas formulée, tel un savoir qui vit dans la mémoire des situations, dans l’expérience accumulée des erreurs, dans la lecture des rapports de force d’une organisation, dans la sensibilité aux attentes implicites d’une région, d’une ville, d’un comité, d’une population ou d’une époque.
Tout ce « savoir-là » ne se met pas dans un prompt, parce qu’il n’est pas de l’ordre de ce qui peut être intégralement formulé, et qu’il résiste, par nature, à toute tentative de formalisation complète.
Et surtout, les auteurs constatent une corrélation quasi parfaite entre la sophistication de la question posée et la qualité de la réponse obtenue.
Et je confirme : Je vous ai même retracé ma petite expérience personnelle avec « Cap-Gémini-mini » de « Gogol »… où c’est moâ qui donnait les bonnes réponses comme dans le temps à mes étudiants dans leurs épreuves orales (seulement, à l’écrit je ne pouvais pas) de « fiscalité avancée »…
C’est pourquoi je n’utilise plus : Mes recherches, je suis capable de les faire tout seul…
Mais c’est donc l’abondance de réponses que génère l’IA qui n’est pas une ressource libre d’accès : Elle est conditionnée par la compétence de celui qui la sollicite !
Ce n’est même pas une loi technique, c’est une loi cognitive.
Ce n’est ni le programmeur de modèles ni l’utilisateur passif : C’est quelqu’un qui sait formuler un problème en termes exploitables par un modèle, évaluer la pertinence et la fiabilité d’un output, d’une réponse, injecter le contexte que la machine ne peut pas avoir et assumer la responsabilité d’une décision fondée en partie sur des suggestions qu’il n’a pas lui-même générées !
Elle suppose aussi d’avoir fait l’expérience de se tromper et d’avoir appris à détecter pourquoi.
En un mot, elle suppose d’avoir été exposé à la difficulté des tâches que l’on délègue désormais, avant de les déléguer.
La première dépasse 90 % dans les professions juridiques, financières et managériales. La seconde est bien inférieure, pour des raisons légales, organisationnelles, institutionnelles. Mais l’écart se réduit.
Et par conséquent, le signe avant-coureur le plus inquiétant n’est pas le chômage : C’est le ralentissement du recrutement des jeunes diplômés (22-25 ans), les « juniors » coupeurs de citron, dans les professions les plus exposées que j’évoquais en début de ce billet.
Les entreprises n’embauchent plus autant de juniors pour des tâches que l’IA fait désormais plus vite et moins cher qu’eux.
Ce n’est pas que l’IA supprime des postes, elle contracte plutôt les flux d’entrée dans les professions qualifiées, privant une génération de ce qu’on appelait dans le temps le « learning by doing », ce processus lent et irremplaçable par lequel on devient capable de superviser ce qu’on n’a pas encore tout à fait compris.
En fait, « blanchir sous le harnais », la meilleure ékole dans toutes les activités humaines (chevalines & bovines)…
On délègue la rédaction sans avoir appris à rédiger.
On valide des réponses, des outputs sans avoir développé la compétence critique qui permettrait de détecter ce que l’IA fait mal, ses angles morts, sa tendance à produire du plausible, là où il faudrait du vrai.
Et cette « délégation aveugle » n’est pas une fatalité technologique, elle est le produit d’une augmentation passive, une délégation sans réinvestissement dans des compétences de niveau supérieur.
Ils naviguent, rédigent, exécutent du code, orchestrent d’autres agents, prennent des décisions intermédiaires dans des chaînes d’action qui s’étalent sur des heures sans intervention humaine.
Notre le PDG de Nvidia l’aura annoncé au GTC 2026 en déclarant que dans dix ans, chaque employé humain travaillera aux côtés de cent agents IA.
Le chiffre est peut-être excessif, ou au contraire insuffisant, mais la tendance ne l’est sûrement pas.
Avec l’IA agentique, cette boucle peut se fermer en interne : L’opérateur de « l’abondance » doit alors devenir ce qu’on pourrait appeler un « architecte d’objectifs ».
La question ne sera plus « est-ce que ce texte est bon ? » mais « cet agent a-t-il bien compris ce que je voulais, et ses cinquante actions intermédiaires étaient-elles toutes légitimes ? »
La surveillance humaine est donc la plus nécessaire là où elle est la plus difficile à exercer. Et elle est impossible pour qui n’a jamais eu à faire ce qu’il supervise.
Aussi la thèse de Jensen Huang n’est pas fausse, mais elle est peut-être incomplète : Le déploiement de l’IA génère certes de l’emploi dans les secteurs de l’infrastructure physique, mais, comme les réseaux électriques du début du XXème siècle, une infrastructure ne s’irrigue pas équitablement par la seule vertu du marché au XXIème siècle.
Et surtout, elle ne dit rien des effets sur les trajectoires d’apprentissage des professions intellectuelles.
Cette tâche revient en premier lieu aux institutions d’enseignement supérieur, et elle est urgente, parce que la contraction des flux d’entrée des jeunes dans les métiers exposés laisse peu de temps avant que l’apprentissage ne soit structurellement impossible.
Car ce que l’IA ne peut pas faire à notre place, c’est précisément de décider que tel output vaut quelque chose, dans ce contexte, pour cette personne, avec ces enjeux et cette solvabilité-là.
Ce jugement n’est pas une technique : C’est une forme de responsabilité et elle reste irréductiblement humaine.
Car la machine ne pourra jamais assumer la responsabilité de ses propres outputs…
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
Aucun commentaire:
Enregistrer un commentaire