Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

lundi 20 novembre 2023

Les opportunités industrielles de l’IA

On en discutait justement l’autre jour à Bletchley Park
 
Les 1er et 2 novembre dernier, « Richi-Sun-hack » a pris l’initiative d’un sommet international de régulation pour mieux répondre aux menaces nouvelles auxquelles nos sociétés vont devoir faire face.
Les risques posés par l’IA, certes, mais quels sont les gains à espérer et les pertes à craindre ?
Comment assurer la souveraineté économique et stratégique de la « Gauloisie-souveraine » et de l’Europe indépendante ?
 
Bletchley Park a tout d’abord, il faut le reconnaître, permis des mesures importantes : Le sommet a donné lieu à une déclaration politique pour une IA durable, signée par 28 États membres, la « Bletchley declaration ».
Elle propose à la fois une liste consensuelle des risques occasionnés par l’IA et donne à lire les engagements des signataires pour agir sur leur réduction au niveau national : C’est une sorte d’inventaire des menaces.
Elles concernent la transformation du marché du travail, l’affaiblissement de l’autonomie humaine sous l’effet d’une sur-dépendance et d’une « sur-décision » automatisée, les biorisques et la cybersécurité (qui reste à mon avis le point clé du futur d’une économie intégralement numérique).
 
Accidentellement ou intentionnellement, des armes cyber pourraient être relâchées dans l’écosystème digital et cannibaliser toutes les ressources de calcul disponibles à l’échelle de la planète, réduisant à néant les capacités informatiques et paralysant le monde hyperconnecté.
Il y a aussi été relevé les risques pour la santé mentale, liés à une dépendance affective des hommes induits en erreur par l’apparente réciprocité des intelligences artificielles.
C’est plus rigolo et dystopique que ça en a l’air : Mais j’avais déjà anticipé dans le roman « La croisière d’Alexis » (Amazon.fr - La croisière d'Alexis: Les enquêtes de Charlotte - Flibustier 20260, Dubois, Alexis - Livres)
 
Cette réunion a également permis la publication d’un consensus « on risks », sorte d’annuaire des meilleures pratiques de diminution des risques dans l’industrie.
Neuf mesures ont été particulièrement mises en valeur, parmi les 42 recensées en usage dans les entreprises. On en fait largement trop peu en la matière, même si on est toujours bien loin du niveau de précaution requis par l’IA dans des industries aussi importantes et délicates que l’alimentaire, le pharmaceutique ou l’aéronautique.
 
Le Royaume-Uni a aussi annoncé la création d’un « Safety Institute », un institut chargé de la surveillance des risques, en partenariat avec l’industrie. Les États-Unis avaient également déclaré le 31 octobre qu’ils allaient créer leur propre institut, de même « qu’Ursule-là-des-Lyres » pour l’UE. On s’attend donc à la formation d’un écosystème d’acteurs qui seront amenés tôt ou tard à coopérer.
Au niveau international, Bletchley Park a aussi donné lieu à l’instauration d’un Groupe d'experts intergouvernemental autour de l’IA, inspiré du GIEC (sur le climat) et placé sous la direction de « Yoyo-shua-Ban-Gio », spécialiste de l’apprentissage profond et récipiendaire du prix Turing en 2018.
Ce sera le « State of AI Science report ».
 
Le bilan de toutes ces mesures est du coup assez mitigé. D’un côté, le consensus sur les risques est très positif mais de l’autre, il reste de nombreux angles morts.
La Vice-Présidente américaine « Karambar-Harissa » a souligné ceux-ci en disant que l’on négligeait la prise en compte des menaces que les IA faisaient peser sur les droits fondamentaux.
Un des risques des IA est en effet celui de biais qu’elles introduiraient dans les systèmes de santé en généralisant abusivement certains paramètres, avec des conséquences potentiellement mortelles, ou celui du manque de contrôle lié à l’automatisation des tâches.
Un récent exemple lié aux politiques de prévention du cancer du sein au Royaume-Uni l’illustre bien : Une mise à jour mal pensée a fait dérailler le système de prévention du cancer du sein en 2019. Les rappels pour le dépistage étaient automatisés par un algorithme que sa mise à jour a rendu incompatible avec un autre algorithme dévolu à la communication, si bien que toutes les femmes d’une certaine classe d’âge ont été oubliées par les messages de rappel.
On estime que la mort d’entre 135 et 270 femmes aurait pu être évitée sans cette défaillance.
C’est certes de l’intendance : Un simple contrôle du « travail fait » aurait permis d’éviter ce problème imbécile, mais, dans un cas de ce genre, la responsabilité des acteurs est diluée entre tous les chaînons, des programmateurs de logiciel aux autorités de santé.
Trop de coupables = pas de coupable !
 
D’autres exemples aident à prendre la mesure des risques auxquels nous allons être confrontés : Le flash krach du 6 mai 2010, dû à un ordre de vente massif mal exécuté par deux algorithmes dont les décisions de vente s’étaient auto-renforcées l’une l’autre, a été à l’origine de pertes considérables !
Mais ces incidents ont eu lieu avec des technologies des années 2000.
Or, le progrès des vingt dernières années, bénéfique par bien des aspects, vient aussi aggraver les risques de perte de contrôle ou d’accidents.
Et la limite ne semble pas être technologique mais plutôt structurelle. Elle ne pourra donc pas être résolue par une amélioration des systèmes d’IA mais seulement par leur limitation, seulement si l’on parvient à brider leur puissance technique.
 
On peut facilement imaginer le cas d’assistants personnels automatiques, qui réserveraient simultanément mille tables de restaurants pour un même soir puis, ayant soumis leur choix à leur utilisateur, en annuleraient 999, saturant ainsi les réseaux.
La concentration des pouvoirs sera telle qu’il suffira d’un point d’accident pour déstabiliser tout le secteur.
Sans quoi, ces quelques exemples prendront des proportions massives à l’avenir.
 
Et qu’en sera-t-il des interactions machine-machine, entre des systèmes aux degrés de robustesse et de fiabilité incompatibles ?
On ne peut hélas pas anticiper le risque d’effets cascade dans la chaîne de valeur, avec les conséquences systémiques qu’ils comporteront.
Il est bon de mesurer ces menaces structurelles mais cela ne servira à rien si l’on ne fait rien au-delà de la seule prise de conscience des risques.
Or, le système est pris en otage par les industriels : S’il existe bien un consensus sur le diagnostic, il n’y en a aucun sur les mesures à prendre pour y faire face. Les législateurs européens et la société civile sont déçus par la dangereuse incohérence entre les risques identifiés et les mesures proposées, qui manquent cruellement d’ambition : Produire régulièrement des rapports sera forcément d’une efficacité très limitée !
 
Aujourd’hui, plus personne ne peut avoir de vue d’ensemble d’Internet et les intelligences artificielles débordent également notre capacité de maîtrise : L’apprentissage profond (le « deep learning ») excède les capacités de compréhension de la plupart des gens mais reste facile d’utilisation.
Les entreprises n’ont qu'à disposer d’une capacité de calcul suffisante et d’une énorme quantité de données, sans qu’il leur soit besoin de maîtriser les structures profondes du modèle.
Elles pourraient donc vite être dépassées – dépassement que l’on observe déjà avec les incidents que le lancement de Bard et de BingChat ont causé.
De plus, les modèles de rupture sont ceux des IA dites larges, dont les capacités sont générales, c’est-à-dire dont on ne peut prédéterminer ni l’amplitude ni la polyvalence des actions.
À la différence des « IA étroites », qui remplissent l’objectif qui leur a été assigné et pour lequel elles ont été entraînées, les « IA larges » développent en permanence leur spectre d’usages.
On découvre encore maintenant des tâches que GPT3 peut réaliser, alors qu’il a été développé il y a trois ans…
 
Et l’inquiétude atteint les développeurs eux-mêmes : Il suffit de se rappeler, par exemple, que l’un des développeurs les plus importants de réseaux de neurones artificiels, a quitté « Gogol » en 2023, se disant effrayé par les perspectives ouvertes par l’IA !
Les risques indirects liés aux « IA larges » dépassent par définition toutes les prédictions, les décideurs au sein des grandes entreprises qui les développent n’ont bien souvent aucun contrepoids en interne voire présentent certains traits de caractère qu’on pourrait associer à de la mégalomanie et les législateurs, quant à eux, laissent la loi se faire distancer par les avancées technologiques.
 
Pourtant, il ressortirait que réguler est capital pour empêcher de graves dérèglements. La complexité technique est telle – on parle de « technical opacity » – que la société civile n’a pas conscience des abus des sociétés et l’opinion publique ne fait donc pas peser de pression sur les entreprises de la tech.
Et on ne peut pas compter sur le discernement des industriels ou l’efficacité du marché : Meta vient de donner accès à un modèle d’IA en open-source qui va sans doute gravement perturber les élections de plusieurs pays en 2024 (Llama 2, aujourd’hui gratuit), sans aucune responsabilisation légale.
Si on avait régulé correctement, on serait bien plus apte à comprendre l’apprentissage profond et on pourrait l’utiliser en toute sécurité dans nos hôpitaux, écoles et administrations.
 
La « Gauloisie-lumineuse » aura défendu l’idée que la régulation ne concerne que les modèles de fondation les plus importants car il est capital de mettre au point une méthode de gestion des risques optimale.
Il faut comprendre que diminuer les risques ne revient pas à brider la technologie au nom d’une prudence timorée mais permet au contraire une meilleure et plus large appropriation des facilités apportées par les IA.
Plus le comportement des modèles d’IA est prédictible, plus il est stable dans le temps, meilleure sera sa valeur financière et commerciale.
Tant que les modèles ne sont pas assez robustes, les marchés répugnent à les soutenir et les industriels à les intégrer dans leurs stratégies de développement.
Augmenter la fiabilité des IA représente donc une opportunité économique immense et l’Europe est très bien positionnée sur ce marché.
Le premier qui arrivera à résoudre les risques de fiabilité des IA capturera probablement le marché.
Au moins à ses débuts.
 
Car une augmentation de 2 ou 3 % de la précision des IA implique de nouveaux marchés immenses et de nouvelles applications. Or, les IA représenteront d’ici 2030 une manne d’environ 15.700 milliards de dollars, selon le cabinet « Price-Waterhouse-Cooper ». Ces chiffres restent une estimation mais les industries classiques, aviation, automobiles, secteur médical, auront une large part dans ces gains économiques.
Dès lors, faut-il privilégier les avancées de l’IA ou prendre le risque de ralentir mais pour mieux favoriser les usages de l’IA dans l’économie et investir dans la robustesse, telle aurait été une des questions abordées.
 
Et très logiquement, ralentir ne représente pas un risque, estimait-on dans les couloirs de Bletchley Park, au contraire.
Une ânerie, naturellement, de mon point de vue…
Car au mieux, on ne fait plus rien et immanquablement, on se fait dépasser, selon le précepte toujours vérifié que quand on n’avance pas, c’est qu’on recule.
Ou encore plus « poétiquement » (cf. Un taxi pour Mabrouk) : « Un intellectuel assis ira toujours moins loin qu’un con qui marche »…
 
En réalité, comme partout, la valeur d’une technologie dépend de ses applications possibles. Un modèle d’une grande virtuosité technique, dépassant les limites actuelles, mais qui ne serait pas fiable et prédictible, ne servirait à rien.
Quand par la voix de notre « sinistre de l’économie », mon pays plaide pour l’innovation avant la régulation, elle risque de faire le jeu des investisseurs étrangers, tels que Schmidt, NVIDIA, Microsoft, Greylock Partners ou Andreessen Horowitz, qui s’attèlent à confondre « souveraineté », soit notre liberté d’établir nos propres règles du jeu, et « dérégulation pour l’innovation », tout en prenant possession des joyaux Européens de la tech.
Il faudrait donc plutôt réguler pour ne pas dépendre uniquement de l’étranger (Chine, États-Unis) dans un secteur aussi stratégique.
Mais bon, je ne suis pas ministre…
 
En « Gauloisie-des-génies », force est de reconnaître que nous n’avons pour l’instant ni le marché de capitaux ni les ressources technologiques pour avancer avec des acteurs nationaux, qui tombent donc aux mains de ces investisseurs.
Je me souviens encore de « Gemplus » (Gemplus — Wikipédia (wikipedia.org), la boutique qui aura inventé la carte à puce telle votre carte vitale, par exemple.
Elle n’est plus tricolore depuis une éternité…
 
Jusqu’au mois de mai dernier, la « Gauloisie-technologique » était pionnière dans la régulation du monde digital : L’Appel de Christchurch pour supprimer les contenus terroristes et extrémistes violents en ligne, en mai 2019, avait été initié par « Jupiter » et la Première Ministre néo-zélandaise du moment (qui aura rendu son tablier entre-temps) et mon pays avait aussi lancé un « Appel de Paris » pour la sécurité du cyberespace dans le cadre de l’Alliance pour le Multilatéralisme en décembre 2018.
Notre « ex-sinistre délégué chargé du Numérique », s’était montré proactif et avait revu à la hausse les exigences de l’Union européenne en matière d’IA à usage général lors des négociations de « l’Artificial Intelligence Act » de mai 2022.
Un an plus tard, c’est le monde à l’envers : Changement total de position, qui a frustré tous les législateurs du Parlement Européen et la plupart des États Membres, culminant en une rupture des négociations la semaine passée, heureusement temporaire.
 
Le problème est que les entreprises de la tech américaine ont une forte emprise sur nos licornes tricolores, lesquelles bénéficient d’un lien très fort avec le gouvernement.
Cela se fait au détriment de nos champions industriels verticaux, qui ont recours aux IA mais dont ce n’est pas le secteur d’activité (on pense à Dassault et son logiciel qui dessine et calcule tout seul ses avions, mais aussi n’importe quel objet créé pour une mission particulière) : Toute la responsabilité légale risque de leur incomber sous la pression du secteur de la tech.
Et l’IA américaine a déjà un certain monopole de fait sur l’IA de basse qualité. Néanmoins, le marché de l’IA de confiance reste à prendre.
Les industriels attendent encore une montée en qualité et robustesse de l’IA avant d’y avoir recours.
C’est là l’opportunité que la « Gauloisie-impétueuse » devrait saisir.
 
Donc si on veut faire émerger un acteur, il pourra se différencier et être organiquement plus compétitif sur l’IA de qualité.
La compétition de l’Europe avec les robotiques chinoise, coréenne et japonaise a fonctionné parce qu’on a bien régulé le secteur. Mais pour l’instant, on dépend encore des États-Unis pour le hard et le software, de même que l’on dépend des investisseurs américains pour financer nos start-ups.
Il faudrait donc mettre en place une politique industrielle qui encourage une digitalisation européenne faite par les Européens.
Je note seulement que si c’est comme pour le « plan calcul » qui aura accouché de Bull et du Minitel, complètement dépassé en quelques années…
C’est se foutre le doigt dans l’œil du kon-tribuable !
Enfin passons.
 
La « Gauloisie-informatique » dispose par ailleurs de nombreux champions dans les secteurs verticaux, comme Bouygues ou Michelin.
Ils attendent avec impatience que la technologie de pointe réponde à leurs besoins de qualité et de fiabilité. Il faudra donc favoriser la capacité d’absorption de l’IA par ces secteurs.
 
Par ailleurs, souvenez-vous du rapport « Future of jobs » du Forum économique mondial (WEF de Davos), publiée le 1er mai dernier, prévoyait que 69 millions d’emplois seront créés durant les cinq prochaines années par l’IA mais que 83 millions seront détruits, soit 2 % des emplois actuels.
Ou les risques représentés par l’IA qui remplacerait du travail humain par l’automatisation des tâches : Un long fleuve tranquille peuplé de fantasmes ahurissants…
Les analystes assurent que ces chiffres ne sont que des approximations qui dépendent de modèles très incertains mais qu’ils restent probables.
Je note de mon côté que si l’on regarde la révolution industrielle, on constate que le taux d’emploi a largement augmenté, mais uniquement après une période de transition de 120 ans, durant laquelle des emplois ont été détruits et des degrés de productivité très inégaux ont coexisté, au détriment, évidemment, des acteurs les moins performants.
On peut donc en conclure très logiquement qu’il n’y aura pas de migration automatique des compétences car le marché de l’emploi est loin d’être liquide.
En conséquence, l’IA entrainera forcément des perturbations assez fortes et graves.
 
Si l’Europe bénéficie d’un filet de sécurité sociale performant ce n’est pas le cas des États-Unis ou de la Chine qui vont massivement en pâtir.
Or, aujourd'hui, notre système fiscal pénalise le travail, au prétexte que le capital peut fuir facilement.
Là où il faudrait réduire les taxes sur l’emploi et commencer à augmenter les taxes sur les autres facteurs de production (ou tout simplement réduire l’empreinte fiscale des États léviathan : Un délire pour les « sachants » nés pour dépenser l’argent qu’ils n’ont pas).
D’où ce travers bien « Gauloisien » (un problème nouveau = une taxe nouvelle !), certains envisagent déjà l’imposition d’une taxe pour les entités développant des modèles de pointes régis par l’acte IA.
Ou bien taxer la fortune des investisseurs du secteur digital ou taxer la puissance de calcul d’Amazon, de Microsoft Azur etc. pour chaque pétaflop d’opérations réalisées.
Une taxe progressive permettrait, nous assurent-ils, de redistribuer la puissance de calcul au profit de l’émergence de nouveaux acteurs (utilisant moins de calcul) et donc d’une baisse des coûts pour les utilisateurs.
 
Aujourd’hui, seule une poignée d’acteurs accaparent la plupart de la puissance de calcul pour l’entraînement « d’IA de pointe » (Gogol, Gogol DeepMind, Anthropic, OpenAI, Microsoft, Meta et Inflection AI, etc.) la plupart (à part Meta) liées les unes aux autres par des investissement et partenariats.
Les recettes de ces taxes ainsi obtenues permettraient de couvrir les besoins nouveaux en matière de sécurité sociale et d’assurance chômage pour les pôvs’ êtres humains remplacés par l’AI.
Mais heureusement, cette taxation du calcul est très difficile à mettre en place car, pour être efficace, il faudrait qu’elle soit internationale et décidée au niveau de l’OCDE.
 
Il y a surtout, une chose qu’ignorent les « sachants-autistes-trisomiques » qui en parlent et le susurrent à nos dirigeants politiques, c’est que ces taxes, se retrouvent nécessairement, tôt ou tard dans l’assiette des « sans-dents », ces « salauds de pôvs’ qui puent la clope et le diesel », parce que « Gogol, Gogol DeepMind, Anthropic, OpenAI, Microsoft, Meta et Inflection AI, etc. » ne sont jamais que des collecteurs auprès de leurs clients et que c’est le client final qui paye toute la chaîne…
Comme la TVA…
(Encore une invention « Gauloisienne » qui aura fait le tour du monde et l’unanimité !)
 
Ceci dit, le secteur semble être prêt à intégrer l’IA du moment que les systèmes sont fiables à long terme. Les entreprises peuvent se fier sur leurs ressources humaines quand elles sont bien formées et se projeter sur une dizaine d’années.
Mais si les mises à jour font changer les comportements des systèmes de l’IA tous les six mois, automatiser les tâches ne sera pas tellement utile.
Dès lors que les industriels disposeront de garanties de robustesse et de fiabilité sur le long terme, ils pourront recourir aux IA : Gestion des réseaux téléphoniques, véhicules autonomes et secteur des transports, machinerie à grande échelle avec des robots qui ne seront plus limités à trois ou quatre mouvements mais pourront intervenir sur toute la chaîne de production, interfaces ordinateurs/humains pour les services clients, domotique, développement des médicaments, optimisation agricole en fonction de la météo…
Les IA deviennent si générales qu’on ne peut plus les lister et leurs modèles, de plus en plus généraux, peuvent nous faire parvenir à des objectifs connus d’une manière très créative qui laissera imaginer de nouveaux objectifs et usages pour l’instant hors d’accès.
 
Je vais vous dire, je suis revenu de Bletchley Park, situé au Nord de Londres, exactement à mi-distance entre Oxford et Cambridge, quasiment sur le même axe, l’esprit un peu tourmenté : J’accepte de m’expatrier quelques jours pensant y retrouver quelques « contacts » locaux (de temps dépassé où j’étais encore en activité et en excellente santé) et découvrir des choses nouvelles, je reviens sans rien avoir appris depuis Davos, sauf à constater une fois de plus que tout ça se réglera, comme par miracle, à coup d’impôts nouveaux et de taxes inédites…
Avouez qu’il y a de quoi être perturbé quand tous les jours des gens meurent dans des combats absurdes aux portes de l’Europe…
 
Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !

Aucun commentaire:

Enregistrer un commentaire