Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

lundi 15 mai 2023

Quand les pionniers renient leur création.

 Il s’est repenti et quitte « Gogol »…
…pour alerter sur les risques que fait peser l’IA sur le futur.
 
Marrante, comme attitude. D’autant, mais ce sera l’objet d’un autre billet, que « Gogol » riposte à sa façon…
Pour l’heure, ça me fait penser à ces « trouveurs » capables d’imaginer des armes atomiques pour gagner la paix et qui nous ont plongé dans la terreur d’un « hiver nucléaire » de fin du monde.
On y est encore, d’ailleurs…
Notez que, si ça n’avait pas été eux les premiers, ç’aurait pu être d’autres pas vraiment meilleurs et, sauf le cours de la seconde guerre mondiale qui aurait pu en être changé si les « chercheurs nazis » avaient été plus rapides, nous n’aurions rien pu empêcher quant aux menaces de destructions massives !
Donc, hein, ce qui est fait est fait, et il n’y a plus à y revenir.
 
C’est donc Geoffrey Hinton, un des pionniers de l’intelligence artificielle, qui aura démissionné ce lundi 1er mai de chez « Gogol » après 10 ans au service du géant américain.
Dans une interview accordée au New-York Times, il révèle être parti pour parler librement de l’IA générative comme « Chat-J’ai-pété », sans que cela n’impacte l’entreprise : Quelle loyauté !
Il y exprime ses regrets concernant son implication dans le développement de cette dernière et se console tant bien que mal « avec cette excuse commune : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait ».
Bé oui, c’est banane de dire ça…
 
Diplômé en psychologie expérimentale et docteur en intelligence artificielle, ce Londonien a consacré toute sa vie à la recherche dans l’IA.
Que ce soit en tant que chercheur à Carnegie Mellon, à l’université de Toronto ou chez « Gogol » qu’il a rejoint en intégrant l’équipe « Gogol-Brain » en 2013, il a surtout développé des réseaux de neurones « artificiels », systèmes mathématiques qui apprennent de nouvelles compétences en analysant les données auxquelles ils ont accès.
Apprendre à la machine à apprendre, c’est astucieux, mais ça peut mener à n’importe quoi.
 
D’ailleurs, en 2018, il obtient le « prix Turing » pour ces réseaux qu’il a créés. Considéré comme une figure majeure dans le domaine de l’IA, il a inspiré les travaux d’autres « petits-génies » d’algorithme tel que Yann Le Cun et de Yoshua Bengio.
Je ne connais pas, mais on m’a dit de le dire que ça fait plus intelligent…
 
Et c’est pour revenir sur les dangers de l’IA, son bébé, qui représenterait selon lui « de graves risques pour la société et l’humanité », explique-t-il dans son interview.
Tout d’abord, la compétition entre grands géants de la Tech a engendré des progrès que personne n’aurait pu imaginer, selon lui.
À mon sens, il est bien niais : On sait que les capacité des puces, par exemple double tous les 2 ans (la loi Moore), alors les programmes qui vont dessus, encore plus vite si on utilise des architectures en parallèle.
Passons…
 
La vitesse à laquelle les avancées s’enchaînent a dépassé les attentes des scientifiques : « Seule une poignée de gens croyait à l’idée que cette technologie puisse effectivement devenir plus intelligente que les humains (…) et je pensais moi-même que ce serait (…) le cas d’ici 30 à 50 ans, ou même plus. Évidemment, je ne pense plus ça. »
Ah bon ?
Parce que lui sait ce qu’est l’intelligence[1] ?
La dernière définition d’un peu élaborée que j’ai entendue doit dater de plusieurs millénaires. Ce serait tout simplement la « capacité de saisir une chose par la pensée ».
Comme une machine ne pense pas, elle turbine jusqu’à ce que tu lui coupes le courant, elle reste konne pour une éternité.
Mais la meilleure définition serait plutôt d’être capable « d’établir un lien (logique) nouveau entre deux concepts nouveaux ».
Et là, la machine est capable d’en faire des milliards en quelques minutes si elle est bien programmée.
Mais combien d’utile au final ?
Parce qu’il faut aussi qu’elle soit capable de faire des tris, et là, c’est le programmeur (100 % bio-naturelle) qui va user de son propre intellect pour faire trier le bon grain de l’ivraie par la machine…
 
Bref, jusqu’à l’année dernière, il n’estimait pas ces progrès dangereux, mais son point de vue a changé lorsque « Gogol » et « OpenAI » ont développé des systèmes neuronaux capables de traiter des quantités de données très importantes, et pouvant rendre ces systèmes plus performants que le cerveau humain, et donc très dangereux.
Ah, parce que seul le cerveau humain ne serait pas dangereux ?
J’avoue que j’en reste un peu perplexe vu tout ce qu’il a su inventer pour faire caguer son voisin depuis une éternité…
Repassons…
 
D’un point de vue économique, il craint surtout que cette technologie puisse drastiquement perturber le marché du travail : « L’IA supprime le travail pénible », a-t-il déclaré, avant d’ajouter qu’« elle pourrait supprimer bien plus que cela », touchant notamment les traducteurs et les assistants personnels.
Une suppression d’emploi qui n’épargnera pas les plus « intelligents », malgré ce que beaucoup pense, estimant être à l’abri.
C’est une contradiction : L’IA ne supprime pas les travaux pénibles, loin de là, et on a des machines pour ça. Et encore : Parmi les « métiers essentiels », on a découvert que « poubelleur » ne pouvait pas vraiment être remplacé par l’IA…
Quoique j’ai déjà vu, à l’étranger, des solutions plus faciles…
Quant à ma secrétaire ou mon interprète, franchement, l’IA ne sera toujours pas capable de me faire couler un café, même si elle saura mieux que quiconque corriger mes « fautes de claviers » (ce qui est déjà le cas…, même si je relis après coup !)
 
Celui qui a été le professeur de l’actuel directeur scientifique d’OpenAI, juge que les progrès technologiques sont trop rapides, comparés aux moyens dont nous disposons pour réguler l’usage de l’IA : « Je ne pense pas qu’il faille l’accélérer tant qu’on n'a pas compris si on pouvait la contrôler », affirme-t-il.
Là, il me fait penser à ses anglais terrifiés par l’apparition de la voiture sans cheval, qui exigeaient qu’un piéton armé de drapeaux chemine devant le véhicule pour prévenir le passant du danger de la machine !
Lui craint que des versions futures deviennent des « menaces pour l’humanité ».
Hawkins, l’astrophysicien britannique cloué dans son fauteuil par la maladie de Charcot aussi, disait ça.
Et « Élan-Must » a été parmi ceux qui demandaient un moratoire sur les travaux autour de l’IA.
Bé voyons, mon coco : Moratoire pour tous, sauf pour quelques-uns, histoire de prendre quelques métros d’avance !!!
Non ?
 
Selon lui, les futures IA seraient capables de développer des comportements inattendus après avoir analysé un grand nombre de données.
Ceci est rendu possible car les systèmes d’IA génèrent leur propre code et le dirigent… ce qui pourrait les transformer en « armes autonomes » et « robots meurtriers », même si de nombreux experts relativisent cette menace.
Tout de suite le pire… là où je me souviens d’avoir vu un robot japonais éviter à un gamin de se faire écraser par un rayonnage qui s’effondrait soudainement sans qu’on ne lui demande rien…
Moâ aussi, je relativise : Tu lui coupes le jus électrique, et tout s’arrête…
 
Mais selon lui, la menace viendrait aussi du mauvais usage de l’IA par des acteurs dangereux.
L’IA devenue « arme par destination » comme une vulgaire cannette dans un stade ou sur une barricade : On n’empêchera jamais un couteau de couper même de la bidoche !
Il est « difficile de trouver comment empêcher les mauvais acteurs de l’utiliser pour des fins malveillantes », s’inquiète-t-il. Pour sûr… mais pas que.
Il est notamment opposé à l’usage de l'intelligence artificielle dans le domaine militaire : Il craint particulièrement le développement de « soldats robots » par les humains.
Dans les années 1980, il avait même décidé de quitter l’université de Carnegie Mellon, aux États-Unis, parce que ses recherches y étaient financées par le Pentagone.
Quel kon…
Quand les russes nous enverront des robots tueurs pour avoir massacré tous leurs soldats, on aura l’air fin d’aller sacrifier nos biffins…
Enfin passons : Ce n’est pas demain la veille !
 
Dernière menace, et pas des moindres : Celle de la désinformation liée à l’IA.
Cette effervescence scientifique, adjointe à l’utilisation massive de l’IA, rendra presque impossible la capacité à discerner « ce qui est vrai de ce qui ne l’est plus ».
Le scientifique parle même de « générateur de conneries ».
Une expression qui désigne la capacité de l’IA à produire, de manière persuasive, des déclarations qui semblent plausibles sans pour autant être vraies.
Euh… d’abord on n’a pas besoin de l’IA pour faire ça, ensuite on a parfois exactement l’inverse : Une information vraie, mais tellement aberrante qu’elle n’est pas prise au sérieux, pas relayée, pas analysée et vite oubliée…
 
Et puis quelle solution ?
Il préconise une régulation interplanétaire, mais il reste tout de même lucide : « Cela risque d’être impossible (…). Tout comme pour les armes nucléaires, il n’y a aucun moyen pour savoir si les compagnies ou les pays y travaillent en secret.
Le seul espoir est que les plus grands scientifiques du monde travaillent main dans la main afin de trouver des solutions pour contrôler (l’IA). »
Un grand rêveur, quoi…
 
Moâ je reste inquiet : Si même les « cerveaux » se mettent à réclamer des « réglementations » de leurs propres activités, vous pouvez être sûrs qu’on ira vers le conflit, la resquille, la fraude…
Je ne comprends toujours pas pourquoi nos « sachants » ne font pas confiance à la nature humaine (qui est capable du pire comme du meilleur) : Si l’IA doit se développer, elle ira vers ce qui restera le plus facile et le plus lucratif pour améliorer le confort du plus grand nombre, me semble-t-il.
Il y a probablement plein d’inventions et de créations qui sont restées lettre-morte car n’ayant pas trouvé leur public (leur marché diront les économistes) et ont sombré dans l’oubli par la force des choses…
Il en sera de même pour les « applicatifs » de l’IA à venir.
Rien d’alarmant…
 
Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !


[1] Nous on parle d’intelligence au sens de « l’intellect », eux parlent d’information, de renseignement, de coopération…

Aucun commentaire:

Enregistrer un commentaire