Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

mardi 6 juin 2023

Dangereuse, l’Intelligence artificielle…

Pas plus que le « Conard-virus » !
 
Naturellement, il n’est pas question de mettre sur le même plan un danger biologique et un danger technologique, mais il correspond à cette tendance mondiale qui consiste à faire trembler de peur les bonnes « âmes » : Quand ce n’est pas l’islamisme radical et le risque d’attentat, c’est le réchauffement du climat ou le harcèlement de vos mômes ou de vos femmes hors des chez eux, alors pourquoi pas l’IA, n’est-ce pas ?
Une vraie maladie…
 
Après la récente alerte des experts sur le « risque d’extinction » de l’humanité à cause de l’intelligence artificielle (IA), l’un de ses « pères » a exprimé des propos ressemblant à des regrets par rapport à la technologie.
Il a déclaré qu’il aurait dû prioriser la sécurité avant l’utilité, s’il avait pu anticiper à quelle vitesse elle a évolué.
Et naturellement, c’est relayé partout autour de la planète…
Quelle ironie !
Que j’en rigole encore…
 
Car je trouve ça honteux : À l’heure actuelle, l’IA parvient à effectuer des tâches toujours plus complexes, dont de nombreuses que seul l’humain pouvait effectuer il y a seulement quelques années. La technologie est devenue d’une telle polyvalence qu’elle s’applique aujourd’hui à presque tous les domaines.
Et naturellement, cette intégration suscite inévitablement des questions sur l’éthique et la sécurité.
Ainsi Bengio rejoint Geoffrey Hinton, tous deux pionniers de l’IA et l’un ancien employé de Google, dans ses avis quant aux dangers que pourrait représenter la technologie pour l’humanité.
Rien de moins !
Avant de quitter l’entreprise, Hinton a déclaré que l’on se situe aujourd’hui à une époque charnière quant aux avancées de l’IA.
Ouh là ! J’en tremble de toute part…
 
Du coup, ils sont toujours plus nombreux, experts du domaine, journalistes spécialisés, « décideurs » et « influenceurs » du grand public qui expriment leurs inquiétudes.
Dans une lettre ouverte du Center of IA Safety, une sorte de pétition vise à ouvrir une discussion à l’international pour une proposition de moratoire visant les entreprises œuvrant dans le domaine.
Elle vise également, en faisant son « auto-publicité » relayée par les médias complaisants (et payés pour ça) à révéler au monde le nombre croissant de personnalités publiques et d’experts considérant très sérieusement les dangers liés à l’IA.
Ils avaient fait la même chose pour la couche d’ozone et ensuite le GIEC…
 
Selon cette pétition : « L’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».
Ah bé oui : On avait eu, là encore, exactement le même chose avec le nucléaire civil, que les « écololos » ont tenté d’interdire à une époque, et du nucléaire militaire qui aura abouti à quelques traités internationaux de limitation de la « course aux armements », avec les résultats que l’on connaît.
Ces deux-là font partie des signataires parmi de grandes personnalités telles que Bill Gates (l’inventeur de la calculette Windows, qui connaît tous les résultats de toutes les opérations mathématiques de l’univers) et les PDG d’OpenAI et de DeepMind.
Sam Altman, le PDG d’OpenAI, et Demis Hassabis, PDG de Google DeepMind, comptent également parmi les premiers signataires — alors que leurs sociétés respectives sont à l’origine d’IA parmi les plus performantes à ce jour, ChatGPT et Bard.
 
Geoffrey Hinton, est un « chercheur/trouveur » canadien dont les travaux sur les réseaux de neurones artificiels et le deep learning constituent les fondements de l’IA, est le premier signataire de la liste. Il a récemment annoncé sa démission de Google, pour pouvoir « s’exprimer librement sur les risques de l’IA ».
De son côté, l’Union européenne projette déjà d’établir une législation sur l’IA, impliquant des codes de conduite pour les entreprises et les personnes qui l’utiliseront dans les prochaines années.
Vraiment du grand n’importe quoi : Comme si on pouvait réglementer la créativité d’un cerveau humain…
 
Bengio s’inquiète lui plus particulièrement de la capacité de calcul avancé de l’IA, qui pourrait être utilisée à des fins militaires ou terroristes.
Comme si ce n’était déjà pas le cas…
Elle pourrait par exemple aider des acteurs mal intentionnés à développer des armes chimiques mortelles, comme si ça n’existait pas déjà…
« S’il est facile de programmer ces systèmes d’IA pour leur demander de faire quelque chose de très mauvais, cela pourrait être très dangereux. S’ils sont plus intelligents que nous, alors il nous est difficile d’arrêter ces systèmes ou de prévenir les dommages », s’inquiète-t-il.
Notez que « programmer » des ahuris pour parvenir au paradis d’Allah en faisant la guerre sainte tous azimuts, c’est sûr que ça n’a rien de dangereux…
L’IA pourrait aussi alimenter les régimes oppressifs, en entravant des droits humains fondamentaux tels que la liberté individuelle, comme si nos dictateurs et leurs régimes autoritaires n’y parvenaient pas déjà…
Vraiment, parfois j’ai l’impression d’être pris pour un kon !
 
L’expert aurait admis que ces préoccupations l’affectaient personnellement, le développement des premiers systèmes d’IA étant l’exploit de sa vie. Sa confusion serait palpable nous affirme-t-on, les longues années de travail dont les retombées lui ont conféré beaucoup de fierté et un sentiment d’identité, semblent aujourd’hui se retourner contre lui. « C’est un défi, émotionnellement parlant, pour les personnes du secteur. On pourrait dire que je me sens perdu », a-t-il affirmé.
Pov’ chéri !
On peut dire que l’intelligence artificielle a connu des progrès fulgurants ces dernières années et se développe actuellement à une vitesse qui les préoccupe tous.
Les IA génératives (Dall-E, MidJourney, ChatGPT, Bard, etc.) peuvent désormais être utilisées couramment par le grand public.
Il suffit de constater que l’IA inonde déjà internet de désinformation, un risque que certains considèrent comme étant immédiat ou à court terme.
L’inaccessibilité aux informations véridiques pourrait déstabiliser la société et impacter négativement la prise de décision collective.
Comme si les hackeurs et les Trolls russes n’ont jamais eu d’influence sur l’élection de « McDo-Trompe » !
 
À ces risques s’ajoutent les impacts économiques et les crises sociales que la technologie pourrait engendrer, de nombreuses entreprises l’adoptant déjà pour travailler à la place des salariés et occuper même des postes de hauts responsables !
J’en rigole encore : Quand mettra-t-on en prison une IA responsable d’un délit ou d’un accident mortel ?
N’est-ce pas la quintessence de la responsabilité, que d’être privé de liberté pour protéger ses semblables ?
D’ailleurs, pourra-t-on emprisonner une IA ou ne suffira-t-il pas de la débrancher ?
Une IA britannique a bien débranché son « pilote » qui la contrariait lors d’un exercice militaire…
 
Une dépendance des humains à l’IA serait également à prévoir, surtout si ces systèmes se perfectionnent au point de nous surpasser dans la majorité des tâches administratives.
J’applaudis : Quel soulagement d’être délivré des tâches d’intendance chronophage !
Même si l’arrivée de l’informatique (je ne parle même pas des « Personnal Computers ») a bien piqué son boulot à ma dactylographe et à ma comptable, je n’y vois qu’un progrès : Elles ont pu enfin se consacrer à des tâches à plus hautes valeurs ajoutée et à responsabilité intéressante pour leur propre développement… intellectuel et leur bien-être au boulot (sans même parler de la paye…).
 
Naturellement, ils savent tout ça ! Du coup, ils veulent nous faire peur avec leur risque d’extinction de l’humanité en la reportant comme d’une menace à long terme, et non plus pour demain.
Mais là encore, il s’agirait même d’une inquiétude exagérée selon Yan Lecun, considéré comme l’un des trois principaux pionniers de la technologie.
Contrairement à ses deux confrères, il n’a pas signé la lettre de pétition de moratoire pour le contrôle de l’IA.
Pour l’heure, les autorités devraient se concentrer sur les risques plus imminents, qui seraient plus concrets selon Sasha Luccioni, « chercheuse/trouveuse » pour la société spécialisée dans l’IA Huggingface : « Nous devrions nous concentrer sur cela plutôt que sur le risque hypothétique que l’IA détruise l’humanité », estime-t-elle.
 
Car malgré ses inquiétudes, même Bengio en suppose que les problèmes liés à l’IA sont réversibles, en la contrôlant de manière responsable.
Pour ce faire, il suggère que toutes les entreprises concevant de puissants dispositifs à base d’IA devraient être enregistrées par les autorités et auditées, un peu comme les bagnoles, les avions, les navires et même les humains à l’état-civil et leurs téléphones.
Ce processus est appliqué même à l’industrie pharmaceutique, avec des protocoles de sécurité très stricts (ainsi qu’à votre bouffe et sa « traçabilité » imposée). Cette technologie devrait selon lui bénéficier de la même vigilance. Une certification en matière d’éthique serait également utile, car les entités actives dans le domaine n’en possèdent généralement pas, selon lui.
« Il n’est jamais trop tard pour s’améliorer ».
Certes…
 
Dan Hendrycks, le « chercheur/trouveur » « ricain » en apprentissage automatique et directeur du Center for AI Safety — une organisation à but non lucratif qui vise à réduire les risques sociétaux liés à l’intelligence artificielle — évoque lui aussi non seulement le risque d’extinction de l’humanité, mais également les biais systémiques, la désinformation, l’utilisation malveillante, les cyberattaques et la militarisation.
Il serait imprudent, selon lui, d’ignorer ces risques, qui doivent tous être traités au plus vite.
Mais bien sûr…
 
« Malgré son importance, la sécurité de l’IA reste remarquablement négligée, dépassée par le rythme rapide du développement de l’IA. Actuellement, la société est mal préparée à gérer les risques liés à l’IA », peut-on lire sur le site de ce Centre.
Comme si « la société » était « bien préparée » au risque des hallucinogènes qui transforment en zombie sa belle jeunesse et la pervertissent plus sûrement que Socrate !
Mais il va plus loin : Dans un article de préimpression, disponible sur arXiv, il détaille comment la sélection naturelle peut favoriser les IA par rapport aux humains.
« En analysant l’environnement qui façonne l’évolution des IA, nous soutenons que les agents d’IA les plus performants auront probablement des traits indésirables. Les pressions concurrentielles entre les entreprises et les militaires donneront naissance à des agents d’IA qui automatiseront les rôles humains, tromperont les autres et gagneront en puissance.
Si ces agents ont une intelligence qui dépasse celle des humains, l’humanité pourrait perdre le contrôle de son avenir », écrit-il.
Et Sam Altman partage complètement ce point de vue, rappelant récemment au Congrès américain que « si cette technologie tourne mal, elle peut tourner très mal ».
 
C’est qu’il existe désormais aujourd’hui des dizaines d’algorithmes capables de générer automatiquement du code, du texte, des images et des voix — soit tout autant de manières de désinformer, manipuler et tromper les individus.
Mais comme le souligne Connor Leahy, PDG de Conjecture — une société londonienne qui vise à rendre les modèles d’apprentissage automatique plus sûrs et contrôlables —, l’aspect le plus préoccupant demeure le manque de compréhension de la manière dont les nouveaux modèles et applications d’IA fonctionnent réellement : « Ce sont des réseaux de neurones à boîte noire. Qui sait ce qu’ils contiennent ? Nous ne savons pas ce qu’ils pensent et nous ne savons pas comment ils fonctionnent ».
Une machine « penser » ?
Fonctionner, je veux bien, mais penser… Il faudrait déjà prendre conscience de soi, pouvoir dire « je », ce qui demande deux ans d’efforts continus à n’importe quel gamin…
Et tous n’y arrivent pas : Regardez, moâ-même…
 
« Je pense que ce qui me choque, ce n’est pas que nous en sachions si peu, c’est que (le grand public) ne sache pas que nous en savons si peu. C’est comme si nous essayions de faire de la biologie avant de savoir ce qu’est une cellule », a-t-il déclaré à ABC News.
Qu’il note que le public ignore encore l’immense fatuité de nos « sachants » qui ne comprennent pas grand-chose à ce qu’ils font et décident pour autrui…
Et ça n’a jamais empêché de survivre (parfois mal, mais tout de même…)
 
Les créateurs de ces modèles eux-mêmes sont dépassés : « La quantité de capacités qui ont été découvertes au cours de l’année ou des deux dernières années a surpris les personnes qui construisaient (ces IA), et a dépassé toutes nos attentes », souligne Tom Gruber, un des co-fondateurs de Siri.
Comme quoi, il en attendait peu, le neurone de ce « trouveur-là »… qui aurait eu besoin d’être sapité par une bonne petite IA qui l’aurait éclairé…
Et de pointer en particulier, la vitesse à laquelle ChatGPT a été adopté soulève des inquiétudes.
Son usage dans les milieux scolaires et professionnels suscite de nouveaux risques.
Quant aux « fausses » images, et aux reproductions de voix de vraies personnes, elles sont déjà utilisées pour faire courir des fakes news ou escroquer les gens.
Punaise, on a l’impression que l’IA aurait inventé l’escroquerie, à les écouter !
 
Gruber et d’autres acteurs de l’IA conseillent d’arrêter les tests de ces modèles intelligents sur le public jusqu’à ce qu’un cadre soit mis en place pour réglementer leur usage, éviter les dérives et faire en sorte que cette technologie soit sûre et bénéfique aux humains.
Reste à déterminer quelles réglementations sont nécessaires : « Nous aurons besoin d’une coordination mondiale pour atténuer ces menaces. Il y a encore beaucoup de travail à faire. Néanmoins, le fait que d’éminents experts en IA d’autres pays reconnaissent ces risques est un signe prometteur », conclut Hendrycks.
Bé voilà où on en est : Toujours plus de réglementation, même chez les libertaires de la Silicon-Valley !
De qui se moque-t-on vous répète-je ?
 
Ce que cache cette frénésie d’encadrement, à mon humble avis, c’est que la concurrence va trop vite, trop fort, trop loin pour être suivie voire dépassée.
Dépassée, ils n’en sont plus là : Ils espèrent seulement ne pas être devenus obsolètes avant de commencer à commercialiser leurs trouvailles.
Un truc qui ne plairait sûrement pas à leurs bailleurs de fonds qui attendent les dividendes de leurs investissements.
Ça c’est certain.
Mais, curieusement, personne ne le relève, pas même une IA !
C’est vous dire si j’en rigole (je vous avais prévenu), finalement !
 
Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !

Aucun commentaire:

Enregistrer un commentaire