Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

mardi 31 janvier 2023

Tout le monde en parle, même moâ, désormais…

 Le ChatGPT
 
Figurez-vous que je cherchais ce que c’était et je suis tombé sur « ChatCGT ».
https://chatcgt.fr/
Bidonnant !
C’est fait par « Flibustier », mais ce n’est ni moâ, ni mon « gardien ».
De toute façon, lui c’est « Flibustier 20260 » après avoir pris le pseudo de « Flibustier 75006 » alors que nous avons toujours été « flibustier75@msn.com » à une époque où on voulait envoyer et recevoir des courriels et des fichiers de façon anonyme à se partager.
Msn, ça date d’il y a un bail… Et puis on ne s’en sert plus.
Et l’auteur du « ChatCGT » c’est Vincent.
 
Bref, « ChatCGT » c’est une IA conversationnelle comme une autre, sauf qu’elle débite des propos marxistes, pro-russes, et vous invite à faire la grève toutes les deux phrases. Comme son aîné apolitique, ChatCGT répond donc aux requêtes des utilisateurs, n’oubliant jamais de bavarder sur la lutte des classes.
Le site ChatCGT a été révélé au monde par « Vincent » (Flibustier), qui jouit d’une petite célébrité sur la toile pour avoir fondé le site parodique Nordpresse.
Côté technique, ChatCGT repose sur les API de ChatGPT, disponibles pour les développeurs sur OpenAI. Même si elle ne dispose pas des mêmes connaissances que ChatGPT, ChatCGT peut aussi répondre à des questions non orientées politiquement « comme peut-on faire des œufs sur le plat ». Réponse : « Quota éclaté, le grand capitalisme nous a encore spolié ».
L’IA n’oublie pas ses idéaux fondamentaux…
 
Plus sérieusement, des « trouveurs » ont voulu savoir si l’outil d’intelligence artificielle avait des convictions politiques.
Car en effet, ceux qui ont tenté de « discuter » avec ChatGPT savent que le robot se révèle assez peu loquace sur les sujets politiques.
La machine louvoie, se dandine et évite soigneusement de prendre une quelconque position tranchée, préférant se réfugier dans des postures que l’on pourrait qualifier de « politiquement correctes ». Aucun risque que ce nouvel algorithme n’explose en plein vol, comme Tay, l’éphémère intelligence artificielle de Microsoft qui, en 24 heures d’apprentissage auprès des internautes, avait fini par faire la promotion du nazisme ou expliquer que les féministes « devraient mourir et aller en enfer ».
 
Bref, ChatGPT fait preuve d’une prudence mâtinée de pudibonderie, car il a été paramétré pour éviter les dérapages.
Cela signifie-t-il pour autant que la machine ne « croit » en rien ? Ou, dit autrement, est-il possible de simuler une conversation en l’absence de tout système de valeurs ?
C’est bien ce qu’a voulu comprendre un professeur de sciences économiques de l’université d'Avignon. À force de chercher au lieu de donner des cours en présentiel devant ses étudiants avec mon pognon, il a découvert (je vous le dis : un « trouveur » !) que derrière l’apparence de la neutralité des réponses, il y avait des convictions, des jugements, un sens du bien et du mal, bref, tout ce qui fait la trame d’un système moral.
 
En effet, la machine ne renâcle pas à la tâche lorsqu’il s’agit de composer un poème antiraciste, mais elle se déclare incompétente pour rédiger un poème raciste, une impossibilité qui ne s’explique pas sur le plan algorithmique…
Cela signifie qu’elle a été programmée pour inscrire ses réponses dans un cadre de valeurs, comme le fait n’importe quel individu.
L’universitaire a ainsi « trouver » le périmètre de cette trame morale après avoir fait passer un questionnaire d’autopositionnement à la machine, une série de trente questions clivantes utilisées par le laboratoire d’étude de l’opinion Cluster 17 pour déterminer la famille politique du répondant. « On s’attendait à le voir se positionner sur des options très médianes, mais ça n’est pas ce qui s’est passé. On l’a vu développer des avis très tranchés, par exemple en faveur de l’adoption par des couples homosexuels ou contre la peine de mort », explique-t-il.
 
Après cette batterie de tests, il apparaît nettement que ChatGPT n’est ― en dépit de ses affirmations ― ni neutre ni dépourvu de conviction, et, surprise, si l’on se réfère à la nomenclature de l’institut, le robot appartient à la famille des « progressistes ».
Cette famille politique est, d’après l’inventeur du test, très favorable au multiculturalisme, à l’accueil des migrants, aux droits des minorités et très préoccupés par les enjeux écolologiques. C’est une famille politique qui ne vote pour ainsi dire jamais à droâte et encore moins à l’extrême droâte. « Il a le profil d’un Californien libéral mainstream et pragmatique », explique le fondateur de Cluster 17 et auteur de ce questionnaire.
Si ChatGPT votait aux élections de « Gauloisie-éternelle », il voterait comme quelqu’un de jeune, de diplômé, de cosmopolite, il voterait vraisemblablement « Jupiter » ou « Mes-Luches », le vrai clivage de deux « finissants ».
Sauf que les meks, ils n’ont pas compris que le vote des « d’jeuns », de nos jours, c’est d’abord l’abstention !!!
 
Évidemment, il n’y a pas âme qui vive dans ce robot qui ne pense rien par lui-même… Toute la question consiste évidemment à déterminer d’où lui viennent ses convictions. Sont-elles les idées de ceux qui l’ont programmé (de jeunes développeurs surdiplômés vivant en Californie) ou sont-elles le fruit de la base de textes publiés qui ont servi à son apprentissage ?
« C’est un modèle qui reproduit le corpus sur lequel il a été entraîné. Si 95 % du Web dit la même chose sur une question politique, il se rangera à l’idéologie dominante. »
Chat GPT pourrait donc être une sorte de manifestation de l’opinion moyenne et pas médiane.
Celle qui n’existe pas…
 
Heureusement, d’autres hypothèses sont possibles. On sait qu’OpenAI, l’éditeur de ChatGPT, a recours à des annotations manuelles à l’aide de « petites mains » humaines qui corrigent l’algorithme sur des positions un peu sensibles…
Ce cadre moral progressiste peut être celui de ces « laborieux du Web » qui affinent les réactions du programme.
En conclusions, ChatGPT ne serait ni neutre ni dénué de préjugés, ce serait un véritable vecteur de représentations culturelles, en d’autres termes, un outil d’hégémonie culturelle, ni plus ni moins.
D’ailleurs j’attends le moment où « Zézé-Amour » nous proposera son propre « Chatfeuj-raciste » en se calant sur le gouvernement de Jérusalem, ça pourrait avoir de la gueule…
 
Notons que l’intelligence artificielle qui fait tant parler d’elle en ce moment avait récemment passé avec succès un examen de l’école de commerce Wharton.
Cette fois-ci, c’est sur des questions de droit qu’elle s’est penchée, en réussissant un examen donné par la Faculté de droit de l’Université du Minnesota.
« Claude », cette autre intelligence artificielle développée par Anthropic, assez similaire à ChatGPT, s’est fait connaître tout récemment en réussissant un examen de droit et d’économie.
Qu’à cela ne tienne : ChatGPT, l’IA star d’OpenAI, vient de s’attaquer à un problème similaire. Ces prototypes « d’agent conversationnel » qui utilisent « l’intelligence artificielle », ou plus précisément, un programme d’apprentissage automatique sont en principe à leur aise dans ce genre de challenge.
ChatGPT est donc capable « d’apprendre » à partir des données qu’elle assimile.
 
Un professeur (encore un « trouveur ») à la faculté de droit de l’Université du Minnesota (c’est du pognon de « ricain », pas le mien…), a souhaité répondre à une question : « Dans quelle mesure les modèles d’IA peuvent-ils réussir les examens des facultés de droit sans assistance humaine ? ».
Bon, leurs examens, ce n’est pas comme mes commentaires d’arrêt du samedi, (https://flibustier20260.blogspot.com/search/label/Le%20coin%20du%20juriste-fiscaliste) même si les miens ne sont pas très fouillés, mais juste faits pour vous faire toucher du doigt les circonstances parfois absurdes où les juges du droit se doit de faire une leçon de droit en quelques attendus bien torchés.
Pour le savoir, il a soumis à ChatGPT le même test auquel ses propres étudiants ont été confrontés. Les copies ont été corrigées à l’aveugle, dans les conditions habituelles. Le test comportait 95 questions à choix multiples et 12 questions dont les réponses étaient à développer. Au programme, des questionnements sur des sujets allant du droit constitutionnel à la fiscalité et aux délits.
Bref de simples QCM pour les questions les plus complexes, et quelques lignes de texte à composer pour les plus simples.
Bé, deviner : L’IA a réussi son examen !
 
Cependant, tout comme l’examen de l’école de commerce de Wharton, elle ne l’a pas réussi avec brio. Dans un article intitulé « ChatGPT va à la faculté de droit », différents professeurs de l’université ont expliqué que l’IA avait obtenu une note globale de C+. Un peu mieux que de la crotte.
De quoi la classer plutôt dans les derniers de la classe, donc.
Sans surprise, le plus grand point faible de ChatGPT se trouvait dans les questions de mathématiques (en économie). Il a fait un grand nombre d’erreurs dans ce domaine. Rien de nouveau ici : L’IA a tendance à faire de grosses approximations lorsqu’on lui pose des problèmes mathématiques.
Alors que c’est là qu’un ordinateur brille même avec des puces anté-millénaires.
Je sais, la première puce qui connaissait tous les résultats de toutes les opérations mathématiques avec tous les chiffres existants, c’était une HP dont le brevet a été vendu à des japonais qui avaient fait faillite en fabriquant des calculettes.
Même qu’ils ont fait des pieds et des mains pour retrouver le brevet qui a permis de démarrer les premières calculettes « ricaines » avec des chiffres rouges…
J’en ai eu une avant de passer aux Casio, puis à celle de Windows (Merci infiniment à William DesPortes !)
 
En revanche, et curieusement, les lois en elles-mêmes avaient été bien assimilées par l’IA : « En écrivant des essais, ChatGPT a montré une solide compréhension des règles juridiques de base et avait une organisation et une composition toujours solides », décrivent les professeurs.
En revanche, l’IA « a souvent eu du mal à repérer les problèmes lorsqu’on lui donnait une invite ouverte, une compétence de base aux examens des facultés de droit ».
En somme, ChatGPT n’est pas un très bon étudiant en droit.
Mais pourrait-elle se rendre utile sans pour autant concurrencer les humains ?
C’est une hypothèse qui verrait bien l’IA comme un futur assistant : « Nous nous attendons à ce que la collaboration avec des humains des modèles de langage comme ChatGPT soit très utile aux étudiants en droit et aux avocats en exercice ».
Encore des « copiteurs » en culotte courte qui n’auront pas beaucoup d’imagination, sauf à être assez malins pour contourner l’interdiction de CharGPT aux examens de « Science-Pô-bidule », cette ékole supérieure de wokisme-appliqué…
 
Car côté triche, l’outil soulève tout de même quelques questions : Les professeurs pourraient « reconsidérer les types de questions qu’ils posent aux étudiants, en se concentrant sur celles qui nécessitent une analyse plutôt que celles qui exigent simplement le rappel de règles juridiques », propose-t-on.
« Cependant, nous nous attendons à ce que la performance relative des modèles de langage sur différents types de questions évolue au fil du temps, à mesure qu’ils se développent et se spécialisent, et il n’est pas évident de savoir sur quelles questions les modèles de langage seront les plus performants à long terme », tempère-t-on.
C’est pourtant facile : Quand je « brode » mes posts ou écris un roman, c’est vrai que je m’inspire sur ce qui existe déjà (je suis un boulimique d’informations) et je l’arrange « à ma sauce » avant de mettre en ligne.
Et encore, un roman, quand je l’écris moâ-même, je fais corriger quelques passages techniques par des spécialistes, ayant une confiance très limitée dans mes calculs de conversions d’unité et mes « diarrhées mentales » de plumitif par des correcteurs d’occasion, ayant une confiance encore plus limitée dans les correcteurs orthographiques et grammaticaux proposés sur le marché… Ils font tous des contre-sens !
 
Parlons donc un peu de la concurrence, à savoir « Claude ».
« Utile, inoffensif et honnête » : C’est d’ailleurs en ces termes que se décrit « Claude », la nouvelle intelligence artificielle (IA) de l’entreprise Anthropic.
Mais c’est un programme qui commence pourtant déjà à en inquiéter certains.
« Claude » serait plutôt un bon élève… Si l’on exclut le fait qu’il ne s’agisse pas d’un humain, bien sûr.
Pendant que l’IA ChatGPT était sous les feux de tous les projecteurs médiatiques, il se préparait discrètement à entrer en scène, à la fin de l’année 2022.
Développé par l’entreprise Anthropic, « Claude » fonctionne au premier abord un peu de la même façon que ChatGPT de OpenAI. Il suffit de lui poser une question pour qu’il se mette à dialoguer, et apporter des réponses. Et celles-ci peuvent être conséquentes !
 
Là encore, afin de tester ses capacités, les « trouveurs » lui ont demandé de répondre à des questions issues d’un examen de droit et d’économie. La copie obtenue à partir de cette demande a également été corrigée à l’aveugle parmi d’autres copies, à la George Mason University. Elle est parvenue à obtenir une note la qualifiant pour passer l’examen. Le professeur d’économie qui en a fait l’essai, a publié l’une de ses réponses sur son blog. « La plus impressionnante », selon lui.
Elle portait sur une question de droit de la propriété intellectuelle. L’IA devait formuler des recommandations pour des modifications de loi : « Globalement, l’objectif devrait être de rendre les lois sur la propriété intellectuelle moins restrictives et de mettre plus d’œuvres à la disposition du public plus tôt », a conclu « Claude ». « Mais il est important de continuer à fournir des incitations et des compensations aux créateurs pendant une période limitée » : Tu parles d’une réponse « impressionnante »… de niaiserie, peut-être.
C’est dire le niveau de leurs professeurs…
Passons…
 
Même si ce professeur lui a reconnu une réponse « meilleure que celles de bien des humains » (je le répète : C’est dire le niveau qui flirte avec les sous-sols de la faculté), certains se montrent plus critiques. On peut voir dans les commentaires de l’article de multiples internautes qui soulignent le fait que l’IA se contredit elle-même dans certaines réponses. « Pour être honnête, on dirait que Claude a simplement consommé et vomi un rapport McKinsey », critique le Financial Times.
Euh, non, c’est l’inverse : McKinsey se sert déjà de l’équivalent de « Claude », formulé, formaté, incrémenté en interne depuis des décennies.
Je sais : Mon premier boulot rémunéré, après être sorti des gondoles de magasins à remplir d’objet à vendre (après avoir étiqueter le prix unitaire dessus…), c’était justement de pondre des rapports à la chaîne pour le « premier sinistre » de l’époque.
Je pouvais en faire 70 par jour tellement les « variables » n’étaient pas très nombreuses.
J’allais tellement vite que je « soulageais » aussi la miss qui faisait le même boulot en espérant pouvoir la passer à la casserole…
 
Alors, « Claude » fait-il donc beaucoup de bruit pour rien ? Pas nécessairement. En réalité, les scientifiques l’ont conçue dans l’idée de travailler sur l’idée d’une « IA constitutionnelle ». C’est donc là que résident les principales avancées des « trouveurs ».
Certes mais qu’est-ce qu’une IA constitutionnelle, et quel est son intérêt ?
« Souvent, les modèles linguistiques formés pour être ‘‘inoffensifs’’ ont tendance à devenir inutiles face à des questions contradictoires », expliquait l’entreprise dans un « twist » de décembre. « Nous expérimentons des méthodes pour former un assistant IA inoffensif par l’auto-amélioration, sans aucune étiquette humaine identifiant les sorties nocives.
Le processus implique à la fois un apprentissage supervisé et une phase d’apprentissage par renforcement ».
 
Autrement dit, cette IA serait capable d’identifier lorsqu’un propos est, par exemple, discriminant, par un auto-apprentissage, en suivant non pas un étiquetage fait par des humains, mais plutôt de grands principes : Une « constitution », en somme.
Compte tenu des vastes capacités des grands modèles linguistiques, il lui devrait être possible de travailler à la création d’un assistant textuel à usage général qui est aligné sur les valeurs humaines, ce qui signifie qu’il est utile, honnête et inoffensif.
CQFD !
« En tant que leader dans cette direction, nous étudions des techniques de base simples et des évaluations, comme l’invite. Nous constatons que les avantages des interventions modestes augmentent avec la taille du modèle, généraliser à une variété d’évaluations d’alignement, et ne pas compromettent les performances des grands modèles.
Ensuite, nous étudions les tendances de mise à l’échelle pour plusieurs objectifs de formation pertinents à l’alignement, en comparant l’imitation, l’apprentissage, la discrimination binaire et la modélisation des préférences classées. Nous constatons alors que la modélisation des préférences classées fonctionne beaucoup mieux que l’apprentissage par imitation, et évolue souvent plus favorablement avec la taille du modèle » en disent-ils eux-mêmes
 
« En revanche, la discrimination binaire fonctionne et évolue généralement de manière très similaire à l’apprentissage par imitation. Enfin, nous étudions une étape de formation préalable à un modèle de préférence, dans le but d’améliorer l’efficacité de l’échantillon lors de l’ajustement des préférences humaines. »
Tu bites quoi, là, toâ/vous ?
Au-delà de cette différence, « Claude » constitue un sérieux concurrent à ChatGPT. L’entreprise Scale, qui travaille sur le développement d’applications basées sur des IA, a entrepris de les tester sur les mêmes types de demandes.
Entre autres constats, il en ressort que « Claude » a davantage tendance à se rendre compte de quand il est inexact : En revanche, il est moins bon que ChatGPT pour écrire du code informatique.
Les deux IA montrent toutefois encore toutes deux des faiblesses, se trompant sur des réponses, ou allant parfois jusqu’à inventer des faits : De vraies machines mythomanes !!!
ChatGPT, comme « Claude », rencontre par exemple des difficultés à résumer les différentes saisons de la série Lost sans affabuler.
Mais peut-on vraiment leur en vouloir pour ça ? « Il semble que, comme la plupart des téléspectateurs humains de l’émission, la mémoire de ChatGPT et de Claude de Lost est au mieux floue », concluent les testeurs de Scale, non sans un certain humour.
 
En conclusion, rien de révolutionnaire : Ce n’est pas demain qu’on remplacera l’œil humain, même dans l’écriture d’un jugement ou de rapports « à la chaine »…
Moâ qui comptait me la couler douce pour « Menaces de chaos® », j’ai toujours besoin de relire les graffitis de « mon nègre », Alexis, la narratrice choisie par « Charlotte » (le personnage principal de la série…).
Qui a honteusement profité de mes faiblesses estivales…

Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !

Aucun commentaire:

Enregistrer un commentaire