Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

lundi 2 septembre 2024

49/63 – Mathématiques appliquées.

Le bug du 7 octobre…
 
Avertissement : Vous l’aviez compris, ceci n’est qu’un roman, une fiction, une « pure construction intellectuelle », du pur jus de neurone garanti 100 % bio, sortie tout droit de l’imaginaire de son auteur.
Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies), y compris sur la planète Terre, y est donc purement, totalement et parfaitement fortuite !
 
Cette technique de substitution très simple est optimale dans le cas où les données sont issues d’un tirage aléatoire non-biaisé dans la population. En dehors de ce cadre, la règle de la majorité n’est pas nécessairement justifiée mais est facile à utiliser dans la pratique.
Heureusement, certaines techniques, appelées « méthodes d’ensembles » améliorent la qualité ou la fiabilité de la prédiction en construisant plusieurs arbres de décision depuis les données : par exemple « l’ensachage », une des premières méthodes historiquement, selon laquelle on construit plusieurs arbres de décision en rééchantillonnant l’ensemble d’apprentissage, puis en construisant les arbres par une procédure de consensus.
On peut également utiliser la classification par « rotation de forêts d’arbres de décision », dans laquelle on applique d’abord une analyse en composantes principales sur un ensemble aléatoire des variables d’entrée.
Mais parfois, les arbres de décision sont combinés entre eux ou à d’autres techniques d’apprentissage : analyse discriminante, régressions logistiques, régressions linéaires, réseaux de neurones, perceptron multicouche, ou autres.
 
En bref, il s’agit pour Paul de créer, à travers les deux logiciels à venir, une intelligence artificielle qui ressortent en réalité du concept de « machine learning » et de « deep learning. »
« Pour faire simple », expliquera-t-il plus tard à Gustave Morthe de l’Argentière, sous le contrôle de Julie Déplante qui sait en principe de quoi on parle, « le deep learning fait partie du machine learning, et il en a fortement étendu les possibilités
Si l’on pose que le machine learning consiste à amener un ordinateur à pouvoir apprendre à accomplir n’importe quelle tâche, ses limites ont été comblées par le deep learning.
La différence peut être énoncée ainsi : linéaire versus non linéaire... »
 
Et il explique simplement, que la machine learning tout comme le deep learning analyse des phénomènes divers et ceux-ci peuvent être représentés par des séries de points sur un graphe. « Tous deux développent des algorithmes et s’acharnent à minimiser les erreurs entre le modèle mathématique et la vie réelle. Or, c’est là qu’apparaît la différence essentielle : la machine learning vise à produire une droite la plus proche possible des ensembles de points alors que le deep learning vise à produire une courbe la plus proche possible de ces points.
Et, comme dans la vie réelle, peu de phénomènes sont linéaires, le deep learning obtient une formule mathématique beaucoup plus précise. »
 
En réalité, les ingénieurs se sont retrouvés dans la nécessité d’aller plus loin que la machine learning de base dès lors que l’intelligence artificielle a abordé des problèmes complexes tels que la reconnaissance d’images ou le pilotage d’un véhicule autonome dans une ville telle que Paris, Londres ou San Francisco avec des conditions de circulation complexes. Pour ce faire, un algorithme de deep learning élabore un ensemble de règles qui, combinées, vont pouvoir reconnaître qu’un chat est bien un chat dans toutes de situations, angles de vue, types de pelage, etc.
À cette fin, le deep learning s’appuie sur une approche appelée « réseau neuronal », ou réseau de neurones artificiels, soit un réseau de fonctions connectées entre elles.
De fait, « deep » signifie profond et reflète le nombre de couches impliquées dans l’élaboration de l’algorithme.
Plus il y a de couches et plus le système est profond. Mais plus il peut accumuler des erreurs qu’il faut pouvoir corriger…
« C’est comme pour un navire qui va d’un port à un autre : si le cap est bon dès le départ, il dépensera moins d’énergie à rattraper son erreur de cap à l’arrivée.
Moins d’énergie et moins de temps.
Et c’est valable pour un avion, pour un satellite, un missile, mais pas pour une balle de fusil : une fois tirée, elle ne peut plus corriger son erreur originelle… »
 
Ainsi, historiquement, des travaux tels que la reconnaissance de la parole ont été confiés initialement à des algorithmes de machine learning. Et puis, au fil des découvertes de chercheurs tels que Geoffrey Hinton, ce type de recherche a pu être confié à des systèmes de deep learning et il a ainsi atteint une précision hors pair, comme avec Whisper d’OpenAi.
De fait, si le deep learning a connu un essor majeur à partir des années 2000, c’est pour deux raisons principales : il nécessite de gigantesques volumes de données pour construire des algorithmes fiables.
Or, c’est à partir des années 2000 que des sites tels que Google ou Facebook ont fourni les volumes de données attendues. Et puis la montée de la puissance de calcul des ordinateurs a permis d’appliquer plus aisément le deep learning à de tels volumes de données.
C’est ainsi le deep learning qui est à la base de la plupart des systèmes d’intelligence artificielle qui sont apparus depuis 2022 : ChatGPT, HeyGen, Midjourney...
« Et c’est que ce que nous faisons assez basiquement avec le « BBR 2.0 », mais là, il s’agit d’une révolution copernicienne à réaliser avec la version 3.0 : on ne va pas pouvoir en faire l’économie… »
 
Ains, des procédures d’agrégation des performances des différents modèles utilisés, telles que les décisions par consensus, sont mises en place pour obtenir une performance maximale, tout en contrôlant le niveau de complexité des modèles utilisés.
Ce qui fait que comparativement à d’autres méthodes de fouille de données, les arbres de décision présentent plusieurs avantages : la simplicité de compréhension et d’interprétation.
C’est un modèle dit « boîte blanche » : si l’on observe une certaine situation sur un modèle, celle-ci peut être facilement expliquée à l’aide de la logique booléenne, au contraire de modèles dits « boîte noire » comme les réseaux neuronaux, dont l’explication des résultats est difficile à comprendre pour ne pas pouvoir s’énoncer clairement.
Absence ou peu de préparation des données, pas de normalisation, de valeurs vides à supprimer, ou de variable muette, le modèle a l’avantage de pouvoir gérer à la fois des valeurs numériques et des catégories.
 
D’autres techniques sont souvent spécialisées sur un certain type de variables, par exemple les réseaux neuronaux ne sont utilisables que sur des variables numériques.
Il est alors possible de valider un modèle à l’aide de tests statistiques, et ainsi de rendre compte de la fiabilité du modèle.
En revanche, ils sont performants sur de grands jeux de données : la méthode est relativement économique en termes de ressources de calcul.
Mais, l’apprentissage de l’arbre de décision optimal n’est jamais complet. En conséquence, les algorithmes d’apprentissage par arbre de décision sont basés sur des heuristiques telles que les algorithmes gloutons cherchant à optimiser le partage à chaque nœud, et hélas, de tels algorithmes ne garantissent pas du tout d’obtenir l’optimum global.
Même si certaines méthodes visent à diminuer l’effet de la recherche gloutonne.
 
Ainsi, l’apprentissage par arbre de décision peut amener des arbres de décision très complexes, qui généralisent mal l’ensemble d’apprentissage. On utilise alors des procédures d’élagage pour contourner ce problème, et certaines approches comme l’inférence conditionnelle permettent de s’en affranchir.
Par ailleurs, certains concepts sont difficiles à exprimer à l’aide d’arbres de décision.
Dans ces cas, les arbres de décision deviennent extrêmement larges. Et pour résoudre ce problème, plusieurs moyens existent, tels que la proportionnalisation, ou l’utilisation d’algorithmes d’apprentissage utilisant des représentations plus expressives, comme la programmation de logique inductive.
Ainsi, lorsque les données incluent des attributs ayant plusieurs niveaux, le gain d’information dans l’arbre est biaisé en faveur de ces attributs. Cependant, le problème de la sélection de prédicteurs biaisés peut être contourné par des méthodes telles que l’inférence conditionnelle.
 
Dans un arbre de décision, tous les chemins depuis la racine jusqu’aux feuilles utilisent le connecteur AND (et). Dans un graphe de décision, on peut également utiliser le connecteur OR (ou) pour connecter plusieurs chemins à l’aide du Minimum message length (MML, longueur minimale de message). En général les graphes de décision produisent des graphes avec moins de feuilles que les arbres de décision.
Mais il existe également des algorithmes évolutionnistes qui sont utilisés pour éviter les séparations amenant à des optimums locaux.
On peut également échantillonner l’arbre en utilisant des méthodes MCMC dans un paradigme bayésien.
L’arbre peut être aussi être construit par une approche ascendante, du bas vers le haut.
 
On dénombre plusieurs algorithmes pour construire des arbres de décision. Tous ces procédés se distinguent par le ou les critères de segmentation utilisés, par les méthodes d’élagages implémentées, par leur manière de gérer les données manquantes dans les prédicteurs.
Beaucoup de logiciels de fouille de données proposent d’ailleurs des bibliothèques permettant d’implémenter un ou plusieurs algorithmes d’apprentissage par arbre de décision.
« Par exemple, le logiciel Open Source R contient plusieurs implémentations de CART, telles que rpart, party et randomForest, les logiciels libres Weka et Orange et son module orngTree ou encore la bibliothèque libre Python scikit-learn.
Mais également Salford Systems CART, IBM SPSS Modeler, RapidMiner, SAS Enterprise Miner, KNIME, Microsoft SQL Server, etc. » complétera Julie.
Paul et ses équipes disposent donc d’une vaste bibliothèque d’antécédents pour se mettre au travail rapidement, sans avoir à réinventer l’eau tiède…
 
Sauf que tout ça, à peine élaboré est directement bouleversé par les évènements du 7 octobre 2023 : non seulement, il n’y avait aucune prévision « mathématique », aucun logiciel pas même le « BBR 2.0 » pas spécialement axé sur la Moyen-Orient, ni par le « BBR 3.0 » qui n’existe pas encore à cette époque-là, pas plus en mode natif qu’en mode bêta et que la mémoire vraiment défaillante de Paul n’aura été d’aucun secours.
Alexis en retient, qu’il est vraiment amnésique, réellement diminué, amputé comme d’un handicap, sur ce plan-là.
Lui, expliquera à qui oserait l’engueuler sur cette carence manifeste de son logiciel, que justement, c’est la preuve qu’il n’est pas au point : « Il y a encore beaucoup de travail à fournir pour le rendre opérationnel ! »
Il faut lui laisser le temps.
En revanche, on lui fait des offres de subventions pour qu’il ait les moyens d’accélérer. Il accepte par principe, mais n’en use pas ou seulement pour obtenir le détachement de quelques informaticiens de pointe plus facilement, normalement mobilisés pour sécuriser les JO de Paris.
Il paraît que c’est le même objectif, ce qu’on peut comprendre aisément…
 
Plus grave, Paul semblera très affecté quand il apprendra que Rachel Beer-Shev’a[1], l’espionne du Mossad qui aura notamment programmé, ou aidé à programmer les logiciels comportementaux des « poupées » de Paul et notamment les interfaces wifi et Bluetooth avec les bases de données disponibles sur la planète, qu’il avait appelé pour venir l’épauler dans la mise au point du « BBR 3.0 » – à la grande satisfaction de sa hiérarchie à elle, puisqu’elle avait été envoyée dans l’entourage de Paul pour comprendre le fonctionnement du « BBR 2.0 », et éventuellement être capable de le dupliquer, sans avoir à acheter une licence à Pamentir – aura été assassiné par le Hamas dans la rave party attaquée ce jour de Kippour !
Il s’en veut de n’avoir rien pu faire pour conserver vivant ce « talent-là »…
 
Car le 7 octobre 2023, à 6 h 30 du matin heure locale, alors que les Israéliens s’apprêtent à célébrer Sim’hat Torah (la fête de la Torah), le Hamas lance plusieurs milliers de roquettes Qassam sur l’ensemble du territoire israélien, de Dimona au Sud jusqu’à Wadi Ara au Nord, et à Jérusalem à l’Est du pays, une offensive massive, tandis que les positions et localités israéliennes proches de la frontière gazaouie sont continuellement bombardés par des obus de mortier.
 
C’est la surprise totale qui n’a d’égal que la brutalité et la sauvagerie de l’agression…
Mohammed Deif, commandant des brigades Izz al-Din al-Qassam, appelle alors les Arabes israéliens ainsi que les musulmans du monde entier à se joindre à la lutte finale contre l’État hébreu qui doit mener à sa destruction totale et définitive…
 
Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
[1] Cf. « Dans le sillage de Charlotte »

Aucun commentaire:

Enregistrer un commentaire