Le bug du 7 octobre…
Avertissement : Vous l’aviez
compris, ceci n’est qu’un roman, une fiction, une « pure construction
intellectuelle », du pur jus de neurone garanti 100 % bio, sortie tout droit de
l’imaginaire de son auteur.
Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies), y compris sur la planète Terre, y est donc purement, totalement et parfaitement fortuite !
Cette technique de substitution très simple est
optimale dans le cas où les données sont issues d’un tirage aléatoire non-biaisé
dans la population. En dehors de ce cadre, la règle de la majorité n’est pas nécessairement
justifiée mais est facile à utiliser dans la pratique.
Heureusement, certaines techniques, appelées « méthodes d’ensembles » améliorent la qualité ou la fiabilité de la prédiction en construisant plusieurs arbres de décision depuis les données : par exemple « l’ensachage », une des premières méthodes historiquement, selon laquelle on construit plusieurs arbres de décision en rééchantillonnant l’ensemble d’apprentissage, puis en construisant les arbres par une procédure de consensus.
On peut également utiliser la classification par « rotation de forêts d’arbres de décision », dans laquelle on applique d’abord une analyse en composantes principales sur un ensemble aléatoire des variables d’entrée.
Mais parfois, les arbres de décision sont combinés entre eux ou à d’autres techniques d’apprentissage : analyse discriminante, régressions logistiques, régressions linéaires, réseaux de neurones, perceptron multicouche, ou autres.
En bref, il s’agit pour Paul de créer, à
travers les deux logiciels à venir, une intelligence artificielle qui
ressortent en réalité du concept de « machine learning » et de
« deep learning. »
« Pour faire simple », expliquera-t-il plus tard à Gustave Morthe de l’Argentière, sous le contrôle de Julie Déplante qui sait en principe de quoi on parle, « le deep learning fait partie du machine learning, et il en a fortement étendu les possibilités.
Si l’on pose que le machine learning
consiste à amener un ordinateur à pouvoir apprendre à accomplir n’importe
quelle tâche, ses limites ont été comblées par le deep learning.
La différence peut être énoncée ainsi : linéaire versus non linéaire... »
Et il explique simplement, que la machine
learning tout comme le deep learning analyse des phénomènes divers et ceux-ci
peuvent être représentés par des séries de points sur un graphe. « Tous deux
développent des algorithmes et s’acharnent à minimiser les erreurs entre le
modèle mathématique et la vie réelle. Or, c’est là qu’apparaît la différence
essentielle : la machine learning vise à produire une droite la plus proche
possible des ensembles de points alors que le deep learning vise à produire une
courbe la plus proche possible de ces points.
Et, comme dans la vie réelle, peu de
phénomènes sont linéaires, le deep learning obtient une formule mathématique
beaucoup plus précise. »
En réalité, les ingénieurs se sont retrouvés
dans la nécessité d’aller plus loin que la machine learning de base dès lors
que l’intelligence artificielle a abordé des problèmes complexes tels que la
reconnaissance d’images ou le pilotage d’un véhicule autonome dans une ville
telle que Paris, Londres ou San Francisco avec des conditions de circulation
complexes. Pour ce faire, un algorithme de deep learning élabore un ensemble de
règles qui, combinées, vont pouvoir reconnaître qu’un chat est bien un chat dans
toutes de situations, angles de vue, types de pelage, etc.
À cette fin, le deep learning s’appuie sur une approche appelée « réseau neuronal », ou réseau de neurones artificiels, soit un réseau de fonctions connectées entre elles.
De fait, « deep » signifie profond et reflète le nombre de couches impliquées dans l’élaboration de l’algorithme.
Plus il y a de couches et plus le système est profond. Mais plus il peut accumuler des erreurs qu’il faut pouvoir corriger…
« C’est comme pour un navire qui va d’un port à un autre : si le cap est bon dès le départ, il dépensera moins d’énergie à rattraper son erreur de cap à l’arrivée.
Moins d’énergie et moins de temps.
Et c’est valable pour un avion, pour un satellite, un missile, mais pas pour une balle de fusil : une fois tirée, elle ne peut plus corriger son erreur originelle… »
Ainsi, historiquement, des travaux tels que la
reconnaissance de la parole ont été confiés initialement à des algorithmes de
machine learning. Et puis, au fil des découvertes de chercheurs tels que
Geoffrey Hinton, ce type de recherche a pu être confié à des systèmes de deep
learning et il a ainsi atteint une précision hors pair, comme avec Whisper
d’OpenAi.
De fait, si le deep learning a connu un essor majeur à partir des années 2000, c’est pour deux raisons principales : il nécessite de gigantesques volumes de données pour construire des algorithmes fiables.
Or, c’est à partir des années 2000 que des sites tels que Google ou Facebook ont fourni les volumes de données attendues. Et puis la montée de la puissance de calcul des ordinateurs a permis d’appliquer plus aisément le deep learning à de tels volumes de données.
C’est ainsi le deep learning qui est à la base de la plupart des systèmes d’intelligence artificielle qui sont apparus depuis 2022 : ChatGPT, HeyGen, Midjourney...
« Et c’est que ce que nous faisons assez basiquement avec le « BBR 2.0 », mais là, il s’agit d’une révolution copernicienne à réaliser avec la version 3.0 : on ne va pas pouvoir en faire l’économie… »
Ains, des procédures d’agrégation des
performances des différents modèles utilisés, telles que les décisions par
consensus, sont mises en place pour obtenir une performance maximale, tout en
contrôlant le niveau de complexité des modèles utilisés.
Ce qui fait que comparativement à d’autres méthodes de fouille de données, les arbres de décision présentent plusieurs avantages : la simplicité de compréhension et d’interprétation.
C’est un modèle dit « boîte blanche » : si l’on observe une certaine situation sur un modèle, celle-ci peut être facilement expliquée à l’aide de la logique booléenne, au contraire de modèles dits « boîte noire » comme les réseaux neuronaux, dont l’explication des résultats est difficile à comprendre pour ne pas pouvoir s’énoncer clairement.
Absence ou peu de préparation des données, pas de normalisation, de valeurs vides à supprimer, ou de variable muette, le modèle a l’avantage de pouvoir gérer à la fois des valeurs numériques et des catégories.
D’autres techniques sont souvent spécialisées
sur un certain type de variables, par exemple les réseaux neuronaux ne sont
utilisables que sur des variables numériques.
Il est alors possible de valider un modèle à l’aide de tests statistiques, et ainsi de rendre compte de la fiabilité du modèle.
En revanche, ils sont performants sur de grands jeux de données : la méthode est relativement économique en termes de ressources de calcul.
Mais, l’apprentissage de l’arbre de décision optimal n’est jamais complet. En conséquence, les algorithmes d’apprentissage par arbre de décision sont basés sur des heuristiques telles que les algorithmes gloutons cherchant à optimiser le partage à chaque nœud, et hélas, de tels algorithmes ne garantissent pas du tout d’obtenir l’optimum global.
Même si certaines méthodes visent à diminuer l’effet de la recherche gloutonne.
Ainsi, l’apprentissage par arbre de décision
peut amener des arbres de décision très complexes, qui généralisent mal l’ensemble
d’apprentissage. On utilise alors des procédures d’élagage pour contourner ce
problème, et certaines approches comme l’inférence conditionnelle permettent de
s’en affranchir.
Par ailleurs, certains concepts sont difficiles à exprimer à l’aide d’arbres de décision.
Dans ces cas, les arbres de décision deviennent extrêmement larges. Et pour résoudre ce problème, plusieurs moyens existent, tels que la proportionnalisation, ou l’utilisation d’algorithmes d’apprentissage utilisant des représentations plus expressives, comme la programmation de logique inductive.
Ainsi, lorsque les données incluent des attributs ayant plusieurs niveaux, le gain d’information dans l’arbre est biaisé en faveur de ces attributs. Cependant, le problème de la sélection de prédicteurs biaisés peut être contourné par des méthodes telles que l’inférence conditionnelle.
Dans un arbre de décision, tous les chemins
depuis la racine jusqu’aux feuilles utilisent le connecteur AND (et). Dans un
graphe de décision, on peut également utiliser le connecteur OR (ou) pour
connecter plusieurs chemins à l’aide du Minimum message length (MML, longueur
minimale de message). En général les graphes de décision produisent des graphes
avec moins de feuilles que les arbres de décision.
Mais il existe également des algorithmes évolutionnistes qui sont utilisés pour éviter les séparations amenant à des optimums locaux.
On peut également échantillonner l’arbre en utilisant des méthodes MCMC dans un paradigme bayésien.
L’arbre peut être aussi être construit par une approche ascendante, du bas vers le haut.
On dénombre plusieurs algorithmes pour construire
des arbres de décision. Tous ces procédés se distinguent par le ou les critères
de segmentation utilisés, par les méthodes d’élagages implémentées, par leur
manière de gérer les données manquantes dans les prédicteurs.
Beaucoup de logiciels de fouille de données proposent d’ailleurs des bibliothèques permettant d’implémenter un ou plusieurs algorithmes d’apprentissage par arbre de décision.
« Par exemple, le logiciel Open Source R contient plusieurs implémentations de CART, telles que rpart, party et randomForest, les logiciels libres Weka et Orange et son module orngTree ou encore la bibliothèque libre Python scikit-learn.
Mais également Salford Systems CART,
IBM SPSS Modeler, RapidMiner, SAS Enterprise Miner, KNIME, Microsoft SQL Server,
etc. »
complétera Julie.
Paul et ses équipes disposent donc d’une vaste
bibliothèque d’antécédents pour se mettre au travail rapidement, sans avoir à
réinventer l’eau tiède…
Sauf que tout ça, à peine élaboré est
directement bouleversé par les évènements du 7 octobre 2023 : non
seulement, il n’y avait aucune prévision « mathématique », aucun
logiciel pas même le « BBR 2.0 » pas spécialement axé sur la
Moyen-Orient, ni par le « BBR 3.0 » qui n’existe pas encore à cette
époque-là, pas plus en mode natif qu’en mode bêta et que la mémoire vraiment
défaillante de Paul n’aura été d’aucun secours.
Alexis en retient, qu’il est vraiment amnésique, réellement diminué, amputé comme d’un handicap, sur ce plan-là.
Lui, expliquera à qui oserait l’engueuler sur cette carence manifeste de son logiciel, que justement, c’est la preuve qu’il n’est pas au point : « Il y a encore beaucoup de travail à fournir pour le rendre opérationnel ! »
Il faut lui laisser le temps.
En revanche, on lui fait des offres de subventions pour qu’il ait les moyens d’accélérer. Il accepte par principe, mais n’en use pas ou seulement pour obtenir le détachement de quelques informaticiens de pointe plus facilement, normalement mobilisés pour sécuriser les JO de Paris.
Il paraît que c’est le même objectif, ce qu’on peut comprendre aisément…
Plus grave, Paul semblera très affecté quand il
apprendra que Rachel Beer-Shev’a[1],
l’espionne du Mossad qui aura notamment programmé, ou aidé à programmer les
logiciels comportementaux des « poupées » de Paul et notamment les
interfaces wifi et Bluetooth avec les bases de données disponibles sur la
planète, qu’il avait appelé pour venir l’épauler dans la mise au point du
« BBR 3.0 » – à la grande satisfaction de sa hiérarchie à elle,
puisqu’elle avait été envoyée dans l’entourage de Paul pour comprendre le
fonctionnement du « BBR 2.0 », et éventuellement être capable de le
dupliquer, sans avoir à acheter une licence à Pamentir – aura été assassiné par
le Hamas dans la rave party attaquée ce jour de Kippour !
Il s’en veut de n’avoir rien pu faire pour conserver vivant ce « talent-là »…
Car le 7 octobre 2023, à 6 h 30 du matin heure
locale, alors que les Israéliens s’apprêtent à célébrer Sim’hat Torah (la fête
de la Torah), le Hamas lance plusieurs milliers de roquettes Qassam sur l’ensemble
du territoire israélien, de Dimona au Sud jusqu’à Wadi Ara au Nord, et à
Jérusalem à l’Est du pays, une offensive massive, tandis que les positions et
localités israéliennes proches de la frontière gazaouie sont continuellement
bombardés par des obus de mortier.
C’est la surprise totale qui n’a d’égal que la
brutalité et la sauvagerie de l’agression…
Mohammed Deif, commandant des brigades Izz al-Din al-Qassam, appelle alors les Arabes israéliens ainsi que les musulmans du monde entier à se joindre à la lutte finale contre l’État hébreu qui doit mener à sa destruction totale et définitive…
Pour mémoire (n’en déplaise à « Poux-tine ») : « LE PRÉSENT
BILLET A ENCORE ÉTÉ RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR
UN MÉDIA DE MASSE « NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT «
NON RUSSE » !
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
[1] Cf. « Dans le sillage de Charlotte »
Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies), y compris sur la planète Terre, y est donc purement, totalement et parfaitement fortuite !
Heureusement, certaines techniques, appelées « méthodes d’ensembles » améliorent la qualité ou la fiabilité de la prédiction en construisant plusieurs arbres de décision depuis les données : par exemple « l’ensachage », une des premières méthodes historiquement, selon laquelle on construit plusieurs arbres de décision en rééchantillonnant l’ensemble d’apprentissage, puis en construisant les arbres par une procédure de consensus.
On peut également utiliser la classification par « rotation de forêts d’arbres de décision », dans laquelle on applique d’abord une analyse en composantes principales sur un ensemble aléatoire des variables d’entrée.
Mais parfois, les arbres de décision sont combinés entre eux ou à d’autres techniques d’apprentissage : analyse discriminante, régressions logistiques, régressions linéaires, réseaux de neurones, perceptron multicouche, ou autres.
« Pour faire simple », expliquera-t-il plus tard à Gustave Morthe de l’Argentière, sous le contrôle de Julie Déplante qui sait en principe de quoi on parle, « le deep learning fait partie du machine learning, et il en a fortement étendu les possibilités.
La différence peut être énoncée ainsi : linéaire versus non linéaire... »
À cette fin, le deep learning s’appuie sur une approche appelée « réseau neuronal », ou réseau de neurones artificiels, soit un réseau de fonctions connectées entre elles.
De fait, « deep » signifie profond et reflète le nombre de couches impliquées dans l’élaboration de l’algorithme.
Plus il y a de couches et plus le système est profond. Mais plus il peut accumuler des erreurs qu’il faut pouvoir corriger…
« C’est comme pour un navire qui va d’un port à un autre : si le cap est bon dès le départ, il dépensera moins d’énergie à rattraper son erreur de cap à l’arrivée.
Et c’est valable pour un avion, pour un satellite, un missile, mais pas pour une balle de fusil : une fois tirée, elle ne peut plus corriger son erreur originelle… »
De fait, si le deep learning a connu un essor majeur à partir des années 2000, c’est pour deux raisons principales : il nécessite de gigantesques volumes de données pour construire des algorithmes fiables.
Or, c’est à partir des années 2000 que des sites tels que Google ou Facebook ont fourni les volumes de données attendues. Et puis la montée de la puissance de calcul des ordinateurs a permis d’appliquer plus aisément le deep learning à de tels volumes de données.
C’est ainsi le deep learning qui est à la base de la plupart des systèmes d’intelligence artificielle qui sont apparus depuis 2022 : ChatGPT, HeyGen, Midjourney...
« Et c’est que ce que nous faisons assez basiquement avec le « BBR 2.0 », mais là, il s’agit d’une révolution copernicienne à réaliser avec la version 3.0 : on ne va pas pouvoir en faire l’économie… »
Ce qui fait que comparativement à d’autres méthodes de fouille de données, les arbres de décision présentent plusieurs avantages : la simplicité de compréhension et d’interprétation.
C’est un modèle dit « boîte blanche » : si l’on observe une certaine situation sur un modèle, celle-ci peut être facilement expliquée à l’aide de la logique booléenne, au contraire de modèles dits « boîte noire » comme les réseaux neuronaux, dont l’explication des résultats est difficile à comprendre pour ne pas pouvoir s’énoncer clairement.
Absence ou peu de préparation des données, pas de normalisation, de valeurs vides à supprimer, ou de variable muette, le modèle a l’avantage de pouvoir gérer à la fois des valeurs numériques et des catégories.
Il est alors possible de valider un modèle à l’aide de tests statistiques, et ainsi de rendre compte de la fiabilité du modèle.
En revanche, ils sont performants sur de grands jeux de données : la méthode est relativement économique en termes de ressources de calcul.
Mais, l’apprentissage de l’arbre de décision optimal n’est jamais complet. En conséquence, les algorithmes d’apprentissage par arbre de décision sont basés sur des heuristiques telles que les algorithmes gloutons cherchant à optimiser le partage à chaque nœud, et hélas, de tels algorithmes ne garantissent pas du tout d’obtenir l’optimum global.
Même si certaines méthodes visent à diminuer l’effet de la recherche gloutonne.
Par ailleurs, certains concepts sont difficiles à exprimer à l’aide d’arbres de décision.
Dans ces cas, les arbres de décision deviennent extrêmement larges. Et pour résoudre ce problème, plusieurs moyens existent, tels que la proportionnalisation, ou l’utilisation d’algorithmes d’apprentissage utilisant des représentations plus expressives, comme la programmation de logique inductive.
Ainsi, lorsque les données incluent des attributs ayant plusieurs niveaux, le gain d’information dans l’arbre est biaisé en faveur de ces attributs. Cependant, le problème de la sélection de prédicteurs biaisés peut être contourné par des méthodes telles que l’inférence conditionnelle.
Mais il existe également des algorithmes évolutionnistes qui sont utilisés pour éviter les séparations amenant à des optimums locaux.
On peut également échantillonner l’arbre en utilisant des méthodes MCMC dans un paradigme bayésien.
L’arbre peut être aussi être construit par une approche ascendante, du bas vers le haut.
Beaucoup de logiciels de fouille de données proposent d’ailleurs des bibliothèques permettant d’implémenter un ou plusieurs algorithmes d’apprentissage par arbre de décision.
« Par exemple, le logiciel Open Source R contient plusieurs implémentations de CART, telles que rpart, party et randomForest, les logiciels libres Weka et Orange et son module orngTree ou encore la bibliothèque libre Python scikit-learn.
Alexis en retient, qu’il est vraiment amnésique, réellement diminué, amputé comme d’un handicap, sur ce plan-là.
Lui, expliquera à qui oserait l’engueuler sur cette carence manifeste de son logiciel, que justement, c’est la preuve qu’il n’est pas au point : « Il y a encore beaucoup de travail à fournir pour le rendre opérationnel ! »
En revanche, on lui fait des offres de subventions pour qu’il ait les moyens d’accélérer. Il accepte par principe, mais n’en use pas ou seulement pour obtenir le détachement de quelques informaticiens de pointe plus facilement, normalement mobilisés pour sécuriser les JO de Paris.
Il paraît que c’est le même objectif, ce qu’on peut comprendre aisément…
Il s’en veut de n’avoir rien pu faire pour conserver vivant ce « talent-là »…
Mohammed Deif, commandant des brigades Izz al-Din al-Qassam, appelle alors les Arabes israéliens ainsi que les musulmans du monde entier à se joindre à la lutte finale contre l’État hébreu qui doit mener à sa destruction totale et définitive…
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
[1] Cf. « Dans le sillage de Charlotte »
Aucun commentaire:
Enregistrer un commentaire