Bienvenue !

Oui, entrez, entrez, dans le « Blog » de « l’Incroyable Ignoble Infreequentable » ! Vous y découvrirez un univers parfaitement irréel, décrit par petites touches quotidiennes d’un nouvel art : le « pointillisme littéraire » sur Internet. Certes, pour être « I-Cube », il écrit dans un style vague, maîtrisant mal l’orthographe et les règles grammaticales. Son vocabulaire y est pauvre et ses pointes « d’esprit » parfaitement quelconques. Ses « convictions » y sont tout autant approximatives, changeantes… et sans intérêt : Il ne concoure à aucun prix littéraire, aucun éloge, aucune reconnaissance ! Soyez sûr que le monde qu’il évoque au fil des jours n’est que purement imaginaire. Les noms de lieu ou de bipède et autres « sobriquets éventuels » ne désignent absolument personne en particulier. Toute ressemblance avec des personnages, des lieux, des actions, des situations ayant existé ou existant par ailleurs dans la voie lactée (et autres galaxies) y est donc purement et totalement fortuite ! En guise d’avertissement à tous « les mauvais esprits » et autres grincheux, on peut affirmer, sans pouvoir se tromper aucunement, que tout rapprochement des personnages qui sont dépeints dans ce « blog », avec tel ou tel personnage réel ou ayant existé sur la planète « Terre », par exemple, ne peut qu’être hasardeux et ne saurait que dénoncer et démontrer la véritable intention de nuire de l’auteur de ce rapprochement ou mise en parallèle ! Ces « grincheux » là seront SEULS à en assumer l’éventuelle responsabilité devant leurs contemporains…

lundi 14 février 2022

Les robots tueurs.

Je suis ces évolutions de loin en loin.
 
Car dans mes « créations littéraires » de « néo-fiction » (puisque je vous gratifie en permanence de faits avérés bien réel pour mettre en scène mes personnages), bien entendu, les « inventions technologiques » de demain sont déjà en préparation dans les laboratoires d’aujourd’hui et même d’hier.
Vous savez, le « monde d’après » qui se dessine sous nos nez en catimini, tous ces « fils-rouges » qui s’entremêlent les uns les autres…
Prenez donc les « robots-tueurs » : De la science-fiction ?
Pas du tout !
On les aura même vus à l’œuvre dans le récent conflit Arménien du 27 septembre 2020 dans le Haut-Karabagh entre les forces arméniennes et azerbaïdjanaises, qui aura duré à peine 44 jours en mettant à genoux les troupes arméniennes…
Et c’était le fait de drones semi-autonomes, d’origine turque…
Imaginez-vous qu’on va encore améliorer leur efficacité opérationnelle.
 
Voici un scénario à envisager : Une force militaire a acheté un million de drones volants bon marché et jetables, chacun de la taille d’un jeu de cartes, capable de transporter trois grammes d’explosifs – assez pour tuer une seule personne – ou, dans une « charge creuse », percer un mur d’acier.
Ils ont été programmés pour rechercher et « engager » (tuer, neutraliser, éliminer) certains êtres humains, sur la base de caractéristiques spécifiques de « signature » comme le port d’une arme, par exemple, ou une couleur de peau particulière, une tenue vestimentaire qui ressemble à un uniforme, par exemple.
Ils tiennent dans un seul conteneur d’expédition et peuvent être déployés à distance.
Une fois lancés, ils volent et tuent de manière autonome sans aucune autre action humaine.
Cela pourrait arriver demain puisque la technologie existe déjà.
 
En fait, les systèmes d’armes autonomes létaux (LAWS, pour Lethal Autonomous Weapons Systems) ont une longue histoire : Au printemps 1972, l’implication des scientifiques de Jason dans la conception de certaines parties de ce qui était alors connu sous le nom de « champ de bataille automatisé », était déjà prévu pour un déploiement au Vietnam.
Ce système s’avérerait en effet être un précurseur des systèmes d’armes autonomes létales qui sont sur le point de devenir une partie potentiellement significative de l’arsenal de pays du monde entier.
Washington était alors confronté à un certain nombre de problèmes stratégiques en poursuivant sa guerre en Indochine, notamment la corruption générale et l’impopularité du régime sud-vietnamien qu’il soutenait.
Cependant, son plus grand défi militaire était probablement l’infiltration continue de personnel et de fournitures par le Nord-Vietnam sur ce qu’on appelait la piste Ho Chi Minh, qui courait du nord au sud le long des frontières cambodgienne et laotienne.
La Piste était en fait un réseau de routes et de chemins de terre facilement réparables, de ruisseaux et de rivières, situés sous une épaisse couverture de jungle qui rendait presque impossible la détection des mouvements depuis les airs.
 
La réponse américaine, développée par Jason en 1966 et déployée l’année suivante, était une tentative d’interdire cette infiltration en créant un champ de bataille automatisé composé de quatre parties, analogues aux yeux, aux nerfs, au cerveau et aux membres d’un corps humain.
Les yeux étaient constitués d’une grande variété de capteurs – acoustiques, sismiques et même chimiques (pour détecter l’urine humaine) – le plus souvent largués par voie aérienne dans la jungle.
Les équivalents nerveux transmettaient des signaux au « cerveau ».
Cependant, comme les capteurs n’avaient qu’une portée maximale d’environ 30 km, l’armée américaine devait constamment faire voler des avions au-dessus du couvert forestier pour capter tout signal susceptible d’être déclenché par le passage de troupes ou de transports nord-vietnamiens.
Les avions devaient ensuite relayer les nouvelles au cerveau. Conçus à l’origine pour être télécommandés, ces avions avaient des performances si médiocres que des pilotes humains étaient généralement nécessaires.
Et ce cerveau, une magnifique installation militaire construite en secret à Nakhon Phanom, en Thaïlande, abritait deux ordinateurs centraux IBM à la pointe de la technologie du moment.
Une petite armée de programmeurs écrivait et réécrivait le code pour les faire fonctionner, tout en essayant de donner un sens au flux de données transmises par ces avions.
Les coordonnées des cibles qu’ils obtenaient étaient ensuite transmises aux avions d’attaque, qui étaient les équivalents des membres.
Le groupe qui dirigeait ce champ de bataille automatisé était appelé « Task Force Alpha » et l’ensemble du projet portait le nom de code « Igloo White ».
 
Il s’est avéré qu’« Igloo White » a été en grande partie un échec coûteux, environ un milliard de dollars par an pendant cinq ans (un total de près de 40 milliards de dollars en dollars d’aujourd’hui).
Le décalage entre le déclenchement d’un capteur et le largage des munitions a rendu le système inefficace. Par conséquent, la « Task Force Alpha » a parfois simplement bombardé des zones où un seul capteur aurait pu se déclencher.
Les Nord-Vietnamiens ont rapidement compris le fonctionnement de ces capteurs et ont mis au point des méthodes pour les tromper, allant de la diffusion d’enregistrements de démarrage de camions à la mise en place de seaux d’urine.
 
Étant donné l’histoire des systèmes d’armes semi-automatisés tels que les drones et les « bombes intelligentes » dans les années qui ont suivi, vous ne serez probablement pas surpris d’apprendre que ce premier champ de bataille automatisé ne pouvait pas faire la distinction entre les soldats et les civils.
En cela, ils n’ont fait que poursuivre une tendance qui existe depuis au moins le XVIIIème siècle et selon laquelle les guerres tuent régulièrement plus de civils que de combattants.
Aucune de ces lacunes n’a empêché les responsables du ministère de la Défense de considérer le champ de bataille automatisé avec admiration.
Un haut fonctionnaire du Pentagone qui a visité le Vietnam en 1968 raconte : « Tout comme il est presque impossible d’être agnostique dans la cathédrale de Notre-Dame, il est difficile de ne pas se laisser emporter par la beauté et la majesté du temple de la Task Force Alpha. »
 
Effectivement, la plupart des aspects de ce champ de bataille « automatisé » de l’ère du Vietnam nécessitaient en fait une intervention humaine.
Des êtres humains installaient les capteurs, programmaient les ordinateurs, pilotaient les avions et lâchaient les bombes. Dans quel sens, alors, ce champ de bataille était-il « automatisé » ?
Comme un signe avant-coureur de ce qui allait arriver, le système avait éliminé l’intervention humaine à un seul point crucial du processus : La décision de tuer ! Sur ce champ de bataille automatisé, les ordinateurs décidaient où et quand larguer les bombes.
 
En 1969, le chef d’état-major de l’armée William Westmoreland a exprimé son enthousiasme pour l’élimination de l’élément humain désordonné de l’élaboration de la guerre.
S’adressant à un déjeuner de l’Association de l’US Army, un groupe de pression, il a déclaré : « Sur le champ de bataille du futur, les forces ennemies seront localisées, suivies et ciblées presque instantanément grâce à l’utilisation de liaisons de données, à l’évaluation du renseignement assistée par ordinateur et à la conduite de tir automatisée.
Avec des probabilités d’élimination au premier tour proches de la certitude, et avec des dispositifs de surveillance capables de suivre l’ennemi en permanence, la nécessité de disposer de forces importantes pour fixer l’opposition sera moins importante. »
Ce que Westmoreland voulait dire par « fixer l’opposition », c’était tuer l’ennemi.
Un autre euphémisme militaire du XXIème siècle est « engager ». Dans les deux cas, le sens est le même : Le rôle des systèmes d’armes autonomes létaux est de trouver et de tuer automatiquement des êtres humains, sans intervention humaine.
 
Chaque automne, la British Broadcasting Corporation parraine une série de quatre conférences données par un expert dans un domaine d’étude important. En 2021, la BBC a invité Stuart Russell, professeur d’informatique et fondateur du Center for Human-Compatible Artificial Intelligence de l’université de Californie à Berkeley, à donner ces « conférences Reith ».
Son sujet général était l’avenir de l’intelligence artificielle (IA), et la deuxième conférence était intitulée « Le rôle futur de l’IA dans la guerre ».
Il y abordait la question des systèmes d’armes autonomes létaux, ou LAWS, que les Nations unies définissent comme « des armes qui localisent, sélectionnent et engagent des cibles humaines sans supervision humaine. »
Le point principal de Russell, éloquemment exposé, est que, bien que de nombreuses personnes pensent que les armes autonomes létales sont un futur cauchemar potentiel, résidant dans le domaine de la science-fiction, « elles ne le sont pas. Vous pouvez les acheter aujourd’hui. Elles sont proposées sur le web. »
 
Notez qu’un système d’armes n’a pas besoin d’être conscient de lui-même pour agir de manière autonome ou pour présenter une menace pour des êtres humains innocents, il ne fait qu’appliquer les instructions d’un logiciel.
Ce dont il a besoin, c’est : Une plateforme mobile (tout ce qui peut se déplacer, du minuscule quadricoptère à un avion à voilure fixe), une capacité sensorielle (la capacité de détecter des informations visuelles ou sonores), la capacité de prendre des décisions tactiques (le même type de capacité que l’on trouve déjà dans les programmes informatiques qui jouent aux échecs) et la capacité « d’engager », c’est-à-dire de tuer (ce qui peut être aussi compliqué que de tirer un missile ou de larguer une bombe, ou aussi rudimentaire que de commettre un suicide robotique en percutant une cible et en explosant).
La réalité est que de tels systèmes existent déjà !
En effet, une entreprise d’armement publique turque a récemment fait la publicité de son drone Kargu, un quadricoptère « de la taille d’une assiette », comme l’a décrit Russell, qui peut transporter un kilogramme d’explosifs et est capable d’effectuer des « frappes autonomes antipersonnel » avec des « cibles sélectionnées sur des images et par reconnaissance faciale ».
Le site de la société a depuis été modifié pour souligner son adhésion à un supposé principe de « l’être humain dans la boucle ».
Ce qui n’est d’ailleurs pas le cas dans des systèmes de défense anti-aériennes qui protègent navires et bases militaires.
Cependant, l’ONU a signalé qu’un Kargu-2 entièrement autonome a, en fait, été déployé en Libye en 2020.
Vous pouvez dès à présent acheter votre propre quadricoptère sur Amazon, mais vous devrez tout de même mettre en œuvre quelques compétences informatiques de bricolage si vous voulez qu’il fonctionne de manière autonome.
 
En réalité, les systèmes d’armes autonomes mortels ont moins de chances de ressembler à un film de Terminator qu’à des essaims de minuscules robots tueurs.
La miniaturisation des ordinateurs signifie que la technologie existe déjà pour créer des LAWS efficaces.
Si votre téléphone intelligent pouvait voler, il pourrait être une arme autonome. Les téléphones les plus récents utilisent un logiciel de reconnaissance faciale pour « décider » d’autoriser l’accès.
Il n’est pas difficile de créer des armes volantes de la taille d’un téléphone, programmées pour « décider » d’attaquer des individus spécifiques, ou des individus présentant des caractéristiques spécifiques. En fait, il est probable que de telles armes existent déjà.
Alors, qu’est-ce qui ne va pas avec les LAWS, et y a-t-il un intérêt à essayer de les rendre illégales ?
 
Certains opposants affirment que le problème est qu’ils éliminent la responsabilité humaine dans la prise de décisions létales. Ces critiques suggèrent que, contrairement à un être humain qui vise et appuie sur la queue de détente d’un fusil, une LAWS peut choisir et tirer sur ses propres cibles.
C’est là, selon eux, que réside le danger particulier de ces systèmes, qui feront inévitablement des erreurs, comme le reconnaîtra toute personne dont l’iPhone a refusé de reconnaître son visage.
De fait, le problème n’est pas que les systèmes autonomes écartent les êtres humains des décisions létales : Dans la mesure où les armes de ce type font des erreurs, les êtres humains porteront toujours la responsabilité morale du déploiement de ces systèmes létaux imparfaits.
Les LAWS sont conçus et déployés par des êtres humains, qui restent donc responsables de leurs actions.
Comme les drones semi-autonomes du moment (souvent pilotés depuis l’autre bout du monde), les systèmes d’armes autonomes létaux ne suppriment pas la responsabilité morale et « politique » humaine.
Ils augmentent simplement la distance entre le tueur, l’abri, et la cible démunie d’une possibilité de riposter.
 
De plus, comme les armes déjà interdites, y compris les armes chimiques et biologiques, ces systèmes ont la capacité de tuer sans discernement. S’ils ne suppriment pas la responsabilité humaine, une fois activés, ils échapperont certainement au contrôle de l’être humain, tout comme les gaz toxiques ou les virus armés, à l’instar du « Conard-virus ».
Et comme pour les armes chimiques, biologiques et nucléaires, leur utilisation pourrait être efficacement empêchée par le droit et les traités internationaux.
Il est vrai que des acteurs malhonnêtes, comme le régime « d’Assad-le-chimique » en Syrie ou l’armée américaine dans la ville irakienne de Fallujah, peuvent occasionnellement violer ces règles, mais dans l’ensemble, les interdictions d’utiliser certains types d’armes potentiellement dévastatrices ont été respectées, dans certains cas depuis plus d’un siècle.
 
Certains experts américains en matière de défense soutiennent que, puisque les adversaires développeront inévitablement des LAWS, le bon sens exige que le pays fasse de même, ce qui implique que la meilleure défense contre un système d’armes donné est un système identique.
Cela a autant de sens que de combattre le feu par le feu alors que, dans la plupart des cas, l’utilisation de l’eau est de loin la meilleure option, mais peu leur importe.
Le domaine du droit international qui régit le traitement des êtres humains en temps de guerre est, pour des raisons historiques, appelé droit international humanitaire (DIH).
En 1995, les États-Unis ont ratifié un ajout au DIH : La Convention des Nations unies de 1980 sur certaines armes classiques. En abrégé CCW.
Elle régit l’utilisation, par exemple, d’armes incendiaires comme le napalm, ainsi que d’agents biologiques et chimiques.
Les signataires du CCW se réunissent périodiquement pour discuter des autres armes qui pourraient tomber sous sa juridiction et ses interdictions, y compris les LAWS.
La conférence la plus récente a eu lieu en décembre 2021.
Bien qu’il existe des transcriptions des débats, seul un projet de document final – rédigé avant l’ouverture de la conférence – a été publié.
Cela peut s’expliquer par le fait qu’aucun consensus n’a été atteint sur la manière même de définir ces systèmes, et encore moins sur la question de savoir s’ils doivent être interdits.
L’Union Européenne, les Nations-Unies, au moins 50 nations signataires et (selon les sondages) la majorité de la population mondiale estiment que les systèmes d’armes autonomes devraient être interdits.
Les États-Unis, Israël, le Royaume-Uni et la Russie ne sont pas d’accord, ainsi que quelques autres pays.
 
Avant ces réunions de la CCW, un groupe d’experts gouvernementaux (GEG) se réunit, apparemment pour fournir des conseils techniques pour les décisions à prendre par les « hautes parties contractantes » de la Convention.
En 2021, le GGE n’a pas été en mesure de parvenir à un consensus sur l’interdiction de ces armes : Les États-Unis ont estimé que même la définition d’une arme autonome létale n’était pas nécessaire (peut-être parce que si elles pouvaient être définies, elles pourraient être interdites).
La délégation américaine s’est exprimée en ces termes : « Les États-Unis ont expliqué leur point de vue selon lequel une définition de travail ne devrait pas être rédigée dans le but de décrire les armes qui devraient être interdites. Cela serait – comme certains collègues l’ont déjà noté – très difficile de parvenir à un consensus, et contre-productif. Parce qu’il n’y a rien d’intrinsèque dans les capacités autonomes qui rendrait une arme interdite en vertu du DIH, nous ne sommes pas convaincus que l’interdiction des armes sur la base de degrés d’autonomie, comme l’ont suggéré nos collègues français, soit une approche utile. »
La délégation américaine était également désireuse d’éliminer toute formulation qui pourrait exiger un « contrôle humain » de ces systèmes d’armes : « (À) notre avis, le DIH n’établit pas d’exigence de « contrôle humain » en tant que tel… L’introduction d’exigences nouvelles et vagues comme celle du contrôle humain pourrait, selon nous, semer la confusion plutôt que la clarté, surtout si ces propositions sont incompatibles avec les pratiques acceptées de longue date dans l’utilisation de nombreux systèmes d’armes courants dotés de fonctions autonomes. »
 
Au cours de la même réunion, cette délégation a insisté à plusieurs reprises sur le fait que les armes autonomes létales seraient en fait bonnes pour leurs détenteurs, car elles s’avéreraient sûrement meilleures que les êtres humains pour distinguer les civils des combattants.
Et si vous croyez que la protection des civils est la raison pour laquelle l’industrie de l’armement investit des milliards de dollars dans le développement d’armes autonomes, n’imaginez pas que les mines anti-personnelles ont été balayées des champs de bataille qui tuent encore des civils alors que les armes ont été déposées !
 
Le groupe d’experts gouvernementaux compte également environ 35 membres non étatiques, dont des organisations non gouvernementales et des universités.
La Campagne pour arrêter les robots tueurs, une coalition de 180 organisations, parmi lesquelles Amnesty International, Human Rights Watch et le Conseil œcuménique des églises, est l’une d’entre elles.
Lancé en 2013, ce groupe dynamique fournit des commentaires importants sur les problèmes techniques, juridiques et éthiques présentés par les LAWS et offre aux autres organisations et aux individus un moyen de s’impliquer dans la lutte pour interdire ces systèmes d’armes potentiellement dévastateurs.
La construction et le déploiement continus de robots tueurs ne sont pourtant pas inévitables.
En effet, une majorité du monde souhaite les voir interdits, y compris le secrétaire général des Nations-Unies, Antonio Guterres : « Les machines ayant le pouvoir et la discrétion de prendre des vies humaines sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international. »
 
Pour ma part, quand j’apprends que les futurs systèmes d’armes de nos forces aériennes seront équipés de drones autonomes de protection et d’attaque de nos futurs chasseurs, je me dis que décidément, on aura encore inventé des « machines à tuer » toujours plus efficaces.
Comme s’il n’y avait pas déjà suffisamment de façon de mourir…
Et qu'il me faut en tenir compte dans mes prochains « romans d’été »…
Bonne saint Valentin à toutes et tous tout de même !

Aucun commentaire:

Enregistrer un commentaire