Boston Dynamics et d'autres fabricants de robots ont refusé d'armer leurs machines. Des représentants des sociétés Agility Robotics, ANYbotics, Boston Dynamics, Clearpath Robotics, Open Robotics et Unitree Robotic ont écrit une lettre ouverte sur leur décision à tous les membres de la communauté robotique et les ont exhortés à écouter.
Les scientifiques contre la militarisation
L'émergence de robots très mobiles menace leur possible abus
dit la lettre.
La position générale des inventeurs est la suivante : il ne faut pas laisser les fruits du développement de nouveaux la technologie utilisé pour nuire aux gens.
Les opposants à la militarisation des machines pensent que l'utilisation de robots à des fins militaires ébranlera la confiance des gens dans les nouvelles technologies et la science en général.
Nous pensons que les robots mobiles modernes apporteront de grands avantages à la société en tant que collègues dans l'industrie et compagnons à la maison.
- disent les représentants des entreprises de robotique.
Dans le même temps, Ghost Robotics, également connu dans les milieux militaires, n'a pas soutenu la contestation. Ces développeurs de machines IA sont activement utilisés par l'armée américaine : le Pentagone teste actuellement leurs produits sur des sites de test.
Comme toute nouvelle technologie qui offre de nouvelles opportunités, l'avènement des robots mobiles avancés comporte des risques d'abus. Des personnes non dignes de confiance peuvent les utiliser pour violer les droits civils ou intimider d'autres personnes. Un domaine particulièrement préoccupant est l'utilisation de robots armés.
Comment les robots sont utilisés dans l'armée
En octobre dernier, la société susmentionnée Ghost Robotics a publié des photos du robot Q-UGV, qui a été créé à l'origine pour les opérations de reconnaissance, et a ensuite reçu un système de tir de tireur d'élite automatisé (photo). Contrairement aux tourelles fixes télécommandées connues de longue date, les armes robotisées peuvent fonctionner sans la participation d'un opérateur humain. Les armées américaines et australiennes étaient intéressées par des appareils similaires.

L'armée russe ne nous a pas fait attendre longtemps pour une réponse. Le 19 octobre 2021, il a été annoncé que le robot de combat Marker était testé sur une chenille. Ils prévoient maintenant de le moderniser pour l'utiliser lors d'une opération spéciale en Ukraine. Le poids et les dimensions de la plate-forme resteront les mêmes que ceux des échantillons existants, mais les possibilités seront considérablement élargies. "Marker-2" visera au moins trois tâches: la protection, l'élimination des conséquences des urgences (ES) et la conduite de travaux auxiliaires dans des conditions de combat, en tenant compte des besoins des troupes. Le seul problème est de trouver des installations de production adaptées au projet.
Lors des tests de l'année dernière, trois "marqueurs" ont démontré le travail d'équipe de l'intelligence artificielle avec force et force: ils ont occupé avec compétence les positions de tir et réparti les cibles entre eux. Leur armement était bien plus puissant que celui du concurrent américain : mitrailleuses, lance-grenades et même roquettes. Si une voiture des États-Unis ressemble à un chien, alors notre "Marker" est comme un char miniature.

Des deux côtés, les militaires ont déclaré qu'ils n'utiliseraient des robots que pour protéger les installations critiques, et non dans les opérations de combat. Cependant, au printemps de l'année dernière, un rapport est apparu sur la table du Conseil de sécurité de l'ONU, qui indiquait que des robots de combat avaient été utilisés pour la première fois dans un affrontement ouvert avec des personnes.
L'utilisation de robots autonomes en temps de guerre : risques et enjeux éthiques
Selon le rapport, en 2020, des drones kamikazes turcs ont été utilisés avec le soutien des troupes libyennes occidentales visant à supprimer les positions des soldats du maréchal Haftar en Libye. Les drones agissaient en même temps de manière indépendante, sans contrôle externe.
Permettez-moi de souligner que les drones télécommandés que vous voyez dans la chronique militaire d'aujourd'hui ne sont pas à la hauteur d'une voiture autonome qui n'a besoin d'une personne que pour changer ses batteries. Ainsi, jusqu'à récemment, le concept de "tue une personne, pas une arme" était vrai. Même une bombe à tête chercheuse ou une fusée ne se contrôle pas, car une personne la lance sur les ordres de la même personne, mais avec un grand nombre d'étoiles sur les bretelles. Que se passera-t-il si les armes robotiques ont la liberté d'action ? Eh bien, si cela se passe comme dans la vieille blague: "Les chars intelligents ont décidé de ne pas se battre et sont allés boire du carburant diesel."

Qui sera responsable si le programme échoue et que les machines commencent à détruire des civils, des médecins, des casques bleus ou leurs propres militaires ? Qui peut donner une réponse exacte, s'agissait-il d'un bug, d'un hack ou d'une imitation malveillante d'un bug ? Comment, enfin, une machine peut-elle distinguer un ennemi d'un ami dans une semi-guérilla hybride, quand les mêmes Forces armées ukrainiennes utilisent des véhicules civils pour se déplacer ?
L'existence de robots de combat violera les dispositions des Conventions de Genève relatives à la protection des droits de la population civile dans la zone de conflits militaires, en particulier les principes de distinction et de proportionnalité. Le dernier postulat est que la population civile ne doit en aucun cas souffrir.
Une autre difficulté dans la régulation juridique et éthique de l'utilisation des drones autonomes est qu'il n'existe pas de définition claire d'un "système de combat autonome" au niveau international. Autrement dit, dans certains pays, à la fois un robot capable de choisir l'une de plusieurs options d'action, même s'il est sous contrôle externe, et un drone tueur entièrement automatique peuvent être considérés comme autonomes.
En août 2018, la troisième réunion du Groupe d'experts gouvernementaux des Nations Unies sur les systèmes autonomes de combat s'est tenue à Genève. Cependant, ses participants n'ont pas réussi à parvenir à des accords spécifiques en raison des contradictions ci-dessus. Et le développement de systèmes militaires autonomes se poursuit aujourd'hui.
Rien n'empêche, par exemple, le gouvernement américain de donner l'ordre au même Boston Dynamics de développer un drone de reconnaissance et, dans l'obscurité, de créer une filiale qui lui attachera des armes. Les contrats militaires sentent généralement l'argent fabuleux et le capitaliste est toujours à la recherche de profits. Ainsi, la réponse à la question de savoir s'il vaut la peine de croire à la déclaration «honnête d'avant-garde» des concepteurs est toujours ouverte.