Categories

Accueil > Actualité > Communiqués de presse internationaux > Nations unies : Il faut prendre des mesures fermes pour interdire les (...)

Nations unies : Il faut prendre des mesures fermes pour interdire les robots tueurs

27 août 2018

<https://www.amnesty.be/local/cache-...>

À l’heure où la rapidité des avancées technologiques laisse entrevoir la réalité de « robots tueurs » dans un futur proche, Amnesty International demande aux États de soutenir les négociations relatives à un nouveau texte de droit international visant à interdire les systèmes d’armes entièrement autonomes.

Le groupe d’experts gouvernementaux sur les systèmes d’armes létaux autonomes affilié à la Convention sur certaines armes classiques se réunira à Genève entre les 27 et 31 août 2018. Cette réunion est une opportunité cruciale pour les États de réfléchir à des solutions aux difficultés posées par les systèmes d’armes entièrement autonomes, sur le terrain des droits humains, de l’humanitaire, de l’éthique et de la sécurité. Voir aussi : ONU : Les violations du TCA jettent une ombre sur la conférence sur le contrôle des armes

«  Les robots tueurs ne relèvent plus seulement de la science-fiction. Entre les drones dotés d’une intelligence artificielle et les armes automatisées pouvant choisir elles-mêmes leurs cibles, la technologie évolue beaucoup plus vite que le droit international. Nous glissons peu à peu vers un futur où les humains pourraient être écartés de la prise de décisions en matière de recours à la force  », a déclaré Rasha Abdul Rahim, chercheuse et conseillère sur l’intelligence artificielle et les droits humains à Amnesty International.

«  Il n’est pas trop tard pour changer de cap. Interdire les systèmes d’armes entièrement autonomes pourrait empêcher des scénarios cauchemars de se concrétiser, comme par exemple une nouvelle course à l’armement de haute technologie entre superpuissances qui se solderait par une vaste prolifération des armes autonomes. Nous demandons aux États présents à Genève cette semaine d’agir avec la rapidité que cette question réclame, et de proposer un mandat ambitieux afin de répondre aux nombreux risques représentés par les armes autonomes. »

«  Il n’est pas trop tard pour changer de cap. Interdire les systèmes d’armes entièrement autonomes pourrait empêcher des scénarios cauchemars de se concrétiser, comme par exemple une nouvelle course à l’armement de haute technologie entre superpuissances qui se solderait par une vaste prolifération des armes autonomes. »

La majorité des États présents à la dernière réunion relative à la Convention sur certaines armes classiques en avril 2018 ont mis en avant l’importance du maintien d’un contrôle humain pour les systèmes d’armes et le recours à la force, et fait état de leur soutien à l’élaboration de nouveaux textes de droit international relatifs aux systèmes d’armes entièrement autonomes. Vingt-six d’entre eux se sont prononcés en faveur d’une interdiction totale, notamment l’Autriche, le Brésil et l’Égypte. La Chine a aussi appelé de ses vœux un nouveau protocole à la Convention, qui interdise l’utilisation des systèmes d’armes entièrement autonomes.

En revanche, un certain nombre de pays clés s’opposent à l’adoption d’interdictions juridiquement contraignantes, notamment des gouvernements dont on sait déjà qu’ils développent actuellement des systèmes d’armes autonomes, comme la Corée du Sud, les États-Unis, la France, Israël, le Royaume-Uni et la Russie.

Amnesty International demande la création de normes contraignantes afin que les humains restent au cœur des « fonctions essentielles » des systèmes d’armes telles que l’identification, la sélection et le traitement des cibles. C’est la seule manière de garantir le respect du droit international et de répondre aux préoccupations d’ordre éthique face à la possibilité que l’on délègue à des machines la prise de décision lorsqu’il s’agit de questions de vie et de mort.

Ces sujets ont été abordés lors de précédentes sessions relatives à la Convention, à propos d’une possible utilisation de ces systèmes dans un contexte de guerre. Amnesty International demande aux États de se pencher également sur les risques inhérents à une utilisation des armes autonomes dans le cadre de l’application des lois.

Amnesty International demande la création de normes contraignantes afin que les humains restent au cœur des « fonctions essentielles » des systèmes d’armes telles que l’identification, la sélection et le traitement des cibles.

« Jusqu’à présent, la possibilité que des armes autonomes puissent être utilisées lors d’opérations de police, avec tous les risques que cela représente, a en grande partie été négligée. Des drones capables d’envoyer des fléchettes à décharge électrique, du gaz lacrymogène et des projectiles contenant du gaz poivre existent déjà. Israël a récemment déployé des drones semi-autonomes afin d’envoyer du gaz lacrymogène sur des manifestants à Gaza, et il est probable que nous soyons témoins d’autres utilisations de ce genre de technologies par des organes chargés de l’application des lois dans le futur  », a déclaré Rasha Abdul Rahim.

«  Le recours à des armes entièrement autonomes dans le cadre de l’application des lois sans veritable contrôle humain serait incompatible avec le droit international relatif aux droits humains, et pourrait déboucher sur des homicides illégaux, des blessures et d’autres violations des droits humains. Nous demandons aux États de prendre des mesures concrètes afin d’empêcher que ces armes dangereuses ne se répandent, dans la rue comme sur les champs de bataille, avant qu’il ne soit trop tard. »

Complément d’information

Pour Amnesty International et ses partenaires de la campagne visant à stopper les robots tueurs https://www.stopkillerrobots.org/ , la seule solution est une interdiction totale du développement, de la production et du déploiement de systèmes d’armes létaux autonomes, au vu des risques qu’ils posent pour les droits humains et sur le plan humanitaire. L’utilisation d’armes létales entièrement autonomes en l’absence de véritable contrôle humain pourrait induire un déficit de responsabilité si, une fois déployées, elles sont en mesure de décider seules de l’opportunité de recourir à une force meurtrière.

Si on ne connaît pas avec précision le degré de sophistication que présenteront les futures technologies, il est très peu probable que des systèmes d’armes létaux entièrement autonomes puissent offrir l’éventail complet des caractéristiques intrinsèquement humaines requises afin de respecter le droit international. Cela inclut la capacité d’analyser les intentions qui sous-tendent les actions des personnes, d’évaluer des situations souvent changeantes et imprévisibles et d’y réagir, ou de prendre des décisions complexes concernant la proportionnalité ou la nécessité d’une attaque.

Les États se rassembleront de nouveau en novembre pour la réunion des Hautes Parties contractantes à la Convention sur certaines armes classiques, et auront l’occasion de s’accorder sur l’ouverture de négociations relatives à un instrument juridiquement contraignant.

Voir en ligne : https://www.amnesty.be/infos/actual...

Partager