Le rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns, a appelé jeudi à un moratoire sur le développement et l'utilisation des ? robots létaux autonomes? (RLA) , afin de permettre une réflexion internationale sur l'encadrement de ces machines dotées du pouvoir de tuer.
? Si les drones sont systématiquement téléguidés par des êtres humains, auxquels revient la décision d'employer la force létale, les RLA sont, quant à eux, équipés de systèmes informatiques qui leur permettent de choisir leur cible de manière autonome ?, a rappelé M. Heyns lors de la présentation de son dernier rapport au Conseil des droits de l'homme à Genève.
? Les RLA soulèvent des questions considérables sur la protection de la vie, par temps de guerre et de paix. S'ils devaient être introduits, ce serait alors des machines, et non plus les humains, qui décideraient qui doit mourir et qui reste en vie ?, a-t-il expliqué.
Selon M. Heyns, ces machines pourraient rendre plus facile l'entrée en guerre d'un état, tout en rendant problématique le respect du droit humanitaire international. Il para?t pour l'heure incertain, selon le rapporteur spécial, que les RLA puissent être programmés de manière à faire la différence entre un combattant et un civil et à éviter les dommages collatéraux.
? Le déploiement des RLA pourrait rapidement devenir intolérable puisque aucun mécanisme de responsabilité pénale ne peut leur être appliqué?, a indiqué l'expert indépendant de l'ONU.
Dans son rapport, M. Heyns demande aux états de mettre en place un moratoire sur la production, l'assemblage, le transfert, l'acquisition, le déploiement et l'utilisation des RLA, au moins jusqu'à l'établissement d'un cadre international sur l'utilisation de ces machines.
? Une guerre sans conscience conduit à des carnages mécanisés?, a affirmé M. Heyns. ? La privation de la vie mérite d'amples délibérations. La décision de permettre à des machines de tuer des hommes mérite d'être m?rement réfléchie au niveau mondial ?.
? Les RLA purgent les décisions de leur composante humaine. Les états sont attirés par cette technologie parce que les êtres humains, en raison de leurs émotions, sont bien plus lents à décider que les robots?, a-t-il conclu.