Le 26 février, Quartz détaille dans un article le « système automatisé de ciblage et de létalité avancé » ATLAS, développé par l’armée américaine. Le monde a des sueurs froides. L’US Army annonce ainsi vouloir transformer ses chars d’assaut en machines létales autonomes alimentées par l’intelligence artificielle (IA). Alors que la controverse bat naturellement son plein, quelques jours plus tard, Defense One rapporte que l’armée assure que ses futurs robots tueurs blindés respecteront des normes éthiques. Ouf.
Rappelez-vous : à la fin du mois de février 2019, l’US Army lance un appel général à l’intention des sociétés privées. Elle leur demande d’exposer leur idées pour faire exister le système ATLAS. L’idée avec ce système est de permettre aux véhicules de combat de cibler et toucher une cible trois fois plus rapidement que lors d’un processus manuel, comme actuellement c’est le cas.
Face à la montée de l’indignation légitime, l’armée s’est empressée de tenter de rassurer tout le monde. Oui, elle construit bien des robots meurtriers, mais ces machines tueuses autonomes ne seront pas autorisées à tuer n’importe qui et n’importe quand ; elles seront soumises à une directive édictée par le ministère de la Défense. Celle-ci exige que les humains puissent « exercer un jugement approprié sur le recours à la force ».
Cela signifie qu’un robot autonome aura toujours besoin de la confirmation d’un être humain avant de tuer quelqu’un. Un humain de type soldat américain, cela va sans dire. Nous voilà tous super rassurés.
Sources : Defense One/Quartz