L'armée de l'air américaine a démenti le 2 juin les informations selon lesquelles elle aurait mené une simulation dans laquelle un véhicule aérien sans pilote (UAV) sous le contrôle de l'intelligence artificielle (IA) aurait décidé de « tuer » son opérateur pour l'empêcher d'interférer avec sa mission, selon USA Today.
Les spéculations ont commencé le mois dernier lorsque, lors d’une conférence à Londres, le colonel Tucker Hamilton a déclaré qu’un drone contrôlé par l’IA utilisait « des stratégies extrêmement inattendues pour atteindre ses objectifs ».
Un drone MQ-9 Reaper de l'US Air Force sur la base aérienne de Kandahar en Afghanistan en 2018.
Selon lui, le test simulait un drone piloté par IA recevant l'ordre de détruire un système de défense aérienne ennemi. Puis, lorsque l'opérateur lui a ordonné d'ignorer la cible, le drone a attaqué et tué l'opérateur, car ce dernier interférait avec sa cible principale.
Cependant, personne n'a été réellement attaqué de cette manière. Dans une interview accordée à Business Insider , la porte-parole de l'US Air Force, Ann Stefanek, a déclaré qu'aucune simulation de ce type n'avait été réalisée.
L'avertissement terrifiant de l'ancien PDG de Google : l'IA a le pouvoir de « tuer » l'humanité
« L'armée de l'air n'a mené aucune activité de ce type et reste attachée à l'utilisation éthique et responsable de la technologie de l'IA », a déclaré le porte-parole, notant qu'« il semble que les commentaires du colonel aient été sortis de leur contexte ».
Suite à la déclaration de l'US Air Force, M. Hamilton a précisé qu'il s'était « mal exprimé » lors de sa présentation à Londres. Selon lui, la simulation était une expérience hypothétique. La Royal Aeronautical Society (Royaume-Uni), organisatrice de la conférence, n'a pas répondu aux demandes de commentaires.
Lien source
Comment (0)