Plus de 16 000 personnes, chercheurs en intelligence artificielle et robotique mais aussi des personnalités telles que Stephen Hawking, Elon Musk ou Steve Wozniak ont signé, en juillet dernier, une lettre ouverte demandant « d’interdire préventivement les armes autonomes offensives sans contrôle significatif d’un être humain ». Car si aujourd’hui les humains détiennent le pouvoir de décision ultime sur les actions des systèmes d’armes autonomes, très bientôt la technologie va permettre aux robots de se passer de ce droit de veto et de prendre la décision d’attaquer ou non. Et cet avenir est très proche.
Ils ne sont pas les seuls à s’inquiéter. Depuis deux ans, la communauté internationale débat sur l’opportunité d’une réglementation des Systèmes d’armes létales autonomes (Sala) dans le cadre de la convention des Nations Unies sur certaines armes classiques. En avril dernier, 87 représentants d’Etat, des experts et des ONG se sont rencontrés à Genève afin de réfléchir aux enjeux éthiques et juridiques de l’utilisation des robots tueurs. Juste avant la conférence, l’organisation américaine Human Rights Watch avait publié une étude sur les questions de responsabilité civile et pénale. Quid en cas de crime contre l’humanité, en cas d’attaque illicite, en cas de mort provoquée par un robot sans contrôle ? La guerre n’est pas une zone de non-droit. Encore faudrait-il que l’IA d’un robot comporte toutes les règles du droit international et soit capable de les appliquer (proportionnalité, distinction entre civils et militaires, entre attaquants ou non, etc.). Par ailleurs, une cinquantaine d’ONG, regroupées autour de la campagne Stopkillerrobots font pression pour l’adoption d’un traité qui prohiberait le développement, la production et l’usage des robots tueurs. Une autre piste qui remporte plus d’adhésions viserait à imposer le contrôle final d’un humain sur les actes des machines.
La conférence qui s’est tenue à Genève n’avait pas pour but de déboucher sur une décision. Mais elle prépare le terrain à un débat institutionnel. En 2016 se tiendra la conférence d’examen de la Convention sur les armes classiques qui offrira un cadre plus formel. Fait assez rare pour être relevé : des pays, des fabricants d’armes et des ONG se réunissent pour identifier le bien-fondé d’un nouveau type d’armes qui n’existe pas encore mais qui serait susceptible de révolutionner la nature de la guerre. La lettre ouverte signée en juillet dernier ne peut que renforcer ce mouvement international vers un texte contraignant. Mais la partie n’est pas gagnée.
Rappelons-nous de la Convention sur l’interdiction des mines antipersonnel. Elle est entrée en vigueur en 1999 mais la majorité des États producteurs, dont les Etats-Unis, et utilisateurs de ces armes ont refusé d’adhérer au texte. Et puis, la prohibition des Sala ne fait pas consensus. En dehors de la défense de quelques intérêts économiques, certains avancent que les robots tueurs sauvent des vies tandis quand d’autres mettent en avant la déresponsabilisation que ces systèmes entraînent en dédramatisant la guerre.