Elon Musk, le cofondateur de Google DeepMind Mustafa Suleyman et 114 autres experts de l’intelligence artificielle et de la robotique ont écrit une lettre ouverte à l'ONU, publiée dimanche, pour demander à bannir l’usage des "robots tueurs".

Ils s’inquiètent de l’utilisation potentielle d’armes létales autonomes et de la manière dont elles pourraient être employées dans le futur, et ont écrit une note publiée par le Future of Life Institute – une association américaine qui lutte contre les risques liés à l’intelligence artificielle – pour faire part de leurs inquiétudes.

VOIR AUSSI : Elon Musk en appelle au gouvernement pour éviter que l'intelligence artificielle n'anéantisse le monde

Le texte a été publié le jour de l’ouverture de la Conférence internationale sur l’intelligence artificielle (IJCAI 2017) à Melbourne, en Australie, selon un communiqué de presse. Les "armes létales autonomes" font référence à des drones, des mitraillettes autonomes, des tanks, et d’autres types d’armes contrôlés par une intelligence artificielle.

Elon Musk, le PDG de SpaceX et de Tesla, a l’habitude de s’inquiéter des potentiels travers de l’intelligence artificielle, qu’il a récemment identifiée de "plus grande menace à laquelle doit faire face la civilisation", avant les armes nucléaires. Mais c’est la première fois qu’un groupe de PDG d’entreprises de robotiques et d’intelligence artificielle unissent leurs forces pour écrire une lettre ouverte spécifique sur la question à l’ONU, selon le communiqué de presse.

"Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer."

Lors de la conférence d’examen de la convention sur les armes classiques, l’ONU avait accepté à l’unanimité de commencer des discussions officielles sur l’interdiction des armes autonomes, et 19 États membres ont accepté de soutenir la prohibition des robots tueurs. Selon Fortune, le groupe de PDG et d’experts devaient se réunir le 21 août, mais le rassemblement a été reporté au mois de novembre.

La lettre ouverte, qui a été signée par des représentants d’entreprises valant collectivement des milliards de dollars à travers 26 pays dans le monde, pourrait même en remettre une couche pour pousser à l’interdiction. Le texte actuel est court et concis. Elle est disponible ici en entier, en voici un extrait :

"Les armes létales autonomes menacent de devenir la troisième révolution de l’armement. Une fois développées, elles permettront à des conflits armés de se jouer sur des échelles plus grandes et plus rapides que les hommes n’ont jamais connues. Elles pourraient être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes, et les armes piratées pourraient faire aussi de gros dégâts. Il ne nous reste pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer."

https-2f2fblueprint-api-production.s3.amazonaws.com2fuploads2fcard2fimage2f5687432f8bd9fee1-3a17-41aa-a3b8-833dffd33715.jpg
Un "robot tueur" autonome déjà disponible dans le monde.
FUTURE OF LIFE INSTITUTE

Un des cosignataires de la lettre, Yoshua Bengio, un expert qui a fondé Element AI, a indiqué qu’il n’était pas seulement inquiet des dommages immédiats que les armes létales autonomes pourraient causer. Il évoque également leur potentiel à "heurter le développement des applications bonnes de l’intelligence artificielle" en se focalisant sur l’armement et en entraînant des critiques inévitables sur la technologie de façon globale.

L’association Future of Life Institute avait publié une lettre similaire en 2015, qui avait été signée par Elon Musk et Stephen Hawking (entre autres), et qui alertait déjà sur les dangers plus larges de l’intelligence artificielle, et pas seulement dans l’armement. Le potentiel destructeur des "robots tueurs" est bel et bien là, en espérant que les experts de l’ONU le voient assez tôt.

– Adapté par Chloé Rochereuil. Retrouvez la version originale sur Mashable

Quelque chose à ajouter ? Dites-le en commentaire.