Tag Archives: inquiétude des scientifiques

« Intelligence artificielle » militaire: pourquoi les scientifiques s’inquiètent

Par Victor GarciaLe robot du film Terminator, qui vient de fêter ses 30 ans, à l'Egyptian Theatre d'Hollywood le 15 octobre 2014

Le robot du film Terminator, qui vient de fêter ses 30 ans, à l’Egyptian Theatre d’Hollywood le 15 octobre 2014

afp.com/Frazer Harrison

Plus de 1000 experts en robotique et en intelligence artificielle ont signé une lettre qui alerte sur le développement de l’intelligence artificielle militaire et les « armes autonomes » capables d’ôter la vie.

Empêcher « le jour du Jugement dernier« . Voilà ce que plus de 1000 experts en robotique et en intelligence artificielle, mais aussi des intellectuels et philosophes, sont bien décidés à faire. Leur lettre ouverte mettant en garde contre les « armes autonomes » et « la course au développement d’une intelligence artificielle militaire » (la lettre complète ici) a rapidement fait le tour du monde, ou du moins d’Internet, et a engendré de nombreux débats.

A l’appel d’Elon Musk, entrepreneur cofondateur de SpaceX et de Tesla Motors, John Carmack, l’un des développeurs de jeux vidéo les plus connus au monde, répond: « Cela semble bien trop inéluctable. Argumenter contre serait futile ».

« Même si c’est inéluctable, nous devrions au moins tenter de retarder l’avènement de l’intelligence artificielle militaire. Le plus tôt n’est pas le mieux », lui rétorque Musk. Un débat auquel Markus Persson, le développeur du jeu Minecraft, et Marc Andreessen, le fondateur de Netscape, se sont greffés.

En guerre contre les « robots tueurs »

Ce que redoutent très précisément le physicien Stephen Hawking, l’entrepreneur Elon Musk, le philosophe Noam Chomsky et les autres grands noms qui ont signé cette lettre ouverte, c’est une « course au développement d’une I.A. militaire ». Et plus particulièrement son aboutissement: les « armes autonomes », plus communément appelées « robots tueurs ». Concrètement, il s’agirait de drones -des tanks, des avions- ou de robots humanoïdes qui pourraient décider, de manière autonome, d’ôter la vie.

La différence avec les drones actuels -pilotés par des hommes- ou les missiles téléguidés? Ce ne serait plus un humain qui « appuierait sur le bouton » pour ôter la vie, mais une machine, un programme basé sur un algorithme sophistiqué, « intelligent », capable de déterminer qui doit mourir, ou non. Cette « menace » bien réelle « compte tenu des progrès technologiques » pourrait se manifester « d’ici quelques années », estiment les chercheurs.

La réflexion n’est pas nouvelle. Cinq experts en intelligence artificielle dont Stuart Russell, professeur d’informatique à l’Université de Californie, avaient déjà publié un rapport dans la revue Nature en mai. L’ONG Human Rights Watchs avait fait de même un mois plus tôt, en s’attachant notamment aux problèmes juridiques et l’impossibilité de déterminer une responsabilité légale en cas de meurtre.

Si « une puissance militaire majeure commence à se développer sérieusement dans ce domaine, inévitablement, les autres suivront ». Il faut donc, selon les signataires de la lettre ouverte, interdire au plus vite l’utilisation de l’IA dans le domaine militaire, tout comme la course vers « la guerre des étoiles » ou encore l’utilisation d’armes chimiques et biologiques ont été bannis dans différents traités internationaux.

Où en est la recherche militaire et civile?

Autant être clair, pour le moment, nous sommes encore loin de Skynet -une véritable intelligence artificielle consciente d’elle-même- et de ses Terminators. Mais les progrès -qui permettront bientôt aux militaires de présenter une technologie « acceptable, fiable, sûre »- sont bien réels.

La preuve? L’explosion récente du « deap learning » -utilisée par Google, Facebook, Microsoft, Amazon etc.- par exemple. Cette technologie se base sur « des réseaux de neurones artificiels » capables d’apprendre à reconnaître une voix, une langue, des visages. Autre avancée technologique: les progrès mécaniques des robots leur permettent désormais se déplacer sur terre, mer, air, de plus en plus facilement.

Mark Gubrud, chercheur à l’université de Princeton et membre du comité international de contrôle des robots armés, en est persuadé: « L’armée (américaine, NDLR) ne veut pas entendre parler d’une ligne rouge (consistant à interdire aux robots de décider de tuer, NDLR) ce qui revient à dire ‘nous allons le faire' », explique-t-il sur The Verge.

La peur de perdre le contrôle sur la machine

Mais pourquoi les « robots tueurs » seraient forcément une menace? Dans leur lettre, les scientifiques abordent quelques arguments « pour ou contre ». Les « armes autonomes » pourraient remplacer les Hommes sur le champ de bataille et ainsi diminuer les pertes humaines -pour le camp qui les possède. Mais ils pourraient aussi réduire les réserves des va-t-en-guerre: sans perte humaine, moins de critiques de l’opinion publique.

« Peu coûteuses et ne nécessitant pas de matériaux rares, contrairement aux bombes nucléaires, ces armes deviendraient rapidement omniprésentes. Il ne faudrait pas attendre longtemps avant de les retrouver sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler leur population, de chefs de guerre aux tendances génocidaire, etc. », imaginent encore les auteurs de la lettre.

La couverture des Marteaux de Vulcain, roman de science-fiction de Philip K. Dick. où les super-ordinateurs décident pour l'humanité

La couverture des Marteaux de Vulcain, roman de science-fiction de Philip K. Dick. où les super-ordinateurs décident pour l’humanité

Certes, les fous de guerre n’ont pas attendu les robots pour imposer leur loi et leurs folies. Sauf qu’avec des telles armes, ces opérations seraient plus faciles, moins chères et, surtout, ne se heurteraient plus jamais à la morale et la conscience humaine.

L’intelligence artificielle, oui, mais strictement encadrée

La conscience de soi, la morale et son application au domaine robotique et informatique… C’est bien là le véritable noeud du problème qui, s’il n’est pas directement évoqué, est largement sous-entendu dans la lettre ouverte. Doit-on créer une véritable « intelligence artificielle consciente » d’elle-même, une « singularité technologique« , avec toutes les problématiques qui y sont fatalement liées?

Pourra-t-on, un jour, doter cette machine surpuissante de morale? Et, même si c’est le cas, comment être sûr qu’elle ne décide pas, par raisonnement -typiquement humain- ou à cause d’un programme défectueux, d’éliminer l’humanité comme un logiciel de traitement de mails élimine vos spams?

L’existence d’une armée de robots ou d’armes autonomes dont elle pourrait prendre le contrôle lui faciliterait la tâche. C’est ce qu’imaginent très bien de très nombreuses oeuvres de science-fiction, de Terminator à Philip K. Dick sans oublier Isaac, Asimov -dont les trois (quatre) lois de la robotique sont plus que jamais d’actualité.

Sur ce point, la réponse des signataires est sans doute la partie la plus intéressante de la lettre. « La plupart des experts en I.A. n’ont aucun intérêt à travailler sur les armes intelligentes et ne veulent pas que d’autres (…) prennent le risque de créer un précédent majeur dans l’opinion publique et ainsi couper court aux futurs bénéfices qu’une I.A. pourrait nous apporter ». Car les experts en sont persuadés, « l’I.A. a un énorme potentiel pour aider l’humanité », ce qui devrait d’ailleurs « être le but principal de cette technologie ». L’Intelligence artificielle oui, mais sous contrôle. Un contre-sens par définition?