Tag Archives: intelligence artificielle

« Intelligence artificielle » militaire: pourquoi les scientifiques s’inquiètent

Par Victor GarciaLe robot du film Terminator, qui vient de fêter ses 30 ans, à l'Egyptian Theatre d'Hollywood le 15 octobre 2014

Le robot du film Terminator, qui vient de fêter ses 30 ans, à l’Egyptian Theatre d’Hollywood le 15 octobre 2014

afp.com/Frazer Harrison

Plus de 1000 experts en robotique et en intelligence artificielle ont signé une lettre qui alerte sur le développement de l’intelligence artificielle militaire et les « armes autonomes » capables d’ôter la vie.

Empêcher « le jour du Jugement dernier« . Voilà ce que plus de 1000 experts en robotique et en intelligence artificielle, mais aussi des intellectuels et philosophes, sont bien décidés à faire. Leur lettre ouverte mettant en garde contre les « armes autonomes » et « la course au développement d’une intelligence artificielle militaire » (la lettre complète ici) a rapidement fait le tour du monde, ou du moins d’Internet, et a engendré de nombreux débats.

A l’appel d’Elon Musk, entrepreneur cofondateur de SpaceX et de Tesla Motors, John Carmack, l’un des développeurs de jeux vidéo les plus connus au monde, répond: « Cela semble bien trop inéluctable. Argumenter contre serait futile ».

« Même si c’est inéluctable, nous devrions au moins tenter de retarder l’avènement de l’intelligence artificielle militaire. Le plus tôt n’est pas le mieux », lui rétorque Musk. Un débat auquel Markus Persson, le développeur du jeu Minecraft, et Marc Andreessen, le fondateur de Netscape, se sont greffés.

En guerre contre les « robots tueurs »

Ce que redoutent très précisément le physicien Stephen Hawking, l’entrepreneur Elon Musk, le philosophe Noam Chomsky et les autres grands noms qui ont signé cette lettre ouverte, c’est une « course au développement d’une I.A. militaire ». Et plus particulièrement son aboutissement: les « armes autonomes », plus communément appelées « robots tueurs ». Concrètement, il s’agirait de drones -des tanks, des avions- ou de robots humanoïdes qui pourraient décider, de manière autonome, d’ôter la vie.

La différence avec les drones actuels -pilotés par des hommes- ou les missiles téléguidés? Ce ne serait plus un humain qui « appuierait sur le bouton » pour ôter la vie, mais une machine, un programme basé sur un algorithme sophistiqué, « intelligent », capable de déterminer qui doit mourir, ou non. Cette « menace » bien réelle « compte tenu des progrès technologiques » pourrait se manifester « d’ici quelques années », estiment les chercheurs.

La réflexion n’est pas nouvelle. Cinq experts en intelligence artificielle dont Stuart Russell, professeur d’informatique à l’Université de Californie, avaient déjà publié un rapport dans la revue Nature en mai. L’ONG Human Rights Watchs avait fait de même un mois plus tôt, en s’attachant notamment aux problèmes juridiques et l’impossibilité de déterminer une responsabilité légale en cas de meurtre.

Si « une puissance militaire majeure commence à se développer sérieusement dans ce domaine, inévitablement, les autres suivront ». Il faut donc, selon les signataires de la lettre ouverte, interdire au plus vite l’utilisation de l’IA dans le domaine militaire, tout comme la course vers « la guerre des étoiles » ou encore l’utilisation d’armes chimiques et biologiques ont été bannis dans différents traités internationaux.

Où en est la recherche militaire et civile?

Autant être clair, pour le moment, nous sommes encore loin de Skynet -une véritable intelligence artificielle consciente d’elle-même- et de ses Terminators. Mais les progrès -qui permettront bientôt aux militaires de présenter une technologie « acceptable, fiable, sûre »- sont bien réels.

La preuve? L’explosion récente du « deap learning » -utilisée par Google, Facebook, Microsoft, Amazon etc.- par exemple. Cette technologie se base sur « des réseaux de neurones artificiels » capables d’apprendre à reconnaître une voix, une langue, des visages. Autre avancée technologique: les progrès mécaniques des robots leur permettent désormais se déplacer sur terre, mer, air, de plus en plus facilement.

Mark Gubrud, chercheur à l’université de Princeton et membre du comité international de contrôle des robots armés, en est persuadé: « L’armée (américaine, NDLR) ne veut pas entendre parler d’une ligne rouge (consistant à interdire aux robots de décider de tuer, NDLR) ce qui revient à dire ‘nous allons le faire' », explique-t-il sur The Verge.

La peur de perdre le contrôle sur la machine

Mais pourquoi les « robots tueurs » seraient forcément une menace? Dans leur lettre, les scientifiques abordent quelques arguments « pour ou contre ». Les « armes autonomes » pourraient remplacer les Hommes sur le champ de bataille et ainsi diminuer les pertes humaines -pour le camp qui les possède. Mais ils pourraient aussi réduire les réserves des va-t-en-guerre: sans perte humaine, moins de critiques de l’opinion publique.

« Peu coûteuses et ne nécessitant pas de matériaux rares, contrairement aux bombes nucléaires, ces armes deviendraient rapidement omniprésentes. Il ne faudrait pas attendre longtemps avant de les retrouver sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler leur population, de chefs de guerre aux tendances génocidaire, etc. », imaginent encore les auteurs de la lettre.

La couverture des Marteaux de Vulcain, roman de science-fiction de Philip K. Dick. où les super-ordinateurs décident pour l'humanité

La couverture des Marteaux de Vulcain, roman de science-fiction de Philip K. Dick. où les super-ordinateurs décident pour l’humanité

Certes, les fous de guerre n’ont pas attendu les robots pour imposer leur loi et leurs folies. Sauf qu’avec des telles armes, ces opérations seraient plus faciles, moins chères et, surtout, ne se heurteraient plus jamais à la morale et la conscience humaine.

L’intelligence artificielle, oui, mais strictement encadrée

La conscience de soi, la morale et son application au domaine robotique et informatique… C’est bien là le véritable noeud du problème qui, s’il n’est pas directement évoqué, est largement sous-entendu dans la lettre ouverte. Doit-on créer une véritable « intelligence artificielle consciente » d’elle-même, une « singularité technologique« , avec toutes les problématiques qui y sont fatalement liées?

Pourra-t-on, un jour, doter cette machine surpuissante de morale? Et, même si c’est le cas, comment être sûr qu’elle ne décide pas, par raisonnement -typiquement humain- ou à cause d’un programme défectueux, d’éliminer l’humanité comme un logiciel de traitement de mails élimine vos spams?

L’existence d’une armée de robots ou d’armes autonomes dont elle pourrait prendre le contrôle lui faciliterait la tâche. C’est ce qu’imaginent très bien de très nombreuses oeuvres de science-fiction, de Terminator à Philip K. Dick sans oublier Isaac, Asimov -dont les trois (quatre) lois de la robotique sont plus que jamais d’actualité.

Sur ce point, la réponse des signataires est sans doute la partie la plus intéressante de la lettre. « La plupart des experts en I.A. n’ont aucun intérêt à travailler sur les armes intelligentes et ne veulent pas que d’autres (…) prennent le risque de créer un précédent majeur dans l’opinion publique et ainsi couper court aux futurs bénéfices qu’une I.A. pourrait nous apporter ». Car les experts en sont persuadés, « l’I.A. a un énorme potentiel pour aider l’humanité », ce qui devrait d’ailleurs « être le but principal de cette technologie ». L’Intelligence artificielle oui, mais sous contrôle. Un contre-sens par définition?

Intelligence artificielle : le rêve de Facebook… à Paris

Le réseau social californien ouvre à Paris un centre dédié à la recherche sur l’intelligence artificielle. Pourquoi Paris ? Et pour y faire quoi ?

Mike Schroepfer, CTO Facebook, et Yann LeCun dans les bureaux de Facebook France dans le 17e arrondissement de Paris.
Mike Schroepfer, CTO Facebook, et Yann LeCun dans les bureaux de Facebook France dans le 17e arrondissement de Paris. © Denis ALLARD/REA

Facebook a annoncé la création d’un bureau dédié à l’intelligence artificielle. Et il a choisi Paris. « C’est la première fois que nous ouvrons un bureau sur l’intelligence artificielle en dehors des États-Unis », a expliqué Mike Schroepfer, directeur technique du réseau social, et bras droit de Mark Zuckerberg, le 2 juin à Paris. « Jusqu’ici, nous opérions de Menlo Park, ou encore de Greenwich Village à New York. »Cette unité parisienne de FAIR (Facebook Artificial Intelligence Research) sera dirigée par Florent Perronnin, un ancien de Xerox à Grenoble.

« L’équipe parisienne comptera d’abord six membres, puis douze à la fin de l’année, et, à terme, une trentaine de permanents », détaille le Français Yann LeCun, professeur à l’université de New York (NYU) et qui chapeaute, depuis deux ans, l’activité liée à l’intelligence artificielle du réseau social au niveau mondial. La nouvelle unité multipliera les collaborations avec des doctorants, et nouera des partenariats avec différents instituts français, comme avec l’Inria (Institut national de recherche en informatique et en automatique).

« Ce type d’accord nous permet de voir quelles sont les attentes du marché », explique François Sillion, directeur général délégué à la science de l’Inria. Les royalties issues des brevets déposés par les différentes entités seront partagées entre elles. « La France a une des plus grosses communautés autour de l’intelligence artificielle dans le monde, et c’est pour cette raison qu’elle est la localisation idéale pour notre nouvelle équipe », a expliqué Mark Zuckerberg… sur Facebook après cette annonce.

Déceler l’humour

D’ores et déjà, le site basé à Menlo Park propose sur notre « timeline » des actualités en fonction de nos centres d’intérêt. Mais il veut aller plus loin.  « On va travailler sur le sens de chaque mot afin que la machine puisse s’approprier le sens d’un texte, soit capable de la résumer, ou encore de montrer un éclairage différent, voire opposé », a détaillé Yann LeCun. Autre champ d’exploration : la traduction des textes. « Un de nos chantiers est de déceler les traits d’humour, ou encore les émotions dans les expressions écrites, même si cela va prendre du temps. »

Le labo va également travailler sur les images. À terme, le réseau social sera capable de reconnaître un animal, pourra juger de l’intensité d’une compétition sportive, et pourra même dialoguer avec les individus », explique Yann LeCun, qui a tenu à préciser que « chacune de nos recherches se déroulerait dans le domaine public ». Une précision qui vise à rassurer les plus inquiets : le physicien Stephen Hawking, par exemple, qui a récemment redouté que l’intelligence artificielle ne signe, à terme, la mort de l’humanité.

Humble, Yann LeCun, dont le film préféré est 2001, l’Odyssée de l’espace, a toutefois expliqué qu’il restait beaucoup de problèmes à résoudre. « Un ordinateur n’apprend pas comme un enfant. » Il a détaillé quelques techniques d’apprentissage de la machine, comme le « reinforcement learning », qui permet de « faire comprendre à une machine quand elle a raison ou tort ».

Réalité augmentée

Enfin, Le Point.fr a pu profiter de la présence de Mike Schroepfer à Paris pour faire un point sur les nouveaux plans de développement du réseau social, qui s’est par ailleurs fixé comme objectif de connecter la planète, tout comme de renouveler la réalité virtuelle avec son masque immersif Oculus Rift. « Nous sommes conscients que 1,2 milliard d’habitants n’ont jamais été connectés à Internet et nous aimerions y parvenir à l’aide notamment d’un drone solaire, baptisé Aquila, et sur lequel nous planchons en ce moment. »

À quoi va donc servir Oculus Rift, qui va devoir affronter la concurrence de Sony, Carl Zeiss ou encore HTC ? Mike Schroepfer, dont le Forever Peace de Joe Haldeman ne quitte pas la table de chevet, a donné quelques exemples concrets d’utilisation du masque qui sera accessible auprès du grand public en 2016. « Il sert déjà à former des conducteurs de bus en Nouvelle-Zélande, et elles révolutionneront l’apprentissage de l’histoire et de la géographie. »

Quid de la montre connectée, comme celle d’Apple ou encore des lunettes interactives de Google ? « Il ne faut pas que l’écran soit trop petit, car cela perd tout son intérêt, sauf à transformer son sac à dos en écran, ce qui n’est pas encore le cas. Par ailleurs, bien sûr, nous aimerions avoir des lunettes qui affichent l’heure du prochain rendez-vous. Mais il faut pouvoir le faire sans donner l’impression d’être un cyborg. »