Category Archives: intelligence artificielle

Au-delà des fantasmes, quels sont les problèmes concrets que pose l’intelligence artificielle ?

f328b46_30571-1tsmgm2.rfo8icz0k9

Les récents progrès de ces technologies posent, dès à présent, des questions moins spectaculaires, mais bien plus concrètes

 

« Je n’arrête pas de tirer la sonnette d’alarme, mais tant que les gens ne verront pas des robots descendre dans la rue pour tuer tout le monde, ils ne sauront pas comment réagir. » Ces propos inquiétants sont signés Elon Musk, le patron de Tesla et de Space X, et grand adepte des coups médiatiques. Une phrase qui a déclenché, le 24 juillet, un échange cinglant avec le patron de Facebook, Mark Zuckerberg, qui a qualifié ses propos d’« irresponsables », et a vanté les avancées que promettait l’intelligence artificielle (IA) dans le domaine de la santé ou de la sécurité routière« J’ai discuté avec Mark [Zuckerberg] de tout cela, a répondu publiquement Elon Musk sur TwitterSa compréhension du sujet est limitée. »

Si la passe d’armes a fait jaser les internautes ce jour-là, elle est surtout révélatrice d’un domaine mal connu du grand public, où règne la confusion entre les fantasmes de science-fiction, la réalité scientifique, les annonces grandiloquentes et les informations déformées qui circulent à propos de l’IA — comme celle selon laquelle des ingénieurs de Facebook auraient débranché en urgence des programmes ayant inventé leur propre langage. Si le pessimisme affiché d’Elon Musk, qui résonne avec un certain imaginaire collectif, semble, de l’avis de la communauté scientifique, extrêmement exagéré, l’intelligence artificielle soulève toutefois d’autres problèmes bien plus concrets et pressants.

Inquiétudes pour l’emploi

L’une des craintes le plus souvent évoquées à propos des récents progrès de l’IA et de la robotique est leur impact sur l’emploi. Ces technologies vont-elles rendre l’humain obsolète pour certains métiers jusqu’ici épargnés par la mécanisation et la numérisation ? Rien n’est sûr. Plusieurs études sérieuses ont été publiées sur le sujet, qui tendent à… se contredire. Des chercheurs d’Oxford estiment, par exemple, dans une étude publiée en 2013, que 47 % des emplois américains sont menacés. Trois ans plus tard, l’OCDE affirmait, de son côté, que 9 % des emplois étaient menacés dans les vingt et un pays qui la composent.

« Les études s’intéressent juste au phénomène de destructions brutes d’emplois », soulignait Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi, lors d’une audition au Sénat le 19 janvier. « Mais elles ne s’intéressent pas à la création d’emplois », ni même aux transformations des emplois existants que ces technologies pourraient engendrer, selon elle. « A chaque grande vague d’innovation technologique, il y a la crainte d’un chômage massif. Or, l’histoire montre que depuis toujours le progrès technologique a créé des emplois, y compris ces dernières années. »

Impossible donc de prévoir avec certitude l’impact de l’intelligence artificielle sur l’emploi dans les années à venir, qu’il s’agisse de destruction ou de transformation d’emplois.

Des programmes aussi racistes et sexistes que les humains

Un certain nombre des technologies d’IA « apprennent » à partir d’énormes bases de données créées par des humains, dont elles doivent s’inspirer pour émettre des conclusions. Or, ces lots de données sont souvent biaisés. Résultat : plusieurs programmes ont déjà montré qu’ils reproduisaient le racisme ou le sexisme des humains. Ainsi, quand un programme d’IA est devenu jury d’un concours de beauté en 2016, il a éliminé la plupart des candidats noirs. Une autre technologie, censée émettre des liens entre les mots, a reproduit certains stéréotypes, en associant par exemple les femmes au foyer et les hommes aux professions scientifiques…

L’IA apprend donc de nos propres préjugés pour mieux les reproduire. Comment améliorer la situation ? Si les bases de données sont biaisées, c’est aussi, selon Emmanuel Mogenet, directeur de Google Research Europe, parce qu’elles sont souvent incomplètes, et pas assez représentatives des minorités. « Il faut trouver les endroits où on n’a pas récolté assez de données, expliquait-il au Monde en avril. C’est un problème sur lequel on se penche, qui nous préoccupe énormément, car on veut des modèles qui n’ignorent pas les minoritésÇa avance. »

Pirater l’esprit humain — et la démocratie

Eric Horvitz le dit sans détour : il craint « des attaques de l’IA sur l’esprit humain ». Cet éminent spécialiste de l’intelligence artificielle, directeur de MicrosoftResearch Labs, a listé, au festival SXSW qui s’est tenu en mars à Austin (Texas), les dangers potentiels de l’IA auxquels il faudrait, selon lui, réfléchir dès aujourd’hui. Ce qu’il entend par « attaques » n’a rien à voir avec un délire cyberpunk d’implantation de technologies dans le cerveau. Le danger est bien plus concret — et est, pour lui, déjà là.

Eric Horvitz évoque par exemple des programmes d’IA capables de rédiger un tweet « spécialement conçu » pour une personne. « Sur quoi tweete-t-elle ? Quand est-ce qu’elle répond ? A quels événements a-t-elle participé ? Ces informations peuvent être utilisées pour concevoir un tweet tel qu’il est quasi impossible pour [la personne] de ne pas cliquer. »

Une nouvelle étape pour la publicité ciblée, mais pas seulement. « Des entreprises utilisent ces données pour personnaliser des messages, mais aussi pour influencer la façon dont les gens votent, comme Cambridge Analytica ». Eric Horvitz évoque également le risque des « fake news », de fausses informations montées de toutes pièces, qui pourraient bénéficier de ces technologies : aujourd’hui, des programmes sont par exemple capables de fairedire ce que l’on veut à Barack Obama ou à Vladimir Poutine, en vidéo. Un problème qui n’est pas spécifique à l’intelligence artificielle, mais ces technologies permettent d’automatiser et de simplifier ces moyens d’influence.

Le spectre des armes autonomes

Etant donné le niveau des technologies d’IA et de robotique, rien ne s’oppose techniquement à la création d’armes létales autonomes. Aujourd’hui, les armées affirment que les machines qu’elles utilisent sont toujours contrôlées à distance par un humain, comme les drones de l’armée américaine, et qu’aucune ne prend jamais la décision de tirer. Mais aucune réglementation internationale n’interdit aujourd’hui l’usage d’armes létales autonomes, qui fait l’objet de discussions à l’ONU.

En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités comme Elon Musk ou l’astrophysicien Stephen Hawking, avaient signé un appel pour faire interdire ces armes. « L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera — matériellement, sinon légalement — faisable d’ici à quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », pouvait-on liredans cet appel.

Une nouvelle étape dans la surveillance

La vision par ordinateur a connu d’importants progrès ces dernières années grâce aux avancées du deep learning (« apprentissage automatique profond »). Des programmes sont désormais capables de reconnaître les visages, de distinguer un chat d’un chien et de décrire des images. De plus en plus, ces innovations s’appliquent à la vidéo, et notamment à la vidéosurveillance. La SNCF a par exemple annoncé, peu après les attentats de novembre 2015 en région parisienne, qu’elle expérimentait des technologies de détection des comportements suspects à partir des caméras de surveillance, en se basant sur des critères comme « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes, qui peuvent montrer une certaine anxiété ».

Couplé à des technologies de reconnaissance faciale, ce type de système pourrait par exemple permettre de détecter en direct une personne fichée S abandonnant un colis suspect. Mais aussi un militant pour les droits de l’homme dans une dictature ou une personne homosexuelle dans un pays où cela est condamné. Ces systèmes sont encore loin de fonctionner parfaitement, et le risque de « faux positifs » reste important.

Des systèmes opaques

Grâce aux technologies d’intelligence artificielle, il est possible de créer des programmes permettant de sélectionner des curriculum vitae, de proposer des diagnostics médicaux ou d’approuver une demande de prêt. Or, une bonne partie des décisions prises par ces programmes… ne sont pas explicables. Concrètement, les ingénieurs ne savent pas retracer la multitude de calculs effectués par la machine pour arriver à sa conclusion.

En clair, cela signifie que si votre demande de prêt est refusée, ou votre CV recalé, aucune explication ne pourra vous être fournie. Un constat gênant, qui explique entre autres qu’aujourd’hui les technologies d’IA ne sont généralement utilisées que pour suggérer des solutions, validées ensuite par des humains.

Expliquer le fonctionnement de ces technologies, basées sur des réseaux de neurones artificiels, est l’un des grands défis des chercheurs en IA, qui travaillent sur la question. « L’explication du comportement est très importante, c’est ce qui détermine l’acceptabilité par la société de ces systèmes », expliquait David Sadek, directeur de la recherche à Mines Telecom, au Sénat, le 19 janvier.

Ces derniers mois, la controverse qui a entouré l’algorithme APB qui arbitre les choix d’orientation des bacheliers — qui n’est pas un programme d’IA, mais dont le code est longtemps resté entièrement secret — a déjà montré que l’opacité des systèmes automatisés posait d’importants problèmes.

D’importantes questions de droit à régler

« Si les robots se développent, qui va être responsable ? Va se poser la question de la réparation en cas de dommages », soulignait Jean-Yves Le Déaut, alors député, lors d’une audition au Sénat le 19 janvier. La question préoccupe, même si la loi ne semble pas être sur le point de changer, ni en France ni ailleurs. « Les systèmes automatisés vont de plus en plus être amenés à prendre des décisions sur des situations que n’auront pas pu prédire les ingénieurs », expliquait Derek Jink, professeur de droit à la faculté de droit de l’université du Texas, lors du festival SXSW en mars.

« Qui, par exemple, sera responsable des actes des voitures autonomes ? » La question revient souvent, et hante déjà les assureurs : si une voiture autonome tue quelqu’un dans un accident, la responsabilité ira-t-elle au constructeur, à l’ingénieur qui a développé l’IA, au propriétaire de la voiture ou à la personne à la place du conducteur ? Des questions pressantes, alors que des voitures autonomes expérimentales ont déjà parcouru, aux Etats-Unis, des millions de kilomètres sur de vraies routes.

Mais pour Terminator, vous pouvez repasser

« La singularité, ça m’énerve. » En avril, Jean Ponce, chercheur en vision artificielle à l’Ecole normale supérieure (ENS), critiquait les tenants de ce concept qui désigne le moment hypothétique où l’intelligence artificielle dépassera l’intelligence de l’homme. « Je ne vois personnellement aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant », expliquait-il lors d’une conférence organisée par Google à Paris.

Dans l’imaginaire collectif, l’intelligence artificielle évoque inlassablement les images des films Terminator, dans lesquelles les machines intelligentes ont déclaré la guerre à l’homme. Or, dans la réalité, la grande majorité des chercheurs en IA affirme ne pas avoir la moindre idée de la façon dont pourrait être créée une machine aussi intelligente que l’homme, capable de dialoguer naturellement, de disposer de sens commun, d’humour, capable de comprendreson environnement… Et encore moins sous la forme d’un robot humanoïde.

L’idée d’une IA qui échappe au contrôle de son créateur provoque aussi des sourires en coin dans la communauté, qui peine à comprendre pourquoi certains craignent qu’un programme conçu pour jouer au jeu de go puisse soudainement vouloir s’attaquer à la race humaine.

« C’est incroyable de constater l’intérêt que cela suscite chez les gens, s’étonnait Eric Horvitz, directeur de Microsoft Research Labs, lors du festival SXSW. Les journalistes ont tendance à diffuser un point de vue extrême, alors que la réalité est beaucoup plus nuancée que cela. » Pour lui, cela « reste des questions très intéressantes, (…) sur lesquelles il faut garder un œil, et il ne faut pas se moquer en disant que les gens sont fous ». Mais, souligne-t-il, « ce sont des questions de très long terme, et nous devons réfléchir aux questions qui nous concernent directement, maintenant ».

Par Morgane Tual

 

L’intelligence artificielle va-t-elle mettre fin aux crises financières?

Au risque d’en décevoir certains, la réponse est non. Cela dit, l’intelligence artificielle (artificial intelligence – AI) permet à certains investisseurs d’anticiper les zones de turbulence boursières et de s’en prémunir, voire même d’en bénéficier. L’intelligence artificielle ne réglera pas nos problèmes de société mais rendra plus avisés certains investisseurs.

L’intelligence artificielle, c’est quoi?

Le principe est simple en théorie: doter un logiciel des mêmes capacités cognitives que l’être humain. En pratique, il faut le programmer non pas pour résoudre un problème donné, mais lui apprendre, à partir d’un large ensemble d’exemples, à résoudre un problème par lui même. En effet, c’est actuellement la meilleure façon d’aborder des problèmes très (voire trop) complexes pour lesquels il n’y a pas de solution algorithmique directe.

Pour faire de la reconnaissance faciale par exemple: l’idée n’est pas de définir mathématiquement ce qu’est une bouche ou un œil sur une image, mais d’apprendre au logiciel à les reconnaître de lui même, en lui montrant de nombreux exemples (images de visages humains, de têtes d’animaux, d’objets, etc.) et en lui donnant à chaque fois la réponse. Il apprend ainsi à reconnaître les éléments qui composent un visage humain. L’intelligence artificielle (ici plus précisément machine learning) se rapproche de l’apprentissage par mimétisme chez les enfants.

Les deux grandes familles de problématique en jeu sont la régression et la classification d’un grand nombre de données. Pour les résoudre, diverses techniques sont possibles tels que les arbres de décisions couplés à du Gradient Boosting, ou les SVM (Support Vector Machines) pour la séparation de données suivant des frontières aussi bien linéaires que non-linéaires, ou encore les puissants outils probabilistes comme les réseaux Bayésiens.

A quoi pourrait-elle servir dans la finance? 

Parmi les signes annonciateurs d’une crise financière majeure, nous pouvons distinguer les périodes d’euphorie (forte hausse du prix des actifs) et les périodes de panique (chute brutale de ces mêmes prix), comme ce fut le cas au début des années 2000 avec la bulle Internet. Pendant ces deux périodes, les comportements des acteurs ne se basent pas uniquement sur des données quantitatives et des analyses objectives, mais également sur des émotions typiquement humaines: la cupidité lors de l’euphorie et la peur lors de la panique (par exemple le jour de l’annonce du Brexit, quand les Bourses européens ont sur-réagi négativement).

Le point important à comprendre et à retenir, c’est qu’avec l’intelligence artificielle en finance, on ajoute une dimension de complexité supplémentaire: fini le monde idéalisé où tout est linéaire, où tout est Gaussien, où les algèbristes peuvent appliquer leurs théorèmes favoris. Nous voilà dans un monde complexe non-linéaire où les données sont de natures diverses: ainsi faut-il savoir traiter indistinctement des prix d’actifs et des indicateurs macro-économiques tels que le niveau d’emploi américain, l’indice de confiance des consommateurs allemands, ou encore les politiques monétaires des banques centrales. C’est aussi un monde où chaque corrélation entre deux actifs financiers est multi-factorielle: l’économie mondiale aura une configuration bien différente si le baril de pétrole est en-dessous de 50 dollars que s’il est autour de 100 dollars. Il faut savoir gérer les situations où une multitude de causes peut engendrer une même conséquence.

L’intelligence artificielle permet de concevoir des algorithmes qui apprennent à détecter les périodes d’euphorie et de panique sur les marchés financiers (on parle de régime de marché). En ayant bien défini ces régimes de marché, l’investisseur peut moduler ses investissements et ainsi profiter de la performance des marchés financiers, mais sans se laisser prendre aux excès de sentiment. C’est précisément cela qui permet une meilleure gestion de ses risques.

Quelles sont alors les limites de l’AI en finance?

Sur les marchés financiers, demain ou une échéance dans 6 mois ne sont pas très différents car la résilience de l’économie dépend des décisions politiques, de la psychologie, etc. Il existe de nombreuses situations qui appartiennent au domaine de l’incertitude absolue, en d’autres termes qu’il n’est pas possible – même avec des efforts cognitifs, humains ou artificiels, conséquents – d’en tirer une quelconque information utile.

La question de la temporalité des prédictions est essentielles. Si nous prenons l’exemple du film «The Big Short», Michael Burry (joué par Christian Bale) – qui fait fortune en prévoyant la crise des subprimes – aurait fait faillite si la crise s’était déclenchée quelques mois plus tard. Nous pouvons continuer avec Keynes qui disait «Le long terme est un horizon peu intéressant. A long terme, nous serons tous morts. Les économistes n’apportent rien si, en pleine tempête, tout ce qu’ils trouvent à dire est qu’une fois l’orage passé la mer sera calme». Cela est toujours aussi pertinent. L’AI en finance permet à l’heure actuelle de déterminer l’arrivée des orages mais pas encore leurs dates précises d’éclatement. En somme, cela est déjà une révolution pour la gestion des risques en finance mais ce n’est en rien la solution ultime.

Il faut cependant nuancer sur les limites de l’AI en finance car même si on ne peut pas savoir quand l’orage arrivera exactement, on sait que dans les mois qui viennent ça va «chauffer» sur les marchés. Cela est amplement suffisant pour ré-allouer son portefeuille et gérer prudemment ses risques.

Pourquoi l’infrastructure des banques est-elle une dette technologique pour innover en AI?

Il est intéressant de remarquer que l’innovation en intelligence artificielle est le fruit des efforts de quelques grands acteurs du web et de la technologie: par Facebook avec des chat bots pour répondre automatiquement sur Messenger, par Google avec le programme AlphaGo qui bat le meilleur humain au jeu de Go, par IBM avec le logiciel Watson champion du jeu américain Jeopardy !, et non pas en provenance des banques.

Regardons ce qui s’est passé dans le Trading à Haute Fréquence (HFT). Dans le monde actuel, pratiquement toutes les transactions sont automatisées. Que cela soit pour minimiser l’impact d’un achat ou d’une vente massive ou pour saisir des opportunités d’arbitrage, le trading automatique est devenu la norme. L’enjeu concerne ici la rapidité de l’accès à l’information (les technologies de télécommunication) mais aussi d’éviter les manipulations de marché. Mais là-dedans, l’AI n’intervient pas ou alors qu’à ses stades les plus rudimentaires. C’est avant toute chose un enjeu d’infrastructure. Et pourtant, déjà les banques n’ont pas réussi à prendre ce virage. Les leaders de ce marché s’appellent Virtu, Tower Citadel, etc. Seul Goldman Sachs est parvenu à tenir la distance. Pourquoi? La réponse sera la même pour l’AI: la dette technologique. Les systèmes informatiques des banques sont incapables d’intégrer cette nouvelle réalité financière.

C’est d’ailleurs un secret de polichinelle: chaque trimestre les état majors des banques discutent à couteaux tirés sur les centaines de millions d’euros à passer en «dotations aux amortissements exceptionnels des immobilisations» pour mettre à niveau leur système d’information. Malgré les milliards d’euros investis ces 20 dernières années, leurs systèmes ont subi une obsolescence extrême. Les bases SQL, les spreadsheets Excel, les Murex, les Sophis, les Calypso et consorts. Tout cela est incapable de répondre à eux-seuls aux défis du deep learning and fast learning. Il faut remplacer ces vielles usines informatiques poussiéreuses par du calcul intensif déporté (high performance computing couplé à du cloud computing), du big data, de la connexion en direct aux bourses en ultra haut débit, du machine learning, etc. sans même parler des attentes de digitalisation des clients.

Et en fait, à ce jeu-là, les start-up et les banques partent sur la même ligne de départ… sauf que les start-up sont plus agiles et donc elles avancent de facto plus vite.

Quelle est la différence avec l’état d’esprit actuellement dans les banques?

L’ingénierie est très développée au sein des banques, en particulier l’ingénierie financière. Elle repose sur de puissants outils mathématiques tels que le calcul stochastique ou l’algèbre linéaire. Le but est, par exemple, de modéliser l’évolution future des prix d’actifs complexes (produits structurés) ou d’étudier la corrélation entre les variations de prix de différents actifs afin de parier à la hausse ou à la baisse sur ces actifs. C’est une véritable industrie où les ouvriers sont les mathématiciens et les développeurs.

La popularité du master probabilités et finance d’El Karoui qui faisaient régulièrement la une du Financial Times et parfois mêmes des pages «débats et opinions» du journal Le Monde en est la preuve. On y apprend à manipuler les chaines de Markov, les martingales, et le calcul stochastique à coups de processus de Wiener et de lemme d’Itô. Malheureusement, tous ces grands ingénieurs et scientifiques ne sont pas équipés pour évoluer dans ce nouvel El Dorado que représente l’intelligence artificielle. Celle-ci fait appelle à d’autres compétences, à la croisée de plusieurs sciences tels que les probabilités, les statistiques et l’algorithmique ainsi que la macro économie et l’informatique (via le big data).

La culture nécessaire pour exceller dans l’AI est beaucoup plus proche de l’esprit libre des start-up que du «big brother» des grandes banques. La paranoïa qui sévit depuis les grandes purges post crise des subprimes n’est pas non plus très propice à l’état de créativité que ces talents pourraient pourtant avoir dans d’autres environnements de travail.

C’est pour cela que les start-up innovent plus rapidement. Elles ont intrinsèquement une forte culture Tech et scientifique. Cela constitue leur avantage compétitif. D’autant plus qu’elles participent à une autre révolution, celle de la digitalisation et de la démocratisation de la finance. Elles peuvent s’émanciper des grands acteurs historiques car elles ont la capacité de s’adresser directement au client, en lui fournissant directement les outils nécessaires à son empowerment sur les marchés financiers.

 

  • Par Jean-Christophe Dornstetter, responsable de l’intelligence artificielle chez Marie Quantier.

5 idées reçues sur le leadership à l’ère digitale

Le leadership, cette capacité à mobiliser les énergies autour d’une action commune, est le levier de la transformation digitale pour 4 décideurs sur 5, interrogés récemment par Deloitte.

Alors pourquoi si peu d’efforts sont déployés dans ce sens ? Voici une tentative d’explication sur le leadership digital pour mettre fin à 5 clichés :

1- Tout sera réglé quand les millenials seront aux commandes

Nous voilà donc sauvés. Il suffit d’attendre que les digital natives prennent le pouvoir pour que la transformation opère. Un shadow Comex composé de moins de 35 ans comme chez Accor va bien sûr dans le bon sens.

Mais certaines entreprises reviennent déjà de ce jeunisme exacerbé dans leur recrutement : le leadership digital est aussi une question de vision, de frugalité, de capacité d’engagement. Au cas où l’âge n’y serait pour rien, veillez à ne pas vous séparer trop vite de vos digital migrants.

2 – L’exemplarité du boss va entraîner le reste de l’entreprise

 

zuckerberg-samsung

Difficile d’aller à l’encontre de ce postulat, d’autant que le digital est avant tout «performatif»: il y a ceux qui en parlent et ceux qui le font.

L’exemplarité fait sens pour fertiliser l’entreprise. Un simple coup d’oeil sur les comptes Twitter de jeunes actifs ou de pré-adolescents peut encore faire rougir nos patrons du CAC 40. Mais la corrélation immédiate entre le leadership digital et le nombre de followers est encore largement à prouver.

La bonne distance et la capacité de réflexivité face aux outils numériques peuvent être un meilleur levier. Le succès du repreneur de la Camif, Emery Jacquillat s’explique en partie parce qu’il a su créer de l’envie plutôt que de la peur pour digitaliser l’entreprise.

3- Rester toujours connecté est un atout décisif

«La technologie est là pour améliorer votre vie, pas pour s’immiscer entre vous et votre vie» (Randi Zuckerberg). La surcharge cognitive des outils numériques affaiblit la concentration. Notre cabinet accompagne des CDO, des décideurs IT de moins de 30 ans au bord du burn-out. Au-delà de ces cas extrêmes, la pression de l’immédiateté et de l’infobésité brouillent les repères. Le «temps long» est indispensable à notre cerveau qui est loin d’être aussi doué pour le multi-tasking. Se déconnecter permet paradoxalement de mieux se reconnecter et gagner en sérénité.

4 – Grâce au Big Data, plus besoin de leadership : l’algorithme va prendre les commandes

La redistribution des rôles entre les machines et les talents s’accélèrent. S’agissant de volume de données, de variété, de vitesse d’analyse (…), la machine a déjà gagné. Mais la modélisation et l’algorithmie sont finalement assez peu challengées par nos décideurs. Les KPI et la data-visualisation font loi. Partager les techniques de data analyse favorisent le décloisonnement dans l’entreprise et mieux encore la permission marketing quand elles sont mises en co-construction avec les clients (cf. Le DataLab de la  Poste ou le projet MesInfos de la FING). Si la data entre les mains d’une poignée d’experts et de fabricants de logiciels «propriétaires» prend le pas sur la décision entrepreneuriale, attendez-vous à une dilution des responsabilités, voire un mauvais remake de minority report.

5 – La compétence et les méthodes agiles vont remplacer l’autorité

Un leadership fondé uniquement sur la compétence digitale est une prise de risque, tout simplement parce que son obsolescence est déjà programmée. Plus que des certifications ou des diplômes, l’interdisciplinarité, l’autodidaxie, et l’élasticité managériale permettent un recul indispensable face à la révolution numérique: il n’ y a pas de modèle préétabli face à l’accélération et les disruptions, mais plutôt une démarche et surtout un état d’esprit. La transformation est difficile voire impossible quand les méthodes ou l’expertise deviennent une finalité plutôt qu’un moyen.

Pour beaucoup encore, la performance et la posture «digitale» sont les clés de cette transformation : comment ne pas être fasciné par le leadership d’Elon Musk, le patron de Tesla et de Space X. Son niveau d’exigence lui permet de repousser les limites comme personne. Mais ses méthodes managériales interrogent. Du haut de ses 23 ans le chevalier blanc de la data, Paul Duhan est presque plus inspirant pour ses valeurs sur le bien commun et sa quête de sens. Pour lui, «l’algorithme ne fait pas tout» : quand vous êtes né du bon côté de la barrière, dans la bonne partie du monde, fait de bonnes études, vous avez en fait déjà gagné au loto. Alors pourquoi monter sa start-up ou digitaliser l’entreprise, si c’est juste pour gagner plus d’argent ?

Par Nathalie Schipounoff, cofondatrice du cabinet Le Leader Digital.Read more at

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Les start-up françaises en quête d’intelligence artificielle

Après avoir fait le tour des stratégies d’IA de quelques grands acteurs du numérique, dont Google, IBM, Microsoft et Facebook, et de leurs acquisitions, revenons aux start-up du secteur en nous intéressant aux françaises.

Il est clair que l’IA est l’une des technologies clés du numérique, aujourd’hui et demain. Au lieu de chercher à créer un Google, un Facebook ou un système d’exploitation français, il serait bon de s’intéresser à ce domaine prometteur, surtout dans la mesure où les plateformes correspondantes sont encore en devenir.

La recherche en IA en France

La recherche en IA est disséminée dans plusieurs laboratoires et dans des projets collaboratifs associant laboratoires publics et universités. Les deux premiers organismes se focalisant sur l’IA sont l’INRIA et le CNRS.

Que fait l’INRIA ? Un grand nombre des projets de recherche fondamentale en IA référencés sur leur site font appel aux techniques de l’IA, même s’ils ne sont pas forcément labellisés IA / machine learning / réseaux neuronaux. C’est ainsi le cas du projet Orpailleur mené à Nancy et dédié à la représentation des connaissances et au raisonnement. L’équipe planche sur l’extraction de données dans les bases de connaissances non structurées, et notamment dans le domaine de la santé, le même que celui qui est investi par IBM Watson et plein de start-up. Ils collaborent notamment avec le centre de lutte contre le cancer de Nancy. L’équipe Magnet travaille, quant à elle, directement sur le machine learning et l’auto-apprentissage.

Les chercheurs français se plaignent en tout cas d’être délaissés en France dans la discipline. Ils ne sont certainement pas les seuls, au sens où de nombreuses disciplines se sentent délaissées dans la recherche publique.

Une association créée en 1993 fait la promotion de la recherche en IA, l’AFIA. Elle organisait en octobre 2014 une conférence de promotion de l’IA dans la recherche. On y identifie par exemple Andreas Herzig (IRIT, CNRS, Toulouse) qui travaille sur la modélisation de la logique et du raisonnement, Hélène Fargier (IRIT, CNRS, Toulouse) qui travaille notamment sur la programmation par contraintes, Jérôme Euzenat (LIG, Inria) qui planche sur la représentation et l’échange de connaissances et Leila Amgoud (IRIT, CNRS) qui est spécialisée dans la modélisation de l’argumentation.

Le défi pour ces chercheurs et leurs autorités de tutelle est de trouver des applications tirées de leurs travaux. En consultant la liste des participations d’IT Translation qui est l’un principaux financeurs de projets issus de l’INRIA, on constate que l’IA est souvent en filigrane de ces projets, mais pas forcément au niveau «plateforme» ou «couches de base».

 

1Dans le Economic Report or The President, le rapport annuel 2016 sur l’économie de la Maison Blanche, j’ai découvert deux données intéressantes. Aux Etats-Unis, en 2013, les start-up ont créé deux millions d’emplois et les entreprises traditionnelles huit millions. Donc 20% ! Une proportion énorme sachant que dans le même temps, l’économie française a plutôt détruit des emplois et les startups n’en ont probablement créé que quelques milliers. Et surtout : la moitié de la R&D fédérale est dédiée à la défense ! Et au milieu des années Reagan, elle en représentait les deux tiers ! Cela explique pourquoi tant de projets autour de l’IA sont financés par la DARPA. En France, la recherche dans l’IA semble mieux financée côté civil, même s’il est difficile de le vérifier par les chiffres. On ne s’en plaindra pas. A ceci près que la R&D militaire US a une qualité : elle est orientée vers des objectifs pratiques selon des cahiers des charges. De son côté, la recherche civile française fonctionne plutôt de manière très décentralisée et sans objectifs pratiques clairs, sauf lorsqu’elle est financée par des entreprises privées, surtout depuis la loi Pécresse de 2007. A méditer !

Start-up «horizontales»

Voici les start-up que j’ai pu repérer dans les solutions techniques d’IA plus ou moins génériques. Le champ de la reconnaissance audio est faiblement couvert par les start-up françaises. Dans celle des images, on eu quelques cas anciens comme LTU qui a été racheté par le japonais JASTEC en 2005. Il subsiste quelques acteurs spécialisés dans la recherche et qui ont intégré petit à petit des techniques d’IA dans leurs offres. Antidot et Sinequa sont anciens dans le paysage mais, à l’instar de nombreux éditeurs B2B, ils peinent à croitre, notamment à l’international. Ils ne font que quelques millions d’euros de chiffre d’affaires. Comme dans l’article précédent, j’indique entre parenthèses l’année de création et les montants levés lorsqu’ils sont disponibles. J’aimerais bien ajouter un troisième indicateur : le chiffre d’affaires, mais il n’est généralement pas disponible.

Antidot (1999, 3,5 millions de dollars) est connu pour son moteur de recherche pour entreprises. Il propose une fonction de classification automatique de contenus ainsi que d’amélioration de la pertinence des résultats de recherche s’appuyant sur du machine learning.

Sinequa (2002, 5,33 millions de dollars) est un fournisseur de solutions de big data et d’analyse de données pour les grandes entreprises. Il fournit un moteur de recherche sémantique capable d’exploiter les données issues de nombreux progiciels (ERP, CRM, gestionnaires de contenus, etc). La société a annoncé en 2015 investir dans le machine learning pour améliorer la performance de ses solutions.

Dataiku (2013, 3,5 millions de dollars) fait évoluer les concepts de business intelligence et de data mining ave son Data Science Studio, un ensemble d’outils d’analyse de données qui exploitent du machine learning pour la création de modèles de données et de simulations.

Heuritech (2013) propose sa solution logicielle Hakken d’analyse sémantique, de tagging et classement automatiques de textes, images et vidéos sous forme d’APIs. Ils proposent aussi HeuritechDIP qui permet d’améliorer sa connaissance des clients et d’anticiper leurs besoins, évidemment, surtout dans les applications de commerce en ligne. Le tout s’appuie sur force marchine et deep learning. La start-up s’appuie sur les travaux de recherche de deux laboratoires publics le CNRS LIP6 and l’ISIR de l’UPMC (Paris VI).

 

2Smart Me Up (2012, 3 millions d’euros), vu aux CES 2015 et 2016 propose une solution logicielle d’analyse des visages. Elle détecte l’âge, le comportement et les émotions des utilisateurs. La solution est bien entendu plutôt commercialisée sous forme de brique logicielle en marque blanche utilisable dans des applications métier.

Moodstocks (2008) propose une solution mobile de reconnaissance d’images, fournie sous la forme d’APIs et d’un SDK multi-plateforme.

Objets connectés

C’est un domaine où les entrepreneurs français sont assez prolixes en général. Il n’est donc pas étonnant d’y trouver quelques start-up intégrant des briques d’IA dans leurs solutions. Le scénario le plus répandu est lié à la consommation d’énergie et à la maison connectée, avec des solutions faisant de l’auto-apprentissage du comportement de ses habitants pour piloter des actions d’économies d’énergie et d’automatisation diverses.

Craft.ai (2015, 1,1 million de dollars) est une très jeune start-up spécialisée dans l’Internet des objets. Elle permet de créer des solutions logicielles d’orchestration d’objets connectées qui apprennent toutes seules des comportements des utilisateurs et des données environnementales captées par les objets connectés. La solution est commercialisée sous la forme d’APIs destinées aux développeurs d’applications. L’approche est intéressante dans son principe. Reste à trouver un modèle économique solide.

 

3Angus.AI (2014) est un peu l’équivalent de Craft.ai, mais pour les robots. La start-up, créée par des anciens ingénieurs d’Aldebaran qui ont développé la partie logicielle des robots Nao et Pepper, propose une solution logicielle embarquée dans les robots leur apportant les fonctions de base de reconnaissance vocale et faciale et de détection d’obstacles. Elles sont fournies sous la forme d’un kit de développement et d’API (interfaces de programmation). Les ingénieurs s’appuient beaucoup sur des solutions open source du marché. Ils travaillent déjà avec la SNCF, mais pas sur des robots.

Ubiant (2011), basé à Lyon, était également présent au CES de Las Vegas en 2015 et 2016. Il propose une solution matérielle et logicielle de gestion de la maison intelligente, de l’éclairage et de l’énergie qui s’appuie sur du machine learning et sur le Luminion (ci-dessous), un objet connecté interagissant avec l’utilisateur via des LED de couleur indiquant si la consommation du foyer est supérieure à celle du voisinage. C’est une offre B2C.

 

4Vivoka a développé Lola, un logiciel de contrôle des équipements de la maison connectée. Elle s’appuie sur une box reliée à Internet qui se pilote via une application mobile et par commande vocale. Le projet lancé sur Kickstarter n’a pas porté ses fruits.

Iqspot (300 000 euros) est une start-up bordelaise qui analyse la consommation énergétique des bâtiments et sensibilise ses occupants pour la diminuer. Le tout avec du machine learning.

Xbrain (2012) est une start-up française, établie dans la Silicon Valley ainsi qu’à Paris et Lille, qui se spécialise dans les applications de l’IA à l’automobile et la robotique. Sa plateforme xBrain Personal Assistant permet de créer des agents conversationnels. Elle s’appuie sur la reconnaissance vocale, sur la gestion de contexte, sur la détection des intentions et la gestion de règles. Son créateur, Gregory Renard, planche sur l’IA depuis près de 20 ans.

Scortex (2016) développe des solutions matérielles et logicielles apportant l’autonomie aux robots et aux objets connectés qui intègrent notamment la reconnaissance d’images et de la parole. Ils ont même développé un chipset à base de réseaux neuronaux.

E-commerce

L’écosystème français a toujours été prolixe en start-up B2B et B2C dans le secteur du e-commerce et du marketing. Il est donc normal d’y retrouver quelques start-up intégrant de l’IA.

AntVoice (2011, 2 millions de dollars) propose une solution de recommandation prédictive pour les sites d’e-commerce qui s’appuient sur de l’intelligence artificielle. C’est un spécialiste du big data marketing.

Dictanova (2011, 1,2 million d’euros) est une société nantaise à l’origine d’une solution d’analyse textuelle des feedbacks clients dans les réseaux sociaux ou sites de vente en ligne, en liaison avec les outils de CRM pour optimiser la relation client. Les techniques utilisées comprennent l’analyse sémantique de textes et la classification automatique. La solution est fournie en cloud.

Modizy (2012, 275 000 dollars) propose un assistant d’achat dans la mode basé sur un algorithme d’intelligence artificielle. Modizy propose aussi une place de marché reliant consommateurs et marques.

Tastehit (2014) utilise du machine learning et du big data pour personnaliser les sites d’e-commerce en temps réel. Donc, une offre B2B.

CompareAgences (2012) intermédie la relation entre agents immobiliers et particulier dans le cadre de la vente de biens. La start-up emploie 12 personnes et génère 200 000 visiteurs uniques par mois. 1 000 agences immobilières sont intégrées en France. Le tout est à base de machine learning, sans plus de précisions.

Santé

C’est un domaine très porteur pour les applications de l’IA. Seulement voilà, nous sommes un peu à la traîne dans l’une de ses grandes applications : la génomique. Mais la santé va au-delà de la génomique, heureusement.

CardioLogs Technologies (2014) a créé une solution d’interprétation automatique des électrocardiogrammes (ECG) en temps réel s’appuyant sur du machine learning. Uberisation en puissance des cardiologues ? Pas si vite ! Cela permet surtout de rendre un suivi plus régulier des patients à risques ou atteints de maladies chroniques.

Dexstr.io (2014) est une start-up toulousaine fournissant la solution Inquiro qui exploite les données médicales non structurées pour faciliter la recherche d’informations pour les sociétés de pharmacie. En gros, c’est de la recherche documentaire, un peu comme le font Sinequa et Antidot, mais avec un tuning adapté à la documentation scientifique dans la santé. Leur concurrent serait plutôt l’application d’IBM Watson à l’oncologie.

Khresterion (2014) propose un logiciel d’aide au diagnostic et à la prescription pour les cancers. La solution fonctionne sur un principe voisin de celui d’IBM Watson, compulsant la littérature scientifique et les données des patients pour proposer divers traitements avec leurs avantages et inconvénients comme les effets secondaires. La société aurait comme prescripteur des organismes de remboursement comme Humanis, Axa et la Maaf. Sa solution commence aussi à être utilisée dans la finance, là où les cycles de vente sont probablement plus courts.

Applications métiers

C’est là que la créativité est la plus développée, comme nous l’avions vu dans l’article précédent de la série au sujet des start-up américaines.

Snips.ai (2013, 6,3 millions de dollars) est une start-up connue du secteur de l’IA, créée par Rand Hindi (prix du MIT 30 en 2015), Mael Primet et Michael Fester. Leur dernière levée de fonds de 5,7 millions d’euros en juin 2015 présente la particularité d’associer Bpifrance avec des investisseurs américains, en plus de business angels tels que Brent Hoberman et Xavier Niel. L’équipe comprend 35 personnes : des data-scientists, des développeurs, designers et quelques marketeurs. Leur positionnement est large et un peu vague : rendre la technologie invisible et les usages intuitifs via de l’IA. A ce titre, la start-up a développé des applications expérimentales telles que :snips (un ensemble d’applications de recherche pour iOS dont un clavier virtuel intelligent pour la recherche d’adresses), Tranquilien (qui prédit les places disponibles dans les trains de banlieue), Parkr (la même chose pour prédire les places de parking), Flux (qui identifie le trafic mobile en s’appuyant sur les données des smartphones), RiskContext et SafeSignal (identification de risques d’accidents sur la route). La start-up planche aussi sur des applications verticales : pour les véhicules connectés, dans l’hôtellerie, la maison connectée et les loisirs numériques. Le tout s’appuie sur force machine et deep learning, modèles probabilistiques, traitement du langage, gestion de graphes et aussi encryption des données pour garantir la vie privée. Derrière la vision, l’implémentation et l’expérimentation, on leur souhaite de réussir la businessmodelation.

 

5

6

Jam (1 million d’euros) a créé un agent conversationnel SMS pour étudiants. Ils ont ISAI Ventures dans leur capital. La solution utilise une combinaison d’IA et de vrais intervenants humains pour assurer une bonne qualité des réponses. Leurs outils d’IA sont en open source.

Julie Desk (2014, 993 000 dollars), basé à Paris, propose un service d’assistante virtuelle fonctionnant sous la forme d’un agent conversationnel opérant en français et en anglais. Il gère surtout votre agenda et répond à vos mails à votre place pour prendre des rendez-vous avec vos interlocuteurs. Comme pour Jam, l’agent fonctionne en mode supervisé par des opérateurs, ce qui permet d’assurer une bonne qualité de service. Les tarifs vont de 50 à 80 euros par mois. Il est notamment utilisé par des entrepreneurs de startups. Mais l’agent ne répond pas encore au téléphone.

 

7Riminder (2015) est une start-up spécialisée dans les RH qui s’appuie sur du deep learning pour proposer des outils d’aide à la décision. Il aider les chercheurs d’emploi à construire leur parcours professionnel et les actifs à développer leur carrière, en exploitant une base de connaissance de plusieurs millions de parcours de cadres.

Niland (2013) est une participation de IT Translation, la structure de valorisation des projets de recherche issus notamment de l’INRIA. Mais la startup a été créée par des anciens de l’IRCAM et s’appuie sur 10 années de travaux de recherche. Elle utilise le deep learning analysant le contenu de la musique pour rendre son exploration dans les plateformes de diffusion plus intelligente. Elle identifie les similarités entre morceaux pour les classifier automatiquement. La solution sera exploitée par CueSongs (UK, une société fondée par le chanteur Peter Gabriel) et motionelements (Singapour) qui sont dédiés aux professionnels de la musique. La solution est aussi illustrée par le service en ligne www.scarlett.fm et s’appuie sur SoundCloud pour vous permettre de créer une web radio personnalisée en fonction de vos gouts.

Yseop (2008) propose son agent conversationnel Savvy. Nous l’avions déjà évoqué dans le troisième article de cette série.

Séline (2013), édité par la société Evi, propose une panoplie d’applications bureautiques intégrant un agent conversationnel permettant de dialoguer et poser des questions en langage naturel. On y trouve notamment un traitement de texte, un tableur, un gestionnaire d’agenda, un carnet d’adresses, un gestionnaire de tâches, une médiathèque, un logiciel de gestion de finances et un gestionnaire de messagerie instantanée. Dilemme classique : faut-il recréer tout un existant complexe pour y intégrer une nouvelle fonction ou ajouter cette fonction aux produits existants du marché (Microsoft Office, Open Office). Question d’ouverture, de simplicité de mise en oeuvre et de modèle économique!

Dans mon précédent article sur l’écosystème entrepreneurial de La Réunion, j’avais aussi identifié quelques startups qui utilisent le machine learning : logiCells (ERP sémantique) et Teeo (analyse de consommation d’énergie pour les entreprises). A contrario, certaines start-up font appel à des briques d’IA comme le machine learning mais préfèrent ne pas l’évoquer dans leur communication.

Ce tour est probablement incomplet et les oubliés du secteur se feront immanquablement connaître pour intégrer cette liste que je mettrai à jour au fil de l’eau. A vrai dire, d’ici peu de temps, l’usage de machine learning sera aussi courant dans les start-up que l’appel à des bases de données NoSQL : une banalité !

Le top du top de la start-up d’IA ? Utiliser l’IA dans une solution d’agent conversationnel en cloud qui fait du big data sur des données issues de l’IoT en sécurisant les transactions via des blockchains. Le bingo de la start-up d’IA est lancé !

Article initialement publié sur le blog Opinions Libres.

Par Olivier Ezratty, expert FrenchWeb

 

Qu’est-ce que la blockchain?

La blockchain est un outil novateur et révolutionnaire qui, selon de nombreux spécialistes, s’apprête à bouleverser nos vies comme l’ont fait avant elle l’imprimerie et Internet. Elle s’annonce d’emblée comme une promesse, celle de changer en profondeur l’organisation des transactions, et séduit gouvernements, grandes entreprises, fonds d’investissements et entrepreneurs. Mais qu’est-ce que la «blockchain» ? Revenons à ses origines pour mieux cerner le mode de fonctionnement de cette nouvelle technologie et ses applications.

Aux origines de la blockchain

Au commencement était la monnaie. De la monnaie primitive à la monnaie fiduciaire et scripturale, les instruments de transaction financière reposent sur la confiance, celle que lui accordent ses utilisateurs en tant qu’unité de compte, moyen d’échange et réserve de valeur. Cette confiance s’appuie sur un principe de garantie incarné par une institution centralisée (Etats, banques ou instances locales dans le cas des monnaies complémentaires locales).

La dématérialisation de la monnaie, de l’introduction des chèques à la création des cartes de paiement, s’est accélérée depuis 25 ans avec l’apparition des transactions électroniques. Elle ouvre la voie à une réflexion sur la création de monnaies non conventionnelles, c’est-à-dire indépendantes des autorités centralisées traditionnelles, que l’on appelle monnaies digitales.

Les monnaies digitales se distinguent de la monnaie traditionnelle, celle des pièces, des billets de banque et de leur version dématérialisée, car elles reposent sur un protocole de chiffrement. Chaque unité de monnaie digitale est une chaîne de nombres unique que les utilisateurs peuvent s’envoyer en ligne lors des transactions.

Les premières tentatives de monnaie digitale échouent, confrontées à un défi de taille, celui de sécuriser la monnaie. En effet, une chaîne de nombres peut facilement être copiée – et dans le cas de la monnaie, dépensée plusieurs fois – ce qui rend sa valeur nulle. En 1990, David Chaum, concepteur de la monnaie électronique DigiCash, tente de résoudre ce problème en créant un registre central unique qui enregistre les transactions de chaque utilisateur, s’assurant ainsi que chaque unité de monnaie ne puisse se trouver à deux endroits en même temps. Grâce à ce registre central unique, l’intégrité de la monnaie et des transactions est garantie.

Cependant, la solution apportée par DigiCash a ses limites car elle est soumise aux mêmes aléas que tout registre centralisé (tel que les bases de données de transactions bancaires, transactions de cartes de crédit, de titres de propriété, de cartes d’identité, de permis de conduire, de réservations auprès d’une compagnie aérienne, etc.) : elle ne garantit pas que le teneur du registre soit incorruptible et infaillible. En effet, ce dernier peut par exemple modifier la base de données, exclure les transactions qu’il n’approuve pas, ou encore perdre des données enregistrées.

En octobre 2008, Satoshi Nakamoto, dont l’identité de la personne ou du groupe caché derrière ce pseudonyme reste à ce jour inconnue, publie son livre blanc «Bitcoin : A Peer-to-Peer Electronic Cash System» dans lequel il propose une nouvelle forme de monnaie digitale, le Bitcoin. Celle-ci vient à bout de cet écueil en se fondant sur un protocole nouveau, celui d’une chaîne de blocs ou «blockchain», permettant un système de vérification décentralisé. Le Bitcoin ne relève plus d’une autorité centralisée mais d’une relation dite «pair à pair», c’est-à-dire d’un réseau informatique dont les participants se sont affranchis d’un serveur central.

Au coeur du Bitcoin

Le Bitcoin est une monnaie conçue pour que les unités de monnaies soient introduites graduellement. A contrario des monnaies classiques, Il n’est pas émis par une autorité centrale et la quantité totale des unités émises est fixée par avance. Environ 15,25 millions de Bitcoins ont été émis jusqu’à présent, et le dernier Bitcoin devrait être produit en 2140.

Les Bitcoins sont stockés sur des adresses Bitcoin, dont la clé est une chaîne de lettres et de nombres unique, qui peut se conserver sur un ordinateur, un smartphone, ou même un bout de papier.

Dès qu’un utilisateur envoie un Bitcoin en guise de paiement, un enregistrement de la transaction est gardé en mémoire. Les transactions sont groupées en blocs. Chaque bloc représente l’équivalent de 10 minutes de transactions en Bitcoins.

Tous les participants composant le réseau mettent à disposition leur puissance de calcul informatique pour vérifier ces blocs et les confirmer dans le système. C’est ce que l’on appelle le «minage». Les participants, qui ont préalablement été mis en concurrence, sont rémunérés en fonction de leur participation au calcul, touchant un pourcentage des nouveaux Bitcoins émis par le système.

Le système regroupant l’ensemble des blocs est ce que l’on appelle une blockchain. Les blocs sont classés chronologiquement, et chaque bloc inclut une signature digitale (appelée «hash») du bloc précédent, qui régit l’agencement des blocs, et garantit qu’un nouveau bloc ne peut rejoindre la chaîne de blocs que là où se termine le bloc précédent.

Une copie de la blockchain, c’est-à-dire une copie de l’enregistrement de toutes les transactions réalisées depuis l’origine du Bitcoin, est mise à jour par tous ceux qui ont installé le software Bitcoin. Pour s’assurer que le système fonctionne normalement, les chaînes de blocs sont vérifiées en permanence par les ordinateurs de ceux qui ont installé le logiciel. Ainsi, à chaque instant, le système sait exactement combien de Bitcoins possède chaque utilisateur dans son portefeuille. Ils ne peuvent être copiés ni dépensés plusieurs fois.

Ci-dessous un schéma résumant le fonctionnement d’une blockchain :

 

SchémaPour la première fois, la propriété peut être transférée sans être dupliquée, et sans passer par un registre centralisé.

Le Bitcoin peut s’acheter, se vendre et s’échanger contre des monnaies réelles (USD, EUR, etc.) sur le marché des changes.

Ci-dessous l’évolution du prix du Bitcoin depuis sa création :

 

GraphiqueSatoshi Nakamoto crée le protocole Bitcoin de telle sorte qu’il soit peer-to-peer, crypté, et quasi-anonyme, ce qui rend le lien entre une transaction en Bitcoins et la personne physique à son origine très difficile. Il est ainsi dit pseudonymique. En somme, la blockchain du Bitcoin enregistre toutes les transactions, mais pas ses auteurs.

Ci-dessous une mise en image du réseau des transactions réalisées (que l’on retrouve au centre du graphique) :

image: http://www.frenchweb.fr/wp-content/uploads/2016/04/Cercles.png

Cercles

La révolution «blockchain»

Nombreux sont ceux qui pensent aujourd’hui que ce qui a été fait pour la monnaie, à savoir le passage d’un fonctionnement centralisé à une organisation décentralisée, peut s’appliquer à d’autres domaines.

La blockchain est une technologie de stockage et de transmission d’informations transparente, sécurisée, et fonctionnant sans organe central de contrôle. Par extension, elle constitue une base de données publique, distribuée – c’est-à-dire partagée par ses différents utilisateurs, sans intermédiaire – fiable et inviolable. Ainsi, elle peut être assimilée à un grand livre des comptes public, anonyme et infalsifiable.

La blockchain pourrait à terme remplacer tous les «tiers de confiance» centralisés (banques, notaires, cadastres, etc.) par un système informatique décentralisé.

Un cas concret: le projet Ethereum

Des différentes applications possibles du protocole Blockchain est né un projet ambitieux, porté par le programmeur Vitalik Buterin, celui de transformer l’ensemble d’Internet. C’est le projet Ethereum.

Ethereum permet à tous les utilisateurs de créer leur propre base de données publique, sécurisée, infalsifiable, et de se prémunir ainsi de la corruption, de la fraude ou de l’effacement des données. Se définissant comme une «nouvelle plate-forme révolutionnaire de développement d’applications», Ethereum s’apprête à bouleverser des domaines aussi divers que les systèmes de vote, les infrastructures financières, la propriété intellectuelle, encourageant la création d’organisations autonomes décentralisées.

La blockchain d’Ethereum permet également de programmer des «smart contracts» (contrats intelligents), dont le code est une réplique de l’exécution d’un contrat classique. Ces contrats sont accessibles par toutes les parties autorisées, leur exécution est contrôlée et vérifiable. Ils sont conçus pour appliquer les termes précis d’un contrat défini lorsque certaines conditions sont réunies. Les «smart contracts» permettent d’éliminer le risque de défaut d’une des contreparties et de renforcer l’égalité entre toutes les parties.

En somme, la blockchain est une façon décentralisée de contrôler et de stocker de l’information. Elle permet ainsi de développer des applications et des contrats programmables et autonomes. C’est une «nouvelle frontière» au-delà de laquelle nous attendent de nouvelles percées technologiques.

  • A propos

 

Romain Rouphael est le co-fondateur de BELEM, start-up explorant les applications de la technologie «blockchain». Issu de Polytechnique, il est spécialisé dans la data science et les marchés financiers.

Par Romain Rouphael et Côme Jean Jarry, fondateurs de BELEM, start-up explorant les applications de la technologie «blockchain»

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.