Category Archives: perspective

La transformation numérique, une affaire de culture ou de technologie ?

transformation digitale

Beaucoup d’encre a coulé sur la transformation numérique des entreprises. Force est de constater qu’un certain désenchantement règne actuellement… La transformation numérique ne prend pas vraiment.

Malgré l’enthousiasme évident qui a rythmé les débuts de la transformation numérique, un ralentissement du processus est à noter. Nombreuses sont les entreprises qui ont investi dans le numérique pour faire face aux « barbares » et demeurer compétitives, peu ont réussi à relever ce défi !

De nombreux freins en interne

D’un point de vue technologique la prise de conscience était réelle. Imposée par le haut, poussée par le bas, la mutation digitale s’est arrêtée en milieu de chemin. Pourquoi ? Peut-être parce que les attentes des uns ne correspondaient pas vraiment aux besoins des autres et que l’adoption de nouveaux outils ne se faisait pas de façon aussi naturelle que cela.

Les habitués à travailler en silos, les adeptes de l’organisation hiérarchique verticale et les non-initiés se sont trouvés face à une révolution à laquelle ils n’étaient pas préparés. N’ayant pas été impliqués dès le départ au changement, ils ont été pris au dépourvu tant le changement était de taille et ont peut-être été à l’origine du frein qui a eu pour conséquence « l’échec » de la transformation digitale.

La culture comme point d’orgue

Les metteurs en scène de cette mutation ont certainement oublié un élément clé sans quoi aucun projet ne peut aboutir : l’humain… La transformation numérique n’est pas une révolution technologique. Il s’agit avant tout d’une aventure humaine et d’un défi managérial. Pourquoi ? La réponse en est simple. Le digital aplanit, lisse, les hiérarchies, casse les silos et bouleverse les modes de fonctionnement. Ce sont les codes mêmes de l’entreprise qui sont remis en question.

La numérisation passe essentiellement par le bouleversement des habitudes qui régissent le fonctionnement de la structure depuis plusieurs décennies. C’est pourquoi, avant de parler technologie, il faudrait peut-être parler culture d’entreprise et tenir compte du fait qu’un changement culturel ne se fait pas du jour au lendemain, qu’il prend du temps et qu’il se fait par étape.

Le collaboratif comme aboutissement

La transformation numérique exige l’implémentation d’un esprit collaboratif entre des départements aux missions distinctes, fonctionnant de façon radicalement différente et n’ayant aucune connaissance véritable du métier « de l’autre ».

À cela s’ajoute l’évolution des responsabilités de tout un chacun, notamment au niveau managérial. Il existe une certaine nébulosité en la matière et une véritable réticence. Entre le « Comment se définit le manager aujourd’hui ? » et le « Comment le manager de demain devra gérer ses équipes demain ? », il existe un réel fossé avec notamment des enjeux personnels pour les parties prenantes.

Si les équipes impliquées sont convaincues du bienfondé de la démarche, l’envie de collaborer sera certainement au rendez-vous ou du moins la collaboration se fera plus facilement. En effet, rien n’est plus difficile que de casser des silos et d’accompagner le changement.

Vous avez dit agile ?

L’agilité est un concept qui est sur toutes les lèvres et pour cause. La transformation numérique se fera avec « agilité » ou ne se fera pas. Une fois de plus, il n’est pas question de technologie, mais davantage de ce qu’il est convenu d’appeler le manager agile ou encore, pour rester dans l’air du temps, le manager 4.0.

En effet, ce sont les managers et les couches dites « intermédiaires » des entreprises qui vont assurer réellement la transformation numérique et entamer la 4e révolution industrielle, insufflant une nouvelle dynamique à travers l’organisation.

Leur rôle est non négligeable et les défis qui se posent à eux incommensurables. Leur métier évolue, la façon qu’ils l’exercent change drastiquement et ils ont pour charge d’orchestrer de façon harmonieuse une nouvelle symphonie dont personne ne connaît vraiment les notes.

Aussi, il est très important de se concentrer sur ces couches intermédiaires, trop souvent oubliées, de tenir compte de la dimension humaine et de la nécessité de les accompagner, faute de quoi la transformation numérique risquerait d’entrer comme un échec cuisant dans l’histoire.

NATACHA RYANNI

 

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Les 10 compétences-clés du monde de demain

PSFR201

Aucun doute, le futur nous intéresse. Et comme le dit Woody Allen, nous avons plutôt intérêt… puisque c’est là que nous allons passer le reste de notre vie. Le Peoplesphere de février 2016 vous emmène dans les méandres des impacts de l’évolution socio-démographique sur nos organisations à l’horizon 2030. Le Forum Economique Mondial quant à lui a publié ce 10 mars un article particulièrement intéressant sur les compétences-clés dans le monde de demain. Les conclusions résultent de l’analyse de 213 enquêtes sur les nouveaux modes d’apprentissage des étudiants et de la mise en perspective avec les enseignements du dernier Forum Economique de Davos qui a eu lieu en janvier 2016. Morceaux choisis.

 

L’approche socio-émotionnelle érigée au rang de condition de succès

Vous le savez, les robots, la technologies, l’intelligence artificielle, les algorithmes vont traiter des milliards d’informations beaucoup plus vite, beaucoup mieux, beaucoup plus précisément que nous, pauvres humains. Pour faire face à cette déferlante technologique qui va réduire à néant 45% des jobs actuels d’ici 2025 (enquête Oxford 2013), il nous restera comme arme de guerre notre incroyable capacité à nous connecter les uns aux autres et à créer des émotions. Nous sommes en route au pas cadencé vers cette économie de l’Emotion.

Le Forum Economique Mondial a synthétisé les compétences critiques dans le schéma suivant :

20160319_Compétences du monde de demainSOURCE : WORLD ECONOMIC FORUM – REPORT : NEW VISION FOR EDUCATION: FOSTERING SOCIAL AND EMOTIONAL LEARNING THROUGH TECHNOLOGY

Le monde académique semble donc prendre lentement conscience que nos têtes blondes auront besoin d’autres compétences que celles que nous avons eues la chance d’apprendre et surtout d’autres façons d’apprendre.

L’approche socio-émotionnelle contribue factuellement au succès.

Selon le Forum Mondial Economique (WEF), les compétences qui sont jugées comme critiques pour réussir professionnellement (voire humainement) dans le monde de demain sont principalement développées par des méthodologies dites SEL : Social – Emotional Learning. Les experts du WEF se sont penchés sur les méthodes probantes d’apprentissage scolaire et ont parcourus les études qui observaient les étudiants utilisant la technologie pour développer leurs aptitudes à interagir socialement et émotionnellement. Par technologie on entend notamment l’usage des plateformes collaboratives, des media sociaux, des MOOC – SPOC – COOC, du blended learning, … Mais la technologie n’est pas tout, encore faut-il y mettre les bons usages.

Les compétences annoncées ci-dessus sont celles détectées dans les projections des emplois de demain et ramenées au niveau des étudiants d’aujourd’hui. Ce qui est intéressant, c’est de se rendre compte que les mêmes compétences sont déjà critiques actuellement dans nos organisations. Les modes d’apprentissages ne diffèrent finalement en rien de ce qui s’organise dans les écoles et universités.

UNE VARIÉTÉ DE SOURCE D’APPRENTISSAGE DES COMPÉTENCES SOCIO-ÉMOTIONNELLES

20160319_apprentissage des compétences de demain

SOURCE : WORLD ECONOMIC FORUM – REPORT : NEW VISION FOR EDUCATION: FOSTERING SOCIAL AND EMOTIONAL LEARNING THROUGH TECHNOLOGY

En sachant que les étudiants qui favorisent des approches “socio-émotionnelles” d’apprentissage ont un taux de succès qui les positionnent à 11 points des étudiants qui suivent un apprentissage classique, nous pourrions nous permettre d’entrevoir les mêmes garanties de succès pour nos collaborateurs si nous les mettions dans les mêmes conditions de développement. A nous de jouer, donc !

Quels jobs pour demain ? 

A l’occasion du dernier forum économique de Davos portant sur l’émergence de la 4ème révolution industrielle (la révolution digitale), le WEF a également édité un rapport sur les “Emplois du Futur”, élaboré avec la contribution d’experts académiques, professionnels ainsi que de CEO et CHROs de 371 organisations de référence sur leurs marchés, représentant 13 millions de collaborateurs à travers 9 secteurs d’activités et 15 régions économiques majeures ou émergentes.

Tous s’accordent à dire que notre monde VUCA (Volatile Uncertain Complex Ambiguous) a d’ores et déjà des impacts majeurs sur nos organisations.

65% des enfants qui sont en primaire aujourd’hui travailleront dans des emplois qui n’existent pas encore.

Les projections en terme d’emploi sont impressionnantes : 7,1 millions de jobs d’employés administratifs devraient disparaître entre 2015 et 2020, conséquence de cette 4ème révolution industrielle… avec un gain de 2 millions d’emplois dans le secteur STEM (Sciences, Technologie, Ingénierie et Maths). Les secteurs de l’Energie, de l’Information, des Media, de la NanoBioTech et de l’Entertainement sont les secteurs dont la progression s’annonce la plus florissante. Les 2 métiers dont la pénurie s’annonce déjà sont les data analysts qui donneront du sens à la masse de données traitées et les commerciaux qui seront en capacité de créer une réelle connexion humaine avec les clients. Notez le bien, on vous aura prévenus : l’économie de l’Emotion est en route…

53% des DRH interrogés s’estiment confiants dans la capacité de leur organisation à s’adapter. Cela fait 1 sur 2… C’est plutôt inquiétant. Et 50% pensent que cette adaptation viendra de l’interne (plan de développement) et seulement 20% par du recrutement externe. Il est donc urgent de se mettre au travail !!

Quelles compétences pour demain ? 

Donc, en projetant les compétences et traits de personnalités critiques sur les projections d’emplois à 2020 (il est relativement compliqué d’aller plus loin compte tenu justement de la nature VUCA de notre monde), le WEF a identifié l’évolution suivante dans la criticité de ces compétences :

20160319_top 10 des compétences de demainSOURCE : WORLD ECONOMIC FORUM – REPORT : FUTURE OF JOBS

 

Nous voyons émerger l’urgence de comprendre le monde qui nous entoure (résolution de problèmes complexes, développement de la pensée critique, capacité de jugement et de décision), de nous adapter (créativité, flexibilité cognitive) et surtout de nous connecter (people management, négociation, orientation service, intelligence émotionnelle, se coordonner avec les autres, …).

Sans aligner esprit et coeur, il sera très compliqué de réussir dans le monde de demain. Sans courage et sincérité, cette mutation sera douloureuse et inefficiente.
Sans collégialité et émulation, nos organisations seront vides de sens.
Sans regard pour notre Monde et nos Communautés, nos actions seront inutiles.

“Don’t Manage. Love”. “Don’t work. Have Fun”.
Dans le monde de demain, le Bonheur au Travail sera plus vrai que jamais.
Des collaborateurs heureux sont 55% plus créatifs… Des collaborateurs heureux sont 31% plus productifs. Des collaborateurs heureux font des clients heureux qui font à leur tour des actionnaires heureux. Il est possible de passer d’un monde VUCA à un monde collaboratif et agile. Il est possible de renverser le cercle vicieux pour passer dans une spirale vertueuse. Et de cela, nous en avons terriblement besoin pour construire un meilleur monde du travail, qui puise son sens dans le Bonheur de ses collaborateurs comme source de performance durable… Si vous en doutez, je suis prête à parier avec vous !

(Ecrit le 20 mars 2016, 4ème journée internationale du Bonheur – Happy Happiness Day !).

Les start-up françaises en quête d’intelligence artificielle

Après avoir fait le tour des stratégies d’IA de quelques grands acteurs du numérique, dont Google, IBM, Microsoft et Facebook, et de leurs acquisitions, revenons aux start-up du secteur en nous intéressant aux françaises.

Il est clair que l’IA est l’une des technologies clés du numérique, aujourd’hui et demain. Au lieu de chercher à créer un Google, un Facebook ou un système d’exploitation français, il serait bon de s’intéresser à ce domaine prometteur, surtout dans la mesure où les plateformes correspondantes sont encore en devenir.

La recherche en IA en France

La recherche en IA est disséminée dans plusieurs laboratoires et dans des projets collaboratifs associant laboratoires publics et universités. Les deux premiers organismes se focalisant sur l’IA sont l’INRIA et le CNRS.

Que fait l’INRIA ? Un grand nombre des projets de recherche fondamentale en IA référencés sur leur site font appel aux techniques de l’IA, même s’ils ne sont pas forcément labellisés IA / machine learning / réseaux neuronaux. C’est ainsi le cas du projet Orpailleur mené à Nancy et dédié à la représentation des connaissances et au raisonnement. L’équipe planche sur l’extraction de données dans les bases de connaissances non structurées, et notamment dans le domaine de la santé, le même que celui qui est investi par IBM Watson et plein de start-up. Ils collaborent notamment avec le centre de lutte contre le cancer de Nancy. L’équipe Magnet travaille, quant à elle, directement sur le machine learning et l’auto-apprentissage.

Les chercheurs français se plaignent en tout cas d’être délaissés en France dans la discipline. Ils ne sont certainement pas les seuls, au sens où de nombreuses disciplines se sentent délaissées dans la recherche publique.

Une association créée en 1993 fait la promotion de la recherche en IA, l’AFIA. Elle organisait en octobre 2014 une conférence de promotion de l’IA dans la recherche. On y identifie par exemple Andreas Herzig (IRIT, CNRS, Toulouse) qui travaille sur la modélisation de la logique et du raisonnement, Hélène Fargier (IRIT, CNRS, Toulouse) qui travaille notamment sur la programmation par contraintes, Jérôme Euzenat (LIG, Inria) qui planche sur la représentation et l’échange de connaissances et Leila Amgoud (IRIT, CNRS) qui est spécialisée dans la modélisation de l’argumentation.

Le défi pour ces chercheurs et leurs autorités de tutelle est de trouver des applications tirées de leurs travaux. En consultant la liste des participations d’IT Translation qui est l’un principaux financeurs de projets issus de l’INRIA, on constate que l’IA est souvent en filigrane de ces projets, mais pas forcément au niveau «plateforme» ou «couches de base».

 

1Dans le Economic Report or The President, le rapport annuel 2016 sur l’économie de la Maison Blanche, j’ai découvert deux données intéressantes. Aux Etats-Unis, en 2013, les start-up ont créé deux millions d’emplois et les entreprises traditionnelles huit millions. Donc 20% ! Une proportion énorme sachant que dans le même temps, l’économie française a plutôt détruit des emplois et les startups n’en ont probablement créé que quelques milliers. Et surtout : la moitié de la R&D fédérale est dédiée à la défense ! Et au milieu des années Reagan, elle en représentait les deux tiers ! Cela explique pourquoi tant de projets autour de l’IA sont financés par la DARPA. En France, la recherche dans l’IA semble mieux financée côté civil, même s’il est difficile de le vérifier par les chiffres. On ne s’en plaindra pas. A ceci près que la R&D militaire US a une qualité : elle est orientée vers des objectifs pratiques selon des cahiers des charges. De son côté, la recherche civile française fonctionne plutôt de manière très décentralisée et sans objectifs pratiques clairs, sauf lorsqu’elle est financée par des entreprises privées, surtout depuis la loi Pécresse de 2007. A méditer !

Start-up «horizontales»

Voici les start-up que j’ai pu repérer dans les solutions techniques d’IA plus ou moins génériques. Le champ de la reconnaissance audio est faiblement couvert par les start-up françaises. Dans celle des images, on eu quelques cas anciens comme LTU qui a été racheté par le japonais JASTEC en 2005. Il subsiste quelques acteurs spécialisés dans la recherche et qui ont intégré petit à petit des techniques d’IA dans leurs offres. Antidot et Sinequa sont anciens dans le paysage mais, à l’instar de nombreux éditeurs B2B, ils peinent à croitre, notamment à l’international. Ils ne font que quelques millions d’euros de chiffre d’affaires. Comme dans l’article précédent, j’indique entre parenthèses l’année de création et les montants levés lorsqu’ils sont disponibles. J’aimerais bien ajouter un troisième indicateur : le chiffre d’affaires, mais il n’est généralement pas disponible.

Antidot (1999, 3,5 millions de dollars) est connu pour son moteur de recherche pour entreprises. Il propose une fonction de classification automatique de contenus ainsi que d’amélioration de la pertinence des résultats de recherche s’appuyant sur du machine learning.

Sinequa (2002, 5,33 millions de dollars) est un fournisseur de solutions de big data et d’analyse de données pour les grandes entreprises. Il fournit un moteur de recherche sémantique capable d’exploiter les données issues de nombreux progiciels (ERP, CRM, gestionnaires de contenus, etc). La société a annoncé en 2015 investir dans le machine learning pour améliorer la performance de ses solutions.

Dataiku (2013, 3,5 millions de dollars) fait évoluer les concepts de business intelligence et de data mining ave son Data Science Studio, un ensemble d’outils d’analyse de données qui exploitent du machine learning pour la création de modèles de données et de simulations.

Heuritech (2013) propose sa solution logicielle Hakken d’analyse sémantique, de tagging et classement automatiques de textes, images et vidéos sous forme d’APIs. Ils proposent aussi HeuritechDIP qui permet d’améliorer sa connaissance des clients et d’anticiper leurs besoins, évidemment, surtout dans les applications de commerce en ligne. Le tout s’appuie sur force marchine et deep learning. La start-up s’appuie sur les travaux de recherche de deux laboratoires publics le CNRS LIP6 and l’ISIR de l’UPMC (Paris VI).

 

2Smart Me Up (2012, 3 millions d’euros), vu aux CES 2015 et 2016 propose une solution logicielle d’analyse des visages. Elle détecte l’âge, le comportement et les émotions des utilisateurs. La solution est bien entendu plutôt commercialisée sous forme de brique logicielle en marque blanche utilisable dans des applications métier.

Moodstocks (2008) propose une solution mobile de reconnaissance d’images, fournie sous la forme d’APIs et d’un SDK multi-plateforme.

Objets connectés

C’est un domaine où les entrepreneurs français sont assez prolixes en général. Il n’est donc pas étonnant d’y trouver quelques start-up intégrant des briques d’IA dans leurs solutions. Le scénario le plus répandu est lié à la consommation d’énergie et à la maison connectée, avec des solutions faisant de l’auto-apprentissage du comportement de ses habitants pour piloter des actions d’économies d’énergie et d’automatisation diverses.

Craft.ai (2015, 1,1 million de dollars) est une très jeune start-up spécialisée dans l’Internet des objets. Elle permet de créer des solutions logicielles d’orchestration d’objets connectées qui apprennent toutes seules des comportements des utilisateurs et des données environnementales captées par les objets connectés. La solution est commercialisée sous la forme d’APIs destinées aux développeurs d’applications. L’approche est intéressante dans son principe. Reste à trouver un modèle économique solide.

 

3Angus.AI (2014) est un peu l’équivalent de Craft.ai, mais pour les robots. La start-up, créée par des anciens ingénieurs d’Aldebaran qui ont développé la partie logicielle des robots Nao et Pepper, propose une solution logicielle embarquée dans les robots leur apportant les fonctions de base de reconnaissance vocale et faciale et de détection d’obstacles. Elles sont fournies sous la forme d’un kit de développement et d’API (interfaces de programmation). Les ingénieurs s’appuient beaucoup sur des solutions open source du marché. Ils travaillent déjà avec la SNCF, mais pas sur des robots.

Ubiant (2011), basé à Lyon, était également présent au CES de Las Vegas en 2015 et 2016. Il propose une solution matérielle et logicielle de gestion de la maison intelligente, de l’éclairage et de l’énergie qui s’appuie sur du machine learning et sur le Luminion (ci-dessous), un objet connecté interagissant avec l’utilisateur via des LED de couleur indiquant si la consommation du foyer est supérieure à celle du voisinage. C’est une offre B2C.

 

4Vivoka a développé Lola, un logiciel de contrôle des équipements de la maison connectée. Elle s’appuie sur une box reliée à Internet qui se pilote via une application mobile et par commande vocale. Le projet lancé sur Kickstarter n’a pas porté ses fruits.

Iqspot (300 000 euros) est une start-up bordelaise qui analyse la consommation énergétique des bâtiments et sensibilise ses occupants pour la diminuer. Le tout avec du machine learning.

Xbrain (2012) est une start-up française, établie dans la Silicon Valley ainsi qu’à Paris et Lille, qui se spécialise dans les applications de l’IA à l’automobile et la robotique. Sa plateforme xBrain Personal Assistant permet de créer des agents conversationnels. Elle s’appuie sur la reconnaissance vocale, sur la gestion de contexte, sur la détection des intentions et la gestion de règles. Son créateur, Gregory Renard, planche sur l’IA depuis près de 20 ans.

Scortex (2016) développe des solutions matérielles et logicielles apportant l’autonomie aux robots et aux objets connectés qui intègrent notamment la reconnaissance d’images et de la parole. Ils ont même développé un chipset à base de réseaux neuronaux.

E-commerce

L’écosystème français a toujours été prolixe en start-up B2B et B2C dans le secteur du e-commerce et du marketing. Il est donc normal d’y retrouver quelques start-up intégrant de l’IA.

AntVoice (2011, 2 millions de dollars) propose une solution de recommandation prédictive pour les sites d’e-commerce qui s’appuient sur de l’intelligence artificielle. C’est un spécialiste du big data marketing.

Dictanova (2011, 1,2 million d’euros) est une société nantaise à l’origine d’une solution d’analyse textuelle des feedbacks clients dans les réseaux sociaux ou sites de vente en ligne, en liaison avec les outils de CRM pour optimiser la relation client. Les techniques utilisées comprennent l’analyse sémantique de textes et la classification automatique. La solution est fournie en cloud.

Modizy (2012, 275 000 dollars) propose un assistant d’achat dans la mode basé sur un algorithme d’intelligence artificielle. Modizy propose aussi une place de marché reliant consommateurs et marques.

Tastehit (2014) utilise du machine learning et du big data pour personnaliser les sites d’e-commerce en temps réel. Donc, une offre B2B.

CompareAgences (2012) intermédie la relation entre agents immobiliers et particulier dans le cadre de la vente de biens. La start-up emploie 12 personnes et génère 200 000 visiteurs uniques par mois. 1 000 agences immobilières sont intégrées en France. Le tout est à base de machine learning, sans plus de précisions.

Santé

C’est un domaine très porteur pour les applications de l’IA. Seulement voilà, nous sommes un peu à la traîne dans l’une de ses grandes applications : la génomique. Mais la santé va au-delà de la génomique, heureusement.

CardioLogs Technologies (2014) a créé une solution d’interprétation automatique des électrocardiogrammes (ECG) en temps réel s’appuyant sur du machine learning. Uberisation en puissance des cardiologues ? Pas si vite ! Cela permet surtout de rendre un suivi plus régulier des patients à risques ou atteints de maladies chroniques.

Dexstr.io (2014) est une start-up toulousaine fournissant la solution Inquiro qui exploite les données médicales non structurées pour faciliter la recherche d’informations pour les sociétés de pharmacie. En gros, c’est de la recherche documentaire, un peu comme le font Sinequa et Antidot, mais avec un tuning adapté à la documentation scientifique dans la santé. Leur concurrent serait plutôt l’application d’IBM Watson à l’oncologie.

Khresterion (2014) propose un logiciel d’aide au diagnostic et à la prescription pour les cancers. La solution fonctionne sur un principe voisin de celui d’IBM Watson, compulsant la littérature scientifique et les données des patients pour proposer divers traitements avec leurs avantages et inconvénients comme les effets secondaires. La société aurait comme prescripteur des organismes de remboursement comme Humanis, Axa et la Maaf. Sa solution commence aussi à être utilisée dans la finance, là où les cycles de vente sont probablement plus courts.

Applications métiers

C’est là que la créativité est la plus développée, comme nous l’avions vu dans l’article précédent de la série au sujet des start-up américaines.

Snips.ai (2013, 6,3 millions de dollars) est une start-up connue du secteur de l’IA, créée par Rand Hindi (prix du MIT 30 en 2015), Mael Primet et Michael Fester. Leur dernière levée de fonds de 5,7 millions d’euros en juin 2015 présente la particularité d’associer Bpifrance avec des investisseurs américains, en plus de business angels tels que Brent Hoberman et Xavier Niel. L’équipe comprend 35 personnes : des data-scientists, des développeurs, designers et quelques marketeurs. Leur positionnement est large et un peu vague : rendre la technologie invisible et les usages intuitifs via de l’IA. A ce titre, la start-up a développé des applications expérimentales telles que :snips (un ensemble d’applications de recherche pour iOS dont un clavier virtuel intelligent pour la recherche d’adresses), Tranquilien (qui prédit les places disponibles dans les trains de banlieue), Parkr (la même chose pour prédire les places de parking), Flux (qui identifie le trafic mobile en s’appuyant sur les données des smartphones), RiskContext et SafeSignal (identification de risques d’accidents sur la route). La start-up planche aussi sur des applications verticales : pour les véhicules connectés, dans l’hôtellerie, la maison connectée et les loisirs numériques. Le tout s’appuie sur force machine et deep learning, modèles probabilistiques, traitement du langage, gestion de graphes et aussi encryption des données pour garantir la vie privée. Derrière la vision, l’implémentation et l’expérimentation, on leur souhaite de réussir la businessmodelation.

 

5

6

Jam (1 million d’euros) a créé un agent conversationnel SMS pour étudiants. Ils ont ISAI Ventures dans leur capital. La solution utilise une combinaison d’IA et de vrais intervenants humains pour assurer une bonne qualité des réponses. Leurs outils d’IA sont en open source.

Julie Desk (2014, 993 000 dollars), basé à Paris, propose un service d’assistante virtuelle fonctionnant sous la forme d’un agent conversationnel opérant en français et en anglais. Il gère surtout votre agenda et répond à vos mails à votre place pour prendre des rendez-vous avec vos interlocuteurs. Comme pour Jam, l’agent fonctionne en mode supervisé par des opérateurs, ce qui permet d’assurer une bonne qualité de service. Les tarifs vont de 50 à 80 euros par mois. Il est notamment utilisé par des entrepreneurs de startups. Mais l’agent ne répond pas encore au téléphone.

 

7Riminder (2015) est une start-up spécialisée dans les RH qui s’appuie sur du deep learning pour proposer des outils d’aide à la décision. Il aider les chercheurs d’emploi à construire leur parcours professionnel et les actifs à développer leur carrière, en exploitant une base de connaissance de plusieurs millions de parcours de cadres.

Niland (2013) est une participation de IT Translation, la structure de valorisation des projets de recherche issus notamment de l’INRIA. Mais la startup a été créée par des anciens de l’IRCAM et s’appuie sur 10 années de travaux de recherche. Elle utilise le deep learning analysant le contenu de la musique pour rendre son exploration dans les plateformes de diffusion plus intelligente. Elle identifie les similarités entre morceaux pour les classifier automatiquement. La solution sera exploitée par CueSongs (UK, une société fondée par le chanteur Peter Gabriel) et motionelements (Singapour) qui sont dédiés aux professionnels de la musique. La solution est aussi illustrée par le service en ligne www.scarlett.fm et s’appuie sur SoundCloud pour vous permettre de créer une web radio personnalisée en fonction de vos gouts.

Yseop (2008) propose son agent conversationnel Savvy. Nous l’avions déjà évoqué dans le troisième article de cette série.

Séline (2013), édité par la société Evi, propose une panoplie d’applications bureautiques intégrant un agent conversationnel permettant de dialoguer et poser des questions en langage naturel. On y trouve notamment un traitement de texte, un tableur, un gestionnaire d’agenda, un carnet d’adresses, un gestionnaire de tâches, une médiathèque, un logiciel de gestion de finances et un gestionnaire de messagerie instantanée. Dilemme classique : faut-il recréer tout un existant complexe pour y intégrer une nouvelle fonction ou ajouter cette fonction aux produits existants du marché (Microsoft Office, Open Office). Question d’ouverture, de simplicité de mise en oeuvre et de modèle économique!

Dans mon précédent article sur l’écosystème entrepreneurial de La Réunion, j’avais aussi identifié quelques startups qui utilisent le machine learning : logiCells (ERP sémantique) et Teeo (analyse de consommation d’énergie pour les entreprises). A contrario, certaines start-up font appel à des briques d’IA comme le machine learning mais préfèrent ne pas l’évoquer dans leur communication.

Ce tour est probablement incomplet et les oubliés du secteur se feront immanquablement connaître pour intégrer cette liste que je mettrai à jour au fil de l’eau. A vrai dire, d’ici peu de temps, l’usage de machine learning sera aussi courant dans les start-up que l’appel à des bases de données NoSQL : une banalité !

Le top du top de la start-up d’IA ? Utiliser l’IA dans une solution d’agent conversationnel en cloud qui fait du big data sur des données issues de l’IoT en sécurisant les transactions via des blockchains. Le bingo de la start-up d’IA est lancé !

Article initialement publié sur le blog Opinions Libres.

Par Olivier Ezratty, expert FrenchWeb

 

7 clés pour diriger une dream team

diriger-une-dream-team

Sur le papier comme dans votre tête, vous disposez de la meilleure équipe du monde et pourtant, ça ne colle pas tout à fait. Vous avez bien la sensation d’avoir embarqué les personnes adéquates dans le bon bus mais ce bus semble n’aller nulle part. Que faire alors ?

D’abord, sachez que vous êtes loin d’être le seul. Ce dilemme est bien connu. Des tonnes de livres, d’études et de séminaires y ont été consacrés.

Même Google s’y est intéressé. Dans une étude appelée « Projet Aristote », plusieurs centaines de leurs équipes ont été analysées pour déterminer quels étaient les facteurs qui permettaient à certaines de réussir tandis que d’autres échouaient. Cette étude démarrée, il y a de nombreuses années, se poursuit d’ailleurs toujours, mais ses premières conclusions sont loin d’être disruptives. Elles traduisent ce que nombre de chefs d’entreprises savent déjà : les meilleures équipes sont composées de femmes et d’hommes qui s’écoutent les uns les autres et manifestent une vraie sensibilité à leurs sentiments et à leurs besoins respectifs.

La question, alors, est, bien sûr : quels sont les pré-requis qui permettent aux membres des équipes qui se constituent de développer cette écoute et cette sensibilité ? La réponse tient en 7 points :

1. Ils doivent penser par eux-mêmes

Ne faites pas de vos proches collaborateurs des toutous bien dressés qui suivent aveuglément chacune de vos instructions. Exigez d’eux qu’ils expriment leur opinion ouvertement et sincèrement. N’hésitez pas à les défier pour qu’ils se battent pour leurs propres idées, sans tabou.

2. Ils doivent avoir une vue d’ensemble

Ne les laissez pas dans l’ignorance de vos objectifs stratégiques ou du détail de l’information financière disponible sous prétexte « qu’ils ont suffisamment de souci comme cela avec leur responsabilité propre sans avoir les vôtres, en plus ». Une information transparente donne le sentiment à chacun d’être intégré.

3. Ils doivent agir

Pour cela, vous devez lâcher la bonde de votre domaine réservé. Permettez-leur de prendre leurs responsabilités, individuellement ou collectivement. Avec la responsabilité vient aussi l’autorité – l’autorité de compétence, la vraie -.

4. Ils doivent interagir

Un leader fait en sorte que les membres de son équipe se parlent entre eux, plus encore qu’avec lui. C’est en dynamitant les organisations en silo que vous y arriverez.

5. Ils doivent s’exprimer sans retenue

Au cours des réunions d’équipes, moins vous parlerez et plus vous les laisserez s’exprimer, mieux ce sera. Vous emmagasinerez une information exhaustive qui vous permettra d’être un facilitateur dans l’action de chacun, au sein de l’équipe.

6. Ils doivent échouer

Les erreurs sont formatrices. Laissez-les faire leurs faux-pas. Acceptez-les, avant d’intervenir, tant qu’ils ne remettent pas en cause l’essentiel. C’est un service que vous leur rendez et que vous vous rendez à vous aussi car, comme ils savent devoir travailler le plus souvent sans filet, ils assument la responsabilité de leurs actes.

7. Ils doivent diriger

C’est peut-être le plus difficile pour vous ; laisser la conduite des affaires aux membres de votre équipe. Mais vous y gagnez le don d’ubiquité. C’est lorsqu’ils auront l’impression de ne plus avoir besoin de vous que vous aurez abouti. Formidable ! Vous pourrez enfin consacrer l’essentiel de votre temps à l’avenir et à la réflexion stratégique au lieu de gérer au jour le jour.

Concevoir le futur est le vrai travail d’un dirigeant ; ce n’est certainement pas l’agitation quotidienne.

Pensez-y en formant votre dream team !

par Alain Goetzmann

5 modèles économiques pour 2016

Voici les 5 grandes tendances en matière d’organisation du tissu économique mondial, qui impacteront le modèle des entreprises en 2016 d’après l’étude « Accenture Technology Vision 2016 » .

Comme on peut s’y attendre, ces tendances confirment les bouleversements technologiques et sociaux observés ces dernières années.

L’automatisation intelligente

investir dans le domaine de l'intelligence articficielle

70 % des cadres interrogés dans le cadre de l’étude souhaitent investir « significativement plus qu’en 2013 dans les technologies de l’intelligence artificielle ».

En filigrane, ce sont surtout les systèmes d’automatisation et de Big Data qui attirent les entreprises. La complexité des organisations et des systèmes rend la recherche ou la classification des informations de plus en plus chronophage.

L’automatisation, d’ores et déjà existante au sein des différents services de l’entreprise, devient désormais « automatisation intelligente ». Au-delà du gain de temps et de coût, c’est la manière de collecter et de traiter les données qui change avec l’avènement de l’intelligence artificielle.

L’étude Accenture donne pour exemple la solution Adobe Target qui propose l’utilisation d’algorithmes d’autoapprentissage pour personnaliser les messages diffusés à une communauté (réseaux sociaux) et augmenter le taux d’engagement des consommateurs avec une marque.

L’uberisation de la société et la gestion des talents

L’uberisation de la société est en marche, ou plus concrètement, la suppression des intermédiaires grâce à l’avènement des plateformes web de mise en relation entre besoin et demande de compétences. Les barrières réglementaires et les spécificités sectorielles qui protégeaient les métiers disparaissent les unes a près les autres laissant aparaitre de nouveau acteurs qui transforment les modèles économiques (Amazone, Cdiscount, Blablacar, Uber, Boursorama, Paypal, iTunes, Google play, AIRbnb, …).

La révolution se fait aussi au sein des entreprises qui voient la tendance à l’externalisation de la gestion de leurs projet s’intensifier. Elles sont souvent contraintes à modifier profondément leurs méthodes de travail.

Un produit peut être conçu par des designers à l’autre bout du monde, fabriqué en France à l’aide de technologies externes disponibles en open source et nécessiter l’intervention d’une multitude d’intervenants free-lance.

En somme, l’organisation d’une entreprise est de plus en plus flexible, transverse et externalisée.

Dans un tel contexte, adaptabilité et gestion des talents sont les maîtres mots des nouveaux modèles économiques qui se mettent en place.

L’entreprise doit être capable de repérer les compétences et les fidéliser, de respecter ses délais malgré les contraintes qui ont attraits aux divers experts intervenants dans son modèle, tout en laissant leur part de liberté aux free-lances qui le souhaitent.

De la plateforme web à l’économie de réseau

Pour 82 % des dirigeants interrogés dans l’étude, ce sont désormais les plateformes web qui rapprocheront les entreprises.

L’économie en réseau, le partage des ressources, des technologies et l’effet de volume que créé le web fait naître de nouveaux modèles économiques entièrement digitalisés, en dehors des circuits commerciaux et industriels classiques.

40 % des dirigeants d’entreprise pensent qu’il est urgent de faire évoluer leur modèle économique vers une plateforme collaborative avec les partenaires impliqués.

Des secteurs d’activités au contour flou

82 % des dirigeants interrogés dans l’étude estiment que les frontières entre les secteurs d’activité s’estompent. Une entreprise leader d’un secteur peut réussir aujourd’hui à s’imposer dans un autre secteur, comme Uber par exemple. Spécialisée dans le transport de personnes, la société s’immisce désormais dans le secteur des soins à domicile avec son nouveau concept UberHealth*.Des secteurs d’activité aux frontières floues
l'ubérisation
les étapes de la création d'entreprise

*UberHealth propose à ses utilisateurs une application Smartphone permettant de solliciter, non pas un moyen de transport, mais un médecin qui se déplace à domicile au tarif forfaitaire de 99 dollars. Le projet est né à Los Angeles.

objets connectésD’ailleurs, de manière générale, la santé est mûre pour accueillir l’innovation, spécialement celle touchant aux technologies de l’information et des communications. On peut le voir avec l’émergence des objets connectés dédiés à la santé (bracelets de suivi de son sommeil, de sa température, de son rythme cardiaque, etc.) et dont les données sont de plus en plus transférables vers les médecins traitants ou encore avec les systèmes d’informations créés à destination des professionnels de santé.

La protection des données

check-cadenas-200x2001.jpgLes réglementations en matière d’utilisation des données personnelles sont de plus en plus complexes pour les entreprises, sans parler des problématiques de sécurité. Plus de 80 % des dirigeants interrogés estiment qu’une faille de sécurité ou un manque d’éthique concernant l’utilisation de leurs données seraient des raisons essentielles pour ne pas s’associer avec une plateforme web.  D’après les prévisions, les dépenses des entreprises dans la sécurisation de leurs données et celles de leurs clients devraient être supérieures à 100 milliards de dollars en 2019.

D’ici 2020, un quart de l’économie sera digitale dans le monde (contre 15 % en 2005). L’entreprise de demain fonctionnera en réseau : réseau de compétences, réseau de technologies, de ressources. Elle sera à même d’intervenir sur plusieurs secteurs et traitera une quantité exponentielle d’information. Elle subira en retour les problématiques liées à la sécurisation de ses données.

Prendre conscience de ces informations est primordiale si vous cherchez une idée de création d’entreprise viable à long terme, si vous souhaitez créer / revoir votre modèle économique ou tout simplement vous adapter aux bouleversements de notre économie.

Pourquoi créer sa start-up en France ?

french tech

La France n’est pas toujours perçue comme un pays propice à l’entrepreneuriat. Pourtant la réalité est différente. L’écosystème Français est un formidable terreau pour la personne qui souhaite lancer sa start-up.

Aux Etats-Unis et au Royaume-Uni, une rhétorique anti-française s’est développée au sein de certains milieux conservateurs autour de l’idée de déclin économique et d’un modèle de société obsolète.

La réalité est, selon nous, bien différente. Le volontarisme français en matière de création d’entreprises et, singulièrement de soutien au secteur numérique, est de plus en plus marqué et de nombreux dispositifs d’aide ont été mis en place.

Aujourd’hui, la France est d’ailleurs en passe de rattraper l’Allemagne en matière d’investissements dans les start-up. Si en 2015 Paris se classe toujours à la 3e place du palmarès européen en matière de levées de fonds, selon le baromètre EY, les investissements, tirés par le secteur de l’Internet (représentant 1/3 du montant investi), ont quasiment doublé pour atteindre près d’1,8 milliards d’euros.

Quels sont les atouts français en matière d’entrepreneuriat et quelles sont les principales étapes de la création et du financement des start-ups françaises ?

Création de start-ups : un environnement socio-économique favorable

La France constitue tout d’abord un vivier de talents exceptionnels pour les projets à forte coloration technologique. Des ingénieurs formés par plusieurs centaines d’écoles d’ingénieurs, parmi les meilleures au monde peuvent être associés aux projets. Même si le marché est désormais global, les coûts salariaux des ingénieurs développeurs sont globalement moins importants que dans des zones telles que la Silicon Valley.

Les structures françaises d’accompagnement des start-up (incubateurs, accélérateurs, etc.) se multiplient et proposent des conditions très favorables. Par exemple, l’incubateur parisien AGORANOV est particulièrement réputé pour la qualité de ses soutiens aux projets innovants. La future Halle Freyssinet, ayant vocation à devenir le 1er incubateur numérique dans le monde, est également emblématique de l’ambition française.

Au-delà de l’attractivité de ses centres urbains et de ses infrastructures, la France présente aussi l’avantage d’avoir opté pour une organisation de son vaste réseau d’entrepreneurs. C’est ainsi notamment que, sous la bannière French Tech, sont coordonnées de multiples actions en faveur des start-ups à travers le monde.

Sur le plan juridique et administratif, les choses ne sont pas si kafkaïennes que parfois présentées. Par exemple, EY estimait déjà en 2013 que 7 jours suffisaient pour créer son entreprise en France. Ceci est d’autant plus vrai aujourd’hui avec l’essor très rapide de plateformes de création d’entreprises en ligne telles que Legalstart.fr.

Le financement des start-ups françaises : un amorçage facilité

Au stade de l’amorçage, la France se caractérise par une multitude de dispositifs d’aides permettant de limiter le recours à une dilution capitalistique.

Avant tout, il est possible de cumuler des aides en parallèle de la création de votre start-up :- Exonération partielle de charges sociales en début d’activité via l’aide au chômeur créant ou reprenant une entreprise (ACCRE) ;- Cumul indemnisation chômage Pôle Emploi et rémunération de votre activité avec l’aide au retour à l’emploi (ARE).- Incubateurs vous permettant d’être hébergé dans des locaux à loyers modérés avec une mutualisation des services de base (accueil, secrétariat, etc.) ;

– Aides de la part d’UBI France pour la réduction des coûts à l’export.

L’éligibilité à de multiples concours (tant privés que publics), fonction de l’activité, permet d’envisager sérieusement des compléments de financement. Certains, comme celui de l’innovation numérique (CIN) organisé par Bpifrance, permettent d’obtenir des subventions jusqu’à 500.000 euros.

Des prêts d’honneur octroyés par des structures associatives (comme Scientipôle Initiative ou le Réseau Entreprendre) constituent une autre modalité de financement spécifique tout comme les financements bancaires à conditions préférentielles proposés par Bpifrance.

Enfin, des dispositifs fiscaux et sociaux incitatifs : Jeune entreprise innovante(JEI), Crédit d’impôt recherche (CIR), etc. ont été déployés pour faciliter l’amorçage et le développement des projets innovants. Par exemple, sous condition d’un investissement suffisant en R&D, le statut de jeune entreprise innovante (JEI) permettra à votre entreprise nouvellement créée de bénéficier de déductions fiscales et de charges sociales.

Enfin, en ce qui concerne les premières levées de fonds, le marché français compte de très nombreux capitaux-risqueurs spécialisés dans l’amorçage et le « early stage ». Les solutions initiales de financement sont donc nombreuses et assez facilement accessibles.

Un recours au capital-risque plus compliqué mais en forte progression

Lorsque les start-up françaises se tournent vers des modes de financement à plus grande échelle comme le capital-risque (défini par des montants investis compris entre 2 et 10 millions d’euros) voire le capital-développement (pour des montants supérieurs à 10 millions d’euros), les choses sont en revanche parfois moins favorables. Si un certain nombre de dispositifs incitatifs ont été mis en place (ex : les Fonds communs de placement dans l’innovation – FCPI), l’impact reste limité et le bât blesse quelque peu sur ce point. En comparaison de certains hubs comme la Silicon Valley, il est beaucoup plus difficile de se financer en France pour des investissements très significatifs. Par exemple, c’est bien auprès de fonds américains que BlaBlaCar a levé 200 millions de dollars l’année passée. Plus largement, deux-tiers des levées de fonds supérieures à 10 millions d’euros sur le Vieux Continent font intervenir des fonds basés Outre-Atlantique. Encore faut-il être suffisamment visible et attractif pour susciter l’intérêt de fonds étrangers.

Les pouvoirs publics tentent de réorienter les activités de financement des fonds français vers des montants plus importants. L’une d’entre elle a consisté en la mise en place du fonds « Large Venture » (doté de 600 millions d’euros) par lequel Bpifrance co-investit avec des investisseurs privés dans des tickets supérieurs à 10 millions d’euros. Il est d’ailleurs fort probable que le paysage du capital-risque français va évoluer significativement dans les cinq prochaines années et voir émerger des acteurs capables d’accompagner les futurs champions français en « late stage « ou en « capital-croissance »Selon Bpifrance, il suffirait d’une demi-douzaine de fonds de capital-risque de 300 millions d’euros pour offrir aux start-ups françaises une véritable capacité de croissance.

Chronique de Pierre Aïdan

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.

 

Cessez de chercher le business model digital disruptif

Comme j’ai pu l’écrire un certain nombre de fois depuis le début de l’année, la transformation digitale est en route, on a lancé la fusée mais on a du mal de la faire atterrir. Pour mémoire Arthur D. Little nous dit que l’essentiel des entreprises est « quelque part sur son chemin » et Cap Gemini Consulting que 7% seulement des entreprises sont expertes en digital et que 56% des entreprises ont commencé à travailler leurs compétences digitales sans pour autant percevoir de retour sur investissement. Les dirigeants eux-même, ont décidés de faire avancer les choses. Armés de bonne volonté, ils semblent dans de nombreux cas «au milieu de quelque» part sans savoir trop où aller. Avec de vagues certitudes sur ce qu’ils cherchent et un gros point d’interrogation quant à comment et où le trouver.

«La transformation digitale c’est des business nouveaux reposant sur de nouvelles expériences». C’est la définition de la transformation digitale qui fait foi aujourd’hui et si comme toute définition synthétique d’un domaine aussi large elle est forcément un peu réductrice, elle ne donne pas moins une idée assez claire des enjeux. Et pourtant elle fait beaucoup de mal à qui ne sait pas la manier et la prend au pied de la lettre.

La transformation digitale ne commence pas par le business model

C’est ainsi qu’on voit des entreprises se mettre en quête de trouver le fameux business model qui les sauvera. Prenez deux minutes pour imaginer la situation. Des personnes (souvent dirigeants et managers) plongées dans un environnement nouveau qu’elles ne connaissent le plus souvent que depuis peu et de manière conceptuelle faute de pratique personnelle, et qui se mettent à réfléchir à un business model nouveau le business model étant aussi quelque chose de conceptuel et théorique tant qu’on a pas essayé de le mettre en œuvre.

Vous imaginez le résultat : ça plane, ça phosphore, on a des réflexions de haut niveau mais au final rien n’atterrit. Et tout le monde reste perdu, comme en apesanteur au milieu de nulle part, en se disant qu’on est pas loin d’avoir mis le doigt sur quelque chose mais sans jamais le toucher. Donc on accouche d’une vague vision dont on confie l’exécution à d’autres qui eux même cascadent…en espérant qu’à un moment dans la chaine quelqu’un va avoir un éclair de génie et raccrocher tout ça à quelque chose de tangible.

Laissez moi vous dire quelque chose. Personne (ou presque) n’a inventé de business model nouveau ex-nihilo. Jamais. Pas plus à l’ère digitale qu’avant. C’est une approche trop lointaine et théorique.

Ce que les gens ont inventé c’est des offres, des produits, et surtout des services qui, ils le pensaient, répondaient à un besoin et, ils l’espéraient, aller rencontrer leur marché. Et parmi toutes ces idées certaines ont effectivement fonctionné et a posteriori ont créé un business model nouveau. On construit une offre, un service, de la nature de ce service découle une manière nouvelle ou non d’organiser la production et la chaire de valeur et, dans l’affirmative, on tient un business model.

Le business model est un produit dérivé de l’offre

Le business model se construit inconsciemment et simultanément avec l’offre et n’est post-rationalisé pour être industrialisé que si l’offre rencontre un marché. Sinon on jette tout (et parfois un business model prometteur accolé à une offre mal ficelée…c’est ce qu’on appelle jeter le bébé avec l’eau du bain). Par contre une fois qu’on a trouvé quelque chose qui fonctionne, on peut décliner le business model à l’envi sur de nouvelles offres.

Puisque tout le monde a les yeux braqués sur Uber, pensez vous une seule seconde que ses fondateurs aient voulu créer un business model nouveau et inventer l’«uberisation»? Aussi talentueux soient ils, ce serait aller vite en besogne. Il sont d’abord voulu résoudre un besoin, un problème client. Ce faisant ils ont imaginé de mettre en relation une offre et une demande qui n’avaient pas les moyens de se rencontrer et, en passant, ont réglé un problème d’expérience par l’application, le parcours client et le choix de prestataires plus haut de gamme que ceux qu’ils remplaçaient. Le modèle nouveau a été le résultat, pas le départ. Ils n’ont pas démarré en se disant « tient on va se positionner différemment dans la chaîne de valeur». Uber n’a cherché à Uberiser personne. Ils l’ont fait mais c’était le résultat, pas le but

Partant de là j’en vois beaucoup obnubilés par le fait de se déplacer dans la chaîne de valeur sans aucune considération de besoin client ou de chaîne d’expérience. On invente ainsi des modèles qu’on a du mal de faire atterrir et opérationnaliser car ils ne correspondent à aucune demande. Ce sont des concepts à la recherche d’un problème alors que nous avons déjà assez de problèmes à la recherche d’une solution sans essayer de s’occuper de ceux qui n’existent pas.

Je reviens sur cette fantastique tribune de Thomas Guyon à laquelle je souscris dans une très large mesure. Tous les outils, canevas méthodologique et baguettes magiques utilisés aujourd’hui pour aider les entrepreneurs à accoucher de business models sont faits pour expliquer et analyser des business existants, pas pour en créer de nouveaux.

Des expériences digitales ne supposent pas toujours un business model nouveau

«Nouveaux business models reposant sur de nouvelles expériences». Si on lit la phrase avec attention on en comprend le sens. L’expérience vient avant le business model. C’est le business model qui découle de l’expérience et pas l’inverse.

Donc rien ne sert de chercher des business models et de commencer par cette partie. C’est du client que tout part.

Mais ça n’est pas tout, la transformation digitale peut se traduire par de nouvelles expériences sans changement de business model.

Prenons le domaine de l’aérien et sa digitalisation depuis 10 ans.

  • on a pu acheter ses billets sur le web
  • on a pu s’enregistrer sur le web
  • on a dématérialisé la carte d’embarquement
  • on a dématérialisé la totalité du parcours client
  • on a apporté de nouveaux canaux de servicing
  • on a créé de nouvelles expériences sur la partie «inspiration» du parcours d’achat
  • on a délivré par des canaux digitaux des services autrefois physiques sans pour autant en changer le modèle économique (presse en ligne, streaming de vidéos en wifi dans l’avion sur tablettes..)
  • on a équipé les agents en vol et sol d’applications sur tablette permettant de mieux servir le client, d’anticiper ses besoins en le connaissant mieux et de pouvoir régler ses problèmes in situ.

 

Aucune transformation du business model et pourtant en 10 ans on ne peut pas dire que l’expérience digitale n’a pas fait un grand bond en avant. Comme quoi on peut se digitaliser par l’expérience sans pour autant transformer son business model (en tout cas pas pour des motifs digitaux).

Moralité, il vaut mieux commencer par s’occuper de l’expérience client (et employé), partir de vrais besoins au lieu de perdre dans la jungle de la réflexion sur les business model. Quand on a une idée qui fonctionne, le business model suit.

 

bertrand-duperrinBertrand Duperrin est Digital Transformation Practice Leader chez Emakina. Il a été précédemment directeur conseil chez Nextmodernity, un cabinet dans le domaine de la transformation des entreprises et du management au travers du social business et de l’utilisation des technologies sociales.

Par Bertrand Duperrin

 

L’uberisation est une opportunité !

 

uberisation-des-professions-608x321  

Je me propose dans ce nouveau billet de voir ce qu’il convient de faire afin d’éviter d’être « disrupté » ou « uberisé ».

  Plusieurs rappels préalables s’imposent : d’abord, il n’y a pas les bons d’un côté — les startups et la nouvelle économie — et les mauvais de l’autre — ces grandes entreprises statiques et engluées dans leur complexité. Les sociétés du CAC 40 et les autres — y compris les PME-PMI — se sont profondément transformées au cours de ces dernières années, intégrant les règles de la révolution digitale. Certaines sont en réalité très avancées. Ensuite, il n’y a pas les startups d’un côté avec leur jeunesse et leur modernité et les entreprises classiques de l’autre avec leurs baby-boomers. Les jeunes sont actifs des deux côtés et les anciens apportent bien plus de valeur que certains le pensent de prime abord. Enfin, la solution n’est pas d’opposer les deux mondes mais au contraire de les faire travailler ensemble. Les startups et l’économie classique peuvent assurément s’apporter mutuellement.

Les startups obligent les entreprises plus traditionnelles à adapter leur modèle d’entreprise sous peine pour ces dernières de se retrouver en grande difficulté. C’est en cela que « l’uberisation » peut être une opportunité ! Une opportunité pour celles qui sauront la saisir, avant qu’il ne soit trop tard.

   Il faut sortir des clichés opposant le monde de startups à celui de l’économie traditionnelle.

Mon intention n’est donc pas d’opposer les acteurs de la nouvelle économie — très véloces par ailleurs — à ceux du monde entrepreneurial plus classique — qui innovent parfois depuis des décennies. Je n’ai également nulle intention de me livrer à un inventaire à la Prévert.

Il semble cependant que certaines pratiques permettent aux entreprises assaillies par de nouveaux entrants non seulement de réagir avec plus de réactivité et d’efficacité, mais aussi d’en tirer pleinement partie.

Sans prétendre à l’exhaustivité, voici celles que j’ai pu identifier au cours des deux dernières années.

Pratique 1 : Mettre la créativité au cœur de l’organisation, de tous les processus et de tous les métiers.

Elle ne doit pas concerner uniquement la R&D (Recherche & Développement) mais également l’organisation, le social, l’humain, l’environnement et les affaires bien sûr. Ainsi diffusée, elle ne peut que changer l’état d’esprit de chacun et plus largement de l’entité toute entière. Elle devient de fait le meilleur rempart pour repousser les potentiels nouveaux entrants et éviter les ruptures brutales.

Pratique 2 : Inciter les équipes à prendre des risques mesurés.

Il convient dès lors d’accepter le principe du droit à l’erreur ou à l’échec, selon l’adage attribué à Nelson Mandela : « Je ne perds jamais. Soit je gagne, soit j’apprends ». C’est du reste ce qui caractérise le mode opératoire des startups. Elles prennent des risques, elles n’ont pas le choix. En diffusant une culture de l’engagement, en poussant les managers à prendre des décisions, l’entreprise classique se met en position de lutter avec plus d’efficacité face aux disrupteurs qui ne rêvent que de lui prendre des parts de marché. La prise de risque n’est en rien l’apanage des startups.

 

Pratique 3 : Développer une forte culture d’entreprise.

Elle est le ciment entre les équipes. Les valeurs portées par l’entreprise et ses dirigeants soudent les salariés entre eux et créent une véritable identité collective. Il faut se souvenir que la culture est le seul facteur qu’il est impossible de copier. C’est elle qui différencie deux entités ou deux groupes de personnes. C’est l’un des avantages des entreprises plus anciennes. Elles ont l’histoire pour elles et nous savons que dans bien des cas, cela peut faire la différence, en mobilisant les énergies aux moments clés.

Pratique 4 : Miser sur les talents et la compétence.

Il convient d’avoir les « bonnes personnes aux bons postes pour réaliser les bonnes actions aux bons moments » et d’investir sur la formation des équipes. La connaissance — même si elle évolue très vite de nos jours — permet à toute firme de se créer des avantages compétitifs, souvent déterminants. En négligeant ceci, l’entreprise risque le décrochage.

Pratique 5 : S’assurer que la diversité culturelle soit parfaitement représentée au sein de l’entreprise.

Nous sommes tellement habitués à fonctionner avec des élites stéréotypées — qui aiment à se coopter entre elles — que nous n’avons pas toujours pris conscience que le monde avait changé. Intégrer des profils différents au sein d’une équipe est un formidable atout pour enrichir l’équipe et la rendre plus agile, plus à même de réagir aux attaques extérieures.

  Il faut miser sur les jeunes, le mix-générationnel,  la mixité, la diversité culturelle, les talents,  toutes les formes d’intelligence et donner du sens à l’action engagée. 

Pratique 6 : Faire de la mixité une réalité.

Les femmes et les hommes vont devoir partager les postes à responsabilité pour le bien de notre société et de notre économie. La parité — en particulier pour les postes de direction — veut dire au final plus de performance et plus de créativité. Sur ce dernier point, les femmes vont indéniablement apporter un regard différent. Le thème de la mixité n’est pas nouveau. On en parle depuis longtemps, trop longtemps. Il faut à présent en faire une réalité. C’est un combat, rien d’autre.

Pratique 7 : Réussir le mix-générationnel.

Il faut en premier lieu faire confiance aux jeunes. Les entreprises « classiques » doivent attirer de jeunes développeurs, des Gen Y — bientôt des GEN Z — et s’assurer qu’ils sont bien intégrés, avec des missions de qualité. Il est vital de les faire coacher par les plus anciens qui détiennent expérience et savoir-faire. En réussissant à mettre en place ce travail collaboratif, l’entreprise multiplie ses chances de ne pas passer à côté d’un mouvement majeur.

Pratique 8 : Maitriser la révolution digitale

Elle a fait basculer le monde dans la 4ème révolution industrielle. Ne pas en comprendre les enjeux et sa signification c’est l’assurance de rentrer dans une grande turbulence. Cela veut dire que les comités de direction doivent s’emprègner des grands enjeux à venir et en assimiler les rouages et modes opératoires. Cela aura un impact évident sur l’emploi et la gestion des talents.

Pratique 9 : Accorder une place à toutes les formes d’intelligence.

Ne pas sélectionner les candidats à l’embauche sur les seuls critères habituels, dont le fameux QI. L’intelligence émotionnelle me paraît être de la plus grande importance pour évoluer dans le monde de demain, tout comme l’intelligence relationnelle, à savoir la capacité de former des réseaux, de les entretenir et de s’en servir avec perspicacité.

Pratique 10 : Donner du sens à nos actions, à tout ce que nous faisons.

Les jeunes générations y sont très sensibles. Mais en réalité tout le monde l’est. Nous voulons une réponse à la question du « pourquoi ». Un peu comme lorsque nous étions enfants et que nous voulions tout comprendre. Nous en avons perdu l’habitude, piégés dans l’engrenage de nos vies quotidiennes.

Il me semble que ce sont là les actions majeures à entreprendre pour être en pole position dans ce monde numérique en pleine turbulence et en sortir gagnant.  Je developperai dans de prochains billets quelques-unes de ces pratiques.

Au final, les startups permettent donc bien à l’économie classique de se réinventerQu’elles soient saluées pour cela !

 Par Gérarld KARSENTI