Category Archives: nouvelles technologies

Pourquoi les individus innovants sont-ils aussi détestables ?

 

Elon Musk, Mark Zuckerberg, Steve Jobs… Tous ces grands innovateurs sont aussi réputés pour leur génie que pour leur (mauvais) caractère. Et cela n’a rien d’un hasard.

Steve Job était l’homme que l’on aimait détester. De l’avis de nombreux collaborateurs, celui qui a « changé la face du monde » était tout simplement exécrable, colérique et humiliant. Deborah Coleman, l’une de ses premières collaboratrices, rappelle qu’il hurlait dans les réunions « Bandes de nuls, vous faites de la merde ! ». Ce caractère le poursuivait dans sa vie privée : il refusait de mettre une plaque d’immatriculation sur sa voiture, il se garait sur les places réservées aux handicapées… Comme le rappelle son biographe, Walter Isaacson : « Jobs vécu toute sa vie comme s’il n’était pas soumis aux mêmes règles que les autres, ni à la même réalité ».

Il n’est évidemment pas le seul. Elon Musk est présenté, notamment dans l’ouvrage d’Ashlee Vance, comme une personne capable de mettre ses collaborateurs sous une pression hors norme et de mentir régulièrement à ses équipes pour arriver à ses fins. Dans ses entreprises, beaucoup de bons ingénieurs sont poussés à la démission pour des choses qu’ils n’avaient même pas faites. Mark Zuckerberg, lui, est reconnu comme un « impérialiste » qui impose ses vues, comme le souligne David Kirkpatrick dans « La révolution Facebook ». Quant à Nikola Tesla et Thomas Edison, tous deux sont décrits comme pathologiquement narcissiques.

Détestés, oui. Mais qui aujourd’hui se passerait d’électricité (Edison), de smartphone (Jobs), de radars ou de courant alternatif (Tesla), de paiements en ligne et bientôt de voitures électriques (Musk), et même de réseaux sociaux (Zuckerberg) ? Les utilisateurs se comptent en milliards. Ces hommes n’ont pas simplement créé une ou plusieurs entreprise(s), ils ont changé les modes de vie à long terme.

Le prix à payer pour innover

Pourquoi les innovateurs sont-ils souvent jugés si désagréables ? Tout simplement parce qu’ils ont besoin de l’être, explique Malcom Gladwell, auteur de « David and Golliath ». Si une idée est révolutionnaire, elle bouscule nécessairement les conventions – sinon, c’est qu’elle n’est pas si révolutionnaire que cela. En conséquence, l’innovateur se retrouve en permanence pris entre plusieurs feux : convaincre ceux qui ne veulent pas changer, s’affranchir des obstacles, ignorer les plus médisants, etc. Il semble donc que ce soit à ce prix que les choses peuvent changer, et seule une personnalité hors norme associant confiance en soi et détermination peut mener au succès.

Une étude conduite aux Etats-Unis souligne d’ailleurs que les hommes « désagréables » ont une rémunération de 18% supérieure, en moyenne, aux hommes sympathiques. Si cela s’explique par le fait que le manque d’amabilité proviendrait d’un plus grand esprit de compétition, les psychologues précisent également que c’est surtout une conséquence de leur travail. Autrement dit, ils sont exigeants avec les autres comme avec eux-mêmes. Souvent stressés par leurs responsabilités et anxieux de nature, ces individus interagissent avec autrui « sans filtre », dans un unique but d’efficacité.

D’autant plus qu’ils considèrent le temps comme un outils qu’il ne faut pas gaspiller, indiquait le psychologue Thierry Gallois dans une interview accordée à Atlantico. Tous les entrepreneurs cités plus haut ont une relation compliqué avec le temps : Mark Zuckerberg, par exemple, s’habille systématiquement avec le même tee-shirt pour gagner quelques minutes (comme le faisait Steve Job avec ses célèbres cols roulés), et Richard Branson, Tim Cook, Howard Schulz et Jack Dorsey reconnaissent tous avoir réduit leur temps de sommeil pour se lever très tôt et gagner ainsi un temps précieux dès le début de la journée (lire aussi la chronique : « Les entrepreneurs, tous insomniaques ? »). Cela devient même un objectif de vie et d’entreprise lorsque l’on observe les investissements d’Elon Musk dans des projets liés au transhumanisme.

Plus qu’un métier, un mode de vie

L’innovation ne commence pas le lundi à 9 heures du matin pour s’arrêter à l’heure du déjeuner, reprendre à 14 heures, puis finir à 18 heures et ainsi de suite jusqu’au vendredi soir. L’innovateur pense sans cesse à l’innovation. Il est habité par ce qu’il fait, doit faire ou pourrait faire. Ainsi, les entrepreneurs engagés dans l’innovation ne cessent de penser aux problèmes qu’ils veulent ou peuvent résoudre : Comment avoir plus de taxi (Uber) ? Comment organiser l’information (Google) ? Comment obtenir plus de chambres à louer (Airbnb) ? L’innovateur refuse en quelque sorte le monde tel qu’il se présente et se propose alors de le changer. Cette posture individuelle est fondée sur un travail, un effort, des arguments et des recherches qu’une majorité d’individus n’auront pas accomplis et qui, dès lors, se dresseront contre l’avancée proposée. Intrinsèquement, l’innovateur n’est pas un grand démocrate car il ne s’inscrit pas dans le cadre de ce que tous ont accepté de vivre ou même de subir. Autrement dit, l’innovateur « méprise » le peuple qui reste dans la stagnation, qui ne s’élève pas contre une société morne, contre des problèmes qui peuvent être réglés et que lui se propose de résoudre.

Il est évident que les opérateurs de téléphonie – comme Bouygues, SFR et surtout Orange –ont été bouleversés par une jeune et petite entreprise comme Free qui a un jour débarqué avec le « triple play », un autre avec des forfaits à prix cassés. Alors que d’autres pouvaient se complaire dans la stagnation de leur monopole, l’innovateur Xavier Niel – que Stéphane Richard n’hésite pas à qualifier de « prétentieux et agressif » et de « roi de l’embrouille » –décide de révolutionner à la fois le marché et les modes de consommation.

Dans les organisations, l’innovateur est souvent l’homme à abattre, celui qui propose une idée « que personne ne veut », celui qui ne sort pas le produit ou le service « que pourtant tout le monde attend », celui dont on se demande comment il remplit ses journées car « aucun produit ne sort », celui qui est dépensier et pourvoyeur d’échecs… C’est un véritable sacerdoce que de vouloir innover et c’est en cela que l’innovation est un mode de vie. L’ADN de l’innovateur est d’aller à contre-courant, non pas pour contrarier ou contredire, mais simplement parce que ce qui a été fait précédemment n’est pas satisfaisant et n’a pas donné les résultats escomptés. Alors l’innovateur teste, essaye, tente. Et c’est à la fois ce qui le hante et ce qui le rend facilement détestable. Car s’il veut continuer à croire en son intuition ou en ses recherches, il a besoin de se constituer une carapace bien solide et de ne jamais être à court d’arguments.

L’innovateur est un individu déterminé, il n’est donc pas étonnant que le comportement qu’il adopte soit le même dans son travail et dans son quotidien de citoyen. Que ce soit dans ses attitudes ou dans sa relation aux autres, ce qu’il fait vivre aux autres et ce qu’il exige d’eux, il se l’impose tout autant à lui-même. Il peut adopter une posture extrême. C’est le cas, nous l’avons vu, dans sa relation au temps, mais cela peut aussi être le cas en matière de régime alimentaire, par exemple. Steve Job s’est ainsi imposé une alimentation végane, Mark Zuckerberg, lui, s’oblige à ne consommer que les animaux qu’il aurait abattu lui-même. Par ailleurs, ce dernier se force chaque année à prendre et à respecter une nouvelle résolution forte (apprendre le mandarin, courir 600 kilomètres, lire 25 livres, visiter la totalité des Etats américains afin de partir à la rencontre de la population de son pays, etc.). Cette capacité à s’imposer des contraintes fortes, à pratiquer régulièrement et avec intensité du sport, par exemple, va de pair avec une volonté singulière et à toute épreuve qui, dans le même temps, vaudra à l’innovateur les reproches de ceux qui n’ont pas le courage d’en faire autant, de ceux qui préfèrent entretenir la jalousie, de ceux qui préfèreront la médisance à la remise en cause.

Pour le meilleur et pour le pire

Les reproches faits aux innovateurs pour ce qu’ils sont ne sont en rien exceptionnels, tout un chacun peut y être confronté. S’ils sont plus fréquents et plus constants envers les entrepreneurs, c’est parce que l’environnement dans lequel ils évoluent leur est hostile, et que la seule façon de survivre est parfois l’attaque. Par ailleurs, ils provoquent des changements et bousculent les habitudes, ce qui est en soi une bonne raison pour être critiqués. Enfin, ils ont du succès – mais aussi des échecs, dont tout le monde se souviendra en priorité –, ce qui les conduit sur le devant de la scène. Exposés, ils sont la proie de la majorité qui se complaît dans l’immobilisme.

La question que l’on doit se poser est la suivante : l’innovateur ferait-il ce qu’il fait s’il n’était pas ce qu’il est ? Doit-on accepter le comportement et le caractère de l’innovateur au prétexte qu’il est en passe d’apporter quelque chose de nouveau et de radical dont la réussite peut aider l’organisation à se développer ? Les partisans de l’individualisme se lèveront pour défendre ce point de vue, quand le camp du collectivisme criera que rien ne se fait sans une équipe. Les deux ont à la fois tort et raison. La réussite de l’innovation passe certes par le collectif mais l’équipe a aussi besoin d’individualisme. Les sports collectifs en sont une parfaite démonstration, tout comme les troupes de théâtre. Si le collectif est dominant, les individualités seront étouffées, la stagnation et l’immobilisme prendront le dessus (lire aussi la chronique : « Le côté obscur du collectif »). L’inverse n’est pas forcément vrai. De grandes réalisations ont été menées par des individus seuls qui, ensuite, ont été rejoints. Autrement dit, l’individu est certainement à privilégier, car le collectif suivra.

Par Charlotte Laurent

Publicités

La révolution de l’expérience client

paul-mouginot

Le boom du e-commerce, des achats sur mobile et du digital font prédire à de nombreux experts la disparition des magasins physiques ou l’avènement d’un point de vente 100% digital. La récente ouverture de l’épicerie 100% digitale d’Amazon en est la preuve.

Il est vrai que ces tendances de fond vont avoir un impact direct sur la fonction première du magasin physique, toutefois il reste un maillon essentiel du parcours et de la relation client.

Dans cet article, nous partageons avec vous plusieurs initiatives innovantes, et notre vision du magasin du futur: un magasin centré client, à la fois dans la transformation de l’expérience mais surtout dans la mutation de son modèle économique.

De nombreuses initiatives innovantes

Offrir une découverte unique, ludique et sur-mesure de l’offre

De nombreuses innovations implémentées en magasin visent à faciliter la découverte et le choix. Dès 2012, le concept-store Nose à Paris, spécialisé dans la parfumerie, propose à ses clients de mieux choisir leur fragrance. Ces derniers sont invités à créer leur «profil olfactif» à l’aide d’un algorithme à plusieurs étapes. Sans nécessiter de visite en magasin, plusieurs propositions de parfums leurs sont alors faites, en fonction des données renseignées par leurs soins.

Plus récemment, la marque Uniqlo a déployé «Uniqlo Connect», un ensemble de service digitaux au sein de son nouveau magasin de Saint Germain des Prés: guide des bonnes adresses du quartier, service de conciergerie, bornes USB de chargement d’Iphone, service de Clic & Collect ou encore la présence d’un robot interactif: Pepper. Créé par SoftBank Robotics, Pepper est le premier robot personnel au monde capable de réagir en fonction de son environnement de manière proactive. Lancé au Japon et depuis cet été en Europe, Pepper est équipé de fonctionnalités lui permettant de communiquer avec son entourage et d’évoluer avec fluidité.

 

 

L’innovation technologique en magasin offre ainsi un ensemble de services «nice-to-have» en support du parcours client, sans pour autant se substituer au rôle classique du vendeur.

Utiliser la technologie dans un but ludique peut s’avérer payant : en mars 2016 la marque 123, faisant partie du groupe Etam, a déployé des casques de réalité virtuelle dans une vingtaine de magasins. Les clients pouvaient s’immerger en plein cœur de la dernière campagne photo de la marque.

Faire levier sur le trafic web pour pousser la bonne offre en magasin

Le magasin physique reste un maillon clé dans le processus d’achat, ce qui explique la stagnation de la part globale des ventes retail en ligne (environ 16% tous canaux confondus selon la FEVAD).

Certains pure players web ont compris très vite que le magasin physique permet d’adresser une clientèle qui n’avaient pas l’habitude de fréquenter leurs sites e-commerce. C’est notamment le cas d’Amazon, qui prévoit une incursion massive dans le monde physique, avec 2 000 ouvertures de magasins prévus dans les 2 prochaines années en Amérique du Nord.

La complémentarité des deux canaux va plus loin: elle permet d’optimiser les leviers de croissance tels que l’offre. En effet, le e-commerce constitue une véritable opportunité pour améliorer l’offre en magasin: les produits les plus désirés en ligne peuvent être poussés en magasin au moyen d’un merchandising efficace. En allant plus loin et en identifiant les signaux faibles d’un futur top-runner -notamment au moyen des dernières technologies de deep learning– il est possible d’améliorer le taux d’écoulement global. Amazon l’a bien compris puisque ces magasins, à l’image de la boutique pilote Amazon Books ouverte à Seattle, auront un merchandising dynamique poussant les produits les plus achetés en ligne.

amazon books

Le merchandising dynamique, c’est également ce que fait Promovacances, au travers de son nouveau concept d’agence. Cet ancien pure player de la vente de voyage en ligne a fait une incursion remarquée dans le monde physique, en ouvrant 50 magasins. Au lieu des traditionnelles devantures présentant les voyages sur support «papier», des écrans poussent les bons voyages, au bon moment. La Grèce est une destination populaire sur le Web en avril? Qu’à cela ne tienne, elle apparaîtra désormais aussi en agence.

Repenser chaque magasin comme un «flagship» à part entière, centré autour du client et de son expérience

Il est fascinant et rafraîchissant de voir à quel point les nouvelles technologies ont poussé des acteurs du retail à révolutionner le concept même de «magasin». Autrefois point de vente, une enseigne se devait de présenter le plus d’offre au même endroit, et d’orienter le client le mieux possible.

Désormais, puisque l’offre est accessible partout, tout le temps -le fameux concept ATAWAD/anytime, anywhere, any device- l’enjeu est désormais de se rapprocher du client, et de se concentrer sur les étapes d’achat à plus haute valeur ajoutée: recherche et choix du produit, cross-selling; tout en fluidifiant les étapes nécessaires: paiement, livraison.

C’est ce qu’a parfaitement compris Sézane, réussite française de la mode, qui a ouvert son premier magasin physique «L’appartement» en octobre 2015. A l’instar d’une acheteuse de la «Fashion week» parisienne, une cliente peut sélectionner les pièces qu’elle désire, les essayer, mais finalise la commande sur un iPad. Elle sera ensuite livrée rapidement directement chez elle. Ce mode de fonctionnement, qu’on pourrait qualifier d’«ultimate showrooming» présente bien entendu de multiples intérêts: moins d’espace de stockage nécessaire-et donc un CA/m² boosté, un recentrage du rôle de vendeur de l’accueil/réassort vers le conseil, et un risque de rupture limité.

Sezane

On notera que ce concept est de plus en plus répliqué. Célio a récemment ouvert deux pop-up stores pilotes à Paris, L’Exception a ouvert son concept-store connecté dans la canopée du Châtelet à Paris.

Exemple de fonctionnalité « connectée » offerte par L’Exception:

 

https://www.instagram.com/p/BHUXCfIhK3b/embed/captioned/?v=7 

Les magasins «nouvelle génération» peuvent être aussi des moyens innovants de tester localement de nouveaux produits avant un lancement plus généralisé, ou de mieux comprendre un marché. C’est peut-être avec ces objectifs en tête qu’Armani a lancé son pop-up store dédié aux cosmétiques et à la parfumerie (à Paris jusqu’au 31 décembre 2016) ou que The Webster, concept store réputé aux Etats-Unis, a mis en place une collaboration avec le Bon Marché en janvier 2015.

The Webster

Le magasin du futur, résolument centré autour du client

Les points de vente, loin de disparaître devraient être totalement réorganisés autour du parcours client. C’est ce qu’anticipe d’ailleurs Thomas Dessallien, directeur digital de 123, dans des propos relayés par LSA Conso: « Notre enjeu est de faire en sorte que nos magasins ne soient plus simplement un lieu de vente, mais des lieux de communauté». Qu’ils soient situés en centre-ville ou en périphérie, les m² libérés par une offre plus ciblée seront sans doute utilisés pour améliorer les possibilités de showrooming, de test & démonstration produit. Les vendeurs retrouveront leur activité cœur de métier: l’accueil du client et surtout le conseil expert. Enfin, les nouveaux modèles de magasins, dans le cadre d’un réseau de points de vente optimisé, permettront une meilleure maîtrise des coûts et des investissements.

Antoine Baschiera, confirme cette macro-tendance, lui qui dirige Early Metrics, l’agence de référence pour la notation des start-up: «On voit apparaître deux tendances de fonds dans l’AdTech et les innovations dans le retail: 

  • La personnalisation de masse, autant dans le produit/service que dans l’expérience client où le sur-mesure n’est plus un attribut du luxe mais devient une attente de l’ensemble des consommateurs. L’exemple: Pollen, bien notée par Early Metrics, qui travaille sur une imprimante 3D multi-matériaux pour les petits objets de créateurs.
  • La prise de conscience que l’acte d’achat n’est que la dernière étape d’une longue chaine qui implique différents canaux on- et off-line. On a de nombreux exemples dans ce domaine mais on peut citer par exemple les start-up qui travaillent sur le push marketing en magasin en se basant sur les données accessibles dans la poche (comprendre le Smartphone) des promeneurs.

 

La plus grande complexité réside dans le fait qu’après des années d’opposition, ces tendances concernent autant le e-commerce que les points de vente physiques, d’où le fait que de plus en plus de start-up cherchent à traiter ces problématiques de façon omnicanal« .

Ce changement de paradigme nécessite donc d’anticiper de nouvelles exigences de la part des clients: l’étude « Barclays New Retail Reality » publiée en novembre 2016 révèle qu’un consommateur a 5 fois plus de chance de se plaindre sur les réseaux sociaux, lorsqu’il fait face à une mauvaise qualité de service en magasin, par rapport aux niveaux de 2013. Les répondants à l’enquête attendent aussi une plus grande efficacité CRM de la part des enseignes: 38% d’entre eux attendent une réponse à leur plainte dans l’heure.

Pour faire face à ce changement de fond, il faut donc replacer l’humain au cœur de l’acte de vente, en automatisant tout ce qui peut l’être: la gestion de l’offre en magasin, la compétitivité des prix affichés, le timing des promotions, la performance du réseau et la logistique.

Dans un futur proche, il est vraisemblable qu’on ne parlera plus d’expérience digitale, mais tout simplement d’expérience client réussie!

Par Paul Mouginot, cofondateur de Daco

Value Proposition Design, la bible de la proposition de valeur

value-proposition-design-720x405

Après le succès retentissant de Business Model Generation, maintenant connu sous le nom de BMG, Alexander Osterwalder et sa fine équipe signent un nouveau livre qui poursuit leur travail et s’attaque à un sujet fondamental pour les startups : les propositions de valeur.

La première chose que l’on remarque dans ce livre, et qui n’est pas aussi superficielle qu’on pourrait le croire, c’est son design. On sait depuis longtemps l’importance que revêt cet aspect chez les consommateurs modernes fans de vidéos d’unboxing, et les auteurs du livre ne s’y sont pas trompés. Pas de portrait de l’auteur et de polices criardes et moches sur la couverture : un design sobre et une belle illustration, dignes de la réputation des Suisses dans le domaine.

L’ouvrage précédent de cette série faisait déjà la part belle aux illustrations, et les auteurs ont continué sur la même lancé avec ce nouvel opus. En feuilletant le livre rapidement, on pourrait presque s’y tromper : peu de texte, beaucoup d’images, est-ce un livre sérieux ? C’est qu’Osterwalder n’essaie pas d’écrire un ouvrage théorique.

Contrairement à la plupart des livres de la catégorie business qui ressassent sur plusieurs centaines de pages une idée abstraite souvent facile à résumer en 2 paragraphes, Value Proposition Design est autant un manuel qu’un livre d’exercices et un guide pratique.

Les auteurs ont essayé d’écrire la meilleure synthèse de ce que l’on sait sur le sujet des propositions de valeur, et de la présenter de la façon la plus percutante et la plus parlante possible, tout en proposant des moyens d’appliquer ces connaissances dès le livre refermé.

Et ils font un travail admirable : tout comme vous ne pouvez pas oublier le business model canvas après avoir lu Business Model Generation, vous ne pourrez plus oublier le value proposition canvas après avoir lu sa suite.

C’est là l’innovation principale du livre, pas dans ses apports théoriques, mais comme un nouvel outil pratique à ajouter à votre boîte à outils.

Le Value Proposition Canvas

La première partie de l’ouvrage est consacrée à la présentation d’un outil qui va servir dans le reste du livre.

business-model-canvas

Partant de la case Value Proposition du Business Model Canvas (si vous n’avez pas lu BMG, les auteurs font un rappel largement suffisant au début du livre), Osterwalder a décomposé cette partie centrale de tout business model en deux grandes parties :

  1. Le Customer Profile : comme son nom l’indique, cette partie décrit le profil du client recherché, avec les tâches qu’il essaie d’accomplir (ici, Osterwalder reprend le concept de jobs to be done de Clayton Christensen), les résultats bénéfiques qu’il en attend, et les désagréments qu’il essaye d’éviter.
  2. La Value Map : elle est le pendant du point de vue de l’entreprise et comprend les produits et services que vous offrez au client pour qu’il accomplisse ses tâches, les avantages que ce produit va apporter, et les douleurs qu’il va soulager chez le client.

Les auteurs entrent dans le détail pour chaque section, en proposant une liste de questions très utiles à se poser pour approfondir et préciser sa compréhension du client. De nombreux conseils guident également le lecteur pour qu’il puisse travailler sur son projet au gré de sa lecture.

value-proposition-canvas

Comme dans l’ouvrage précédent, vous avez accès à une version PDF imprimable de ce schéma sur le site consacré au livre pour pouvoir mieux l’imprimer et jouer avec en équipe à coller des post-its un peu partout pour remplir ces schémas.

Une fois tous les éléments mis en place, vous pouvez évaluer beaucoup plus facilement votre fit :

  • Est-ce que votre produit correspond bien aux tâches que votre client veut accomplir ? Est-ce que vous calmez leurs douleurs ? Est-ce que vous leur apportez des avantages ? C’est le fit problème-solution.
  • Est-ce que la valeur que vous pensez créer pour votre client se traduit par de la traction sur le marché ? C’est le fit produit-marché.
  • Est-ce que vous pouvez créer et délivrer cette valeur de façon durable ? C’est le fit business model.

Il reste à savoir comment faire évoluer sa proposition de valeur pour parvenir à ce stade ultime où la startup devient une entreprise à laquelle il ne reste “plus” qu’à exécuter son business modèle et à grandir.

Améliorer sa proposition de valeur ou en découvrir de nouvelles

C’est l’objet de la deuxième partie, la plus longue du livre, où les auteurs exposent leur méthode pour développer de vraies propositions de valeur à partir de vos idées.

Même si cette section fait un peu plus fouillis que la précédente, elle regorge d’outils et de techniques pour trouver de nouvelles propositions de valeur et les affiner.

Une fois que l’on est habitué à jongler entre les différents canvas comme illustré dans plusieurs cas d’étude au cours du livre, on parvient à une vision d’ensemble très fructueuse lors des brainstorms : chaque case du canvas peut donner naissance à une nouvelle idée, à un petit changement auquel on n’avait pas pensé plus tôt.

Et si on essayait plutôt de baser notre modèle sur un revenu récurrent ? Et si on transformait notre produit en service ? Et si on partait du client plutôt que du produit (technology push vs. market pull) ?

Besoin d’en apprendre plus sur votre client type ? Tout est expliqué : comment aller chercher des données, quelles règles suivre pour poser des questions utiles, comment étudier le public qui vous intéresse pour votre produit.

Finalement, une liste de critères bien choisis vous permet d’évaluer vos propositions de valeur, et de la comparer à celle de vos concurrents.

Si vous travaillez dans une organisation plus grande, une large part du livre y est aussi consacrée : comment organiser des ateliers, comment donner du feedback constructif, etc.

Tester sa proposition de valeur

Une fois la proposition de valeur choisie, reste à la tester pour s’assurer qu’elle est viable.

Ici, les auteurs reprennent en très grande partie la théorie du customer development de Steve Blank, et si vous avez lu le Manuel du créateur de startup, vous ne serez pas déboussolé.

Pour résumer, on peut présenter cette méthode en quatre étapes :

  1. Customer discovery : sortez de chez vous pour apprendre les besoins, les points de douleurs de votre client
  2. Customer validation : faites des expériences pour vérifier que vos clients trouvent de la valeur à ce que vous faites
  3. Customer creation : commencez à créer de la demande, attirez des clients dans votre entonnoir de vente, commencez à préparer votre croissance
  4. Customer building : passez de la startup à l’entreprise établie qui ne recherche plus son business model mais qui l’exécute pleinement

Pendant les premières étapes, avant d’avoir atteint le fameux product-market fit, le livre suggère de travailler par itérations (et reprend ici les méthodes classiques de la lean startup) : proposer une hypothèse de travail (un business model et une proposition de valeur), construire une nouvelle version de votre produit, mesurer les performances du produit, analyser les résultats et en tirer des leçons pour la prochaine itération.

C’est en répétant ces tests, ces expériences que l’on s’approche le plus rapidement d’un business model viable.

Mais de quels tests parle-t-on ? Tous les tests nécessaires pour transformer les hypothèses qui sous-tendent votre proposition de valeur (qu’est-ce qui doit être vrai pour que ça marche ?) en preuves solides. Et les auteurs déclinent tous les tests possibles et imaginables que vous pouvez faire pour cimenter vos idées : campagnes AdWords, landing pages, MVP, A/B testing, etc. etc.

Attention, le livre n’explique pas non plus tout en détail : il s’agit davantage d’un tour d’horizon général que d’un livre référence qui contiendrait tout le savoir nécessaire. C’est une boussole pour vous guider.

Débrief

En résumé, Value Proposition Design s’affiche comme un très bon livre. Il synthétise de façon éclairante tous les fondements théoriques de la création de valeur dans une startup, et ne se contente pas d’une présentation abstraite : les exercices abondent et vous permettent de vous plonger concrètement dans cette recherche. Si vous n’êtes pas encore sûr d’avoir trouvé l’idée parfaite, ce livre vous aidera sans doute dans cette quête. En plus son design très réussi en fera le coffee table book parfait pour les startupers en herbe.

par David Oudiette

Start-up vs. VC : mensonges, tromperies et nouvelles victimes

Woman with long nose isolated on grey wall background. Liar concept. Human face expressions, emotions, feelings.

En rentrant dans le secteur financier, je m’étais promis d’agir exactement comme je le faisais avant avec mes clients et plus généralement avec tout mon environnement économique : échanges transparents sur tous les sujets, prix de marché, exigence de profit, qualité de service au top, respect des engagements. Je ne dis pas que ce que je dis est vrai. Je dis ce que je pense, à tous, même quand ça va piquer.

C’est le genre d’attitude qui mène à une croissance durable et à une efficacité croissante, et qui permet de construire des équipes fiables et performantes. Vous êtes prévisible parce que vous suivez la stratégie et que vous êtes capables de refuser une opportunité qui ne la respecte pas, de penser plus loin que la prise reptilienne d’un avantage immédiat. On préfère alors travailler avec vous. Je crois que ça s’appelle la morale des affaires et c’est vieux comme le monde. Je n’ai en revanche aucune difficulté à rompre très vite toute relation avec ceux qui ne répondent pas aux mêmes standards.

Malheureusement, sur le marché du capital investissement, la morale des affaires est souvent encore plus faible qu’ailleurs, bien que les acteurs y soient souvent brillants. La mémoire est très courte, de la part de l’investisseur sur lequel on tape tout le temps mais aussi parfois du gentil entrepreneur que tout le monde trouve pourtant si cool.

La différence entre les VC et les start-up, c’est simplement le moment où ils commencent à mentir… Et en général, tout tourne autour de la promesse de croissance rapide, voire très très rapide.

Au début, les startupeurs ne mentent jamais, portés par une conviction extraordinaire. Le projet s’élabore, la vision du problème à résoudre est limpide. C’est plus tard qu’il pourra devenir menteur. Quand les résultats qu’il n’aura pas atteints commenceront à être visibles et que la promesse d’une croissance féerique s’estompera peu à peu.

Cela peut être encore plus pervers quand la start-up poursuit une acquisition client effrénée, qui ne sert plus qu’à masquer l’inatteignabilité des objectifs de marge.
Exemple : Je ne fais pas de marge, même si j’ai déjà levé 40 millions de dollars, que je travaille effectivement sur un service payant, avec une vraie marge brute facilement calculable… Mais j’ai encore besoin de cash pour acquérir mes nouveaux utilisateurs, et si je ne réalise pas ma levée, ma société est en danger de mort.

Là… il y a de l’eau chaude dans le mojito. On ne devrait en aucun cas se retrouver dans ce genre de situation. Et force est de constater maintenant que ce cas s’est produit plus souvent qu’on ne voudrait le reconnaître, tant en Europe qu’aux États-Unis. Dans de nombreux cas, l’hypothèse d’une marge brute sous-jacente s’est avérée insuffisante à couvrir les coûts fixes, comme Prim dans le lavage des fringues à San Francisco, et peut-être comme Take Eat Easy plus près de nous.

C’est très souvent le moment où le startupeur se met à mentir. A l’écouter, il ne lui manque plus que 10 millions d’euros pour atteindre la masse critique. Mais non… car en réalité c’est un modèle de service et la scalabilité est faible. Le startupeur peut alors adopter un discours incroyable et se transformer en fonctionnaire de La Poste. Justifiant un modèle dépassé et sous perfusion de capital externe, il ne défend plus que sa propre situation dans un système de gabegie. Le startupeur le sait, mais il ne le dit à personne. Au contraire même, il continue de produire des stats épatantes à son board, de plus en plus épatantes même, soulevant des perspectives inédites. Mais comme Winston Churchill le disait : «Je ne fais confiance à une statistique que si je l’ai falsifiée moi-même.»

De leur côté, les VC mentent beaucoup eux aussi…

En général, les VC ne mentent pas à l’entrepreneur. Ils mentent au marché. Par peur de rater le bon dossier, il n’y a jamais, selon eux, de mauvaises conditions pour lever des fonds. Tous ceux qui évoquent une éventuelle contraction du capital veulent abuser des gentils entrepreneurs, leur mettre la pression, les diluer comme un Vittel fraise. Ce n’est pour eux qu’une posture, une simple question de gestion de leur image. Je me souviens l’année dernière, au début de l’automne, quand j’ai commencé à dire que le downturn s’amorçait…

Au début, beaucoup m’ont dit que non, que je me trompais, qu’il ne se passait rien et qu’au contraire nous allions faire l’expérience de nouveaux records. Ben tiens… Un an plus tard, ce sont le Q3 2015, le Q4 2015, le Q1 2016 et le Q2 2016 qui sont en baisse si l’on parle de seed et série B, les séries A et C ayant repris un peu de poil de la bête au Q1. En revanche, le Q2 est plus faible dans tous les compartiments, à l’exception des séries C, compartiment un peu particulier tout de même.

Dire que l’on est guéri serait une anticipation très osée. Nos clients américains nous parlent tous de conditions plus difficiles sur le marché du capital. Encore aujourd’hui, ils sont très nombreux parmi les VC, ou même les accélérateurs, à cacher que leur tactique a changé, voire leur stratégie. Je connais des cas d’accélérateurs qui, dans leur pratique, ont totalement révisé leur dogme officiel, cherchant à maximiser l’efficacité capitalistique de leur prise de participation au-delà du raisonnable.

Quoi qu’il en soit, le spread sera bien plus fort en 2016 qu’en 2015 entre ceux qui veulent lever et ceux qui lèveront. Et c’est bien de là que vient le danger. Nous en sommes exactement là, au moment de la rencontre entre le mensonge des VC et celui des startupeurs. J’appellerais cela le 21 décembre, le jour où l’hiver commence vraiment.

C’est le moment de vérité, celui qui déterminera la durée de l’hiver. Soit les faillites se multiplient salement et balaient la confiance pour longtemps, soit, plus vraisemblablement, le marché atterrit en U et redémarre une fois les échéances politiques américaines et européennes purgées.

Mais cela peut finalement prendre près d’un an tout de même, une éternité pour tous ceux qui veulent lever maintenant et auxquels ça fait une belle jambe de savoir que le marché est inondé de liquidités… et que les VC lèvent comme des fous. Ce dernier point étant le seul vraiment bon signe puisqu’il traduit une confiance à long terme pour les start-up.

Nouvelles start-up, nouveau prolétariat, nouvelles victimes ?

Les start-up doivent respecter les valeurs du business et rester conformes avec les lois des pays dans lesquelles elles opèrent. Sans ça, l’investisseur ne sait quand même pas vraiment où il va…

Beaucoup trop de startupeurs, enhardis par les joutes homériques d’Uber contre les taxis (justifiées par un siècle d’immobilisme dans le secteur) ou celles d’Airbnb et d’Anne Hidalgo, encore plus marrantes, défoncés au growth hacking (difficile d’admettre que 95% des leads sont bidons), n’ont rapidement plus de point commun avec l’esprit entrepreneurial. Et c’est ainsi que tu te retrouves avec des crétins qui s’étonnent de ne pas réussir leur négociations partenariales (car il faut être deux), qui ne savent s’engager sur rien, à part leur nombril et leurs utilisateurs qui, souvent, ne valent pas encore grand-chose. Sauf que… il te faut une équipe que tu respectes, des fournisseurs que tu respectes aussi, des investisseurs… Bref, tout un tas de mecs relous qui partagent un objectif différent du tien au départ et que tu devrais entraîner avec toi.

Quand l’hiver est venu, que tu t’aperçois que tu n’étais pas Peter Thiel (et même si tu l’étais d’ailleurs…), que tu n’es pas Musk, que tu n’as pas levé assez pour attendre le printemps, où que tout simplement tu as une difficulté passagère, tu te retrouves seul, idiot et déprécié. Pas parce que tu as échoué car on devrait pouvoir échouer avec élégance. Non, tu es déprécié parce que tu n’as pas su demander de l’aide, reconnaître ton impuissance à traiter telle ou telle thématique, mais surtout c’est ta nonchalance que l’on retiendra. Celle qui t’a poussé à faire comme si de rien n’était jusqu’au bout, comme si tu pouvais toujours honorer tes commandes, sans te soucier de tes salariés, de tes fournisseurs, des travailleurs indépendants qui bossent pour toi.

Faire autrement est sans doute très difficile, mais c’est faisable. Tu es aux commandes, tu vois la réserve de cash et la tendance. Si elle est négative et que tu ne la sens plus, il est temps pour toi de dire stop et de prévenir tes actionnaires pour qu’eux sachent aussi (en premier, car ce sont les premiers aussi à t’avoir fait confiance !) ce que tu t’apprêtes à faire : payer ce que tu peux payer et arrêter l’hémorragie. Exercice incroyablement difficile, mais que le contexte de sharing economy, de supply chain partenarisée, devrait imposer à un esprit honnête et entrepreneurial.

C’est quand même merveilleux cette nouvelle supply chain avec des mecs moins protégés que des salariés et disposant de moins de moyens de défense que des entreprises. Ça diminue la dilution au début (car plus flexible que des salariés), ça diminue la dilution plus tard (car plus flexible que des salariés). Ça ne mériterait pas un peu de considération dans le management des périodes de crise, ça ?

Ainsi, Take Eat Easy devait payer ses coursiers à vélo, et pourquoi pas ses restaurateurs, fin juin ou fin juillet, et arrêter. Ce n’est pas une levée de fonds de plus qui, dans leur cas, allait changer l’équation économique qui ne fonctionnait pas. Je suis intimement persuadé qu’ils sont bons et qu’ils le savaient. Je suis sûr qu’ils y ont beaucoup appris et je ne veux pas participer à l’hallali. Si je suis convaincu de ma démonstration, je suis aussi convaincu qu’il faut beaucoup de maturité pour l’appliquer… et résister à la pression de ses fonds.

Il n’y a pas de nouveaux entrepreneurs dispensés de respecter leur communauté. Hacker le système oui, les gens NON.

Winter has come. Mais je pense qu’il ne sera pas trop long. En attendant, offshorez votre prod software et vos shared services, diminuez les salaires et augmentez la rémunération en action, n’hésitez pas à lever un peu moins bien. Bref, survivez dans la joie et la croissance saine et continuez à vous regarder dans la glace !

Par Frédéric Lasnier, CEO de Pentalog

 

7 bonnes raisons de ne pas créer sa startup seul

don-alone-720x405

Pourquoi être solo-entrepreneur est si difficile ? Quel est l’intérêt de trouver un bon cofondateur ? Pour quelles raisons devrait-on ne pas entreprendre seul ? Jonathan Levitre, fondateur de l’application MyTwist, revient dans un post Medium sur la fermeture de sa startup. Un échec qu’il attribue en grande partie au fait de s’être lancé seul dans l’aventure entrepreneuriale.

Un dimanche soir de mai je prenais la décision de jeter l’éponge. À vrai dire, ce n’était pas vraiment une décision à proprement parler car je ne voyais pas d’autre issue. Deux ans et demi après avoir démissionné de mon poste chez le géant mondial de l’e-commerce pour me lancer dans l’aventure entrepreneuriale, je me retrouvais simplement face à un mur. Ce dimanche, je fixais mes comptes bancaires et je devais me rendre à l’évidence : je ne pouvais plus payer mon loyer et les priorités avaient donc changé. Bien sûr comme tout chef d’entreprise prévoyant, j’ai vu arriver ce moment. Mais un entrepreneur est avant tout quelqu’un d’optimiste, quelqu’un qui persévère jusqu’au bout pensant que pour chaque problème il existe une solution. Je ne suis pas quelqu’un qui abandonne. Mais ce soir là je réalisais qu’en plus d’être complètement fauché, j’étais épuisé autant physiquement que nerveusement : je ne dormais plus, j’oubliais les anniversaires de mes proches et la seule chose à laquelle j’étais capable de penser c’était ma startup et ses problèmes. Et MyTwist était en train de me consommer littéralement. Je n’avais plus aucune bande passante pour autre chose : quand quelqu’un me demandait ce que je faisais en dehors du boulot, je ne savais même plus quoi répondre. Lorsque la fatigue et les angoisses prennent le pas sur la passion et l’enthousiasme, il devient beaucoup plus difficile d’avancer. Car la passion est probablement l’actif le plus important de l’entrepreneur.

En créant ma boîte, j’étais conscient qu’il y avait de fortes chances que celle-ci occupe les 10 prochaines années de ma vie ; alors il n’est pas envisageable de ne pas être complètement investi. Ce dimanche 8 mai, seul face à mon produit qui n’avait pas complètement trouvé son marché, je ne pouvais ignorer ce constat : je n’avais toujours pas d’équipe, j’étais ruiné, proche du burn-out, LeBonCoin venait d’annoncer le lancement d’un application imitant largement MyTwist (Swipsi) et je n’avais aucune idée de comment j’allais pouvoir franchir les prochains obstacles. Comme tout entrepreneur je déteste me retrouver sans ressources ; habitué à l’action, j’aime avoir les choses sous contrôle. Mais je n’avais plus le contrôle de mon destin.

L’échec est embarrassant ; émotionnellement, compliqué à gérer. L’éventualité d’un échec me terrorisais il y a encore quelques mois. Le pire qu’il puisse arriver était d’arriver à un point où j’allais devoir annoncer aux proches qui m’ont aidé financièrement que j’avais échoué et donc que leur investissement était perdu. Mais au delà de la déception et avec un peu de recul, la fin de cette aventure est presque un soulagement tant les 4 derniers mois furent difficiles.

Dans notre modèle culturel français l’échec est quelque chose dont il est difficile de parler. Mais j’avais besoin d’écrire ce Post-Mortem pour comprendre pourquoi je m’étais planté. Il m’est peut être plus facile de parler d’échec de part mes origines anglo-saxones qui ont probablement instillé en moi cet optimisme particulier. Et si l’expérience que je relate ici peut éviter que d’autres reproduisent les mêmes erreurs alors tant mieux. Il n’y a pas de honte à admettre qu’on s’est planté et cela ne fait pas de vous un faible. Après tout c’est en se cassant la gueule plusieurs fois qu’un enfant apprend à marcher, non ? Être entrepreneur c’est accepter ses erreurs : il n’y a pas de possibilité de prendre des risques sans prendre en compte le fait qu’on peut vivre un échec.

Dans mon parcours avec MyTwist j’ai fait de nombreuses erreurs, comme tout entrepreneur. Cependant, l’origine de mon échec repose principalement dans le fait de m’être lancé seul dans cette aventure et je vais expliquer dans cet article pourquoi. Le seul avantage d’être solo-entrepreneur c’est qu’on ne peut que s’en prendre à soi-même lorsque l’on échoue. Il n’y a personne d’autre à blâmer. Vous n’embarquez personne dans votre chute.

1-GlugbnOSeLCqg27EwI8tpg

MyTwist, pour qui, pourquoi ?

MyTwist est ma première société. Elle est née du constat que bien que le marché de l’occasion soit florissant, aidé par un contexte de crise, nous restons encore peu nombreux à revendre nos vêtements et accessoires de mode. Pourtant l’économie collaborative est bien dans l’air du temps et la part du revenu disponible que les Français peuvent consacrer à l’habillement se réduit d’année en année. J’avais noté un déséquilibre important entre l’effort que demande le recyclage de ses vêtements et les gains que l’ont peut espérer en retirer. Résultat, des centaines d’euros se cachent dans chacune de nos gardes-robes. Des pièces qui pourraient pourtant intéresser d’autres personnes à la recherche de la bonne affaire, d’une pièce précise ou simplement sensibles aux enjeux environnementaux largement liés phénomène du « fast fashion ». Avec MyTwist, j’ai voulu lever un maximum de freins à l’achat et à la revente d’articles de mode d’occasion en lançant une application mobile qui connecterait les femmes à tous les dressings de leur ville et en particulier à ceux qui leur ressemblent. Grâce à un algorithme personnalisé, MyTwist montre, dans un interface de type « swipe-to-like » popularisé par l’application de dating Tinder, les articles susceptibles de plaire à l’utilisatrice et situés à proximité immédiate pour des transactions en main propre. Avec MyTwist je voulais offrir un moyen simple et économique de renouveler souvent son dressing sans se ruiner ou passer par la case « fast fashion ». Utiliser les trésors cachés dans les dressings pour répondre aux envies de nouveauté et de changement de la femme moderne sans pour autant qu’elle ait à rogner sur la qualité ou à vider son porte-monnaie.

En France, le marché a été largement évangélisé par ce que j’appelais les « trois V » : VideDressing, Vestiaire Collective et Vinted. Trois acteurs proposant des catalogues gros de 6 chiffres et ayant levé plusieurs dizaines de millions d’euros. Pour autant, le potentiel du marché de la mode d’occasion féminine en ligne reste énorme : un marché qui dépasse le milliard d’euro rien qu’en France et qui connaîtra une croissance à deux chiffres sur les trois prochaines années. Le marché est loin d’être arrivé à maturité comme en témoigne les quelques 450 millions de dollars injectés ces 5 dernières années par les investisseurs dans les startups du secteur aux Etats-Unis et en Europe ou l’entrée de LeBonCoin avec une application dédiée il y a moins de 3 mois.

Par rapport à ces acteurs déjà bien installés, MyTwist se différenciait par son positionnement mobile-first, local et sa dimension sociale et ludique. MyTwist s’éloignait largement du site e-commerce classique en proposant un produit mettant l’accent sur la notion plaisir intrinsèque au shopping et à la mode (la découverte, la surprise, la discussion entre filles…) plutôt que sur des aspects fonctionnels classiques. En faisant le choix de montrer les produits un par un à l’utilisatrice, j’ai voulu construire un produit qui montrait le bon produit à la bonne personne au bon moment dans l’objectif de maximiser la liquidité de la marketplace. L’algorithme construit à cette fin constituait l’avantage concurrentiel que je souhaitais mettre en place en plus d’une dimension communautaire plus forte que chez mes concurrents.

L’application est toujours active et des transactions se font toujours en ce moment même. Les résultats atteints ne sont pas ceux que j’avais espérés mais ils restent positifs compte tenu des moyens humains et financiers engagés et pouvaient éventuellement présager d’une issue différente. Dans les prochaines semaines et 10 mois après son lancement, je vais fermer ou céder la plateforme qui compte maintenant plus de 5000 inscrites en région parisienne, plus de 10000 articles et 800 MAU (monthly active users). MyTwist figurait régulièrement dans le top 100 des applications de la catégorie Shopping les plus téléchargées de l’AppleStore en France. Sur les dernières semaines d’activité, la plateforme connaissait une croissance moyenne de 8% WoW du nombre de conversations 1:1 entre utilisatrices et a dépassé le million de swipes (ou articles vus / zappés).

Pourquoi construire une marketplace est si difficile ?

L’entrepreneuriat n’est pas l’emploi le plus stable que vous pouvez choisir, ni statistiquement le plus rentable. C’est une voie risquée pour gagner sa vie. Mais il apporte un mélange de satisfaction et d’excitation qui me correspond totalement. De nombreuses personnes sont effrayées par le risque financier dans la création d’entreprise. Ce risque existe réellement comme je peux le constater aujourd’hui. On m’a souvent dit « Tu prends un sacré risque ! C’est courageux ! ». Pour autant il est finalement assez facile de prendre des risques lorsque l’on a pas grand chose à perdre. Même quand tous vos comptes bancaires sont dans le rouge, le monde ne s’arrête pas pour autant. L’entrepreneuriat était pour moi un moyen de m’amuser, de prendre en main mon destin, de donner du sens à mon travail et pourquoi pas un jour être utile à la société en créant des emplois. C’est la satisfaction de créer réellement quelque chose, d’apprendre tous les jours énormément de choses, de relever de nombreux défis et de côtoyer plein de gens passionnants et passionnés.

En me lançant dans l’entrepreneuriat, j’avais tout à fait conscience que j’allais vivre un parcours du combattant. Il est très rare qu’un projet d’entreprise se déroule comme prévu. C’est un chemin juché d’embûches. 9 jeunes sociétés sur 10 périclitent dans les 5 premières années et sur 1000 entreprises qui se lancent, une seule atteindra un jour 10 millions d’euros de chiffre d’affaires. Or l’ambition de MyTwist, comme la plupart des produits mobiles et des places de marché qui nécessitent des volumes importants pour atteindre la rentabilité, était bien sûr internationale. C’est donc clairement le genre de volume d’affaires qui était visé. Un projet très ambitieux me direz-vous ? Tout à fait. Mais dans l’économie numérique et dans un contexte global, vous êtes obligés de viser haut si vous voulez durer et gagner.

Par ailleurs, MyTwist se lançait sur un Apple Store français avec une offre de plus d’un million d’applications. Il faut savoir que seules 1500 à 2000 d’entres-elles sont réellement utilisées de façon conséquente. Autant dire qu’il est très, très difficile de se créer une place.

“ Quoi que tu rêves d’entreprendre, commence-le. L’audace a du génie, du pouvoir, de la magie ? “

Goethe

Pour une nouvelle marque, l’acquisition de nouveaux utilisateurs/clients est difficile. Toutes les startups sont confrontées à ce problème. Ce dernier est encore plus grand quand votre business est une place de marché comme MyTwist. Une place de marché ou un business basé sur deseffets de réseau a généralement un potentiel de croissance explosif une fois qu’il a été financé et/ou a atteint sa taille critique. Toutefois, la place de marché est l’un des modèles d’affaires parmi les plus difficiles à lancer.

Les places de marché ont la particularité d’avoir à mettre en relation une offre avec une demande. Pour que la plateforme fonctionne, les offreurs et demandeurs doivent tous deux être présents. On parle souvent du paradoxe de la poule et de l’oeuf pour les marketplaces : les vendeurs ne viennent que s’ils sont certains d’y trouver des acheteurs et vice-versa. Le défi est d’amener les deux parties à rejoindre une place de marché qui, au départ, est vide.

commerce

Créer sa société nécessite d’acquérir une clientèle en lui proposant une offre. La difficulté avec une place de marché est que vous êtes confrontés à deux types de clientèle distincts : vos vendeurs ont des besoins et motivations différentes de vos acheteurs. Certains vendeurs peuvent aussi être acheteurs et vice versa mais il vous faut néanmoins avoir deux propositions de valeur distinctes. C’est comme si vous créiez deux startups en même temps. Et pour que ça fonctionne, il faut que vos « deux » startups trouvent leur public et ce, en même temps.

Pour qu’une place de marché connaisse le succès, les bons vendeurs doivent être mis en face des bons acheteurs. La probabilité que le « match » ait lieu et génère des transactions s’accroît plus ou moins à mesure que votre place de marché gagne en taille. C’est ce qui rend le lancement d’une marketplace très difficile car au début vous n’avez pas assez d’offre ou pas assez de demande pour générer les interactions qui mèneront à des transactions.

La taille critique est d’autant plus difficile à atteindre que le manque d’offre ou le manque de demande pousse certains vendeurs ou acheteurs à abandonner votre place de marché au profit d’une autre…ce qui vous renvoie au dilemme initial. Par conséquent, la construction d’une marketplace est longue et douloureuse. Il faut beaucoup de patience et le succès n’arrive jamais du jour au lendemain. Or pour être en position de lever des fonds et amener plus loin votre plateforme, vous devez pouvoir montrer un certain succès aux investisseurs. Il faut donc avoir suffisamment de temps devant soi et garder un burnrate le plus bas possible. Même les plus gros succès comme la licorne française BlaBlaCar ne se sont pas fait en un jour : leurs fondateurs ont conservé leur travail salarié 4 ans durant avant de pouvoir se consacrer à plein temps à leur startup (lire “BlaBlaCar ne s’est pas construit en un jour”).

tribune startup

Avec MyTwist, la stratégie a été de commencer à créer l’offre en ciblant une niche à la fois démographique (femmes CSP+, 25-35ans), géographique (Paris intra-muros) et de segment (haut de gamme). Sur le marché de la mode d’occasion, les vendeurs sont relativement faciles à trouver et sont plus nombreux que les acheteurs. L’idée était de pouvoir proposer plusieurs centaines de pièces couvrant différentes tailles, pointures, coloris et marques, le tout sur une zone géographique limitée et dense.

Un acheteur potentiel devait être en mesure d’avoir suffisamment de choix sur sa taille de vêtement et dans un rayon maximum de 10km afin d’être en mesure de réaliser la transaction en main propre avec le vendeur. La difficulté survient lorsque l’offre dite « suffisante » est en place. Il faut alors trouver les acheteurs et que ceux-ci trouvent aisément les produits qui les intéressent. Pour être tout à fait honnête, j’ai eu des difficultés à permettre ce matchingdans un délai raisonnable. De nombreuses vendeuses n’arrivaient pas à vendre et beaucoup s’en allaient, en emportant leurs petites annonces avec elles. Le NPS de MyTwist du point de vue du vendeur était catastrophique et atteignait timidement les 4/10. Aujourd’hui encore je ne suis pas sûr de ce qu’il aurait fallu faire : adopter une stratégie différente ou m’accorder plus de temps, les déceptions des utilisateurs initiaux étant inévitables ?

Pourquoi être solo-entrepreneur est-il si difficile ?

Il est communément admis que vous devez avoir au moins un co-fondateur lorsque vous créez une startup. Les incubateurs ou accélérateurs misent en priorité sur des équipes. Et les investisseurs en capital risque aussi. Et il y a une bonne raison à cela : si vous n’êtes pas capable de convaincre une seule personne de rejoindre votre équipe, pourquoi un investisseur le ferait ?

Avant même de me lancer, j’ai recherché à fédérer des associés autour de mon projet. En sollicitant mes amis ou en passant plusieurs mois à networker dans les meetups et autres événements quotidiens de l’écosystème parisien. Croyez moi, être solo-entrepreneur n’a pas été un choix. Si j’avais pu faire partie d’une équipe talentueuse, j’aurais signé de suite. Étant toujours optimiste, je me suis finalement dit qu’en lançant mon produit et qu’avec un peu de traction, un recrutement serait plus aisé. Bien sûr, j’ai eu quelques opportunités d’association. Mais souvent, ce n’était pas le bon timing, les bonnes compétences ou la même vision partagée.

Peu de startups à succès ont été fondées par une seule personne. Empiriquement, une très grande majorité de startups et d’entreprises établies ont une équipe de fondateurs. Microsoft, Apple, Yahoo et Google ont été fondés par des équipes de deux co-fondateurs. Et même les entrepreneurs à succès présentés comme solo-entrepreneurs (comme le fondateur d’Oracle par exemple) ont en réalité vite été rejoints par des associés.

Alors pourquoi ne pas créer sa startup seul ?

1. Garder un équilibre sain entre vie professionnelle et vie personnelle

Être solo-entrepreneur est difficile. Cela demande beaucoup de courage, du cran, de la résilience…et beaucoup de caféine. Bien sûr ce n’est pas aussi simple que ça. Comme dans tout challenge, il y a des hauts et des bas, des obstacles, des réussites, des décisions à prendre. Mais il y a une donnée qui rend la chose encore plus compliquée : vous ne pouvez compter que sur vous même. En tant que solo-entrepreneur, vous devez TOUT faire seul, du plus opérationnel au plus stratégique. Gérer les problématiques administratives, légales, comptables, assurer le service client, définir une stratégie de communication et l’exécuter, lever des fonds, trouver des idées, recruter, s’adapter au marché, piloter les projets de développement informatique, modérer du contenu, networker, nouer des partenariats et j’en passe.. Préparez vous à mettre de côté votre vie personnelle, travailler les weekends et perdre de nombreuses heures de sommeil.

Pour faire un maximum d’économies et prolonger la durée de vie de ma startup, j’essayais d’assumer tout ce dont j’étais capable de faire en dehors du rôle classique de dirigeant : créer des éléments graphiques sous photoshop, coder le site web ou le blog, distribuer des flyers… Étant plutôt touche à tout et orienté action et résultat, cela ne m’a jamais effrayé. Avec beaucoup de discipline, de rigueur et un sens aigu de la priorisation, une seule personne peut faire finalement énormément de choses dans une journée. Mais avec la croissance, la charge de travail m’a vite dépassé et il est devenu difficile de maintenir ce rythme sur la durée.

Être seul dans son entreprise c’est aussi culpabiliser lorsque vous prenez du temps pour vous reposer ou pour vos loisirs. Car pendant ce temps, personne ne prend le relais, personne ne « tient la baraque » à votre place.

Être seul c’est aussi assumer tout l’investissement financier. Ayant placé tous mes jetons dans l’entreprise, je n’avais même plus de quoi me payer une bière ou un restaurant. Etant quelqu’un d’attaché à mon indépendance, il était hors de question que quelqu’un d’autre m’invite. Résultat, je ne sortais plus beaucoup et cela m’isolait encore plus.

2. Trouver l’énergie pour traverser les épreuves et les baisses de moral

C’est probablement la dimension la plus importante. On peut se sentir très isolé quand on fonde et gère une société. Les chefs d’entreprises, artisans et commerçants font partie des plus exposés au burn-out : 10 à 20% d’entre eux présenteraient des signes inquiétants. La concurrence, les risques patrimoniaux, le stress ou les soucis de trésoreries sont autant de sujets qui peuvent peser lourd dans l’esprit du chef d’entreprise et ils sont difficiles à assumer seul. Bien sûr on peut se confier à des proches, se faire réconforter par des amis ou si on a de la chance, solliciter l’aide d’éventuels mentors ou membres de son board. Mais quand un gros problème se présente, il n’y aura que vos associés pour vous sortir de là.

En dehors de la charge de travail, être solo-entrepreneur est compliqué psychologiquement. Même si vous rencontrez du succès, vous vous sentirez rapidement seul. Je ne parlais pas beaucoup à mes proches de ce qu’il se passait réellement dans la société. Vous n’êtes pas supposé parler des problèmes, des bugs ou des difficultés que vous rencontrez dans votre croissance. Seul à représenter ma boîte, je me devais de donner une bonne image, me montrer positif. Quand quelqu’un vous demande des nouvelles de votre startup, en particulier quand c’est quelqu’un qui n’est pas expert dans le numérique ou l’entrepreneuriat et qui a tendance à ne pas comprendre pourquoi cela n’avance pas plus vite, on fait ce que tout entrepreneur a pris réflexe de faire : sortir quelque chose de positif et de vendeur. Car quand vous n’avez pas d’associé pour vous relever dans les coups de mou, il est important pour votre moral de conserver l’enthousiasme et le soutien de vos proches. Et le soutien des proches est primordial en temps que solo-entrepreneur. Ce sont les seuls à croire en vous quand vous traversez des moments de doute, vous ne pouvez pas leur montrer que vous doutez. Toujours se présenter confiant, toujours sourire, vendre, vendre, toujours vendre.

Les personnes avec je pouvais réellement parler des problèmes étaient mes amis entrepreneurs, les seuls à comprendre ce que je traversais et à avoir des pistes de solution à m’apporter. Discuter avec eux me permettait de me sentir un peu moins isolé.

3. Pouvoir confronter ses points de vue

Même si vous pouvez faire tout le travail vous même, un associé c’est quelqu’un avec qui brainstormer, quelqu’un qui vous empêche de prendre de mauvaises décisions ou qui peut vous remonter le moral quand les choses vont mal.

Avoir un co-fondateur c’est avoir quelqu’un à ses côtés qui peut vraiment vous challenger. C’est une personne toujours disponible pour un petit déjeuner le weekend quand vous avez une nouvelle idée dont vous avez besoin de discuter. C’est aussi la seule personne qui va vous donner un point de vue honnête et franc quand vous êtes dans l’erreur. En tant que solo-entrepreneur, vous aurez probablement des stagiaires ou employés autour de vous, mais du fait du lien de subordination ils peuvent être effrayés à l’idée de vous dire la vérité ou de vous challenger. Votre co-fondateur, c’est quelqu’un qui agit comme un contrepoids. Sans associé, pas de contradicteur à qui vous confronter, et ce débat à lieu dans votre propre esprit. Ce qui n’est pas sain et plutôt éprouvant. Avoir un associé qui pousse dans la même direction vous pousse à donner le meilleur de vous-même. C’est une motivation supplémentaire de développer toujours plus de compétences et être toujours plus ambitieux.

4. Partager le travail

Ce point paraît probablement évident. Mais il y une quantité impressionnante de boulot à abattre pour amener un business sur une trajectoire qui va lui permettre de « scaler », en particulier dans les premiers mois. Une question qui est souvent éludée, c’est celle de savoir qui va gérer la société pendant que vous allez lever des fonds ? Si vous ambitionnez de lever une somme respectable et que vous le faites de la bonne manière, ne vous attendez pas à avoir beaucoup de temps ni de bande-passante pour autre chose pendant 3 à 6 mois. C’est un job à plein temps en soi. Dans ces moments, avoir un co-fondateur à ses côtés, c’est avoir quelqu’un qui a des comptes à vous rendre et qui a autant à perdre que vous si la société ne fonctionne pas. Cette responsabilité partagée n’est pas seulement celle d’exécuter des tâches, c’est aussi celle de se dépasser dans les moments difficiles ou devant une deadline courte. Chacun va penser « je ne peux pas laisser tomber mon associé ou mon ami » : c’est l’une des plus forces de la nature humaine et c’est un puissant moteur de motivation.

5. Constituer une équipe complémentaire

Il est très peu probable qu’en tant que fondateur vous soyez capable d’apporter toutes les bonnes compétences sur la table. Même si vous le pouvez, ce n’est pas viable à moyen terme quand la société changera de dimension. Ce n’est pas seulement des compétences pratiques qui feront de vous de bons associés. La complémentarité se fait aussi sur des « soft skills » ou sur l’intelligence émotionnelle. Dans une équipe de fondateurs, certains peuvent avoir une appétence au risque alors que d’autres seront plus prudents. Certains peuvent avoir beaucoup d’empathie quand d’autres sont plus égoïstes. Certains s’appuient beaucoup sur leur instinct quand d’autres ne prennent aucune décision importante sans s’appuyer sur des données. Certains sont bons pour préparer l’avenir quand d’autres sont moins préoccupés par les détails ou la planification.

Différents traits de caractère aident à passer les nombreux obstacles qui émaillent une aventure entrepreneuriale, que ce soit de décider de pivoterou d’embaucher votre première recrue.

6. Croître plus vite

Les mauvaises associations sont une cause fréquente d’échec des startups. Pourtant quand l’alchimie au sein d’une équipe est bonne cela devient une arme redoutable. Il a été constaté qu’un solo-entrepreneur mettait en moyenne 3,6 fois plus de temps à atteindre le point où une startup est prête à scaler son business par rapport à une équipe de deux fondateurs.

7. Se mettre en position de lever des fonds

Le principal challenge pour un solo-entrepreneur est la recherche de financements ou de structures d’accompagnement. J’ai postulé plusieurs fois dans des incubateurs et accélérateurs et la réponse à toujours été la même : « c’est une bonne idée mais revenez nous voir quand vous aurez une équipe ». Il est très difficile pour une personne seule de faire fonctionner une entreprise. Cela rend l’aventure bien plus risquée pour des investisseurs qui prennent déjà beaucoup de risques lorsqu’ils investissent dans une startup. Il est compliqué de prouver à un investisseur que vous être capable de tout gérer, du développement informatique au marketing, car très peu de personnes possèdent toutes ces compétences. Et bien que touchant un peu à tout, je suis loin d’être expert en tout. Or, il n’est pas possible de scaler une marketplace comme MyTwist sur laquelle seuls de gros volumes de transactions vous permettent d’accéder à la rentabilité sans lever plusieurs millions d’euros au préalable.

Certes un bon investisseur, business angel ou capital risqueur s’intéresse de près au problème que votre startup souhaite résoudre ou à la taille de son marché. Mais l’équipe est la raison principale pour laquelle ils investiront. On l’entend souvent : « un investisseur mise sur une équipe ». Qu’est ce qui peut inquiéter un investisseur dans le fait de vous présenter comme solo-entrepreneur ? Il va se demander comment cela se fait-il que vous n’ayez pas réussi à convaincre ne serait-ce qu’un ami pour se lancer avec vous. Et c’est plutôt alarmant car vos amis sont ceux qui sont supposés vous connaître le mieux. Quel message cela envoie sur votre capacité à embaucher des personnes clés dans l’avenir ? Êtes vous quelqu’un avec qui il est difficile de travailler ? Êtes-vous trop introverti ? Ou encore pire, quelqu’un qui veut tout régenter et qui est incapable de déléguer ? Peut-être ce n’est pas le cas, mais ces questions vont sans aucun doute traverser l’esprit de votre interlocuteur.

Trouver un bon co-fondateur est difficile

La troisième raison principale d’échec d’une startup après “marché inexistant ou trop petit” et “financements insuffisants”, ce sont les problèmes d’équipe. Il n’y a rien de plus dangereux pour une startup qu’une mauvaise décision d’embauche, un personne qui ne correspond ou n’adhère pas à votre culture d’entreprise ou qui n’est simplement pas au niveau. Une mauvaise recrue est l’une des erreurs les plus risquées et coûteuses qu’une startup peut faire. En particulier en France où le droit du travail manque de souplesse et n’est pas adapté à l’agilité dont les startups ont besoin. Dans les premiers mois de votre startup, vos résultats reposent sur le travail d’une poignée de personnes et vous ne pouvez pas vous payer le luxe d’être mal entouré.

Au delà du product/market fit, ce qui fait qu’un produit se vend bien c’est la culture d’entreprise. Mais la culture d’entreprise, ce n’est pas proposer de la nourriture gratuite et à volonté, un babyfoot ou une fête de noël à vos employés. C’est partager une vision et des valeurs communes : le même socle pour toutes les discussions et la raison pour laquelle tout le monde travaille ensemble. Une bonne culture d’entreprise soude une équipe comme jamais, aide à traverser les moments difficiles et donne à la startup l’opportunité de gagner. Une bonne culture d’entreprise vous donnera l’impression qu‘il est « facile » de construire une startup à succès. Mais on ne met pas en place une culture d’entreprise quand on est seul.

Après mon échec, je recommanderais vivement à quiconque veut se lancer de s’entourer des profils clés pour son business, et ce AVANT même de démarrer. Ceci pour ne pas vous retrouver confronté au dilemme qui était le mien une fois lancé :

  • chercher un/une associé(e) ? J’en avais besoin, aucun doute là dessus. Mais c’est à peu près comme les rencontres amoureuses. Vous n’avez aucune idée de ce que cela va bien pouvoir donner. Il faut juste lâcher son clavier d’ordinateur, sortir, rencontrer des gens, networker et essayer. Le problème est que chaque café prend du temps. Et quand la personne en face de moi ne m’inspirais pas grande chose, je me posais la question suivante : n’aurais-je pas pu faire mieux usage de ce temps ?
  • ou me concentrer sur l’exécution ? Je suis quelqu’un qui préfère voir les choses avancer plutôt que d’en parler pendant des heures. Quand vous êtes seul à tout gérer, vous avez une to-do-listqui ne finit pas de s’agrandir et chaque tâche effectuée est un petit succès. Et contrairement aux rencontres humaines, j’avais au moins un certain contrôle sur les éléments de ma to-do-list. Je n’étais pas à court d’idées et jusqu’ici j’arrivais à les concrétiser. Le problème c’est que comme on dit dans la Silicon Valley, « startup ideas suck ». Exécuter peut être satisfaisant sur le court terme, mais ça peut aussi se révéler être une colossale perte de temps sur le long terme.

Est-il vraiment impossible de réussir lorsqu’on entreprend seul ?

Est-ce que j’encouragerais quelqu’un de créer une startup seul ? Clairement, non. Créer un business seul est bien sûr possible dans certains secteurs d’activité, mais c’est quelque chose de très difficile dans le numérique où l’innovation, l’internationalisation et la rapidité d’exécution sont des facteurs déterminants. Pour autant, je ne pense pas que c’est une mission impossible. Ce n’est simplement pas pour moi. En effet, être solo-entrepreneur ne signifie pas être seul. J’étais entouré de co-workers, j’ai été aidé par une stagiaire (merci Mathilde!), j’ai travaillé sur mon projet avec des développeurs, graphistes ou illustrateurs. Être seul n‘empêche pas de vous reposer sur des gens fiables ou qui croient dans votre projet. Mais ce support n’atteindra jamais le niveau d’investissement qui est le vôtre. Être solo-entrepreneur et réussir est possible, mais votre expérience professionnelle passée et vos ressources financières détermineront jusqu’où vous pourrez aller. Reposez vous sur un bon réseau pour vous aider et vous pourrez réussir si vous êtes suffisamment passionné. Je pense que les gens sont capables de grandes choses s’ils sont suffisamment déterminés. L’entrepreneuriat c’est une passion, porter un projet jusqu’au bout, profiter d’une opportunité de marché, prouver que vous aviez raison, ou ajuster les choses jusqu’à ce que ce soit le cas. Ai-je douté quand je voyais des startups avec des équipes structurées ? Oui bien sûr, mais ça ne m’a jamais stoppé dans mon élan. Et de fait, j’ai eu des résultats plus importants que certaines d’entre-elles, avec des ressources financières pourtant similaires, voir inférieures. La détermination est tout aussi importante que l’équipe.

Quelles leçons je retire de cette expérience ?

Dans l’écosystème startup vous entendrez souvent « fail fast, fail early, fail often ». C’est vrai ; on ne peut progresser sans échouer. Mais ce qu’on ne dit pas c’est à quel point c’est difficile pour un entrepreneur de se planter. De sacrifier ses relations amicales ou familiales, ses finances, sa santé pour son rêve et de finir avec…rien. Mais si vous vous trouvez un jour dans cette situation, souvenez-vous que d’autres sont passés par là. Ils ont rebondi et vous le pouvez aussi.

“ Progresser c’est changer d’erreur ? “

Pierre-Gilles de Gennes

1. Je ressors de cette expérience avec l’intime conviction qu’il m’a manqué de bons associés pour avoir une chance de réussir. Me lancer seul a été une erreur. Sortir un produit est facile. Le mener à la prochaine étape l’est moins. C’est comme courir un marathon : avec beaucoup de détermination et d’entraînement c’est possible. Sauf qu’à l’arrivée, vous devez en courir un deuxième tout de suite. Une course de relais, c’est quand même plus facile ! Entreprendre est une longue aventure et comme toute aventure, elle est plus enthousiasmante quand elle est partagée.

2. Associé ou non, un bon collaborateur est difficile à trouver. Trouver les bonnes personnes ne se fait pas par magie, ce n’est pas de la chance, c’est une compétence. A l’issue de mon aventure entrepreneuriale je dirais que savoir recruter, identifier un bon profil, convaincre une personne de tout quitter et de rejoindre son projet est une des compétences les plus importantes pour un fondateur. Les gens sont à la base de toute organisation. Mais ils sont encore plus déterminants dans une startup que dans une grande entreprise. Le recrutement est un art qui mériterait plus d’attention de la part des fondateurs de startups car apprendre à identifier le bon candidat ayant à la fois de l’expérience et correspondant à la culture d’entreprise que vous souhaitez voir s’installer est bien plus difficile qu‘on ne le pense. Si vous en doutez encore, jetez un œil à ces 34 questions ; je les utilisais comme prétexte à la discussion avec les potentiels associé(e)s que j’ai pu rencontrer. Vous constaterez rapidement que fonder un bonne équipe est loin d’être quelque chose d’évident.

3. J’ai pu réaliser qu’il était possible de faire énormément avec peu de moyens humains et financiers. Quand on est très limité par ses ressources, on apprend à « bootstraper », dénicher tous les services gratuits qui existent, négocier tout, donner l’impression d’être plus grand que ce qu’on est, faire illusion avec quelques astuces graphiques, prioriser ou reporter les dépenses… Une startup n’a pas le luxe de pouvoir faire beaucoup d’erreurs. Les premières années, vous serez toujours limité en ressources et malgré cela vous devez proposer un produit génial, réussir à le distribuer, faire face à plus gros que vous et trouver un business model. Mais le manque de ressources pousse à se poser les bonnes questions. A l’inverse, le confort financier signifie souvent moins bien utiliser cet argent, voire le gaspiller.

4. Mettre une marketplace en position de scaler prend beaucoup plus de temps que je le pensais. Avec du recul, je me dis que mes ressources financières étaient insuffisantes pour tenir le temps d’obtenir un financement.

5. Les plus gros challenges pour l’entrepreneur ne sont pas ceux du monde extérieur, comme le financement, le développement informatique, la technologie ou le recrutement. Ces défis sont souvent enthousiasmants quand on les approche avec philosophie. Les plus gros défis sont à l’intérieur de soi, comme le stress, le doute ou la peur.

6. J’avais choisi de ne pas monétiser MyTwist tout de suite. La monétisation devait se faire sur du commissionnement mais je souhaitais d’abord valider mon idée en la confrontant au marché et générer un volume de transaction minimum avant de complexifier le produit en ajoutant du paiement et des services. Prendre une commission sur 20 transactions par semaine ne fait pas beaucoup de sens et ne paye pas les factures. Même si le sujet de la monétisation est souvent une obsession des personnes habituées à des modèles d’affaires plus « traditionnels », de nombreuses marketplaces ont mis beaucoup de temps avant de monétiser. Ce que je n’avais pas réalisé c’est l’impact de la « gratuité » sur ma propre motivation. Sur le long terme, il n’est pas évident de rester mobilisé sur un travail qui vous occupe 60h par semaine mais duquel vous ne retirez aucune rétribution.

7. La plupart des startups échouent et pourtant nous ne parlons pas beaucoup de l’échec. J’encouragerais tout le monde qui échoue à écrire ce qu’ils ont ressenti. Je réalise que l’échec n’est pas aussi difficile à vivre que ce que j’avais anticipé. Je ressors de cette expérience un peu fatigué nerveusement et avec des dettes. J’avais peur de perdre la face vis à vis de mon entourage ou de l’écosystème. Mais finalement ce n’est que de l’argent perdu et une énorme expérience acquise.

Et maintenant ?

Il est plus facile d’accepter la défaite quand vous avez essayé encore et encore mais que ça n’a mené nullepart. On appelle ça une expérience ratée. L’échec est facile à expliquer. Il est par contre beaucoup plus frustrant d’essayer encore et encore, commencer à avoir de la traction sur son produit et finalement s’écraser. C’est un peu dans ce second cas que je me sens. Tout aurait pu être si différent avec un équipe. Il y a de nombreuses choses que j’aurais fait différemment si je devais recommencer. Mais je ne regrette rien. J’ai beaucoup appris de mes erreurs et je réalise aussi à quel point la chance et le timing sont aussi de gros facteurs dans un succès ou un échec.

J’ai vu assez d’entrepreneuriat pour savoir que c’est pour moi. Je pense que je recommencerai un jour. Je ne sais pas quand et ce ne sera pas tout de suite, c’est certain. La prochaine fois, je ne serais peut être pas le pilote mais je pense que je serais impliqué d’une façon ou d’une autre. Je ferais d’autres erreurs mais certainement pas les mêmes. Créer sa startup c’est apprendre encore et encore jusqu’à ce que vous tapiez dans le mille (ou les millions). Après tout, il suffit d’avoir raison une seule fois.

Après avoir décidé de fermer ma boîte, mes proches me demandent souvent si je vais bien. En fait, je pense que oui. C’était une aventure chaotique mais il est temps de passer à autre chose. Je suis actuellement coursier à vélo pour une boîte de livraison à la demande : je fais 200 kilomètres de vélo chaque semaine, au soleil et dans la plus belle ville du monde. De quoi me renflouer un peu, reposer mon esprit, réveiller mon corps et pouvoir prendre le temps qu’il faut pour trouver un job qui me correspond. Probablement dans une startup, mais en tant que salarié pour cette fois !

par Jonathan Levitre

E-santé: les 10 tendances à surveiller

La e-santé a le vent en poupe. En 2015, les entreprises du secteur ont levé 1,5 milliard de dollars, un record pour cette filière en plein développement.

Début 2016, l’écosystème français a vu des acteurs de la MedTech réaliser de spectaculaires levées de fonds, à l’image de MonDocteur qui a levé 12 millions d’euros en février, ou bien de Kyomed qui a levé 3 millions d’euros en janvier.

Quelles sont les tendances à surveiller en matière de e-santé? Eléments de réponse avec l’étude «Healthcare’s Digital Future» de Futurice, société finlandaise spécialisée dans les logiciels.

  • Des patients informés et actifs en ce qui concerne la gestion de leur santé. Pour preuve, au Royaume-Uni, 80% des patients utilisent Internet pour trouver des conseils de santé (selon le European Patients Forum 2015), sans forcément vérifier la validité des informations qu’ils trouvent.
  • Des établissements de santé confrontés à la problématiques de réduction des coûts et de gestion de leurs ressources. Aux Etats-Unis, une étude Accenture de 2015 a par exemple montré que les hôpitaux qui proposent les meilleures «expériences patients» ont des marges 50% supérieures à leurs concurrents.

  • Une offre de prestations de santé en self-service, pour des patients plus autonomes. Un tiers des patients américains admettent en effet être plus honnêtes quant à leurs soucis de santé lorsqu’ils s’adressent à des systèmes automatisés, que face à un médecin, selon une étude Healthy World.

  • A la recherche d’une meilleure expérience. Pour 70,6% des mères américaines, l’aspect pratique est un déterminant essentiel au moment de choisir son prestataire de santé.

  • Vers plus d’innovation ouverte. En favorisant les projets collaboratifs rassemblant professionnels de santé et patients autour d’une problématique, les établissements de santé peuvent améliorer leur compréhension des besoins des patients (notamment ceux atteints de maladies chroniques).

  • La gamification de la prévention. Ludiques et amusants, les jeux permettent de sensibiliser plus efficacement les patients, à l’image du jeu Packy and Marlon destiné aux enfants diabétiques, qui a permis de réduire de 77% les cas d’hospitalisation d’urgence.

  • La collecte de data de santé. Avec un potentiel estimé à 19 millions de dollars en 2018, le marché des wearables est en plein essor. Ces objets connectés permettent de collecter de nombreuses données et donc de prendre des décisions plus avisées en matière de santé.

  • Des outils pratiques, et mobiles. Selon une étude Healthy World, 49% des patients américains sont favorables au fait de recevoir des conseils de santé par mail entre deux visites médicales.

  • Un dossier patient partagé. En considérant que 70% des erreurs de prescriptions pourraient être évitées grâce à un meilleur partage des informations de santé, la question de la mise en place d’un dossier médical partagé est plus que jamais d’actualité.

  • Des interfaces intuitives. La santé étant un domaine sensible et où l’émotionnel est prépondérant, les objets connectés de santé les plus utilisés par les patients sont ceux qui sont simples d’utilisation et intuitifs.

Par Claire Spohr

Le cloud et l’impression 3D bouleversent les codes de la productivité

Frenchweb publie les bonnes feuilles de l’ouvrage «Oser l’improductivité», de Davy Rey. Il y démontre que l’innovation dans son ensemble permettra l’émergence de l’entreprise improductive. Dans cet extrait, le cloud et l’impression 3D transforment la structure de l’entreprise.

 

«Avec deux milliards d’utilisateurs dès 2015, les smartphones et les tablettes représentent déjà le sésame du tout / partout / tout de suite. Les capacités des réseaux et technologies sans fil, en constante évolution, permettront bientôt de fournir à toute la planète un accès illimité et ubiquitaire à Internet… et aux entreprises d’atteindre quatre ou cinq fois plus de consommateurs. Mais Internet, c’est un peu comme un grille-pain : cela ne sert à rien sans électricité. Les capacités nouvelles de stockage de l’énergie permettront d’alimenter les régions les plus reculées du monde et de fiabiliser les réseaux électriques. (…)

Le cloud computing est à la mobilité ce que les protocoles Wi-Fi et Bluetooth sont à la connectivité : une rampe de lancement. Ce nuage, qui grossit de jour en jour, permet à l’organisation qui y stocke ses informations et ses applicatifs, d’y avoir accès partout où Internet est accessible (…) Le cloud remplace des logiciels, dont l’installation nécessite un investissement significatif, par des applications accessibles via navigateur web. Bien que des travaux d’intégration peuvent rester nécessaires au démarrage, l’entreprise qui opte pour une solution en SaaS (Software as a Service) s’épargne le coût d’achat de la solution et des licences. A la place, elle paie un abonnement par utilisateur, qu’elle peut moduler en fonction de ses besoins. (…) Plus besoin de prendre le risque d’acheter des extensions, dont on ne saura qu’à l’utilisation si elles satisfont le besoin des opérations. Plus l’organisation se déleste de ses applicatifs, plus elle se débarrasse de son matériel informatique et moins elle consomme d’énergie et de prestations de maintenance. Ce virage, nécessaire, vers le cloud transforme des coûts fixes élevés en charges variables plus faibles. Il participe à réduire le besoin de financement de l’entreprise et ce sera de circonstance, car le coût du capital obligera la plupart des entreprises à ralentir leurs investissements.

La mobilité, alliée à la connectivité, ouvre donc des perspectives nouvelles pour nos entreprises. Ces deux évolutions combinées font émerger un gisement de valeur client inexploité, un recentrage de certaines fonctions autour de leurs activités cœur, tout en allégeant considérablement la structure.»

Sur l’émergence de la prosommation et ses impacts sur la chaîne d’approvisionnement

«Certains modèles d’imprimantes 3D valent maintenant moins de mille euros et, si votre entreprise n’en possède pas encore, cela ne devrait plus tarder. En effet, elles sont aujourd’hui largement employées pour le prototypage rapide. Elles permettent aux équipes qui les utilisent de matérialiser rapidement, en quelques clics et quelques heures, des maquettes ou des prototypes fonctionnels. Par exemple, l’enveloppe plus ou moins vide d’un appareil électronique est lancée en impression, pendant que les interfaces sont développées et simulées sur des écrans tactiles. Le concept, assemblé matériellement, est testable auprès du client ou d’un panel de consommateurs. Autrefois réservée au développement informatique, la validation itérative des produits physiques est rendue possible par l’impression 3D, dès les phases amont de leur développement. Elle apporte une base solide pour la diffusion des techniques de développement agile issues du monde numérique (…) Les technologies additives permettent, dès aujourd’hui, de largement accélérer la mise en marché des nouvelles offres. (…)

Si les premières techniques produisent arêtes et bavures à reprendre en finition, certains modèles sont désormais capables d’imprimer directement des mécanismes complexes, c’est-à-dire des assemblages fonctionnels de plusieurs pièces. Ces technologies permettent ainsi de supprimer toutes ou partie des opérations de finition. Moins de chute et moins d’opérations : les gains sont immédiats sur les rendements. La vitesse d’impression reste, pour tous les modèles, une limite à leur emploi à l’échelle industrielle. Les délais d’impression ne rivalisent pas encore avec les temps de cycle de l’industrie traditionnelle, l’impression 3D n’est pas encore compétitive pour la production. Cependant, des modèles en cours de développement, vingt-cinq à cent fois plus rapides, pourraient bien arriver sur le marché dès 2016 et constituer une rupture dans la rupture. (…)

Lorsque la barrière de la vitesse sera tombée (…) ne resteront que les opérations d’assemblage, lorsque les sous-ensembles ne seront pas imprimés directement (…). Encore que… Stratasys, l’un des principaux fabricants d’imprimantes 3D, développe une technologie d’impression auto-formante, en collaboration avec le MIT. Cette technique focalise moins sur l’étape d’impression que sur l’utilisation de matériaux, dont les propriétés d’absorption de l’eau permettent d’activer une opération d’auto-assemblage. (…) Il est aisé de comprendre ce que cela signifie pour l’entreprise qui emploie cette technologie : imprimer des objets plats, en laissant le soin au client de les former lui-même sans les assembler, avec le gain de place que cela génère en stock et pour le transport. (…)

Et pourtant, c’est sur la chaîne d’approvisionnement que l’impression 3D pourrait bien avoir le plus d’impact à moyen terme. En effet, une grande partie des biens de consommation pourra être imprimée en local à la commande, c’est-à-dire à quelques mètres ou kilomètres du consommateur. Fini les transits maritimes de plusieurs semaines, car les économies d’échelle et de main-d’œuvre ne compenseront plus les coûts logistiques. (…)

A l’achat d’un article, deux possibilités coexisteront pour le consommateur. Il pourra imprimer lui-même le produit si celui-ci est aussi «simple» qu’un jouet ou qu’une paire de baskets. Et il pourra retirer un produit plus complexe dans le fab-lab le plus proche. Un fab-lab est un atelier avec des capacités d’impression et de production plus larges qu’une imprimante personnelle. Il s’agit d’un centre de mise en commun ou de mise à disposition de moyens de fabrication comprenant des imprimantes 3D professionnelles, des composants électroniques de base et l’accès à des bases de données open-source. (…)

La prosommation s’appuie sur l’impression 3D pour réaliser ce que la digitalisation a permis pour les produits numériques, en libérant les canaux de distribution et en démocratisant la production. Que cette dernière soit réalisée à domicile ou en fab-lab, l’impression 3D rendra accessible à tous des produits de niche ultra-personnalisés, tels que des prothèses ou du mobilier sur-mesure, tout en restant rentable pour les entreprises qui les commercialiseront, malgré des volumes faibles. Autrement dit, la véritable révolution de la prosommation, c’est qu’elle abroge le paradigme de l’économie d’échelle et contribue à remettre en cause les fondements de la productivité. (…)»

Oser l'improductivitéLe livre «Oser l’improductivité» de Davy Rey (Lulu.com). Il s’agit d’une remise en cause des mécanismes productivistes de nos entreprises et d’un nouveau modèle recentré sur l’innovation, pour améliorer leur performance.Davy Rey est manager chez STEP Consulting, un cabinet de conseil en amélioration des performances. Il accompagne de grands groupes, ainsi que des PME et des ETI, depuis près de 10 ans. Mais il maintient aussi un lien fort avec le monde des start-up et décrypte les grands changements économiques et technologiques de notre époque. Depuis deux ans, il tente d’en faire la synthèse sur le blog professionnel qu’il anime : Perspectives.

 

Les 10 règles d’or pour rater sa transformation digitale

En quelques mois la transformation digitale s’est invitée dans l’agenda des dirigeants d’entreprise. Peur de « l’uberisation » (arrivée soudaine de nouveaux acteurs agressifs), incertitudes économiques, nouvelles exigences des consommateurs… Face à ce contexte, réussir sa transformation digitale est devenu un impératif. Pour autant les pièges d’une transformation digitale sont nombreux. Basées sur sept années d’expériences en transformation digitale vécues « de l’intérieur », voici les 10 règles à suivre pour rater une transformation digitale à coup sûr.

1/ Face à la technologie, te crisper tu devras

« Je ne veux pas que les employés puissent accéder à un réseau social, ou travailler à distance. Ils vont perdre en productivité ! » L’utilisation des nouvelles technologies fait déjà parti du quotidien des consommateurs, l’entreprise doit donc s’aligner sur ces nouveaux usages. Le déploiement des nouvelles technologies au sein de l’entreprise doit être piloté et accompagné pour garantir une bonne utilisation. Ces nouveaux outils déclencheront de nouveaux comportements qui faciliteront la transition digitale.

2/ Le parcours consommateur, de coté tu laisseras

« Je ne veux pas aller sur les media sociaux, cela va augmenter le travail du service client, en plus je devrai certainement embaucher un Community Manager. Les publicités TV permettent de travailler suffisamment la relation conso, et ont un impact mesurable en point de vente, ce qui n’est pas le cas du digital. » Le parcours d’achat des consommateurs n’est plus linéaire et uniforme. Le service marketing doit travailler l’ensemble des points de contact utilisés par les consommateurs. Il doit s’aligner sur les nouveaux usages des consommateurs et trouver un modèle publicitaire digital efficace qui intègre ces nouvelles technologies.

3/ La formation, obliger tu devras

« J’ai organisé une formation digitale généraliste et obligatoire pour tous les salariés. Il y a aussi un module en ligne sur lequel on va pouvoir suivre les statistiques de participation de chaque employé. C’est déjà bien suffisant ! » Le digital n’est pas un un ensemble de théories, mais une pratique à intégrer dans le quotidien des salariés. Les formations augmentent la culture générale des employées, mais elles doivent être accompagnées d’exercices pratiques et d’études de cas réels et récents afin d’intégrer ces nouvelles pratiques dans le quotidien des salariés.

4/ Embaucher un Chef Digital Officer, tu te dépêcheras

« Un CDO arrive pour réaliser la transformation digitale. Il a déjà un plan stratégique sur 5 ans, et un ROI prévisionnel pour chaque action. » Le CDO peut faciliter la transformation digitale, mais le Directeur Général et l’ensemble des employés doivent s’emparer du sujet. Avec la rapidité des évolutions technologiques actuelles, il est illusoire de définir une vision stratégique à plus de 18 mois. A cause de la nouveauté du domaine et de la spécificité de chaque entreprise, le ROI des actions n’est souvent mesurable qu’à postériori.

5/ Le recrutement d’experts, tu éviteras

« Pour faire du digital, il suffit d’être jeune et d’avoir envie d’apprendre. N’importe quel cadre motivé peut donc devenir Digital Manager, et nous éviter un nouveau recrutement. » Le digital devient de plus en plus complexe, et nécessite des années de pratique pour être maîtrisé. L’intégration d’experts dans l’entreprise permet d’accélérer la courbe d’apprentissage et la diffusion des bonnes pratiques en interne. Cela permet ainsi de rattraper un retard éventuel sur les concurrents.

6/ Les Top Managers, tu ignoreras

« Les Managers n’ont pas besoin d’être accompagnés individuellement par un expert du digital. Ils sont forcément au courant des dernières évolutions technologiques de leurs métiers. » Les managers ont souvent une expérience approfondie d’un métier, mais les usages et les pratiques des métiers sont en train de changer. Le rôle des managers est crucial pour la diffusion du digital au sein de leurs services. Ils doivent donc être accompagnés individuellement pour détecter et combler d’éventuelles carences dans le domaine du digital.

7/ Les RH, point tu n’impliqueras

« Un entretien RH annuel suffit pour fixer les objectifs. Seuls les experts du digital peuvent travailler sur le sujet et apporter leur pierre à l’édifice. » Les évolutions technologiques et les modifications des comportements sont extrêmement rapides. L’entreprise doit gagner en vélocité. Cela passe par la fixation d’objectifs individuels à court terme, et l’implication de tous les services dans les projets liés au digital. Le digital ne peut pas être le combat d’une seule équipe.

8/ Tes processus internes, point tu ne changeras

« Nos processus ne sont pas parfait, mais depuis le temps tout le monde sait comment ils fonctionnent. » L’accès à la data, la rapidité de traitement et de diffusion de l’information sont les avantages concurrentiels de demain. L’informatisation et la simplification des processus sont des chantiers indispensables pour gagner en vélocité dans un monde qui accélère.

9/ La communication transparente, tu éviteras

« La transition digitale cela n’intéresse que le marketing. Je ne veux pas que mon entreprise communique sur les réseaux sociaux, blogs et autres comptes Twitter. » Dans un monde ultra-connecté, les consommateurs et les salariés veulent une communication authentique, transparente et rapide. Maîtriser les codes d’une communication digitale interne ET externe est une compétence à acquérir dès que possible.

10/ Un eco-système, point tu ne développeras.

« La grande majorité des start-up sont tenues par de jeunes idéalistes qui feront faillite dans quelques mois. Cela ne sert à rien d’investir dedans, de toute façon il y a certainement déjà une start-up américaine qui doit faire la même chose. » L’innovation digitale est souvent portée par de petites structures, et l’entrepreneuriat est en pleine expansion en France. La détection de technologies early-stage permet de mettre en place des partenariats et de tester de nouveaux outils sur-mesure qui seront peut-être les avantages concurrentiels de demain.

  • Le confidentiel :

 

Pierre-Alexandre MESSNER

Diplômé de l’ESSEC, Pierre-Alexandre MESSNER est consultant en marketing digital. Il a été Digital Manager pour de grandes marques FMCG pendant 5 ans. En 2016 il a créé l’agence Web Sparkler pour accompagner les marques et les professionnels du marketing dans leurs stratégies digitales. 

 

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Jeunisme, Big Data… 5 idées reçues sur le leadership à l’ère digitale

Le leadership, cette capacité à mobiliser les énergies autour d’une action commune, est le levier de la transformation digitale pour 4 décideurs sur 5, interrogés récemment par Deloitte.

Alors pourquoi si peu d’efforts sont déployés dans ce sens ? Voici une tentative d’explication sur le leadership digital pour mettre fin à 5 clichés :

1- Tout sera réglé quand les millenials seront aux commandes

Nous voilà donc sauvés. Il suffit d’attendre que les digital natives prennent le pouvoir pour que la transformation opère. Un shadow Comex composé de moins de 35 ans comme chez Accor va bien sûr dans le bon sens.

Mais certaines entreprises reviennent déjà de ce jeunisme exacerbé dans leur recrutement : le leadership digital est aussi une question de vision, de frugalité, de capacité d’engagement. Au cas où l’âge n’y serait pour rien, veillez à ne pas vous séparer trop vite vos digital migrants.

2 – L’exemplarité du boss va entraîner le reste de l’entreprise

image: http://www.frenchweb.fr/wp-content/uploads/2016/02/zuckerberg-samsung.png

zuckerberg-samsung

Difficile d’aller à l’encontre de ce postulat, d’autant que le digital est avant tout «performatif»: il y a ceux qui en parlent et ceux qui le font.

L’exemplarité fait sens pour fertiliser l’entreprise. Un simple coup d’oeil sur les comptes Twitter de jeunes actifs ou de pré-adolescents peut encore faire rougir nos patrons du CAC 40. Mais la corrélation immédiate entre le leadership digital et le nombre de followers est encore largement à prouver.

La bonne distance et la capacité de réflexivité face aux outils numériques peuvent être un meilleur levier. Le succès du repreneur de la Camif, Emery Jacquillat s’explique en partie parce qu’il a su créer de l’envie plutôt que de la peur pour digitaliser l’entreprise.

3- Rester toujours connecté est un atout décisif

«La technologie est là pour améliorer votre vie, pas pour s’immiscer entre vous et votre vie» (Randi Zuckerberg). La surcharge cognitive des outils numériques affaiblit la concentration. Notre cabinet accompagne des CDO, des décideurs IT de moins de 30 ans au bord du burn-out. Au-delà de ces cas extrêmes, la pression de l’immédiateté et de l’infobésité brouillent les repères. Le «temps long» est indispensable à notre cerveau qui est loin d’être aussi doué pour le multi-tasking. Se déconnecter permet paradoxalement de mieux se reconnecter et gagner en sérénité.

4 – Grâce au Big Data, plus besoin de leadership : l’algorithme va prendre les commandes

La redistribution des rôles entre les machines et les talents s’accélèrent. S’agissant de volume de données, de variété, de vitesse d’analyse (…), la machine a déjà gagné. Mais la modélisation et l’algorithmie sont finalement assez peu challengées par nos décideurs. Les KPI et la data-visualisation font loi. Partager les techniques de data analyse favorisent le décloisonnement dans l’entreprise et mieux encore la permission marketing quand elles sont mises en co-construction avec les clients (cf. Le DataLab de la  Poste ou le projet MesInfos de la FING). Si la data entre les mains d’une poignée d’experts et de fabricants de logiciels «propriétaires» prend le pas sur la décision entrepreneuriale, attendez-vous à une dilution des responsabilités, voire un mauvais remake de minority report.

5 – La compétence et les méthodes agiles vont remplacer l’autorité

Un leadership fondé uniquement sur la compétence digitale est une prise de risque, tout simplement parce que son obsolescence est déjà programmée. Plus que des certifications ou des diplômes, l’interdisciplinarité, l’autodidaxie, et l’élasticité managériale permettent un recul indispensable face à la révolution numérique: il n’ y a pas de modèle préétabli face à l’accélération et les disruptions, mais plutôt une démarche et surtout un état d’esprit. La transformation est difficile voire impossible quand les méthodes ou l’expertise deviennent une finalité plutôt qu’un moyen.

 

Macintosh HD:Users:nathalieschipounoff:Desktop:Capture d’écran 2016-03-06 à 21.40.46.png

              Ryan McGuire

Pour beaucoup encore, la performance et la posture «digitale» sont les clés de cette transformation : comment ne pas être fasciné par le leadership d’Elon Musk, le patron de Tesla et de Space X. Son niveau d’exigence lui permet de repousser les limites comme personne. Mais ses méthodes managériales interrogent. Du haut de ses 23 ans le chevalier blanc de la data, Paul Duhan est presque plus inspirant pour ses valeurs sur le bien commun et sa quête de sens. Pour lui, «l’algorithme ne fait pas tout» : quand vous êtes né du bon côté de la barrière, dans la bonne partie du monde, fait de bonnes études, vous avez en fait déjà gagné au loto. Alors pourquoi monter sa start-up ou digitaliser l’entreprise, si c’est juste pour gagner plus d’argent ?

  • A propos

 

nathalie-schipounoff

Conférencière et coach de dirigeants, Nathalie Schipounoff avec plus de 15 ans d’expérience dans le numérique, est co-fondatrice du cabinet Le Leader Digital. Ce cabinet accompagne les CoDir, les DRH dans la transformation digitale pour préparer les hommes et changer le management. Membre des jurys des Trophées du CoDir digital 2015 organisé par le groupe RH & M et co-auteur chez Eyrolles de Et si j’apprivoisais mon chef pour se protéger du management toxique et des fiches outils du webmarketing (Hub awards 2015).

Par Nathalie Schipounoff, cofondatrice du cabinet Le Leader Digital