Category Archives: Mis en valeur

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.

 

Levée de fonds : le bon timing selon Bird Office

  • Plusieurs indicateurs précis (nombre produits vendus, nombre d’inscrits site …) prouver offre attire public significatif particuliers d’entreprises.

    Plusieurs indicateurs précis (nombre de produits vendus, nombre d’inscrits sur un site …) doivent prouver que votre offre attire un public significatif de particuliers ou d’entreprises. – Bird Office

  • Arnaud Katz Michael Zribi, cofondateurs Bird Office

    Arnaud Katz et Michael Zribi, cofondateurs de Bird Office – D.R.

A quel moment doit-on effectuer sa première levée de fonds ? Retour d’expérience avec Arnaud Katz, co-fondateur de Bird Office.

 

L’AirBnB des salles de réunion a levé 1,2 millions d’euros fin 2015. Comment la start-up, qui met en relation les entreprises prêtes à partager leurs espaces vacants et les professionnels en quête de salles, a-t-elle procédé, deux ans après sa création ? Arnaud Katz, co-fondateur de Bird Office, expose les quatre principes qui ont mené à la réussite de l’opération.

#1 Avoir déjà des clients et des contrats en poche

Avant de penser à une opération de capital risque, soyez certain que votre activité commence à séduire le marché. Il faut déjà réaliser du chiffre d’affaires ou au moins avoir signé plusieurs contrats ou partenariats qui auront très vite un impact. Plusieurs indicateurs précis (nombre de produits vendus, nombre d’inscrits sur un site …) doivent prouver que votre offre attire un public significatif de particuliers ou d’entreprises. Bref, que la start-up ait pris son envol. Meilleurs seront vos chiffres et plus votre capacité à mobiliser du capital sera forte. Au moment de sa levée de fonds de 1,2 million d’euros fin 2015, Bird Office avait déjà fait la preuve du concept. « La croissance était de 30 à 40% par mois et la récurrence de la clientèle très forte», témoigne Arnaud Katz, co-fondateur en décembre 2013 de cette plateforme de réservation d’espaces professionnels à l’heure ou à la journée.

#2 Ne pas se précipiter sur le premier investisseur

Les bons projets sont souvent très tôt repérés par les investisseurs. Surtout s’ils ont été distingués par des concours de start-up. « Aux sollicitations d’un fonds, n’hésitez pas à lui répondre : revenez me voir dans un mois, si vous ne vous sentez pas encore suffisamment solide pour présenter votre projet», recommande Arnaud Katz.
Ne vous focalisez pas uniquement sur le montant à lever, la capacité du fonds à vous accompagner sera aussi importante.« Entre plusieurs investisseurs, choisissez celui avec lequel vous avez envie de bosser, poursuit l’entrepreneur. Le fonds News Invest qui nous a financés est aussi là pour nous aider à développer l’activité. Leur management est très opérationnel, réactif avec un réseau qui peut répondre à nos besoins ».

#3 Anticiper la durée de l’opération

En moyenne, une opération de levée de fonds prend facilement six mois. Si vos résultats sont encore fragiles, la durée peut encore s’allonger. Sollicitations restées sans réponse, rendez-vous sans suite … le marathon va vous épuiser. Si vous ne réussissez pas à faire rêver l’investisseur, il sera difficile d’avoir une seconde chance. C’est pour cela qu’il ne faut pas partir trop tôt. « En revanche, si votre traction est réelle et mesurable, la levée de fonds peut se boucler assez rapidement, affirme Arnaud Katz. Il a suffi de quelques entretiens et au bout de trois semaines notre investisseur a donné le feu vert. Un mois de plus a été ensuite nécessaire pour concrétiser le deal avec les avocats ».

#4 Avoir une réserve de trésorerie

N’attendez pas non plus d’être en panne de trésorerie pour solliciter des investisseurs. En étudiant vos comptes, ces derniers s’apercevront vite de votre situation et en profiteront pour vous imposer des conditions défavorables. Par exemple une valorisation très inférieure à celle que vous espériez. Le couteau sous la gorge, vous serez tenté d’accepter n’importe quoi. « Pour notre part, nous avons toujours au moins six mois d’avance dans les caisses, assure Arnaud Katz. Nous étions donc très sereins au moment de négocier. L’idéal est d’inverser le rapport de force en donnant à l’investisseur le sentiment qu’il a besoin de vous ». 

 

Par BRUNO ASKENAZ

 

Petit budget : 5 conseils pour se mettre quand même au Content Marketing

Le Content Marketing est à la portée de toutes les entreprises, quel que soit leur budget ! Hé non, cette stratégie n’est pas uniquement réservée aux grandes entreprises.

Différentes techniques vous permettent de réduire les coûts de production et de promotion de vos contenus. Nous allons les détailler en exclusivité dans cet article ! Vous pourrez alors partir à la conquête du marché digital en appliquant nos 5 précieux conseils. 

miniature-article-redacteur

Produire des contenus peu chers pour commencer

Si le terme « Content Marketing » vous fait peur, dites-vous qu’il ne s’agit pas de vous transformer en bibliothèque de ressources tout de suite. Il est possible de produire du contenu de qualité, rapidement et à moindre coût.

C’est le cas des articles de blog qui demeure le format le plus produit par les entreprises. Ces derniers peuvent s’écrire en une heure de temps et vous permettre de valoriser votre expertise. Vous offrez des conseils pertinents à vos prospects et vous pouvez vous positionner sur davantage de requêtes dans les moteurs de recherche.

C’est aussi de la matière utile à partager sur les réseaux sociaux ou dans votre newsletter.

Limiter sa présence à 3 réseaux sociaux

Les réseaux sociaux sont incontestablement un levier nécessaire pour diffuser votre stratégie Content Marketing. Cependant, vous ne pouvez pas être présent sur tous les fronts. Vous y perdrez inutilement votre énergie et votre temps. Deux denrées précieuses pour une petite entreprise !

Définissez les canaux de diffusion les plus utilisés par vos prospects et vos clients.

Analysez aussi ceux qui correspondent au type de contenu que vous pouvez produire. Si votre métier est très visuel (graphiste, agence de voyages, boutique de vêtement…), des réseaux sociaux comme Instagram ou Pinterest seront intéressants.

Si vous proposez des services aux entreprises, vos efforts devront être concentrés sur Linkedin et Twitter.

Dans tous les cas, mieux vaut avoir une présence dynamique et de qualité sur 2-3 réseaux sociaux, qu’un compte presque vide sur toutes les plateformes existantes.

Se concentrer sur la qualité plutôt que la quantité

Chaque contenu a un objectif précis : partage sur les réseaux sociaux, inscription à la newsletter, demande de devis, participation aux débats, fidélisation des lecteurs… Privilégiez alors la qualité de vos contenus pour obtenir le résultat escompté.

Certes, une publication régulière est indispensable, mais avec un ou deux articles par semaine, vous verrez déjà des résultats sur votre trafic, votre référencement et vos conversions. 

Partager des contenus déjà existants

Le Content Marketing passe aussi par la curation. Il s’agit de partager du contenu provenant d’autres médias, sur votre propre blog et sur vos réseaux sociaux. En citant toujours la source de référence, bien entendu !

Vous pouvez alors ajouter un commentaire personnalisé ou quelques paragraphes supplémentaires pour proposer un article ou une infographie complète à vos lecteurs.

Cette technique permet de créer rapidement du contenu à forte valeur ajoutée et d’attirer l’attention des personnes et entreprises dont vous partagez les articles.

Créer une section « guest-blogging »

Très courant, le guest-blogging consiste à donner la parole à d’autres auteurs sur votre blog. Le but est d’augmenter votre visibilité et votre notoriété auprès de nouveaux prospects. En effet, l’invité va certainement partager l’article auprès de sa communauté, augmentant ainsi votre audience.

Par ailleurs, puisque vous ne créez pas de contenus vous-même, vous gagnez du temps dans votre stratégie Content Marketing.

Cependant, si ce système semble très avantageux, il convient de rester vigilant dans le choix de vos guests. Contactez des personnes influentes qui peuvent contribuer à la promotion de votre image et qui officient dans le même secteur d’activité que vous. Vérifiez toujours les textes proposés et n’acceptez que des contenus de qualité.

Enfin, même si cette technique permet d’avoir du contenu gratuit, n’en abusez pas. Votre blog doit aussi valoriser votre entreprise et votre savoir-faire. Vous devez donc y participer activement !

Et mettre en place une stratégie Content Marketing n’a jamais été aussi facile ! SurRedacteur, vous trouverez de nombreux freelances prêts à vous aider dans cette démarche et à vous conseiller d’après votre budget. Postez votre annonce dès maintenant !

Je t’avais bien dit, que le phoning ça ne marche pas !

phoning

Article rédigé par Arnaud Cielle 

Voilà plusieurs semaines que vous menez vous-même une action soutenue de phoning. Vous pouvez également vous trouver dans la situation de l’entrepreneur qui a délégué cette mission de phoning à un collaborateur.

Dans les deux cas, les résultats sont sans appel (!) : le bilan de votre démarche de phoning n’est pas bon. Les résultats sont nuls. Vous n’avez obtenu aucun rendez-vous.

Dans les deux cas, la réponse qui fuse à la lecture des résultats est quasiment la même :
– je savais bien, que le phoning ne sert à rien…
– je t’avais bien dit, que le phoning ça ne marche pas !

Embed from Getty Images

Si on entame une action en étant persuadé qu’elle ne sert à rien, le résultat est connu d’avance… Pour être efficaces, nous avons tous besoin de de la conviction que le moyen que nous utilisons est effectivement le plus adapté. Sans cette certitude, nous allons au contraire inconsciemment œuvrer pour aboutir à un échec et nous conforter ainsi dans notre conviction que le moyen choisi n’était pas le bon. Alors ! Quelles sont les solutions en termes de management ou d‘auto management ?

Travailler sur les moyens d’adhérer à une démarche de phoning

C’est en effet la première solution qui s’offre à vous. Dans ce cas, trois leviers possibles :

1/ Se former au phoning

C’est peut-être la raison pour laquelle vous-même ou votre collaborateur n’adhère pas à une démarche de phoning : le manque de compétences. Une formation va vous permettre notamment :

  • De rendre votre comportement commercial beaucoup plus efficace
  • D’adopter une méthode et une organisation plus performantes, notamment en termes de tranches horaires d’appels
  • D’affiner votre ciblage et la qualité de préparation de vos appels

En complément de votre formation, une démarche d’enregistrement de vos appels de phoning, pour pouvoir les analyser, peut énormément vous aider et vous faire progresser.

2/ Se prouver l’intérêt

Etes-vous persuadé de la pertinence d’une démarche de phoning ? Disposez-vous d’exemples de succès dans votre secteur ou dans des entreprises analogues à la votre ?

3/ Se donner du plaisir

Si phoning reste synonyme de corvée, il vous sera difficile de durer et surtout d’être efficace dans la démarche… Mais comment diable mettre une dose de plaisir dans le phoning ?!? Allez ! Quelques suggestions :

  • Choisir des prospects que vous avez envie d’appeler, parce que vous aimez leur entreprise ou leur activité
  • Prendre soin d’écrire un argumentaire téléphonique adapté à votre personnalité
  • Vous équiper d’outils (CRM, casque téléphonique,…) qui vous motivent
  • Suivre vos performances pour pouvoir mesurer vos progrès
  • Mettre en place une incentive pour récompenser les efforts réalisés sur le phoning

Pour rendre votre phoning encore plus efficace :

Vous voulez rendre vos actions de phoning encore plus efficaces ? Vous voulez encore mieux maîtriser l’exercice et même prendre du plaisir dans vos actions de prospection téléphonique ?

L’ubérisation divise les Français : les consommateurs sont pour, les travailleurs moins

uberisation

Pas un jour sans qu’une société ne se présente comme le Uber de son secteur. Airbnb, Blablacar, et Uber bien sûr, principal intéressé, ces sociétés ont bouleversé les marchés sur lesquels elles ont débarqué sans crier gare. Alors que pas un jour ne se passe sans que les médias ne titre pas sur la bataille Uber-taxis, le cabinet Elia a  souhaité donner la parole aux Français. Alors, pour ou contre l’ubérisation ?


De quoi l’ubérisation est-elle le nom ? Sorti de la bouche de Maurice Lévy, figure historique du groupe Publicis, ce néologisme est aujourd’hui utilisé partout et par tous. A tel point que 77% des Français se disent aujourd’hui capables de donner un avis sur le sujet. 83 % associent ce terme à des offres plus compétitives. Une réponse ni tout à fait positive, ni tout à fait négative, directement suivie par une autre qui laisse peu de doutes sur le sentiment des Français à l’égard de ces nouvelles offres : pour 80% d’entre eux, l’ubérisation est en effet synonyme d’offres mieux adaptées aux attentes des consommateurs.

Si les acteurs de la nouvelle économie sont plus que jamais orientés consommateurs, les Français n’en pensent pas moins que ces nouvelles entreprises engendrent également des emplois plus précaires (pensent 70% des Français) et la destruction de secteurs professionnels (selon 66% des sondés).

Questionnés sur les secteurs impactés par le phénomène, les Français pensent que les trois secteurs les plus concernés sont le transport (81%), l’hôtellerie (57%) et la distribution (42%). En queue de peloton, la justice (pour 7% des Français) qui subit pourtant elle aussi sa petite révolution.

Pour ou contre, tout est une question de casquette

En tant que consommateurs, près de 2 Français sur 3 considèrent que « l’ubérisation est une bonne chose » (64%). Les moins de 35 ans (73%), les demandeurs d’emplois (73%) et les Franciliens (74%) y sont les plus favorables. Mais lorsque les Français sont interrogés en tant que travailleurs, seuls 52% d’entre eux voient alors l’ubérisation comme « une bonne chose ». Ceux qui la considèrent négativement sont particulièrement représentés parmi les plus de 50 ans (61%) et la fonction publique (57%).

Signe de ce dédoublement de perception, près d’un Français sur 5 (17%) considère à la fois : l’ubérisation comme positive si on le questionne en tant que consommateur, l’ubérisation comme nuisible si on l’interroge en tant que professionnel. Mais a-t-on seulement pensé à demander si les Français étaient pour l’utilisation massive de ce néologisme barbare ? Mystère…

les Franais et luberisation

Méthodologie : Enquête réalisée en ligne du 02 au 04 février 2016, sur un échantillon de 1 017 personnes, représentatif de la population française âgée de 18 ans et plus. Méthode des quotas et redressement appliqués aux variables suivantes : sexe, âge, catégorie socioprofessionnelle et région d’habitation de l’interviewé(e).

Les 5 erreurs que commettent les entrepreneurs français

Antoineguo1


Je suis parti pendant six mois aux États-Unis. Pour apprendre l’entrepreneuriat, et pour m’imprégner de tout ce que lesÉtats-Unis ont de mieux à nous offrir. Et on a beau parler de French Tech et critiquer les États-Unis, il faut reconnaître que les Américains ont encore une longueur d’avance sur nous lorsqu’il s’agit de l’art d’entreprendre. Je n’invente rien. Mais voici, selon moi, quelles sont les plus grosses erreurs que l’on commet en France :

Ne pas parler de son idée de peur de se la faire piquer

L’un des premiers trucs que l’on m’a dit lorsqu’on est arrivé aux US :

“Personne ne la volera votre idée, vous savez pourquoi? Parce que votre idée est probablement nulle…” Coup dur quand on entend ça… En fait il fallait savoir lire entre les lignes : l’idée n’est pas nulle, elle n’est pas encore mature. Souvent, on s’emballe quand on se dit qu’on a une idée. L’excitation fait qu’on part dans tous les sens. Le mot idée est donc un peu fort. On devrait plutôt employer le terme germe d’idée, ou intuition. Car ce germe d’idée est voué à évoluer, à se solidifier avant d’être concrétisé. Tout le monde croit que son idée est géniale. Mais une à deux semaines de recherches intensives suffisent à faire redescendre sur Terre. Demandez à n’importe quel fondateur de startup si son idée originelle a été concrétisée. La réponse est non.

“Personne de la volera votre idée, vous savez pourquoi ? Parce que si votre idée est vraiment géniale, vous pouvez être sûr que quelqu’un d’autre a eu exactement la même idée, un mois, si ce n’est un an plus tôt.” Le mythe de “l’idée du siècle” n’existe pas. Tout le monde est créatif, tout le monde a des idées tout le temps. La grosse différence entre ceux qui réussissent et ceux qui ne réussissent pas, c’est que ceux qui réussissent comprennent vite que leur idée ne vaut rien et que tout se joue lors de l’exécution (i.e. la concrétisation de cette idée).

“Idea is 1%, execution is 99%”

D’accord, la chance qu’on nous pique notre idée est faible, mais on ne sait jamais… Pourquoi prendre le risque de la partager ? C’est très simple, il faut réussir à se mettre dans cette logique (très américaine) : on bénéficiera toujours plus du retour sur notre idée que du risque de se la faire piquer. Car ce sont les remarques et critiques qui font qu’une idée avance. Et sait-on jamais, qui vous dit que votre interlocuteur n’est pas un expert du domaine?

“How do you recognize when an Entrepreneur is pitching ? When he opens his mouth!”

Cet esprit d’entraide manque beaucoup en France, et c’est vraiment dommage. Chacun fait les choses dans son coin, il y a une sorte de méfiance injustifiée et omniprésente… S’il y a une chose que j’ai retenue de Berkeley, c’est qu’il faut parler de son idée tout le temps. À tout le monde. Tous les acteurs du problème : utilisateurs, clients, experts, “compétiteurs”. Surtout ses “compétiteurs” d’ailleurs. On apprend énormément de leurs erreurs…

Parler, brainstormer, conceptualiser… et ne rien faire

Ça c’est très français. En France, on aime beaucoup discuter, analyser, conceptualiser… C’est d’ailleurs la raison pour laquelle les mathématiciens français sont si réputés dans le monde. Néanmoins, pour l’entrepreneuriat, cette logique ne marche pas. Les startups sont dictées par l’urgence. L’urgence du marché (i.e. ne pas rater le créneau), l’urgence de la compétition (i.e. faire mieux et plus rapidement que les autres), l’urgence de l’utilisateur (i.e. être réactif aux attentes de l’utilisateur).

“What I look for in Entrepreneurs ? Boldness in vision and focus on execution.”

La grosse différence entre la France et les US, c’est la vitesse. Je n’invente rien, tout est expliqué dans le bouquin d’Eric Ries, The Lean Startup. Pour résumer : mieux vaut aller vite pour sortir rapidement un produit, le tester auprès de ses clients/utilisateurs, récupérer leurs avis, et réitérer, plutôt que de passer du temps à imaginer et aller dans les détails de la conception d’un produit dont les gens ne voudront peut-être pas. Le temps que nous Français sortions un produit, les Américains en seront déjà à la version 7.

Monter sa startup derrière son ordi

Pendant mon semestre à Berkeley, on nous a forcé à aller “parler à nos clients”. On savait pas trop ce que ça voulait dire… En fait, il s’agissait juste de sortir de son bureau, et de ne pas s’enfermer dans sa propre idée, sa propre logique. Toujours s’ouvrir l’esprit, rencontrer des gens, discuter. Le nombre d’opportunités qui se créent dans ce genre de démarche est incroyable.

À Berkeley, on est allé dans la rue. Pour valider des hypothèses, pour comprendre nos utilisateurs. On a rencontré des chirurgiens anesthésistes experts en hypnose, on s’est fait invité par la plus vieille communauté des motards de Californie (la SF Motorcycle Club), on a pitché notre idée devant des investisseurs chinois qui nous ont fait des offres astronomiques de cash. Tout ça en allant dans la rue, en faisant aussi bien des sondages aux sorties de métro, que des meetups divers. On nous disait souvent : “tu peux manger gratuitement chaque jour de la semaine en allant à divers meetups.” Celà n’était pas faux.

Faire un produit dont personne ne veut

Cette erreur rejoint la précédente. L’objectif d’un entrepreneur, c’est de faire un produit/service dont son client est amoureux. Une grosse erreur à ne pas commettre, c’est de faire un produit dont on est le seul à être amoureux. Et on en tombe forcément amoureux, puisque c’est nous qui le créons. L’avis est donc forcément biaisé.

Pour le voir, il suffit de parcourir tous ces outils et produits créés par des grosse entreprises françaises, ou par le gouvernement. On sent la volonté d’incorporer des fonctionnalités qui plaisent, mais très souvent, c’est raté. De A à Z.

Pour éviter cette erreur, il faut constamment aller voir l’utilisateur pour avoir son avis. Il n’y a que ça qui compte. “Créer une petite communauté d’utilisateurs qui vont adorer votre produit vaut mieux qu’une grosse communauté qui l’aime moyennement.” (Sam Altman—YCombinator).

Ne pas oser demander de l’aide

Enfin, la dernière grosse erreur que commettent les Français, c’est de ne pas oser demander de l’aide. De ne pas oser, soit pour l’égo, soit par peur de se prendre un râteau et de se faire ridiculiser. Cette peur est paralysante, et les opportunités peuvent vraiment nous filer sous le nez.

Une manifestation flagrante de cette attitude à la française : la salle de classe. En France, les élèves ne participent que rarement en cours. On a peur de poser des questions naïves et de passer pour un idiot. Aux États-Unis, l’ambiance en salle de classe est différente. Les élèves ont beaucoup moins peur : ils posent des questions, ils osent. Dès leur plus jeune âge, ils sont formés au networking. Pour nous ça nous parait très superficiel, pour eux c’est très naturel.

Un conseil que m’a donné un entrepreneur à succès de San Francisco : “French entrepreneurs need to learn to GRIND and HUSTLE. If you can master this skill, you French will be masters of the world.”

Easier said than done…

Bien sûr, appliquer ces conseils est difficile. C’est presque contre-nature pour nous Français. Néanmoins, les états d’esprit changent, et on voit d’ores et déjà apparaître de très beaux produits au label Made in France sur le marché. Pourvu que ça dure!

d’après l’expérience d’un entrepreneur parti aux US

Quand les Z achèvent le travail des Y

Le sujet Y se cogne la tête sur des modèles de leadership, de management, d'organisation, qu'il ne comprend pas, qu'il ne reconnaît pas. Que fait-il ? Il se casse ou débranche la prise. C'est ça le symptôme Y, malgré un taux de chômage incompressible, nous sommes sur une population avec des taux de mouvement (turnovers) en hausse.
Le sujet Y se cogne la tête sur des modèles de leadership, de management, d’organisation, qu’il ne comprend pas, qu’il ne reconnaît pas. Que fait-il ? Il se casse ou débranche la prise. C’est ça le symptôme Y, malgré un taux de chômage incompressible, nous sommes sur une population avec des taux de mouvement (turnovers) en hausse. (Crédits : Steve Wilson via Flickr)
En septembre dernier, au Positive Economy Forum, Emmanuelle Duez a fait une intervention qui génère un buzz formidable sur Internet, avec près de 70000 vues… Son propos ? Analyser à travers le prisme des générations Y et Z le devenir des entreprises. Diagnostic : chaud devant !

Je commence à en avoir assez que l’on parle de la Génération Y. On en dit tout et n’importe quoi. Baptisée chochotte aux États-Unis, poule mouillée en Allemagne, Me-Me Generation en Angleterre, Yotori (pour agneau) au Japon, de Digital Naive ou de génération soumise, le sujet Y cristallise les aigreurs. Ou oserai-je dire la peur de la perte de sa propre jeunesse par ceux qui s’évertuent tant à la critiquer.

Y ou le symptôme d’un monde en mutation

Regardons cette génération avec bienveillance. En réalité, elle est le symptôme d’un changement qui la dépasse largement. La génération Y, c’est la génération « Quoi ? Quoi ? Quoi ? »,mais surtout, c’est la première génération mondiale. En effet, pour nous, la terre est plate. Il y a aujourd’hui plus de points communs entre un Africain, un Américain, un Asiatique et un Français de 25 ans qu’avec l’un de nos aînés de 55 ans.

Mondiale donc, mais également la prochaine grande génération. Aujourd’hui, 50 % de la population mondiale a moins de 30 ans. Que l’on nous aime ou pas, peu importe, nos comportements deviendront la norme par le seul effet volumique. Nous sommes aussi la première génération dite postmoderne ; nous sommes à l’aube d’une nouvelle ère où tous les modèles économiques, politiques, sociétaux, financiers et environnementaux doivent être réinventés. Kofi Annan parle de nous comme des héritiers sans héritages.

Grande, mondiale, postmoderne donc, mais surtout, nous sommes la première génération numérique. Michel Serres parle à ce titre de la troisième révolution anthropologique majeure de l’humanité. Celle qui a changé la face du globe et qui a accouché d’un enfant, la génération Y. Une génération, façonnée par les valeurs de transparence, de transversalité, d’ouverture, de fluidité, d’interconnexion, d’agilité…

Et la vague numérique, en bouleversant les usages, a bouleversé nos manières de faire, en profondeur. Nous sommes la première génération « omnisciente ». Nos cerveaux sont à portée de main, dans nos poches de jeans, à un clic de la connaissance mondiale. Ce « 207e os » dont parle l’amiral Lajous ou cette présomption de compétence dont parle Michel Serre, changent le rapport à l’autorité, au père, au statuaire, à la hiérarchie et donc à l’entreprise.

Finalement, n’est-ce pas cela la génération Y, une génération massive qui arrive dans un monde à réinventer avec un super-pouvoir entre ses mains : le numérique. Aujourd’hui, un clavier suffit pour faire tomber un gouvernement. L’individu n’a jamais été aussi puissant Et si c’était cela le sujet Y : un momentum, un contexte, un pouvoir et des hommes ? Le sujet Y dans les entreprises fait des étincelles ! Il vient d’un monde ou l’agile mange l’inerte. Et aujourd’hui, il entre de manière massive par la base de la pyramide des organisations.

Quand le Y percute l’entreprise

Il arrive dans le royaume où jusqu’à présent c’était le gros qui mangeait le petit. Le sujet Y se cogne la tête sur des modèles de leadership, de management, d’organisation, qu’il ne comprend pas, qu’il ne reconnaît pas. Que fait-il ? Il se casse ou débranche la prise. C’est ça le symptôme Y, malgré un taux de chômage incompressible, nous sommes sur une population avec des taux de mouvement (turnovers) en hausse. On assiste à des compétitions de démission (job out) : « Hey, j’ai démissionné de mon CDI au bout de six mois, qui fait mieux ? »Les adultes, nos parents, ne comprennent pas. Leur réflexe : «C’est quoi cette génération d’enfants « pourris gâtés », qu’on a trop aimés ? Ils ont vu le marché de l’emploi ? Ils croient vraiment qu’autre chose est possible ? »

La réponse est : peut-être. La génération Y porte sur l’entreprise un regard radicalement différent. Elle est en mesure de transformer profondément l’entreprise de l’intérieur. Cette jeunesse fait un pari : faire passer le pourquoi avant le comment, la flexibilité avant la sécurité, l’exemplarité avant le statutaire, l’ambition de s’accomplir avant celle de réussir. Elle juge son épanouissement à travers ses propres yeux et non ceux des autres.

Cette jeune génération sait que personne ne l’attend sur le marché de l’emploi, alors elle rêve d’un autre monde. Elle sait que l’entreprise ne pourra pas lui promettre ce qu’elle a promis à ses parents. Alors elle s’invente une autre épopée et se dit plutôt que d’aller très haut, très vite, très loin : j’irai à côté. Bébé de la précarité, subie ou intégrée, je dessinerai ma vie comme un chapelet avec une série d’expériences professionnelles toutes différentes, « kiffantes », à hautes valeurs ajoutées. Et je me dirai qu’à la fin cela fait sens, et ce sens, ce sera le mien.

Aux Etats-Unis, plus de « freelances » que de CDI

Alors même que les uns commencent à comprendre ce qu’est la génération Y, voici que débarquent les Z… Nous avons interrogé 3000 jeunes de moins de 20 ans pour connaître leur vision de l’entreprise. Nous cherchions à savoir si, comme l’espèrent les chefs d’entreprise et le prédisent Strauss et Moss, les deux spécialistes de l’intergénérationnel, il y aura guerre entre nos générations. Les Z vont-ils terrasser les Y ? Que disent-ils ? Leur réponse tient essentiellement en trois mots : « l’entreprise est dure, cruelle : c’est une jungle. »

La bonne nouvelle ? Cinquante pour cent d’entre eux imaginent dans l’avenir devenir entrepreneurs. C’est-à-dire devenir leurs propres patrons. Avant, l’entreprise faisait l’honneur à un salarié de lui donner un job. Avec la génération Y, on est passé de la subordination à la collaboration. Les jeunes sont dans une relation gagnant-gagnant de court terme : « Montrez-moi ce que vous avez à m’offrir, je vous dirai ensuite si j’ai envie de m’engager. » La génération Z achève la transformation : « Ce n’est pas l’entreprise qui va me faire l’honneur de me donner un travail, c’est moi qui ferai l’honneur à une ou plusieurs entreprises de mettre à disposition mon talent et mes compétences. » Le changement de paradigme est total. Le centre d’emploi n’est plus l’entreprise, c’est le Z. D’ailleurs, aux États-Unis, pour la première fois, il y a plus de travailleurs indépendants que de CDI. C’est une tendance lourde.

Quand on leur demande combien de métiers les Z auront demain, ils répondent l’infini. Ils n’ont pas tort. On prévoit d’ores et déjà que demain les moins de 30 ans pratiqueront environ 13 métiers dans leur vie, la plupart de ces métiers n’existant pas encore aujourd’hui.

Les Z s’interrogent donc, et à juste titre : « Dans un monde régi par l’obsolescence des compétences, à quoi sert de passer un bac + 1000 pour préparer un job qui n’existe pas encore ? À quoi ça sert l’école ? Le diplôme ? » Que signifie dès lors «Bonjour, M. X, 55 ans, Insead… » Plus grand-chose. Le Z sera donc l’entrepreneur de sa propre formation. Demain, l’entreprise qui sera en mesure de le séduire et de le retenir sera une entreprise apprenante. Elle deviendra une école.

Par Emmanuelle Duez

Que coûte et que rapporte l’entreprise libérée ?

Beaucoup d’entreprises traditionnelles pratiquent la « mobilité interne », mais combien parmi elles offrent à leurs « salariés de base » - un opérateur, un mécanicien, une caissière - d’évoluer vers des responsabilités dites « managériales » ? (Photo: Déborah François dans le film français de Pierre Rambaldi, "Les Tribulations d'une caissière", sorti en salles mercredi 14 décembre 2011.

Hyacinthe Dubreuil (1883-1971), le premier auteur français qui, dans les années 1930-1940 a postulé la liberté d’action de l’ouvrier comme le principe fondamental de l’organisation de l’entreprise, aimait citer un grand zoologiste du XIXe siècle :« Toutes les fois qu’un fait nouveau et saisissant se produit dans la science, les gens disent d’abord : Ce n’est pas vrai. Ensuite : C’est contraire à l’ordre et à la religion. Et à la fin : Il y a longtemps que tout le monde le savait ! ». En d’autres mots, il prévoyait que sa théorie de transformation radicale du lieu de travail serait d’abord reçue comme fausse ou dangereuse, et terminerait comme une évidence, voire, galvaudée (il considérait cette dernière possibilité comme la plus inquiétante).

Lire aussi : Faire confiance est-il vraiment dangereux? L’expérience Chrono Flex de l’« entreprise libérée »

Exemple d’évidence : la surperformance des entreprises libérées serait due à une réduction de coûts salariaux, conséquence du départ des cadres et de leur remplacement par des responsables payés à des salaires de non-cadres. Mais ce n’est pas si simple. « C’est vrai que chez nous, les team-leaders (animateur d’équipe), bien que bénéficiant d’une augmentation qu’ils conservent même au-delà de la période de trois ans pour laquelle ils ont été élus, ne sont pas payés comme les anciens encadrants », confirme Alexandre Gérard, PDG de l’entreprise libérée Chrono Flex. Mais « la masse salariale globale a augmenté », dit-il. Car les coûts salariaux sont gérés autrement. « On tente de ne laisser personne au bord du chemin », précise-t-il.

Ceci n’a pas beaucoup de sens de point de vue de l’entreprise traditionnelle. Mais justement, Chrono Flex n’en est pas une. Ses pratiques organisationnelles ne visent pas des performances financières, mais la satisfaction des besoins universels des hommes et des femmes qui y travaillent.

Mobilité professionnelle

Ce qui implique une mobilité professionnelle. Beaucoup d’entreprises traditionnelles pratiquent la « mobilité interne », mais combien parmi elles offrent à leurs « salariés de base » – un opérateur, un mécanicien, une caissière – d’évoluer vers des responsabilités dites « managériales » ? Combien de ces entreprises ont en leur sein des responsables comme Régis Marchetti qui explique que chez FAVI – la pionnière de libération d’entreprises en France -, « même avec un CAP, on peut diriger trente personnes ». Ailleurs, précise-t-il, ils ont des titres de « chefs d’ateliers », des diplômes. Leurs missions ne sont pas accessibles aux « simples salariés de base ».

PHILOSOPHES, LES ENTREPRISES LIBÉRÉES SONT CONVAINCUES QUE SI LEURS CO-ÉQUIPIERS ONT ENVIE D’INITIATIVE, ILS VONTDONNER LE MEILLEUR D’EUX-MÊMES ETRENDRE LEUR ENTREPRISE AGILE, CRÉATIVE ET INNOVANTE

Pas chez FAVI, ni chez Chrono Flex. Dans ces entreprises « libérées », si un opérateur ou un mécanicien souhaite se réaliser dans les activités de leader (responsable) et… est coopté par ses collègues, il peut satisfaire son aspiration. C’est d’ailleurs le cas de majorité de leaders dans ces entreprises. Quant aux anciens managers, ils ont eu la possibilité de se diriger vers d’autres missions qu’ils ont eues l’envie de mener au sein de l’entreprise, et ainsi de se réaliser également. Mais puisqu’à leurs salaires, l’entreprise doit ajouter les augmentations pour les nouveaux leaders, la masse salariale augmente.

Cette hausse des coûts n’est pas unique dans l’entreprise libérée. Prenons, par exemple, l’organisation des équipes terrain en « speed boats » autodirigées comme c’est le cas chez Chrono Flex, inspiré des « mini-usines » de FAVI. Chacune d’elle s’occupe des recrutements ou des investissements pour mieux accomplir la vision de l’entreprise.

S’autodiriger plutôt que d’être dirigés

La conséquence : de nombreux doublons qui « coûtent », en comparaison aux économies d’échelle obtenues par la centralisation des services de support (ressources humaines, informatique, etc..). Encore un paradoxe de point de vue de l’entreprise traditionnelle. Mais l’entreprise libérée ne s’inscrit pas dans une perspective purement comptable. Elle vise aussi à répondre aux besoins de ses salariés de s’autodiriger, plutôt que d’être dirigés.

Philosophes, les entreprises libérées sont convaincues que si leurs coéquipiers ont envie d’initiative, ils vont donner le meilleur d’eux-mêmes et rendre leur entreprise agile, créative et innovante : le Graal auquel toute entreprise veut parvenir.

Ce Graal est la résultante de l’environnement qui satisfait les besoins fondamentaux des salariés. On comprend pourquoi il échappe tant aux entreprises qui essaient de leforcer à coups d’investissements dans la R&D ou autres « programmes d’innovation ». Un salarié prendra une initiative non pas parce qu’il y est obligé par son contrat d’emploi, mais parce qu’il aura envie de le faire.

L’intérêt de l’entreprise

Ce n’est pas le cas de tous les salariés. L’entreprise libérée n’est pas un monde de « Bisounours ». A côté de la possibilité de décider, de se réaliser et de prendrel’initiative, il y a aussi l’autodiscipline – l’exigence et la responsabilité d’agir toujours dans l’intérêt de l’entreprise et de sa vision.

Cette exigence n’est pas du goût de tous. C’est normal. L’entreprise traditionnelle – qui a façonné les comportements de la majorité de salariés – est construite autour de pratiques individualisées, voire individualistes : le recrutement individuel, l’évaluation individuelle, la promotion individuelle, les primes individuelles.

Mais l’expérience des entreprises libérées françaises de la première génération (FAVI, SEW Usocome, Bretagne Atelier) et de la deuxième génération (Chrono Flex, Poult, IMATech, SYD Conseil, Biose) montre que la majorité des salariés accepte cette exigence. En d’autres mots, ils préfèrent s’autocontrôler plutôt que d’être contrôlés.

Tout ceci relève du bon sens, disent beaucoup de patrons. En effet, ils sont de plus en plus nombreux à considérer que faire confiance, révéler les dons des salariés, leur permettre de s’autodiriger relève du bon sens. C’est tellement évident qu’ils le disent tous.

Approche « silencieuse »

Mais si l’entreprise libérée relève du bon sens, libérer l’entreprise ne l’est pas du tout. « Lorsque vous annoncez d’une voix tonitruante ’Je vais mettre la confiance au cœur de l’organisation et vous allezdisposer d’une véritable liberté d’action !’’, vous délivrez une promesse qu’il vous sera très difficile de tenir », explique Alexandre Gérard. En effet « vous n’annoncez rien de moins qu’une transformation deculture au sein de votre entreprise, ce qui demande des années. Alors durant des mois, voire des années que vos équipiers resteront confrontés aux procédures, aux reportings et à leur petit chef, que diront-ils de votre promesse ? », ajoute-t-il.

Les patrons qui ont réussi à libérer leur entreprise ont privilégié une approche pas à pas, qu’Hyacinthe Dubreuil appelle « silencieuse ». Plutôt que de parler, ils ont démontré, par les actes, leur respect et leur confiance en leurs collaborateurs. Les actes, mieux que les mots, préparent le terreau favorable à la transformation. Par exemple, Michel Munzenhutter, chez SEW Usocome, a commencé par garer savoiture dans le parking des ouvriers et Jean-François Zobrist par murer la fenêtre qui « surveillait » l’atelier à partir du bureau du « grand chef ».

C’est une fois que les salariés ressentent le changement dans leur quotidien, dans la satisfaction de leurs besoins fondamentaux, à commencer par le respect et la confiance, et donc, dans leur bien-être, qu’ils commencent à croire en la libération de leur entreprise.

  • Isaac Getz (Professeur à l’ESCP Europe)

 

ENTREPRENEUR, POUR RÉUSSIR VOTRE OPÉRATION DE CROISSANCE EXTERNE, 5 CONSEILS À SUIVRE !

Entrepreneur, pour réussir votre opération de croissance externe, 5 conseils à suivre !

LEVIER DE CROISSANCE INCONTOURNABLE, LA CROISSANCE EXTERNE EST UN OBJECTIF AMBITIEUX. IL NÉCESSITE UNE STRATÉGIE, UNE FORTE IMPLICATION, UNE ORGANISATION INTERNE… ENTREPRENEUR, VOUS DEVEZ METTRE EN PLACE PLUSIEURS ACTIONS POUR ÉVITER LES PIÈGES ET FAIRE QUE CETTE FUSION ABOUTISSE SEREINEMENT.

Devenir leader du marché, bénéficier d’économies d’échelle, profiter de nouvelles compétences, atteindre une nouvelle clientèle, s’ouvrir à l’international… les avantages de la croissance externe ne manquent pas. On assiste d’ailleurs à environ 60 000 reprises d’entreprises chaque année en France, effectuées à 94 % par des PME et des ETI. Mais cette opération ne s’improvise pas : voici 5 conseils pour éviter les pièges et ainsi assurer pérennité et réussite à votre entreprise.

1) Intégrez le processus de croissance externe dans un plan stratégique à long terme

Par le coût humain et financier qu’elle représente, la reprise d’une entreprise doit être préparée bien en amont. En vous basant sur votre plan stratégique, vérifiez que l’opération de croissance externe que vous souhaitez engager est cohérente avec vos objectifs quantitatifs et qualitatifs, ainsi qu’en terme de timing pour votre entreprise. Attention également au retour sur investissement : l’opération doit être viable et rentable, sauf à affaiblir votre groupe.

2) Halte à la précipitation, prenez votre temps

Il est nécessaire d’évaluer précisément sa cible et de prévoir suffisamment de temps pour la période d’audit et de négociation. Une opération de croissance externe dure généralement plusieurs mois : il est conseillé pendant cette période de bien communiquer avec les autres actionnaires, notamment s’ils ne participent pas aux discussions pour que tout se passe sans accroc.

Veillez également à construire des relations de confiance et de partenariat avec le cédant. Définissez un plan d’action clair et détaillé pour que vos managers comprennent ce qui se passe, se projettent dans l’opération au bon moment, et comprennent leurs responsabilités.

3) Faites-vous aider d’une tierce personne

Les dirigeants de PME ont souvent le réflexe de vouloir tout gérer tout seuls et s’en remettent parfois à leur bonne étoile. Or, pour minimiser tout risque en amont, la participation de personnes extérieures (experts comptables, avocats et conseillers juridiques notamment) est conseillée. En plus de vous aider à envisager l’opération de croissance externe avec sérénité, les experts apportent un œil extérieur et une expérience qui peut être utile. Créez également un comité de pilotage où les responsables de votre société et du cédant collaboreront en amont pour aborder le changement collectivement.

4) Mettez en place une politique RH pour assurer cohésion et esprit d’appartenance

Acquérir une entreprise impacte également l’entreprise acheteuse, ne l’oubliez pas ! ; il faut donc veiller à rassurer ses salariés « historiques » pour qu’ils ne se sentent pas lésés et intégrer ses nouveaux collaborateurs pour qu’une cohésion se crée.

Le service RH doit alors mettre en place de nombreuses actions pour instaurer un sentiment d’appartenance à cette nouvelle entité. Établissez suffisamment en amont le nouvel organigramme pour que chacun saisisse son rôle dans l’organisation. Une fois effective, la fusion des sociétés doit occasionner une intégration rapide des collaborateurs. On parle souvent de l’importance des  100 premiers jours.

5) Une fois la fusion effectuée : assurez la continuité

Une opération de croissance externe demande de nombreux efforts et la tentation est grande de passer rapidement à autre chose. Or, gardez quelques collaborateurs dédiés à l’intégration pour garantir un climat social apaisé sur le long terme. Définissez un plan d’action précis, qui vous permettra d’évaluer à moyen terme si l’opération porte ses fruits. Misez sur la communication interne et externe, et auprès de vos fournisseurs et prestataires.

La croissance externe est une opération sérieuse qui appelle à la prudence et qui nécessite de ne pas être prise à la légère, mais ses nombreuses opportunités en font un levier de croissance incontournable. Les ETI en ont toutes fait une étape obligatoire.

Nicolas Beaudouin et Philippe Dumas

Comment passer maître dans l’art de la présentation

presentationPlusieurs fois par an, un groupe de dirigeants de start-up fait une démonstration de 6 minutes pour présenter ses produits à des investisseurs en capital-risque, des analystes et des journalistes. Le nom de cet événement est donc, en toute logique, DEMO.

Il s’agit d’une grande opportunité, surtout si vous savez comment ça se passe : les entrepreneurs agissent comme s’ils n’avaient pas besoin d’investisseurs, et ces derniers comme s’ils n’avaient pas besoin d’entrepreneurs. (Ce qui reviendrait à prétendre que vous êtes au régime au salon du chocolat.)

Cette publication s’adresse à tous ceux qui doivent réaliser une présentation efficace, que ce soit lors d’une conférence DEMO ou ailleurs. Savoir réaliser une bonne  « prés » est une compétence essentielle pour lancer un produit, mobiliser des fonds, conclure une vente, réunir la presse et recruter des employés ; d’où l’importance de s’entraîner.

  • Créez un produit digne d’être présenté. Pour devenir un pro de la démo, commencez par créer un super produit à présenter. Les présentations constituent en effet une excellente opportunité en matière de relations publiques. Mais il faut s’en servir lorsque vous êtes prêts, et non lorsque l’opportunité s’offre à vous. Si votre produit est médiocre et que vous n’en faites pas la démo, vous serez le seul à savoir qu’il est quelconque. Si vous en faites la démo, le monde entier le saura.
  • Prenez vos précautions. En matière d’équipements électroniques, les doublons ne sont jamais de trop. Partez du principe que vos appareils vont tomber en panne la veille de votre démo. Prévoyez donc d’emmener deux, voire trois, ordinateurs, téléphones, clés USB. En bref, tout ce dont vous avez besoin pour réussir votre démo.
  • Organisez-vous en avance. Vous ne devez jamais avoir l’air dépassé (par exemple, en recherchant des dossiers et des fichiers sur votre disque dur). Vous avez des semaines pour préparer ces 6 minutes. Ne gâchez pas tout en ne vous y préparant pas à l’avance.
  • Écartez les facteurs que vous ne pouvez pas maîtriser. Aurez-vous accès à Internet pendant votre démo ? Oui, mais prévoyez une solution de secours au cas où. Bien sûr, l’hôtel dispose d’un accès Internet, mais que se passera-t-il si des centaines de personnes l’utilisent en même temps ? Mieux vaut simuler l’accès Internet à votre serveur. Vous n’êtes pas obligé de montrer le vrai système. Après tout, il ne s’agit que d’une démo.
  • Commencez dans « le choc et la stupeur ». J’ai emprunté cette formulation à mon ami Peter Cohan, auteur du livre « Great Demo!: How To Create And Execute Stunning Software Demonstrations« . D’après lui (et c’est aussi mon avis), vous disposez d’environ une minute pour captiver votre audience. Alors, n’attendez pas pour atteindre l’apogée de votre présentation. « Choc et stupeur » : voilà les émotions suprêmes que votre produit doit générer. Le but est d’impressionner votre audience dès les premières secondes.
  • Faites une croix sur les blagues. Vos blagues sont-elles drôles ? Réponse : non. Peu de personnes sont suffisamment drôles pour arriver à placer une blague. L’inconvénient d’une blague ratée (outre la perte de confiance et d’élan) est bien supérieur à l’avantage apporté par une blague réussie.
  • Faites cavalier seul. Un pro de la démo travaille seul. Peut-être pensez-vous qu’une présentation est plus efficace lorsqu’elle est réalisée par les deux co-fondateurs, et que ce sera l’occasion de montrer à tout le monde à quel point vous vous entendez bien. Mais l’exercice s’avère déjà assez difficile pour une personne seule. Alors, essayez de faire une présentation interactive à deux est quatre fois plus difficile. Si vous voulez faire un duo, allez au karaoké.
  • Exit le jargon. L’utilisation d’un langage simple et succinct est la clé du succès. Votre logiciel peut être le meilleur du monde, mais le client ou le partenaire logiciel de l’entreprise d’investissement de vos rêves se trouve dans l’audience. S’il ne comprend pas votre démo, il ne risque pas d’en parler à ses collègues de retour au bureau. L’audience doit être impressionnée par ce qu’elle voit, et non par ce qu’elle entend.
  • Gardez les questions pour la fin. À la conférence DEMO, il n’y a pas de temps pour les questions (heureusement). Dans tous les cas, vous devez toujours répondre aux questions à la fin car vous ne pouvez jamais savoir à l’avance ce qui va vous être demandé. Or elles peuvent faire capoter votre présentation.
  • Terminez en beauté. Démarrez sur une bonne note. Après les avoir impressionnés, revenez sur vos pas et montrez-leur comment procéder. Non seulement l’objet de votre démo est sensationnel, mais vos explications sur son mode d’utilisation le rendent accessible, même pour de simples mortels. Et finissez en beauté. C’était le tour de passe-passe fétiche de Steve Jobs ; il avait toujours « un petit truc en plus » en réserve.

J’ai donné ces conseils à des centaines de start-up, et des centaines de personnes les ont lus en ligne ; mais malgré cela, la plupart des démos ne sont toujours pas à la hauteur. En effet, ces personnes pensent que mes conseils s’adressent uniquement à la masse inculte qui n’a pas de produit en attente de brevet, scientifiquement révolutionnaire, ou encore innovant, contrairement à elles, et que cette masse n’est pas dotée de talents de présentateurs comme elles.

Vous vous comptez peut-être parmi ces personnes. Mais vous auriez tort. Apprendre à faire une présentation qui tue ne sera pas une partie de plaisir.

A propos de Guy Kawasaki : il est actuellement l' »évangéliste en chef » de Canva et l’ancien « évangéliste en chef » d’Apple . Il est l’auteur de treize ouvrages, dont The Art of Social Media: Power Tips for Power Users, APE: Author, Publisher, Entrepreneur — How to Publish a Book, What the Plus!, et Enchantment: The Art of Changing Hearts, Minds and Action. Il partage des bonnes pratiques sur les thèmes du marketing, des médias sociaux , de l’écriture, de l’auto-édition, de l’innovation et du capital-risque .

Cette publication est un court extrait du dernier livre de Guy Kawasaki : The Art of the Start 2.0.