Category Archives: Changement

5 clés émotionnelles pour obtenir plus de recommandations.

emotion.png

Pourquoi l’un de vos contacts engagerait-il sa crédibilité pour vous recommander à quelqu’un ? Découvrez comment générer des émotions positives qui permettent de favoriser cette dynamique du bouche-à-oreille essentielle pour votre activité.

La recommandation est essentielle pour un entrepreneur à qui elle permet de tirer bénéfice d’un écosystème relationnel trop souvent sous-exploité. Mais ce bouche-à-oreille positif est loin d’être automatique… Comme la majorité des comportements humains, il est le fruit de mécanismes inconscients, étroitement corrélés à nos états émotionnels : confiance, désir, sentiment de sécurité, gratitude, estime… mais aussi : regret, peur, doute, méfiance… Découvrez les 5 clés émotionnelles qui vous aideront à obtenir plus de recommandations et à enclencher une dynamique vertueuse créatrice de business.

Clé n°1 : alimentez le sentiment de sécurité.

Le sentiment de sécurité est la nappe phréatique d’où jaillit le sentiment de confiance. Inutile d’escompter que l’on vous recommande si vous n’inspirez pas confiance ! Veillez donc à alimenter chez les autres un fort sentiment de sécurité, cela aura pour conséquence de faire tomber les barrières qui empêchent votre entourage de propager la bonne parole. Pour cela, mettez en avant vos références ! Glanez des témoignages clients ! Travaillez également votre congruence (adéquation entre vos paroles, vos gestes et vos actes). Montrez-vous fiable ! Tenir vos engagements adresse un message fort à votre écosystème relationnel : c’est une preuve de fiabilité.Enfin, utilisez pleinement ce que l’on nomme la validation sociale : si A, B, C et D vous ont déjà fait confiance, eh bien, faite le savoir à E et F ! Cela instillera dans leur cerveau limbique (siège des émotions) un surplus de sentiment de sécurité propre à alimenter la confiance ressentie à votre égard.

 

Clé n°2 : cultivez le sentiment d’appartenance.

Le sentiment d’appartenance exerce un formidable levier sur les comportements d’autrui. Il tire sa source de l’instinct tribal, des réflexes grégaires et communautaires ancestraux, ceux-là même qui font les nations et construisent les grandes épopées entrepreneuriales ! L’homme, animal social, se comporte favorablement envers les autres s’il lui est donné departager quelque chose avec le groupe. C’est cette notion de partage que vous devez impérativement chercher à cultiver au sein même de vos relations. C’est cela qui noue les liens les plus solides ! Que pouvez-vous mettre en commun avec vos relations ? Eh bien, des valeurs par exemple ! Une passion, une histoire, une origine, des expériences, une école…vous avez forcément quelque chose à partager ! Dans cette optique, déterminer un objectif commun est également très pertinent, notamment en matière de management.

 

Clé n°3 : marquez les mémoires grâce à vos singularités.

Le cerveau humain est ainsi fait qu’il retient plus aisément ce qui se distingue de la masse, ce qui présente une singularité. De cette différence née une émotion et c’est précisément ce phénomène émotionnel qui vaengramer la mémoire. Pour favoriser les comportements de recommandation à votre égard, mieux vaut donc laisser une trace dans l’esprit des personnes que vous croisez.
Dans cette optique et selon les latitudes permises par votre secteur, misez par exemple sur un nom de marque décalé (ex : misterbell.com), un logo original, un dress-code anticonformiste ou bien encore un packaging surprenant. La société Zappos.com a érigé la relation client au rang de religion : ses téléconseillers s’évertuent constamment à surprendre les clients, ceci afin de créer un marqueur émotionnel et mnésique propice au bouche-à-oreille !

 

Clé n°4 : devenez une borne énergétique !

Certaines personnes puisent dans l’énergie du groupe : ce sont des profils dits énergivores qui n’amènent que stress, colère, jalousie et méfiance. À l’inverse, il existe des individus qui alimentent le groupe : tels de véritablesbornes énergétiques, ils instillent de la joie, du plaisir, de l’optimisme et de la confiance dans leur écosystème relationnel. Faites partie de ceux-ci ! Devenir une borne énergétique vous rendra naturellement magnétique et charismatique. Gardez à l’esprit que l’être humain agit comme une sorte d’éponge affective : la contagion émotionnelle, positive ou négative, est un phénomène puissant. Prenez-en conscience dans le cadre de votre démarche réseau. Notre conseil : lors de chaque situation d’interaction (famille, amis, business etc.) demandez-vous si vous êtes plutôt énergivore, neutre, ou bien énergisant pour le groupe ?

 

Clé n°5 : start with why.

Peut-être avez-vous eu l’occasion de visionner sur Ted.com la conférence de Simon Sinek Comment les grands leaders inspirent l’action ? Si ce n’est pas le cas, allez-y sans plus tarder !!! Vous comprendrez, en tout juste 18 minutes, sur quels schémas sont construits les messages inspirants et comment les grands leaders sont capables de fédérer des millions de personnes derrière eux. La bonne nouvelle est que ce mode de communication est réplicable dans le cadre de la recommandation d’affaires.Start with why (commencez par le « pourquoi » des choses) : dire « pourquoi » vous faites ce que vous faites plutôt que de se focaliser uniquement sur « ce que » vous faites est un renversement de paradigme qui possède une vertu miraculeuse ! Le « pourquoi » dévoile le SENS de votre activité et c’est précisément ce sens qui va entrer en résonance avec votre entourage.Vous connaissez cette métaphore sur la vente: au ski, mieux vaut vendre le plaisir des descentes que des forfaits de remonte-pentes ! Pourquoi ? Eh bien, parce que l’information simple est traitée par le néocortex, siège de la raison, alors que le sens met simultanément en œuvre le néocortex ET lecerveau limbique, siège des émotions. Rappelez-vous bien de ceci : en matière de comportements, l’être humain obéit bien plus souvent à ses émotions qu’à sa raison !

 

Par Sean Luzi. Conférencier, co-auteur de Mobilisez vos ressources émotionnelles chez Dunod, créateur d’Emosapiens.com, magazine en ligne qui a pour mission de propager le virus entrepreneurial

 

Pourquoi créer sa start-up en France ?

french tech

La France n’est pas toujours perçue comme un pays propice à l’entrepreneuriat. Pourtant la réalité est différente. L’écosystème Français est un formidable terreau pour la personne qui souhaite lancer sa start-up.

Aux Etats-Unis et au Royaume-Uni, une rhétorique anti-française s’est développée au sein de certains milieux conservateurs autour de l’idée de déclin économique et d’un modèle de société obsolète.

La réalité est, selon nous, bien différente. Le volontarisme français en matière de création d’entreprises et, singulièrement de soutien au secteur numérique, est de plus en plus marqué et de nombreux dispositifs d’aide ont été mis en place.

Aujourd’hui, la France est d’ailleurs en passe de rattraper l’Allemagne en matière d’investissements dans les start-up. Si en 2015 Paris se classe toujours à la 3e place du palmarès européen en matière de levées de fonds, selon le baromètre EY, les investissements, tirés par le secteur de l’Internet (représentant 1/3 du montant investi), ont quasiment doublé pour atteindre près d’1,8 milliards d’euros.

Quels sont les atouts français en matière d’entrepreneuriat et quelles sont les principales étapes de la création et du financement des start-ups françaises ?

Création de start-ups : un environnement socio-économique favorable

La France constitue tout d’abord un vivier de talents exceptionnels pour les projets à forte coloration technologique. Des ingénieurs formés par plusieurs centaines d’écoles d’ingénieurs, parmi les meilleures au monde peuvent être associés aux projets. Même si le marché est désormais global, les coûts salariaux des ingénieurs développeurs sont globalement moins importants que dans des zones telles que la Silicon Valley.

Les structures françaises d’accompagnement des start-up (incubateurs, accélérateurs, etc.) se multiplient et proposent des conditions très favorables. Par exemple, l’incubateur parisien AGORANOV est particulièrement réputé pour la qualité de ses soutiens aux projets innovants. La future Halle Freyssinet, ayant vocation à devenir le 1er incubateur numérique dans le monde, est également emblématique de l’ambition française.

Au-delà de l’attractivité de ses centres urbains et de ses infrastructures, la France présente aussi l’avantage d’avoir opté pour une organisation de son vaste réseau d’entrepreneurs. C’est ainsi notamment que, sous la bannière French Tech, sont coordonnées de multiples actions en faveur des start-ups à travers le monde.

Sur le plan juridique et administratif, les choses ne sont pas si kafkaïennes que parfois présentées. Par exemple, EY estimait déjà en 2013 que 7 jours suffisaient pour créer son entreprise en France. Ceci est d’autant plus vrai aujourd’hui avec l’essor très rapide de plateformes de création d’entreprises en ligne telles que Legalstart.fr.

Le financement des start-ups françaises : un amorçage facilité

Au stade de l’amorçage, la France se caractérise par une multitude de dispositifs d’aides permettant de limiter le recours à une dilution capitalistique.

Avant tout, il est possible de cumuler des aides en parallèle de la création de votre start-up :- Exonération partielle de charges sociales en début d’activité via l’aide au chômeur créant ou reprenant une entreprise (ACCRE) ;- Cumul indemnisation chômage Pôle Emploi et rémunération de votre activité avec l’aide au retour à l’emploi (ARE).- Incubateurs vous permettant d’être hébergé dans des locaux à loyers modérés avec une mutualisation des services de base (accueil, secrétariat, etc.) ;

– Aides de la part d’UBI France pour la réduction des coûts à l’export.

L’éligibilité à de multiples concours (tant privés que publics), fonction de l’activité, permet d’envisager sérieusement des compléments de financement. Certains, comme celui de l’innovation numérique (CIN) organisé par Bpifrance, permettent d’obtenir des subventions jusqu’à 500.000 euros.

Des prêts d’honneur octroyés par des structures associatives (comme Scientipôle Initiative ou le Réseau Entreprendre) constituent une autre modalité de financement spécifique tout comme les financements bancaires à conditions préférentielles proposés par Bpifrance.

Enfin, des dispositifs fiscaux et sociaux incitatifs : Jeune entreprise innovante(JEI), Crédit d’impôt recherche (CIR), etc. ont été déployés pour faciliter l’amorçage et le développement des projets innovants. Par exemple, sous condition d’un investissement suffisant en R&D, le statut de jeune entreprise innovante (JEI) permettra à votre entreprise nouvellement créée de bénéficier de déductions fiscales et de charges sociales.

Enfin, en ce qui concerne les premières levées de fonds, le marché français compte de très nombreux capitaux-risqueurs spécialisés dans l’amorçage et le « early stage ». Les solutions initiales de financement sont donc nombreuses et assez facilement accessibles.

Un recours au capital-risque plus compliqué mais en forte progression

Lorsque les start-up françaises se tournent vers des modes de financement à plus grande échelle comme le capital-risque (défini par des montants investis compris entre 2 et 10 millions d’euros) voire le capital-développement (pour des montants supérieurs à 10 millions d’euros), les choses sont en revanche parfois moins favorables. Si un certain nombre de dispositifs incitatifs ont été mis en place (ex : les Fonds communs de placement dans l’innovation – FCPI), l’impact reste limité et le bât blesse quelque peu sur ce point. En comparaison de certains hubs comme la Silicon Valley, il est beaucoup plus difficile de se financer en France pour des investissements très significatifs. Par exemple, c’est bien auprès de fonds américains que BlaBlaCar a levé 200 millions de dollars l’année passée. Plus largement, deux-tiers des levées de fonds supérieures à 10 millions d’euros sur le Vieux Continent font intervenir des fonds basés Outre-Atlantique. Encore faut-il être suffisamment visible et attractif pour susciter l’intérêt de fonds étrangers.

Les pouvoirs publics tentent de réorienter les activités de financement des fonds français vers des montants plus importants. L’une d’entre elle a consisté en la mise en place du fonds « Large Venture » (doté de 600 millions d’euros) par lequel Bpifrance co-investit avec des investisseurs privés dans des tickets supérieurs à 10 millions d’euros. Il est d’ailleurs fort probable que le paysage du capital-risque français va évoluer significativement dans les cinq prochaines années et voir émerger des acteurs capables d’accompagner les futurs champions français en « late stage « ou en « capital-croissance »Selon Bpifrance, il suffirait d’une demi-douzaine de fonds de capital-risque de 300 millions d’euros pour offrir aux start-ups françaises une véritable capacité de croissance.

Chronique de Pierre Aïdan

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.

 

Ces méthodes de recrutement qui n’existaient pas il y a 10 ans

En suivant les évolutions de la technologie, le recrutement a évolué. Nous le voyons au quotidien avec les clients que nous accompagnons, il peut être difficile de s’y retrouver entre les différentes méthodes qui ont émergé, et de nouvelles plateformes apparaissent tous les jours. Petit tour d’horizon des grandes méthodes qui ont pris leur envol en 10 ans, que nous avons expérimentées nous-mêmes au sein de 231e47 ou en accompagnant des grands groupes.

Réseaux sociaux

Vous ne vous imaginez plus recruter sans eux, et pourtant ils ne faisaient pas encore vraiment partie de votre vie il y a 10 ans. Il s’agit bien évidemment des réseaux sociaux. En 2006, LinkedIn ne s’était pas vraiment développé à l’international, Facebook n’avait pas lancé ses pages entreprises, Twitter était à peine naissant. Les recruteurs n’avaient pas ma même opportunité d’utiliser le sourcing pour toucher les candidats passifs, les entreprises ne pouvaient pas construire de marque employeur en dehors de leur site web, la conversation entre les candidats et les entreprises n’existait pas. Vous ne pouviez pas avoir de données sur votre communauté de candidats ou sur différencier votre discours en fonction de votre public. Les réseaux sociaux se sont profondément ancrés dans les pratiques de recrutement en les transformant radicalement, et vont continuer à les transformer alors que de plus en plus de nos clients cherchent des façons innovantes d’utiliser les réseaux sociaux et de transcender leur usage initial.

Le pouvoir au candidat

Imaginez un monde où le candidat a plus de pouvoir que le recruteur. Ce monde existe, d’une part à travers le développement de la transparence comme sur Glassdoor, d’autre part à travers la création de plateformes comme woo.com. En termes de transparence, nous aidons les entreprises à trouver comment motiver vos collaborateurs satisfaits à laisser leur avis sur Glassdoor, mais aussi à répondre aux avis négatifs de façon pertinente pour nourrir votre marque employeur. Comme l’a montré l’étude HRIdea, les entreprises sont encore peu proactives sur Glassdoor, alors que de mauvais avis peuvent dissuader un candidat de postuler.

Sur woo, les profils techniques comme des développeurs, pénuriques aux Etats-Unis, se créent des fiches anonymes (parce qu’ils n’ont pas envie que leur employeur les retrouve) avec leurs compétences et surtout leurs exigences en termes de salaire, de poste, de comp & ben… Les recruteurs ne voient alors que les fiches qui comprennent des exigences auxquels ils peuvent répondre. Le candidat, très sollicités par les cabinets de recrutement savent ainsi qu’ils ne recevront aucune proposition qui ne leur conviendra pas. Prêt à devenir flexible ?

Entretien différé

L’entretien différé est de plus en plus utilisé par les recruteurs et apprécié des candidats. Pour vous rappeler comment ça marche, les recruteurs définissent des questions qui seront indifféremment envoyées à travers une plateforme dédiée à tous les candidats, qui répondent en vidéo. Les plateformes ont commencé à exploser récemment, lorsque les recruteurs ont cherché une solution permettant de sélectionner des candidats sans la difficulté d’organiser les entretiens dans leur agenda. L’avantage est incontestablement de pouvoir se faire une idée des candidats plus complète qu’au téléphone, puisqu’on peut aussi analyser leur langage corporel. Pour les candidats, l’entretien différé permet de répondre aux questions au moment où ils sont le plus à l’aise, dans un univers qu’ils connaissent sans le stress du face à face.

image: http://www.frenchweb.fr/wp-content/uploads/2016/03/recrutement.gif

recrutement

Géolocalisation, cooptation, job matching : le recrutement mobile en pleine action

Trouver un emploi près de chez soi, un emploi qui correspond à ses compétences ou recommander une relation… Ces trois tâches sont loin d’être nouvelles dans le processus de recrutement. Pourtant, avoir des applications mobiles qui y sont dédiés a changé la donne et permis leur explosion. Chacun de ces trois secteurs a été simplifié par le mobile : la cooptation a profité des réseaux sociaux pour s’appuyer en un clic sur tous les contacts de ses utilisateurs.

La géolocalisation a beaucoup gagné de la possibilité de localiser le mobile d’un utilisateur et de lui proposer des offres autour de lui. Le job matching, qui exploite la data pour proposer aux candidats les postes les plus appropriés. En les proposant sur mobile, les candidats peuvent exploiter leur temps creux pour trier les offres d’emploi. Partout, tout le temps, dans les transports ou au supermarché.

pokemon-geolocalisation

Gamification & MOOC

Vous avez déjà eu envie de former un candidat à qui il manquait une seule compétence pour avoir le profil parfait ? Au contraire, avez-vous rêvé d’évaluer un candidat sur les tâches pour lesquelles il est réellement opérationnel ? Pour le premier cas de figure, vous pouvez lancer, comme Amazon, Facebook ou Google, des MOOC accessibles sur simple test de niveau d’entrée et sélectionner les meilleurs éléments parmi ceux qui sont allés jusqu’au bout du MOOC. Pour le second, des plateformes vous permettent de créer des défis à résoudre par les candidats (notamment sur des profils techniques comme les développeurs). Vous pourrez alors recruter parmi les candidats qui ont résolu les épreuves, avec la possibilité d’analyser la façon dont ils s’en sortent. Ces MOOC et serious game correspondent tous les deux à la même idée de mieux recruter, vous pouvez apporter de la valeur ajoutée aux candidats pour qu’il commence à apprendre ou jouer avec vous avant même d’intégrer l’entreprise.

  • A propos

 

jean-noel-chaintreuil- 231e47

Jean-Noel Chaintreuil est le CEO et fondateur de 231E47. Cette société accompagne les entreprises dans la définition et la mise en oeuvre de leurs stratégies d’acculturation digitale.
Par Jean-Noel Chaintreuil, CEO et fondateur de 231E47

 

Jeunisme, Big Data… 5 idées reçues sur le leadership à l’ère digitale

Le leadership, cette capacité à mobiliser les énergies autour d’une action commune, est le levier de la transformation digitale pour 4 décideurs sur 5, interrogés récemment par Deloitte.

Alors pourquoi si peu d’efforts sont déployés dans ce sens ? Voici une tentative d’explication sur le leadership digital pour mettre fin à 5 clichés :

1- Tout sera réglé quand les millenials seront aux commandes

Nous voilà donc sauvés. Il suffit d’attendre que les digital natives prennent le pouvoir pour que la transformation opère. Un shadow Comex composé de moins de 35 ans comme chez Accor va bien sûr dans le bon sens.

Mais certaines entreprises reviennent déjà de ce jeunisme exacerbé dans leur recrutement : le leadership digital est aussi une question de vision, de frugalité, de capacité d’engagement. Au cas où l’âge n’y serait pour rien, veillez à ne pas vous séparer trop vite vos digital migrants.

2 – L’exemplarité du boss va entraîner le reste de l’entreprise

image: http://www.frenchweb.fr/wp-content/uploads/2016/02/zuckerberg-samsung.png

zuckerberg-samsung

Difficile d’aller à l’encontre de ce postulat, d’autant que le digital est avant tout «performatif»: il y a ceux qui en parlent et ceux qui le font.

L’exemplarité fait sens pour fertiliser l’entreprise. Un simple coup d’oeil sur les comptes Twitter de jeunes actifs ou de pré-adolescents peut encore faire rougir nos patrons du CAC 40. Mais la corrélation immédiate entre le leadership digital et le nombre de followers est encore largement à prouver.

La bonne distance et la capacité de réflexivité face aux outils numériques peuvent être un meilleur levier. Le succès du repreneur de la Camif, Emery Jacquillat s’explique en partie parce qu’il a su créer de l’envie plutôt que de la peur pour digitaliser l’entreprise.

3- Rester toujours connecté est un atout décisif

«La technologie est là pour améliorer votre vie, pas pour s’immiscer entre vous et votre vie» (Randi Zuckerberg). La surcharge cognitive des outils numériques affaiblit la concentration. Notre cabinet accompagne des CDO, des décideurs IT de moins de 30 ans au bord du burn-out. Au-delà de ces cas extrêmes, la pression de l’immédiateté et de l’infobésité brouillent les repères. Le «temps long» est indispensable à notre cerveau qui est loin d’être aussi doué pour le multi-tasking. Se déconnecter permet paradoxalement de mieux se reconnecter et gagner en sérénité.

4 – Grâce au Big Data, plus besoin de leadership : l’algorithme va prendre les commandes

La redistribution des rôles entre les machines et les talents s’accélèrent. S’agissant de volume de données, de variété, de vitesse d’analyse (…), la machine a déjà gagné. Mais la modélisation et l’algorithmie sont finalement assez peu challengées par nos décideurs. Les KPI et la data-visualisation font loi. Partager les techniques de data analyse favorisent le décloisonnement dans l’entreprise et mieux encore la permission marketing quand elles sont mises en co-construction avec les clients (cf. Le DataLab de la  Poste ou le projet MesInfos de la FING). Si la data entre les mains d’une poignée d’experts et de fabricants de logiciels «propriétaires» prend le pas sur la décision entrepreneuriale, attendez-vous à une dilution des responsabilités, voire un mauvais remake de minority report.

5 – La compétence et les méthodes agiles vont remplacer l’autorité

Un leadership fondé uniquement sur la compétence digitale est une prise de risque, tout simplement parce que son obsolescence est déjà programmée. Plus que des certifications ou des diplômes, l’interdisciplinarité, l’autodidaxie, et l’élasticité managériale permettent un recul indispensable face à la révolution numérique: il n’ y a pas de modèle préétabli face à l’accélération et les disruptions, mais plutôt une démarche et surtout un état d’esprit. La transformation est difficile voire impossible quand les méthodes ou l’expertise deviennent une finalité plutôt qu’un moyen.

 

Macintosh HD:Users:nathalieschipounoff:Desktop:Capture d’écran 2016-03-06 à 21.40.46.png

              Ryan McGuire

Pour beaucoup encore, la performance et la posture «digitale» sont les clés de cette transformation : comment ne pas être fasciné par le leadership d’Elon Musk, le patron de Tesla et de Space X. Son niveau d’exigence lui permet de repousser les limites comme personne. Mais ses méthodes managériales interrogent. Du haut de ses 23 ans le chevalier blanc de la data, Paul Duhan est presque plus inspirant pour ses valeurs sur le bien commun et sa quête de sens. Pour lui, «l’algorithme ne fait pas tout» : quand vous êtes né du bon côté de la barrière, dans la bonne partie du monde, fait de bonnes études, vous avez en fait déjà gagné au loto. Alors pourquoi monter sa start-up ou digitaliser l’entreprise, si c’est juste pour gagner plus d’argent ?

  • A propos

 

nathalie-schipounoff

Conférencière et coach de dirigeants, Nathalie Schipounoff avec plus de 15 ans d’expérience dans le numérique, est co-fondatrice du cabinet Le Leader Digital. Ce cabinet accompagne les CoDir, les DRH dans la transformation digitale pour préparer les hommes et changer le management. Membre des jurys des Trophées du CoDir digital 2015 organisé par le groupe RH & M et co-auteur chez Eyrolles de Et si j’apprivoisais mon chef pour se protéger du management toxique et des fiches outils du webmarketing (Hub awards 2015).

Par Nathalie Schipounoff, cofondatrice du cabinet Le Leader Digital

L’uberisation est une opportunité !

 

uberisation-des-professions-608x321  

Je me propose dans ce nouveau billet de voir ce qu’il convient de faire afin d’éviter d’être « disrupté » ou « uberisé ».

  Plusieurs rappels préalables s’imposent : d’abord, il n’y a pas les bons d’un côté — les startups et la nouvelle économie — et les mauvais de l’autre — ces grandes entreprises statiques et engluées dans leur complexité. Les sociétés du CAC 40 et les autres — y compris les PME-PMI — se sont profondément transformées au cours de ces dernières années, intégrant les règles de la révolution digitale. Certaines sont en réalité très avancées. Ensuite, il n’y a pas les startups d’un côté avec leur jeunesse et leur modernité et les entreprises classiques de l’autre avec leurs baby-boomers. Les jeunes sont actifs des deux côtés et les anciens apportent bien plus de valeur que certains le pensent de prime abord. Enfin, la solution n’est pas d’opposer les deux mondes mais au contraire de les faire travailler ensemble. Les startups et l’économie classique peuvent assurément s’apporter mutuellement.

Les startups obligent les entreprises plus traditionnelles à adapter leur modèle d’entreprise sous peine pour ces dernières de se retrouver en grande difficulté. C’est en cela que « l’uberisation » peut être une opportunité ! Une opportunité pour celles qui sauront la saisir, avant qu’il ne soit trop tard.

   Il faut sortir des clichés opposant le monde de startups à celui de l’économie traditionnelle.

Mon intention n’est donc pas d’opposer les acteurs de la nouvelle économie — très véloces par ailleurs — à ceux du monde entrepreneurial plus classique — qui innovent parfois depuis des décennies. Je n’ai également nulle intention de me livrer à un inventaire à la Prévert.

Il semble cependant que certaines pratiques permettent aux entreprises assaillies par de nouveaux entrants non seulement de réagir avec plus de réactivité et d’efficacité, mais aussi d’en tirer pleinement partie.

Sans prétendre à l’exhaustivité, voici celles que j’ai pu identifier au cours des deux dernières années.

Pratique 1 : Mettre la créativité au cœur de l’organisation, de tous les processus et de tous les métiers.

Elle ne doit pas concerner uniquement la R&D (Recherche & Développement) mais également l’organisation, le social, l’humain, l’environnement et les affaires bien sûr. Ainsi diffusée, elle ne peut que changer l’état d’esprit de chacun et plus largement de l’entité toute entière. Elle devient de fait le meilleur rempart pour repousser les potentiels nouveaux entrants et éviter les ruptures brutales.

Pratique 2 : Inciter les équipes à prendre des risques mesurés.

Il convient dès lors d’accepter le principe du droit à l’erreur ou à l’échec, selon l’adage attribué à Nelson Mandela : « Je ne perds jamais. Soit je gagne, soit j’apprends ». C’est du reste ce qui caractérise le mode opératoire des startups. Elles prennent des risques, elles n’ont pas le choix. En diffusant une culture de l’engagement, en poussant les managers à prendre des décisions, l’entreprise classique se met en position de lutter avec plus d’efficacité face aux disrupteurs qui ne rêvent que de lui prendre des parts de marché. La prise de risque n’est en rien l’apanage des startups.

 

Pratique 3 : Développer une forte culture d’entreprise.

Elle est le ciment entre les équipes. Les valeurs portées par l’entreprise et ses dirigeants soudent les salariés entre eux et créent une véritable identité collective. Il faut se souvenir que la culture est le seul facteur qu’il est impossible de copier. C’est elle qui différencie deux entités ou deux groupes de personnes. C’est l’un des avantages des entreprises plus anciennes. Elles ont l’histoire pour elles et nous savons que dans bien des cas, cela peut faire la différence, en mobilisant les énergies aux moments clés.

Pratique 4 : Miser sur les talents et la compétence.

Il convient d’avoir les « bonnes personnes aux bons postes pour réaliser les bonnes actions aux bons moments » et d’investir sur la formation des équipes. La connaissance — même si elle évolue très vite de nos jours — permet à toute firme de se créer des avantages compétitifs, souvent déterminants. En négligeant ceci, l’entreprise risque le décrochage.

Pratique 5 : S’assurer que la diversité culturelle soit parfaitement représentée au sein de l’entreprise.

Nous sommes tellement habitués à fonctionner avec des élites stéréotypées — qui aiment à se coopter entre elles — que nous n’avons pas toujours pris conscience que le monde avait changé. Intégrer des profils différents au sein d’une équipe est un formidable atout pour enrichir l’équipe et la rendre plus agile, plus à même de réagir aux attaques extérieures.

  Il faut miser sur les jeunes, le mix-générationnel,  la mixité, la diversité culturelle, les talents,  toutes les formes d’intelligence et donner du sens à l’action engagée. 

Pratique 6 : Faire de la mixité une réalité.

Les femmes et les hommes vont devoir partager les postes à responsabilité pour le bien de notre société et de notre économie. La parité — en particulier pour les postes de direction — veut dire au final plus de performance et plus de créativité. Sur ce dernier point, les femmes vont indéniablement apporter un regard différent. Le thème de la mixité n’est pas nouveau. On en parle depuis longtemps, trop longtemps. Il faut à présent en faire une réalité. C’est un combat, rien d’autre.

Pratique 7 : Réussir le mix-générationnel.

Il faut en premier lieu faire confiance aux jeunes. Les entreprises « classiques » doivent attirer de jeunes développeurs, des Gen Y — bientôt des GEN Z — et s’assurer qu’ils sont bien intégrés, avec des missions de qualité. Il est vital de les faire coacher par les plus anciens qui détiennent expérience et savoir-faire. En réussissant à mettre en place ce travail collaboratif, l’entreprise multiplie ses chances de ne pas passer à côté d’un mouvement majeur.

Pratique 8 : Maitriser la révolution digitale

Elle a fait basculer le monde dans la 4ème révolution industrielle. Ne pas en comprendre les enjeux et sa signification c’est l’assurance de rentrer dans une grande turbulence. Cela veut dire que les comités de direction doivent s’emprègner des grands enjeux à venir et en assimiler les rouages et modes opératoires. Cela aura un impact évident sur l’emploi et la gestion des talents.

Pratique 9 : Accorder une place à toutes les formes d’intelligence.

Ne pas sélectionner les candidats à l’embauche sur les seuls critères habituels, dont le fameux QI. L’intelligence émotionnelle me paraît être de la plus grande importance pour évoluer dans le monde de demain, tout comme l’intelligence relationnelle, à savoir la capacité de former des réseaux, de les entretenir et de s’en servir avec perspicacité.

Pratique 10 : Donner du sens à nos actions, à tout ce que nous faisons.

Les jeunes générations y sont très sensibles. Mais en réalité tout le monde l’est. Nous voulons une réponse à la question du « pourquoi ». Un peu comme lorsque nous étions enfants et que nous voulions tout comprendre. Nous en avons perdu l’habitude, piégés dans l’engrenage de nos vies quotidiennes.

Il me semble que ce sont là les actions majeures à entreprendre pour être en pole position dans ce monde numérique en pleine turbulence et en sortir gagnant.  Je developperai dans de prochains billets quelques-unes de ces pratiques.

Au final, les startups permettent donc bien à l’économie classique de se réinventerQu’elles soient saluées pour cela !

 Par Gérarld KARSENTI

 

Etes-vous frein-moteur ou moteur de la digitalisation de votre entreprise ?

digitalisation

La transformation est partout. Il faut y aller, c’est sûr. Mais un mot n’est jamais prononcé, c’est celui de vitesse de transformation. Ce qui est étrange et laisse planer un doute sur la transformation réelle qui est cours et la volonté réelle d’y arriver. Et la vitesse de l’ensemble n’est pas loin de la somme des vitesses d’horloge individuelles.

Que de longues tirades depuis 2 ans sur la transformation digitale … mais un terme manque à l’appel de toutes les définitions qui ont été données jusque là. Et pourtant le terme est critique pour l’entreprise dans laquelle vous travaillez et même pour toute nos vies. Car l’environnement lui-même est en mutation à son propre rythme. Plutôt soutenu.

C’est la réponse à une question très simple que l’on peut formuler de différentes manières :

Quelle est ma vitesse d’horloge ? Quel est l’horizon de temps pour mes actions ? Quelle est la vitesse réelle de transformation de mon entreprise ?

Mais aussi : quel rythme est-ce que j’impulse autour de moi ? Est-ce que je fais partie des accélérateurs ou des lourdeurs de cette société ? En synthèse, et c’est le titre de ce post : suis-je un moteur ou un frein-moteur ? Etes-vous dans ou hors de l’avion ? (crédit photo : Rodney Smith/Weimar images)

Car cette perception intime de l’importance de la vitesse et du temps rythme le travail quotidien, le « cadençage » des activités, des projets, des réunions… De multiples manifestations permettent de comprendre quelle est la perception du temps de toute personne et l’importance qu’il lui accorde. Avec les conséquences que cela peut avoir tant dans une équipe, au cours d’un recrutement ainsi que … dans sa vie de couple. Goethe parlait d’affinités électives (toute sa vie de physicien qui a été occultée par son œuvre littéraire), on a bien là un élément essentiel tel un catalyseur ou inhibiteur au sens chimique du terme.

Qu’est-ce qu’une année-chien ?

C’est une terminologie qui a fait florès dans les années 2000 à l’occasion de la première vague de l’internet préfigurant l’ère digitale. Tout le monde s’est rendu compte que tout allait soudainement plus vite dès que l’on approchait des .com, des start-ups … Et ce n’était pas seulement la vitesse de mise en place des sociétés, c’était la pensée elle-même qui s’était accélérée et libérée des contraintes de lourdeur que l’on pouvait alors rencontrer. Par exemple la prise de rendez-vous. Traditionnelle, c’était plutôt « dans deux ou trois semaines ». Remplacé en l’espace de 6 mois vers la fin des années 90 par « d’ici la fin de la semaine ». Ou encore « prenez rendez-vous avec mon assistante » remplacé par « je vous plugg un rv dans deux jours ». Cela a amené tous ceux qui participait à cette première accélération, qui sentaient tous les jours les trépidations insensées de la fusée qui était en train de décoller, de définir le vocable d’année-chien basé sur un parallèle très simple : travailler dans le web signifiait travailler 7 à 10 fois plus vite en terme de prise de rendez-vous, levée de fond, réalisation de site internet, longueur de projets, focalisation sur le produit fini, adoption du « do it and fix it » ou du motto d’Apple

« shoot first and aim then »

cher à Steve Jobs à ce moment-là. Un graphique permet de résumer le calcul de l’âge d’un chien en équivalent humain (si vous n’êtes pas familier avec la gente canine 😉 :

Avec une surprise (au moins pour moi : ), plus le chien est gros plus le multiple est fort car sa durée de vie est moindre. Prime au petit ? Etrange et contre-intuitif par rapport à ce que l’on peut observer dans le monde animal (pensez éléphant ou tortue par exemple). Mais ce n’est pas le propos ici de discourir sur la durée de vie du « gros » sur le « petit ». Quoique pour les entreprises qui se veulent agiles … et qui auraient une prime de longévité …

D’où la question posée de temps à autre au cours d’un échange quand le projet qui est proposé s’étale sur trop de temps : « et en dog-years, cela fait combien ? ».

Accélération digitale : de l’année-chien à l’année-moustique

Et depuis ce temps, ces années 90 berceau de l’internet, ce millénaire précédent, la tendance n’a fait que s’accentuer. Un peu comme les puces d’Intel qui sont passées du MHz au GHz, le cycle d’horloge du business et des affaires est en train de s’accélérer. Depuis 15 ans les choses ont beaucoup beaucoup changé.

La start-up qui se créait et allait mettre un an à se mettre en place se fait maintenant en un mois avec une méthodologie très rodée suivant les étapes love money, investisseurs privés, vc, fonds … Le site internet qui supposait du 100% de développement car repartant de zéro à chaque fois peut maintenant s’appuyer sur des développements Open Source ou bien des Indiens qui ont eu l’intelligence de repérer des business models intéressants comme Uber et de dupliquer sur Magento les développements pour pouvoir lancer une plateforme identique en moins de 15 jours versus les 6 à 12 mois de développements « from scratch ».

Les transactions boursières avec le HST et son dix millième de seconde sont un autre exemple de l’accélération démesurée de la valeur du temps. L’analyse Big Data en temps réel (cf le produit Kinesis d’AWS lancé il y a … 5 ans) de tous les tickets de caisse pour redéfinir un micro-merchandising et un planogramme différent pour le jour suivant.

C’est cela qui est en train de nous faire glisser de l’année-chien à l’année-moustique, cette perception qu’une semaine (la durée de vie moyenne d’un moustique adulte mâle, la femelle durant deux plus longtemps – no comment) peut contenir ou représenter une vie. Et le paradoxe est que ces mosquito-years sont déjà à l’oeuvre sur internet quand on y réfléchit un tout petit peu. Quand certaines entreprises changent leur site internet tous les deux ou trois ans, d’autres font un changement tous les deux jours. Je l’ai mis en oeuvre chez Lastminute.com en 2003. Imaginez 100 sites différents au bout d’un an. La multiplication des ventes par deux en deux ans a été une conséquence de cette perception et opportunité de mosquito-year. En 2000, Amazon avait déjà une page par utilisateur de son site (le fameux, « ceux qui ont regardé cette page on aussi regardé … »). Bien avant Facebook et son nano-marketing (une pensée pour le milliard de pages individuelles remises à jour chaque seconde SVP ; ). J’ai trouvé un très beau graphique (pardon pour la source que j’ai perdue mais que je pressens être le mensuel Entreprendre) qui résume cette maturité relative pour tous les secteurs, cette adaptation collective qui s’est faite ou pas pendant les années passées :

Le digital est une ressource et pas une fin en soi.

C’est une erreur que l’on constate et qui se répète dans les discours : le digital semble être une fin en soi. Ben non. Prenez un peu de recul avec le téléphone ou le début de l’internet. Il n’y a pas eu de Chief Téléphone Officer que je me souvienne (c’est un avantage de plus des décennies d’années professionnelles ; ) et pourtant tout le monde si est mis plus ou moins vite. Et j’ai un regret que ce téléphone n’ai pas été compté comme une révolution par les têtes bien pensantes de Davos … le téléphone, comme la TV d’ailleurs, a bien plus changé les mentalités et la marche du monde – 7 milliards de personnes – que ne l’a fait pour l’instant internet. En cela, le digital n’est pas un nouveau monde mais bien plus une ressource que l’on exploite à son profit. Et laissons l’avenir le confirmer : )

Même lecture pour le fameux Cloud : il est multifonction et joue surtout son rôle de banquier pour fournir ce dont vous avez besoin en puissance et stockage informatique sans avoir besoin de lever et d’immobiliser les fonds propres de l’entreprise. Division par 30 des besoins initiaux d’infrastructure pour une start-up digitale. Hélas pas encore le cas pour les projets de nature plus industrielles nécessitant un proto et des tests de fonctionnement. Tout cela rend aussi l’aventure start-up bien moins risquée qu’auparavant par une mise de fond bien moindre et donc pour le même montant et dans le même temps de tester de multiples idées. Et c’est une ressource nouvelle que tout entreprise doit comprendre et utiliser. Et pas simplement se contenter à porter ses infra sur le Cloud …

Du réseau social au « média » ou à l’inter »média »teur

Mais quel est le carburant ou la matière ou le facilitateur de ce glissement ? Je pense que le fait que vous soyez en train de lire ce post actuellement sur ce site très précis qu’est LinkedIn témoigne du mouvement en cours. En cela vous contribuer à être moteur de digitalisation, sans trop vous en rendre compte … explorons cela.

Le changement de cette perception temporelle en cours est porté et « boosté » par la transformation de réseau sociaux comme LinkedIn, jusque-là environnement reproduisant peu ou prou la configuration relationnelle de la vie réelle (c’est l’erreur de fond de Viadeo), en un accélérateur de mise en relation pour lancer de nouvelles initiatives. Pour être encore plus précis, LinkedIn n’est pas devenu un média au sens classique en plus de réseau social professionnel, avec le partage et la création d’infos que cela suppose, mais un intermédiateur ainsi qu’un transformateur de chacun d’entre nous en médiateur au sens émetteur spécifique. Pour approfondir le point, je recommande les écrits de Jacques Derrida centrés sur cette partie « nous sommes tous médiateurs ».

Et de fait, la prise de rendez-vous, la mise en relation, l’échange d’information, le test d’une idée ou de l’intérêt pour un projet … n’ont jamais été aussi faciles. Le réseau joue le rôle d’incubateur ou plus exactement d’excubateur (je reviendrais dans un autre post sur ce beau nouveau mot) et encore plus précisément de percubateur.

Et c’est, ajouté à la vitesse, ce qui va vous transformer en moteur dans vos projets et votre entreprise. Vous êtes rapide et vous propagez cette rapidité. Et de moteur vous pouvez même devenir agent mutagène si vous vous attachez à sélectionner et partager les idées les plus neuves, décapantes, disruptives … et belles.

Si l’on pousse la réflexion encore un peu plus loin, l’objectif n’est plus de construire un réseau ou de faire partie d’une communauté mais vraiment d’avancer sur un chemin de vie en aidant et s’appuyant sur ses multiples contacts. C’est une sorte de retournement où la communauté virtuelle est une conséquence ou un sous-produit du chemin parcouru. Et fuyons les professionnels du networking pour le networking, avec en tache de fond l’égo qui se sécurise : « je ne suis pas seul », « cela va me servir en cas de coup dur » … Non, on peut comparer aujourd’hui le network ou réseau à la culture qui n’est pas une fin en soi mais bien le résultat d’une curiosité ou un indice de chemin parcouru ou d’espaces explorés. Une manière de résumer le glissement et de rendre compte du changement opéré est de remplacer le « Que-sais je ? » de Montaigne part un « Qui sommes-nous ? » permis par des médiateurs sociaux comme LinkedIn. Regardez les posts proposés avec un oeil un peu plus anthropologique ou ethnologique (je n’ose le éthologique : ), c’est édifiant.

Une conséquence de cette généralisation possible des mosquito-year c’est l’apparition de plus d’authenticité et d’utilisation de l’intuition dans les rapports individuels. Plus le temps quand on fait une réponse à la volée à un commentaire ou une invitation de réfléchir sauf à limiter fortement la bande passante d’interactions riches possibles. Et peu à peu on quitte son statut, son armure, cette image cible transmise par l’éducation et quelques expérience … pour « être » et ne plus « faire comme », tout simplement.

Et on sent bien que :

Comme le poisson pourrit par la tête, c’est bien le CEO qui fait l’entreprise digitale ou ne la fait pas. Et s’il l’a fait, c’est vite !

Et quand on vous a souhaité il y a quelque temps « Bonne année », vous pouvez maintenant vous poser sereinement une question très centrale : « De quelle année parlait-on ? » ; )

Par Pierre PAPERON

La présidentielle de 2017 peut-elle être uberisée?

Le terme a été lancé par Emmanuel Macron, sans doute pas innocemment. Lui qui, après avoir mis quelques pieds dans la fourmilière, commence à avouer publiquement se sentir à l’étroit dans un système arrivé à bout de souffle.

Et puis, on nous dit que le Front National c’est ce qui nous attend. Mais on oublie que les deux tiers des Français ne veulent certes ni de Hollande, ni de Sarkozy, ni d’un autre issu de l’un des partis historiquement au pouvoir. Mais qu’ils ne veulent pas du Front National non plus. C’est vote de rejet par défaut. Quand ils votent.

Uberiser, le terme est sans doute mal choisi, l’entreprise Uber n’est sans doute pas un modèle d’humanisme. Mais il désigne la capacité d’un modèle désintermédié à faire exploser une mécanique en place, que l’on croyait inamovible. En 2011, Uber n’était qu’une petite start-up qu’une poignée de geeks CSP+ découvraient à Paris, pendant la conférence du Web. Aujourd’hui, la petite start-up vaut plusieurs milliards de dollars et a mis un tel chaos dans l’économie qu’elle semble invincible. Il y a quelques années, Airbnb, c’était un site sympa pour partager son logement et se faire un peu d’argent de poche. Aujourd’hui, la petite start-up loue plus de chambres que le groupe Accor à lui tout seul. Un empire face au réseau. Et si on appliquait ce modèle à la politique en France?

Difficile d’y croire. La présidentielle est sans doute le modèle le plus fermé de la mécanique démocratique : un homme face au peuple, poussé par un parti, et par 500 signatures. Ça n’a jamais changé. Et toutes les voix disruptives qui ont tenté l’éloignement des partis n’ont réussi qu’à se séparer du tronc maternel pour retomber dans l’oubli.

Depuis quelques mois cependant, au fil de mes rencontres, j’entends des gens très sérieux, journalistes de haut-vol, experts, personnalités de la société civile, dirent que, oui, peut-être, peut-être que le président qui sera élu en 2017 pourrait être un inconnu, ou en tout cas quelqu’un qui ne serait pas issu des partis traditionnels. Ça ne parait pas très sérieux. Mais quand des personnes très sérieuses le disent sans rire, ça fait un peu réfléchir.

Ça a commencé par Jacques Attali, qui prophétise que «le prochain président sera un inconnu», sauf qu’on ne sait pas très bien ce qu’il a voulu dire, ni ce qu’il voulait provoquer en disant ça. Et puis Attali est capable de dire une chose et son contraire dans la même phrase, genre que ça pourrait être Hollande aussi.

Mais il n’est pas le seul.

image: https://cdn-images-1.medium.com/max/800/1*835_30mNFeIdbteBQ1Xxfg.png

Il y a ce sondage aussi, commandé par le site Internet «Atlantico», qui dit que 78% des Français seraient prêts à voter pour un candidat non issu des partis. C’est mieux que Marine Le Pen… Pour 59% des Français, le programme est le plus important. La personnalité du candidat intervient pour 16%. Le parti qui le soutiendrait seulement 5%.

Les gens en ont assez. Mais ils sont de moins en moins passifs. En tout cas dans leur tête. Parce qu’ils sont de plus en plus nombreux à trouver des solutions et, parfois, à les mettre en place, voire à les financer, sans attendre qu’une institution le fasse à leur place. Le journalisme de solutions, le crowdfunding, ne sont plus des initiatives de pionniers. L’économie participative touche plus de 30% des nouvelles générations.

Face à la crise, les individus se détournent des élites traditionnelles (politiques, médias, grandes entreprises) et se tournent les uns vers les autres, grâce notamment aux réseaux sociaux. De tout ça nait, un peu partout, des embryons d’intelligence collective, des actions ingénieuses et utiles. Ce que décrit très bien Laure Belot, dans cette enquête renversante : «La déconnexion des élites». Je l’ai entendue s’exprimer en province, face à des dizaines d’agriculteurs, et j’ai compris qu’elle faisait mouche. Que les personnes en face d’elle savaient déjà, et que les politiques ne s’en rendent pas compte. Les élites politiques, comme les syndicats.

Combien tout ça est en train de leur échapper. Pour avoir croisé quelques politiques (rarement), j’ai été surpris de les voir aussi déconnectés de la réalité. De ce qui était en train de se passer.

Tandis que le repli sur soi se structure, sans doute parce que plus primaire, d’autres mouvements, plus intelligents, plus empathiques, également en réseau, commencent à fleurir un peu partout. Pour l’instant portés par des pionniers encore peu entendables. Mais on est pas loin d’une prise de conscience à plus grande échelle. Comme toujours, d’abord des pionniers un peu extrêmistes. Puis le mainstream se déclenche dès que l’on atteint un certain seuil. Ce seuil est-il atteint ou est-ce trop tôt ? Je ne suis pas politilogue, donc je n’en sais rien. Par contre je connais un peu Internet.

 

Il y a deux ans, Claude Posternak (qui, pour être très transparent, est un ami et actionnaire minoritaire dans un de mes projets), me disait : «le prochain président sera issu des réseaux sociaux».

Je ne savais pas s’il me parlait de 2017 ou de… 2022. Je trouvais l’idée séduisante, pas encore vraiment tangible.

En 2016, il vient de lancer «La Transition» avec un groupe d’amis. Il ne sera pas candidat. Il pense que la France a besoin d’un président (et d’un gouvernement) de transition qui s’engage à partir après un an après avoir lancé les réformes nécessaires pour débloquer le pays.

Naïf, irréaliste? Claude Posternak connait trop bien le système en place (il a été conseiller de Michel Rocard et de Martine Aubry, mais c’est aussi un publicitaire et homme de communication qui conseille les patrons, et le créateur de «L’Important», un média qui s’appuie sur Twitter) pour en connaître les raideurs. L’incapacité des partis en place à se réformer, comme ces jeunes de banlieue qui, dans «La Haine», chutaient vers le bitume en disant : «jusqu’ici tout va bien».

Mais l’autre alternative, c’est le Front National. Qui mène une campagne sur le terrain sans précédent. Peut-on rester sans rien faire? Naïf? Irréaliste? Oui mais comment ne pas vouloir y croire? Comment, surtout, ne pas se dire qu’il faut bien enclencher quelque chose ?

La Transition (voir leur site ici) fait penser à tous ces mouvements citoyens qui s’organisent sur Internet, peut-être encore trop pionniers pour devenir mainstream. Sauf que depuis son lancement, la Transition a recueilli le soutien de pas mal de gens très sérieux, des responsables de syndicats professionnels comme la CGPME, les médecins libéraux, les commerçants, les agriculteurs… mais aussi des chercheurs, beaucoup d’entrepreneurs aussi. Et même des journalistes connus qui ne le disent pas forcément. Claude Posternak ne sera pas candidat. Il en cherche un. Et ça sera peut-être une surprise.

Très parisien, tout ça, me direz vous. Mais non : 73% des signataires viennent de province, seulement 15% de Paris (les 15 autres de la banlieue).

La Transition s’inscrit dans ce mouvement. Pas forcément fédérateur. Plutôt très ouvert. Avec la conviction que de ce chaos pour l’instant généralisé émergera une forme d’espoir commun, forcément décentralisé. Une sorte de «blockchain» de la politique, puisque le concept est à la mode.

Pour l’instant, il y a de l’envie, il y a des voix qui se joignent. Un millier en moins d’un mois. Et des propositions concrètes et censées qui commencent à émerger.

Elles viennent de droite comme de gauche, elles pourraient s’opposer, mais par la magie d’une certaine entropie, elles finissent par dessiner un grand volume de réformes qui reposeraient sur une certaine forme de bon sens, une convergence naturelle que guiderait un esprit de responsabilité collective.

 

Il y a des idées de bon sens. Comme le «nouveau partage». Il y a aussi cette idée qu’il faut un gouvernement de transition, issu de la société civile, qui mette en place toutes ces idées partagées par la majorité, et qui s’en aille après 5 ans, le temps de laisser à la politique de se réorganiser.

La plupart des conversations se déroulent dans le plus grand désordre sur Whatsapp et sur Twitter. On se passe des sujets, on organise des réunions pour bosser sur telle ou telle contribution, on propose tel ou tel expert pour faire remonter des propositions. Ces dernières sont validées par un bureau central, mais aussi par tout autre membre qui aurait plus de légitimité.

C’est un peu chaotique en apparence, mais ça se structure de façon presque organique. Claude Posternak croit dans les vertus d’une certaine entropie de bonne volonté. Dans l’intelligence collective. Il faut allumer la mèche. Voir ce que ça donne.

Il y a un an, un jeune américain lançait cette vidéo, partagée plus de 15 millions de fois, qui se partage encore, et pas seulement parmi les geeks.

Avec tous ces gens, ces idées, ces accès à la connaissance et ces porte-voix interconnectés, rien n’a jamais été aussi moins sûr. Pour le meilleur, comme pour le pire. Alors pourquoi pas un président issu des réseaux sociaux?

A nous de voir.

Par Benoît Raphaël, expert FrenchWeb.

 

L’ubérisation divise les Français : les consommateurs sont pour, les travailleurs moins

uberisation

Pas un jour sans qu’une société ne se présente comme le Uber de son secteur. Airbnb, Blablacar, et Uber bien sûr, principal intéressé, ces sociétés ont bouleversé les marchés sur lesquels elles ont débarqué sans crier gare. Alors que pas un jour ne se passe sans que les médias ne titre pas sur la bataille Uber-taxis, le cabinet Elia a  souhaité donner la parole aux Français. Alors, pour ou contre l’ubérisation ?


De quoi l’ubérisation est-elle le nom ? Sorti de la bouche de Maurice Lévy, figure historique du groupe Publicis, ce néologisme est aujourd’hui utilisé partout et par tous. A tel point que 77% des Français se disent aujourd’hui capables de donner un avis sur le sujet. 83 % associent ce terme à des offres plus compétitives. Une réponse ni tout à fait positive, ni tout à fait négative, directement suivie par une autre qui laisse peu de doutes sur le sentiment des Français à l’égard de ces nouvelles offres : pour 80% d’entre eux, l’ubérisation est en effet synonyme d’offres mieux adaptées aux attentes des consommateurs.

Si les acteurs de la nouvelle économie sont plus que jamais orientés consommateurs, les Français n’en pensent pas moins que ces nouvelles entreprises engendrent également des emplois plus précaires (pensent 70% des Français) et la destruction de secteurs professionnels (selon 66% des sondés).

Questionnés sur les secteurs impactés par le phénomène, les Français pensent que les trois secteurs les plus concernés sont le transport (81%), l’hôtellerie (57%) et la distribution (42%). En queue de peloton, la justice (pour 7% des Français) qui subit pourtant elle aussi sa petite révolution.

Pour ou contre, tout est une question de casquette

En tant que consommateurs, près de 2 Français sur 3 considèrent que « l’ubérisation est une bonne chose » (64%). Les moins de 35 ans (73%), les demandeurs d’emplois (73%) et les Franciliens (74%) y sont les plus favorables. Mais lorsque les Français sont interrogés en tant que travailleurs, seuls 52% d’entre eux voient alors l’ubérisation comme « une bonne chose ». Ceux qui la considèrent négativement sont particulièrement représentés parmi les plus de 50 ans (61%) et la fonction publique (57%).

Signe de ce dédoublement de perception, près d’un Français sur 5 (17%) considère à la fois : l’ubérisation comme positive si on le questionne en tant que consommateur, l’ubérisation comme nuisible si on l’interroge en tant que professionnel. Mais a-t-on seulement pensé à demander si les Français étaient pour l’utilisation massive de ce néologisme barbare ? Mystère…

les Franais et luberisation

Méthodologie : Enquête réalisée en ligne du 02 au 04 février 2016, sur un échantillon de 1 017 personnes, représentatif de la population française âgée de 18 ans et plus. Méthode des quotas et redressement appliqués aux variables suivantes : sexe, âge, catégorie socioprofessionnelle et région d’habitation de l’interviewé(e).

Les 5 erreurs que commettent les entrepreneurs français

Antoineguo1


Je suis parti pendant six mois aux États-Unis. Pour apprendre l’entrepreneuriat, et pour m’imprégner de tout ce que lesÉtats-Unis ont de mieux à nous offrir. Et on a beau parler de French Tech et critiquer les États-Unis, il faut reconnaître que les Américains ont encore une longueur d’avance sur nous lorsqu’il s’agit de l’art d’entreprendre. Je n’invente rien. Mais voici, selon moi, quelles sont les plus grosses erreurs que l’on commet en France :

Ne pas parler de son idée de peur de se la faire piquer

L’un des premiers trucs que l’on m’a dit lorsqu’on est arrivé aux US :

“Personne ne la volera votre idée, vous savez pourquoi? Parce que votre idée est probablement nulle…” Coup dur quand on entend ça… En fait il fallait savoir lire entre les lignes : l’idée n’est pas nulle, elle n’est pas encore mature. Souvent, on s’emballe quand on se dit qu’on a une idée. L’excitation fait qu’on part dans tous les sens. Le mot idée est donc un peu fort. On devrait plutôt employer le terme germe d’idée, ou intuition. Car ce germe d’idée est voué à évoluer, à se solidifier avant d’être concrétisé. Tout le monde croit que son idée est géniale. Mais une à deux semaines de recherches intensives suffisent à faire redescendre sur Terre. Demandez à n’importe quel fondateur de startup si son idée originelle a été concrétisée. La réponse est non.

“Personne de la volera votre idée, vous savez pourquoi ? Parce que si votre idée est vraiment géniale, vous pouvez être sûr que quelqu’un d’autre a eu exactement la même idée, un mois, si ce n’est un an plus tôt.” Le mythe de “l’idée du siècle” n’existe pas. Tout le monde est créatif, tout le monde a des idées tout le temps. La grosse différence entre ceux qui réussissent et ceux qui ne réussissent pas, c’est que ceux qui réussissent comprennent vite que leur idée ne vaut rien et que tout se joue lors de l’exécution (i.e. la concrétisation de cette idée).

“Idea is 1%, execution is 99%”

D’accord, la chance qu’on nous pique notre idée est faible, mais on ne sait jamais… Pourquoi prendre le risque de la partager ? C’est très simple, il faut réussir à se mettre dans cette logique (très américaine) : on bénéficiera toujours plus du retour sur notre idée que du risque de se la faire piquer. Car ce sont les remarques et critiques qui font qu’une idée avance. Et sait-on jamais, qui vous dit que votre interlocuteur n’est pas un expert du domaine?

“How do you recognize when an Entrepreneur is pitching ? When he opens his mouth!”

Cet esprit d’entraide manque beaucoup en France, et c’est vraiment dommage. Chacun fait les choses dans son coin, il y a une sorte de méfiance injustifiée et omniprésente… S’il y a une chose que j’ai retenue de Berkeley, c’est qu’il faut parler de son idée tout le temps. À tout le monde. Tous les acteurs du problème : utilisateurs, clients, experts, “compétiteurs”. Surtout ses “compétiteurs” d’ailleurs. On apprend énormément de leurs erreurs…

Parler, brainstormer, conceptualiser… et ne rien faire

Ça c’est très français. En France, on aime beaucoup discuter, analyser, conceptualiser… C’est d’ailleurs la raison pour laquelle les mathématiciens français sont si réputés dans le monde. Néanmoins, pour l’entrepreneuriat, cette logique ne marche pas. Les startups sont dictées par l’urgence. L’urgence du marché (i.e. ne pas rater le créneau), l’urgence de la compétition (i.e. faire mieux et plus rapidement que les autres), l’urgence de l’utilisateur (i.e. être réactif aux attentes de l’utilisateur).

“What I look for in Entrepreneurs ? Boldness in vision and focus on execution.”

La grosse différence entre la France et les US, c’est la vitesse. Je n’invente rien, tout est expliqué dans le bouquin d’Eric Ries, The Lean Startup. Pour résumer : mieux vaut aller vite pour sortir rapidement un produit, le tester auprès de ses clients/utilisateurs, récupérer leurs avis, et réitérer, plutôt que de passer du temps à imaginer et aller dans les détails de la conception d’un produit dont les gens ne voudront peut-être pas. Le temps que nous Français sortions un produit, les Américains en seront déjà à la version 7.

Monter sa startup derrière son ordi

Pendant mon semestre à Berkeley, on nous a forcé à aller “parler à nos clients”. On savait pas trop ce que ça voulait dire… En fait, il s’agissait juste de sortir de son bureau, et de ne pas s’enfermer dans sa propre idée, sa propre logique. Toujours s’ouvrir l’esprit, rencontrer des gens, discuter. Le nombre d’opportunités qui se créent dans ce genre de démarche est incroyable.

À Berkeley, on est allé dans la rue. Pour valider des hypothèses, pour comprendre nos utilisateurs. On a rencontré des chirurgiens anesthésistes experts en hypnose, on s’est fait invité par la plus vieille communauté des motards de Californie (la SF Motorcycle Club), on a pitché notre idée devant des investisseurs chinois qui nous ont fait des offres astronomiques de cash. Tout ça en allant dans la rue, en faisant aussi bien des sondages aux sorties de métro, que des meetups divers. On nous disait souvent : “tu peux manger gratuitement chaque jour de la semaine en allant à divers meetups.” Celà n’était pas faux.

Faire un produit dont personne ne veut

Cette erreur rejoint la précédente. L’objectif d’un entrepreneur, c’est de faire un produit/service dont son client est amoureux. Une grosse erreur à ne pas commettre, c’est de faire un produit dont on est le seul à être amoureux. Et on en tombe forcément amoureux, puisque c’est nous qui le créons. L’avis est donc forcément biaisé.

Pour le voir, il suffit de parcourir tous ces outils et produits créés par des grosse entreprises françaises, ou par le gouvernement. On sent la volonté d’incorporer des fonctionnalités qui plaisent, mais très souvent, c’est raté. De A à Z.

Pour éviter cette erreur, il faut constamment aller voir l’utilisateur pour avoir son avis. Il n’y a que ça qui compte. “Créer une petite communauté d’utilisateurs qui vont adorer votre produit vaut mieux qu’une grosse communauté qui l’aime moyennement.” (Sam Altman—YCombinator).

Ne pas oser demander de l’aide

Enfin, la dernière grosse erreur que commettent les Français, c’est de ne pas oser demander de l’aide. De ne pas oser, soit pour l’égo, soit par peur de se prendre un râteau et de se faire ridiculiser. Cette peur est paralysante, et les opportunités peuvent vraiment nous filer sous le nez.

Une manifestation flagrante de cette attitude à la française : la salle de classe. En France, les élèves ne participent que rarement en cours. On a peur de poser des questions naïves et de passer pour un idiot. Aux États-Unis, l’ambiance en salle de classe est différente. Les élèves ont beaucoup moins peur : ils posent des questions, ils osent. Dès leur plus jeune âge, ils sont formés au networking. Pour nous ça nous parait très superficiel, pour eux c’est très naturel.

Un conseil que m’a donné un entrepreneur à succès de San Francisco : “French entrepreneurs need to learn to GRIND and HUSTLE. If you can master this skill, you French will be masters of the world.”

Easier said than done…

Bien sûr, appliquer ces conseils est difficile. C’est presque contre-nature pour nous Français. Néanmoins, les états d’esprit changent, et on voit d’ores et déjà apparaître de très beaux produits au label Made in France sur le marché. Pourvu que ça dure!

d’après l’expérience d’un entrepreneur parti aux US