Monthly Archives: mars 2016

Les franchiseurs revoient leurs emplacements pour s’adapter aux nouveaux modes de consommation

Se développe désormais une vision multi-format, avec des choix d’emplacements mixés. Essayons de comprendre ce phénomène.

Localisation de votre fanchise

 

 

 

 

 

 

 

Face à des comportements de consommation qui évoluent sans cesse, avec la poussée du numérique mais aussi des changements plus profonds dans l’organisation de nos villes, ou encore des prix de l’immobilier qui connaissent des fluctuations fortes selon les régions, les commerces doivent s’adapter en conséquence pour choisir leurs emplacements. En matière de franchise, l’approche classique voulant privilégier une implantation exclusive en centre-ville ou au contraire en périphérie tend à s’effacer. Se développe désormais une vision multi-format, avec des choix d’emplacements mixés. Essayons de comprendre ce phénomène.

Les emplacements n°1 en perte de vitesse ?

Les emplacements n°1, c’est-à-dire situés sur un axe commercial dit incontournable et bénéficiant de flux importants, sont-ils en train de perdre de leur superbe ? Oui, les emplacements n°1 ou encore les rues n°1 ne peuvent plus justifier du même attrait que par le passé. La faute à un chiffre d’affaires qui doit toujours être en hausse pour rentabiliser un emplacement dont le prix grimpe. Dans des villes qui mènent des politiques d’amélioration du centre-ville, les prix du foncier grimpent logiquement, et le coût des commerces avec. Alors, pour les enseignes, le ratio entre investissement et rentabilité est parfois difficile à atteindre. D’autant que des études montrent que l’effet du réaménagement des centres-villes a tendance à créer un phénomène de rétractation. Des emplacements naguère « en or » subissent parfois le passage en zone piétonne, l’ajout d’un tramway, ou la transformation en bureaux de lots voisins…
Cela ne signifie pas que les emplacements n°1 soient totalement morts ! Désormais, l’implantation optimale pour une entreprise ne se détermine pas forcément selon la qualité de l’emplacement seul, mais bien selon le potentiel de l’emplacement au regard de l’activité de la franchise. Certains commerces s’épanouiront bien plus en périphérie qu’en centre-ville, et les experts qui accompagnent les professionnels dans le choix de leur local intègrent cette vision pour conseiller les futurs franchisés. Un fleuriste, une enseigne de fast-food ou un cabinet de conseil ont tous un emplacement optimal. Et celui-ci est parfois loin d’un centre-ville !

La périphérie, cette zone au potentiel si longtemps oublié

Les valeurs locatives en périphérie n’ont rien de comparable avec celles des centres-villes. Des exemples ? A Bordeaux, comptez entre 120 et 220 € HT HC/m²/an en périphérie contre 1 000 à 1 800€ pour un emplacement n°1 cours de l’Intendance ou rue Voltaire. Même phénomène à Marseille, avec un prix de 1 200 à 1 700 € HT HC/m²/an rue St Ferréol ou rue Paradis, contre 200  à 300€ en périphérie (Plan de Campagne) voire entre 600 et 900€ (Avant Cap). « La typologie des formats commerciaux en périphérie est hétérogène (boîtes commerciales regroupées en entrée de ville, boîtes isolées, parcs d’activités commerciales architecturés) et ce marché connaît actuellement des évolutions structurelles fortes » peut-on lire dans l’étude « les commerces en France » CBRE datée de 2014.
La périphérie, et les communes environnantes des grandes agglomérations, un nouveau terrain de jeu pour des enseignes en franchise ? « Un restaurant Subway peut très bien s’implanter dans une ville de moins de 10 000 habitants » confiait, Patrick Rety, agent de développement de l’enseigne américaine de restauration rapide Subway fin décembre 2015 sur le site de l’Observatoire de la franchise. L’enseigne pourtant associée à l’hyper-centre-ville, avec une image de commerce de proximité qui s’adresse à un mode de vie « citadin », veut sortir de ce cliché. A termes, l’ambition officieuse est de lancer 2 000 restaurants dans l’hexagone, contre un peu plus de 500 aujourd’hui. Ce développement passera inévitablement par des implantations en dehors des grandes villes, via des emplacements périphériques choisis stratégiquement.

Les villes toujours attirantes pour de nouvelles franchises !

Tous les centres-villes de France ne souffrent pas d’un phénomène de désamour et de fuite des commerces. Certaines franchises l’affirment sans détour, elles ne jurent que par ces emplacements. C’est le cas de certaines marques dont l’image est très associée à la vie en ville, et à une certaine image du commerce. S’installer en périphérie pour des enseignes comme L’Occitane en Provence,  Côté Sushi ou encore Repetto, serait un élément qui pourrait diluer le positionnement de la marque.
Mais les villes n’attirent pas uniquement des marques qui y sont implantées historiquement. Ainsi, Georges Sampeur, Président du directoire de BB Hôtelsi, confiait que la chaîne d’hôtels s’invitait désormais à des emplacements jusqu’ici inédits. « La crise, quelquefois, a du bon, dans le sens où le prix de l’immobilier a été réajusté, ce qui nous permet de revenir vers des implantations en centre-ville, qui étaient inaccessibles pour nous dans des périodes fastes. Nous offrons ensuite une prestation qui est adaptée à l’endroit » expliquait le dirigeant au micro de Stéphane Soumier sur BFM Business en février 2016. La clé se trouve ici : désormais, les formats des points de vente s’adaptent aux lieux. Toutes les enseignes s’y mettent, suivant McDonald’s, pionnier dans le domaine. L’enseigne propose des restaurants adaptés à leurs emplacements : dans une gare ou un aéroport, un service rapide pour une clientèle pressée. Mais en périphérie, une aire de jeu pour les enfants, afin de séduire les familles… mais à chaque fois avec la même promesse sur les produits et le service.

Internet influe sur le choix des emplacements des franchises

La poussée du commerce en ligne influence directement la stratégie des enseignes en matière d’implantations. En effet, puisque la tendance est à la consommation en points de vente et sur la toile (omnicanal), il faut présenter aux clients des parcours connectés et complémentaires. Une enseigne qui propose par exemple de commander un produit en ligne et de le retirer en point de vente par la suite ne peut pas réaliser son maillage sans avoir en tête un objectif de présence « stratégique ».
Alors, parfois, un emplacement semblera étrange voire carrément décalé avec les habitudes de l’enseigne, mais sera en réalité pensé pour accompagner ce maillage du territoire au regard des besoins exprimés en ligne. Une franchise en pleine croissance ne peut pas se permettre de présenter une carte de France à trous si elle prétend être une enseigne nationale.
Le choix du local est primordial dans la réussite de l’entreprise. Il doit toujours être réalisé avec l’implication du franchisé si celui-ci est présent à l’origine du projet. Il arrive parfois qu’une période allant de 6 mois à 1 an se déroule entre la signature d’un contrat de franchise et l’ouverture effective du point de vente. Pendant ce long chemin de croix, le franchisé doit être au cœur de la réflexion et participer au choix de l’emplacement. Dans le cas de franchises qui ont un projet d’implantation clairement défini, avec des emplacements cibles, et recherchent ensuite les bons candidats pour ouvrir le point de vente, ne négligez pas les retours des « locaux », et donc de ces candidats. Un emplacement dans une zone commerciale séduisant sur le papier pourra vite apparaitre comme obsolète si les témoignages collectés en local sont mauvais. Le choix du bon emplacement, nerf de la guerre en franchise, passe donc plus que jamais par une bonne étude de coûts, et une enquête terrain solide.
Geoffrey Barre

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.

 

Levée de fonds : le bon timing selon Bird Office

  • Plusieurs indicateurs précis (nombre produits vendus, nombre d’inscrits site …) prouver offre attire public significatif particuliers d’entreprises.

    Plusieurs indicateurs précis (nombre de produits vendus, nombre d’inscrits sur un site …) doivent prouver que votre offre attire un public significatif de particuliers ou d’entreprises. – Bird Office

  • Arnaud Katz Michael Zribi, cofondateurs Bird Office

    Arnaud Katz et Michael Zribi, cofondateurs de Bird Office – D.R.

A quel moment doit-on effectuer sa première levée de fonds ? Retour d’expérience avec Arnaud Katz, co-fondateur de Bird Office.

 

L’AirBnB des salles de réunion a levé 1,2 millions d’euros fin 2015. Comment la start-up, qui met en relation les entreprises prêtes à partager leurs espaces vacants et les professionnels en quête de salles, a-t-elle procédé, deux ans après sa création ? Arnaud Katz, co-fondateur de Bird Office, expose les quatre principes qui ont mené à la réussite de l’opération.

#1 Avoir déjà des clients et des contrats en poche

Avant de penser à une opération de capital risque, soyez certain que votre activité commence à séduire le marché. Il faut déjà réaliser du chiffre d’affaires ou au moins avoir signé plusieurs contrats ou partenariats qui auront très vite un impact. Plusieurs indicateurs précis (nombre de produits vendus, nombre d’inscrits sur un site …) doivent prouver que votre offre attire un public significatif de particuliers ou d’entreprises. Bref, que la start-up ait pris son envol. Meilleurs seront vos chiffres et plus votre capacité à mobiliser du capital sera forte. Au moment de sa levée de fonds de 1,2 million d’euros fin 2015, Bird Office avait déjà fait la preuve du concept. « La croissance était de 30 à 40% par mois et la récurrence de la clientèle très forte», témoigne Arnaud Katz, co-fondateur en décembre 2013 de cette plateforme de réservation d’espaces professionnels à l’heure ou à la journée.

#2 Ne pas se précipiter sur le premier investisseur

Les bons projets sont souvent très tôt repérés par les investisseurs. Surtout s’ils ont été distingués par des concours de start-up. « Aux sollicitations d’un fonds, n’hésitez pas à lui répondre : revenez me voir dans un mois, si vous ne vous sentez pas encore suffisamment solide pour présenter votre projet», recommande Arnaud Katz.
Ne vous focalisez pas uniquement sur le montant à lever, la capacité du fonds à vous accompagner sera aussi importante.« Entre plusieurs investisseurs, choisissez celui avec lequel vous avez envie de bosser, poursuit l’entrepreneur. Le fonds News Invest qui nous a financés est aussi là pour nous aider à développer l’activité. Leur management est très opérationnel, réactif avec un réseau qui peut répondre à nos besoins ».

#3 Anticiper la durée de l’opération

En moyenne, une opération de levée de fonds prend facilement six mois. Si vos résultats sont encore fragiles, la durée peut encore s’allonger. Sollicitations restées sans réponse, rendez-vous sans suite … le marathon va vous épuiser. Si vous ne réussissez pas à faire rêver l’investisseur, il sera difficile d’avoir une seconde chance. C’est pour cela qu’il ne faut pas partir trop tôt. « En revanche, si votre traction est réelle et mesurable, la levée de fonds peut se boucler assez rapidement, affirme Arnaud Katz. Il a suffi de quelques entretiens et au bout de trois semaines notre investisseur a donné le feu vert. Un mois de plus a été ensuite nécessaire pour concrétiser le deal avec les avocats ».

#4 Avoir une réserve de trésorerie

N’attendez pas non plus d’être en panne de trésorerie pour solliciter des investisseurs. En étudiant vos comptes, ces derniers s’apercevront vite de votre situation et en profiteront pour vous imposer des conditions défavorables. Par exemple une valorisation très inférieure à celle que vous espériez. Le couteau sous la gorge, vous serez tenté d’accepter n’importe quoi. « Pour notre part, nous avons toujours au moins six mois d’avance dans les caisses, assure Arnaud Katz. Nous étions donc très sereins au moment de négocier. L’idéal est d’inverser le rapport de force en donnant à l’investisseur le sentiment qu’il a besoin de vous ». 

 

Par BRUNO ASKENAZ

 

Ces signes qui montrent que vous êtes mentalement fort

La force mentale est une qualité qui peut s’identifier très rapidement. Voici quelques indices pour vous aider

La force mentale prend du temps à se développer. C’est un exercice quotidien qui vous pousse à grandir plus fort, à maintenir un niveau d’optimisme réaliste, et à fixer des barrières saines. Les personnes mentalement fortes ne perdent pas de temps à se morfondre ou à faire don de leurs facultés aux autres.

Comment savoir si nous faisons partie de ce groupe de personnes ? Nous avons posé la question à la psychothérapeute Amy Morin, auteur de l’ouvrage « 13 Things Mentally Strong People Don’t Do. »

Morin a partagé ces 21 signes qui prouvent que vous êtes mentalement plus fort que la moyenne :

Vous compensez l’émotion par la logique

Les personnes fortes mentalement comprennent que leurs émotions peuvent affecter leur pensée. Dans le but de prendre les meilleures décisions possibles, elles compensent leurs émotions avec de la logique.

Vous ne dénigrez pas les autres

Alors qu’il est tentant de faire des excuses, se plaindre à propos des autres ou éviter les situations difficiles, les personnes mentalement fortes refusent de perdre leur temps sur ce genre d’activités contre-productives.

Vous vous sentez confiant quant à vos capacités à vous adapter aux changements

Les individus qui se sentent bien dans leur tête savent que même si le changement est inconfortable, il est tolérable. Ils concentrent leur énergie à s’adapter au changement, plutôt qu’à s’y opposer.

Vous faites face aux peurs qui vous freinent

Bien que les personnes fortes mentalement n’aient pas besoin de vaincre leurs peurs pour prouver quelque chose aux autres, elles vont faire tout leur possible pour faire face aux peurs qui leur sont un frein.

Vous apprenez de vos erreurs

Les personnes solides dans leur tête ne se cachent pas ou ne s’excusent pas de leurs erreurs. Elles se servent de leurs erreurs et en tirent de précieuses leçons.

Vous trouvez un équilibre entre acceptation et amélioration de soi

Si elles éprouvent un besoin de développement personnel, les personnes solides mentalement s’acceptent telles qu’elles sont.

Vous fêtez sincèrement le succès des autres

Plutôt que de se battre avec ceux qui les entourent, les personnes mentalement fortes privilégient la coopération. Pour elles, le succès des autres ne diminue pas la valeur de leurs propres prouesses.

Vous vivez facilement en accord avec vos valeurs

Connaître vos priorités et vivre en accord avec vos valeurs permet de prendre les décisions avec aisance et d’être mentalement bien structuré.

Vous passez du temps à parfaire vos compétences

Alors que certaines personnes cherchent l’approbation des autres, d’autres sont moins soucieuses de gagner la reconnaissance de leurs pairs. Elles sont intrinsèquement motivées à devenir meilleures, avant tout pour elles.

Vous vivez une vie authentique

Les personnes fortes mentalement sont vraies envers elles-mêmes. Leurs paroles sont en accord avec leur attitude.

Vous voyez les épreuves comme des opportunités de développement

Alors que les épreuves difficiles rendent certaines personnes aigries, d’autres laissent l’adversité les rendre meilleures.

Votre estime de vous dépend de qui vous êtes, et non de ce que vous accomplissez

Les personnes fortes mentalement se sentent bien dans leur peau, qu’elles gagnent ou qu’elles perdent.

Vous êtes prêt à attendre un peu pour être satisfait

La patience caractérise la force mentale. Les personnes fortes considèrent les buts à atteindre comme un marathon, et non comme un sprint. Elles sont prêtes à tolérer une douleur sur le court terme lorsque cela peut apporter un gain sur le long terme.

Vous vous remettez vite d’un échec

Ne pas voir un échec comme une fin en soi est un élément qui caractérise les personnes mentalement fortes. Au contraire, ces dernière utilisent leurs échecs comme des opportunités d’acquérir des connaissances qui augmenteront leur chance de réussite dans le futur.

Vous êtes un optimiste réaliste

Les personnes fortes mentalement sont capables de chercher le meilleur partout et de tout voir du bon côté, mais elles ne laissent pas leurs tendances optimistes troubler la réalité.

Rappelez-vous: c’est un marathon, pas un sprint. © Monkey Business – Fotolia.com

Vous acceptez les responsabilités personnelles pour vos choix

Si les personnes dotées d’une bonne force mentale prennent toujours l’entière responsabilité de leurs actions, elles ne sont pas trop dures envers elles.

Vous exprimez votre reconnaissance

Au lieu de crier qu’elles ont besoin de plus, les personnes fortes mentalement admettent qu’elles ont plus que ce dont elles ont besoin.

Vous vous concentrez sur ce que vous pouvez contrôler

Les personnes fortes mentalement  sont efficaces et productives dans la vie car elles consacrent leurs ressources aux choses qu’elles peuvent contrôler.

Vous résolvez activement vos problèmes

Les personnes à la force mentale développée ne s’attardent pas sur le problème. Elles trouvent des solutions.

Vous êtes prêt à apprendre davantage de tout ce qui vous entoure

Les personnes fortes mentalement apprennent constamment des situations et personnes qu’elles rencontrent tous les jours.

Vous travaillez sur vos faiblesses plutôt que de les masquer.

Alors que beaucoup de personnes travaillent dur pour dissimuler leur vulnérabilité, les personnes fortes mentalement mettent à contribution leur énergie pour améliorer leurs défauts.

 

Article de Steven Benna. Traduction par Caroline Brenière, JDN

Voir l’article original : 21 signs you’re mentally stronger than average

Ces méthodes de recrutement qui n’existaient pas il y a 10 ans

En suivant les évolutions de la technologie, le recrutement a évolué. Nous le voyons au quotidien avec les clients que nous accompagnons, il peut être difficile de s’y retrouver entre les différentes méthodes qui ont émergé, et de nouvelles plateformes apparaissent tous les jours. Petit tour d’horizon des grandes méthodes qui ont pris leur envol en 10 ans, que nous avons expérimentées nous-mêmes au sein de 231e47 ou en accompagnant des grands groupes.

Réseaux sociaux

Vous ne vous imaginez plus recruter sans eux, et pourtant ils ne faisaient pas encore vraiment partie de votre vie il y a 10 ans. Il s’agit bien évidemment des réseaux sociaux. En 2006, LinkedIn ne s’était pas vraiment développé à l’international, Facebook n’avait pas lancé ses pages entreprises, Twitter était à peine naissant. Les recruteurs n’avaient pas ma même opportunité d’utiliser le sourcing pour toucher les candidats passifs, les entreprises ne pouvaient pas construire de marque employeur en dehors de leur site web, la conversation entre les candidats et les entreprises n’existait pas. Vous ne pouviez pas avoir de données sur votre communauté de candidats ou sur différencier votre discours en fonction de votre public. Les réseaux sociaux se sont profondément ancrés dans les pratiques de recrutement en les transformant radicalement, et vont continuer à les transformer alors que de plus en plus de nos clients cherchent des façons innovantes d’utiliser les réseaux sociaux et de transcender leur usage initial.

Le pouvoir au candidat

Imaginez un monde où le candidat a plus de pouvoir que le recruteur. Ce monde existe, d’une part à travers le développement de la transparence comme sur Glassdoor, d’autre part à travers la création de plateformes comme woo.com. En termes de transparence, nous aidons les entreprises à trouver comment motiver vos collaborateurs satisfaits à laisser leur avis sur Glassdoor, mais aussi à répondre aux avis négatifs de façon pertinente pour nourrir votre marque employeur. Comme l’a montré l’étude HRIdea, les entreprises sont encore peu proactives sur Glassdoor, alors que de mauvais avis peuvent dissuader un candidat de postuler.

Sur woo, les profils techniques comme des développeurs, pénuriques aux Etats-Unis, se créent des fiches anonymes (parce qu’ils n’ont pas envie que leur employeur les retrouve) avec leurs compétences et surtout leurs exigences en termes de salaire, de poste, de comp & ben… Les recruteurs ne voient alors que les fiches qui comprennent des exigences auxquels ils peuvent répondre. Le candidat, très sollicités par les cabinets de recrutement savent ainsi qu’ils ne recevront aucune proposition qui ne leur conviendra pas. Prêt à devenir flexible ?

Entretien différé

L’entretien différé est de plus en plus utilisé par les recruteurs et apprécié des candidats. Pour vous rappeler comment ça marche, les recruteurs définissent des questions qui seront indifféremment envoyées à travers une plateforme dédiée à tous les candidats, qui répondent en vidéo. Les plateformes ont commencé à exploser récemment, lorsque les recruteurs ont cherché une solution permettant de sélectionner des candidats sans la difficulté d’organiser les entretiens dans leur agenda. L’avantage est incontestablement de pouvoir se faire une idée des candidats plus complète qu’au téléphone, puisqu’on peut aussi analyser leur langage corporel. Pour les candidats, l’entretien différé permet de répondre aux questions au moment où ils sont le plus à l’aise, dans un univers qu’ils connaissent sans le stress du face à face.

image: http://www.frenchweb.fr/wp-content/uploads/2016/03/recrutement.gif

recrutement

Géolocalisation, cooptation, job matching : le recrutement mobile en pleine action

Trouver un emploi près de chez soi, un emploi qui correspond à ses compétences ou recommander une relation… Ces trois tâches sont loin d’être nouvelles dans le processus de recrutement. Pourtant, avoir des applications mobiles qui y sont dédiés a changé la donne et permis leur explosion. Chacun de ces trois secteurs a été simplifié par le mobile : la cooptation a profité des réseaux sociaux pour s’appuyer en un clic sur tous les contacts de ses utilisateurs.

La géolocalisation a beaucoup gagné de la possibilité de localiser le mobile d’un utilisateur et de lui proposer des offres autour de lui. Le job matching, qui exploite la data pour proposer aux candidats les postes les plus appropriés. En les proposant sur mobile, les candidats peuvent exploiter leur temps creux pour trier les offres d’emploi. Partout, tout le temps, dans les transports ou au supermarché.

pokemon-geolocalisation

Gamification & MOOC

Vous avez déjà eu envie de former un candidat à qui il manquait une seule compétence pour avoir le profil parfait ? Au contraire, avez-vous rêvé d’évaluer un candidat sur les tâches pour lesquelles il est réellement opérationnel ? Pour le premier cas de figure, vous pouvez lancer, comme Amazon, Facebook ou Google, des MOOC accessibles sur simple test de niveau d’entrée et sélectionner les meilleurs éléments parmi ceux qui sont allés jusqu’au bout du MOOC. Pour le second, des plateformes vous permettent de créer des défis à résoudre par les candidats (notamment sur des profils techniques comme les développeurs). Vous pourrez alors recruter parmi les candidats qui ont résolu les épreuves, avec la possibilité d’analyser la façon dont ils s’en sortent. Ces MOOC et serious game correspondent tous les deux à la même idée de mieux recruter, vous pouvez apporter de la valeur ajoutée aux candidats pour qu’il commence à apprendre ou jouer avec vous avant même d’intégrer l’entreprise.

  • A propos

 

jean-noel-chaintreuil- 231e47

Jean-Noel Chaintreuil est le CEO et fondateur de 231E47. Cette société accompagne les entreprises dans la définition et la mise en oeuvre de leurs stratégies d’acculturation digitale.
Par Jean-Noel Chaintreuil, CEO et fondateur de 231E47

 

Jeunisme, Big Data… 5 idées reçues sur le leadership à l’ère digitale

Le leadership, cette capacité à mobiliser les énergies autour d’une action commune, est le levier de la transformation digitale pour 4 décideurs sur 5, interrogés récemment par Deloitte.

Alors pourquoi si peu d’efforts sont déployés dans ce sens ? Voici une tentative d’explication sur le leadership digital pour mettre fin à 5 clichés :

1- Tout sera réglé quand les millenials seront aux commandes

Nous voilà donc sauvés. Il suffit d’attendre que les digital natives prennent le pouvoir pour que la transformation opère. Un shadow Comex composé de moins de 35 ans comme chez Accor va bien sûr dans le bon sens.

Mais certaines entreprises reviennent déjà de ce jeunisme exacerbé dans leur recrutement : le leadership digital est aussi une question de vision, de frugalité, de capacité d’engagement. Au cas où l’âge n’y serait pour rien, veillez à ne pas vous séparer trop vite vos digital migrants.

2 – L’exemplarité du boss va entraîner le reste de l’entreprise

image: http://www.frenchweb.fr/wp-content/uploads/2016/02/zuckerberg-samsung.png

zuckerberg-samsung

Difficile d’aller à l’encontre de ce postulat, d’autant que le digital est avant tout «performatif»: il y a ceux qui en parlent et ceux qui le font.

L’exemplarité fait sens pour fertiliser l’entreprise. Un simple coup d’oeil sur les comptes Twitter de jeunes actifs ou de pré-adolescents peut encore faire rougir nos patrons du CAC 40. Mais la corrélation immédiate entre le leadership digital et le nombre de followers est encore largement à prouver.

La bonne distance et la capacité de réflexivité face aux outils numériques peuvent être un meilleur levier. Le succès du repreneur de la Camif, Emery Jacquillat s’explique en partie parce qu’il a su créer de l’envie plutôt que de la peur pour digitaliser l’entreprise.

3- Rester toujours connecté est un atout décisif

«La technologie est là pour améliorer votre vie, pas pour s’immiscer entre vous et votre vie» (Randi Zuckerberg). La surcharge cognitive des outils numériques affaiblit la concentration. Notre cabinet accompagne des CDO, des décideurs IT de moins de 30 ans au bord du burn-out. Au-delà de ces cas extrêmes, la pression de l’immédiateté et de l’infobésité brouillent les repères. Le «temps long» est indispensable à notre cerveau qui est loin d’être aussi doué pour le multi-tasking. Se déconnecter permet paradoxalement de mieux se reconnecter et gagner en sérénité.

4 – Grâce au Big Data, plus besoin de leadership : l’algorithme va prendre les commandes

La redistribution des rôles entre les machines et les talents s’accélèrent. S’agissant de volume de données, de variété, de vitesse d’analyse (…), la machine a déjà gagné. Mais la modélisation et l’algorithmie sont finalement assez peu challengées par nos décideurs. Les KPI et la data-visualisation font loi. Partager les techniques de data analyse favorisent le décloisonnement dans l’entreprise et mieux encore la permission marketing quand elles sont mises en co-construction avec les clients (cf. Le DataLab de la  Poste ou le projet MesInfos de la FING). Si la data entre les mains d’une poignée d’experts et de fabricants de logiciels «propriétaires» prend le pas sur la décision entrepreneuriale, attendez-vous à une dilution des responsabilités, voire un mauvais remake de minority report.

5 – La compétence et les méthodes agiles vont remplacer l’autorité

Un leadership fondé uniquement sur la compétence digitale est une prise de risque, tout simplement parce que son obsolescence est déjà programmée. Plus que des certifications ou des diplômes, l’interdisciplinarité, l’autodidaxie, et l’élasticité managériale permettent un recul indispensable face à la révolution numérique: il n’ y a pas de modèle préétabli face à l’accélération et les disruptions, mais plutôt une démarche et surtout un état d’esprit. La transformation est difficile voire impossible quand les méthodes ou l’expertise deviennent une finalité plutôt qu’un moyen.

 

Macintosh HD:Users:nathalieschipounoff:Desktop:Capture d’écran 2016-03-06 à 21.40.46.png

              Ryan McGuire

Pour beaucoup encore, la performance et la posture «digitale» sont les clés de cette transformation : comment ne pas être fasciné par le leadership d’Elon Musk, le patron de Tesla et de Space X. Son niveau d’exigence lui permet de repousser les limites comme personne. Mais ses méthodes managériales interrogent. Du haut de ses 23 ans le chevalier blanc de la data, Paul Duhan est presque plus inspirant pour ses valeurs sur le bien commun et sa quête de sens. Pour lui, «l’algorithme ne fait pas tout» : quand vous êtes né du bon côté de la barrière, dans la bonne partie du monde, fait de bonnes études, vous avez en fait déjà gagné au loto. Alors pourquoi monter sa start-up ou digitaliser l’entreprise, si c’est juste pour gagner plus d’argent ?

  • A propos

 

nathalie-schipounoff

Conférencière et coach de dirigeants, Nathalie Schipounoff avec plus de 15 ans d’expérience dans le numérique, est co-fondatrice du cabinet Le Leader Digital. Ce cabinet accompagne les CoDir, les DRH dans la transformation digitale pour préparer les hommes et changer le management. Membre des jurys des Trophées du CoDir digital 2015 organisé par le groupe RH & M et co-auteur chez Eyrolles de Et si j’apprivoisais mon chef pour se protéger du management toxique et des fiches outils du webmarketing (Hub awards 2015).

Par Nathalie Schipounoff, cofondatrice du cabinet Le Leader Digital

5 astuces pour espionner la stratégie web de vos concurrents

Business strategy planning icon flat set with effective management achieving a goal isolated vector illustration

Business strategy planning icon flat set with effective management achieving a goal isolated vector illustration modern style

Créer un flux RSS avec les blogs des concurrents

Pour commencer, listez tous les concurrents qui ont un blog et relevez leur flux RSS. Ensuite, à l’aide d’un outil comme Netvibes ou Feedly, vous pouvez regrouper tous ces flux.

Chaque matin ou chaque soir, il vous suffit de les consulter pour connaître les derniers articles publiés.

Créer un flux RSS avec les médias spécialisés de votre secteur

De la même manière que vous avez relevé les blogs de vos concurrents, listez les médias spécialisés dans votre domaine d’activité. Ils publient généralement des informations sur vos concurrents et révèlent aussi les nouveaux acteurs du marché.

C’est aussi un excellent moyen de veiller sur les évolutions de votre secteur et les nouvelles attentes des consommateurs.

Créer des alertes sur les raisons sociales des concurrents

Pour que la veille sur vos concurrents soit complète, créez des alertes sur leur raison sociale. Vous pouvez utiliser un outil gratuit d’e-rupation comme Google Alertes ou payant, mais plus complet, comme Alerti ou Mention. Les résultats de ces alertes font remonter tous les articles et contenus des réseaux sociaux parlant des entreprises concurrentes.

Vous pouvez ainsi analyser les retombées de leur stratégie digitale et les feedbacks concernant leurs prestations. Ces données vous aideront à optimiser vos offres commerciales et à affiner votre communication.

Ajouter les comptes Twitter de concurrents dans une liste privée

Vos concurrents ont-ils un compte Twitter ? Si c’est le cas, profitez-en aussi pour veiller sur leurs posts sur le réseau de microblogging. Pour les espionner en toute discrétion, créer une liste privée, nommée « Concurrents » par exemple, et ajoutez-les. Attention, ne les suivez pas !

Il vous suffira de faire régulièrement un tour sur cette liste pour visualiser et analyser leurs dernières publications et leur stratégie.

S’abonner à leur newsletter

Une autre méthode pour garder vos concurrents en ligne de mire est de vous abonner à leur newsletter. Pour cela, évitez de choisir votre adresse professionnelle pour ne pas vous trahir. Prenez une adresse neutre en gmail ou outlook, qui vous servira seulement à effectuer votre veille.

Vous recevrez en direct les dernières actualités de l’entreprise, ainsi que ses offres commerciales. Idéal pour faire une contre-proposition aux consommateurs ou trouver comment être plus performant !

Faire appel à un freelance sur Codeur

Oui, il est vrai qu’une veille concurrentielle est chronophage, mais cela en vaut la peine ! C’est une technique performante qui vous permettra d’ajuster votre stratégie ou de trouver des idées pour la faire évoluer.

Si vous n’avez pas le temps de vous en occuper, nous disposons de freelances prêts à vous aider ! Ils pourront mettre en œuvre toutes les bonnes pratiques répertoriées dans cet article et vous transmettre un reporting mensuel des retombées concurrentielles, ainsi que des actions à retenir.

Postez dès aujourd’hui votre annonce gratuite pour trouver un freelance spécialisé dans la veille.

Et vous, comment veillez-vous sur vos concurrents ? N’hésitez pas à partager vos bonnes pratiques en commentaires.

Les 6 règles de l’honnêteté intellectuelle

L’honnêteté intellectuelle est comme toute vertu : la plupart des gens la saluent, mais peu la pratiquent. Et ce, parce que peu de gens en sont capables. En effet, être intellectuellement honnête est difficile car cela requiert d’aller à l’encontre de tendances psychologiques instinctives, et donc un effort mental.

Il est certaines professions où l’honnêteté intellectuelle joue un rôle particulièrement crucial : le magistrat devant juger objectivement une personne qui pourtant incarne tout ce qu’il déteste à titre personnel, ou encore le scientifique devant remettre en question sa propre théorie face à des résultats expérimentaux défavorables. Cette droiture intellectuelle témoigne indéniablement d’une immense grandeur d’esprit, dont peu de personnes, encore une fois, sont capables.

Voici selon moi les 6 traits principaux de l’honnêteté intellectuelle.

#1 Ne pas mentir, ni aux autres ni à soi-même

“Ne pas se raconter d’histoires, ne pas s’abuser soi-même, étant entendu qu’on est soi-même la personne qu’il est le plus facile d’abuser.Richard Feynman (1918-1988)

Le mensonge a une fonction de préservation de l’intégrité psychique, aussi est-il très difficile de ne pas mentir. J’ai tendance à penser que pour éviter de duper les autres, il faut d’abord apprendre à ne pas se duper soi-même. Cette auto-duperie consiste à se détourner de la vérité en se racontant des histoires. Ne pas se duper soi-même implique donc de ne pas se chercher d’excuses, de reconnaître ses erreurs et ses échecs, et de réfléchir sur les motivations réelles de ses comportements.

#2 Se défaire de son égocentrisme

“Il y a des gens tellement égocentriques que, fermant les yeux, ils croient que le monde s’est éteint.Grégoire Lacroix (1933-)

L’égocentrisme est la tendance à tout ramener à soi et à surpondérer son propre point de vue. Le psychologue Jean Piaget avait montré que le développement psychologique de l’enfant se caractérise par une réduction progressive de l’égocentrisme. Lorsqu’il constate que la lune bouge dans le ciel, l’enfant pense d’abord que c’est la lune qui le suit avant de progressivement se décentrer de son point de vue.

On constate la même évolution dans l’histoire des idées, celle d’une réduction de l’égocentrisme de l’Homme. Copernic tout d’abord, montre que c’est le Soleil et non la Terre qui est au centre de l’Univers. Darwin ensuite montre que l’Homme n’est pas une création divine mais le produit d’un processus strictement matériel, l’évolution biologique. Freud enfin suggère que l’Homme n’a même pas le contrôle total de ses actes (Le moi n’est pas maître dans sa propre maison).

L’honnêteté intellectuelle passe par une réduction de son égocentrisme. Cela implique de savoir relativiser son propre point de vue et de faire l’effort d’envisager les choses d’un point de vue différent du sien. Dans son propre référentiel, on a raison et l’autre a tort. Mais les choses peuvent se révéler différemment si l’on s’efforce de s’extraire de son propre point de vue.

Réduire son égocentrisme consiste aussi à ne pas croire que son expérience personnelle est représentative. En effet, même sans être animé d’une volonté de se donner une importance particulière, parler de soi et évoquer son expérience personnelle est toujours agréable. Ainsi, lorsqu’une personne parle d’un événement qui lui arrive, nous avons tendance à nous référer à la façon dont nous avons vécu nous-mêmes cet événement en sous-entendant que notre expérience personnelle est prototypique. Or cela est faux bien entendu : chaque personne a sa propre histoire et aucune n’est plus représentative qu’une autre. Il faut là encore se défaire de son égocentrisme en n’accordant pas à sa propre histoire plus de typicalité qu’elle n’en a.

#3 S’efforcer d’être objectif

L’objectivité est la “surveillance intellectuelle de soi écrivait Gaston Bachelard (1884-1962).

A mon sens, l’objectivité est la caractéristique la plus importante de l’honnêteté intellectuelle. Être objectif dans une situation donnée, c’est prendre en compte tous les éléments en jeu (pas seulement ceux qui nous arrangent) et les considérer de façon rationnelle (non biaisée).

Autrement dit, une attitude objective consiste à mettre tous les éléments sur la table et à faire la colonne des « + » et la colonne des « – » pour toutes les alternatives. Il faut donc s’efforcer de faire la colonne des « + » même pour les alternatives que l’on n’aime pas, et faire la colonne des « – » même pour les alternatives que l’on aime bien. De façon prosaïque, est objectif celui qui sait reconnaître les qualités de ses ennemis et les défauts de ses amis, celui qui accepte l’idée qu’il y a des gens bien qui font des mauvaises choses et des gens mauvais qui font de bonnes choses.

Être objectif consiste donc à être capable de nuancer son jugement et à ne pas voir les choses de façon manichéenne ou clivée.

#4 Considérer les faits avant tout

“In God we trust; all others must bring data. Edwards Deming (1900-1993)
Les débats sont souvent stériles car ils reviennent à une opposition d’idées et d’opinions sans considération pour les faits. A cet égard, la plupart des gens sont victimes du biais de confiance subjective. Ils pensent qu’une idée est vraie parce qu’ils trouvent le raisonnement qui la sous-tend convaincant. Ils pensent que l’on peut prouver une idée sur la seule base d’un raisonnement théorique.

Mais ils se trompent, car le degré de véracité d’une idée se juge avant tout au regard des faits, des éléments tangibles qui l’étayent. Si vous pensez que la catégorie socio-professionnelle des parents a peu d’influence sur la réussite scolaire des enfants, ou si vous pensez que le système éducatif français est moins performant que le système éducatif allemand, vous devez mettre des faits (en l’occurrence des chiffres) sur la table.

Si appuyer sa démarche intellectuelle sur des faits est une bonne chose, encore faut-il le faire correctement. A ce propos, une erreur très répandue consiste à ne considérer qu’un seul fait, qu’un seul exemple pour appuyer une idée. Or un exemple isolé ne prouve rien. Et multiplier les exemples n’est guère mieux (“The plural of anecdote is not data). Ainsi, invoquer le cas de son grand-père qui a fumé jusqu’à 80 ans sans cancer n’invalide pas le lien statistique entre tabagisme et cancer. Les esprits simples raisonnent sur des cas particuliers alors que les esprits réfléchis raisonnent à un niveau général à l’aide de statistiques.

#5 Ne pas confondre la réalité et la réalité telle qu’on voudrait qu’elle soit

When we can’t fit a square peg into a round hole, we’ll usually blame the peg—when sometimes it’s the rigidity of our thinking that accounts for our failure to accommodate it.” Nate Silver (1978-)

Chacun d’entre nous souscrit à une certaine idéologie et une certaine vision du monde, ce qui se traduit par l’utilisation de certaines catégories mentales. En général, lorsque l’on n’arrive pas à faire rentrer la réalité dans nos propres catégories mentales, on blâme la réalité. On lui en veut de ne pas correspondre à ce qu’on voudrait qu’elle soit. Ici, l’honnêteté intellectuelle consiste à se défaire de cette tendance, c’est-à-dire à ne pas confondre notre vision particulière du monde et le monde tel qu’il est réellement.

Que fait-on quand l’une de nos croyances ne concorde pas avec la réalité ? Les personnes rationnelles abandonnent leur croyance, les personnes irrationnelles abandonnent la réalité. Pourquoi ces dernières agissent-elles ainsi ? Tout simplement parce ce que ce qui compte pour elles au fond, c’est de préserver leur idéologie et leurs valeurs personnelles. Elles sont enclines à rejeter un élément factuel si celui-ci n’est pas en conformité avec le monde tel qu’elles voudraient qu’il soit. Avoir cette attitude, c’est prendre ses désirs pour des réalités.

Par exemple, sur la question de l’inné et de l’acquis, la posture idéologique socialement valorisée consiste à affirmer que l’environnement façonne davantage une personne que ses gènes. Cette posture est bien résumée par Franck Ramus, directeur de recherches au CNRS [3] : “Si le comportement était génétiquement déterminé, cela signifierait que nous ne disposons d’aucun libre-arbitre, que nous ne sommes pas maîtres de nos actes, et par conséquent que l’on ne peut nous imputer la responsabilité de nos actes. Comme c’est inconcevable, il est impossible que le comportement soit déterminé génétiquement.

On n’oublie qu’il s’agit avant tout d’une problématique empirique et non idéologique. Ainsi, toute personne qui jetterait le discrédit sur un résultat scientifique sous prétexte qu’il ne va pas dans le sens de son idéologie personnelle ferait preuve d’une malhonnêteté intellectuelle patente.

#6 Accepter le doute

“Tout le problème de ce monde, c’est que les idiots et les fanatiques sont toujours si sûrs d’eux, tandis que les sages sont tellement pleins de doutes. Bertrand Russell (1872-1970)

“On mesure l’intelligence d’un individu à la quantité d’incertitudes qu’il est capable de supporter. Emmanuel Kant (1724-1804)

Accepter le doute est contre naturel car notre cerveau est biologiquement programmé pour réduire l’incertitude. Dans la perception visuelle par exemple, celui-ci résout en permanence un problème… insoluble : déterminer l’objet réel (en 3 dimensions) à partir de l’image rétinienne (qui elle est en 2 dimensions). Ce problème est insoluble car à une même image rétinienne peuvent correspondre plusieurs objets différents : il y a une incertitude fondamentale (ce que les physiciens appellent un problème d’optique inverse). Pour trancher cette incertitude, le système visuel utilise des hypothèses, des connaissances sur la structure du monde extérieur.

“Le silence éternel de ces espaces infinis m’effraie écrivait Blaise Pascal dans ses célèbres Pensées. L’esprit humain déteste l’incertitude. Il cherche par conséquent à la réduire autant que possible. Et pour combler le vide, il utilise des hypothèses, des supputations. En fait, celles-ci lui permettent moins d’atteindre la connaissance qu’un sentiment de certitude. Comme le notait très justement le philosophe Bertrand Russell, « Ce que les hommes veulent en fait, ce n’est pas la connaissance, c’est la certitude. »

Mais la plupart du temps, les hypothèses que nous formulons pour réduire le doute et l’incertitude sont au mieux hasardeuses, au pire, totalement erronées. L’honnêteté intellectuelle consiste ici à se défaire de ces hypothèses hasardeuses au profit du doute. Bref, être tout simplement capable de dire « Je ne sais pas ».

Notre refus instinctif du doute se manifeste très explicitement au travers de la façon dont nous appréhendons la présomption d’innocence. Comme le souligne l’avocat pénaliste Éric Dupond-Moretti, lorsqu’une personne fait l’objet d’une mise en accusation, notre premier réflexe est de demander « Qu’est-ce qu’elle a fait ? » plutôt que « Que lui reproche-t-on ? ». Et ce, car il est psychologiquement plus confortable de croire qu’un accusé est coupable que d’accepter le doute sur sa culpabilité.

Conclusion

Au final, l’honnêteté intellectuelle est la capacité à se défier de soi-même, à être conscient de ses biais, et à prendre du recul pour considérer les choses de façon sereine et rationnelle. Ainsi, une personne intellectuellement honnête est pondérée, formule des jugements nuancés, remet toujours en cause sa première impression/intuition, et accepte le doute.

Les règles de l’honnêteté intellectuelle sont aussi simples à énoncer que difficiles à respecter dans les différentes situations personnelles et professionnelles que nous rencontrons. Personnellement, je ne suis pas capable de suivre ces règles de façon systématique. Mais je crois que c’est être honnête que de le reconnaître.

 

par Vincent Berthet

 

Donnez un coup de TRUMP à votre inbound marketing

inbound

 

Que vous l’aimiez ou pas, il faut admettre que d’un point de vu inbound marketing, Donald Trump a plutôt bien réussi son coup. Il se hisse tout en haut de la campagne des primaires américaines malgré des dépenses relativement basses comparées à celles de ses concurrents.

Définition et méthode de mise en place de l’inbound marketing

  1 – Connaître son audience

Qu’est ce qui fait de la campagne de Donald Trump un tel succès ? Hey bien le gars connaît son audience, tout simplement. C’est une étape primordiale pour vous assurez de la réussite de votre stratégie d’inbound marketing.

Déterminez le profil de vos acheteurs. Qui sont-ils ? qu’est ce qui est important pour eux ? Comment vous pouvez les aider à résoudre leurs problèmes ?  Toutes ces questions pour mettre en phase votre offre et leurs besoins.

Source : http://www.lizhidalgo.com/

2 – Parler le même langage que son audience

Donald Trump est le fils d’un multi-millionnaire. On ne peut pas vraiment dire qu’il est parti de rien pour faire sa fortune. Il a reçu la meilleure éducation scolaire et 1 million de dollars de son papounet pour démarrer son business.

On ne peut pas dire qu’il ait beaucoup de point commun avec sa base d’électeurs mais il sait comment leur parler.

Si vous connaissez votre audience (comme vu dans le point 1) vous saurez comment attirer leur attention. L’homme à la mèche blonde sait que sa base électorale s’inquiète de l’afflux d’immigrants, a peur que quelqu’un (les démocrates) prennent leurs armes, qu’ont viennent voler leurs boulots et colonniser leurs quartiers. C’est donc exactement de ces problèmes qu’ils leurs parlent avec leurs propres mots et en retour il obtient leur adhésion.

La plupart des entreprises font l’erreur de parler à leurs clients en utilisant le jargon métier plutôt que d’employer les termes et le ton de leurs interlocuteurs. Résultat, le message est brouillé et la connexion ne se fait pas.

3 – Ne pas être fade

Source : campagne #DrivenByStyle

Que se passe t-il lorsque Donald fait une déclaration controversée ? Toute la presse en parle (en bien ou en mal mais plus en mal qu’en bien) et c’est exactement ce dont il a besoin pour réussir dans son business actuel, « which is » devenir président.

L’important pour une entreprise est de raconter une histoire dans laquelle son futur client pourra se reconnaitre et qui suscitera une émotion. Il va s’en dire qu’en tant qu’entreprise vous n’irez pas aussi loin que Trump en affirmant tout et n’importe quoi pour être en phase avec votre public (Vous pensez vraiment qu’il va construire ce fameux mur entre le Mexique et les Etats-Unis ?!).

Je trouve que cet exemple de Philips est plutôt pas mal en terme de story telling : http://www.philips.fr/a-w/innovationandyou/article/extended-story/chorale-a-couper-le-souffle.html

 4 – Etre différent de ces concurrents

Pensez-vous qu’il y a une réelle différence de fond entre Mister T. et ses comparses du parti républicain ? Non pas vraiment, l’idéologie est la même, c’est celle du parti finalement. Mais il arrive à se détacher du lot par la « forme », son style, son attitude en bref sa marque.

Dans un marché ultra-concurrentiel, une entreprise doit aussi se différencier (« poke » Michael Porter). L’exemple des taxis contre les uber-like est typique d’une entreprise qui n’a pas su appliquer ce principe. Outre les problématiques legislatives, elle s’est retrouvée avec une proposition de valeur inférieure à ces concurrents pour un prix souvent supérieur. Pour sortir du lot elle devra non-seulement obtenir (à minima) l’alignement des prix mais aussi augmenter la valeur perçue du service pour se différencier.

Dans cette course aux primaires américaines, « The Trump », a bel et bien su imposer sa marque grâce à des principes d’inbound marketing :

  • Créer un contenu à valeur ajouté à tendance virale pour sa cible
  • Mettre en place un mix paid-earned-owned media très efficace
  • Transformé son audience en prospect (dans son cas des supporters)
  • Transformé ses prospects en acheteurs (votant) mais rien est encore fait.

Un exemple qui devrait inspirer pas mal d’entrepreneurs qui souhaitent eux aussi développer l’engagement avec leur cible et infine booster leur business.

Chronique de Gilles Gumbs

Cessez de chercher le business model digital disruptif

Comme j’ai pu l’écrire un certain nombre de fois depuis le début de l’année, la transformation digitale est en route, on a lancé la fusée mais on a du mal de la faire atterrir. Pour mémoire Arthur D. Little nous dit que l’essentiel des entreprises est « quelque part sur son chemin » et Cap Gemini Consulting que 7% seulement des entreprises sont expertes en digital et que 56% des entreprises ont commencé à travailler leurs compétences digitales sans pour autant percevoir de retour sur investissement. Les dirigeants eux-même, ont décidés de faire avancer les choses. Armés de bonne volonté, ils semblent dans de nombreux cas «au milieu de quelque» part sans savoir trop où aller. Avec de vagues certitudes sur ce qu’ils cherchent et un gros point d’interrogation quant à comment et où le trouver.

«La transformation digitale c’est des business nouveaux reposant sur de nouvelles expériences». C’est la définition de la transformation digitale qui fait foi aujourd’hui et si comme toute définition synthétique d’un domaine aussi large elle est forcément un peu réductrice, elle ne donne pas moins une idée assez claire des enjeux. Et pourtant elle fait beaucoup de mal à qui ne sait pas la manier et la prend au pied de la lettre.

La transformation digitale ne commence pas par le business model

C’est ainsi qu’on voit des entreprises se mettre en quête de trouver le fameux business model qui les sauvera. Prenez deux minutes pour imaginer la situation. Des personnes (souvent dirigeants et managers) plongées dans un environnement nouveau qu’elles ne connaissent le plus souvent que depuis peu et de manière conceptuelle faute de pratique personnelle, et qui se mettent à réfléchir à un business model nouveau le business model étant aussi quelque chose de conceptuel et théorique tant qu’on a pas essayé de le mettre en œuvre.

Vous imaginez le résultat : ça plane, ça phosphore, on a des réflexions de haut niveau mais au final rien n’atterrit. Et tout le monde reste perdu, comme en apesanteur au milieu de nulle part, en se disant qu’on est pas loin d’avoir mis le doigt sur quelque chose mais sans jamais le toucher. Donc on accouche d’une vague vision dont on confie l’exécution à d’autres qui eux même cascadent…en espérant qu’à un moment dans la chaine quelqu’un va avoir un éclair de génie et raccrocher tout ça à quelque chose de tangible.

Laissez moi vous dire quelque chose. Personne (ou presque) n’a inventé de business model nouveau ex-nihilo. Jamais. Pas plus à l’ère digitale qu’avant. C’est une approche trop lointaine et théorique.

Ce que les gens ont inventé c’est des offres, des produits, et surtout des services qui, ils le pensaient, répondaient à un besoin et, ils l’espéraient, aller rencontrer leur marché. Et parmi toutes ces idées certaines ont effectivement fonctionné et a posteriori ont créé un business model nouveau. On construit une offre, un service, de la nature de ce service découle une manière nouvelle ou non d’organiser la production et la chaire de valeur et, dans l’affirmative, on tient un business model.

Le business model est un produit dérivé de l’offre

Le business model se construit inconsciemment et simultanément avec l’offre et n’est post-rationalisé pour être industrialisé que si l’offre rencontre un marché. Sinon on jette tout (et parfois un business model prometteur accolé à une offre mal ficelée…c’est ce qu’on appelle jeter le bébé avec l’eau du bain). Par contre une fois qu’on a trouvé quelque chose qui fonctionne, on peut décliner le business model à l’envi sur de nouvelles offres.

Puisque tout le monde a les yeux braqués sur Uber, pensez vous une seule seconde que ses fondateurs aient voulu créer un business model nouveau et inventer l’«uberisation»? Aussi talentueux soient ils, ce serait aller vite en besogne. Il sont d’abord voulu résoudre un besoin, un problème client. Ce faisant ils ont imaginé de mettre en relation une offre et une demande qui n’avaient pas les moyens de se rencontrer et, en passant, ont réglé un problème d’expérience par l’application, le parcours client et le choix de prestataires plus haut de gamme que ceux qu’ils remplaçaient. Le modèle nouveau a été le résultat, pas le départ. Ils n’ont pas démarré en se disant « tient on va se positionner différemment dans la chaîne de valeur». Uber n’a cherché à Uberiser personne. Ils l’ont fait mais c’était le résultat, pas le but

Partant de là j’en vois beaucoup obnubilés par le fait de se déplacer dans la chaîne de valeur sans aucune considération de besoin client ou de chaîne d’expérience. On invente ainsi des modèles qu’on a du mal de faire atterrir et opérationnaliser car ils ne correspondent à aucune demande. Ce sont des concepts à la recherche d’un problème alors que nous avons déjà assez de problèmes à la recherche d’une solution sans essayer de s’occuper de ceux qui n’existent pas.

Je reviens sur cette fantastique tribune de Thomas Guyon à laquelle je souscris dans une très large mesure. Tous les outils, canevas méthodologique et baguettes magiques utilisés aujourd’hui pour aider les entrepreneurs à accoucher de business models sont faits pour expliquer et analyser des business existants, pas pour en créer de nouveaux.

Des expériences digitales ne supposent pas toujours un business model nouveau

«Nouveaux business models reposant sur de nouvelles expériences». Si on lit la phrase avec attention on en comprend le sens. L’expérience vient avant le business model. C’est le business model qui découle de l’expérience et pas l’inverse.

Donc rien ne sert de chercher des business models et de commencer par cette partie. C’est du client que tout part.

Mais ça n’est pas tout, la transformation digitale peut se traduire par de nouvelles expériences sans changement de business model.

Prenons le domaine de l’aérien et sa digitalisation depuis 10 ans.

  • on a pu acheter ses billets sur le web
  • on a pu s’enregistrer sur le web
  • on a dématérialisé la carte d’embarquement
  • on a dématérialisé la totalité du parcours client
  • on a apporté de nouveaux canaux de servicing
  • on a créé de nouvelles expériences sur la partie «inspiration» du parcours d’achat
  • on a délivré par des canaux digitaux des services autrefois physiques sans pour autant en changer le modèle économique (presse en ligne, streaming de vidéos en wifi dans l’avion sur tablettes..)
  • on a équipé les agents en vol et sol d’applications sur tablette permettant de mieux servir le client, d’anticiper ses besoins en le connaissant mieux et de pouvoir régler ses problèmes in situ.

 

Aucune transformation du business model et pourtant en 10 ans on ne peut pas dire que l’expérience digitale n’a pas fait un grand bond en avant. Comme quoi on peut se digitaliser par l’expérience sans pour autant transformer son business model (en tout cas pas pour des motifs digitaux).

Moralité, il vaut mieux commencer par s’occuper de l’expérience client (et employé), partir de vrais besoins au lieu de perdre dans la jungle de la réflexion sur les business model. Quand on a une idée qui fonctionne, le business model suit.

 

bertrand-duperrinBertrand Duperrin est Digital Transformation Practice Leader chez Emakina. Il a été précédemment directeur conseil chez Nextmodernity, un cabinet dans le domaine de la transformation des entreprises et du management au travers du social business et de l’utilisation des technologies sociales.

Par Bertrand Duperrin