Category Archives: Mis en valeur

La régulation m’a tué… La FinTech est née

cyril-tramon-Wesharebonds

La nature a horreur du vide. Voilà pourquoi les fintech émergent et améliorent ou remplacent les établissements financiers.

Pourtant chaque jour qui passe, on vous vend un autre histoire, celle d’établissements financiers européens qui souffrent et se plaignent de la régulation actuelle, Bâle 3, et solvency 2, et celle à venir…Bâle 4…et laissent à penser que finalement ces fintechs prennent avantage de cela. C’est vrai, mais c’est l’arbre qui cache la forêt.

Tous affirment, la main sur le cœur, que les exigences prudentielles, en clair de fonds propres, les obligent à fermer ou vendre des activités, à délocaliser, à embaucher des spécialistes de la compliance, par définition non productifs, pour pouvoir faire les économies nécessaires et ainsi maintenir les profits qui leur permettent de faire leur métier. Tous affirment aussi que les établissements financiers américains, qui sont pourtant plus à l’origine de la crise, ne subissent pas les memes contraintes, et que tout cela est prodigieusement injuste et anti-concurrentiel, et les pénalise. Cela est plus discutable, mais en grande partie vrai.

Pourtant, c’est outre atlantique que les « fintechs » ont démarré le plus fort, ce qui montre bien que les problèmes règlementaires des banques ne sont pas la cause essentielle de l’émergence des fintechs.

Le contexte de fond favorable aux fintechs, c’est celui de l’émergence d’une nouvelle génération, la « génération Y « , celle des « digital natives », qui est dans tous les aspects de sa vie en quête de relations directes et de transparence, et qui va d’autant moins se priver d’appliquer ces principes à la gestion financière qu’elle garde en mémoire les errements la crise de 2007/2008. Cette génération n’aime déjà pas les intermédiaires quand ils prennent une marge sans apporter de service significatif ; elle s’en passe encore mieux quand il apparaît que les intermédiations successives, en plus d’empiler les coûts, provoquent des court-circuits systémiques, des complexités illisibles, des catastrophes en chaine, ou plus généralement une asymétrie dans l’analyse des risques ou un aveuglement au risque extreme.

Comme la banque n’est pas un métier comme un autre, ce mouvement inquiète. Uber peut bien troubler le métier des taxis, c’est un problème corporatiste localisé : quelques-uns (les taxis en place) perdent beaucoup, d’autres (ceux qui accèdent à l’emploi) gagnent beaucoup, la majorité gagne un peu (du choix et de la compétition dans les modes de transport).

La banque, c’est plus sérieux : c’est une utilité de base qui permet aux gens d’utiliser la monnaie scripturale et conditionne le financement du commerce, de l’industrie et de nos économies. Les investisseurs peuvent parfois perdre de l’argent, sur un marché qui doit être transparent sur les risques pris. Mais les banques ne doivent pas fermer, et ne doivent plus menacer de fermer sauf à obtenir le soutien du contribuable. C’est pour cela qu’elles doivent être régulées, et limiter leurs prises de risque. Et comme il faut quand même que des investisseurs prennent des risques, et soient rémunérés pour cela si le risque ne se concrétise pas, il faut que ces risques soient pris directement sur des marchés transparents. Les « fintechs » utilisent la technologie pour permettre à ces marchés de risque de fonctionner le plus directement possible, entre les épargnants et les entreprises (ou parfois les particuliers) qui ont besoin de lever de la dette ou du capital.

Ce mouvement, qui va réduire les banques à un rôle d' »utilité de base », très régulée et essentielle au fonctionnement de la vie en société, et qui va déplacer les activités de prise de risque sur des marchés que la technologie rendra de plus en plus en plus transparents, n’est pas près de s’arreter. Les banquiers d’hier ne croient plus trop à leur modèle ancien : quand on les interroge, ils finissent par convenir qu’une banque en vaut bien une autre. Il n’y a plus cet attachement qui a existé dans certains établissements forts d’une culture souvent centenaire, et d’une histoire glorieuse de rachats et autres batailles boursières pour se manger les uns les autres. Pour les jeunes, les métiers de la banque attirent moins. Les plus brillants éléments des meilleures écoles ne vont plus spontanément dans ces banques, un phénomène qui accentue le déclin de l’intérieur. Vis à vis de l’extérieur, des gens qui ont tendance à mettre tout le monde dans le même sac, les nombreux cas de manquements individuels aux règles les plus élémentaires d’éthique ont entamé la fierté d’être banquier. Et pour retrouver un rôle social incontesté, un projet commun, une identité commune, les banques n’ont pas d’autre choix que de redevenir austères, ennuyeuses, et averses au risque. Et aussi longtemps qu’elles gèreront la monnaie et engageront implicitement le crédit des Etats qui les hébergent, on les préfèrera ainsi.

Il faut donc qu’à coté des banques, là ou des épargnants conscients et informés peuvent choisir les projets entrepreneuriaux auxquels ils croient, là où chacun ne peut perdre que son argent et n’engage pas le budget de la collectivité, s’organise de manière transparente et efficace le marché des risques. C’est peut-être là qu’iront les équipes les plus dynamiques des banques, et notamment dans les « fintechs » qui affichent crânement leur indépendance, la liberté d’innover et aussi de se tromper, et qui expriment une autre valeur qui semble perdue dans ces établissements : la prise de risque, corollaire de l’entrepreneuriat et du dynamisme. Elle le feront dans un cadre qui doit aussi etre régulé, de manière spécifique, et dans lequel la technologie permet à chacun d’identifier avec précision le risque qu’il prend : telle entreprise, et pas telle autre ; une entreprise choisie soi-même, et non un panier d’entreprises constitué de manière opaque par de soi-disant professionnels de la gestion d’actifs sur lesquels une recherche académique abondante a montré qu’ils ne battaient jamais les indices en moyenne durablement, ou alors par hasard. C’est ce que permet la technologie, et qui modifie les règles de la prise de risque : le risque devient tracable, et beaucoup plus accessible, même pour des montants moins élevés, par un individu ou un groupe d’individus qui échangent ensemble leurs analyses.

C’est pour nous le vrai moteur de cette « renaissance », bien aidé il est vrai par le contexte, la technologie, et un leadership de ces géants qui tardent à réagir. Ils le feront, les fintechs rentreront dans le rang, mais pour autant, comme l’aurait dit Machiavel, un peuple qui a gouté à la liberté ne peut plus durablement être gouverné dans un autre système. Les banquiers modernes l’ont compris et s’adapteront, les autres…

  • L’auteur

Par Cyril Tramon, Président et co-fondateur de Wesharebonds, une plateforme de crowdfunding en prêt.

 

 

La stratégie de la gratitude

La rude concurrence sur le marché a favorisé l’émergence de nouveaux modèles économiques, sans pour autant révoquer totalement les anciennes méthodes. Le bouche-à-oreille et les relations gagnantes-gagnantes rattrapent du terrain.

Besoin d’un développeur web ?

Trouvez gratuitement un freelance disponible pour vous aider !

Trouver un freelance

Ces bonnes recettes d’autrefois ont juste changé de nom et se font maintenant appelé « Thank You Economy » ou stratégie de la gratitude.

 

miniature-graphiste

Définition de la stratégie de la gratitude

Le « Thank You Economy » est un concept qui repose sur deux notions principales : la gratuité et l’échange gagnant-gagnant entre les partenaires.

En clair, elle promeut le partage de contenus web nécessaires à la construction d’une communauté d’internautes engagés autour de son entreprise.

La stratégie de la gratitude n’est pas un concept nouveau en soi. Mais, elle a été réinventée et mise en avant par l’entrepreneur Gary Vaynerchuk. Dans son livre intitulé « The Thank You Economy », l’auteur a voulu replacer le marketing relationnel au cœur du processus de vente sur internet, comme pour le marché physique.

Ce qu’elle apporte à l’entreprise… et aux clients

Si internet est souvent perçu comme une passerelle déshumanisante, la « Thank You economy » veut justement rétablir cette humanité. Elle entend remettre la relation humaine au cœur de la stratégie digitale.

L’idée maîtresse du concept consiste à donner quelque chose, par altruisme, afin d’en recevoir de la part des autres. Elle met ainsi un point d’honneur sur l’écoute et l’appréciation.

À travers cette notion, le consommateur a désormais la possibilité de faire connaître ses préoccupations. Ce qui lui permet d’apprendre de nouvelles choses à travers un échange désintéressé.

Pour l’entreprise et les marques, la stratégie de la gratitude est un excellent moyen d’accroître la satisfaction des prospects via des échanges riches et intéressants. Ce qui, au final, va les convertir plus facilement en client.

Que la « Thank You economy  soit utilisée par une PME ou une grosse structure, cette stratégie sert de levier pour construire une communauté sociale dynamique. Vous aurez donc compris que la stratégie de la gratitude n’est pas fondée sur un critère économique, mais plutôt culturel. Ce qui permet à l’entreprise d’échanger facilement sur tous les sujets avec sa communauté (clients, partenaires BtoB, etc.) et de s’humaniser. En effet, la spontanéité des échanges entre les différents acteurs crée un système de partage sans attente réciproque immédiate entre les interlocuteurs.

Comment mettre en œuvre la « Thank You Economy »

Plusieurs moyens sont nécessaires pour mettre en œuvre la « Thank You Economy ». Mais avant tout, gardez à l’esprit que le marketing relationnel passe inévitablement par l’échange !

Par exemple, si vous tenez un e-commerce, il va falloir intégrer le chat dans votre stratégie de communication. Cela permet d’échanger en live avec vos clients, d’avoir leurs avis en temps réel sur divers sujets, de les guider dans votre tunnel d’achat ou pour répondre à leurs besoins spécifiques dans les meilleurs délais.

La construction d’une communauté active sur les réseaux sociaux constitue aussi un préalable à la mise en œuvre de la « Thank You Economy ». Par ailleurs, l’utilisation de vidéo ou podcast valorise également la dimension humaine dans la relation commerciale par l’échange. Et surtout, n’oubliez pas de publier des contenus qualitatifs et utiles pour les consommateurs, sans rien demander en retour !

C’est une marque de confiance qui permet de nourrir votre stratégie de la gratitude.

La « Thank You Economy » entend (re)centrer la relation humaine dans la stratégie digitale globale. C’est une méthode qui profite à tout le monde, car vous pouvez aussi apprendre de nouvelles choses sur vos clients ou votre environnement.

Alors, prêt à adopter la stratégie de la gratitude ?

d’après Fabien de Codeur.com

Ces patrons trop frileux face aux réseaux sociaux

45 millions d'internautes en France, 36 millions d'acheteurs sur Internet. Il faudra bien qu'un jour l'entreprise parle le même langage qu'eux.

45 millions d’internautes en France, 36 millions d’acheteurs sur Internet. Il faudra bien qu’un jour l’entreprise parle le même langage qu’eux.

Avant-gardistes et leader sur leur marché, certaines entreprise ne voient pas toujours l’intérêt d’investir dans les médias sociaux. A tort?

« J’ai une aversion profonde pour Facebook et Twitter. Je ne leur trouve aucune utilité et leur intrusion me gêne beaucoup. Ni l’un ni l’autre ne sont des outils de développement pour nous. Je ne crois d’ailleurs pas qu’ils vont durer. C’est une mode, les gens vont s’en lasser. » Loïc Bessin est catégorique. Ce co-fondateur de Eco-Dex, une TPE sarthoise de 20 personnes préfère de loin le concret au virtuel. « Notre philosophie est avant tout industrielle et proche du terrain. » Et cela lui convient très bien ainsi.

Facebook, Twitter… pour quoi faire?

Sa société conçoit et fabrique depuis 2012 des automates capables de conditionner et de délivrer des médicaments unidosés et tracés. Ses machines, uniques sur le marché national, équipent à ce jour 12 établissements médicalisés et délivrent des pilules tous les jours à plus de 4000 patients. Eco-Dex affiche un chiffre d’affaires de 3,5 millions d’euros et Loïc Bessin avoue que son entreprise est dimensionnée pour atteindre les 10 millions. Mais rien n’y fait. « Notre site internet est largement suffisant pour nous faire connaître », estime-t-il.

 

Des patrons aussi réfractaires au digital, Fabienne Billat en rencontre régulièrement. Cette experte en stratégie numérique brandit toujours les mêmes arguments. « Il existe 45 millions d’internautes en France et 36 millions d’acheteurs sur Internet. Même si l’entreprise n’est pas connectée, ses clients, ses prospects, ses fournisseurs, ses concurrents et ses collaborateurs le sont. Il faudra bien qu’un jour elle parle le même langage qu’eux. »

Il faut qu’on s’y intéresse davantage

Clextral s’est emparé du sujet il y a un an. Cette ETI ligérienne de 57,6 millions d’euros et 277 salariés est l’inventeur et le leader mondial de l’extrusion bivis, un procédé révolutionnaire adopté par les géants de l’agroalimentaire pour fabriquer des céréales, des gâteaux apéritifs, des pains croustillants, des croquettes pour animaux. Elle est aussi numéro un mondial dans la vente de lignes de production de couscous et lancera cette année une nouvelle génération de poudres poreuses. L’entreprise réalise plus de 90% de son chiffre d’affaires dans 92 pays. « Jusqu’en 2015, notre principal vecteur de communication était notre site internet multilingue, indique le président Guillaume Pasquier. Puis, nous avons créé un poste de webmarketing pour développer notre présence sur les réseaux sociaux où nous diffusons de l’information business. »

A y regarder de plus près, les comptes Twitter et Facebook de l’entreprise sont peu alimentés, le nombre d’abonnés cumulés plafonnent à 600 et sa page LinkedIn se réveille tous les dix jours. « J’ai conscience qu’il faut qu’on s’y intéresse davantage », admet ce dirigeant. Quitte à twitter lui-même? « Je ne suis pas sûr d’y arriver et d’ailleurs, je ne sais pas trop ce que je pourrais dire », avoue-t-il en riant. « Le principal, c’est que l’entreprise y soit, pour nos clients et pour attirer de futures recrues. Nous sommes en croissance et nous avons besoin de montrer une image moderne de l’entreprise. » D’autant plus que Clextral soufflera ses 60 bougies en octobre prochain…

Pas question de nous précipiter

Autre approche chez Velum à Bischoffsheim (Bas-Rhin) où la communication digitale se déploiera « petit à petit », selon les voeux de la présidente Anne Vetter-Tifrit. Cette ingénieure Supélec, fille du fondateur, a repris les rênes de la PME familiale en 2011 avec son mari. L’entreprise de 110 personnes fabrique depuis plus de 40 ans des luminaires « 100% alsaciens » pour les professionnels. Labellisée « Usine du futur » en 2015, elle réalise 30% de ses 19 millions de chiffre d’affaires à l’export et vient d’investir 2 millions dans une unité de thermolaquage qui sera inaugurée fin juin.

« C’est important d’être présent sur les médias sociaux, mais pas question de nous précipiter. Nous maîtriserons chaque outil l’un après l’autre pour bien structurer notre communication. » La page Facebook de la société sera réanimée d’ici peu, un profil LinkedIn puis un compte Twitter verront le jour. Anne Vetter-Tifrit va même gazouiller à titre personnel. « Je relayerai de l’information qui ne concernera pas forcément Velum car j’occupe d’autres responsabilités: je suis conseillère technique à la CCI de Strasbourg, conseillère du commerce extérieur et je milite pour la place des jeunes et des femmes dans l’industrie. » La jeune femme postera ses 140 caractères toutes les… six semaines.

Une question de nature

« S’afficher sur les réseaux sociaux relève surtout d’une nature curieuse et relationnelle,commente Fabienne Billat. Certains patrons sont gênés ou disent ne pas avoir le temps, d’autres ont peur parce qu’ils méconnaissent les outils, beaucoup ne sont intéressés que par le retour sur investissement que cela va leur procurer. En fait, il faut y aller avec la curiosité d’entrer en contact avec d’autres personnes, avec ses collaborateurs,les marchés, les médias, voire des concurrents. Ceux qui restent sur leur réserve courent le risque de se couper d’autres communautés, et c’est bien dommage… »

Par Corinne Dillenseger

Les 5 erreurs des entrepreneurs en recherche de financements

affaires

Si vous êtes en pleine création d’entreprise, vous savez qu’il ne s’agit pas de rencontrer un financeur la fleur au fusil. D’ailleurs, vous êtes nombreux à redouter cette étape de confrontation entre votre conviction de réussite et la réalité économique. D’une posture inadaptée au mauvais financeur en passant par les erreurs classiques du business plan, le blog du dirigeant zoome sur les 7 « boulettes » les plus répandues des créateurs d’entreprise en phase de recherche de financements. Voici donc quelques erreurs des entrepreneurs.

1re erreur : se tromper de financeur fait partie des erreurs des entrepreneurs

Le plan de financement est un tableau qui constitue le prévisionnel financier et votre business plan. Il liste vos besoins nécessaires au démarrage de votre activité (investissements en matériel, trésorerie au démarrage, achat du stock, frais d’immatriculation…), leur coût ainsi que les ressources mobilisées pour les financer.

C’est grâce au plan de financement que vous identifierez les financeurs adaptés à VOTRE projet.

erreurs des entrepreneursLa banque, par exemple, finance essentiellement le matériel immobilisable qu’elle pourra prendre en garantie. Si votre projet nécessite beaucoup de trésorerie (achat conséquent d’un stock, frais de communication au lancement…), il sera inutile de vous présenter à la banque avant d’avoir identifié des financeurs complémentaires pour ces besoins (apport personnel ou de l’entourage, prêt d’honneur, plateforme de financement participatif…). Et peut-être vaudra-t-il mieux directement passer par un réseau d’investisseurs (business angels). Cela fait partie des erreurs des entrepreneurs.

A chaque besoin son financeur ; ne vous trompez pas d’interlocuteur !

2e erreur : un plan de financement qui n’est pas faisable

Chaque interlocuteur a également ses propres critères de financement. Une banque refusera un prêt si vous-même n’apportez pas personnellement 30, voire 50 % du coût du projet (le total des besoins dans votre plan de financement). L’apport personnel est vu ici au sens large, ce peut être votre épargne ou des fonds obtenus de vos proches ou d’une plateforme de financement participatif. Là encore, si vous n’avez pas la mise de départ adéquate, il vous faudra multiplier les financeurs pour « boucler » votre plan de financement ou, en dernier recours, revoir votre projet à la baisse. Cela fait partie des erreurs fréquentes des entrepreneurs.

3e erreur : ne pas valider les critères de rentabilité

Vous averreurs de l'entepreneurez identifié le(s) bon(s) interlocuteur(s) financier(s). Il s’agit maintenant de valider leur vision quant à la rentabilité d’une entreprise. Les banques estiment qu’un modèle économique est rentable lorsque sa capacité d’autofinancement nette est supérieure à la moitié du capital de l’emprunt. Certains réseaux de business angels quant à eux exigent un taux de rentabilité minimum, d’autres préfèrent investir selon le « feeling »…

Votre prévisionnel financier – particulièrement votre compte de résultat prévisionnel – devra donc montrer une rentabilité en adéquation avec les attentes des financeurs. Évidemment, elle devra être justifiée et démontrée grâce à la stratégie que vous mettez en œuvre, les moyens matériels et humains mobilisés et les résultats de votre étude de marché. Cela fait partie des erreurs des entrepreneurs.

4e erreur : négliger l’executive summary

L’executive summary n’est plus un exercice réservé aux startups, mais une véritable étape dans la création d’entreprise, et ce quel que soit le financeur visé. L’executive summary est ce document qui récapitule les éléments forts du projet et qui fait office d’introduction de votre business plan. Pratique pour les financeurs sollicités de toute part, il leur permet de comprendre la pertinence de votre projet, la personnalité des membres de l’équipe, les atouts et la rentabilité de l’entreprise… Le tout en deux pages maximum ! Si vous réussissez à susciter l’intérêt dans ces deux pages, le financeur lira votre business plan ; sinon, il vous laissera sur le carreau.

Pour ne pas passer à côté de l’exercice qui suit une méthode stricte, vous pouvez consulter notre article : 10 astuces pour réussir son executive summary

5e erreur : venez comme vous êtes

Venez comme vous êtes ! Les financeurs ont envie de connaître votre personnalité réelle !

Alors oui… Et non ! Si, évidemment, vous n’avez pas à porter un masque pour cacher votre personnalité propre, votre posture de dirigeant jouera pour beaucoup lors des rencontres physiques avec les financeurs. Venez comme vous êtes : oui. Vous avez des qualités, des défauts, des compétences et des points faibles qu’il ne faut pas nier. Venez comme vous êtes : non. Vous devez montrer votre capacité à porter une entreprise vers le succès, à gérer le stress et à anticiper l’avenir. La posture, le langage non verbal, la diction, la confiance en soi et en son entreprise sont autant de marqueurs pour les financeurs… Et ça se travaille ! Derrière votre miroir, avec vos proches, en vous rendant aux soirées networking… Jouez au dirigeant même si vous n’en êtes pas encore un ! Et surtout, préparez votre pitch pour vous présenter efficacement et susciter l’intérêt quant à votre projet.

Comme vous pouvez le constater, la recherche de financements n’est pas une étape à aborder à la légère. Il existe de nombreuses erreurs des entrepreneurs. Pour optimiser vos chances de réussite, nous vous conseillons de vous faire accompagner par un expert-comptable.

Après le blog du dirigeant

 

Création d’entreprise : 8 formes d’ intelligence pour réussir

intelligence

De nombreuses personnes pensent qu’un QI élevé permet de réussir dans la vie et aussi lorsque l’on décide de créer une entreprise. Pourtant aucune étude ne l’a démontré. Au contraire, certains entrepreneurs ont abandonné leurs études tôt, ont misé sur la « débrouillardise » et leurs entreprises ont fonctionné et sont devenues prospères. Ils ont développé plusieurs formes d’ intelligence. Un entrepreneur doit posséder un large éventail de toutes ces intelligences. Mais quelles sont les intelligences qui peuvent contribuer à la réussite d’un entrepreneur ?

L’ intelligence logico-mathématique

L’ intelligence logico-mathématiqueElle démontre une capacité à calculer, analyser, observer et réfléchir de manière logique. L’entrepreneur qui dispose de cette forme d’intelligence aime résoudre des problèmes et travailler avec les chiffres. Il explore des modèles différents et des possibilités, fait des hypothèses et sait quantifier.
Grâce à sa manière d’analyser et de structurer, il peut élaborer et apporter des solutions précises selon le marché et les moyens de l’entreprise.

L’ intelligence verbale

Elle démontre une facilité à utiliser le langage et différentes langues. Elle permet à un entrepreneur de lire, écrire et s’exprimer plus aisément. Il sait aussi comment transmettre ses idées et comprendre ceux qui l’entourent.
Ces facultés lui permettent de convaincre des clients ou des financeurs, diriger une équiper ou écrire un business plan attrayant et convaincant.

L’intelligence intra personnelle

C’est l’aptitude à faire de l’introspection. L’entrepreneur doté de cette intelligence est capabled’identifier et de comprendre avec de plus grandes facilités ses forces et ses faiblesses ainsi que ses motivations, ses rêves et ses désirs.
Grâce à ces capacités, il peut optimiser la stratégie et la mise en œuvre de ses projets. Il est également capable de s’entourer de personnes ayant des compétences complémentaires et qui compensent ses faiblesses et ses zones d’inconfort.

L’intelligence sociale

L’intelligence socialeElle permet l’empathie, la tolérance et la coopération. Une grande intelligence sociale permet à l’entrepreneur de savoir comment réagir avec ceux qui l’entourent de manière efficace et d‘être capable de deviner les tempéraments, les caractères et les motivations de ses interlocuteurs.
Il est ainsi un bon négociateur et peut apporter des solutions aux divers problèmes de ses collaborateurs. L’intelligence sociale est caractéristique des leaders.

L’intelligence spatiale

Elle comprend la faculté de visualiser le monde mentalement et penser en trois dimensions. L’entrepreneur qui possède cette forme d’intelligence est capable de traiter l’information sous forme de graphiques et de schémas et imaginer des produits par exemple.
En marketing, cela permet d’inventer l’image de marque d’une entreprise ou d’un produit.

L’intelligence kinesthésique

C’est la capacité d’utiliser son corps pour communiquer ou s’exprimer. L’entrepreneur qui dispose de cette intelligence préfère plus s’exprimer par action que par les mots et a le sens du timing. Il possède une bonne coordination de ses gestes et aime la mise en scène.
Grâce à cet atout, il peut créer des campagnes pour de nouveaux produits et devenir un leader en combinant une théâtralité et une facilité à parler en public.

L’intelligence naturaliste

Elle permet une compréhension de l’environnement, de ses complexités et de tout ce que cela implique. L’entrepreneur ayant une intelligence naturaliste peut ainsi identifier de nouveaux marchés, anticiper les tendances et classifier les éléments d’une situation.
Il comprend l’environnement dans lequel il vit et est sensible aux évolutions qui l’entourent.

L’intelligence musicale

C’est la capacité de reconnaitre des musiques et d’être sensible à la musicalité des mots et des phrases. Cela permet à l’entrepreneur détenant cette intelligence de ressentir le rythme des événements et d’apprécier les sons ou le timbre de voix venant d’une personne. Il se fie à ce qu’il ressent.
Ces facultés peuvent lui permettre de bien écouter les personnes qui l’entourent et de mettre en place des événements.

Conclusion

intelligenceL’intelligence logico-mathématiques et l’intelligence verbale sont utilisées pour calculer le QI. Pourtant il ne faut pas négliger les autres formes d’intelligence qui sont autant utiles. Il est important également d’être prêt à relever des défis, à apprendre de ses échecs et à surmonter les obstacles grâce au travail et à la persévérance. Un bel état d’esprit, une motivation et le plus large éventail des formes d’intelligence vous donneront les clés pour être un bon entrepreneur.
N’oubliez pas de vous entourer de personnes ayant des capacités complémentaires aux vôtres. Vous disposez de plusieurs intelligences mais pas de toutes. Alors embauchez un salarié ou prenez un associé ayant des intelligences complémentaires, vos chances de réussir seront d’autant plus grandes.

Entrepreneurs, travaillez votre personal branding !

personal-branding-720x405Entrepreneurs, ne négligez pas votre personal branding

Je suis étonné de rencontrer dans mes activités de coach en image et personal branding des entrepreneurs qui prévoient un budget communication et marketing lors de la réalisation de leur business plan et m’assurent que le succès de leur projet dépend de ce poste d’investissement, et je ne comprends pas qu’ils oublient un élément essentiel dans la réussite ou l’échec : la prise en considération de leur propre marketing et la gestion de leur communication avec stratégie.

J’ai analysé les grandes réussites entrepreneuriales depuis 20 ans et toutes ont un point commun. Le succès s’associe toujours avec la relation  entreprise et un homme, le dirigeant souvent. Difficile de penser à Google sans penser à ses deux fondateurs, de parler de Wikileaks sans penser à Julien Assange, de penser à Apple en oubliant Steve Jobs. Tous  ont travaillé leur communication pour que chaque fait et geste, chaque mot servent l’intérêt de leur société.

Avant d’être un nouveau Zuckerberg ou Jobs, il y a des étapes à franchir. Obtenir son premier financement, démarcher des partenaires, fournisseurs qui ne nous prennent pas forcément au sérieux.

Pourquoi se marketer ?

Parce que tout simplement les meilleures idées ne sont pas celles qui se vendent le plus.  Le personal branding (ou le marketing de soi) part du principe que vous êtes comme un produit, que vous avez une image, une réputation qui peut vous servir ou desservir et que tout ce que vous faîtes peut-être interprété. Cette interprétation est d’ailleurs différente selon l’interlocuteur et la situation.

Pour quels bénéfices ?

  • Inspirer confiance en vous et donc dans votre produit ou service.
  • Renforcer votre charisme naturel.
  • Gagner du temps dans le développement de votre réseau.
  • Mieux exploiter votre réseau en travaillant le message que vous souhaitez diffuser.
  • Maîtriser votre communication pour mieux gérer les imprévus et challenges à venir.

Il vise donc à faciliter les étapes vers le succès et à renforcer le message que sert votre projet, car tout part de vous.

Trois étapes pour se marketer :

La première étape du marketing de soi est de faire un audit de son image actuelle pour arriver à définir un style.  Il doit refléter votre personnalité, votre identité profonde. Creusez pour chercher les caractéristiques qui vous définissent et qui seront utiles dans votre activité. Que vous soyez gentil, par exemple, n’est pas perçu dans le business comme une qualité indispensable à mettre en avant. Cela peut être votre sens de l’innovation.

La seconde étape est de construire votre plan marketing et communication tel que vous le feriez pour un produit. Identifiez vos cibles, les canaux de communication sur lesquels vous souhaitez communiquer avec un planning des actions précis.

Dernière étape : il faut diffuser le message pour qu’un maximum de personnes dans votre secteur vous connaissent et vous reconnaissent comme un fort potentiel ou une personne influente dans le secteur.  C’est cette étape qui demande le plus de temps mais elle se fait petit à petit.

En résumé, travailler votre marque personnelle d’entrepreneur c’est réfléchir à quels aspects de vous sont des atouts pour votre projet et comment les faire connaître aux bonnes personnes. Travailler votre réseau est essentiel, mais il faut songer à votre apparence, votre gestuelle et de nombreux paramètres verbaux ou non verbaux, offline et online.

par François Thibault (FT Conseil)

Savoir déléguer : tout un art !

  • Le déléguer tâches importantes valorise collaborateurs crée climat confiance.

    Mettre les formes, vérifier, communiquer… Savoir bien déléguer n’est pas chose simple. Il faut un savant mélange d’expérience, de lâcher-prise et de confiance.

 

Ludivine Duranton n’aimait pas déléguer, mais son nouveau poste de directrice des opérations au sein d’une agence événementielle parisienne a changé la donne : « Je n’ai plus le choix, je ne peux plus être sur tous les événements à la fois et je n’ai plus le temps de tout faire moi-même. Du coup, il faut installer un climat de confiance avec les équipes ». Voici quelques conseils pour que cette opération délicate – mais valorisante pour vos collaborateurs, qui vous en seront reconnaissants – soit couronnée de succès.

#1 Acceptez l’idée que chacun s’y prenne comme il l’entend

« Le fait de savoir déléguer est lié aux traits de caractère de chacun, estime Simon T., gérant d’une brasserie parisienne. Il faut accepter que les personnes ne fassent pas exactement comme on l’entend. J’ai du mal avec ça, ce n’est pas forcément facile à accepter … Du coup, j’y consacre beaucoup de temps parce que je cherche à obtenir de la personne qu’elle se calque exactement sur ma façon de faire. Alors que c’est uniquement le résultat qui importe ! »

#2 Prenez le temps de former vos troupes pour les rendre autonomes

« Pour les événements que je gérais moi-même jusqu’à maintenant, j’ai délégué à des chefs de projet. Cette année, je les accompagne beaucoup, je suis avec eux sur le terrain, comme si je les formais en quelque sorte. Pour l’instant, je suis là pour donner des consignes et je les laisse prendre confiance. L’objectif étant qu’ils soient autonomes l’année prochaine », raconte Ludivine Duranton. « Je délègue tout en restant impliquée, renchérit Carine Currit, Account Manager chez Elan-Edelman, ce qui est préjudiciable pour mon emploi du temps ». De son côté, Simon prône la lenteur : « Je pense qu’il faut y aller petit à petit en y mettant les formes. Prendre le temps d’expliquer les choses, et ne surtout pas agir à la va-vite ».

#3 Soyez clair sur les priorités, les objectifs et la deadline

Vos collaborateurs doivent savoir ce que vous attendez d’eux exactement. Si vous leur imposez pas sans cesse de nouvelles tâches à traiter en urgence, il y a de bonnes chances que rien ne soit fait correctement et dans les temps.

#4 Apprenez à lâcher prise

« C’est une discussion que j’ai beaucoup en interne avec mes managers, la notion de « lâcher prise » revient à chacune de nos discussions, expose Carine Currit. Je suis une perfectionniste, c’est une qualité dans certains cas mais sur le long terme et notamment pour le management, c’est un boulet que tu traînes. Mais paradoxe, je fais confiance très rapidement. » Car « lâcher prise » va forcément avec « confiance », clé de voûte de l’art de déléguer. « Déléguer, c’est une preuve de confiance, renchérit Caroline Rostang, co-propriétaire de six restaurants familiaux. Cela valorise le personnel et permet d’avancer ensemble ».

#5 N’oubliez pas de rester vigilant

« La confiance n’exclut pas le contrôle, nuance Caroline Rostang. Je ne contrôle pas forcément tout le temps, juste au début et en cours de route ». Un avis que rejoint de Ludivine Duranton, laquelle tâche de tout « bétonner » dès le départ.  « L’objectif est que, le moment venu, je n’ai plus rien à contrôler, que tout roule. Il faut tout « backuper » en amont pour éviter les accidents de dernière minute sur place. »  « Il faut trouver un équilibre entre déléguer, laisser de l’autonomie et travailler sur un mode collaboratif, » conclut Carine Currit. Un subtil dosage!

JULIE FALCOZ

 

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Démarche stratégique : intention, réflexion et vision

vision stratégique

Pour comprendre les décisions stratégiques des managers, il faut s’intéresser à la fois à leur réflexion, mais aussi à leur intuition et à leur vision de leur environnement.

Comprendre la démarche stratégique du dirigeant implique, préalablement d’être en mesure d’appréhender son système référentiel de décision, c’est-à-dire ses représentations mentales du présent et du futur de son entreprise sur lesquelles il s’appuie pour envisager les événements et conduire son organisation. Il s’agit de tenter d’objectiver ses référents subjectifs de décision, en d’autres termes d’essayer de saisir le prisme qui conditionne son action.
Les notions de vision et d’intention ont pratiquement toujours été présentes dans la littérature. Lorsqu’il décrit les trois modes de formations de la stratégie, Mintzberg (1973) indique que dans le mode qu’il qualifie d’entrepreneuriale « …la stratégie est guidée par la vision personnelle du dirigeant… ». En 1985, en collaboration avec Waters, l’auteur utilise le terme « intended strategy » pour décrire les stratégies délibérées. Mais concrètement qu’est-ce que la vision stratégique ? Quelle est sa nature profonde ?
Elle est composée de trois éléments : des valeurs centralesqui seraient des principes directeurs de l’entreprise, un objectif premier qui serait la raison d’être de l’entreprise et par nature hors de portée et enfin un projet ambitieux qui serait réalisable à long terme, clair et motivant pour tous les collaborateurs.

L’analyse stratégique constitue le soubassement de la réflexion stratégique mais les managers se trouvent dans l’impossibilité de déterminer la phase suivante, cette hésitation continue dans le reste du processus car souvent les managers n’arrivent pas à poser la question « et alors ? », qui est le niveau suivant de la pyramide. Ils échouent ensuite à générer des options stratégiques réellement radicales et créatives. Le niveau suivant est la vision, mais, les managers sont trop timides pour distiller leurs stratégies au sein d’une image ou d’un message particulier et auront du mal traduire cette vision en plans d’actions. Lors de la réflexion stratégique, notre taux global de succès pourrait être 3,1 %, ce qui aide à comprendre le faible taux de réussite de beaucoup de plans stratégiques. De toute façon, la pyramide  de la « réflexion stratégique » de Grundy & Wesley n’est rien d’autre qu’une pyramide de l’analyse stratégique présentée ironiquement.
Liedtka (1998), en se basant sur les dimensions cognitives et individuelles de la réflexion stratégique, propose une définition de la réflexion stratégique : « Suivant la démarche de Mintzberg, je définis la réflexion stratégique comme un mode particulier de réflexion avec des caractéristiques spécifiques » (1998: 122). La réflexion stratégique y est présentée comme étant constituée de cinq éléments : une perspective systémique, un opportunisme intelligent, une intention stratégique, une démarche hypothétique et une perspective temporelle.

La perspective systémique considère que la réflexion stratégique fait partie intégrante d’un corpus de connaissances globales de l’écosystème économique dans lequel l’organisation prend place : « un penseur stratégique a un modèle mental de l’ensemble des éléments de la création de valeur, et en comprend les interdépendances » (Liedtka, 1998).
L’opportunisme intelligent renvoie au comportement opportuniste à adopter pour être à la hauteur de l’évolution environnementale. D’autre part, le processus de réflexion stratégique s’étale sur un intervalle de temps et reflète une intention  stratégique. Cette réflexion  figure dans l’histoire de l’entreprise et de son environnement. Elle tient compte des ressources, exploits et échecs des périodes passées et qui servent de fondements pour une intention stratégique cohérente et bien fondée.
De leur part, Hamel & Prahalad (1989, 1994), en parlant d’intention stratégique utilisent l’expression « sens d’orientation ». Dans ce sens, l’intention stratégique sert de guide pour la réflexion stratégique au bon gré du développement stratégique. Or, la connaissance de cette intention permet également au produit de la réflexion stratégique d’être plus facilement acceptable et assimilable par l’organisation.

Le processus de réflexion stratégique se fonde sur un processus d’expérimentation d’hypothèses pour aboutir à la bonne idée créative : « La réflexion stratégique est à la fois créative et critique […]. Le processus par lequel nous évoluons vers ce futur est un processus expérimental, qui utilise nos meilleures réflexions créatives pour proposer et configurer les options, et nos meilleures réflexions critiques pour les tester » (Liedtka, 1998 : 124).

1. Les fondements intentionnels et intuitionnistes de la décision
Nul ne conteste qu’une bonne décision soit une décision émanant d’une analyse rigoureuse et méthodique de la situation. Toutefois, on oublie facilement que la plupart des décisions font appel à une appréciation subjective, y compris lorsque l’on croit qu’elles reposent sur des bases rationnelles : une part de jugement intervient au moment de définir les critères de choix, de pondérer ces critères, de noter chaque option selon ces critères, etc. Ainsi, peu importe la robustesse de notre raisonnement, la pertinence de nos décisions dépend étroitement de celle de notre jugement.
Le mécanisme d’intuition dans le cadre d’une utilisation raisonnée s’avère des fois, plus puissant que l’analyse rationnelle mais la fiabilité demeure incertaine. Par conséquent, l’intuition ne peut, aucunement, chasser l’analyse rationnelle, mais peut lui servir de complémentaire.

1.1 La puissance de l’intention stratégique et rapport avec la rationalité
L’intention stratégique est un collectif de tâches en instance caractérisé par un état mental qui dirige l’attention du dirigeant vers la recherche et la mise en place de moyens particuliers dans le but de réaliser un projet stratégique spécifique.
L’intention stratégique se caractérise par un état d’esprit.L’état mental correspond à un collectif de tâches en instance, c’est-à-dire des objectifs intermédiaires ayant une fonction de moyens devant permettre de réaliser le projet stratégique spécifique.
L’intention stratégique combine donc but(s) et moyens. Or, »l’intention se situe au début de l’organisation hiérarchique de l’action ». Notons que dans le cas particulier de l’intention stratégique d’un chef d’entreprise, dans le cas d’une démarche délibérée, elle se situe bien au début de l’organisation hiérarchique de l’action, mais également tout au long du processus tant que le but n’est pas pleinement réalisé.
Comme le suggèrent Ajzen et Fishbein (1975, 1980) et Ajzen (1987, 1991) le concept d’intention est bien le « meilleur prédicateur du comportement planifié » mais il ne joue pas qu’un rôle déclencheur, il joue également le rôle d’ « accompagnateur et de canaliseur », une fois le processus enclenché. « L’intention se situe au début de l’organisation hiérarchique de l’action ». C’est le « meilleur prédicateur du comportement planifié ».
« Les actions se composent toujours de deux éléments, une composante mentale et une composante physique… La composante mentale est une intention » qui a toutes les chances de se transformer en composante physique Searle. 1984). »le cours de l’activité est défini par une tâche en cours et par des tâches en instance (tâches non encore abordées…). Le statut de tâche en cours et celui de tâche en instance sont liés à l’état de la motivation et à l’état du contexte ; ce statut peut, bien entendu, changer si ces états changent ». Dörner (1986) , appelle intentions les tâches en instance.
De façon générique, l’intention caractérise donc un état d’esprit qui prédispose à des actions spécifiques. Dans le cas particulier de l’intention stratégique d’un dirigeant d’entreprise, il est possible d’imaginer qu’elle focalise son attention sur une orientation particulière et qu’elle canalise et organise mentalement les mesures qui sont susceptibles de concourir à sa  réalisation.
La notion d’intention peut être considérée comme un désir, une volonté. Cependant, de manière approfondie, elle combine en fait but et moyens. L’individu imagine, coordonne et met en place les moyens qui doivent lui permettre de parvenir à ses fins. Tant le ou les buts poursuivis que les moyens envisagés peuvent donc être considérés comme un « collectif de tâches en instance » caractérisé par une combinaison de but(s) et moyens.
La vision stratégique peut donc être définie comme une représentation mentale du futur et l’intention stratégiquecomme un état d’esprit qui combine des moyens à un ou plusieurs buts. Si l’on retient cette approche des concepts, ils ont donc des natures différentes. Le fait de les distinguer, plutôt que de s’exclure mutuellement ou de se substituer l’un à l’autre, cela permet de présenter et de renforcer leur complémentarité.
Gary Klein en tant chercheur et consultant, s’est penché à diagnostiquer le mécanisme de décision intuitif chez les managers (et autres professionnels) amenés à décider dans l’urgence. Il en a déduit que ces derniers se réfèrent à des processus inconscient de raisonnement par analogie. Par quoi ils font instantanément référence de la situation en cours à une autre similaire rencontrée dans le passé afin d’en tirer des leçons et des solutions appropriées. Il donne l’exemple d’un expert des jeux d’échecs qui peut facilement jouer 50 parties simultanément en se basant sur sa capacité de décider spontanément d’un mouvement pertinent sans avoir recourt à un processus avancé d’analyse.
Les jugements intuitifs ont l’avantage d’être plus rapide et instantanés que les raisonnements analytiques, ils puisent dans les savoirs inconscients outre que le savoir conscient et Ils surpassent le raisonnement lorsqu’il s’agit d’interpréter nos émotions car traduire celles-ci en raisonnement conscient est difficile et souvent trompeur.
Le mécanisme intuitif bien qu’il soit puissant cache d’énormes failles. Primo, pour que l’intuition soit faible, il faut que l’analogie faite sur la situation vécue soit faite  sans erreur, ce qui suppose une forte expérience du sujet. C’est ce qui fait, bien entendu, la différence entre une intuition fondée et une impulsion naïve à l’action. Secundo, des motivations inavouées risquent de l’emporter sur la raison. Tertio, notre perception de la situation peut être biaisée dû essentiellement à une sous ou sur estimation de la situation. Ainsi, le recours à l’intuition est facilement trompeur. Il faut donc apprendre à tirer parti de l’intuition sans être piégé par ses limites.

L’analyse rationnelle constitue le fondement de la prise de décision qui est nourrie constamment par les enseignements de son intuition. Dans ce sens, Klein.G et David G. Myers (2002) préconisent les recommandations suivantes :
* On ne peut pas recourir à l’intuition que sur les domaines où on a une expérience : son efficacité vient de la pertinence des scénarios que vous avez en mémoire et auxquels vous assimilerez les nouvelles situations rencontrées.
* Il est recommandé d’interroger son intuition avant de s’engager dans un raisonnement analytique.
* On adopte une démarche analytique pour peser le pour et le contre et établir une grille d’avantages et d’inconvénients, puis on fait appel à notre jugement pour faire le bon choix.
* Quand l’intuition se présente en contradiction avec les issues de l’analyse rationnelle cela montre qu’on n’a pas bien cerné tous les éléments de la situation.
Pour Carl Young (1920), vue leur confrontation quotidienne des problèmes, les dirigeants intuitifs sont dotés d’une grande capacité décisionnelle dépassant celle des gens ordinaires, elle reflète une forte acuité visionnaire du déroulement des évènements, la génération de nouvelles idées et des solutions ingénieuses et comment faire réagir leurs organisations à cette vision. En ce sens, les managers prennent rarement des décisions importantes sur la base de diagnostics stratégiques mais plutôt en fondant des jugements sur les expériences vécues et aux présages quant aux sorts des évènements (Donaldson et Lorsh, 1993). Ces dirigeants, contraints par l’incertitude environnementale, expriment une grande vigilance à l’égard de l’apport des études analytiques. Khatri et Ng (2000) privilégient la synthèse intuitive dans le contexte d’un dynamisme environnemental devant l’impossibilité d’identifier des variables précises et d’établir des équations quantitatives pour aider à la décision.
Pour Mintzberg (1984), l’intuition fait partie du quotidien du manager et même s’impose en  force lors de la prise de décisions jugées délicates. Enfin Marlow (1994) relate que le point de départ de la prise de décision, est un sentiment intuitif rapproché par la suite, aux normes et aux pratiques stratégiques en vigueur.

1.2 Les facteurs influençant le recours à l’intuition lors de la prise de décision
La prise de décision est sujette aux traits cognitifs et comportementaux des managers, aux facteurs endogènes (structure organisationnelle) et exogènes (complexité environnementale), dès lors le recours à l’intuition et son intensité sont influencés par trois types de facteurs : des facteurs inhérents au décideur, des facteurs relatifs à la décision elle-même et des facteurs ayant trait au contexte de la décision, qu’il s’agisse du contexte organisationnel ou de l’environnement plus large de l’organisation et du décideur. Les facteurs inhérents aux décideurs renvoient aux caractéristiques démographiques des managers (âge, sexe…), psychologiques (sa vulnérabilité aux harcèlements de l’environnement) et à sa formation, son expérience et ses réseaux relationnels… Mais l’élément le plus prépondérant reste l’expérience du manager.
Pour Agor (1984), l’expérience des situations permet au manager de percevoir un grand nombre de variables et d’alternatives, elle détermine la force et la pertinence de l’intuition. Cette dernière est conçue par Simon (1987) non comme une sorte d’inspiration irrationnelle mais comme faisant partie de l’organisation du savoir et dans l’identification rapide des situations. En outre, Shimizu affirme que la clairvoyance du manager et donc sa sensibilité intuitive émane de son aptitude à appréhender instantanément toute nouvelle donnée, cette capacité provient de l’assemblage de fragments de mémoire regroupant diverses informations.
La synthèse intuitive  est considérée comme une sorte d’expérience répandue basée sur une parfaite connaissance du problème en cours et ils argumentent par la citation de Carl Jung : « L’intuition ne dénote pas de quelque chose de contraire à la raison, ce n’est pas un sixième sens magique et elle n’est pas l’opposée de la rationalité. C’est une forme sophistiquée  de raisonnement basés sur des années d’expérience ».
D’après Agor (1986), le recourt à l’intuition augmente plus qu’on s’élève dans la hiérarchie et elle est plus ressentie chez les femmes que chez les hommes et pour Van Cawenbergh (1996) et al. Les plus intuitifs sont les plus âgés et les mieux gradés de l’organisation et bénéficient de certains qualités : confiants, ouverts d’esprit, flexibles, expérimentés, capables de prendre des risques, justes, réfléchis et créatifs.

2. Image mentale et développement de la vision stratégique
La vision stratégique du dirigeant est sa représentation mentale actuelle du futur de son organisation, de ses activités et de son environnement. Cette définition s’étale sur plusieurs volets. Le premier touche à la nature de la vision stratégique : qui est, d’après Cossette (1993, 1994), une représentation mentale du dirigeant. Le second, amplement répandu dans la littérature stratégique, concerne le volet « futur » de la vision stratégique.
Il est à signaler que le dirigeant peut se représenter le futur de son entreprise sans forcément le désirer, ce futur pourrait être plaisant ou consternant. Cette représentation du futur n’est accessible à tous les dirigeants étant donné leurs structures cognitives ordinaires et la nature contraignante de l’environnement dans lequel ils opèrent.
La vision stratégique comporte deux dimensions, l’une interne (organisation, activités) et l’autre externe (environnement). Il en ressort que la vision stratégique contient une approche globale réunissant tous les aspects de la prise de décisions. Toutefois, le dirigeant peut se trouver incapable d’avoir une vision si large englobant le futur de son environnement, de sa structure et de ses activités, mais se limite à un ou deux volets.
La vision stratégique bien qu’elle permet au dirigeant de se représenter le futur de son activité et de son environnement, contribue à la construction du présentincitant le manager à mieux s’armer d’outils cognitifs et matériels pour fortifier les fondations présentes du futur. Autrement dit, comme le note Varraut (1998. 6), le dirigeant ne peut se représenter le futur de son entreprise qu’à partir de la situation dans laquelle il se trouve de façon présente.
Bien évidemment, la position actuelle ne détermine pas la situation future mais il est possible de considérer qu’elle la conditionne pour partie. Ceci met en avant l’importance la représentation mentale actuelle du présent de l’organisation, des activités et de l’environnement pour comprendre, combinée avec la vision stratégique, comment le dirigeant « chemine » cognitivement et oriente son action.

2.1 La vision stratégique : une image d’un état futur désiré
La vision stratégique est conçue par Cossette (1994) comme étant un « guide », un fil conducteur des actions à entreprendre d’où son rôle de catalyseur de l’activité stratégique. C’est ce que confirment Hamel et Prahalad (1990) en considérant que la vision stratégique se trouve à l’origine d’une vague créatrice, stimulante, qui pousse à évoluer. Elle sous entend que le futur n’est pas une donnée figée mais se construit au fil du temps en parallèle au développement de l’activité. De sa part, Filion insiste sur le fait qu’une vision constitue une façon de se donner un cadre de réflexion menant à l’action entrepreneuriale. Dans ce sens, et dans le cadre d’une PME, cette action entrepreneuriale s’inscrit dans une démarche heuristique où le dirigeant tâtonne au quotidien son champ d’action et conçoit les contextes pour y parvenir (Filion, 1994) ce qui lui permet d’évaluer en permanence l’évolution de son activité : ce qu’était fait et ce qui reste à faire et la manière d’y procéder.
Le processus visionnaire renvoie à un processus évolutif en PME dont le manager développe une vision centrale qui sera tamisée, raffinée et perfectionnée au fil du temps : « la vision n’est pas statique. C’est un processus en perpétuelle évolution dont les ajustements sont étroitement liés au système de relations dont s’est doté l’entrepreneur » (Filion, 1994).
Ces représentations évoluent constamment proportionnellement au « contexte situationnel » dans lequel évolue l’individu. Ce contexte sous entend la structure organisationnelle, la situation économique, familiale et personnelle du manager et même son milieu d’origine qui influence fortement, le comportement, la structure cognitive, les représentations et subséquemment la vision stratégique du manager. Cette influence tend à perdre de force avec l’écoulement du temps et le développement de l’activité  du fait que le manager se dote d’une solide expérience à quoi il a recourt inconsciemment pour parfaire une vision stratégique.

2.2 Image mentale et guide pour les actions à entreprendre
Cette image mentale correspond, à « ce qu’une personne perçoit de significatif dans la réalité ambiante, à travers le filtre de ses attitudes, de ses valeurs et de ses intuitions ». Ainsi, l’individu tend, instinctivement et continuellement, à se faire des représentations de son milieu environnant. Cette activité cérébrale engage des mécanismes de la raison et de l’intuition permettant une construction « objective » de la réalité. Weick (1979) confirme que cette aptitude du manager d’assimiler, élucider, créer lui permet de mieux maîtriser les événements. C’est ainsi que, le dirigeant est en quête permanente à développer un sens de la réalité, et se construit le monde sur lequel il agira ensuite.
C’est dans ce sens que weick (1979) développa son « modèle dynamique d’organisation » fondé (abordé au chapitre III) sur quatre phases : la transformation de la réalité (ecological change), l’engagement dans le réel (enactement), l’attribution de sens au réel devenu équivoque (selection) et la rétention, sous forme de schèmes d’interprétation, du réel devenu significatif (retention). Une fois ces étapes franchies, l’individu sera en mesure  d’agir sur la réalité et la transformer.
Ce grand rôle des représentations dans la construction de la réalité laisse pressentir les risques que ça peut comporter. Or, la pensée établit un reclassement, ordre et même une transformation des représentations sur l’environnement qui restent forcément subjectives et « loin » de refléter objectivement le réel. D’où le risque majeur d’avoir une représentation biaisée de la réalité et de ses impératifs. Donc, conscient de sa propre méconnaissance, le manager façonne en permanence des représentations de représentations. Par ailleurs, pour Cossette (1993), par la construction d’images mentales, le décideur s’efforce de valider et authentifier ses schèmes présents plutôt qu’en développer nouveaux. Il interprète donc les événements selon ses schèmes du moment.
De même, Heider (dans sa théorie de l’attribution) affirme que c’est par un besoin d’équilibre que l’individu se donne à la construction mentale de la réalité. Habituellement, l’individu confère à l’environnement un certain degré de stabilité satisfaisant en écartant de son esprit tout éventuel changement. De sa part, Senge (1991) relate que les représentations du monde que se fait l’individu contraignent ses réflexions et actions.
D’autre part, la vision stratégique du manager est astreinte à sa structure cognitive  et les facultés qui en ressortent pour le traitement de l’information parvenant de l’environnement. Y joue également  sa dynamique psychologique de manière à ce qu’il projette les sens qui lui sont propres et ce dans une acception strictement futuriste. Car selon Carrière (1991), il s’agit d’une « dynamique de construction mentale d’un état futur souhaité et possible pour une entreprise ». Il élabore trois niveaux de la vision stratégique : la vision générale, c’est-à-dire les croyances et valeurs du décideur, la vision intermédiaire, c’est-à-dire les schémas mentaux stratégiques et la vision parcellaire, c’est-à-dire les aspects de l’environnement qui intéressent le décideur.
La vision stratégique est conçue comme une image mentale d’une situation future espérée par l’organisation.Nous précisons que la vision stratégique n’est pas simplement l’aboutissement d’un effort de prédiction du futur, mais plutôt le fruit de la clairvoyance, la lucidité et le discernement du manager basée sur une idée centrale autour de laquelle tournent les objectifs de l’entreprise.
Au-delà des différents constituants de la vision stratégique qu’on vient d’évoquer (représentations, buts poursuivis, créativité…), on peut limiter la vision stratégique du dirigeant à la  » représentation mentale actuelle du futur de son organisation, de ses activités et de son environnement » ayant deux principaux déterminants ; organisationnel et environnemental.

Largement intuitive au départ, la vision stratégique se déploie et s’alimente de l’action. Elle reflète un grand dynamisme dans la mesure où elle évolue instantanément et progressivement au contact de l’action. Elle constitue en fait, comme l’énonce Martinet (1983) un « support d’apprentissage dans le même temps qu’elle est l’objet de cet apprentissage ». Vision et action sont donc fortement inter-reliées. En effet, le processus visionnaire du dirigeant de PME s’avère fortement lié au contexte situationnel d’où son impossibilité de « s’extraire du réel ». Ainsi, la construction de représentations futuristes puise sa force des actions quotidiennes présentes.
La perspective cognitiviste (Laroche et Nioche, 1994) prône fortement le recourt des dirigeant à leurs représentations mentales pour décider et agir. Dans ce sens, l’intuition sert de meilleur « prédicateur » du comportement planifié et de leitmotiv au processus de mise en œuvre de la stratégie qui comprend une série d’actomes (petites actions). En outre, les dirigeants  élaborent des représentations de leur structure organisationnelle et des actions envisageables dans un contexte situationnelle. Ces actions sont souvent de nature réactive, mais il n’en demeure pas moins que les décisions cruciales à prendre recourent souvent généralement à leurs schèmes d’interprétation de leur réalité.
L’approche cognitive défend l’idée que la pensée guide l’action ce qui laisse présager que l’action résulte de la pensée et ne s’explique que par elle. Laroche et Nioche (1994) affirment que l' »on peut assez facilement être tenté d’inscrire l’approche cognitive dans le schéma rationnel classique: problème – délibération – action, sans en contester la structure causale et linéaire ».

Chronique de Nacer Gourmat

Les 10 compétences-clés du monde de demain

PSFR201

Aucun doute, le futur nous intéresse. Et comme le dit Woody Allen, nous avons plutôt intérêt… puisque c’est là que nous allons passer le reste de notre vie. Le Peoplesphere de février 2016 vous emmène dans les méandres des impacts de l’évolution socio-démographique sur nos organisations à l’horizon 2030. Le Forum Economique Mondial quant à lui a publié ce 10 mars un article particulièrement intéressant sur les compétences-clés dans le monde de demain. Les conclusions résultent de l’analyse de 213 enquêtes sur les nouveaux modes d’apprentissage des étudiants et de la mise en perspective avec les enseignements du dernier Forum Economique de Davos qui a eu lieu en janvier 2016. Morceaux choisis.

 

L’approche socio-émotionnelle érigée au rang de condition de succès

Vous le savez, les robots, la technologies, l’intelligence artificielle, les algorithmes vont traiter des milliards d’informations beaucoup plus vite, beaucoup mieux, beaucoup plus précisément que nous, pauvres humains. Pour faire face à cette déferlante technologique qui va réduire à néant 45% des jobs actuels d’ici 2025 (enquête Oxford 2013), il nous restera comme arme de guerre notre incroyable capacité à nous connecter les uns aux autres et à créer des émotions. Nous sommes en route au pas cadencé vers cette économie de l’Emotion.

Le Forum Economique Mondial a synthétisé les compétences critiques dans le schéma suivant :

20160319_Compétences du monde de demainSOURCE : WORLD ECONOMIC FORUM – REPORT : NEW VISION FOR EDUCATION: FOSTERING SOCIAL AND EMOTIONAL LEARNING THROUGH TECHNOLOGY

Le monde académique semble donc prendre lentement conscience que nos têtes blondes auront besoin d’autres compétences que celles que nous avons eues la chance d’apprendre et surtout d’autres façons d’apprendre.

L’approche socio-émotionnelle contribue factuellement au succès.

Selon le Forum Mondial Economique (WEF), les compétences qui sont jugées comme critiques pour réussir professionnellement (voire humainement) dans le monde de demain sont principalement développées par des méthodologies dites SEL : Social – Emotional Learning. Les experts du WEF se sont penchés sur les méthodes probantes d’apprentissage scolaire et ont parcourus les études qui observaient les étudiants utilisant la technologie pour développer leurs aptitudes à interagir socialement et émotionnellement. Par technologie on entend notamment l’usage des plateformes collaboratives, des media sociaux, des MOOC – SPOC – COOC, du blended learning, … Mais la technologie n’est pas tout, encore faut-il y mettre les bons usages.

Les compétences annoncées ci-dessus sont celles détectées dans les projections des emplois de demain et ramenées au niveau des étudiants d’aujourd’hui. Ce qui est intéressant, c’est de se rendre compte que les mêmes compétences sont déjà critiques actuellement dans nos organisations. Les modes d’apprentissages ne diffèrent finalement en rien de ce qui s’organise dans les écoles et universités.

UNE VARIÉTÉ DE SOURCE D’APPRENTISSAGE DES COMPÉTENCES SOCIO-ÉMOTIONNELLES

20160319_apprentissage des compétences de demain

SOURCE : WORLD ECONOMIC FORUM – REPORT : NEW VISION FOR EDUCATION: FOSTERING SOCIAL AND EMOTIONAL LEARNING THROUGH TECHNOLOGY

En sachant que les étudiants qui favorisent des approches “socio-émotionnelles” d’apprentissage ont un taux de succès qui les positionnent à 11 points des étudiants qui suivent un apprentissage classique, nous pourrions nous permettre d’entrevoir les mêmes garanties de succès pour nos collaborateurs si nous les mettions dans les mêmes conditions de développement. A nous de jouer, donc !

Quels jobs pour demain ? 

A l’occasion du dernier forum économique de Davos portant sur l’émergence de la 4ème révolution industrielle (la révolution digitale), le WEF a également édité un rapport sur les “Emplois du Futur”, élaboré avec la contribution d’experts académiques, professionnels ainsi que de CEO et CHROs de 371 organisations de référence sur leurs marchés, représentant 13 millions de collaborateurs à travers 9 secteurs d’activités et 15 régions économiques majeures ou émergentes.

Tous s’accordent à dire que notre monde VUCA (Volatile Uncertain Complex Ambiguous) a d’ores et déjà des impacts majeurs sur nos organisations.

65% des enfants qui sont en primaire aujourd’hui travailleront dans des emplois qui n’existent pas encore.

Les projections en terme d’emploi sont impressionnantes : 7,1 millions de jobs d’employés administratifs devraient disparaître entre 2015 et 2020, conséquence de cette 4ème révolution industrielle… avec un gain de 2 millions d’emplois dans le secteur STEM (Sciences, Technologie, Ingénierie et Maths). Les secteurs de l’Energie, de l’Information, des Media, de la NanoBioTech et de l’Entertainement sont les secteurs dont la progression s’annonce la plus florissante. Les 2 métiers dont la pénurie s’annonce déjà sont les data analysts qui donneront du sens à la masse de données traitées et les commerciaux qui seront en capacité de créer une réelle connexion humaine avec les clients. Notez le bien, on vous aura prévenus : l’économie de l’Emotion est en route…

53% des DRH interrogés s’estiment confiants dans la capacité de leur organisation à s’adapter. Cela fait 1 sur 2… C’est plutôt inquiétant. Et 50% pensent que cette adaptation viendra de l’interne (plan de développement) et seulement 20% par du recrutement externe. Il est donc urgent de se mettre au travail !!

Quelles compétences pour demain ? 

Donc, en projetant les compétences et traits de personnalités critiques sur les projections d’emplois à 2020 (il est relativement compliqué d’aller plus loin compte tenu justement de la nature VUCA de notre monde), le WEF a identifié l’évolution suivante dans la criticité de ces compétences :

20160319_top 10 des compétences de demainSOURCE : WORLD ECONOMIC FORUM – REPORT : FUTURE OF JOBS

 

Nous voyons émerger l’urgence de comprendre le monde qui nous entoure (résolution de problèmes complexes, développement de la pensée critique, capacité de jugement et de décision), de nous adapter (créativité, flexibilité cognitive) et surtout de nous connecter (people management, négociation, orientation service, intelligence émotionnelle, se coordonner avec les autres, …).

Sans aligner esprit et coeur, il sera très compliqué de réussir dans le monde de demain. Sans courage et sincérité, cette mutation sera douloureuse et inefficiente.
Sans collégialité et émulation, nos organisations seront vides de sens.
Sans regard pour notre Monde et nos Communautés, nos actions seront inutiles.

“Don’t Manage. Love”. “Don’t work. Have Fun”.
Dans le monde de demain, le Bonheur au Travail sera plus vrai que jamais.
Des collaborateurs heureux sont 55% plus créatifs… Des collaborateurs heureux sont 31% plus productifs. Des collaborateurs heureux font des clients heureux qui font à leur tour des actionnaires heureux. Il est possible de passer d’un monde VUCA à un monde collaboratif et agile. Il est possible de renverser le cercle vicieux pour passer dans une spirale vertueuse. Et de cela, nous en avons terriblement besoin pour construire un meilleur monde du travail, qui puise son sens dans le Bonheur de ses collaborateurs comme source de performance durable… Si vous en doutez, je suis prête à parier avec vous !

(Ecrit le 20 mars 2016, 4ème journée internationale du Bonheur – Happy Happiness Day !).