Monthly Archives: mai 2016

Savoir déléguer : tout un art !

  • Le déléguer tâches importantes valorise collaborateurs crée climat confiance.

    Mettre les formes, vérifier, communiquer… Savoir bien déléguer n’est pas chose simple. Il faut un savant mélange d’expérience, de lâcher-prise et de confiance.

 

Ludivine Duranton n’aimait pas déléguer, mais son nouveau poste de directrice des opérations au sein d’une agence événementielle parisienne a changé la donne : « Je n’ai plus le choix, je ne peux plus être sur tous les événements à la fois et je n’ai plus le temps de tout faire moi-même. Du coup, il faut installer un climat de confiance avec les équipes ». Voici quelques conseils pour que cette opération délicate – mais valorisante pour vos collaborateurs, qui vous en seront reconnaissants – soit couronnée de succès.

#1 Acceptez l’idée que chacun s’y prenne comme il l’entend

« Le fait de savoir déléguer est lié aux traits de caractère de chacun, estime Simon T., gérant d’une brasserie parisienne. Il faut accepter que les personnes ne fassent pas exactement comme on l’entend. J’ai du mal avec ça, ce n’est pas forcément facile à accepter … Du coup, j’y consacre beaucoup de temps parce que je cherche à obtenir de la personne qu’elle se calque exactement sur ma façon de faire. Alors que c’est uniquement le résultat qui importe ! »

#2 Prenez le temps de former vos troupes pour les rendre autonomes

« Pour les événements que je gérais moi-même jusqu’à maintenant, j’ai délégué à des chefs de projet. Cette année, je les accompagne beaucoup, je suis avec eux sur le terrain, comme si je les formais en quelque sorte. Pour l’instant, je suis là pour donner des consignes et je les laisse prendre confiance. L’objectif étant qu’ils soient autonomes l’année prochaine », raconte Ludivine Duranton. « Je délègue tout en restant impliquée, renchérit Carine Currit, Account Manager chez Elan-Edelman, ce qui est préjudiciable pour mon emploi du temps ». De son côté, Simon prône la lenteur : « Je pense qu’il faut y aller petit à petit en y mettant les formes. Prendre le temps d’expliquer les choses, et ne surtout pas agir à la va-vite ».

#3 Soyez clair sur les priorités, les objectifs et la deadline

Vos collaborateurs doivent savoir ce que vous attendez d’eux exactement. Si vous leur imposez pas sans cesse de nouvelles tâches à traiter en urgence, il y a de bonnes chances que rien ne soit fait correctement et dans les temps.

#4 Apprenez à lâcher prise

« C’est une discussion que j’ai beaucoup en interne avec mes managers, la notion de « lâcher prise » revient à chacune de nos discussions, expose Carine Currit. Je suis une perfectionniste, c’est une qualité dans certains cas mais sur le long terme et notamment pour le management, c’est un boulet que tu traînes. Mais paradoxe, je fais confiance très rapidement. » Car « lâcher prise » va forcément avec « confiance », clé de voûte de l’art de déléguer. « Déléguer, c’est une preuve de confiance, renchérit Caroline Rostang, co-propriétaire de six restaurants familiaux. Cela valorise le personnel et permet d’avancer ensemble ».

#5 N’oubliez pas de rester vigilant

« La confiance n’exclut pas le contrôle, nuance Caroline Rostang. Je ne contrôle pas forcément tout le temps, juste au début et en cours de route ». Un avis que rejoint de Ludivine Duranton, laquelle tâche de tout « bétonner » dès le départ.  « L’objectif est que, le moment venu, je n’ai plus rien à contrôler, que tout roule. Il faut tout « backuper » en amont pour éviter les accidents de dernière minute sur place. »  « Il faut trouver un équilibre entre déléguer, laisser de l’autonomie et travailler sur un mode collaboratif, » conclut Carine Currit. Un subtil dosage!

JULIE FALCOZ

 

5 facteurs propres à la start-up qui favorisent la créativité

1- Le manque de ressources 

Grâce à l’adversité 

Ressources humaines, ressources de temps et surtout ressources d’argent… On aurait tendance à penser que faire face à des contraintes fortes empêche l’innovation. Faux !

En start-up, on doit essayer de nouvelles choses pour grandir, tandis que dans une plus grande entreprise, on fait face à moins de «pression» : il y aura ainsi moins d’expérimentations et la créativité sera donc moins sollicitée.

Voici un exemple qui m’est arrivé il y a peu : nous avions recruté une stagiaire CM Espagne : il s’est révélé que l’étudiante s’est désistée à la dernière minute. Il me restait deux semaines pour trouver un remplaçant et notre RH était absente. J’ai donc cherché une façon innovante de faire parler de mon annonce de stage, et gratuitement : c’est là que j’ai eu l’idée de créer un CV inversé. La démarche fut appréciée, commentée, relayée, et j’ai recruté une nouvelle stagiaire pile à temps ! Finalement, ces contraintes fortes de temps m’ont obligées à faire preuve de créativité et je me suis retrouvée avec une collaboratrice certainement bien plus motivée !

2- La responsabilisation 

Grâce aux missions diversifiées

Forcément, avec une start-up en expansion, on a la chance de la voir grandir… et son équipe également ! Qui dit gagner en responsabilité dit changer de missions. Cela casse la routine et le fait de toucher à tout permet incontestablement de gagner en créativité. Il m’arrive de toucher à du marketing, à du commercial et même à du RH, tandis que dans une plus grande entreprise, les services sont bien souvent séparés.

L’avantage de travailler dans une petite structure, c’est aussi d’avoir un responsable proche de soi, qui vous connaît, vous fait grandir et vous fait confiance, on va donc davantage «oser» et prendre des initiatives pour créer de belles choses.

3- L’environnement 

Grâce aux interactions

Les bureaux d’une start-up, c’est bien souvent un vaste open-space avec une grande table dans la cuisine, des bureaux rapprochés et un espace détente. Autant d’espaces qui favorisent les interactions avec ses collègues, qu’ils soient ou non dans votre équipe. N’hésitez pas à être curieux et à l’écoute des autres pôles, vous apprendrez énormément.

Grâce à la détente

Développer sa créativité demande un effort d’imagination. Et pour cela, il est essentiel de faire le vide dans sa tête, de se reposer, de se détendre. Vous voyez un baby-foot, un billard ou un espace sieste avec des poufs géants ? C’est normal, les start-up ont bien compris le point que je viens d’énoncer.

4- La rémunération variable 

Grâce au dépassement de soi

Une start-up aura tendance à limiter les risques… Cela ne veut pas dire qu’elle ne va pas récompenser le fruit de vos efforts : mais ils seront conditionnés aux stricts résultats. Ainsi, si votre rémunération fixe sera relativement faible comparée à un grand groupe, vous aurez en revanche une rémunération variable sur l’atteinte de vos objectifs certainement bien plus importante que dans un grand groupe. C’est notamment mon cas, alors même que je ne suis pas commerciale. Cette «carotte» va pousser à se dépasser, à se remettre en question, à se lancer des challenges et bien sûr… à redoubler de créativité.

Dans la lignée de la rémunération variable, on peut aussi parler des actions ou des BSPCE (bons de souscription de parts de créateurs d’entreprise) qui vont vous guider vers un sens commun aux fondateurs : la réussite de l’entreprise.

5- L’instabilité 

Grâce à la remise en question

L’entreprenariat est un milieu instable, en tout cas sur les premières années. La start-up peut réussir comme échouer et chaque collaborateur est quelque part responsable du résultat. Rien n’est acquis, et il faut sans cesse se réinventer… Les dirigeants vont donc opérer des changements, qui auront inévitablement une incidence sur votre travail, ce qui favorisera (sans doute) votre stress, mais surtout, votre créativité .

Pour terminer, je vous laisse sur un conseil que j’applique désormais tous les jours pour favoriser ma créativité : les idées viennent aussi vite qu’elles disparaissent, alors notez-les immédiatement pour ne pas les laisser filer !

Sophie LebelSophie Lebel pilote la communication de Wizbii, le réseau social professionnel des étudiants et des jeunes diplômés. 

 

 

 

 

Par Sophie Lebel, chargée de communication à Wizbii

Les impostures de «l’écriture web»

Si l’on en croît la vulgate de certains “experts” journalistiques ou marketing, écrire pour le web requiert  un savoir-faire complexe et bien précis. Il s’agirait de suivre des règles  incontournables si l’on veut plaire au lecteur et faire de l’audience.

1- IL FAUT ECRIRE COURT SUR INTERNET

Ce point est soulevé par Morgane Tual dans son dernier coup de gueule via lequel elle raille ces formateurs sexagénaires débitant ce genre de règle absurde avec une “certitude insensée”.

Ecrire court à tout prix alimente l’idée qu’on ne peut pas créer de la profondeur sur Internet, que tout est forcément superficiel et creux. Difficile d’expliquer le rigorisme de l’impératif kantien en 140 signes…

En réalité, il ne faut pas écrire court, il faut écrire “dense” : dire un maximum de choses avec un minimum de mots. Mais ceci n’a rien de spécifique au web. Cela est vrai de toute écriture digne de ce nom, journalistique ou pas, qui distingue du contenu riche du verbiage, comme d’une bonne ou d’une mauvaise copie de philo.

Mais écrire dense, cela veut dire avoir des choses à dire, avoir de l’information, des faits à délivrer. Je me souviens de cette responsable d’un magazine spécialisé assistant à l’une de mes formations, qui contesta ma recommandation de concision. Alors que j’insistais sur la nécessité d’aller à l’essentiel, de servir le lecteur en lui mâchant l’information utile, elle objecta: “nous, on doit remplir du papier, le lecteur en veut pour son argent, il lui faut ses 130 pages”.

En réalité, le verbiage avait surtout pour fonction d’augmenter artificiellement la pagination rédactionnelle, pour augmenter le nombre d’insertions de pub.  Mais en admettant que le facteur kilo joue aussi auprès des lecteurs, il fallait fournir en ce cas plus  de contenus (informations, illustrations)… La dilution ne tient que sur des segments  presse peu concurrentiels, monopoles ou oligopoles qui ne durent pas éternellement.

Il faut certes adapter l’aspect visuel des contenus pour faciliter la lecture en moyenne 25% plus difficile sur un écran si l’on en croit Jacob Nielsen, ergonome expert ayant étudié la questions.

Cela signifie éviter des paragraphes “pavés” de quinze ligne sans aération dans lesquels le lecteur ne veut pas “entrer”. Eviter aussi les phrases qui n’en finissent pas, emplies de virgules, de gérondifs et de participes présents.

2- LE WEB, C’EST FORCEMENT MULTIMEDIA

A l’heure d’Internet, l’écrit est dépassé, il faut proposer de la vidéo, des animations interactives, des “serious games” et éventuellement un mélange de tout cela.

Non, l’écrit n’a pas disparu, bien au contraire, la lecture en général se porte bien et le texte foisonne sur Internet, comme en témoigne l’explosion des bases de données, textuelles pour la plupart. La question n’est pas d’apporter de la vidéo ou une animation pour faire “moderne” ou être dans la “tendance”, mais bien de savoir quel est le service rendu au lecteur.

Sous quel format, doit-on présenter l’information pour quelle soit la plus claire, la plus agréable, la plus facile à consommer ? Il n’y a pas de réponse unique à cette question, car les publics sont multiples. Pour certains, une interview vidéo sera le format le plus agréable. Pour d’autres au contraire qui ont peu de temps et préfèrent lire “en diagonale”, le texte sera plus adapté. On sait par ailleurs qu’une proportion importante de lecteurs sur Internet le fait depuis son lieu de travail, et tous n’ont pas un casque… Pour la discrétion ou l’open space, c’est donc un frein majeur.

En ce cas là, il semble judicieux de proposer les deux formats simultanés. Mais faut-il pour autant multiplier les formats ? Proposer tout en se disant que le lecteur fera lui-même son marché ?

Cette méthode faillit à l’une des missions essentielle du médiateur (ou “curator” selon le nouveau terme en vogue) : sélectionner l’information, la préparer pour la rendre digeste et servir ainsi le lecteur, d’autant plus qu’il est toujours plus submergé d’informations, de sollicitations visuelles, sonores, tactiles… olfactives demain ?

Le format retenu doit être fonction du propos. Pour raconter l’affaire Clearstream aux multiples rebondissements, une animation chronologique semble pertinente. Mais un schéma montrant les relations entre les différents acteurs ne sera-t-il pas plus efficace ?  Et en tout état de cause le format choisi ne remplacera pas les articles anglés sur telle ou telle question: la manipulation de Lahoud, la contre-manipulation de Sarkozy, le rôle de Villepin, la complicité des grand patrons…

le-petit-clearstreamle-petit-clearstream3- IL FAUT ECRIRE POUR LES MOTEURS

J’ai déjà dénoncé ce reproche adressé souvent aux journalistes web selon lequel ils sont soumis au méchant Google qui leur impose des règles et du coup, formate l’information.

Si l’uniformisation des formes et contenus journalistiques n’est pas toujours une vue de l’esprit, la faute en incombe aux journalistes, pas à Google.

Google a conçu des règles pour répondre à un souci de pertinence, de service au lecteur. Ces critères ne sont pas parfaits, et sont de plus en plus détournés (rançon de la gloire). Mais ils fonctionnent globalement, sinon Google ne détiendrait pas 65% de parts de marché dans le monde, en dépit d’une concurrence acharnée de Bing/Yahoo notamment.

C’est peut-être justement au niveau des écoles de journalisme ou par imitation grégaire rassurante queles journalistes finissent par écrire tous de la même manière. Comme ils parlent tous de la même façon en télévision ou en radio. Norme évolutive si l’on se rappelle bien les tons nasillards de nos premiers speakers.

Les critères de Google : richesse syntaxique, mises en forme (gras, titres…), popularité sont des indices de qualité. Et Google ne punit pas les textes longs, bien au contraire, incapable de saisir la pertinence contextuelle d’un texte long ou court. Ainsi pour une dépêche d’agence, il semble pertinent pour servir l’utilisateur de faire court compte tenu de son mode de consommation limité dans le temps. Pour un article de blog, cela dépend de la richesse du contenu lui-même

Par ailleurs, les usages évoluent vite et ce qui est vrai aujourd’hui ne le sera plus demain. Ainsi des paginations horizontales limitées en 768 px de hauteur qui ont évolué d’abord avec l’augmentation des taux d’équipement en écran plus grands (du 15 au 19 pouces). Et ont été bouleversés ensuite par l’apparition de la molette sur les souris qui a fait éclore les navigations verticales à plat, sur l’initiative du précurseur 20 minutes. L’apparition des tablettes et du mobile va certainement changer encore les modes de lecture et de consommation de l’information.

Enfin, comme le rappelle Morgane, on tâtonne, on cherche, on teste… S’il y a bien une seule règle qui vaille, c’est celle de l’intérêt du lecteur qui appelle des réponses aussi diverses qu’il y a de publics différents.

4- IL FAUT METTRE UN MAXIMUM DE LIENS

Ajouter un grand nombre de liens, c’est bien pour le lecteur, car c’est lui offrir potentiellement plus d’informations. C’est d’ailleurs bien vis à vis des moteurs qui “récompensent” les liens internes et externes, indifféremment de leur nombre.

Oui, mais est-ce réellement un service au lecteur de l’étouffer sous l’information ? Pire encore sont ces liens automatiques générés à partir des tags qui noient les liens pertinents sous une masse d’autres inutiles ou éloignés du sujet principal.

Cette “infobésité” dessert le lecteur en lui faisant perdre du temps et en diluant le “sens” sous la masse d’informations.

Ce cas de figure est un exemple de l’arbitrage qu’il faut réaliser entre les fameuses règles de Google et l’intérêt du lecteur qui doit toujours rester la finalité.

5- LES SUJETS SERIEUX NE MARCHENT PAS

Les sujets sérieux, “high-brow topics” (haut du front), comme disent les Anglais ne fonctionnent pas. La politique, les sujets internationaux, tous thèmes profonds ne font pas d’audience.

Il faudrait au contraire ne fournir au lecteur que ce qu’il “demande”, à savoir des faits divers, du people, de l’insolite, du spectaculaire plus ou moins racoleur.

Il semble évident qu’une galerie photo sur les ravages du Tsunami fera plus d’audience qu’un dossier sur les subprimes. Mais rien n’empêche d’expliquer le principe de ces produits financiers lors d’un diaporama sur les raisons de la crise financière. Et mon expérience m’a prouvé que l’on peut faire de l’audience, certes pas dans les mêmes proportions, avec ce genre de sujets “sérieux”. Tout dépend du format, du propos, du contexte.

Car s’’il faut procurer au client-lecteur ce dont il a besoin, il faut aussi lui apporter ce dont il ne sait pas encore qu’il a besoin.

Le journaliste est aussi ce pédagogue qui, tout en satisfaisant son public, cherche aussi à l’instruire, à l’élever, l’air de rien, “par la bande”. Equilibre délicat où il convient de ne pas trop exiger de son lecteur pour ne pas trop se couper de lui. Sans tomber non plus dans le pur suivisme racoleur qui aboutit à un rejet tout aussi inéluctable, in fine.

Entre l’austère plat de haricots “politique internationale” et l’indigestion de bonbons Haribo “faits divers ou people”, il faut éduquer nos enfants-lecteurs à l’information. Cet équilibre complexe est ce qu’on appelle une ligne éditoriale

Les jeunes journalistes doivent donc prendre du recul par rapport aux règles qu’on leur dispense. Celles-ci ne sont pas paroles d’évangile, elles doivent être adaptées au cibles, au contexte de diffusion, aux sujets, au lieu de promotion dans le journal ou sur le site (page d’accueil, de rubrique ou de blog ?). Et garder à l’esprit que les usages changent vite et nécessitent surtout une écoute attentive pour s’adapter. Ainsi qu’une dose de créativité pour proposer.  Un bon supermarché fournit rayons ET têtes de gondoles.

  • Par Cyrille Frank, fondateur de Mediaculture.fr
  • A propos

 

cyrille frank

Cyrille Frank est journaliste. Fondateur de Mediaculture.fr et Quoi.info («l’actualité expliquée», devenu «ça m’intéresse»), il accompagne les médias dans leur mutation numérique. Formateur en marketing de contenus, stratégie éditoriale (augmentation de trafic, fidélisation, monétisation d’audience) et en usages des réseaux sociaux (acquisition de trafic, engagement…).

 

Conduite du changement : les sept erreurs du dirigeant

Julia Maris Jean-Michel Palagos, auteurs

Julia Maris et Jean-Michel Palagos, auteurs de « Diriger en ère de rupture, brouillard et solitude » – D.R.

Est-il encore possible de diriger seul, à l’heure de la transformation numérique ? Jean-Michel Palagos et Julia Maris, respectivement président directeur général et directeur général adjoint de la société DCI, ne le pensent pas.

 

Les projets de transformation numérique échouent toujours à cause des mêmes erreurs. Dans l’ouvrage qu’ils cosignent (1), Jean-Michel Palagos et Julia Maris, respectivement président directeur général et directeur général adjoint de la société DCI (Défense Conseil international), analysent les erreurs systématiquement commises par les dirigeants, lors de la mise en place de projets liés aux technologies de l’information.

Aveuglement, illusion, confusion…

A partir d’exemples d’échecs mémorables liés à la modernisation des services de l’Etat, les deux auteurs tirent des leçons valables pour tous types de structures, de la petite entreprise à la grande administration, assurent-ils. «Tous les dirigeants sont désormais confrontés aux défis de l’ère de rupture, estime Julia Maris. Quand on reçoit des centaines de mails par jour, comment faire toujours les bons arbitrages?»Les auteurs ont ainsi distingué sept chausse-trappes de la conduite du changement.

#1 L’aveuglement cognitif. Afin de conjurer le risque, le dirigeant ne voit que les éléments qui viennent confirmer ses certitudes. Il ne distingue plus les signaux faibles qui vont à l’encontre son idée, et qui devraient l’alerter.

#2 L’anarchie des objectifs. Le dirigeant ne parvient plus à tenir le cap qu’il s’est fixé. «L’objectif initial est parasité par de nouveaux objectifs, qui ne sont en fait que des conséquences du premier, » détaille Julia Maris.

#3 L’action à contretemps. Le dirigeant perd le sens du timing, en privilégiant par exemple la réduction des coûts. «Or, pour mener à bien la conduite du changement, il faut accepter de ne pas réduire les coûts immédiatement, » explique Jean-Michel Palagos.

#4 La tentation du management participatif. Il s’agit certes d’une tentation légitime, mais gare aux dérives et à la dilution des responsabilités ! «A un moment donné, il faut décider pour avancer, et savoir faire preuve de courage, » rappelle Julia Maris

#5 L’illusion technophile. Le dirigeant veut croire qu’un système d’information va régler tous les problèmes. « Trop souvent, les facteurs humains sont négligés. Un projet technologique ne peut réussir sans une réflexion préalable sur son sens, son acceptabilité et sa bonne compréhension par les collaborateurs, » signale Jean-Michel Palagos.

#6 L’orgueil des têtes bien pleines. Parce qu’il sort d’une formation d’élite, le dirigeant se croit à l’abri des erreurs, voire refuse l’idée même qu’il puisse se tromper et connaître l’échec. «C’est un mode de fonctionnement bien français,estime Julia Maris. Qu’un dirigeant reconnaisse son erreur et en tire les leçons, et cela libère une énergie incroyable chez ses collaborateurs. Il faut militer pour le droit à l’échec, pour qu’il ne soit plus une faute mais un nouveau départ. »

#7 L’absence d’alternative. Le dirigeant est persuadé qu’il a pris la meilleure direction, ou la seule possible. Il ne prévoit aucun « plan B ». « Il risque de se retrouver bloqué dans une impasse qu’il a lui-même créée, reprend Jean-Michel Palagos.Cette situation succède souvent à un premier succès grisant.»

La codirection, la solution ?

Afin de prévenir les défaillances dans les prises de décision, ainsi que l’appréhension erronée d’informations massives et complexes, les deux auteurs prônent la mise en place de nouveaux modes de leadership. « Pour nous, la solution a été la direction en binôme, explique Jean-Michel Palagos. Nous nous complétons et nous challengeons mutuellement. Il ne s’agit que de notre témoignage, et ce n’est peut-être pas l’unique solution pour tous les dirigeants. Toutefois, nous sommes persuadés que diriger seul n’est plus possible aujourd’hui. »
(1) Diriger en ère de rupture, brouillard et solitude, éditions Hermann

GERALDINE DAUVERGNE

Le créosote, ce manager performant qui détruit votre entreprise

Philippe Silberzahn

Je continue à étudier les facteurs de déclin des entreprises. Après avoir évoqué le silence imposé aux employés et les talents qui n’en sont pas, regardons aujourd’hui le manager créosote, celui qui tue tout autour de lui pour s’épanouir. Le créosote peuple à peu près toutes les entreprises que je rencontre et qui ont tant de mal à innover. N’y aurait-il donc pas un lien de cause à effet?

Voir l’article original 1 002 mots de plus

6 conseils pour réussir votre campagne de crowdfunding

 

On ne se lève pas un matin en se disant « tiens, je vais lancer une campagne de financement participatif pour mon business ! ». Ce genre de décision se réfléchit, se mûrit et se prépare.

Besoin d’un développeur web ?

Trouvez gratuitement un freelance disponible pour vous aider !

Trouver un freelance

Codeur.com vous dévoile 6 éléments à anticiper avant de se lancer dans l’aventure du crowdfunding.

miniature-article

Anticiper le coût d’une telle campagne

Tout d’abord, ne croyez pas que l’organisation d’une campagne de crowdfunding est gratuite. Comme nous le verrons plus en détails ci-dessous, vous devez déjà préparer des récompenses. Ces goodies ou cadeaux ont bien souvent un coût de production.

Vous devrez également vous payer une vidéo et des supports avec un rendu professionnel pour convaincre un maximum de personne à investir dans votre projet.

Vous devez aussi penser à la commission que prend la plateforme au passage (aux alentours de 8% pour les sites les plus connus comme Ulule ou KissKissBankBank).

Enfin, pour que votre opération soit un succès, vous devez la promouvoir largement. Or, cela va vous prendre du temps (donc de l’argent). Mais il est possible que vous deviez aussi allouer un budget pour des publications sponsorisées sur les réseaux sociaux, des partenariats avec des influenceurs…

Autrement dit, pour pouvoir récolter de l’argent, il faut d’abord en investir !

Préparer les récompenses

Qu’allez-vous offrir comme récompense aux donateurs ? Cette question paraît simple, mais il faut trouver des lots à la fois attractifs et peu chers. Sur ces plateformes, les internautes ne viennent pas chercher un cadeau, mais ils apprécient tout de même le geste.

Essayez de trouver des contreparties originales et authentiques qui soient en accord avec la cible de donateurs visés.

Réfléchir longuement à la présentation de votre projet

C’est la présentation du projet qui va décider les donateurs. Vous devez réaliser un argumentaire détaillé, pertinent et illustré. Vous devez être clair dans vos explications et développer étape par étape ce que l’argent récolté permettra de faire.

Vous devez même aller plus loin en détaillant votre vision d’avenir et comment vous voyez votre activité dans 3, 5 voire 10 ans.

Pour que la présentation capte l’attention des visiteurs, offrez du contenu dynamique pour appuyer vos explications : vidéos, infographies interactives…

Sélectionner la meilleure plateforme

La sélection de la plateforme de crowdfunding est cruciale. Evidemment, vous serez tenté de vous inscrire sur une des plus connues comme Ulule, Kickstarter ou KissKissBankBank. Mais conviennent-elles réellement à vos besoins ? Il existe des sites thématiques où le nombre de visiteurs est plus restreint, mais aussi mieux ciblé.

Par exemple, vous trouverez Bulb in Town qui s’adresse aux commerces de proximité, Fundovinodédié aux acteurs du vin, Lymo consacré aux projets immobiliers, MyMajorCompany pour les artistes, etc.

Il est important de recenser tous les sites qui proposent un financement participatif sur votre secteur et d’étudier leurs conditions d’inscription, les commissions ou encore le taux de réussite des projets inscrits.

Déterminer la durée de votre campagne

Votre campagne de crowdfunding peut durer quelques jours, comme plusieurs mois. Votre décision va dépendre de votre communauté et du montant demandé. Si vous souhaitez récolter 2 000 € et que vous avez déjà des milliers d’abonnés sur les réseaux sociaux, une dizaine de jours devraient suffire.

Mais si vous voulez 100 000 €, alors que vous n’avez qu’une centaine de membres dans vos diverses communautés, il va falloir allonger le délai, le temps que vos opérations de communication génèrent des retombées.

Faire un maximum de promotion

Pour faire connaître votre projet à un maximum d’internautes intéressés et récolter les fonds dans les délais impartis, affûtez vos outils de communication !

Toutes les techniques webmarketing seront utiles à votre succès.

Cependant, pour attirer le public intéressé par votre projet, pensez à construire une stratégie adaptée, à développer vos valeurs et surtout, à maîtriser parfaitement votre e-réputation.

Les internautes doivent adhérer au projet, autant qu’au porteur du projet ! C’est la proximité avec vous, votre sincérité et votre disponibilité qui les pousseront à mettre la main au portefeuille.

Avant de lancer votre campagne de crowdfunding, vous devez anticiper toutes les étapes. Calculez le budget nécessaire pour sa réussite, faites une étude de toutes les plateformes existantes, élaborez votre stratégie de communication et vous êtes sûr de remplir la jauge de votre objectif.

Fabien Berthoux

Candidats à la franchise : réfléchissez avant de vous lancer !

L’entrepreneuriat en franchise est une décision engageante pour vous et vos proches, tant sur le plan financier qu’humain. Souvent source de stress, l’étape du choix de l’enseigne mérite une réflexion approfondie, loin de tout a priori. Les conseils de Théodore Gitakos, président du cabinet Epac International.

Candidats à la franchise

Le mythe du « profil idéal » en franchise

Jeune ou expérimenté, seul ou en couple, néophyte ou familier du secteur, diplômé ou non… Beaucoup de candidats à la franchise se mettent en tête que les réseaux recherchent des profils précis, quitte à s’arrêter sur une liste de critères pour recruter leurs franchisés. Certes, les enseignes procèdent généralement à un premier filtre, souvent via internet, en écartant par exemple les personnes dont l’apport personnel est insuffisant, mais le recrutement est aussi une histoire de feeling. « Il n’existe pas vraiment de profil idéal », rassure Théodore Gitakos, président d’Epac International, un cabinet spécialisé dans le recrutement de franchisés et le conseil aux franchiseurs. « Et ce, tout simplement parce que chaque réseau recherche des candidats qui correspondent à leurs valeurs et à l’esprit de l’enseigne, n’étant pas les mêmes d’une marque à l’autre », poursuit l’expert.

En revanche, certains critères communs à tout chef d’entreprise sont très recherchés. Les franchiseurs contrôlent, par exemple,  « la volonté et l’envie d’entreprendre, les ressources financières mais surtout humaines, et que le franchisé est à l’aise avec le réseau et leconcept », énumère Théodore Gitakos. Des qualités de gestionnaire et manager, dans le cas où vous seriez amené à diriger un ou plusieurs collaborateurs, sont des atouts également indispensables pour vous lancer.

Une séduction mutuelle

Sans oublier que le recrutement d’un nouveau franchisé est avant tout une affaire de séduction : « La franchise, c’est comme le mariage : chacun choisit l’autre pour s’unir », rappelle le président d’Epac International. Lorsque le candidat rencontre un franchiseur, son seul curriculum vitae ne suffira pas à convaincre : ses savoir-être comptent pour beaucoup dans la décision finale de l’enseigne. Réciproquement, et cela est parfois oublié pendant la phase de recrutement, le candidat aussi doit être séduit. Car il a généralement le choix entre plusieurs enseignes positionnées sur un même secteur, et peut donc évaluer le franchiseur, ses promesses et le feeling qu’il a avec lui avant de décider de rejoindre son réseau.

Pour en apprendre plus, ne vous contentez pas du discours tenu par le franchiseur.Contactez les autres franchisés, renseignez-vous directement auprès d’eux pour jauger l’ambiance qui règne dans le réseau et savoir si le franchiseur respecte ses devoirs d’assistance et d’accompagnement.

Dernières précautions avant de se lancer

Puisque la décision d’entreprendre en franchise est lourde de conséquence – l’engagement contractuel auprès d’un réseau dure en moyenne 7 ans et nécessite un investissement personnel souvent supérieur à 100 000 euros – elle doit être réfléchie. « Avant de se lancer, il faut bien vérifier que l’on est prêt », avertit Théodore Gitakos. « Car quand on est patron, on ne compte pas ses heures, parfois on est payé moins bien, surtout au démarrage, on prend des risques personnels, en donnant notamment des cautions sur des crédits professionnels… Il faut donc être motivé pour entreprendre ». Pour ces mêmes raisons, il convient de choisir un secteur d’activité non pas uniquement pour son attrait financier, mais parce qu’il vous plaît. Idem pour le concept et l’enseigne que vous déciderez de retenir. « Le but étant, bien évidemment, d’être heureux de se lever le matin pour aller travailler ».

Propos recueillis par Widoobiz lors du Salon des Entrepreneurs de Paris (février 2016)

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Withings ou l’histoire d’une naïveté française

Le spectaculaire rachat de Withings par Nokia ne traduit pas comme on l’évoque systématiquement la faiblesse de notre système de financement mais le manque de vision et d’engagement de notre scène entrepreneuriale. L’incapacité à créer des écosystèmes à l’échelle mondiale afin de se positionner dans la guerre du numérique qui oppose la Chine aux Etats-Unis. Il est temps de se mobiliser pour «faire tomber les GAFA» et défendre notre souveraineté.

Après Captain Train racheté par les Anglais pour 200M€, c’est au tour d’un emblème de la technologie française Withings et qui a fait grand bruit au CES de Las Vegas en jouant la carte du made in France, de passer sous le contrôle de Nokia pour 170M€. Et il y a fort à parier que Blalacar ne résisterait pas à une proposition de Facebook si ce dernier décidait d’introduire le covoiturage dans sa palette de services pour connecter la planète. L’aventure de ce que l’on appelle les pépites à la française n’a malheureusement qu’une seule issue : un gros chèque !

L’intelligence first

Plus la technologie se développe et plus elle s’efface derrière les idées. Le «purpose» ou la raison d’être. Les grands acteurs du numérique l’ont compris en prenant le virage de «l’intelligence first». Le produit devient une fonctionnalité qui s’intègre dans une plateforme dont le rôle est de résoudre les problèmes du monde, la santé, les déplacements, les loisirs… gérer une communauté, organiser un écosystème circulaire, itératif, ouvert et inclusif qui met en contact directement les utilisateurs et producteurs pour raccourcir et optimiser l’interaction. C’est la mort annoncée des sites et des applications. Le rôle de l’entrepreneur est alors de défendre une «vision» et ensuite de designer le système qui va avec. C’est un chef d’orchestre plus qu’un créateur de ressources qui va défendre les actifs clés de l’entreprise ; les idées et les données. Dans ce nouveau contexte, des entreprises mono-produits comme Withings n’ont aucune chance de se développer sinon à intégrer un écosystème. On peut d’ailleurs s’interroger sur les véritables bénéfices pour Whitings d’un rachat par Nokia ? Dropbox ou Evernote en ont l’amère expérience en cédant au pouvoir de frappe des grandes plateformes. Et que dire de la pertinence de cette phrase de Steve Job : «Vous êtes une fonctionnalité et non pas un produit», en refusant de racheter Dropbox il y a dix ans ?

La nouvelle guerre des écosystèmes

C’est sur le terrain des écosystèmes que s’affrontent désormais les deux géants du numérique, les Etats-Unis avec les GAFA, sous-tendus par une idéologie, et la Chine avec des entreprises plus pragmatiques comme Alibaba, Wechat qui ont su développer de nouveaux écosystèmes dans des secteurs en plein essor en créant de nouveaux modèles de business et qui après avoir touché un nombre impressionnant d’utilisateurs sur leur marché intérieur commencent à se positionner à l’international en déclenchant une lutte féroce avec les Américains. C’est dans ce contexte que les GAFAs (principalement) font leur «marché» aux quatre coins de la planète pour alimenter et enrichir leur écosystème. Et la France avec la qualité de sa recherche et le dynamisme de ses start-up est un terrain de chasse particulièrement attractif.

Pourquoi l’Europe n’est pas en mesure de créer des écosystèmes à l’échelle mondiale ?

Le rachat de Withings n’est pas comme on l’évoque un problème de financement. Un écosystème européen d’investissement inadapté qui empêcherait un scale-up rapide de nos pépites. Le périmètre de withings quels que soient les fonds qu’on y injecte rend de toute façon un développement impossible hors d’une plateforme. La question est pourquoi l’Europe n’est pas en mesure de créer des écosystèmes à l’échelle mondiale au sein desquels des pépites comme Withings trouveraient toute leur place ?

Nous ne pensons pas le numérique à la bonne échelle !

Nos discours sur le made in France, la mise en scène autour de nos champions du numérique et de leur présence au CES appuyée par le ministre de l’économie en personne a quelque chose de naïf et de pathétique. Toutes nos infrastructures institutionnelles ou privées, accélérateurs, groupes de réflexion, French tech, CNNum, École 42, The Family, l’accélérateur ou le NUMA, pour ne citer que les plus en vue ne sont pas programmées pour développer des plateformes avec des visions mais des produits et des fonctionnalités ou des lois et des rapports. C’est notre culture économique et entrepreneuriale qui est en cause. Un monde encore très marqué par la culture de l’ingénieur et du spécialiste. Un monde qui n’est pas familier et qui reste méfiant envers les notions de vision et d’engagement et plus généralement envers le monde des idées. Des entrepreneurs plutôt conservateurs qui ne perçoivent pas la nature profondément subversive de la révolution numérique et la nécessité de changer leur «échelle de réflexion».

Des grands groupes qui ont tous un potentiel de start-up

Nous pourrions aussi nous appuyer sur les grands groupes qui ont tous un potentiel de start-up à l’image de l’Américain Goldman Sachs qui déclare : «Nous ne sommes plus une banque, mais une entreprise de technologie, nous sommes les Google de la finance», en faisant travailler trois mille cinq cents personnes sur le sujet et en annonçant un train de mesures comme l’ouverture en open source des données de marché et de gestion des risques. On imagine très bien des entreprises comme La Poste et Groupama dont les métiers vont être radicalement remis en cause dans les cinq prochaines années préparer l’avenir en organisant un écosystème autour du soin et de la santé (par exemple) qui intègre Withings et ses savoir faire. Mais en écoutant les représentants de ces grands groupes, Pierre Gattaz ou de Carlos Ghosn par exemple, on perçoit rapidement leur vision court terme et leur manque d’intérêt (ils n’ont rien à y gagner) pour les stratégies de rupture.

Sommes-nous prêts à vivre dans un «Internet Fisher Price»

Sommes-nous condamnés à devenir des satellites, à perdre notre souveraineté économique et de sécurité en restant sous l’emprise des GAFAs. Ou encore comme le propose François Candelon, Senior Manager au sein du Boston Consulting Group dans un très bon article «de regarder ce que la Chine peut nous apprendre et nous apporter» et de «créer une route de la soie du numérique». Sommes-nous condamnés à choisir entre Charybde et Scylla ? Non ! Car si les géants du web avec leur vision ont ouvert la voie à de nouvelles relations en construisant les entreprises les plus disruptives de l’histoire, elles nous laissent face à un trou béant. La «technicisation de l’individu». Sommes-nous prêts à vivre dans un «Internet Fisher Price», comme le titrait Viuz «dans des résidences fermées» gérées par des machines «avec des bosquets rondouillards, des pelouses impeccables et des routes goudronnées» où règne l’exclusivité, le premium et la rareté en laissant à la porte toute une partie de la population. Des sortes de maisons de retraite ultra sécurisées pour les plus fortunés ?

Faire tomber les GAFA

Il faut sans aucune hésitation nous engouffrer dans une troisième voie : «Faire tomber les GAFA». Si la formule est quelque peu provocante, elle incite à la mobilisation. Le retard sera difficile à rattraper, mais il est temps pour l’Europe de s’appuyer sur ses valeurs historiques et fondamentales pour construire de nouveaux écosystèmes et entrer de plain-pied dans la guerre économique qui oppose les deux grands blocs. Proposer des alternatives aux GAFAs. «Se servir des algorithmes et de l’intelligence artificielle pour créer une intelligence augmentée et résoudre les problèmes complexes que l’urgence écologique et sociale nous pose», comme le dit Yann Moulier Boutang. Intégrer les nouvelles technologies pour rééquilibrer les rapports de force, trouver les clés d’une véritable économie du partage et de la connaissance, s’attaquer à la question de l’avenir du travail, de sa rémunération, de la santé, du libre-arbitre, de l’éducation…

Changer d’échelle

Une rupture qui nécessite de changer d’échelle en bousculant notre culture économique et notre appréhension du monde. Une rupture qui, si elle se heurte encore à une «diabolique» inertie, s’impose comme une nécessité pour beaucoup d’entre nous.

Si vous faites partie de cette nouvelle «génération» de «l’intelligence first», si vous avez des idées et des solutions pour changer notre échelle de réflexion, je vous invite à nous joindre sur Twitter @ifbranding ou par email f.nemo@ifbranding.fr ensemble, nous avons des solutions à proposer et des projets à construire.

  • L’auteur

Par François Nemo, spécialiste en conseil en stratégies de ruptures.Site Internet : ifbranding.fr

Twitter : @ifbranding

Medium : @ifbranding

 

Ressources, processus et valeurs: la migration des compétences et la difficulté du changement

Philippe Silberzahn

Pourquoi une entreprise n’arrive-t-elle pas à changer lorsqu’elle fait face à une rupture? La question n’est pas nouvelle mais elle continue d’étonner les spécialistes. Une partie de la réponse se trouve dans l’observation qu’au cours du temps, ce qu’une organisation sait faire migre: sa capacité réside d’abord dans ses ressources (notamment humaines), puis elle évolue vers des processus et enfin vers des valeurs. C’est à ce dernier stade que le changement est le plus difficile.

Voir l’article original 921 mots de plus