Category Archives: Informatique

le Numérique rend les Mégapoles plus Intelligentes

Les villes représentent aujourd’hui un défi environnemental majeur. Les chiffres sont sans appel : sur à peine 1% des terres émergées, elles concentrent 50% de l’humanité, consomment 75% de l’énergie mondiale et génèrent à elles seules 80% des émissions de CO2 de la planète.

Une situation d’autant moins soutenable que d’ici 2050, selon l’ONU, la population mondiale atteindra les 10 milliards d’individus dont 70% vivront dans les villes. Les études scientifiques montrent par exemple à l’horizon 2030 un cordon littoral chinois totalement urbanisé de 1 800 km de long alors qu’en Afrique, la pression démographique provoquera une augmentation de l’urbanisation de 590%.

Des projections qui rendent primordiale la mise en place de solutions innovantes capables de rendre les villes plus intelligentes au plan environnemental.

A contrepied d’Alphonse Allais qui conseillait de construire les villes à la campagne, le numérique permet d’imaginer des réponses pertinentes à de nombreuses problématiques urbaines. Visite guidée de solutions Orange pour des cities plus smart.

Orange - COP21 - Smart city - Infographie

Les TPE-PME face à l’économie numérique

Les chefs d’entreprises interrogés confirment leur appétence pour les nouveaux outils, valorisent leur site internet comme allié de leur développement commercial et donnent leur vision du business du futur.

Créée en 2000, Linkeo est une société française spécialisée dans la communication digitale pour les TPE-PME. Les données formant cette infographie proviennent de leur quatrième étude sur le sujet « les TPE-PME françaises face à l’économie numérique ».

Résultats :
– les entrepreneurs ont une appétence pour le numérique,
– pour générer du trafic sur leur site internet, ils font de plus en plus appel au référencement (naturel ou payant),
le site internet est vital pour une entreprise : 48% des prospects recherchent spontanément l’adresse du site internet, et 53% d’entre eux déclarent aux entreprises les avoir connu via leur site internet,
– les entrepreneurs considèrent les réseaux sociaux et le mobile comme des vecteurs de croissance.

Five Reasons Machine Learning Is Moving to the Cloud

the cloudAmazon Web Services turned a lot of heads recently when it launched a machine learning platform aimed at making predictive analytics applications easy to build and run, joining cloud juggernauts Microsoft and Google with similar ML offerings. It turns out the cloud is very well-suited for this critical type of big data workload. Here are five reasons why.

1. Machine Learning Is Everywhere

If predictive analytics is the killer app for big data, then machine learning is the technological heart powering that killer app. Whether you’re aiming to leverage your big data to stop fraudulent transactions,tree of awesome_1 reduce customer churn, fight cybercriminals, or make product recommendations, machine learning algorithms are the keys to creating models of what happened in the past, so you can use new data to predict what happens next.

Machine learning is nothing new; the field has been around for decades. But thanks to a confluence of events—including the ever-increasing amount of processing power, the growing sophistication of analytic software, and most important of all, the huge amounts of data available to train and feed predictive models—the need for, and the benefits of, machine learning have never been greater.

2. The Cloud’s Super Gravity

The cloud is like the Death Star: The more workloads it sucks in, the cheaper it gets for all cloud death starcustomers, and the harder it is to ever get away. Consider that Amazon Web Services (AWS) has between 2.4 million and 5.6 million servers installed in about 90 data centers across the world, according to a 2014 EnterpriseTech story, and is adding enough server capacity every day to support Amazon.com’s entire ecommerce operation circa 2004.

Cloud services like AWS’ S3 and Microsoft’s Azure make it very cheap to store all kinds of data—including log data, mobile data, and data generated by cloud-based apps like Salesforce andWorkday. When it comes time to running analytics on that data, the economics of the matter make it difficult to justify landing it back down on earth.

3. Statistics Is Really Hard

When the cloud-based machine learning company called BigML was launched in 2011, the only way to do advances analytics was to buy an expensive stats package like SAS orIBM‘s SPSS or use the emerging open source tools like R.math is hard

“Machine learning and predictive analytics aren’t new,” BigML vice president of business development Andrew Shikiar tells Datanami. “But the only alternative in the past was to buy some SAS for your quants and have them do machine learning. Instead of buying SAS or putting R on your desktop, users can just log into BigML…and use an array of algorithms that we’ve introduced to the platform.”

BigML has attracted more than 17,000 users over the past four years, and has more than 200 paying clients, making it one of biggest providers of cloud-based machine learning software whose name isn’t Amazon, Google, Microsoft, or IBM.

4. ML Workloads Are Highly Variable

The actual underlying computational requirements for machine learning vary depending on where you are in the machine learning lifecycle. When you’re training (or retraining) your models, you may need a large amount of processing power, whereas actually running the models may not consume much resources at all. That variability makes the cloud a perfect place to park machine learning workloads, especially if the training data already lives on the cloud. Cloud providers like Amazon can quickly spin up virtual partitions to handle massive training sets, then turn them off when they’re no longer needed.

sin curveConsider the experience of Cisco. The computing device maker maintains an extensive collection of 60,000 “propensity to buy” (P2B) models, which it uses to predict sales of its products every quarter (we profiled Cisco in a January feature in Datanami).

Getting the necessary computer time was a challenge for Cisco’s data scientists, and as a result, it would often take several weeks to retrain the models every quarter. For a big company like Cisco, this type of delay between training and deploying ML models could result in millions in lost sales opportunities. While Cisco doesn’t run on the cloud (it adopted H20.ai to speed up its in-house ML environment), the company’s experience shows the importance of scalability in machine learning.

5. Data Scientists Are Still Unicorns

The shortage of data scientists has been well documented, in this publication and others. In response, universities have ramped up data science programs, and software companies have shifted into overdrive to abstract away the need for data scientists in the first place. While it’s debatable whether software can completely eliminate the need for data scientists, it’s undeniable that many data science activities previously done by highly trained PhDs will eventually be automated. We’re seeing many of these software offerings moved to the cloudunicorn

The combination of advanced analytics software and the availability of cheap processing power makes the cloud a perfect place to play with algorithms—as well as a great place for startups to ramp up their business models.

One of those startups, a Silicon Valley outfit called ForecastThis, yesterday announced that its MLSolver technology is now available via the cloud. “We’ve created a means by which data owners or experienced data scientists can now cut straight to the very best methods for their data,” says the company’s CTO and co-founder Justin Washtell. “There’s no longer an imperative to be an algorithm expert or to spend valuable time testing and comparing different algorithms.”

BigML’s Shikiar says being in the cloud gives him certain advantages over software companies developing on-prem solutions.  “Working in the cloud is the easiest way to evolve the platform and service customers,” he says. “With the advent of cloud-based machine learning platforms…the need to roll your own algorithms may go by the wayside.”

GOUVERNANCE DES INFORMATIONS: COMMENT ADOPTER LES MEILLEURES PRATIQUES EN 7 ÉTAPES

visuel_approche_globale_de_lentreprise_6_shtturstock.jpg

La gouvernance des informations est un cadre pluridisciplinaire que les entreprises peuvent employer pour encourager la mise en œuvre de mesures adéquates et pour inciter des comportements appropriés concernant la façon dont les informations sont valorisées, gérées et utilisées par l’organisation. Ceci comprend la définition des postes, politiques, procédures et indicateurs nécessaires pour bien gérer les informations tout au long de leur cycle de vie, depuis leur création jusqu’à leur destruction finale. Le chemin à parcourir pour gérer efficacement les risques liés à la gestion des informations.

La gouvernance des informations (GI) paraîtra sans doute comme un concept écrasant pour une entreprise de taille moyenne affairée, mais ces principes sont pourtant au cœur de toute stratégie concrète et efficace en matière de risques liés à la gestion des informations.

L’essence de la GI consiste à comprendre quelles informations vous détenez, où vous les détenez et quelle est leur valeur, que ce soit pour vous, vos employés, vos clients ou vos concurrents, ainsi qu’à déterminer comment elles circulent à travers l’entreprise et où se situent les points les plus vulnérables. Elle consiste à s’assurer que la gestion des informations et des risques associés représente une préoccupation constante du conseil d’administration, et qu’elle est appuyée par des mesures mises en œuvre par des équipes transversales composées d’un personnel compétent et doté des moyens nécessaires à son travail.

Comment y parvenir : les sept étapes à franchir pour réussir

1. « Cet enjeu n’est pas uniquement du ressort du service des Technologies de l’information»: Le service des Technologies de l’information ne peut pas protéger les informations si le service du Marketing les utilise pour créer les profils de préférence de ses clients sans que personne ne soit officiellement responsable de leur sécurité. Le conseil d’administration ne peut se permettre de fermer les yeux sur un risque susceptible de nuire de manière significative à la notoriété de la marque, à la confiance de la clientèle, à la conformité à la loi et à tout avantage concurrentiel de l’entreprise. Dans une entreprise, chacun doit assumer sa part de responsabilité concernant ces informations.

2. « Dressez un tableau sans complaisance de la réalité actuelle concernant ces risques » : Identifiez les lieux où se trouvent vos informations les plus vitales et les plus vulnérables en réalisant une analyse des risques dans l’ensemble de l’entreprise. Utilisez les questions formulées par tous ceux dont il est dans l’intérêt que ces risques soient bien gérés, y compris le personnel de sécurité du service des Technologies de l’information, le service de Gestion des risques, le service de la Conformité et le service des Affaires juridiques, ainsi que les unités clés de l’entreprise et le service des archives. Pensez notamment aux adresses IP, ainsi qu’aux informations hautement visées par la réglementation et fréquemment auditées. Utilisez les résultats de ce travail pour concentrer vos ressources de protection contre les risques liés à la gestion des informations sur les domaines les plus essentiels. Réexaminez cette procédure à intervalles réguliers, car le degré de risque varie dans le temps.

3. « Libérez vos informations, afin de les mettre à profit par l’analyse et à travers l’innovation» : Ne craignez pas vos informations. Les entreprises de taille moyenne doivent adopter une stratégie plus holistique et proactive en matière d’extraction de la valeur de leurs informations. Ceci implique de faire circuler ces informations plus librement, à condition qu’elles ne soient pas confidentielles ou privées, dans toute l’entreprise afin qu’elles soient le moteur de la créativité, de l’innovation et de la croissance.

4. « Demandez à vos employés qu’ils s’impliquent » : Toute gestion performante des risques liés à la gestion des informations dépend du personnel de plusieurs manières différentes :

  • L’augmentation rapide des volumes, de la vélocité et de la variété des données, ainsi que le besoin croissant d’extraire de la valeur et des connaissances de l’ensemble de ces informations, a des implications significatives en matière de compétences. Les entreprises avant-gardistes emploient toutes des analystes de données. Si ceci est hors de votre portée, envisagez de former à ces questions d’autres fonctions de votre organisation afin que ces dernières acquièrent des compétences en matièrede science de l’analyse des données.
  • Deuxièmement, encouragez l’instauration d’une culture du respect des informations, et veillez à ce que votre personnel possède la formation, les moyens de communication et l’assistance dont il a besoin pour gérer vos informations de manière responsable et pour réduire les risques associés.
  • Troisièmement, mettez en place une procédure robuste en matière de protection d’informations en cas de départ d’employés.

5. « Ne laissez pas traîner des documents papier contenant des informations » : Le fait que les documents papiers soient perçus comme un risque de sécurité majeur est un enjeu qui peut et doit être confronté de manière urgente. Mettre en œuvre des procédures structurées en matière de scanning numérique et d’archivage et d’extraction de documents n’est pas difficile, et un prestataire de service externe chevronné pourrait vous aider à vous familiariser avec ce travail et à le gérer.

6. « Créez des indicateurs mesurant l’efficacité de vos mesures » : Quelles que soient les mesures que vous décidiez d’adopter, celles-ci doivent atteindre leurs objectifs pour en valoir la peine, ce qui signifie qu’il est indispensable de déterminer si elles produisent les résultats escomptés. Définissez vos indicateurs de performance clés, vérifiez que votre personnel les connaît et les comprend. Désignez une personne responsable de réévaluer ces indicateurs à intervalles réguliers.

7. « Sachez quoi faire quand tout va mal » : Que ferez-vous si, en dépit de tous vos efforts, vous êtes victime d’un incident ? Que ce soit dans le contexte d’une restauration de données, de plans de continuité des activités, de la gestion de crises ou de la production des rapports de violation de données, la façon dont vous gérez la situation et en parlez suite à un tel incident pourrait être absolument déterminant. Certaines organisations sortent renforcées d’un tel incident, et sont parfois jugées encore plus fiables qu’auparavant. D’autres, par contre, ne s’en sont jamais remises.

« Voici ce qu’apporte la gouvernance : elle permet aux entreprises de faire ce qu’elles ne peuvent pas faire aujourd’hui, et de saisir les opportunités offertes par l’économie numérique. Engagez un dialogue avec les principales parties prenantes de l’entreprise, afin d’élaborer une stratégie de gestion des informations susceptibles de favoriser l’instauration et la promotion d’une culture professionnelle ouverte et fondée sur l’échange, tout en maintenant un bon niveau de protection des actifs d’informations importants »

L’ÈRE DU DIGITAL

photo_daniel_ollivier.jpg

L’entreprise à l’ère du digital : des outils mais surtout des hommes…

La propagation du changement ne s’effectue pas à la même vitesse dans tous les domaines… Aujourd’hui, c’est la technologie qui « booste » les autres dimensions qu’elles soient sociale, économique ou culturelle.

Dans l’entreprise, l’informatique centralisée a modifié durablement nos modes d’organisation puis elle a laissé place à la micro-informatique et à une décentralisation des responsabilités. L’entreprise a piloté ces évolutions organisationnelles : le changement était à sa main.

Elle pouvait en maîtriser les tenants et aboutissants et l’intégrer comme il se doit dans sa stratégie de développement. Aujourd’hui, l’expérience montre qu’elle n’est plus dans cette configuration là. L’entreprise accuse avec le numérique, pour la première fois de son histoire, un retard technologique dans le domaine des usages.

article_daniel_ollivier_shema_1.png

Les usages privés sont plus nombreux et élaborés que les usages professionnels.

Le développement des réseaux sociaux montre ce décalage. En France, rappelons que 70 % des personnes connectées sont membres d’un réseau social. En moins de 10 ans d’existence, Facebook a dépassé le milliard de comptes sur la planète et il connaît dorénavant un développement exponentiel avec le marché asiatique.

Les dirigeants d’entreprises ne peuvent plus se permettre de « snober » de tels outils et les réticences initiales sont balayées par cette vitesse du changement qu’ils subissent faute de pouvoir la maîtriser.

Toutes les entreprises de renom possèdent un compte Facebook alors qu’une telle situation était inimaginable, il y a encore 3 ans, pour des raisons d’image de marque. Impossible de passer à côté d’un tel marché et de refuser d’être en réseau, sur le plan planétaire, avec autant d’acteurs.

La révolution numérique est en marche… Faut il s’en inquiéter pour nos libertés ou considérer qu’elle va tout simplement devenir la 3e étape clé de l’histoire de l’humanité ? Après la découverte de la roue et des transports puis celle des énergies (charbon, pétrole, électricité), nous serions dorénavant dans l’économie du savoir et de la connaissance.

Nous voudrions dans cette approche mettre l’accent sur trois évolutions majeures qui vont profondément modifier nos méthodes de travail : l’essor du télétravail, l’apport du travail collaboratif et le risque d’obésité informationnelle.

L’essor du télétravail

Le télétravail fait une apparition remarquée avec l’apparition des outils digitaux. L’équipement devient très accessible financièrement pour une entreprise qui peut d’ailleurs trouver matière à concilier deux objectifs essentiels :

  • réduire ses coûts de structure
  • répondre aux attentes de ses salariés.

Aujourd’hui, les expériences sont probantes et les salariés sont moins inquiets des connaissances de cette modalité d’organisation sur la vie personnelle ou sociale.

Rappelons que le télétravail regroupe toutes les activités professionnelles qui s’exercent à distance : cela va du travail à domicile au travail nomade (exemple les commerciaux) ou bien encore le travail sédentaire alterné où l’on propose des contrats de télétravail sur quelques jours dans la semaine. Le coworking est une approche qui se développe : le travail s’effectue sur des lieux équipés à cet effet, dans lesquels des salariés d’une même entreprise ou de plusieurs se retrouvent.

En France, les sources d’information ne sont pas toutes convergentes mais considérons que seulement 15 % des salariés pratiquent le télétravail au moins un jour par semaine. Nous sommes encore très loin de la moyenne européenne (22 %) ou encore celle des États Unis dont l’estimation globale dépasse déjà les 25 %. Les perspectives de développement du télétravail sont potentiellement très importantes puisque d’ici 2030, c’est pas moins de 50 % des emplois qui seront télétravaillables.

Le travail collaboratif : la culture du partage…

Les outils digitaux (wikis, réseaux sociaux) favorisent la possibilité de s’affranchir du temps et de l’espace. Les solutions collaboratives ont le vent en poupe et les managers peuvent y trouver matière à gérer différents besoins dans le fonctionnement quotidien :

  • Faire communiquer & collaborer des équipes inter-sites entre sites distants
  • Besoin de partager ou collaborer avec des tiers externes
  • Volonté d’encourager le partage et la collaboration en réseau
  • Améliorer la productivité et la qualité des échanges en faisant moins de réunions
  • Volonté d’accélérer les flux informationnels
  • Gérer la dispersion géographique.

Les outils collaboratifs offrent de nouvelles possibilités dans le partage et l’échange. Il devient plus aisé d’associer les collaborateurs d’une entreprise à des décisions liées à l’organisation interne ou à la conduite des projets.

Un manager qui voulait par exemple mettre en place un projet au sein de son équipe devait, pour être efficace, répartir les activités entre les membres pour faciliter la productivité et la coordination des travaux. Une plate forme collaborative permet à chacun de participer d’une manière asynchrone à chaque étape en réduisant au maximum les réunions.

Le travail collaboratif ne relève pas d’une répartition a priori des rôles. La collaboration s’entend en fait par une situation de travail collectif où tâches et buts sont communs. Chacun des membres du groupe travaille ainsi sur les mêmes points. La responsabilité est donc ici collective. Dans la volonté de travailler en réseau, il ne faut pas oublier que ce sont les acteurs… et non pas les outils qui génèrent la performance et que, dans ce domaine, l’état d’esprit est surdéterminant.

Comme le dit Hervé Serieyx, le rabot ne fait pas l’ébéniste. L’entreprise à l’ère du numérique ce sont des hommes… avant d’être des outils ou des processus.

Les risques liés à l’obésité informationnelle

Dans le domaine de l’information, nous avons produit en moins de 10 ans l’équivalent de ce que l’humanité avait produit depuis sa création. Cette profusion représente un danger et un enjeu si nous voulons tirer profit de cette richesse.

En effet, il serait dangereux d’être angélique et d’imaginer que le numérique ne génère que des évolutions positives. Nous avons déjà évoqué, avec la mise sous contrôle de l’information, le risque inhérent à nos libertés. Nous vivons aussi le problème lié à la véracité de l’information et les manipulations possibles. Une information fausse diffusée plusieurs fois devient une donnée qui influence le jugement. Nous l’avons récemment expérimenté avec la théorie du complot ou la propagande djihadiste.

Autre risque : de nombreuses études mettent en évidence qu’il existe un volume optimal d’informations, qui, une fois franchi, dégrade la qualité de la prise de décision. Les recherches démontrent que les salariés n’ont pas conscience de cette situation et qu’ils surestiment, afin de se rassurer, trop souvent le volume d’informations utiles. Nous vivons ce risque à travers nos messageries surchargées et les conséquences liées au traitement : lecture superficielle ou différée, complexité du tri…

L’obésité informationnelle présente le risque de banaliser les informations à forte valeur ajoutée. Une utilisation rationnelle des différents outils s’impose. La messagerie instantanée, le téléphone, la réunion de face à face… tous ces moyens sont à utiliser mais de manière rationnelle.

Le digital prend une place considérable dans nos vies et transforment en profondeur notre manière de penser et d’agir. Est-ce une formidable opportunité pour atteindre un nouveau stade de développement ou un risque pour la démocratie ?….  A nous de ne pas perdre de vue que l’homme est au coeur du système économique et social et qu’il aura dans cette révolution numérique à prendre conscience de ses propres limites.


 Daniel OLLIVIER est l’auteur de l’ouvrage « Management 2.0″ – Performance économique et capital humain ! » – AFNOR Éditions (2012)

Tiers-lieu et autres fablab, hackerspace, medialab, living lab, … vous n’y comprenez plus rien ?

De façon apparemment contradictoire, l'autonomie et la collaboration sont deux valeurs mises en avant par un Tiers-lieu

Quand on travaille  depuis des années pour le développement économique, il est parfois difficile de faire la différence entre une mode passagère et une véritable révolution. Les fablabs, hackerspaces, livinglabs, biohacklabs et même museumlabs fleurissent sur tous les territoires et semblent remettre en cause profondément la façon dont les projets émergent et dont les gens travaillent ensemble. De façon apparemment contradictoire, l’autonomie et le travail collaboratif sont mis en avant dans chacune de ces initiatives. De plus, les considérations politiques sont souvent présentes et reprises par les collectivités locales (citoyenneté, stratégies de densification, de rétablissement de la proximité, du lien social, de la cohésion sociale, du développement économique et de la qualité d’un territoire). Si la pauvreté commence bien, selon le diagnostic de K. Marx, quant on est dépossédé de la propriété des moyens de production, la dimension politique des tendances actuelles apparait car on peut les analyser comme des tentatives, pour des citoyens seuls ou groupés, de se réapproprier les outils de production qu’ils ne possèdent plus (via l’impression 3D par exemple).

Mais qu’en est-il vraiment de cette « révolution » ?

La solution est-elle, comme on me l’a dit récemment de « fermer tous les pôles, incubateurs autres accélérateurs et d’ouvrir des espaces ouverts où les citoyens créent librement et obtiennent à la mesure de leur implication » ?

Le Tiers-Lieu

D’après Movielab, ce mot est souvent utilisé de façon générique pour parler des espaces physiques ouvirtuels de rencontres entre des personnes et des compétences variées qui n’ont pas forcément vocation à se croiser. Il s’agit donc d’un mot chapeau très large pour désigner les espaces de coworking, lesFabLabs, les HackerSpaces, les jardins partagés et autres habitats partagés ou entreprises ouvertes.

Wikipedia nous rappelle l’origine du terme : le tiers-lieu, ou la troisième place, ou est un terme traduit de l’anglais The Third Place. Il fait référence aux environnements sociaux se distinguant des deux principaux que sont la maison et le travail. Dans son livre datant des années 1980 The Great, Good Place, Ray Oldenburg, professeur émérite de sociologie urbaine à l’université de Pensacola en Floride, indique que les troisièmes places sont importantes pour la société civile, la démocratie, l’engagement civique et instaurent un sentiment d’espace.

Contrairement à la première définition, on parle donc bien d’espaces physiques de rencontres, d’échanges, voire de travail collaboratif.

Le FabLab

A tout seigneur tout honneur, le plus connu des Tiers-Lieux est le fablab ou « atelier de fabrication numérique » en français. Abréviation de « Fabrication laboratory » en anglais, c’est un lieu ouvert au public mettant à la disposition de ses utilisateurs des ressources techniques, technologiques et humaines (machines, outils, logiciels, procédés, savoir-faire, mentors) nécessaires à la création et à la fabrication d’objets et de projets de toutes sortes qui répondent à un besoin personnel ou collectif.

Le concept de FabLab est né d’une initiative du Center for Bits & Atoms du MIT (Massachussets Institute of Technology) afin de démocratiser les processus de conception, de prototypage et de fabrication d’objets. L’un des objectifs de cette expérimentation était de donner un accès public à des outils et des machines (numériques ou non) pour observer l’utilisation qui en serait faite au quotidien sans contraintes académiques.

Constatant le succès de cette idée, un programme, une fondation ainsi qu’une Charte des FabLabs ont été mis en place, ce qui a permis l’émergence d’un réseau d’envergure internationale. Un FabLab est un lieu derecherche, de création, de conception, d’exploration, d’expérimentation et de réalisation. Il invite aussi à la découverte, au jeu et à la coopération. Il vise à faciliter l’accès aux outils et aux technologies en vue de stimuler l’expression, l’innovation et l’inventivité personnelles, de même que l’apprentissage par la pratique et par le mentorat.

Pour porter l’appellation officielle FabLab, un atelier de fabrication numérique doit respecter les exigences suivantes :

  • être ouvert au public gratuitement ou en échange de services bénévoles (formation, animation, entretien, etc.)
  • déclarer adhérer et souscrire à la Charte des FabLabs
  • participer activement au réseau international des FabLabs, et non pas agir en vase clos, en échangeant et partageant des connaissances, l’état d’avancement des recherches, des designs, des plans, des codes, des logiciels, etc.
  • partager avec le reste du réseau un ensemble d’outils, de matériaux et de processus communs pour faciliter les échanges, l’entraide et la collaboration.

Tiers Lieu. Lauréat d'un appel à projets lancé par l'état, le FabLab porté par Tektos est un instrument au service de l'ambition de tout un territoire

J’ai eu la chance de visiter le FabLab porté par Tektos sur la côte d’Opale. Il s’agit d’un bon exemple de ce que peut être cet outil et son ambition pour un territoire donné, ici le Calaisis.

Le Living Lab

Un Living Lab, l’abréviation pour « Living Laboratory » en anglais, se traduit littéralement par « laboratoire vivant ». Un Living Lab est une méthodologie de recherche en innovation menée par une réunion d’acteurs publics, privés et citoyens qui travaillent en concertation continue, plutôt qu’en vase clos, pour concevoir, améliorer et valider dans le vécu (la « vraie vie »), des produits, des services, des technologies, des outils, etc.
Le concept de Living Lab est né à la fin des années 1990 au Media Lab du MIT (encore !). Il proposait une nouvelle méthodologie de recherche pour répondre aux enjeux d’innovation associés à l’utilisation, souvent peu conviviale, des technologies de l’information et de la communication par les consommateurs. Cette méthodologie se différenciait des méthodes courantes, car elle ne considérait pas l’usager de produits et de services technologiques comme un simple objet d’investigation passif, mais plutôt comme un participant actif, qui détient un véritable savoir d’usage.

On a déjà pu observer ces tendances dans cet article sur le design thinking ou bien celui-ci sur le design en général.
Le concept a ensuite été exporté en Europe où l’organisme ENoLL (European Network of Living Labs) a été créé en 2006. L’ENoLL est mis en place afin de structurer l’émergence des Living Labs par l’homologation des projets et la documentation des bonnes pratiques.
Depuis 2011, les Living Labs explorent, entre autres, le thème de la ville intelligente sous différents angles, dont notamment ceux de la santé, de l’éducation, de la logistique et du transport, de l’aéronautique, de l’environnement, du tourisme, de l’agriculture, du génie et de l’administration publique.
On répertorie aujourd’hui plus de 340 Living Labs, répartis dans une quarantaine de pays sur les cinq continents. Il existe une grande diversité d’expériences au sein des Living Labs qui varient selon les objectifs qu’ils souhaitent atteindre, les outils qu’ils utilisent ainsi que la structure stratégique et opérationnelle qu’ils mettent en place.

A titre d’exemple, un Living Lab opère à Lille depuis plusieurs années sur le site d’Humanicité 1. Le nouveau quartier Humanicité rassemble des organismes et des habitants motivés par un nouveau « vivre ensemble ». Ce nouveau « vivre ensemble » se construit peu à peu avec les 2 200 habitants et 800 professionnels partageant ensemble le même environnement. Le Living Lab permet l’expérimentation et la mise en place d’expériences et de solutions innovantes, profitant à tous.

 Les hackerspaces

Un hackerspace, hacklab ou media hacklab est un lieu où des gens avec un intérêt commun (souvent autour de l’informatique, de la technologie, des sciences, des arts…) peuvent se rencontrer et collaborer. Les Hackerspaces peuvent être vus comme des laboratoires communautaires ouverts où des gens (les hackers) peuvent partager ressources et savoir. Beaucoup de hackerspaces utilisent et participent à des projets autour du logiciels libres, du hardware libre, ou des médias alternatifs.

Ils sont souvent physiquement installés dans des maisons des associations ou des universités, mais dès que le nombre d’adhérents et l’éventail des activités augmente ils déménagent généralement dans des espaces industriels ou d’anciens entrepôts.

Une carte des Labs en France

Pour s’y retrouver, le plus simple est peut-être d’aller sur le site http://www.makery.info qui vous donne une information en temps réel des lieux où se trouve les Labs en France et alentours.

Tiers Lieu. Où sont situé les Labs en France ? makery vous le dit !

Révolution ou feu de paille ?

L’émergence d’un Tiers-lieu n’est pas due au hasard. Déjà dans cet article, nous mettions déjà en avant les différentes tendances qui préfigurent une nouvelle façon de travailler ensemble (voir aussi cette interview d’Olivia Lisicki). Pour mémoire, cette infographie représente les différentes tendances, repérées par le projet Wave, qui concourent à l’émergence de l’intelligence collective. Le mouvement des makers, la co-création et l’économie du partage sont des tendances qu’ont peut relier à la montée en puissance du Tiers-lieu et des Labs.

Le monde change et l'intelligence collective prend progressivement de l'importance.

Il est donc probable donc que le Tiers-lieu et le Lab s’inscrivent à l’avenir durablement dans le paysage.

Achats Cloud-computing : comment tout rater en 5 points

Risques sécuritaires, économiques, stratégiques… S’il est vendu comme un levier d’optimisation des coûts, le basculement d’une DSI « classique » à un modèle externalisé peut coûter cher, même très cher, à l’entreprise. Gros plan sur ce qu’il ne faut pas faire.

Basculer dans le cloud ou ne pas basculer dans le cloud ?

Tiraillées entre l’envie de faire des économies et la peur, de plus en plus d’entreprises se posent la question – existentielle dans le contexte d’une économie qui tend à reposer sur la data : Basculer dans le cloud ou ne pas basculer dans le cloud ? Un casse-tête auquel le fait de savoir répondre « non » ou, à fortiori, « oui » ne met néanmoins pas un point final. « Mettre ses données dans le cloud, c’est comme confier ses clés. Cela peut très bien se faire, il faut juste s’assurer d’avoir affaire à quelqu’un de confiance« . Présent à la table ronde sur le thème « Les contrats d’achats pour le cloud » organisée la semaine dernière au siège français de Deloitte – un événement qui s’inscrivait dans le cycle des « jeudis soirs de la CDAF – Vincent Leroux-Lefevbre, acheteur de prestations intellectuelles chez Sage a trouvé la bonne image pour souligner l’enjeu, énorme pour les entreprises, de ne pas rater leur passage à l’information « en nuage ». D’autant plus que les conséquences, dans ce cas, seraient de nature à leur faire regretter les salles de serveurs à domicile… La preuve par 5.

1 – Craquer pour une offre sur Internet

Dans un contexte économique incertain, la prise de risque a quelque chose d’une vertu. Néanmoins, certaines décisions méritent d’être mûrement réfléchies. Si Internet vous permet d’acheter une offre en deux clics, ne craquez pas ! Une telle démarche ne peut raisonnablement être entreprise sans un lourd travail en amont. Outre un audit, nécessaire à la connaissance de ses besoins – seul levier de négociation et de maîtrise des coûts, il convient notamment de faire un benchmark des acteurs en présence. Autant de prestations, complexes, qui peuvent être externalisées auprès d’un cloud-broker

2 – Miser sur le tout dématérialisé

Parmi les phénomènes les plus marquants de l’informatique 2.0, le Cloud se sera peut-être évaporé dans 3 ans, 5 ans, 15 ans… Une hypothèse qui mérite d’autant plus d’être prise au sérieux que le contexte technologique mais aussi géopolitique dans lequel nous vivons est mouvant. Avant d’externaliser vos données, assurez vous donc de savoir comment les rapatrier. Les clauses de réversibilité, qui déterminent les conditions de mise en oeuvre de ce retour au physique, ne se valent pas toutes. Attention : certains fournisseurs promettent la réversibilité sans lui affiler de coût. Un flou propice aux mauvaises surprises…

3 – Etre (trop) optimiste

Et si vous faisiez faillite ? Et si votre fournisseur faisait faillite ? Ou bien encore s’il délocalisait ses serveurs ? … Permettez-vous d’imaginer le pire. Non pas par pessimisme mais, au contraire, par prévoyance. S’ils ne se réaliseront probablement pas, l’ensemble de ces scenarii catastrophes forment la matière première à partir de laquelle le service juridique peut savoir quels points verrouiller contractuellement. Ne vous bercez-pas d’illusions pour autant. Même si les fournisseurs multiplient les initiatives pour rassurer leurs clients (infrastructures améliorées, normes sécuritaires…), le risque zéro n’existe pas. Bien lire donc le contrat qui prévoit la répartition des responsabilités entre fournisseur et client selon la nature du problème, quand il survient. Mais mieux vaut le savoir : en cas de perte, partielle ou totale, de vos données, vous ne serez pas dédommagé à hauteur de votre préjudice.

4 – Penser que « toutes les données se valent »

Sans être interdites de Cloud, les informations personnelles (relatives à vos collaborateurs, vos clients, vos prospects…) doivent faire l’objet d’un traitement différentié. Objectif : garantir à tout prix leur confidentialité. En cas de manquement, la Loi informatique et liberté prévoit, dans son article 47, de sanctionner l’entreprise fautive à hauteur de 5% du CA de son dernier exercice clos (dans la limite de 300 000 euros). De quoi souligner l’importance d’évaluer la criticité des données concernées par votre démarche d’externalisation. Un point important : ne confiez pas au « nuage » ce que vous avez de plus précieux (cad : stratégique).

5 – Ne pas songer à la destination de vos données

États-Unis, Roumanie ou France… Qu’importe la localisation de vos données tant qu’elles ne sont pas chez vous ? Même à l’ère de la globalisation, ce genre de raisonnement est fautif. Un différent devant les tribunaux pourraient vous en convaincre. Un état de fait dont il vaut mieux être conscient avant de contractualiser avec un fournisseur basé hors de ses frontières. Aux États-Unis notamment, le Patriot Act rend vos données vulnérables aux actes de surveillance du gouvernement. En opposition à ce modèle, la résistance européenne s’organise.

Pour plus d’information sur comment optimiser sa sécurité dans le cloud, lire les conseils de la Comission nationale de l’informatique et des ibertés (CNIL).

Le business model

Théoricien et auteur, l'Autrichien a popularisé l'approche "business model" des réflexions stratégiques

Voici la première partie d’une série d’articles consacrée au « Business Model ». La question est « peut-on innover dans le business model, et comment ? ».

Commençons par mieux définir ce mot. Un auteur, Alexander Osterwalder, a popularisé la notion de Business Model en proposant des outils simples et pratiques, à la portée (apparente) de tout le monde. Né en 1974, M. Osterwalder est un théoricien, auteur et consultant autrichien qui est connu pour avoir développé une approche collaborative et imagée de la réflexion stratégique autour d’un outil en particulier : le Business Model Canvas. Plus d’un million d’exemplaires du livre « Business Model Nouvelle Génération » a été vendu à ce jour dans le monde !

Mais c’est quoi exactement un Business Model ?

Business Model Canvas : recherches sur le moteur de recherche google

Tout d’abord il ne faut pas confondre « business model » et « business plan ». Ce dernier est un document détaillé qui inclut des projections financières et qui a généralement pour but de rassurer des banquiers ou des investisseurs. Il est très utilisé en phase de création d’entreprise et permet un échange entre les créateurs de l’entreprise et les prêteurs, sur la base des « forces et des faiblesses du dossier ». On peut trouver sur l’internet de nombreux exemples de logiciels gratuits pour élaborer des Business Plans 1.

Le Business Model a un tout autre objectif, à la fois plus fondamental et plus stratégique : il permet de décrire la façon dont une entreprise crée, délivre et capte de la valeur dans son contexte économique, social et culturel. La construction du Business Model fait donc totalement partie de la réflexion stratégique 2. A l’origine utilisé principalement par les start-up du secteur informatique en phase de création, ce terme s’est peu à peu répandu est est maintenant utilisé pour tout type d’entreprise, à tout stade de son développement.

Décrire un business model selon A. Osterwalder

La façon la plus connue de décrire un Business Model est d’utiliser la modélisation proposé par A. Osterwalder, le fameux « business model canvas » 3. La réflexion peut se faire collectivement, avec post-it et paperbards, et l’ensemble des points suivants est abordé :

  1. La proposition de valeur (biens ou services)
  2. Les segments de clients
  3. Les canaux d’accès aux clients
  4. Le type de relation que l’entreprise souhaite entretenir avec ses clients
  5. Les activités clés nécessaires à la mise en place de la proposition de valeur
  6. Les ressources-clés indispensables au fonctionnement de l’activité : ressources physiques, humaines, financières
  7. Les partenaires clés : fournisseurs, partenaires sur certains marchés
  8. La structure de coûts
  9. Les sources de revenus

L’ensemble des réflexions du groupe est reporté au fur et à mesure sur un schéma global devenu standard :

Le BMC est très vite devenu le standard de représentation des Business Models

Voici l’exemple du BMC pour Flickr la célèbre plateforme de partage de photographies personnelles :

Exemple de BMC complété pour l’entreprise Flicker

Utiliser l’approche Odyssée 3.14

L’approche de 3 auteurs / chercheurs français 4 est un peu plus « simple » dans sa présentation du business model mais redoutablement efficace. Pour ces auteurs, le business model repose sur 3 piliers :

  1. la proposition de valeur 5
    • le « quoi », ce qui est attractif pour le client dans les produits ou services proposés par l’entreprise
    • le « qui », le client (au sens large) auquel l’entreprise s’adresse
    • le prix
  2.  l’architecture de valeur : ce pilier décrit comment l’entreprise construit et délivre sa « proposition de valeur » au client (compétences, ressources, activités, …)
  3. l’équation de profit qui décrit la rentabilité supposée de l’activité envisagée (capitaux mobilisés, chiffre d’affaire, structure de coût, …)

Il s’agit donc principalement d’une présentation différentes d’éléments déjà présents dans le modèle proposé par A. Osterwalder.

Odyssee 3.14 reconstruit le modèle proposé par A. Osterwalder en proposant 3 thèmes à travailler

« L’école 42 n’existe nulle part ailleurs. Même les Américains n’ont pas eu cette audace »

’42’ est un lieu incroyable. 900 jeunes au look identique – sweat à capuche et pantalons troués – sont rivés derrière des centaines d’iMac géants répartis sur trois salles, les fameux “clusters”.

Kwame-YamgnaneKwame Yamgnane, cofondateur de l’école 42

Street art et design pop, serviettes mouillées nonchalamment pendues aux rampes d’escaliers, jacuzzi sur le toit, tireuse à bière et food truck connectés. L’école 42, un bâtiment contemporain de 4 200 m2, implanté au fin fond du XVIIe arrondissement de Paris – en pleine “no-go zone”, pourrait s’alarmer la chaîne Fox News – est un lieu incroyable. 900 jeunes au look identique – sweat à capuche et pantalons troués – sont rivés derrière des centaines d’iMac géants répartis sur trois salles, les fameux “clusters”. Dans les coins de ces classes géantes, quelques bouteilles de coca et autres paquets de chips font office de décor. L’ambiance est bon enfant. Détendue.

Dans l’embrasure d’une porte, Kwame Yamgnane, le cofondateur de l’école, sourire aux lèvres, veille au grain.

Avec Xavier Niel, Nicolas Sadirac et Florian Bucher, c’est lui qui est à l’origine de la création de cette école hors normes. Un père togolais (ministre de l’Intégration sous Mitterrand), une mère bretonne, Kwame reconnaît devoir beaucoup à… Laurent Fabius. C’est en effet l’actuel ministre des Affaires étrangères qui, à partir de 1977, offre aux élèves d’EMT (éducation manuelle et technique), la possibilité d’utiliser des ordinateurs.

À l’époque en classe à Chateaulin, Kwame ne se fait pas prier et commence à coder. Il découvre alors que “la programmation n’est pas une science mais un art”. Quelques années plus tard, après un IUT d’informatique, Kwame prend la direction d’Epitech, la plus grosse école d’informatique de France. Lorsque Xavier Niel lui propose, en décembre 2012, de monter l’école 42, il ne réfléchit pas une seconde. Le pari est de taille mais “Xavier sait transmettre confiance et autonomie à ses équipes”. La réactivité est incroyable. L’école a ouvert ses portes le 15 juillet 2013.


Entretien mené par Capucine Graby

Il n’y a aucune comparaison possible avec 42. C’est une école à durée indéterminée, sans professeurs, sans cours théoriques, sans surveillants, sans partiels (ce sont les étudiants qui s’évaluent entre eux). 42, c’est aussi une école gratuite, à laquelle on peut accéder sans le bac, une école ouverte 7 jours sur 7 et 24 heures sur 24. Un Ovni en France.

“C’est une école à durée indéterminée, sans professeurs, sans cours théoriques, sans surveillants, sans partiels (ce sont les étudiants qui s’évaluent entre eux)”

Dans le système français, 42 est une école étonnante car au lieu d’avoir des étudiants qui travaillent dans leur coin, ce sont eux qui s’évaluent entre eux. À 42, on “apprend en faisant”. Comment ça marche ? C’est très simple : des consignes apparaissent à l’écran et ensuite, c’est l’émulation collective qui prend le relais. Ça marche parce que le code est très créatif. Il n’y a pas qu’une voie pour arriver à coder.

Incontournable code

Nous changeons d’ère. De la même manière qu’en 1850, nous sommes passés de l’ère agricole à l’ère industrielle, nous entrons dans l’ère numérique. Aux États-Unis, 25 % de la croissance est tirée par le numérique. Prenez conscience que la capitalisation des Gafa (Google – Apple – Facebook – Amazon) est plus importante que celle du CAC 40 !

Aujourd’hui, on ne s’en rend pas compte, mais les téléphones, applications et sites Internet, c’est 99 % de code. Et ce code doit gagner en efficacité car il va progressivement toucher des domaines de plus en plus larges. Prenons un exemple : si un épileptique tombe dans la rue, les pompiers prennent automatiquement le relais. Ce n’est pas le fruit du hasard. Idem pour les agriculteurs professionnels qui travaillent avec des satellites pour calculer la surface du champ à labourer.

“Aujourd’hui, on ne s’en rend pas compte, mais les téléphones, applications et sites Internet, c’est 99 % de code”

Apprendre à coder va donc devenir essentiel. Il faut bien comprendre que le code, c’est quelque chose d’ouvert, ce n’est pas une science exacte. Soyons clairs : il ne faut pas que le code devienne une matière à l’école. Dans ce cas, c’est la catastrophe assurée. Non, il faut une vision transverse du code. Le code, c’est une manière de voir le monde. On peut par exemple utiliser le code pour approfondir une leçon d’histoire. L’utilisation de tableurs, qui est une forme de programmation ultra-accessible, étend vos capacités de compilation de quelques milliers de données historiques, par exemple de la Grande Guerre, pour mieux en comprendre les impacts.

Sélection drastique

Le premier round de sélection d’entrée chez 42 a lieu sur Internet. C’est un test plutôt ludique de logique. Il peut être fait à tout moment de l’année. 50 000 personnes ont tenté leur chance l’année dernière.

On ne conserve que 3 000 étudiants parmi eux. Entre juillet et septembre, ils sont alors 1 000 par mois à passer ce que l’on appelle l’épreuve de “la piscine”. Cela leur permet de se familiariser avec l’école et notre mode de fonctionnement : ils doivent résoudre une dizaine d’exercices par jour. Après cette épreuve, nous n’en conservons que 900 sur les 3 000. On ne tient quasiment aucune statistique, mais à 42, il y a 90 % d’hommes et 40 % d’étudiants qui n’ont pas le bac.

“A 42, il y a 90 % d’hommes et 40 % d’étudiants qui n’ont pas le bac”

Ensuite, leur scolarité dure entre 2 et 5 ans en fonction de leur progression.

Savoir que l’on réinsère des jeunes qui n’avaient pas trouvé leur voie est une source de fierté. Je suis content de voir que l’on fait de l’éducation populaire gratuite et que l’on redonne un avenir à certains jeunes exclus. Certains objectent que notre école n’est pas reconnue par l’État. Je leur réponds que des centaines d’étudiants ont déjà trouvé un emploi dans des entreprises françaises grâce à nous.

Exception française

42 n’existe nulle part ailleurs dans le monde. Même les Américains, considérés par beaucoup comme ultra-visionnaires, n’ont pas eu cette audace. Du coup, ils sont tous très intéressés par le concept. Tony Fadell, l’inventeur de l’iPhone, les fondateurs d’Airbnb, de Twitter ou de Netflix, tous sont venus voir, par curiosité, à quoi ressemblait l’école 42. Souvent de passage un dimanche soir, ils ont été surpris de voir des centaines d’étudiants en train de travailler à 23h un soir de week-end, d’autres prêts à dormir sur des matelas installés dans le couloir. Ils ont compris que nous pensions de manière différente pour être innovants. D’ailleurs, le patron de Netflix a distribué ses cartes de visite à nos étudiants !

“Les Américains, considérés par beaucoup comme ultra-visionnaires, n’ont pas eu cette audace. Du coup, ils sont tous très intéressés par le concept”

42 a coûté 70 millions d’euros. Non, ce n’est pas un coup de com’. Et on a souhaité lancer une école de grande envergure dès le départ pour avoir un impact fort. Sur les 6 000 développeurs qui sont formés chaque année dans l’Hexagone, 1 000 sortent de chez nous. Le bilan est honorable.

Management communautaire

Nous sommes une quarantaine à diriger cette école. Ce n’est pas une direction, c’est une communauté. Dès que l’on doit prendre une décision, on envoie un mail pour que chacun soit consulté. L’équipe pédagogique est réunie dans le “bocal”, une grande pièce en verre dans laquelle les étudiants sont invités à donner leur avis sur les programmes. Vous avez vu certains étudiants faire le ménage dans les immenses salles de cours ? Tout le monde participe à la vie de cette école. Je vais vous étonner, mais il n’y a pas de référence. On tâtonne. Mais en 2 ans, on se rend compte que notre méthode fonctionne, puisque les étudiants qui sortent trouvent du travail dans les plus grands groupes français ou internationaux.

Mixité inter-écoles

Nous développons énormément les partenariats. 30 étudiants de 42 travaillent actuellement avec 30 élèves d’HEC sur un programme de création de cinq start-up.
On a aussi créé des partenariats avec différentes écoles : les écoles de design Condé et Duperré, l’ESCP Europe, Centrale ou encore l’Institut Français de la Mode par exemple. Je suis convaincu qu’il faut rendre le travail inter-écoles obligatoire. Il faut davantage de transversalité entre les établissements. Oui, la France finira meilleure que la Silicon Valley, mais on a pris du retard, il faut être patient. Oui, dans ces conditions, 42 peut former le Bill Gates de demain, mais attention, il faut aussi être conscient que des réussites telles que Microsoft n’existeront plus demain. Aujourd’hui, les stars s’appellent Uber ou Airbnb. Ces start-up sont des innovations de rupture dans des secteurs qui sont influencés par l’informatique. C’est pour ces raisons qu’il faut mixer les cultures, et donc les écoles.

Gâchis français

La France est terriblement en retard. Et pourtant, notre potentiel numérique est colossal ! Note premier atout, c’est notre localisation géographique. Nous sommes idéalement positionnés au cœur de l’Europe. Or, le numérique se nourrit de l’innovation. Avoir la possibilité de monter des teams d’Africains autant que de Suisses ou de Suédois pour travailler sur des projets disruptifs devrait nous donner une longueur d’avance incroyable.

“Le numérique se nourrit de l’innovation. Avoir la possibilité de monter des teams d’Africains autant que de Suisses ou de Suédois pour travailler sur des projets disruptifs devrait nous donner une longueur d’avance incroyable”

Le deuxième point qui me semble important, c’est que nous avons, en France, une culture de l’innovation qui est exceptionnelle. Apple a par exemple recruté récemment Paul Deneve, l’ancien patron d’Yves Saint Laurent, pour fabriquer des vêtements connectés…

Malheureusement, on ne sait pas suffisamment intégrer ceux que l’on forme. Salomon Hykes, formé à Epitech Paris, est parti créer Docker à San Francisco. On a une incapacité à sortir des schémas classiques en termes d’éducation et de pression sociale.

Bombe à retardement

À 42, nous avons un effectif de seulement 10 % de filles. Je crois que c’est à la fois culturel et occidental, car ce n’est pas le cas dans certains pays d’Asie comme la Chine ou la Thaïlande. C’est un immense problème pour deux raisons : d’abord, le monde dans lequel nous vivons a besoin de gens qui pensent différemment. Avoir aussi peu de femmes dans ces métiers explique par exemple que la e-santé émerge aussi peu. Deuxième point, on fabrique une société d’exclusion pour demain. Les femmes ne pourront jamais diriger les grands groupes dans 10 ou 20 ans si elles ne savent pas coder ! C’est une bombe à retardement.

RECRUTEMENT : LE BIG DATA S’INVITE DANS LE RPO

Un recrutement micro-ciblé, innovant et tenant les promesses du Big Data : dans un environnement économique incertain, mêlant concurrence accrue et tension sur le marché du travail, c’est la voie que de plus en plus d’employeurs sont amenés à emprunter.

L’externalisation RH a le vent en poupe. Après un bond de 12% en 2012, le marché du RPO (pour Recruitment Process Outsourcing) enregistrera en 2013 une nouvelle croissance de 12 à 17% en 2013. Pourquoi un tel succès ? Les raisons qui poussent à externaliser tout ou partie des fonctions Ressources Humaines s’affichent avec plus d’évidence aux yeux des employeurs : dans le monde, ils sont plus d’un tiers à percevoir des difficultés de recrutement, constatant avant tout un manque de compétences techniques et un manque de candidats disponibles.

Face à ces pénuries de talents, nombre d’entre eux se tournent vers l’externalisation et des solutions qui leur permettent :

  • de déléguer une activité – le recrutement – dans laquelle ils ne sont pas experts,  et de se concentrer sur le stratégique ;
  • de mieux comprendre les besoins et les mobilités sur le marché du travail, à grande échelle ou de manière très ciblée ;
  • de tester de nouvelles méthodes de recrutement et de nouvelles technologies, innovantes et performantes dans l’aide à la prise de décision.

RECRUTEUR CHERCHE PRESTATAIRE : PROFIL DE LABORATOIRE D’ESSAI, AIME BIG DATA ET MICRO-TARGETING

Big Data comes to RPO

Que doivent rechercher avant tout les employeurs chez un prestataire RPO ? Le dernier livre blanc de ManpowerGroup Solutions avance un trio de réponses fortement marqué par l’innovation technologique :

BIG DATA

Rendre accessibles des talents qui jusque-là restaient hors de vue des employeurs, c’est une des missions traditionnelles des prestataires de RPO. Mais afin de continuellement attirer les meilleurs talents et rester compétitif, les employeurs ont tout intérêt à externaliser leur recrutement avec des prestataires qui tirent profit des grandes promesses du Big Data. Le traitement à grande échelle de données sur le marché du travail et la main-d’oeuvre leur offre :

  • une capacité globale et inédite à localiser des viviers de talents, de haut niveau et adaptés à l’entreprise,
  • la possibilité d’identifier de manière très précise les compétences et le profil du talent en vue et de déterminer les moyens de l’engager dans un projet qui l’intéresse.

MICRO-TARGETING

RPO : 4 CLÉS POUR TROUVER ET DÉVELOPPER LE BON TALENT AU BON MOMENT

L’acquisition de talents est un processus qui laisse peu de place à l’improvisation, que ceux-ci soient “achetés” (recrutés) ou “construits” (formés).

« Micro-cibler » le recrutement, cela veut dire savoir avec quelle autre entreprise le candidat ciblé est en contact et ajuster en conséquence son attractivité, accéder à son profil (parcours professionnel, coordonnées) au-delà de ce qui peut être visible sur LinkedIn pour faire coïncider l’offre avec le bon candidat, etc.Sourcer, attirer, recruter et engager un talent : le processus d’« acquisition des talents » ne se limite plus à publier une offre d’emploi et à attendre de voir qui y postule.

Les employeurs doivent demander plus à leur prestataire : un talent de qualité s’acquiert par une démarche proactive, qui construit des relations poussées avec les individus pour s’assurer de leurs compétences mais aussi anticiper le succès du recrutement et de son expérience dans l’entreprise.

LABORATOIRE D’ESSAI

« Le prestataire de RPO doit servir de partenaire stratégique, qui travaille de près avec l’entreprise, délivre les dernières tendances du marché, fournit en permanence la quantité adéquate de talents aux compétences nécessaires et ajuste les opérations de recrutement au fur et à mesure que la demande change », écrit Kate Donovan, Présidente Global RPO Practice pour ManpowerGroup, à l’heure de dresser le portrait idéal du prestataire.

La clé du succès réside dans cette relation stratégique entre prestataire et entreprise ; elle est aussi dans la capacité du fournisseur à développer des outils et des systèmes performants, « de dernière génération », cherchant l’innovation à la manière d’un laboratoire d’essai pour fournir des solutions à la recherche de compétitivité RH du client.