Tag Archives: big data

Le Big Data : un enjeu pour les industries créatives

ARTICLE  par  Jean-Paul SIMON
Le Big Data : un enjeu pour les industries créatives
Anticipation de la demande, création de nouveaux contenus ou mise en avant d’artistes, que font les industries créatives avec le Big Data ?

Sommaire

La notion de Big Data, en français « mégadonnées »[+] ou « données massives » s’est rapidement répandue depuis quelques années, portée par des sociétés de conseil et largement relayées par les médias, puis les pouvoirs publics, sans pour autant faire l’objet d’une définition précise. Ces données sont souvent présentées comme le « nouvel or noir de la croissance », voire le « futur moteur » de l’économie. Comment définit-on le Big Data, quel est son périmètre et la taille du marché ? Comment les industries créatives en tirent-elles parti ?

La valse des zettabytes ou la folie des grandeurs

Selon les estimations les plus plausibles[+], mais il ne s’agit que d’un ordre de grandeur, la masse de données disponibles dans le monde serait passée de 3 milliards de gigabytes[+] en 1987 à 300 milliards en 2007 soit une multiplication par 100 en l’espace de 10 ans[+]. L’explosion annoncée des données (jusqu’à 7 zettabytes prévues pour 2015) provient de la croissance exponentielle des données disponibles, combinée à une capacité toujours plus grande de collecter, traiter et analyser ces données. Elle aura été rendue possible par le déploiement des infrastructures de réseaux (haut débit et de plus en plus, très haut débit), ainsi que par l’équipement des ménages en terminaux divers, avant tout mobiles (smartphones, tablettes et phablettes).

Ces données proviennent de sources diverses et hétérogènes : des individus eux-mêmes, des machines ou des capteurs. Il s’agit à la fois d’informations générées passivement, sous-produits d’une activité communicationnelle, et d’informations délivrées volontairement sur Internet. La fusion des données provient donc de sources disparates, numériques ou analogues[+].
L’indicateur le plus simple de cette explosion est la croissance impressionnante du trafic de données mobiles, suivie annuellement par Cisco qui souligne notamment la dominance des données vidéo[+](près de 80 % du total prévu à l’horizon 2018) ainsi que le rôle moteur des consommateurs.

Cette combinaison des infrastructures et des terminaux adéquats ouvre la voie à un développement de l’Internet des objets qui va encore accroitre le nombre de données. IDC prévoit la connexion de 212 milliards de terminaux pour 2020. De la même façon, les communications de machine à machine (M2M) sont en augmentation constante du fait de la baisse des coûts, d’une couverture améliorée, d’une offre de technologies radio plus pertinentes et d’un nombre croissant d’applications. SAP prévoit plus de 2 milliards de terminaux connectés pour 2021 contre seulement 200 millions en 2013.
En valeur, le marché des mégadonnées estimé par Transparent Market Research à 6,3 milliards de dollars en 2012, devrait atteindre 8,9 milliards en 2014 pour s’élever à 48,3 milliards en 2018. IDC indique 16,1 milliards de dollars pour cette même année 2014[+].

Revenir au sommaire

Des contours incertains

Il reste à se demander à quoi renvoient ces chiffres et quels processus ils recouvrent. La confusion règne le plus souvent en matière de définition. Malgré la pléthore de rapports en la matière,  il n’existe pas de définition reconnue des Big Data il n’existe pas de définition commune des Big Datareconnue sur le plan international, pas plus que de définition opérationnelle qui servirait à comprendre les développements des marchés, les contours du secteur et la nature des activités qui s’y déroulent. Confusion qui pourrait bien être voulue, car le flou renvoie souvent à des stratégies de vendeurs, comme le note perfidement Tim Harford.

On peut faire remonter la notion deBig Data à un rapport du Meta Group de 2001 qui identifiait trois dimensions de la croissance des données, les 3V : le volume[+], la vélocité[+] et la variété[+]. Sont venus s’ajouter trois autres V, la véracité[+], la valeur et la visualisation, ainsi que la complexité[+].

Les processus liés aux Big Datarenvoient à l’extraction (« data mining ») et au traitement d’un volume très important de données afin de mieux comprendre le comportement du consommateur, de gérer les chaînes de production ainsi que de nombreux autres aspects de l’activité économique.

La chaîne de la valeur des Big Datacomprend l’acquisition de données (structurées ou non), l’analyse, la conservation, le stockage et l’utilisation de ces données à des fins diverses : prévision, simulation, exploration, visualisation, modélisation. Les composants de base sont les logiciels (de loin le plus important selon IDC), le matériel et le stockage. De nouveaux outils sont apparus pour extraire, charger et transformer les données, et de nouvelles technologies telles Apache Hadoop[+] et NoSql sont au cœur du traitement.

Revenir au sommaire

Inflation verbale ou réalité économique?

Depuis 2001, de nombreux rapports, émanant de sociétés de conseil pour la plupart, se sont succédé pour enjoindre aux « naïfs » d’ouvrir les yeux face au phénomène des Big Data. Toutefois, le rapport de McKinsey de 2011 restait prudent, se contentant de fournir des exemples d’applications pour quelques secteurs alors impliqués. Toutefois, il notait déjà que tous les secteurs industriels n’étaient pas égaux face aux Big Data. Le rapport indiquait que les « suspects habituels » (fabricants de produits électroniques et acteurs du traitement de l’information) étaient les plus à même de bénéficier de manière substantielle de l’accès à de vastes quantités de données, ainsi des sociétés du monde de l’internet qui récoltent des masses de données. En revanche, des secteurs tels que la construction, l’éducation et les arts et loisirs donnaient des signes de productivité négative ce qui révélait la présence de barrières systémiques jouant contre l’accroissement de la productivité.

De la même façon le cabinet IDC[+], notait que les bénéfices escomptés  n’étaient pas toujours clairs. La société indiquait notamment qu’en 2013 environ 5 % de la masse des données avait une utilité, même s’il prévoyait un doublement pour 2020. La pénétration du M2M serait de l’ordre de 2 % des abonnements aux réseaux dont on mesure le trafic, soit environ 0.1 % du trafic de données mobile.

De plus, selon le rapport SAS 2013, la plupart des organisations n’ont pas développé, mis en place, ni exécuté une quelconque stratégie concernant les mégadonnées. Rien d’étonnant alors à ce que les sociétés de conseil insistent sur la nécessité d’acquérir une « mentalité ouverte aux données ». Toutefois, toutes les sociétés ne disposeront pas de spécialistes en la matière, ce qui pourrait constituer a fortiori une barrière à l’entrée non négligeable, exigeant investissements en formation et en temps.

Dans un livre blanc (2014), le monde de l’édition de livre souligne déjà ce point particulièrement sensible pour les petites maisons d’édition, ajoutant que, de surcroît, l’expertise extérieure est coûteuse. Le livre blanc note que les fournisseurs de services de technologies, tels que Klopotek[+]ou Publishing Technology[+], privilégient les grands éditeurs internationaux ou les éditeurs scientifiques et techniques qui ont déjà sauté le pas, même si on peut espérer qu’à terme la baisse des coûts, ou une concurrence accrue, élargiront leur base de clientèle. En tout état de cause, Macmillan est devenu un partenaire incontournable de sociétés telles que Next Big Book qui offre des services de traitement des Big Data. Ces deux sociétés ont développé un tableau de bord pour identifier et suivre les facteurs ayant le plus d’influence sur les ventes de livres.

Revenir au sommaire

La signification du phénomène pour les industries de contenu

L’élimination de ces barrières provoquera des tensions et des conflits aussi longtemps que le rapport coût/bénéfice restera incertain, comme ce fut le cas de l’informatisation des sociétés dans les années 1970. Dès lors, la question qui se pose est de savoir ce que l’on peut faire, en réalité, de ces Big Data, car une estimation de la taille des marchés (volume, valeur) ne suffit pas à rendre compte du phénomène.

Les Big Data ont fait irruption au début de ce siècle, portées par des start-ups et des sociétés de l’Internet telles eBay, Facebook, Google ou LinkedIn, qui se sont construites sur ces mégadonnées, sans avoir à les intégrer à des sources de données plus traditionnelles. On leur doit d’ailleurs une partie des technologies actuelles dans le domaine: Google a été l’inspirateur de Hadoop, Facebook a développé Cassandra. Ces sociétés ont porté le passage de l’ « analytique 1.0 »[+], selon T. H. Davenport et J.Dyché, à l’ « analytique 2.0 » à partir de 2005 en exploitant leurs données en ligne, pour déboucher sur  « l’analytique 3.0 » à partir de 2012, qui ouvre la voie aux données « prescriptives ».

De fait, les « dragons numériques »[+] sont intrinsèquement les mieux placés pour tirer parti de cette évolution, des nouvelles formes d’analyse des mégadonnées et du « cloud computing »; Amazon (AWS) comme Google (Big Query) et Microsoft (Azure) en sont les principaux fournisseurs de services pour tiers. Les nouveaux acteurs du numérique sont aussi les pionniers de l’extraction des données pour la compilation des recommandations de leurs utilisateurs (Amazon, Netflix, Pandora, Zynga…).

Les fournisseurs de contenus créent des unités pour superviser leurs activités d’analyse, tels Amazon et LinkedIn créant des « centres d’excellence », Netflix centralisant complètement cette activité. La société de distribution de films a produit sa série à succès House of Cards  après analyse des données de sa base de clientèle, soit des millions d’interactions quotidiennes, des millions de recherches, ainsi que des tags et autres métadonnées. Amazon Publishing repère les œuvres épuisées (AmazonEncore) ou à traduire (AmazonCrossing) à partir des données clients. Google, comme Zynga, s’appuie sur un département opérationnel, la société de jeux vidéo ayant été la première à relier la conception de jeux à son modèle d’affaires[+](jeux gratuits et ventes d’articles virtuels). Spotify s’est illustrée par ses prévisions pour les Grammy Awards effectuées à partir de l’analyse des flux de données.

Revenir au sommaire

Big Data : de nouveaux services pour les industries créatives

De nouvelles sociétés sont apparues pour offrir leurs services aux industries créatives. Les acteurs de la musique, du cinéma ou de l’édition se voient proposer toutes sortes de services à des fins commerciales.

Next Big Sound, une société lancée en 2009, analyse toutes sortes de données pour l’industrie de la musique (provenant de YouTube et Spotify, de statistiques issues des medias sociaux) afin de déterminer le meilleur canal de vente. La société indique traiter désormais les données pour plus de 85 % de l’industrie de la musique). Depuis son lancement en 2009, la société a recueilli plus de 4 années de données sur les réseaux sociaux pour des centaines de milliers d’artistes. Elle établit des corrélations entre les ventes et les chiffres de streaming. Elle entend contribuer à une redéfinition de la façon dont les musiciens sont découverts, commercialisés et évalués en liant perception, implication et recettes. Sa filiale, Next Big Book suit auteurs et livres par l’intermédiaire de plusieurs réseaux sociaux, des données de vente et provenant d’événements.

Persistent Systems a aidé Chennai Express, l’un des films les plus gros vendeurs d’entrée du box-office indien, pour sa campagne de marketing, en analysant plus d’un milliard de réactions et un nombre total de plus de 750 000 tweets pendant les 90 jours de cette campagne.
United Talent Agency et Rentrak, société spécialisée dans les mesures d’audience cinéma et TV, ont créé un service PreAct à l’intention de l’industrie du cinéma qui dissèque, à base d’algorithmes, les données de réseaux sociaux. La société a comme client Sony Entertainment et 20th Century Fox.

L’analyse des données permet aussi dans le cas du cinéma, comme de la musique de partir du piratage pour, à l’inverse, stimuler les ventes. Ainsi, le groupe de rock « Iron Maiden » qui avait repéré une forte croissance de fans et pirates en Amérique latine, y a organisé une tournée spécifique avec grand succès. La presse, elle, semble encore se chercher[+].

Revenir au sommaire

Mégadonnées ou méga-problèmes?

Les rapports et articles font souvent preuve de beaucoup d’optimisme en annonçant que le recours aux mégadonnées (Big Data) permettra, par exemple, aux cinéastes et à l’industrie cinématographique de prévoir les tendances. Ce déterminisme informationnel relève d’une conception mécaniste, quoique courante, du rôle de la technologie, qui comporte le risque de ne servir (souvent de façon inadéquate) que la majorité laissant de côté les minorités. De plus, les statisticiens le savent bien, corrélation ne signifie pas causalité. L’échec de la prévision de la grippe par Google (surestimation de l’ordre de 50 %)[+] est là pour nous le rappeler.

Les applications les plus fréquemment mises en avant relèvent du marketing (exemple de Criteo[+]) ou d’une forme ou d’une autre de commerce électronique, dont on perçoit aisément l’apport potentiel. Ainsi, dans l’exemple cité d’Iron Maiden il s’agit d’une rationalisation de détection de la demande. Toutefois, d’un point de vue plus qualitatif, dans l’univers des contenus, l’analyse des données peut s’avérer être un cercle vicieux du point de vue de la création et de l’innovation.  La prévision de la demande peut relever du fantasme Chercher ce qui est le plus populaire en musique comme au cinéma n’est pas forcément la meilleure façon de trouver des œuvres nouvelles et majeures. La prévision de la demande peut relever du fantasme et, en tout état de cause, les exemples cités, dont celui de Netflix, ne sont que des cas isolés jusqu’à présent. Il reste ainsi à voir si la firme de distribution peut confirmer ses succès dans la production, ou alors tomber dans les aléas habituels d’une profession marquée par l’incertitude. De fait, la dernière série en date, « Marco Polo”, ne semble pas susciter le même enthousiasme que Game of Thrones

Enfin, des problèmes plus généraux se posent en matière de protection de la vie privée : et de sécurité. Une enquête de 2012 de l’institut de recherche Pew Internet donnait un verdict pour le moins partagé entre ceux qui décelaient le fort potentiel des Big Data et ceux qui étaient de plus en plus préoccupés des abus possibles.

En ce qui concerne la protection des données, les normes de protection actuelles (anonymisation, consentement individuel et clause de retrait) s’avèrent de moins en moins appropriées et devront être modifiées notamment pour passer du contrôle des données elles-mêmes à leur utilisation, l’anonymisation des données devenant de plus en plus délicate. De plus, l’équilibre entre la collecte d’information à des fins sécuritaires et les droits fondamentaux se modifie.
La gestion de ces problèmes sociétaux majeurs prendra du temps, générera des tensions entre promotion de l’innovation et protection des droits. La technologie est autant une partie du problème que de la solution. Pour autant, les problèmes technologiques ne doivent pas être sous-estimés ni considérés comme réglés ou en voie de l’être. La poursuite de la croissance indéniable de cette valse des zettabytes passe par le déploiement de réseaux à même de traiter ces données (4G, 5G), de contribuer au développement de nouvelles applications, à la mise en place de nouvelles plateformes, au développement de nouveaux terminaux mobiles[+] à des prix accessibles et d’une connectivité appropriée.
Passer au crible une masse d’information est une opération complexe, le stockage de terabytes n’est pas simple non plus. Si les barrières à l’entrée peuvent se réduire avec la chute des coûts, notamment avec le « cloud computing », l’expertise reste coûteuse et peu ou pas présente dans les industries créatives.
Cette inégalité entre acteurs traditionnels des médias et dragons numériques est source de conflits, comme on l’a vu dans le désaccord qui a opposé Amazon et Hachette. Ce conflit renvoie à un problème de concurrence, de concentration du marché entre les mains des oligopoles du Big Data, de ces « barons des données »[+], même si pour l’instant, cette tendance a été contrecarrée par la vivacité de l’écosystème des start-ups dans le domaine.

En résumé, les mégadonnées sont peut-être là, mais la méga-vision manque encore à l’appel.

Revenir au sommaire

#BigData : Les entreprises françaises à la traîne

BigData

A l’occasion de la publication d’une étude Opinion Way pour Axys Consultants sur « Les entreprises et le Big Data », Maddyness s’est penché sur cette « big tendance » pour en identifier les enjeux.


L’explosion du volume de données impacte tous les secteurs de l’économie avec la promesse de services toujours plus personnalisés pour les clients – et d’une rentabilité toujours plus élevée pour les entreprises. Cependant, la France affiche un net retard quant à l’exploitation du big data et pour nombre d’entreprises, ce concept reste flou.

Moins d’une entreprise sur cinq utilise le big data

Le big data est depuis peu le nouvel « or noir » de l’économie mais la génération de données massives n’est pas un phénomène récent. Depuis l’essor du web dans les années 2000, les internautes produisent des données. Cette tendance s’est simplement amplifiée au cours des cinq dernières années avec la numérisation de l’économie. Aujourd’hui, pas moins de 277 000 tweets, 15 millions de SMS et 204 millions d’emails sont échangés chaque minute. Un volume de données colossal, à tel point que la quantité d’informations produites dans le monde double tous les deux ans.

Si le big data traduit naturellement l’accroissement exponentiel des données selon les « 3V » (volume, variété, vélocité), cette définition ne reflète que la partie émergée de l’iceberg. La révolution du big data c’est surtout l’ensemble des techniques, architectures et technologies d’analyse et d’exploitation des données qui sont en train de naître. En 2018, ce marché devrait atteindre 46 milliards de dollars – de quoi faire pâlir d’envie tout chef d’entreprise.

Pourtant, peu d’entreprises françaises sont capables de définir clairement le big data. Parmi les 500 dirigeants interrogés dans le cadre de l’étude, seuls 25% sont capables de donner une définition précise de cette technologie. Bien que les dirigeants soient une majorité à juger leur entreprise mature dans l’exploitation des données (77%), l’utilisation du big data reste marginale (moins d’une entreprise sur cinq). Un paradoxe étonnant qui révèle que le big data concerne, pour le moment, une minorité de grandes entreprises.

Big data 2

Des applications infinies et des bénéfices tangibles

Un secteur – parmi tant d’autres – à adopter rapidement le big data est celui du transport, comme en témoigne l’essor des villes intelligentes. Les agglomérations ont pléthore de données disponibles, telles que les conditions de circulation, la fréquentation des parkings et les signaux GPS des smartphones – autant d’outils qui peuvent être utilisés pour améliorer les services urbains.

Les entreprises spécialisées dans les télécommunications, la santé et les services publics découvrent aussi les avantages compétitifs que leur offre le big data. Plus de données signifie plus d’informations, qui peuvent à leur tour être exploitées pour créer des services mieux ciblés et plus efficaces. La grande distribution est, elle aussi, très attentive aux données qui lui permettent d’améliorer l’expérience client et d’accroître la fidélité. Quel que soit le secteur, le big data ne manque donc pas d’attraits.

« Ce que nous constatons par ailleurs, et que confirme le sondage, c’est qu’il y a peu de déçus du big data. Ceux qui « vivent » effectivement le big data enregistrent des bénéfices, aux premiers rangs desquels une meilleure rentabilité, une meilleure connaissance du marché et une meilleure réponse aux attentes du marché » confie Marc Sailly, PDG d’Axys Consultants.

Côté consommateur, les bénéfices sur nos vies quotidiennes promettent d’être également nombreux. Le big data nous permettra d’améliorer notre santé à travers un suivi personnel ; il rendra possible la personnalisation de nombreux services tels que les voyages ou le shopping; il nous aidera à réaliser des économies sur notre consommation d’énergie domestique ou l’entretien de notre véhicule ; enfin, il facilitera nos trajets en analysant le trafic et en réduisant la friction lors de nos déplacements.

Seuls 14% des entreprises prévoient d’investir dans le big data…

Mais pour transformer les données brutes et quantitatives en des données intelligibles et qualitatives, encore faut-il que les entreprises disposent des ressources adaptées. En effet, le passage au big data nécessite de transformer radicalement l’entreprise pour l’adapter au travail de la donnée : nouvelles activités, nouvelle organisation du travail, nouvelles compétences, sans oublier les infrastructures… Face à de tels investissements, les dirigeants français restent frileux. Selon l’étude Axys Consultants OpinionWay, seuls 14% des dirigeants d’entreprises indiquent prévoir des investissements dans la technologie big data à court ou moyen terme.

… sous le regard attentif de la CNIL et des consommateurs

Par ailleurs, la CNIL veille au grain en matière de données personnelles. Dès que les entreprises se lancent dans des projets big data, c’est elle qui s’occupe de vérifier que le traitement de données à caractère personnel respecte la finalité, le consentement de la personne et la limitation de durée. Toutefois, il n’appartient pas qu’aux autorités d’assurer le contrôle des données, comme l’illustre le Vendor Relationship Management (VRM). Son objectif ? Instaurer un nouveau paradigme qui replace le consommateur au centre de la relation avec les marques et lui redonne la maîtrise de ses données, et donc, de ses choix. Dans la bataille pour le contrôle de cet or noir, il semble que les consommateurs n’aient pas dit leur dernier mot.

RH et Big Data : gagnez la guerre des talents

Du recrutement à la rétention des salariés, la Big Data modifie aujourd’hui l’approche RH. Voici les nouvelles opportunités offertes par le Big Data.

Dans une guerre mondialisée des talents, seules les entreprises les mieux armées pourront l’emporter. Le Big Data fait partie du nouvel arsenal du RH. L’animation de la table ronde « RH et Big Data » organisée par CCM Benchmark a donné l’occasion à Emploi-e-commerce.com de faire le point sur les possibilités d’utilisation des Big Data au service des ressources humaines. Du recrutement à la rétention des salariés, les Big Data modifient aujourd’hui l’approche RH.

De quelle « Data » parle-t-on ?

On distingue 3 sources de data dans le secteur des ressources humaines : les données structurées de l’entreprise, les données non structurées internes, et toutes les données externes (à peu de choses près : le web).

Les données structurées internes sont accessibles, et pour la plupart utilisées, depuis longtemps déjà. Il s’agit de résultats d’évaluation (niveau de performance, évolution interne etc…), de réponses à des questionnaires internes (en excluant les champs texte libre), et des données issues des SIRH concernant les profils des salariés (âge, nationalité, Etudes, adresse etc…).

Les données non structurées internes étaient difficilement manipulables à grande échelle jusqu’à aujourd’hui. Les contenus des e-mails, des échanges sur messagerie instantanée, les réseaux sociaux d’entreprise et tous type d’informations peuvent être facilement collectés et traités statistiquement pour en extraire des tendances. Plus généralement, toutes réponses aux questionnaires sous forme de champs libres sont maintenant analysables en masse.

Enfin viennent les données extérieures à l’entreprise c’est-à-dire toutes celles disponibles sur le web. Dans le cas des Ressources Humaines, on retiendra surtout les réseaux sociaux professionnels et personnels, ainsi que les bases de données concernant les individus (CVthèque publique ou autre).

Comment le Big Data aide-t-il les Ressources Humaines ? 

Le Big Data intervient à deux niveaux distincts : il permet un meilleurrecrutement et surtout, une meilleure connaissance des salariés.

Dans le cadre du recrutement, le Big Data est vecteur d’une meilleure anticipationdes besoins. En croisant les données concernant les départs des salariés avec la stratégie de l’entreprise, on peut identifier en amont les besoins de recrutement poste par poste. Certes, les RH n’avaient pas attendu qu’un Data Scientist les seconde pour le faire, mais le Big Data facilite cette anticipation.

Il va notamment permettre une meilleure qualité de recrutement. Un bon recrutement se définit simplement : mettre la bonne personne au bon poste. La définition de  » la bonne personne » est souvent compliquée. Le Big Data offre  la possibilité de définir ce profil idéal en se basant sur la performance des salariés passés et actuels occupant ce poste. L’analyse des données introduit un affinage des fiches de poste et un recrutement plus efficace pour l’entreprise.

Enfin, le Big Data permet de dénicher des talents. La disponibilité de cette concentration d’informations digitales sur des millions de candidats actifs ou passifs multiplie les possibilités pour une entreprise d’identifier un talent correspondant au profil recherché. Cependant, la loi ne permet pas le pillage massif des données. Le sourcing à travers le Big Data doit donc être maniée avec la plus grande vigilance.

Si le Big Data aide le recrutement, il représente déjà une révolution car il donne les moyens aux entreprises de connaître leurs salariés. Aujourd’hui, peu d’entreprises connaissent exactement leur effectif salarial. En tous cas, il faut aux entreprises de grande taille un certain temps avant de pouvoir avancer avec certitude un chiffre exact. Ceci est symptomatique d’un phénomène grave: les entreprises ne connaissent pas leurs salariés.

C’est là que le Big Data intervient : en utilisant les données internes non structurées de l’entreprise, il apporte une connaissance approfondie des salariés, de leurs besoins et de leurs envies. Prenons un exemple : l’analyse de l’ensemble des e-mails peut permettre d’identifier des besoins récurrents en formation sur tel ou tel sujet. Les RH détenant cette information seront capables de proposer des formations pertinentes au moment adéquat.

De même, l’analyse des données du chat d’entreprise peut aboutir sur un indicateur de bien être d’une société. On peut, en étudiant les profils qui ont quitté la société, comprendre ce qui a motivé leurs départs, puis, dans un second temps,anticiper les départs des profils similaires en apportant des actions correctives.

La modification des parcours professionnels des salariés est un autre exemple d’utilisation de Big Data au service de la rétention de salariés. Comprendre les envies de ces derniers et analyser les parcours professionnels qui portent leurs fruits donne aux RH les clés pour redessiner, au bénéfice de la société et des salariés, les parcours professionnels internes.

On l’aura compris, la connaissance des salariés grâce au Big Data peut être utilisée de maintes manières différentes et devenir un véritable atout stratégique pour l’entreprise. Dénicher des talents ne suffit pas : il faut savoir les garder et les développer.

Quel est le danger pour les salariés ?

Les analyses Big Data prédictives sont une aubaine pour les entreprises mais elles peuvent aussi être un danger pour les salariés. Le droit européen évolue avec les technologies et leur apporte des garanties. L’utilisation du Big Data peut être un danger. Prenons l’exemple de l’équipe de football nationale allemande, la Mannschaft. En partenariat avec SAP, elle a mis en place un programme Big Data consistant à analyser des données sur les joueurs récupérées grâce à leurs chaussures connectées. La Mannschaft parvenait à prédire les blessures des joueurs, et ne faisait donc pas jouer ces derniers pour cause de  « blessure future ». Brillant et inquiétant.

Transposé à l’entreprise, cet exemple peut être terrifiant. Un licenciement peut-il avoir comme motif un événement qui n’est pas encore arrivé ? Non. Ce scénario sorti tout droit de Minority Report est hors du cadre de la loi. La notion de finalitéde l’analyse prend ici tout son sens et détermine le droit à l’utilisation des données. Si une analyse big data révèle que les meilleurs performeurs sont gauchers et que la société décide de former tous les droitiers à devenir ambidextres, alors l’utilisation des données est légale. En revanche si une analyse est discriminante, leur usage n’est plus possible. Dans notre exemple, la société ne peut pas s’appuyer sur ces mêmes données pour licencier tous les droitiers.

L’accord des salariés est un prérequis à l’emploi de nombreuses données non structurées internes. Le plus souvent, en acceptant le règlement intérieur, le salarié donne son accord pour la manipulation de ces informations, mais il faut que ce soit bien spécifié.

En ce qui concerne le maniement de données externes à l’entreprise, les lois nationales sont dépassées par un enjeu maintenant Européen. D’ici à 6 mois, l’UE sera dotée d’une nouvelle règlementation concernant l’utilisation des données. Cette règlementation s’appliquera non pas aux entreprises situées en Europe, mais aux entreprises utilisant les données de citoyens européens, nous protégeant ainsi de potentielles dérives des géants du web américain.

Le Big Data est un formidable outil pour rendre l’activité RH proactive, et enfin rapprocher RH et direction stratégique de l’entreprise. Osez chers RH ! Le coût d’un projet Big Data n’est pas insurmontable. Osez, chers DG, osez donner ce pouvoir aux RH, car la guerre des talents est mondialisée, elle se joue maintenant et ne se gagnera pas sans les dernières armes.

Raisons pour lesquelles la gestion des talents ne peut plus se faire sans data

5 raisons pour lesquelles la gestion des talents ne peut plus se faire sans data

Les Ressources Humaines doivent faire face à une multitude de paramètres pour gérer leurs talents.

Jusqu’alors présentée comme la fonction la plus intuitive de l’entreprise, elle doit aujourd’hui s’appuyer sur la data pour mieux gérer ses problématiques avec un discours de preuves.

1. TURN OVER: +10% d’augmentation annuelle depuis 2012(Hays)

L’augmentation du turnover détruit la productivité des entreprises et impacte considérablement leur création de valeur.

Quelle solution apporte la data?

—> Réduire les erreurs à l’entrée pour minimiser le risque de sortie

Analyser les données sur le recrutement et les parcours permet d’augmenter de 25% les chances de choisir la bonne personne pour le poste (Harvard Business Review)

2. FUITE DES TALENTS: 52 % des salariés performants souhaitent changer d’entreprise (OpinionWay)

Ils sont les talents que l’entreprise souhaite garder, et pourtant plus de la moitié d’entre-eux souhaite partir.

Quelle solution apporte la data?

—> Disposer de la connaissance sur les départs possibles pour réussir à engager un process de rétention

Etre alerté sur le de départ et connaitre les contextes dans lesquels l’entreprise perd ses talents permet d’augmenter la rétention de 25% (Clustree)

3. NOUVEAUX MÉTIERS: 25% de nouveaux métiers chaque année (Clustree)

De nouveaux métiers apparaissent en continu, et nécessitent une forte adaptation des entreprises pour les intégrer.

Quelle solution apporte la data?

—> Comparer la façon dont ces nouveaux métiers ont pu déjà être intégrés dans d’autres secteurs d’activités ou d’autres zones géographiques

Analyser les précédents postes des salariés qui occupent aujourd’hui ces nouveaux métiers dans d’autres secteurs permet d’améliorer la reconversion des salariés de plus 37% (Clustree)

 4. OBSOLESCENCE RAPIDE DES RÉFÉRENTIELS DE COMPÉTENCES: 50% des compétences actuelles des salariés ne seront plus essentielles dans 2 ans (Oxford Economics)

Les référentiels de compétences sont longs à construire et rapidement obsolètes, car les compétences évoluent plus vite que la mise à jour de ces référentiels.

Quelle solution apporte la data?

—> S’affranchir des référentiels de compétences pour gérer les talents uniquement sur la base de la réalité

Analyser des millions de parcours de professionnels, dans le monde entier et sur tous les secteurs d’activité, permet de s’appuyer sur des éléments factuels et de ne plus avoir besoin de référentiels de compétences.

5. TRANSVERSALITÉS: 21% des salariés veulent quitter leur entreprise pour avoir une meilleure carrière (OpinionWay)

Les salariés sont convaincus que le meilleur moyen d’évoluer dans leur carrière et de changer de métier, est de changer d’entreprise.

Quelle solution apporte la data?

—> Avoir discours de preuves sur les transversalités possibles pour casser les process de clonage et de silos

Analyser les sauts de carrières originaux, possibles et pertinents en externe permet d’avoir +68% sur les transversalités (Clustree)

Open Data : quand les organisations partagent leurs données pour créer de la valeur


Aux balbutiements du Big Data, dont le concept a pris forme avec l’explosion des usages digitaux et des objets connectés, toutes les organisations se sont interrogées sur la manière d’aborder cette notion et sur le parti à en tirer. Quand certains se sont vite passionnés pour ce sujet, d’autres se sont montrés méfiants vis-à-vis de ce qu’ils percevaient comme une expression à la mode, voire effrayés par sa dimension « big », certes intimidante.

Puis, au fur-et-à-mesure que les enjeux business se sont précisés, les usages et les gains potentiels se sont ébauchés. Les organisations ont désormais pris conscience de la valeur de leurs données. Elles explorent aujourd’hui une tendance très en vogue : l’Open Data (ouverture des données). Libérer ses données pour créer de la valeur, tel pourrait être l’enjeu pour un bon nombre d’organisations.

Apparu en France il y a quelques années, le mouvement Open Data ne cesse de prendre de l’ampleur. Dès lors, l’ouverture des données devient un vecteur d’innovation ou de développement de nouveaux modèles de coopérations.

L’ouverture des données est également un levier de transparence dans le secteur public par exemple où l’information est alors considérée comme un bien commun, pouvant servir l’intérêt général.

Un sujet citoyen pris en main par le secteur public

Les premières initiatives d’Open data sont nées d’élans citoyens (Wikimedia, OpenStreetMap) ou ont été portées par le secteur public. En France, le conseil de modernisation des politiques publiques a initié en 2011 la création d’un portail unique, data.gouv.fr, afin de permettre « la réutilisation libre, facile et gratuite des informations publiques […] pour favoriser la dynamique d’innovation qui sera portée par la communauté des développeurs et des entrepreneurs à partir des données mises en ligne ».

Ainsi, la politique d’ouverture et de partage des données publiques, officiellement portée par la mission Etalab, a déjà donné lieu à de nombreuses réutilisations, comme par exemple une application pour organiser des campagnes électorales plus efficaces (« 50+1 : Dis-moi où tu habites, je te dirai pour qui tu votes »), ou encore une application de vérification des mises à jour du code du Travail crée par le groupe Revue Fiduciaire (GRF+), etc.

Les initiatives menées sont encourageantes mais le potentiel de développement de l’Open Data reste encore important pour soutenir l’optimisation des missions du service public et renforcer le cadre d’une communication transparente avec le citoyen.

Open data : le secteur privé doit aussi se lancer

La transparence n’est pas le seul fait du secteur public, d’autant que les clients des entreprises sont de plus en plus regardants envers celles-ci. L’ouverture des données est donc l’une des composantes de la relation de confiance, et de la redevabilité de l’entreprise envers la société.

Les démarches d’ouverture sont en train de gagner de plus en plus d’acteurs privés, qui misent sur les données pour développer une communication transparente avec leurs clients ou pour développer de nouveaux modèles de coopération avec leurs partenaires.

Dès lors, l’Open Data devient un véritable moyen pour co-innover et mobiliser de nouveaux partenaires extérieurs. La Data serait-elle en passe de générer de nouveaux modèles économiques plus axés sur les services collaboratifs et l’innovation ? C’est ce qui semble se dessiner à travers les quelques initiatives menées par les organisations du secteur privé.

Cependant, ouvrir ses données, c’est d’une part en donner l’accès, mais aussi en permettre la réutilisation, avec différents niveaux d’ouverture possibles, que ce soit en interne ou à l’externe. Cette stratégie n’est pas toujours comprise et/ou acceptée par l’ensemble des dirigeants suscitant parfois de réels freins. Pour réussir en ce sens, il faut donc réunir volonté politique et moyens adaptés. Cette démarche participe nécessairement à la transformation des organisations, encourageant l’usage, l’exploitation et la valorisation des données. Ce faisant, la donnée participe à un mouvement plus vaste de prise de conscience sur la nécessité de décloisonner les structures et de favoriser une collaboration active.

ALGORITHMES PLUS FORTS QUE L’INSTINCT ?

DU BIG DATA DANS LES RH : LES

EN DATA. Les algorithmes seraient plus efficaces que les hommes en matière de recrutement. C’est ce que révèle une étude de la prestigieuse Harvard Business Review. Décryptage, données à l’appui.

C’est acquis : dans le recrutement, le potentiel du « Big Data » est immense. Il permet unsourcing fin, dépassant les seuls critères du diplôme et du CV – qui démontrent leurs limites face à la rapidité avec laquelle évoluent les besoins en talents des entreprises. Le magazine HR Zone explique que « le Big data s’impose [déjà] comme un puissant outil pour pourvoir des postes hautement qualifiés. »

Certains sont sceptiques, comme l’illustre l’image – et l’article – ci-dessous. Mais les pratiques d’entreprises comme Regeneron Pharmaceuticals montrent bien que les promesses du Big Data pour un recrutement « parfaitement » ciblé et efficient ne sont pas des mirages…

« Réseaux sociaux, mobile, Big Data : la révolution du recrutement aura-t-elle lieu ? »

La mayonnaise est assurément en train de prendre : McKinsey en fait sa “nouvelle frontière” depuis 2011 et Deloitte avançait, début 2013, que “60% des fortunes 1000 ont investi dans les solutions Talent Analytics”. En France, selon une étude menée par Teradata en octobre 2013, plus d’un quart (26%) des entreprises ont déjà un projet Big Data en cours.

Algorithme 1, humain 0

Une étude de la Harvard Business Review montre qu’un recruteur qui suivrait un algorithme augmenterait de 25% ses chances de faire « le bon choix » que s’il ne se fiait qu’à son expérience et son instinct.

Certes, l’échantillon de l’étude n’est pas significatif : 17 dossiers d’évaluations de candidatures ont été passés au crible par la HBR. Mais l’information n’est pas anodine quand on sait que, pour un cadre moyen, un recrutement raté coûte plus de 600 000 € à l’entreprise en moyenne…

Les résultats de cette étude sont d’autant plus saisissants que, ici, les recruteurs bénéficiaient de plus d’informations sur les candidats que l’algorithme. Le gap d’efficacité proviendrait précisément des facteurs humains : les recruteurs prendraient en compte des éléments accessoires et/ou seraient plus distraits. Morale de l’histoire, selon Brian S. Connelly de l’Université de Toronto :

« Si vous traitez uniquement les données du candidat et que vous appliquez les critères de sélection les plus objectifs, vous arriverez probablement à un meilleur recrutement. »

Ces résultats ont de quoi nous faire réfléchir, nous humains ! En ne cédant pas non plus à la techno-béatitude. Car comme le soulignait HR Zone, « même les meilleurs algorithmes ont besoin d’un encadrement humain. (…) La data n’est d’aucune utilité si elle n’est pas utilisée dans un contexte pertinent », notamment lorsque l’innovation est en ligne de mire – avec la créativité qu’elle requiert.

A suivre…

BIG DATA : FACE AU TOURBILLON DES DONNÉES, LA RH DÉSEMPARÉE ?

EN DATA. Le terme de Big Data ne serait pas compris par 56% de professionnels RH, qui n’en voient pas les implications pour leur métier et pour l’entreprise. Au risque d’éloigner la RH des fonctions stratégiques ?

Des professionnels RH dépassés par le Big Data

Le Big Data – qui consiste à créer, collecter et traiter un grand volume de données hétérogènes pour parvenir à des analyses prédictives – fait l’objet de nombreuses études sur son adoption et utilisation par et pour les entreprises. Avec un constat, récurrent : les RH ont encore du chemin à parcourir afin d’avoir une démarche Big Data active et utile pour améliorer leurs processus, notamment en matière de recrutement et de gestion des talents. Une épine dans le pied d’une RH qui se veut fonction stratégique pour l’entreprise ?

La principale raison à ce retard dans l’adoption du Big Data : les RH peineraient à comprendre leur utilité. Ici, une étude hrboss révèle que 76% des professionnels RH du continent asiatique interrogés ne voient pas à quoi pourrait bien leur servir le Big Data. Là, au Royaume-Uni, ce sont 56% de professionnels RH qui disent ne pas savoir à quoi servent les Big Data. Ce résultat issu de l’étude réalisée Talentia software auprès de professionnels seniors RH issus de divers secteurs (finance, commerce, transports, télécommunications et agro-alimentaire) est à mettre en perspective avec les bénéfices que pourrait apporter l’utilisation du Big Data dans les fonctions RH. En gardant en tête que 85% des répondants de la même étude souhaitent en effet améliorer l’engagement des employés.


Au-delà de l’entrée des Big Data dans le métier RH, une étude de SilkRoad montre aussi que77 % des professionnels RH ne sont pas convaincus du potentiel du Big Data sur les résultats de leur entreprise. Et en conséquence, moins de la moitié des organisations interrogées utilisent des données objectives sur les talents pour informer les décisions stratégiques. L’enquête réalisée auprès de 600 professionnels RH suggère que la fonction RH est écrasée par le volume des données sur les employés et peine à envisager des perspectives intéressantes grâce au Big Data qui aideront à améliorer les résultats de l’entreprise.

Pénurie de compétences analytiques dans les RH

Selon une étude réalisée par l’American Management Association auprès de 800 entreprises qui ont évalué les compétences analytiques de leur employés dans chaque fonction : les RH sont parmi les fonctions qui disposent le moins de ces compétences utiles au traitement des données.

Doit-on forcément en conclure que la RH est pour autant en retard dans l’utilisation du Big Data ? Les études précédemment mentionnées ne prouvent en tout cas pas le contraire… Le Big Data est largement présent dans l’évaluation des compétences et émerge dans l’identification et le management des talents.

Hormis les usages du Big Data et de l’analytique  pour le recrutement et l’évaluation des compétences, un des aspects les plus intéressants, pour les RH, est le passage de de l’analytique vers le prédictif. Il s’agit de pouvoir prévoir les comportements des salariés et collaborateurs, notamment en établissant des corrélations entre engagement et performance, rétention et mobilité interne. De même, les RH prédictives peuvent aider à formaliser d’autres corrélations, « le coût du recrutement avec la satisfaction du client par exemple » comme le suggère Rajiv Krishnan, conseiller People & Organisation Practice chez Ernst & Young. « Cette modélisation peut s »appliquer à différents types de coefficients et prédire des points comme de quel département viennent les nouveaux leaders. »

Rendre le Big Data utile et concret pour les RH

L’enquête Global Assessment Trends Report 2013 suggère que les professionnels RH sont face à un déluge de Big Data et ne savent pas comment les mettre au service de leur objectif de gestion des talents : en 2012, environ 2,5 exabytes de données étaient produits par jour, un chiffre qui double tous les 40 mois.

Le but n’est pas de collecter toutes les données possibles et imaginables mais de comprendre ce que ces chiffres signifient et comment ils peuvent aider à la décision et à la réalisation des objectifs organisationnels et stratégiques de l’entreprise. Ce qui sous-entend de ne pas assimiler les RH « 2.0 » à des RH automatisées, sans intervention humaine… Il faut notamment poser les bonnes questions pour obtenir les données voulues en fonctions d’objectifs déterminés en amont, tout en pensant à la compatibilité des données entre elles et à leur intégration.

Certaines entreprises le prouvent néanmoins, le « Big Data RH » est déjà à l’oeuvre. Quelles leçons en tirer ?

  • Pour trouver et développer des talents dans le domaine des analytics, avoir le bon logiciel ne suffit pas. De là à imaginer une vague de data scientists débarquer dans la RH ? Des experts en analytics au sein de la fonction favorisent à l’évidence le développement du Big Data RH. C’est ce qu’a fait General Motors en engageant un data scientistreconnu, Mickael Arena, qui est également chargé de développer une équipe pour le groupe.
  • Rapprocher RH et IT, oui, mais aussi le RH du management. C’est ce que fait Google dans le projet oxygen. Démarré en 2009, ce projet avait pour but de déterminer les 8 habitudes des managers très performants, en collectant plus de 10 000 observations sur les managers parmi une centaine de variables issues d’exercices d’évaluation, de retours d’informations et d’autres rapports. Ces caractéristiques ont été par la suite intégrées aux programmes de formation et ont permis à l’entreprise d’améliorer de l’ordre de 75% les performances des managers les moins bons.
  • Impliquer les salariés dans la « datafication » des ressources humaines. Orange a ainsi demandé aux 1 200 top leaders et managers de synchroniser leur profil interne avec leur profil Linkedin. Le but : cartographier les ressources internes et les attentes de manière interactive et prédictive.

Suffisant, pour la RH, pour s’affirmer comme fonction majeure de la transformation numérique de l’entreprise ?