Category Archives: big data

Le «Blockchainwashing» en passe de remplacer le «greenwashing»?

 

Présentée comme ayant le même potentiel de disruption que le web, la Blockchain est décrite comme «la technologie de suppression du tiers de confiance».

Pour ces raisons, de nombreuses entreprises dont la nature même est d’agir comme tiers de confiance (banques, assurance, notaires, etc.) ont reçu de leur management l’injonction de s’intéresser à la Blockchain. En soi, c’est une excellente nouvelle: les Etats-Unis ont déjà deux ans d’avance sur la France, et le fait d’anticiper cette mutation technologique majeure est une précaution nécessaire.

Là où le bât blesse, c’est que de nombreuses initiatives sont lancées en dépit du bon sens, et on peut parfois se demander si les motivations qui les sous-tendent ne relèvent pas davantage de la communication et du «blockchainwashing» (à l’image du «greenwashing») que de la logique business.

  • Existence de solutions plus simples. La blockchain est parfois implémentée pour résoudre des problématiques qui se satisferaient de solutions beaucoup simples: par exemple, lorsque le problème est avant tout un problème de process qui ne nécessite pas de sécurisation des données. Rappelons que d’excellentes solutions de certifications électronique avec horodatage existent depuis quelques années et ne nécessitent pas d’avoir recours à la complexité d’une blockchain (par exemple Certinomis,- développé par la Poste).
  • L’immuabilité ne convient pas à tous les scénarios business. La logique business est parfois omise par les équipes chargées d’identifier des use case: David Treat, – Directeur chez Accenture sur les problématiques de blockchain insiste dans une tribune récente, sur la nécessité de pouvoir modifier des données dans certains contextes business (fraudes, erreur d’entrée, etc.) Pourquoi se fixer des contraintes tant que le régulateur ne les impose pas…?Accenture a d’ailleurs annoncé la semaine dernière avoir déposé un brevet pour une technique d’édition des blockchains privées par une autorité centrale. Cette annonce a reçu de nombreuses critiques de la communauté qui considère qu’elle revient à qualifier de blockchain une base de donnée partagée mais centralisée…
  • La transparence ne convient pas à tout le monde. De nombreux acteurs rechignent à travailler sur une blockchain publique (Bitcoin, Ethereum, etc.) car ils ne souhaitent pas que leurs données soient visibles publiquement. C’est le cas notamment du secteur bancaire, comme le pointait un récent article du Financial Times, « Banks find blockchain hard to put into practice ». Ils se tournent donc vers des solutions reposant sur des blockchains privées. Or une blockchain privée n’offre de réelle sécurité que si elle compte suffisamment de participants pour que le risque qu’un groupe majoritaire d’entre eux agisse de concert pour falsifier certaines données soit quasi nul.
  • Collaborer avec ses concurrents est long et difficile. Construire une blockchain privée nécessite de s’entendre sur des modalités de fonctionnement avec un nombre suffisamment important d’acteurs, souvent concurrents. La constitution d’un consortium est une tache difficile qui nécessite de vrais talents en diplomatie et en leadership. A ce sujet, saluons l’initiative de la CDC, avec la création de la BChain qui regroupe maintenant une vingtaine d’acteurs et a lancé ses premiers cas d’études. Cependant, tant que le consortium ne partage pas de données privées entre ses participants, le risque est de rester sur du partage d’expérience et de la communication externe.

 

Le vrai enjeu est d’entrer dans une dynamique d’open innovation entre des entreprises concurrentes, ce qui nécessite une volonté managériale très forte.

Rares sont donc les véritables initiatives blockchain en France, et l’on compte beaucoup plus d’effets d’annonce que de véritables «Proof of Concept».

Pour éviter une dérive vers le blockchainwashing, qui donnerait l’illusion de l’innovation alors que le retard de la France sur les Etats-Unis se creuse, un certain nombre d’initiatives doivent être mises en place:

  • Tout d’abord, il est nécessaire d’éduquer les dirigeants dans la durée. En effet, il faut le reconnaître, rares sont les membres au niveau des équipes de management des grands groupes qui ont réellement compris la blockchain. Et c’est bien normal, car le sujet est extrêmement complexe, notamment pour ceux qui n’ont pas de background technique. Il faut du temps et des interactions avec des experts pour pouvoir l’assimiler. De nombreux groupes proposent une demi-journée de formation à leur top management de manière ponctuelle. Cela permet aux participants d’acquérir un vernis superficiel, mais l’éducation doit se faire dans la durée, non pas pour en faire des experts, mais pour que ceux-ci soient réellement en mesure d’appréhender l’impact de la blockchain sur leur métier. De ce point de vue, le lancement de MOOCs est une initiative intéressante. Ces MOOCs ne pourront néanmoins pas remplacer le présentiel, qui permet de tester sa compréhension et de commencer à élaborer des scénarii métiers lors de brainstorms collectifs.
  • En parallèle, les grands groupes doivent se rapprocher des start-ups qui peuvent innover de manière beaucoup plus rapide et radicale qu’eux (cf le fameux dilemme de l’innovation). Aujourd’hui, la plupart des investissements blockchain sont en effet réalisés en interne tandis que les investissements dans les start-ups peinent à atteindre le million d’euros cette année. En comparaison, les investissements dans les start-ups uniquement aux Etats-Unis s’élèvent à un milliard d’euros pour 2015, et certainement davantage en 2016. Comme tout investissement en early stage, ceux-ci sont éminemment risqués, mais ils sont un moyen unique de comprendre les problématiques de l’intérieur, sans se reposer sur des consultants souvent tentés de pousser des cas d’usage artificiels, soit par mécompréhension du métier de leur client, soit par logique business.

Par Virginie Gretz

 

La transformation digitale entre besoin de vitesse et d’ancrage

Road through landscape. Road and car travel scenic and sunset.

La transformation digitale est un changement comme un autre et, en tant que tel, obéit à certaines règles dont on ne peut s’affranchir. Un peu comme la gravité. Aussi évident que cela puisse sembler il est toujours bon de le rappeler tant c’est un domaine dans lequel les entreprises ont tôt fait d’oublier le bon sens, croyait à tort que la technologie va tout régler et le changement dans l’entreprise s’opérer comme par magie vu qu’il s’est produit naturellement à l’extérieur. Sauf que pour l’essentiel la technologie n’est pas levier du changement ni son objectif. C’est son utilisation qui est l’objectif et les leviers du changement principalement humains.

L’ancrage du changement est le but ultime de tout dispositif de conduite du changement

Mais il est tout de même un point où la transformation digitale tend à différer de  ce qu’on connaît. Habituellement, une fois l’objectif et la direction connus, il n’ »y a qu’à »  construire un plan de conduite du changement. Etude d’impact, roadmaps individuelles et collectives, sensibilisation, formation, création d’une dynamique etc. L’objectif est de « faire atterrir » le changement, l’ancrer à la la fois dans la têtes et dans les actions quotidiennes. C’est ce qu’on peut, justement, appeler l’ancrage et qui est le but ultime de tout dispositif de changement.

On démarre par de la sensibilisation, puis on communique plus franchement sur l’ambition, enfin on rentre dans le « dur » par la formation et la mise en œuvre concrète du changement au niveau des process, du management, des comportements, de la culture d’entreprise…

Sauf qu’en matière de digital cela ne fonctionne pas aussi bien. La raison, tout le monde la connait sans pour autant en tirer toutes les conséquences : quand on se lance dans sa transformation digitale on ne sait pas encore comment celle-ci va se matérialiser. Difficile d’ancrer quelque chose quand on ne sait pas de quoi il s’agit.

La transformation digitale est le processus, pas la destination

La transformation digitale est donc davantage le processus qui mène au changement que le changement lui-même. Avant d’ancrer il faut trouver sa voie, sa destination, sa cible. Là, le processus est plus classique et consiste en un enchaînement de phases relativement connues et balisées.

  • Inspiration : comprendre ce qui se passe, les enjeux, identifier comment on est impacté et son terrain de jeu.
  • Ambition : élaborer une ambition partant ce qui précède, faute de quoi on aura du mal de donner une ligne directrice et embarquer les gens avec soi.
  • Design : phase où l’on va concevoir de manière très concrète des initiatives en partant le plus souvent du parcours client/employé, d’un point de friction. L’idée ici est de rendre les choses très rapidement concrètes pour éviter l’effet tunnel et, ce que reprochent souvent les collaborateurs, éviter de garder à la démarche un coté trop conceptuel et intellectuel. Les phases de design doivent se passer en mode « sprint », en réunissant l’ensemble des parties prenantes et expertises concernées sur un temps limité.
  • Prototypage ; on part de ce qui est sorti des ateliers « design » pour « sortir » quelque chose d’opérationnel le plus rapidement possible même si produit reste incomplet. L’idée et délivrer, rapidement et de manière agile, un produit minimum viable à mettre entre les mains de l’équipe projet puis de l’utilisateur final.
  • Industrialisation : c’est la mise en production finale avec tout ce que cela implique en termes de robustesse, niveau de service etc.

 

L’idée ici pour une entreprise qui part le plus souvent de loin et n’a guère d’idée de ce qu’elle veut faire à part se digitaliser et d’acquérir ce que j’appelle du « grip » et de la vitesse. Comprendre la manière dont son environnement change, voir ce qui se passe ailleurs, comprendre ses enjeux et parfaire le tout par la pratique et la mise en œuvre d’initiatives très concrètes.

Comment la vitesse et grip s’articule avec l’ancrage

Ce qui est intéressant n’est pas tant la description de ces deux dispositifs mais la manière dont ils s’articulent et s’enrichissent l’un l’autre.

Commencer par un ancrage profond alors qu’on a pas été capable de prendre assez de vitesse et que le « grip » digital de l’entreprise est faible ne mène nulle part. On crée de la lourdeur sans pour autant savoir où l’on va, on fige avant d’avoir mis en mouvement. Bref, impossible d’avancer ainsi.

A l’inverse les entreprises qui privilégient le grip et la vitesse arrivent à s’acculturer plus rapidement et, surtout, a expérimenter, apprendre par la pratique et matérialiser peu à peu leur progrès par des réalisations concrètes. Mais avec un risque : celui que l’entreprise en tant que structure et groupe humain ait de plus en plus de mal de suivre et, ainsi, de donne naissance à une organisation shyzophrène dont une partie va à 100 à l’heure sur le digital et le reste ne sait comment délivrer la promesse durablement.

La bonne solution est, sans aucune surprise, un couplage des deux approches. Car le besoin en ancrage, en profondeur de changement n’est pas le même en fonction du stade où l’on se situe dans la prise de vitesse. Quand on est en phase d’inspiration ou de formulation d’une ambition, seul un travail de sensibilisation et d’acculturation est nécessaire. C’est quand on passe au design et, a fortiori, à l’industrialisation qu’un travail d’alignement et de changement plus ou moins profond devient souvent nécessaire.

Il n’est donc nécessaire de démarrer sa transformation digitale avec un plan de changement profond. Il faut juste avoir en tête qu’il faudra être capable d’augmenter le dosage et la profondeur du changement avec le temps mais une fois seulement qu’on saura où l’on va, que l’on sera en mesure de porter et incarner l’ambition et – autre avantage d’un couplage bien ajusté – de montrer par l’exemple qu’on a commencé à avancé et que cela porte ses fruits. Il est en effet plus simple de convaincre et donner du sens lorsqu’on peut s’appuyer sur quelques initiatives réussies (même si elles ne sont qu’au début de leur cycle de vie et sont donc largement améliorables) plutôt que lorsqu’on a un discours.

Il ne faut pas surdoser la conduite du changement tant qu’on n’a pas le grip digital suffisant

Tout cela pour dire qu’il est inutile de vouloir trop planifier et structurer le voyage tant qu’on a ni la destination, ni le véhicule et encore moins le permis de conduire. Tout cela semblera bien évident à la plupart d’entre vous mais de récentes observations me font dire qu’il est parfois nécessaire de le rappeler.

En conclusion il est essentiel de ne pas surdoser la conduite du changement tant qu’on a pas acquis une vitesse et un grip digital suffisant.

  • A propos
bertrand-duperrin
Bertrand Duperrin est Digital Transformation Practice Leader chez Emakina. Il a été précédemment directeur conseil chez Nextmodernity, un cabinet dans le domaine de la transformation des entreprises et du management au travers du social business et de l’utilisation des technologies sociales.Il traite régulièrement de l’actualité social media sur son blog.

Par Bertrand Duperrin

 

L’intelligence artificielle en passe de réaliser des sauts quantiques ?

Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques.

L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go.

Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ? Nous avons vu dans les parties précédentes qu’il était difficile de faire la part des choses entre avancées liées à l’immatériel et celles qui dépendent du matériel. Je vais commencer par les algorithmes et logiciels puis aborder la partie matérielle. Avec en interlude, un passage sur l’application de la loi de Moore dans la vraie vie qui est bien différente des belles exponentielles présentées à tout va !

Algorithmes et logiciels

Nous verrons plus loin que le matériel continuera de progresser, même si c’est un chemin semé d’embuches du côté des processeurs.

S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Personne ne la mesure et pourtant, une bonne part des progrès numériques vient de là et pas seulement de l’augmentation de la puissance du matériel.

Les réseaux neuronaux à boucle de feedback et le deep learning auto-apprenants sont maintenant anciens et leur progression est lente dans le principe. Leur mise en œuvre s’améliore beaucoup grâce aux possibilités matérielles qui permettent de créer des réseaux neuronaux multicouches allant jusqu’à 14 couches.

 

Neuro-network_thumb

A chaque fois qu’un record est battu comme avec AlphaGo, il résulte de la combinaison de la force du matériel, du stockage et du logiciel. Qui plus est, ces records de l’IA portent sur des domaines très spécialisées. La variété et les subtilités des raisonnements humains sont encore loin. Mais elles ne sont pas hors de portée. Notre cerveau est une machine hyper-complexe, mais ce n’est qu’une machine biologique donc potentiellement imitable.

La recherche progresse en parallèle dans les techniques de reconnaissance d’images (à base de réseaux de neurones et de machine learning), de la parole (itou) et de l’analyse de données (idem). Les algorithmes génétiques sont de leur côté utilisés pour trouver des chemins optimums vers des solutions à des problèmes complexes intégrant de nombreux paramètres, comme pour trouver le chemin optimum du voyageur du commerce.

C’est dans le domaine de l’intelligence artificielle intégrative que des progrès significatifs peuvent être réalisés. Elle consiste à associer différentes méthodes et techniques pour résoudre des problèmes complexes voire même résoudre des problèmes génériques. On la retrouve mise en œuvre dans les agents conversationnels tels que ceux que permet de créer IBM Watson ou ses concurrents.

Dans le jargon de l’innovation, on appelle cela de l’innovation par l’intégration. C’est d’ailleurs la forme la plus courante d’innovation et l’IA ne devrait pas y échapper. Cette innovation par l’intégration est d’autant plus pertinente que les solutions d’IA relèvent encore souvent de l’artisanat et nécessitent beaucoup d’expérimentation et d’ajustements.

Cette intégration est un savoir nouveau à forte valeur ajoutée, au-delà de l’intégration traditionnelle de logiciels via des APIs classiques. Cette intelligence artificielle intégrative est à l’œuvre dans un grand nombre de startups du secteur. Le mélange des genres n’est pas évident à décrypter pour le profane : machine learning, deep learning, support vector machines, modèles de Markov, réseaux bayésiens, réseaux neuronaux, méthodes d’apprentissage supervisées ou non supervisées, etc. D’où un discipline qui est difficile à benchmarker d’un point de vue strictement technique et d’égal à égal. Ce d’autant plus que le marché étant très fragmenté, il y a peu de points de comparaison possibles entre solutions. Soit il s’agit de produits finis du grand public comme la reconnaissance d’images ou vocale, et d’agents conversationnels très à la mode en ce moment, soit il s’agit de solutions d’entreprises exploitant des jeux de données non publics. Un nouveau savoir est à créer : le benchmark de solutions d’IA ! Voilà un métier du futur !

La vie artificielle est un autre pan de recherche important connexe aux recherches sur l’IA. Il s’agit de créer des modèles permettant de simuler la vie avec un niveau d’abstraction plus ou moins élevé. On peut ainsi simuler des comportements complexes intégrant des systèmes qui s’auto-organisent, s’auto-réparent, s’auto-répliquent et évoluent d’eux-mêmes en fonction de contraintes environnementales.

Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à résoudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynamiquement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. Il reste aussi à développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, on en est encore loin. Qui plus est, ce n’est pas forcément nécessaire pour résoudre des problèmes courants de l’univers des entreprises. Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens” qui interviendra en juin dans la conférence USI organisée par Octo Technology à Paris, “L’économie a besoin d’intelligence, pas de conscience” ! Laissons donc une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

La loi de Moore dans la vraie vie

La loi de Moore est la pierre angulaire de nombreuses prédictions technologiques, notamment pour ce qui concerne celles de l’intelligence artificielle. Présentée comme immuable et quasi-éternelle, cette loi empirique indique que la densité des transistors dans les processeurs double tous les 18 à 24 mois selon les versions. Elle est aussi déclinée à foison pour décrire et prédire divers progrès techniques ou technico-économiques. Cela peut concerner la vitesse des réseaux, la capacité de stockage, le cout d’une cellule solaire photovoltaïque ou celui du séquençage d’un génome humain. Une progression n’en entraine pas forcément une autre. Le cout peut baisser mais pas la performance brute, comme pour les cellules solaires PV. On peut donc facilement jouer avec les chiffres.

La loi de Moore est censée s’appliquer à des solutions commercialement disponibles, et si possible, en volume. Or ce n’est pas toujours le cas. Ainsi, l’évolution de la puissance des supercalculateurs est mise en avant comme un progrès technique validant la loi de Moore. Or, ces calculateurs sont créés avec des moyens financiers quasiment illimités et n’existent qu’en un seul exemplaire, souvent réalisé pour de la recherche militaro-industrielle ou de grands projets de recherche (aérospatial, génomique, météo). Ce que l’on peut observer dans la belle exponentielle ci-dessous issue d’AMD.

 

HPC-milestones_thumb

 

Dans la plupart des cas, ces technologies “de luxe” se retrouvent dans des produits grand public après quelques années. Ainsi, la puissance des super-calculateurs des années 1990 s’est retrouvée dans les consoles de jeu des années 2000. Au lieu de faire des calculs en éléments finis pour des prévisions météo, les consoles de jeux calculent des millions de polygones pour simuler des images en 3D temps réel. Mais cette puissance n’est pas homothétique dans toutes les dimensions. Si la puissance de calcul est similaire, les capacités de stockage ne sont pas les mêmes.

Examinons donc de près comment cette fameuse loi s’applique pour des objets numériques grand public. Prenons trois cas d’usages courants : un laptop plutôt haut de gamme en 2006 et en 2016, l’évolution de l’iPhone entre sa première édition lancée en juin 2007 et l’iPhone 6S lancé en septembre 2015 et puis l’évolution du haut débit fixe sur 10 ans.

En appliquant une belle loi de Moore uniforme, les caractéristiques techniques de ces trois larrons devraient doubler tous les deux ans au minimum. Sur une période de 10 ans, cela donnerait 2 puissance 5 soient x32 et sur 8 ans, x16. Si le doublement intervenait tous les 18 mois, ces facteurs seraient respectivement de x101 et x40.

Commençons par un laptop haut de gamme à prix équivalent entre 2006 et 2016. J’ai comparé deux modèles plutôt haut de gamme de la même marque : un Asus W7J de 2006 et un Asus Zenbook UX303UA de 2016, certes sorti en 2015. Mais entre fin 2015 et mi 2016, il n’y a pas eu de changements d’architecture des laptops, qui collent à la roadmap d’Intel.

Aucun paramètre technique n’a évolué d’un facteur x32 et à fortiori d’un facteur x100. Ceux qui ont le mieux progressé et qui ont un impact sur la performance perçue par l’utilisateur sont la vitesse du moteur graphique (x12) et celle du Wi-Fi (x24). Pour le reste, les gains sont très modestes. Le processeur est “seulement” 3,7 fois plus rapide. La résolution des écrans a augmenté mais la résolution limitée de l’œil rend caduque cette progression dès lors qu’un écran atteint la résolution 4K, qui commence à apparaitre sur certains laptops.

 

Laptop-Asus-2006-et-2016_thumb

 

Le plus grand retardataire est la batterie qui n’évolue quasiment pas. L’autonomie des laptops a progressé non pas grâce aux batteries mais à la baisse de consommation des processeurs et autres composants électroniques ainsi qu’à l’intelligence intégrée dans les systèmes d’exploitation, aussi bien Windows que MacOS. Les derniers processeurs Intel savent éteindre certaines de leurs parties lorsqu’elles ne sont pas utilisées. Par contre, la densité des batteries s’est un peu améliorée et leur cure d’amaigrissement a permis de créer des laptops plus fins.

Loi-de-Moore-sur-laptops-2006-2016-768x428

Du côté de l’iPhone, la situation est plus contrastée et bien meilleure que pour les laptops. Deux dimensions techniques ont bien progressé : le processeur qui est 18 fois plus rapide et la communication data Internet mobile qui est x781 fois plus rapide, tout du moins en théorie, car d’une point de vue pratique, le ratio réel est plus raisonnable.

 

iPhone-1-et-6S_thumb

Contrairement aux laptops, au lieu de voir les prix baisser, ils augmentent, positionnement haut de gamme d’Apple oblige. Le poids augmente aussi car l’iPhone 6S a un écran plus grand que celui du premier iPhone. Et comme pour les laptops, la capacité de la batterie a très peu augmenté. J’ai indiqué les résolutions d’écran et de capteurs vidéo sachant qu’il n’y a pas de raison objective de vouloir poursuivre ad-vitam la loi de Moore pour ce qui les concerne.

 

Application-Loi-de-Moore-sur-les-iPhone_thumb

La situation est assez différente du côté du haut débit fixe. Vous pouvez stagner pendant une décennie à la même vitesse d’accès à Internet et bénéficier tout d’un coup d’un progrès soudain appliquant 10 ans de loi de Moore. Si vous passez par exemple d’un ADSL à 12 Mbits/s en download et 1 Mbits/s en upload à de la fibre chez Free à 1 Gbits/s en download et 200 Mbits/s en upload, le facteur multiplicateur est respectivement de x83 et x200. Si vous partiez d’un débit encore plus faible du fait d’un plus grand éloignement des centraux télécoms, le facteur multiplicateur serait encore plus élevé. Mais plus votre débit ADSL d’origine est faible, plus faibles sont les chances de voir la fibre arriver chez vous du fait des travaux d’infrastructure à réaliser pour passer les fourreaux transportant la fibre du central télécom jusqu’à chez vous !

Chez les autres opérateurs que Free, le facteur multiplicateur dépend de la technologie utilisée. Chez Numericable, c’est du FTTB à la performance à géométrie variable selon l’âge du capitaine et surtout un débit montant assez limité. Chez Orange, vous avez des taquets de débits à 100, 200 et 500 Mbits/s en download et de 50 Mbits/s à 200 MBits/s en upload selon l’offre commerciale. Et si vous attendez toujours la fibre, la loi de Moore vous concernant est un encéphalogramme tout plat !

En ne conservant que les paramètres technique où la loi de Moore est pertinente, voici donc ce que cela donne sous une autre forme, à savoir la progression moyenne tous les deux ans. On voit qu’à part la data WAN, on est loin du doublement tous les deux ans de la performance !

 

Loi-de-Moore-dans-la-vraie-vie_thumb

La loi de Moore s’applique bien mieux aux liaisons réseaux haut débit fixe et mobiles qu’à la capacité de calcul et de stockage, surtout sur ordinateurs personnels. Cela explique indirectement la montée en puissance des architectures en cloud. On peut plus facilement répartir une grosse charge de calcul sur des serveurs que sur des postes de travail ou des mobiles. On retrouve cette architecture dans Siri qui traite une bonne part de la reconnaissance vocale côté serveurs. Au passage, la loi de Moore de la vraie vie valide aussi le scénario de fiction de “Skynet” des films Terminator où c’est une intelligence logicielle distribuée sur des millions de machines dans le réseau qui provoque une guerre nucléaire !

Alors, la loi de Moore est foutue ? Pas si vite ! Elle avance par hoquets. Il reste encore beaucoup de mou sous la pédale pour faire avancer la puissance du matériel et sur lequel l’IA pourrait surfer.

Puissance de calcul

La fameuse loi de Moore est mise en avant par les singularistes pour prédire le dépassement de l’homme par l’IA à une échéance de quelques décennies. Seulement voilà, la validation dans la durée de cette loi empirique de Moore n’est pas triviale comme nous venons de le voir.

 

Moores-Law-and-human-brain_thumb

La question est revenue au-devant de la scène alors que cette loi fêtait ses 50 ans d’existence. Un anniversaire commenté pour annoncer la fin de ses effets, tout du moins dans le silicium et les technologies CMOS. Cette technologie est sur le point d’atteindre un taquet aux alentours de 5 nm d’intégration sachant que l’on est déjà à 10 nm à ce jour, notamment chez Intel, et à 14 nm en version commerciale (Core M et Core i de génération Skylake 2015). Les architectures multi-cœurs atteignent de leur côté leurs limites car les systèmes d’exploitation et les applications sont difficiles à ventiler automatiquement sur un nombre élevé de cœurs, au-delà de 4.

Le schéma ci-dessus et qui vient de Kurzweil n’a pas été mis à jour depuis 2006. Il est difficile d’obtenir un schéma sur l’application de la loi de Moore au-delà de 2010 pour les processeurs. Est-ce parce que l’évolution de la puissance de calcul s’est calmée depuis ? Dans le même temps, les découvertes en neuro-biologies évoquées dans l’article précédent augmentent de plusieurs ordres de grandeur la complexité de la modélisation du fonctionnement d’un cerveau humain. Bref, cela retarde quelque peu l’échéance de la singularité.

 

Economist-After-Moore-Law_thumb

L’excellent dossier After Moore’s Law, paru dans The Economist en mars 2016, détaille bien la question en expliquant pourquoi la loi de Moore des transistors CMOS pourrait s’arrêter d’ici une douzaine d’année lorsque l’on descendra au niveau des 5 nm d’intégration. Et encore, la messe n’est pas encore dite. A chaque nouvelle génération d’intégration, les fondeurs se demandent s’il vont pouvoir faire descendre réellement le cout de fabrication des transistors. En-dessous de 14 nm, ce n’est pas du tout évident. Mais l’ingénuité humaine a des ressources insoupçonnables comme elle l’a démontré dans les générations précédentes de processeurs CMOS !

Il faudra tout de même trouver autre chose, et en suivant divers chemins de traverse différents des processeurs en technologie CMOS.

Voici les principales pistes connues à ce jour et qui relèvent toutes plutôt du long terme :

Continuer à descendre coute que coute le niveau d’intégration

En 2015, IBM et Global Foundries créaient une première en testant la création d’un processeur en technologie 7 nm à base de silicium et de germanium, battant le record d’Intel qui est à ce jour descendu à 10 nm. L’enjeu clé est de descendre en intégration sans que les prix n’explosent. Or, la gravure en extrême ultra-violet qui est nécessaire pour “dessiner” les transistors sur le silicium est complexe à mettre au point et plutôt chère.

 

IBM-Research-7-nm-integration_thumb

Le multi-patterning, que j’explique ici, permet d’en contourner les limitations. Mais il coute tout aussi cher car il ajoute de nombreuses étapes à la fabrication des chipsets et peut augmenter le taux de rebus. La loi de Moore s’exprime en densité de transistors et aussi en prix par transistors. Si la densité augmente mais que le prix par transistor augmente aussi, cela ne colle pas pour les applications les plus courantes.

Créer des processeurs spécialisés

Ils sont notamment utiles pour créer des réseaux neuronaux, comme nous l’avions déjà vu dans la seconde partie de cette série. La piste est intéressante et est déjà très largement utilisée dans le cadre des GPU ou des codecs vidéo qui sont souvent décodés dans le matériel et pas par logiciel, comme le format HEVC qui est utilisé dans la diffusion de vidéo en Ultra Haute Définition (4K).

C’est l’approche de Nvidia avec ses chipsets X1 (ci-dessous) à 256 cœurs ou plus, qui sont utilisés dans la reconnaissance d’images des véhicules autonomes ou à conduite assistée comme les Tesla S. Ces GPU simulent des réseaux neuronaux avec une faculté d’auto-apprentissage. La piste se heurte cependant aux limites de la connectique. Pour l’instant, dans les réseaux neuronaux matériels, chaque neurone n’est relié qu’à ceux qui sont avoisinants dans leur plan. Dans le cerveau, l’intégration des neurones est tridimensionnelle.

 

Tegra-X1-layout_thumb

Il est possible d’imiter cette architecture 3D avec des couches métalliques multiples dans les circuits intégrés mais elles coutent pour l’instant assez cher à produire et plus on les empile, plus cela devient compliqué. Les processeurs les plus modernes comprennent une petite dizaine de couches de métallisation, comme indiqué dans ce schéma d’origine Intel.

 

 

Intel-couches-metallisation_thumb

Il n’est cependant pas théoriquement impossible de superposer des processeurs les uns sur les autres, tout du moins, tant que l’on peut limiter leur réchauffement. L’empilement serait concevable en baissant la fréquence des chipsets, ou avec des techniques extrêmes de refroidissement. Même en divisant par mille la clock des chipsets CMOS, ils resteraient bien plus rapides que la “clock” du cerveau qui est de l’ordre de 100 Hz.

Changer de technologie au niveau des transistors

Cela permettrait d’accélérer leur vitesse de commutation et augmenter grâce à cela la fréquence d’horloge des processeurs. Cela peut passer par exemple par des portes au graphène IBM avait annoncé en 2011 avoir produit des transistors au graphène capables d’atteindre une fréquence de 155 GHz, et en 40 nm. Les laboratoires qui planchent sur le graphène depuis une dizaine d’année ont bien du mal à le mettre en œuvre en contournant ses écueils et à le fabriquer à un coût raisonnable. Il faudra encore patienter un peu de ce côté-là même si cela semble très prometteur et avec des débouchés dans tous les domaines et pas seulement dans l’IA.

 

Graphene-transistor_thumb

Passer de l’électron au photon

C’est la photonique qui exploite des composants à base des matériaux dits “III-V”, un sujet que j’avais exploré dansComment Alcatel-Lucent augmente les débits d’Internet en 2013. Aujourd’hui, la photonique est surtout utilisée dans le multiplexage de données sur les liaisons ultra-haut-débit des opérateurs télécoms, dans des applications très spécifiques, ainsi que sur des bus de données optiques de supercalculateurs.

La startup française Lighton.io planche sur la création d’un coprocesseur optique capable de réaliser très rapidement des calculs sur de gros volumes de données et de combinatoires. Le système s’appuie sur la génération de jeux de données aléatoires permettant de tester simultanément plusieurs hypothèses de calcul, à des fins d’optimisation. Les applications visées sont en premier lieu la génomique et l’Internet des objets.

L’un des enjeux se situe dans l’intégration de composants hybrides, ajoutant des briques en photonique au-dessus de composants CMOS plus lents. Intel et quelques autres sont sur le pont.

Une fois que l’on aura des processeurs optiques généralistes, il faudra relancer le processus d’intégration. Il est actuellement situé aux alentours de 200 nm pour la photonique et la course se déclenchera alors pour descendre vers 10 à 5 nm comme pour le CMOS actuel.

Plancher sur les ordinateurs quantiques

Imaginés par le physicien Richard Feynman en 1982, les ordinateurs quantiques sont à même de résoudre certaines classes de problèmes complexes d’optimisation où plusieurs combinatoires peuvent être testées simultanément. Les algorithmes peuvent être résolus de manière polynomiale et non exponentielle. Cela veut dire qu’au gré de l’augmentation de leur complexité, le temps de calcul augmente de manière linéaire avec cette complexité et pas de manière exponentielle. Donc… c’est beaucoup plus rapide !

Mais sauf à être un spécialiste du secteur, on n’y comprend plus rien ! Le principe des qubits qui sous-tendent les ordinateurs quantiques est décrit dans Quantum computation, quantum theory and AI de Mingsheng Ying, qui date de 2009. Vous êtes très fort si vous comprenez quelque chose à partir de la fin de la seconde page ! Et la presse généraliste et même scientifique simplifie tellement le propos que l’on croit avoir compris alors que l’on n’a rien compris du tout !

Dans Quantum POMPDs, Jennifer Barry, Daniel Barry et Scott Aaronson, du MIT, évoquent en 2014 comment les ordinateurs quantiques permettent de résoudre des problèmes avec des processus de décision markovien partiellement observables. Il s’agit de méthodes permettant d’identifier des états optimaux d’un système pour lequel on ne dispose que d’informations partielles sur son état.

Quant à Quantum Speedup for Active Learning Agents, publié en 2014, un groupe de scientifiques espagnols et autrichiens y expliquent comment les ordinateurs quantiques pourraient servir à créer des agents intelligents dotés de facultés d’auto-apprentissage rapide. Cela serait un chemin vers le développement de systèmes d’IA créatifs.

En 2014, des chinois de l’Université de Sciences et Technologies de Hefei ont été parmi les premiers à expérimenter des ordinateurs quantiques pour mettre en jeu des réseaux de neurones artificiels, pour la reconnaissance d’écriture manuscrite. Leur ordinateur quantique utilise un composé organique liquide associant carbone et fluor. On n’en sait pas beaucoup plus !

Les équipes de la NASA ont créé de leur côté le QuAIL, le Quantum Artificial Intelligence Laboratory, en partenariat avec Google Research. Il utilise un D-Wave Two comme outil d’expérimentation, à ce jour le seul ordinateur quantique commercial, diffusé à quelques unités seulement. Leurs publications scientifiques sont abondantes mais pas faciles d’abord comme les autres ! Ce centre de la NASA est situé au Ames Research Center, là-même où se trouve la Singularity University et à quelques kilomètres du siège de Google à Mountain View.

Google annonçait fin 2015 avoir réussi à réaliser des calculs quantiques 100 millions de fois plus rapidement qu’avec des ordinateurs classiques sur ce DWave-Two. Ces tests sont mal documentés au niveau des entrées, des sorties et des algorithmes testés. Il se pourrait même que ces algorithmes soient codés “en dur” dans les qubits des D-Wave ! Qui plus est, la comparaison faite par Google avec les calculs sur ordinateurs traditionnels s’appliquait à algorithme identique alors que les algorithmes utilisés dans l’ordinateur quantique n’étaient pas optimisés pour ordinateurs traditionnels. Bref, le sujet est polémique, comme le rapportent La Tribune ou Science et Avenir. Est-ce une querelle entre anciens et modernes ? Pas vraiment car ceux qui doutent des performances du D-Wave travaillent aussi sur les ordinateurs quantiques.

 

d-wave-google-nasa-quantum-computer_thumb

Début mai 2016, IBM annonçait mettre à disposition son ordinateur quantique expérimental cryogénique de 5 Qubits en ligne dans son offre de cloud. On ne sait pas trop quel type de recherche pourra être menée avec ce genre d’ordinateur ni quelles APIs sont utilisées.

 

IBM-5-Qubits-processor-292x300

Quid des recherches en France ? Le CEA de Saclay planche depuis longtemps sur la création de circuits quantiques. Ils ont développé en 2009 un dispositif de lecture d’état quantique non destructif de qubits après avoir créé l’un des premiers qubits en 2002. Et le CEA-LETI de Grenoble a de son côté récemment réalisé des qubits sur composants CMOS grâce à la technologie SOI d’isolation des transistors sur le substrat silicium des composants. Ces composants ont toutefois besoin d’être refroidis près du zéro absolu (-273°C) pour fonctionner. Enfin, le groupe français ATOS, déjà positionné dans le marché des supercalculateurs depuis son rachat de Bull, travaille avec le CEA pour créer un ordinateur quantique à l’horizon 2030.

Dans son étude Quantum Computing Market Forecast 2017-2022, le cabinet Market Research Media prévoit que le marché des ordinateurs quantiques fera $5B d’ici 2020, en intégrant toute la chaine de valeur matérielle et logicielle. Le premier marché serait celui de la cryptographie. Avant de parler de marché, il faudrait que cela marche ! Et nous n’y sommes pas encore. Chaque chose en son temps : la recherche, l’expérimentation puis l’industrialisation. Nous n’en sommes qu’aux deux premières étapes pour l’instant.

Explorer les ordinateurs moléculaires

Ils permettraient de descendre le niveau d’intégration au-dessous du nanomètre en faisant réaliser les calculs par des molécules organiques de la taille de l’ADN. Cela reste aussi un animal de laboratoire pour l’instant ! Mais un animal très prometteur, surtout si l’architecture correspondante pouvait fonctionner de manière tridimensionnelle et plus rapidement que notre cerveau. Reste aussi à comprendre quelle est la vitesse de commutation de ces composants organiques et comment ils sont alimentés en énergie.

Toutes ces innovations technologiques devront surtout se diffuser à un cout raisonnable. En effet, si on extrapole la structure de cout actuelle des superordinateurs, il se pourrait qu’un supercalculateur doté de la puissance du cerveau à une échéance pluri-décennale soit d’un cout supérieur au PIB de l’Allemagne (source). Ca calme ! La puissance brute est une chose, son rapport qualité/prix en est une autre !

 

 

 

Growth-of-HPC-cost-vs-countries-GDP_thumb

La notion d’IA intégrative pourrait aussi voir le jour dans les architectures matérielles. Comme le cerveau qui comprend diverses parties spécialisées, un ordinateur doué d’IA évoluée intégrera peut-être des architectures hybrides avec processeurs au graphène, optiques et quantiques en compléments d’une logique de base en bon et vieux CMOS ! Ceci est d’autant plus plausible que certaines techniques sont insuffisantes pour créer un ordinateur générique, notamment les ordinateurs quantiques qui ne sauraient gérer qu’une certaine classe de problèmes, mais pas comprimer ou décomprimer une vidéo par exemple, ou faire tourner une base de données NoSQL.

Stockage

Si la loi de Moore a tendance à se calmer du côté des processeurs CMOS, elle continue de s’appliquer au stockage. Elle s’est appliquée de manière plutôt stable aux disques durs jusqu’à présent. Le premier disque de 1 To (Hitachi en 3,5 pouces) est apparu en 2009 et on en est maintenant à 8 To. Donc, 2 puissance 4 et Moore est sauf. L’évolution s’est ensuite déplacée vers les disques SSD à mémoires NAND dont la capacité, démarrée plus bas que celle des disques durs, augmente régulièrement tout comme sa vitesse d’accès et le tout avec une baisse régulière des prix. Les perspectives de croissance sont ici plus optimistes qu’avec les processeurs CMOS.

 

 

 

Toshiba-Sandisk-3D-NAND_thumb

Comme nous l’avions survolé dans le dernier Rapport du CES 2016, les mémoires NAND 3D font des progrès énormes, notamment avec la technologie 3D XPoint d’Intel et Micron qui combine le stockage longue durée et une vitesse d’accès équivalente à celle la mémoire RAM associée aux processeurs. Elle est encore à l’état de prototype mais sa fabrication ne semble pas hors de portée.

La technologie de mémoire 3D est aussi maîtrisée par des sociétés telles que Samsung (ci-dessous, avec sa technologique V-NAND) et Toshiba (ci-dessus avec sa technologie BiCS). Elle consiste à créer des puces avec plusieurs couches empilées de transistors, ou de transistors montés en colonnes. L’e niveau d’intégration le plus bas des transistors est ici équivalent à celui des CPU les plus denses : il descend jusqu’à 10 nm.

 

Samsung-3D-NAND_thumb

On sait empiler aujourd’hui jusqu’à 48 couches de transistors, et cela pourrait rapidement atteindre une centaine de couches. Des disques SSD de 16 To devraient arriver d’ici peu ! Pourquoi cette intégration verticale est-elle possible pour la mémoire et pas pour les processeurs (GPU, CPU) ? C’est lié à la résistance à la montée en température. Dans un processeur, une bonne part des transistors fonctionne en même temps alors que l’accès à la mémoire est séquentiel et donc n’active pas simultanément les transistors. Un processeur chauffe donc plus qu’une mémoire. Si on empilait plusieurs couches de transistors dans un processeur, il se mettrait à chauffer bien trop et s’endommagerait. Par contre, on sait assembler des circuits les uns sur les autres pour répondre aux besoins d’applications spécifiques.

Pour les supercalculateurs, une tâche ardue est à accomplir : accélérer la vitesse de transfert des données du stockage vers les processeurs au gré de l’augmentation de la performance de ces derniers. Cela va aller jusqu’à intégrer de la connectique à 100 Gbits/s dans les processeurs. Mais la mémoire ne suit pas forcément. Aujourd’hui, un SSD connecté en PCI et avec un connecteur M.2 est capable de lire les données à la vitesse vertigineuse de 1,6 Go/s, soit un dixième de ce qui est recherché dans les calculateurs haute performance (HPC). Mais cette vitesse semble supérieure à celle de lecture d’un SSD ! Le bus de communication est devenu plus rapide que le stockage !

Avec 3D XPoint, l’accès aux données serait 1000 fois plus rapide qu’avec les SSD actuels, modulo l’interface utilisée. Après un retard à l‘allumage, cette technologie pourrait voir le jour commercialement en 2017. Elle aura un impact important pour les systèmes d’IA temps réel comme IBM Watson. Rappelons-nous que pour Jeopardy, l’ensemble de la base de connaissance était chargée en mémoire RAM pour permettre un traitement rapide des questions !

Cette augmentation de la rapidité d’accès à la mémoire, qu’elle soit vive ou de longue durée, est indispensable pour suivre les évolutions à venir de la puissance des processeurs avec l’un des techniques que nous avons examinées juste avant.

 

HPC-Constraints_thumb

(source du slide ci-dessus)

 

Des chercheurs d’université et même de chez Microsoft cherchent à stocker l’information dans de l’ADN. Les premières expériences menées depuis quelques années sont prometteuses. La densité d’un tel stockage serait énorme. Son avantage est sa durabilité, estimée à des dizaines de milliers d’années, voire plus selon les techniques de préservation. Reste à trouver le moyen d’écrire et de lire dans de l’ADN à une vitesse raisonnable.

Aujourd’hui, on sait imprimer des bases d’ADN à une vitesse incommensurablement lente par rapport aux besoins des ordinateurs. Cela se chiffre en centaines de bases par heure au grand maximum. Cette vitesse s’accélèrera sans doutes dans les années à venir. Mais, comme c’est de la chimie, elle sera probablement plus lente que les changements de phase ou de magnétisme qui ont court dans les systèmes de stockage numérique actuels. La loi de Moore patientera donc quelques décennies de ce côté là, tout du moins pour ses applications dans le cadre de l’IA.

Capteurs sensoriels

L’un des moyens de se rapprocher et même de dépasser l’homme est de multiplier les capteurs sensoriels. La principale différence entre l’homme et la machine réside dans la portée de ces capteurs. Pour l’homme, la portée est immédiate et ne concerne que ses alentours. Pour les machines, elle peut-être distante et globale. On voit autour de soi, on sent la température, on peut toucher, etc. Les machines peuvent capter des données environnementales à très grande échelle. C’est l’avantage des réseaux d’objets connectés à grande échelle, comme dans les “smart cities”. Et les volumes de données générés par les objets connectés sont de plus en plus importants, créant à la fois un défi technologique et une opportunité pour leur exploitation.

Le cerveau a une caractéristique méconnue : il ne comprend pas de cellules sensorielles. Cela explique pourquoi on peut faire de la chirurgie à cerveau ouvert sur quelqu’un d’éveillé. La douleur n’est perceptible qu’à la périphérie du cerveau. D’ailleurs, lorsque l’on a une migraine, c’est en général lié à une douleur périphérique au cerveau, qui ne provient pas de l’intérieur. L’ordinateur est dans le même cas : il n’a pas de capteurs sensoriels en propre. Il ne ressent rien s’il n’est pas connecté à l’extérieur.

Cette différence peut se faire sentir même à une échelle limitée comme dans le cas des véhicules à conduite assistée ou automatique qui reposent sur une myriade de capteurs : ultrasons, infrarouges, vidéo et laser / LIDAR, le tout fonctionnant à 360°. Ces capteurs fournissent aux ordinateurs de bord une information exploitable qui va au-delà de ce que le conducteur peut percevoir. C’est l’une des raisons pour lesquelles les véhicules automatiques sont à terme très prometteurs et plus sécurisés. Ces techniques sont déjà meilleures que les sens humains, surtout en termes de temps de réponse, de vision à 360° et de capacité d’anticipation des mouvements sur la chaussée (piétons, vélos, autres véhicules).

 

Les capteurs de proximité intégrables à des machines comme les robots progressent même dans leur bio mimétisme. Des prototypes de peau artificielle sensible existent déjà en laboratoire, comme en Corée du Sud (ci-dessous, source dans Nature). L’une des mécaniques humaines les plus difficiles à reproduire sont les muscles. Ils restent une mécanique extraordinaire, économe en énergie, fluide dans le fonctionnement, que les moteurs des robots ont bien du mal à imiter.

Les capteurs fonctionnent aussi dans l’autre sens : de l’homme vers la machine. Les progrès les plus impressionnants concernent les capteurs cérébraux permettant à l’homme de contrôler des machines, comme pour contrôler un membre artificiel robotisé, une application pouvant restaurer des fonctions mécaniques de personnes handicapées, voire de démultiplier la force de personnes valides, dans les applications militaires ou de BTP. L’homme peut ainsi piloter la machine car la périphérie du cortex cérébral contient les zones où nous commandons nos actions musculaires. Des expériences de télépathie sont également possibles, en captant par EEG la pensée d’un mot d’une personne et en la transmettant à distance à une autre personne en lui présentant ce mot sous forme de flash visuel par le procédé TMS, de stimulation magnétique transcraniale.

 

Telepathy_thumb

Si on peut déjà alimenter le cerveau au niveau de ses sens, comme de la vue, en interceptant le nerf optique et en simulant le fonctionnement de la rétine ou par la TMS, on ne sait pas l’alimenter en idées et informations abstraites car on ne sait pas encore vraiment comment et surtout où elles sont stockées. Dans Mashable, une certaine Marine Benoit affirmait un peu rapidement en mars 2016 qu’une équipe avait mis au point “un stimulateur capable d’alimenter directement le cerveau humain en informations”. A ceci près que l’étude en question, Frontiers in Human Neuroscience ne faisait état que d’un système qui modulait la capacité d’acquisition par stimulation ! Pour l’instant, on doit se contenter de lire dans le cerveau dans la dimension mécanique mais pas “écrire” dedans directement. On ne peut passer que par les “entrées/sorties”, à savoir les nerfs qui véhiculent les sens, mais pas écrire directement dans la mémoire. Mais ce n’est peut-être qu’un début !

 

Implant-crbral_thumb

(source de la photo, crédit Guy Hotson)

Energie

L’homme ne consomme en moyenne que 100 Watts dont 20 Watts pour le cerveau. C’est un excellent rendement. Tout du moins, pour ceux qui font travailler leur cerveau. Ce n’est pas facile à égaler avec une machine et pour réaliser les tâches de base que réalise un humain. Les supercalculateurs consomment au mieux quelques KW et certains dépassent les MW.

Des progrès sont cependant notables dans les processeurs mobiles. Consommant moins de 5 W, ils agrègent une puissance de calcul de plus en plus impressionnante grâce à des architectures multi-cœurs, à un fonctionnement en basse tension, aux technologies CMOS les plus récentes comme le FinFET (transistors verticaux) ou FD-SOI (couche d’isolant en dioxyde de silicium réduisant les fuites de courant dans les transistors et améliorant leur rendement énergétique) et à une fréquence d’horloge raisonnable (entre 1 et 1,5 GHz).

La mécanique et l’énergie sont les talons d’Achille non pas de l’IA qui est distribuable là où on le souhaite mais des robots. Un homme a une autonomie d’au moins une journée en état de marche convenable sans s’alimenter. Un robot en est encore loin. D’où l’intérêt des travaux pour améliorer les batteries et notamment leur densité énergétique. Un besoin qui se fait sentir partout, des smartphones et laptops aux véhicules électriques en passant par les robots. Les progrès dans ce domaine ne sont pas du tout exponentiels. Cela a même plutôt tendance à stagner. Dans les batteries, c’est la loi de l’escargot qui s’appliquerait avec un quadruplement de la densité tous les 20 ans (source).

 

Snail-Law_thumb

Des laboratoires de recherche inventent régulièrement des technologies de batteries battant des records en densité énergétique ou du côté du temps de chargement, à base de matériaux différents et/ou de nano-matériaux. Mais en elles sortent, faute de pouvoir être industrialisées à un coût raisonnable ou de bien fonctionner dans la durée. Parfois, on arrive à une densité énergétique énorme, mais cela ne fonctionne que pour quelques cycles de charge/décharge. Trop injuste !

Résultat, pour le moment, la principale voie connue est celle de l’efficacité industrielle, choisie par Elon Musk dans la création de sa Gigafactory dans le Nevada, une usine à $5B qui exploitera la technologie de batteries standards de Panasonic, qui a aussi mis $1B au pot pour le financement de l’usine. Une usine qui est aussi proche d’une mine de Lithium, à Clayton Valley, l’un des composés clés des batteries et qui démarrera sa production en 2020.

On peut cependant citer l’étonnante performance d’un laboratoire de l’université de Columbia qui a réussi à alimenter un composant CMOS avec de l’énergie provenant de l’ATP (adénosine triphosphate), la source d’énergie principale des cellules vivantes qui est générée par les nombreuses mitochondries qu’elles contiennent. Cela ouvre des portes vers la création de solutions hybrides biologiques et informatiques insoupçonnées jusqu’à présent.

Sécurité

C’est un sujet évoqué de manière indirecte, au sujet du jour où l’IA dépassera l’intelligence de l’homme et s’auto-multipliera au point de mettre en danger l’espèce humaine. Cela part du principe qu’une intelligence peut se développer à l’infini in-silico. Pourquoi pas, dans certains domaines. Mais c’est faire abstraction d’un point clé : l’intelligence est le fruit, certes, du fonctionnement du cerveau, mais également de l’interaction avec l’environnement et avec les expériences sensorielles. L’intelligence cumule la capacité à créer des théories expliquant le monde et à des expériences permettant de le vérifier. Parfois, la vérification s’étale sur un demi-siècle à un siècle, comme pour les ondes gravitationnelles ou le Boson de Higgs. Cette capacité de théorisation et d’expérimentation de long terme n’est pour l’instant pas accessible à une machine, quelle qu’elle soit.

 

Growth-of-intelligence-over-time_thumb

(schéma tiré de “The artificial intelligence singularity, 2015”)

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques. Le “kill switch” de l’IA qui permettrait de la déconnecter si elle devenait dangereuse devrait surtout porter sur sa relation avec le monde physique. Les films de science fiction comme Transcendance montrent que rien n’est sûr de ce côté là et que la tendance à tout automatiser peut donner un trop grand contrôle du monde réel aux machines.

L’homme est déjà dépassé par la machine depuis longtemps, d’abord sur la force physique, puis de calcul, puis de mémoire et enfin de traitement. Mais la machine a toujours été pilotée par l’homme. L’IA semble générer des systèmes pérennes dans le temps ad vitam aeternam du fait de processus d’apprentissage qui s’agrègent avec le temps et de la mémoire presque infinie des machines. L’IA serait immortelle. Bon, tant que son stockage ne plante pas ! Un disque dur peut planter à tout bout de champ au bout de cinq ans et un disque SSD actuel ne supporte au mieux que 3000 cycles d’écriture !

 

Les dangers perceptibles de l’IA sont à l’origine de la création d’OpenAI, une initiative visant non pas à créer une IA open source (cela existe déjà dans le machine learning) mais de surveiller ses évolutions. Il s’agit d’une ONG créée par Elon Musk qui vise à s’assurer que l’IA fasse le bien et pas le mal à l’humanité. Elle est dotée de $1B et doit faire de la recherche. Un peu comme si une organisation était lancée pour rendre le capitalisme responsable (cf OpenAI dans Wikipedia et “Why you should fear artificial intelligence” paru dans TechCrunch en mars 2016).

Autre méthode, se rassurer avec “Demystifying Machine Intelligence” de Piero Scaruffi qui cherche à démontrer que la singularité n’est pas pour demain. Il s’appuie pour cela sur une vision historique critique des évolutions de l’intelligence artificielle. Il pense que les progrès de l’IA proviennent surtout de l’augmentation de la puissance des machines, et bien peu des algorithmes, l’effet donc de la force brute. Selon lui, l’homme a toujours cherché une source d’intelligence supérieure, qu’il s’agisse de dieux, de saints ou d’extra-terrestres. La singularité et les fantasmes autour de l’IA seraient une nouvelle forme de croyance voire même de religion, une thèse aussi partagée par Jaron Lanier, un auteur anticonformiste qui publiait “Singularity is a religion just for digital geeks”en 2010.

 

Singularity-is-just-a-religion-for-digital-geeks_thumbPiero Scaruffi prend aussi la singularité à l’envers en avançant que l’ordinateur pourra dépasser l’homme côté intelligence parce que les technologies rendent l’homme plus bête, en le déchargeant de plus en plus de fonctions intellectuelles, la mémoire en premier et le raisonnement en second ! Selon lui, le fait que les médias numériques entrainent les jeunes à lire de moins en moins de textes longs réduirait leur capacité à raisonner. On peut d’ailleurs le constater dans les débats politiques qui évitent la pensée complexe et privilégient les simplismes à outrance. J’aime bien cet adage selon lequel l’intelligence artificielle se définit comme étant le contraire de la bêtise naturelle. Cette dernière est souvent confondante et rend le défi de la création d’une intelligence artificielle pas si insurmontable que cela.

Pour Piero Scaruffi, en tout cas, l’intelligence artificielle est d’ailleurs une mauvaise expression. Il préfère évoquer la notion d’intelligence non humaine. Il pense aussi qu’une autre forme d’intelligence artificielle pourrait émerger : celle d’hommes dont on aura modifié l’ADN pour rendre leur cerveau plus efficace. C’est un projet du monde réel, poursuivi par les chinois qui séquencent des milliers d’ADN humains pour identifier les gènes de l’intelligence ! Histoire de réaliser une (toute petite) partie des fantasmes délirants du film Lucy de Luc Besson !

Pour Daniel C. Dennett, le véritable danger ne sont pas des machines plus intelligentes que l’homme que le laisser-aller de ce dernier qui abandonne son libre arbitre et confie trop de compétences et d’autorité à des machines qui ne lui sont pas supérieures.

Et si le plus grand risque était de ne rien faire ? Pour toutes ces technologies et recherches citées dans cet article, est-ce que l’Europe et la France jouent un rôle moteur ? Une bonne part de cette R&D côté hardware est concentrée au CEA. Pour l’industrie, ce n’est pas évident, à part peut-être la R&D en photonique chez Alcatel-Lucent qui même si elle dépend maintenant de Nokia, n’en reste pas moins toujours en France. Il reste aussi STMicroelectronics qui reste très actif dans les capteurs d’objets connectés. De son côté, la R&D côté logicielle est dense, que ce soit à l’INRIA ou au CNRS. Reste à savoir quelle “technologie de rupture” sortira de tout cela, et avec une transformation en succès industriel à grande échelle qui passe par de l’investissement, de l’entrepreneuriat et de la prise de risque car de nombreux paris doivent être lancés en parallèle pour n’en réussir quelques-uns.

  • A propos

 

Olivier-Ezratty

Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.

 

Les start-up françaises en quête d’intelligence artificielle

Après avoir fait le tour des stratégies d’IA de quelques grands acteurs du numérique, dont Google, IBM, Microsoft et Facebook, et de leurs acquisitions, revenons aux start-up du secteur en nous intéressant aux françaises.

Il est clair que l’IA est l’une des technologies clés du numérique, aujourd’hui et demain. Au lieu de chercher à créer un Google, un Facebook ou un système d’exploitation français, il serait bon de s’intéresser à ce domaine prometteur, surtout dans la mesure où les plateformes correspondantes sont encore en devenir.

La recherche en IA en France

La recherche en IA est disséminée dans plusieurs laboratoires et dans des projets collaboratifs associant laboratoires publics et universités. Les deux premiers organismes se focalisant sur l’IA sont l’INRIA et le CNRS.

Que fait l’INRIA ? Un grand nombre des projets de recherche fondamentale en IA référencés sur leur site font appel aux techniques de l’IA, même s’ils ne sont pas forcément labellisés IA / machine learning / réseaux neuronaux. C’est ainsi le cas du projet Orpailleur mené à Nancy et dédié à la représentation des connaissances et au raisonnement. L’équipe planche sur l’extraction de données dans les bases de connaissances non structurées, et notamment dans le domaine de la santé, le même que celui qui est investi par IBM Watson et plein de start-up. Ils collaborent notamment avec le centre de lutte contre le cancer de Nancy. L’équipe Magnet travaille, quant à elle, directement sur le machine learning et l’auto-apprentissage.

Les chercheurs français se plaignent en tout cas d’être délaissés en France dans la discipline. Ils ne sont certainement pas les seuls, au sens où de nombreuses disciplines se sentent délaissées dans la recherche publique.

Une association créée en 1993 fait la promotion de la recherche en IA, l’AFIA. Elle organisait en octobre 2014 une conférence de promotion de l’IA dans la recherche. On y identifie par exemple Andreas Herzig (IRIT, CNRS, Toulouse) qui travaille sur la modélisation de la logique et du raisonnement, Hélène Fargier (IRIT, CNRS, Toulouse) qui travaille notamment sur la programmation par contraintes, Jérôme Euzenat (LIG, Inria) qui planche sur la représentation et l’échange de connaissances et Leila Amgoud (IRIT, CNRS) qui est spécialisée dans la modélisation de l’argumentation.

Le défi pour ces chercheurs et leurs autorités de tutelle est de trouver des applications tirées de leurs travaux. En consultant la liste des participations d’IT Translation qui est l’un principaux financeurs de projets issus de l’INRIA, on constate que l’IA est souvent en filigrane de ces projets, mais pas forcément au niveau «plateforme» ou «couches de base».

 

1Dans le Economic Report or The President, le rapport annuel 2016 sur l’économie de la Maison Blanche, j’ai découvert deux données intéressantes. Aux Etats-Unis, en 2013, les start-up ont créé deux millions d’emplois et les entreprises traditionnelles huit millions. Donc 20% ! Une proportion énorme sachant que dans le même temps, l’économie française a plutôt détruit des emplois et les startups n’en ont probablement créé que quelques milliers. Et surtout : la moitié de la R&D fédérale est dédiée à la défense ! Et au milieu des années Reagan, elle en représentait les deux tiers ! Cela explique pourquoi tant de projets autour de l’IA sont financés par la DARPA. En France, la recherche dans l’IA semble mieux financée côté civil, même s’il est difficile de le vérifier par les chiffres. On ne s’en plaindra pas. A ceci près que la R&D militaire US a une qualité : elle est orientée vers des objectifs pratiques selon des cahiers des charges. De son côté, la recherche civile française fonctionne plutôt de manière très décentralisée et sans objectifs pratiques clairs, sauf lorsqu’elle est financée par des entreprises privées, surtout depuis la loi Pécresse de 2007. A méditer !

Start-up «horizontales»

Voici les start-up que j’ai pu repérer dans les solutions techniques d’IA plus ou moins génériques. Le champ de la reconnaissance audio est faiblement couvert par les start-up françaises. Dans celle des images, on eu quelques cas anciens comme LTU qui a été racheté par le japonais JASTEC en 2005. Il subsiste quelques acteurs spécialisés dans la recherche et qui ont intégré petit à petit des techniques d’IA dans leurs offres. Antidot et Sinequa sont anciens dans le paysage mais, à l’instar de nombreux éditeurs B2B, ils peinent à croitre, notamment à l’international. Ils ne font que quelques millions d’euros de chiffre d’affaires. Comme dans l’article précédent, j’indique entre parenthèses l’année de création et les montants levés lorsqu’ils sont disponibles. J’aimerais bien ajouter un troisième indicateur : le chiffre d’affaires, mais il n’est généralement pas disponible.

Antidot (1999, 3,5 millions de dollars) est connu pour son moteur de recherche pour entreprises. Il propose une fonction de classification automatique de contenus ainsi que d’amélioration de la pertinence des résultats de recherche s’appuyant sur du machine learning.

Sinequa (2002, 5,33 millions de dollars) est un fournisseur de solutions de big data et d’analyse de données pour les grandes entreprises. Il fournit un moteur de recherche sémantique capable d’exploiter les données issues de nombreux progiciels (ERP, CRM, gestionnaires de contenus, etc). La société a annoncé en 2015 investir dans le machine learning pour améliorer la performance de ses solutions.

Dataiku (2013, 3,5 millions de dollars) fait évoluer les concepts de business intelligence et de data mining ave son Data Science Studio, un ensemble d’outils d’analyse de données qui exploitent du machine learning pour la création de modèles de données et de simulations.

Heuritech (2013) propose sa solution logicielle Hakken d’analyse sémantique, de tagging et classement automatiques de textes, images et vidéos sous forme d’APIs. Ils proposent aussi HeuritechDIP qui permet d’améliorer sa connaissance des clients et d’anticiper leurs besoins, évidemment, surtout dans les applications de commerce en ligne. Le tout s’appuie sur force marchine et deep learning. La start-up s’appuie sur les travaux de recherche de deux laboratoires publics le CNRS LIP6 and l’ISIR de l’UPMC (Paris VI).

 

2Smart Me Up (2012, 3 millions d’euros), vu aux CES 2015 et 2016 propose une solution logicielle d’analyse des visages. Elle détecte l’âge, le comportement et les émotions des utilisateurs. La solution est bien entendu plutôt commercialisée sous forme de brique logicielle en marque blanche utilisable dans des applications métier.

Moodstocks (2008) propose une solution mobile de reconnaissance d’images, fournie sous la forme d’APIs et d’un SDK multi-plateforme.

Objets connectés

C’est un domaine où les entrepreneurs français sont assez prolixes en général. Il n’est donc pas étonnant d’y trouver quelques start-up intégrant des briques d’IA dans leurs solutions. Le scénario le plus répandu est lié à la consommation d’énergie et à la maison connectée, avec des solutions faisant de l’auto-apprentissage du comportement de ses habitants pour piloter des actions d’économies d’énergie et d’automatisation diverses.

Craft.ai (2015, 1,1 million de dollars) est une très jeune start-up spécialisée dans l’Internet des objets. Elle permet de créer des solutions logicielles d’orchestration d’objets connectées qui apprennent toutes seules des comportements des utilisateurs et des données environnementales captées par les objets connectés. La solution est commercialisée sous la forme d’APIs destinées aux développeurs d’applications. L’approche est intéressante dans son principe. Reste à trouver un modèle économique solide.

 

3Angus.AI (2014) est un peu l’équivalent de Craft.ai, mais pour les robots. La start-up, créée par des anciens ingénieurs d’Aldebaran qui ont développé la partie logicielle des robots Nao et Pepper, propose une solution logicielle embarquée dans les robots leur apportant les fonctions de base de reconnaissance vocale et faciale et de détection d’obstacles. Elles sont fournies sous la forme d’un kit de développement et d’API (interfaces de programmation). Les ingénieurs s’appuient beaucoup sur des solutions open source du marché. Ils travaillent déjà avec la SNCF, mais pas sur des robots.

Ubiant (2011), basé à Lyon, était également présent au CES de Las Vegas en 2015 et 2016. Il propose une solution matérielle et logicielle de gestion de la maison intelligente, de l’éclairage et de l’énergie qui s’appuie sur du machine learning et sur le Luminion (ci-dessous), un objet connecté interagissant avec l’utilisateur via des LED de couleur indiquant si la consommation du foyer est supérieure à celle du voisinage. C’est une offre B2C.

 

4Vivoka a développé Lola, un logiciel de contrôle des équipements de la maison connectée. Elle s’appuie sur une box reliée à Internet qui se pilote via une application mobile et par commande vocale. Le projet lancé sur Kickstarter n’a pas porté ses fruits.

Iqspot (300 000 euros) est une start-up bordelaise qui analyse la consommation énergétique des bâtiments et sensibilise ses occupants pour la diminuer. Le tout avec du machine learning.

Xbrain (2012) est une start-up française, établie dans la Silicon Valley ainsi qu’à Paris et Lille, qui se spécialise dans les applications de l’IA à l’automobile et la robotique. Sa plateforme xBrain Personal Assistant permet de créer des agents conversationnels. Elle s’appuie sur la reconnaissance vocale, sur la gestion de contexte, sur la détection des intentions et la gestion de règles. Son créateur, Gregory Renard, planche sur l’IA depuis près de 20 ans.

Scortex (2016) développe des solutions matérielles et logicielles apportant l’autonomie aux robots et aux objets connectés qui intègrent notamment la reconnaissance d’images et de la parole. Ils ont même développé un chipset à base de réseaux neuronaux.

E-commerce

L’écosystème français a toujours été prolixe en start-up B2B et B2C dans le secteur du e-commerce et du marketing. Il est donc normal d’y retrouver quelques start-up intégrant de l’IA.

AntVoice (2011, 2 millions de dollars) propose une solution de recommandation prédictive pour les sites d’e-commerce qui s’appuient sur de l’intelligence artificielle. C’est un spécialiste du big data marketing.

Dictanova (2011, 1,2 million d’euros) est une société nantaise à l’origine d’une solution d’analyse textuelle des feedbacks clients dans les réseaux sociaux ou sites de vente en ligne, en liaison avec les outils de CRM pour optimiser la relation client. Les techniques utilisées comprennent l’analyse sémantique de textes et la classification automatique. La solution est fournie en cloud.

Modizy (2012, 275 000 dollars) propose un assistant d’achat dans la mode basé sur un algorithme d’intelligence artificielle. Modizy propose aussi une place de marché reliant consommateurs et marques.

Tastehit (2014) utilise du machine learning et du big data pour personnaliser les sites d’e-commerce en temps réel. Donc, une offre B2B.

CompareAgences (2012) intermédie la relation entre agents immobiliers et particulier dans le cadre de la vente de biens. La start-up emploie 12 personnes et génère 200 000 visiteurs uniques par mois. 1 000 agences immobilières sont intégrées en France. Le tout est à base de machine learning, sans plus de précisions.

Santé

C’est un domaine très porteur pour les applications de l’IA. Seulement voilà, nous sommes un peu à la traîne dans l’une de ses grandes applications : la génomique. Mais la santé va au-delà de la génomique, heureusement.

CardioLogs Technologies (2014) a créé une solution d’interprétation automatique des électrocardiogrammes (ECG) en temps réel s’appuyant sur du machine learning. Uberisation en puissance des cardiologues ? Pas si vite ! Cela permet surtout de rendre un suivi plus régulier des patients à risques ou atteints de maladies chroniques.

Dexstr.io (2014) est une start-up toulousaine fournissant la solution Inquiro qui exploite les données médicales non structurées pour faciliter la recherche d’informations pour les sociétés de pharmacie. En gros, c’est de la recherche documentaire, un peu comme le font Sinequa et Antidot, mais avec un tuning adapté à la documentation scientifique dans la santé. Leur concurrent serait plutôt l’application d’IBM Watson à l’oncologie.

Khresterion (2014) propose un logiciel d’aide au diagnostic et à la prescription pour les cancers. La solution fonctionne sur un principe voisin de celui d’IBM Watson, compulsant la littérature scientifique et les données des patients pour proposer divers traitements avec leurs avantages et inconvénients comme les effets secondaires. La société aurait comme prescripteur des organismes de remboursement comme Humanis, Axa et la Maaf. Sa solution commence aussi à être utilisée dans la finance, là où les cycles de vente sont probablement plus courts.

Applications métiers

C’est là que la créativité est la plus développée, comme nous l’avions vu dans l’article précédent de la série au sujet des start-up américaines.

Snips.ai (2013, 6,3 millions de dollars) est une start-up connue du secteur de l’IA, créée par Rand Hindi (prix du MIT 30 en 2015), Mael Primet et Michael Fester. Leur dernière levée de fonds de 5,7 millions d’euros en juin 2015 présente la particularité d’associer Bpifrance avec des investisseurs américains, en plus de business angels tels que Brent Hoberman et Xavier Niel. L’équipe comprend 35 personnes : des data-scientists, des développeurs, designers et quelques marketeurs. Leur positionnement est large et un peu vague : rendre la technologie invisible et les usages intuitifs via de l’IA. A ce titre, la start-up a développé des applications expérimentales telles que :snips (un ensemble d’applications de recherche pour iOS dont un clavier virtuel intelligent pour la recherche d’adresses), Tranquilien (qui prédit les places disponibles dans les trains de banlieue), Parkr (la même chose pour prédire les places de parking), Flux (qui identifie le trafic mobile en s’appuyant sur les données des smartphones), RiskContext et SafeSignal (identification de risques d’accidents sur la route). La start-up planche aussi sur des applications verticales : pour les véhicules connectés, dans l’hôtellerie, la maison connectée et les loisirs numériques. Le tout s’appuie sur force machine et deep learning, modèles probabilistiques, traitement du langage, gestion de graphes et aussi encryption des données pour garantir la vie privée. Derrière la vision, l’implémentation et l’expérimentation, on leur souhaite de réussir la businessmodelation.

 

5

6

Jam (1 million d’euros) a créé un agent conversationnel SMS pour étudiants. Ils ont ISAI Ventures dans leur capital. La solution utilise une combinaison d’IA et de vrais intervenants humains pour assurer une bonne qualité des réponses. Leurs outils d’IA sont en open source.

Julie Desk (2014, 993 000 dollars), basé à Paris, propose un service d’assistante virtuelle fonctionnant sous la forme d’un agent conversationnel opérant en français et en anglais. Il gère surtout votre agenda et répond à vos mails à votre place pour prendre des rendez-vous avec vos interlocuteurs. Comme pour Jam, l’agent fonctionne en mode supervisé par des opérateurs, ce qui permet d’assurer une bonne qualité de service. Les tarifs vont de 50 à 80 euros par mois. Il est notamment utilisé par des entrepreneurs de startups. Mais l’agent ne répond pas encore au téléphone.

 

7Riminder (2015) est une start-up spécialisée dans les RH qui s’appuie sur du deep learning pour proposer des outils d’aide à la décision. Il aider les chercheurs d’emploi à construire leur parcours professionnel et les actifs à développer leur carrière, en exploitant une base de connaissance de plusieurs millions de parcours de cadres.

Niland (2013) est une participation de IT Translation, la structure de valorisation des projets de recherche issus notamment de l’INRIA. Mais la startup a été créée par des anciens de l’IRCAM et s’appuie sur 10 années de travaux de recherche. Elle utilise le deep learning analysant le contenu de la musique pour rendre son exploration dans les plateformes de diffusion plus intelligente. Elle identifie les similarités entre morceaux pour les classifier automatiquement. La solution sera exploitée par CueSongs (UK, une société fondée par le chanteur Peter Gabriel) et motionelements (Singapour) qui sont dédiés aux professionnels de la musique. La solution est aussi illustrée par le service en ligne www.scarlett.fm et s’appuie sur SoundCloud pour vous permettre de créer une web radio personnalisée en fonction de vos gouts.

Yseop (2008) propose son agent conversationnel Savvy. Nous l’avions déjà évoqué dans le troisième article de cette série.

Séline (2013), édité par la société Evi, propose une panoplie d’applications bureautiques intégrant un agent conversationnel permettant de dialoguer et poser des questions en langage naturel. On y trouve notamment un traitement de texte, un tableur, un gestionnaire d’agenda, un carnet d’adresses, un gestionnaire de tâches, une médiathèque, un logiciel de gestion de finances et un gestionnaire de messagerie instantanée. Dilemme classique : faut-il recréer tout un existant complexe pour y intégrer une nouvelle fonction ou ajouter cette fonction aux produits existants du marché (Microsoft Office, Open Office). Question d’ouverture, de simplicité de mise en oeuvre et de modèle économique!

Dans mon précédent article sur l’écosystème entrepreneurial de La Réunion, j’avais aussi identifié quelques startups qui utilisent le machine learning : logiCells (ERP sémantique) et Teeo (analyse de consommation d’énergie pour les entreprises). A contrario, certaines start-up font appel à des briques d’IA comme le machine learning mais préfèrent ne pas l’évoquer dans leur communication.

Ce tour est probablement incomplet et les oubliés du secteur se feront immanquablement connaître pour intégrer cette liste que je mettrai à jour au fil de l’eau. A vrai dire, d’ici peu de temps, l’usage de machine learning sera aussi courant dans les start-up que l’appel à des bases de données NoSQL : une banalité !

Le top du top de la start-up d’IA ? Utiliser l’IA dans une solution d’agent conversationnel en cloud qui fait du big data sur des données issues de l’IoT en sécurisant les transactions via des blockchains. Le bingo de la start-up d’IA est lancé !

Article initialement publié sur le blog Opinions Libres.

Par Olivier Ezratty, expert FrenchWeb

 

Quelle sera l’orientation du Big Data au cours des cinq prochaines années ?

where-is-big-data-headed.jpg

Au cours des prochaines années, nous allons cesser de parler de Big Data. C’est une expression qui a fait son temps. En effet, elle avait avant tout pour but de mettre l’accent sur la quantité de données sans précédent générées par les activités informatiques d’aujourd’hui. Il nous fallait catégoriser ce phénomène pour pouvoir utiliser notre expertise en vue de développer de nouveaux outils capables de gérer cette avalanche de données.

 

Au cours des années à venir, ces outils gagneront en maturité et toutes les entreprises adopteront des processus capables de prendre en charge et d’exploiter de façon optimale des volumes de données croissants. Ainsi, l’expression « Big Data », qui insiste principalement sur l’idée de volume, deviendra obsolète. Nous parlerons simplement de données.

Le « Big Data » va-t-il pour autant disparaître ? Le terme en lui-même va peut-être disparaître. Parallèlement, l’augmentation constante du volume de données, qui s’accompagnera d’une fidélité inégalée, va accélérer la transformation des entreprises. Néanmoins, il est difficile de prévoir quelle sera l’ampleur de ces changements. Cependant, certaines tendances claires présagent de l’orientation du Big Data au cours des cinq prochaines années.

Les outils d’analyse du Big Data vont se généraliser

La science des données reste, pour le moment, une science obscure, limitée à quelques personnes maîtrisant suffisamment les mathématiques et le code pour bien comprendre et exploiter les données brutes. Il y aura toujours une place pour les spécialistes des données. Cependant, comme je l’ai expliqué sur ce blog dans un article précédent, le Big Data est avant tout une formidable opportunité pour les développeurs de créer des applications, des plates-formes et des API permettant une analyse en « libre-service » du Big Data. Il ne s’agit pas uniquement des tableaux de bord existants, mais d’outils qui permettent aux cadres de combiner et de mettre en contexte les flux de données de manière pertinente.

L’hybridité va perdurer

La lutte entre Clouds publics et Clouds privés est déjà dépassée. Les Clouds hybrides resteront le premier choix des entreprises, puisqu’ils proposent différents modèles de stockage et de traitement de données adaptés à des types de données spécifiques. À titre d’exemple, il est tout à fait logique que les entreprises spécialisées dans la fabrication conservent sur leurs propres serveurs internes des instructions exhaustives sur la production des pièces pour les usines automatisées, tandis que les données de vente et de stock sont regroupées sur le Cloud public. Les produits que l’entreprise doit fabriquer dépendent à la fois de ces deux pools de données, c’est pourquoi les interfaces entre composants publics et privés du Cloud vont gagner en importance.

Toutes les entreprises vont considérer les données comme une marchandise

En 2015, beaucoup de sociétés vendent des données et il existe de nombreux modèles économiques dans ce domaine. À l’avenir, les données vont revêtir une importance cruciale pour toutes les entreprises et cette approche sera beaucoup plus répandue. Chaque donnée d’une entreprise sera considérée comme une marchandise de valeur, à protéger ou à échanger avec d’autres entreprises.

Le Big Data va continuer à se développer

Nous en sommes encore aux tout premiers stades de la croissance du volume des données. L’Internet des Objets sera le principal moteur de ce phénomène et il n’en est encore qu’à ses balbutiements. Au cours des cinq prochaines années, le nombre de dispositifs intelligents connectés, utilisés dans la sphère personnelle ou professionnelle, va augmenter de plusieurs dizaines, voire de centaines, de millions, générant une quantité exponentielle de données.

Les données vont être à l’origine d’une approche plus personnelle

Les médias sociaux ont créé un lien direct entre le client et l’entreprise. Ils ont fourni aux entreprises des données de sentiments très utiles pour prédire les tendances de la demande et découvrir de nouvelles opportunités. Bien que certains puissent s’en inquiéter, l’IoT (et notamment les dispositifs portables) va permettre d’obtenir une meilleure connaissance du client, permettant aux entreprises de personnaliser leur approche en matière de service client. Les clients vont s’attendre à des produits et services parfaitement adaptés à leurs besoins spécifiques.

Prédire l’avenir reste un pari risqué. Malgré tout, on peut sans trop s’avancer prédire que le Big Data va susciter de profonds changements au cours des cinq prochaines années.

 

À propos de l’auteur : David Chassan

Jeunisme, Big Data… 5 idées reçues sur le leadership à l’ère digitale

Le leadership, cette capacité à mobiliser les énergies autour d’une action commune, est le levier de la transformation digitale pour 4 décideurs sur 5, interrogés récemment par Deloitte.

Alors pourquoi si peu d’efforts sont déployés dans ce sens ? Voici une tentative d’explication sur le leadership digital pour mettre fin à 5 clichés :

1- Tout sera réglé quand les millenials seront aux commandes

Nous voilà donc sauvés. Il suffit d’attendre que les digital natives prennent le pouvoir pour que la transformation opère. Un shadow Comex composé de moins de 35 ans comme chez Accor va bien sûr dans le bon sens.

Mais certaines entreprises reviennent déjà de ce jeunisme exacerbé dans leur recrutement : le leadership digital est aussi une question de vision, de frugalité, de capacité d’engagement. Au cas où l’âge n’y serait pour rien, veillez à ne pas vous séparer trop vite vos digital migrants.

2 – L’exemplarité du boss va entraîner le reste de l’entreprise

image: http://www.frenchweb.fr/wp-content/uploads/2016/02/zuckerberg-samsung.png

zuckerberg-samsung

Difficile d’aller à l’encontre de ce postulat, d’autant que le digital est avant tout «performatif»: il y a ceux qui en parlent et ceux qui le font.

L’exemplarité fait sens pour fertiliser l’entreprise. Un simple coup d’oeil sur les comptes Twitter de jeunes actifs ou de pré-adolescents peut encore faire rougir nos patrons du CAC 40. Mais la corrélation immédiate entre le leadership digital et le nombre de followers est encore largement à prouver.

La bonne distance et la capacité de réflexivité face aux outils numériques peuvent être un meilleur levier. Le succès du repreneur de la Camif, Emery Jacquillat s’explique en partie parce qu’il a su créer de l’envie plutôt que de la peur pour digitaliser l’entreprise.

3- Rester toujours connecté est un atout décisif

«La technologie est là pour améliorer votre vie, pas pour s’immiscer entre vous et votre vie» (Randi Zuckerberg). La surcharge cognitive des outils numériques affaiblit la concentration. Notre cabinet accompagne des CDO, des décideurs IT de moins de 30 ans au bord du burn-out. Au-delà de ces cas extrêmes, la pression de l’immédiateté et de l’infobésité brouillent les repères. Le «temps long» est indispensable à notre cerveau qui est loin d’être aussi doué pour le multi-tasking. Se déconnecter permet paradoxalement de mieux se reconnecter et gagner en sérénité.

4 – Grâce au Big Data, plus besoin de leadership : l’algorithme va prendre les commandes

La redistribution des rôles entre les machines et les talents s’accélèrent. S’agissant de volume de données, de variété, de vitesse d’analyse (…), la machine a déjà gagné. Mais la modélisation et l’algorithmie sont finalement assez peu challengées par nos décideurs. Les KPI et la data-visualisation font loi. Partager les techniques de data analyse favorisent le décloisonnement dans l’entreprise et mieux encore la permission marketing quand elles sont mises en co-construction avec les clients (cf. Le DataLab de la  Poste ou le projet MesInfos de la FING). Si la data entre les mains d’une poignée d’experts et de fabricants de logiciels «propriétaires» prend le pas sur la décision entrepreneuriale, attendez-vous à une dilution des responsabilités, voire un mauvais remake de minority report.

5 – La compétence et les méthodes agiles vont remplacer l’autorité

Un leadership fondé uniquement sur la compétence digitale est une prise de risque, tout simplement parce que son obsolescence est déjà programmée. Plus que des certifications ou des diplômes, l’interdisciplinarité, l’autodidaxie, et l’élasticité managériale permettent un recul indispensable face à la révolution numérique: il n’ y a pas de modèle préétabli face à l’accélération et les disruptions, mais plutôt une démarche et surtout un état d’esprit. La transformation est difficile voire impossible quand les méthodes ou l’expertise deviennent une finalité plutôt qu’un moyen.

 

Macintosh HD:Users:nathalieschipounoff:Desktop:Capture d’écran 2016-03-06 à 21.40.46.png

              Ryan McGuire

Pour beaucoup encore, la performance et la posture «digitale» sont les clés de cette transformation : comment ne pas être fasciné par le leadership d’Elon Musk, le patron de Tesla et de Space X. Son niveau d’exigence lui permet de repousser les limites comme personne. Mais ses méthodes managériales interrogent. Du haut de ses 23 ans le chevalier blanc de la data, Paul Duhan est presque plus inspirant pour ses valeurs sur le bien commun et sa quête de sens. Pour lui, «l’algorithme ne fait pas tout» : quand vous êtes né du bon côté de la barrière, dans la bonne partie du monde, fait de bonnes études, vous avez en fait déjà gagné au loto. Alors pourquoi monter sa start-up ou digitaliser l’entreprise, si c’est juste pour gagner plus d’argent ?

  • A propos

 

nathalie-schipounoff

Conférencière et coach de dirigeants, Nathalie Schipounoff avec plus de 15 ans d’expérience dans le numérique, est co-fondatrice du cabinet Le Leader Digital. Ce cabinet accompagne les CoDir, les DRH dans la transformation digitale pour préparer les hommes et changer le management. Membre des jurys des Trophées du CoDir digital 2015 organisé par le groupe RH & M et co-auteur chez Eyrolles de Et si j’apprivoisais mon chef pour se protéger du management toxique et des fiches outils du webmarketing (Hub awards 2015).

Par Nathalie Schipounoff, cofondatrice du cabinet Le Leader Digital

Quand les algorithmes détectent les fausses informations financières

 

 

  • Quand algorithmes détectent fausses informations financières

Des logiciels sont désormais capables de repérer des anomalies dans les informations financières communiquées par les entreprises.

Le Big Data au quotidien. Il est maintenant constaté et admis que l’information est partout via notamment les diverses connexions que nous utilisons : internet, objets connectés… Appliqué à la finance, le Big Data est bien sûr présent dans les transactions boursières .

Il s’est affiné depuis quelques années jusqu’à la lecture des bilans pour en dégager des modèles d’opinion sur les entreprises. D’une manière générale, l’information devient de plus en plus accessible de par l’analyse « industrielle » de documents au moyen d’ algorithmes adaptés .

La communication financière mise à l’épreuve

Cette surenchère de robots a pour conséquence une évolution des moyens de surveillance des autorités financières notamment qui tentent de prévenir et/ou de déceler les manipulations de cours de bourse par exemple. Inversement une entreprise peut être tentée d’utiliser un logiciel pour détecter un autre logiciel censeur et satisfaire ainsi aux normes prescrites, alors que le produit n’est pas conforme.

Les affaires financières qui ont éclaté au grand jour (Enron et consorts) ont paradoxalement affiché une communication financière répondant aux critères requis dans une parfaite conformité. De même, les conseils d’administration ainsi que les contrôleurs des comptes approuvaient les fausses situations affichées. Ce sont des détails qui ont mis à jour les scandales (notamment le hors bilan de Enron, un salarié qui révèle une manipulation par ailleurs…).

Déceler les informations dissimulées

L’émergence du Big Data met à l’épreuve la communication financière des sociétés, car une masse d’information circule à leurs propos et n’est pas contrôlée par les protagonistes : salariés, dirigeants, fournisseurs, banques, journalistes, actionnaires, autres parties prenantes, environnement économique, géopolitique…

L’entreprise communique ses états financiers qui seront confrontés à une masse d’information via des algorithmes qui croiseront toutes ces données. Une information dissimulée pourrait être révélée incidemment par le truchement d’événements apparemment anodins dans un contexte géopolitique par exemple.

Mieux choisir ses investissements

Les gendarmes boursiers sont équipés de logiciels capables de détecter des anomalies dans les informations émises. Exemple en Colombie-Britannique (Canada). Les investisseurs, et notamment les activistes, recherchent continuellement l’information qui orientera le choix de l’investissement et sont très certainement à la pointe de l’élaboration de l’algorithme pertinent.

Actuellement, la société Muddy Waters est particulièrement active sur le cours de Casino. Sans se prononcer sur le bien-fondé de ses déclarations, il est fort probable que ce cabinet utilise, entre autres, des moyens de recherche d’information liés au Big Data. Inversement, cette démarche peut être gratifiante pour l’entreprise « vertueuse » qui n’est pas prise en défaut et qui peut donc faire l’objet de recommandations d’achat. Le Big data sera peut-être l’épreuve de vérité pour la communication financière qui passera sous les projecteurs des algorithmes.

Par  Patrice Bloch, consultant en conseil de direction

 

Le Big Data : un enjeu pour les industries créatives

ARTICLE  par  Jean-Paul SIMON
Le Big Data : un enjeu pour les industries créatives
Anticipation de la demande, création de nouveaux contenus ou mise en avant d’artistes, que font les industries créatives avec le Big Data ?

Sommaire

La notion de Big Data, en français « mégadonnées »[+] ou « données massives » s’est rapidement répandue depuis quelques années, portée par des sociétés de conseil et largement relayées par les médias, puis les pouvoirs publics, sans pour autant faire l’objet d’une définition précise. Ces données sont souvent présentées comme le « nouvel or noir de la croissance », voire le « futur moteur » de l’économie. Comment définit-on le Big Data, quel est son périmètre et la taille du marché ? Comment les industries créatives en tirent-elles parti ?

La valse des zettabytes ou la folie des grandeurs

Selon les estimations les plus plausibles[+], mais il ne s’agit que d’un ordre de grandeur, la masse de données disponibles dans le monde serait passée de 3 milliards de gigabytes[+] en 1987 à 300 milliards en 2007 soit une multiplication par 100 en l’espace de 10 ans[+]. L’explosion annoncée des données (jusqu’à 7 zettabytes prévues pour 2015) provient de la croissance exponentielle des données disponibles, combinée à une capacité toujours plus grande de collecter, traiter et analyser ces données. Elle aura été rendue possible par le déploiement des infrastructures de réseaux (haut débit et de plus en plus, très haut débit), ainsi que par l’équipement des ménages en terminaux divers, avant tout mobiles (smartphones, tablettes et phablettes).

Ces données proviennent de sources diverses et hétérogènes : des individus eux-mêmes, des machines ou des capteurs. Il s’agit à la fois d’informations générées passivement, sous-produits d’une activité communicationnelle, et d’informations délivrées volontairement sur Internet. La fusion des données provient donc de sources disparates, numériques ou analogues[+].
L’indicateur le plus simple de cette explosion est la croissance impressionnante du trafic de données mobiles, suivie annuellement par Cisco qui souligne notamment la dominance des données vidéo[+](près de 80 % du total prévu à l’horizon 2018) ainsi que le rôle moteur des consommateurs.

Cette combinaison des infrastructures et des terminaux adéquats ouvre la voie à un développement de l’Internet des objets qui va encore accroitre le nombre de données. IDC prévoit la connexion de 212 milliards de terminaux pour 2020. De la même façon, les communications de machine à machine (M2M) sont en augmentation constante du fait de la baisse des coûts, d’une couverture améliorée, d’une offre de technologies radio plus pertinentes et d’un nombre croissant d’applications. SAP prévoit plus de 2 milliards de terminaux connectés pour 2021 contre seulement 200 millions en 2013.
En valeur, le marché des mégadonnées estimé par Transparent Market Research à 6,3 milliards de dollars en 2012, devrait atteindre 8,9 milliards en 2014 pour s’élever à 48,3 milliards en 2018. IDC indique 16,1 milliards de dollars pour cette même année 2014[+].

Revenir au sommaire

Des contours incertains

Il reste à se demander à quoi renvoient ces chiffres et quels processus ils recouvrent. La confusion règne le plus souvent en matière de définition. Malgré la pléthore de rapports en la matière,  il n’existe pas de définition reconnue des Big Data il n’existe pas de définition commune des Big Datareconnue sur le plan international, pas plus que de définition opérationnelle qui servirait à comprendre les développements des marchés, les contours du secteur et la nature des activités qui s’y déroulent. Confusion qui pourrait bien être voulue, car le flou renvoie souvent à des stratégies de vendeurs, comme le note perfidement Tim Harford.

On peut faire remonter la notion deBig Data à un rapport du Meta Group de 2001 qui identifiait trois dimensions de la croissance des données, les 3V : le volume[+], la vélocité[+] et la variété[+]. Sont venus s’ajouter trois autres V, la véracité[+], la valeur et la visualisation, ainsi que la complexité[+].

Les processus liés aux Big Datarenvoient à l’extraction (« data mining ») et au traitement d’un volume très important de données afin de mieux comprendre le comportement du consommateur, de gérer les chaînes de production ainsi que de nombreux autres aspects de l’activité économique.

La chaîne de la valeur des Big Datacomprend l’acquisition de données (structurées ou non), l’analyse, la conservation, le stockage et l’utilisation de ces données à des fins diverses : prévision, simulation, exploration, visualisation, modélisation. Les composants de base sont les logiciels (de loin le plus important selon IDC), le matériel et le stockage. De nouveaux outils sont apparus pour extraire, charger et transformer les données, et de nouvelles technologies telles Apache Hadoop[+] et NoSql sont au cœur du traitement.

Revenir au sommaire

Inflation verbale ou réalité économique?

Depuis 2001, de nombreux rapports, émanant de sociétés de conseil pour la plupart, se sont succédé pour enjoindre aux « naïfs » d’ouvrir les yeux face au phénomène des Big Data. Toutefois, le rapport de McKinsey de 2011 restait prudent, se contentant de fournir des exemples d’applications pour quelques secteurs alors impliqués. Toutefois, il notait déjà que tous les secteurs industriels n’étaient pas égaux face aux Big Data. Le rapport indiquait que les « suspects habituels » (fabricants de produits électroniques et acteurs du traitement de l’information) étaient les plus à même de bénéficier de manière substantielle de l’accès à de vastes quantités de données, ainsi des sociétés du monde de l’internet qui récoltent des masses de données. En revanche, des secteurs tels que la construction, l’éducation et les arts et loisirs donnaient des signes de productivité négative ce qui révélait la présence de barrières systémiques jouant contre l’accroissement de la productivité.

De la même façon le cabinet IDC[+], notait que les bénéfices escomptés  n’étaient pas toujours clairs. La société indiquait notamment qu’en 2013 environ 5 % de la masse des données avait une utilité, même s’il prévoyait un doublement pour 2020. La pénétration du M2M serait de l’ordre de 2 % des abonnements aux réseaux dont on mesure le trafic, soit environ 0.1 % du trafic de données mobile.

De plus, selon le rapport SAS 2013, la plupart des organisations n’ont pas développé, mis en place, ni exécuté une quelconque stratégie concernant les mégadonnées. Rien d’étonnant alors à ce que les sociétés de conseil insistent sur la nécessité d’acquérir une « mentalité ouverte aux données ». Toutefois, toutes les sociétés ne disposeront pas de spécialistes en la matière, ce qui pourrait constituer a fortiori une barrière à l’entrée non négligeable, exigeant investissements en formation et en temps.

Dans un livre blanc (2014), le monde de l’édition de livre souligne déjà ce point particulièrement sensible pour les petites maisons d’édition, ajoutant que, de surcroît, l’expertise extérieure est coûteuse. Le livre blanc note que les fournisseurs de services de technologies, tels que Klopotek[+]ou Publishing Technology[+], privilégient les grands éditeurs internationaux ou les éditeurs scientifiques et techniques qui ont déjà sauté le pas, même si on peut espérer qu’à terme la baisse des coûts, ou une concurrence accrue, élargiront leur base de clientèle. En tout état de cause, Macmillan est devenu un partenaire incontournable de sociétés telles que Next Big Book qui offre des services de traitement des Big Data. Ces deux sociétés ont développé un tableau de bord pour identifier et suivre les facteurs ayant le plus d’influence sur les ventes de livres.

Revenir au sommaire

La signification du phénomène pour les industries de contenu

L’élimination de ces barrières provoquera des tensions et des conflits aussi longtemps que le rapport coût/bénéfice restera incertain, comme ce fut le cas de l’informatisation des sociétés dans les années 1970. Dès lors, la question qui se pose est de savoir ce que l’on peut faire, en réalité, de ces Big Data, car une estimation de la taille des marchés (volume, valeur) ne suffit pas à rendre compte du phénomène.

Les Big Data ont fait irruption au début de ce siècle, portées par des start-ups et des sociétés de l’Internet telles eBay, Facebook, Google ou LinkedIn, qui se sont construites sur ces mégadonnées, sans avoir à les intégrer à des sources de données plus traditionnelles. On leur doit d’ailleurs une partie des technologies actuelles dans le domaine: Google a été l’inspirateur de Hadoop, Facebook a développé Cassandra. Ces sociétés ont porté le passage de l’ « analytique 1.0 »[+], selon T. H. Davenport et J.Dyché, à l’ « analytique 2.0 » à partir de 2005 en exploitant leurs données en ligne, pour déboucher sur  « l’analytique 3.0 » à partir de 2012, qui ouvre la voie aux données « prescriptives ».

De fait, les « dragons numériques »[+] sont intrinsèquement les mieux placés pour tirer parti de cette évolution, des nouvelles formes d’analyse des mégadonnées et du « cloud computing »; Amazon (AWS) comme Google (Big Query) et Microsoft (Azure) en sont les principaux fournisseurs de services pour tiers. Les nouveaux acteurs du numérique sont aussi les pionniers de l’extraction des données pour la compilation des recommandations de leurs utilisateurs (Amazon, Netflix, Pandora, Zynga…).

Les fournisseurs de contenus créent des unités pour superviser leurs activités d’analyse, tels Amazon et LinkedIn créant des « centres d’excellence », Netflix centralisant complètement cette activité. La société de distribution de films a produit sa série à succès House of Cards  après analyse des données de sa base de clientèle, soit des millions d’interactions quotidiennes, des millions de recherches, ainsi que des tags et autres métadonnées. Amazon Publishing repère les œuvres épuisées (AmazonEncore) ou à traduire (AmazonCrossing) à partir des données clients. Google, comme Zynga, s’appuie sur un département opérationnel, la société de jeux vidéo ayant été la première à relier la conception de jeux à son modèle d’affaires[+](jeux gratuits et ventes d’articles virtuels). Spotify s’est illustrée par ses prévisions pour les Grammy Awards effectuées à partir de l’analyse des flux de données.

Revenir au sommaire

Big Data : de nouveaux services pour les industries créatives

De nouvelles sociétés sont apparues pour offrir leurs services aux industries créatives. Les acteurs de la musique, du cinéma ou de l’édition se voient proposer toutes sortes de services à des fins commerciales.

Next Big Sound, une société lancée en 2009, analyse toutes sortes de données pour l’industrie de la musique (provenant de YouTube et Spotify, de statistiques issues des medias sociaux) afin de déterminer le meilleur canal de vente. La société indique traiter désormais les données pour plus de 85 % de l’industrie de la musique). Depuis son lancement en 2009, la société a recueilli plus de 4 années de données sur les réseaux sociaux pour des centaines de milliers d’artistes. Elle établit des corrélations entre les ventes et les chiffres de streaming. Elle entend contribuer à une redéfinition de la façon dont les musiciens sont découverts, commercialisés et évalués en liant perception, implication et recettes. Sa filiale, Next Big Book suit auteurs et livres par l’intermédiaire de plusieurs réseaux sociaux, des données de vente et provenant d’événements.

Persistent Systems a aidé Chennai Express, l’un des films les plus gros vendeurs d’entrée du box-office indien, pour sa campagne de marketing, en analysant plus d’un milliard de réactions et un nombre total de plus de 750 000 tweets pendant les 90 jours de cette campagne.
United Talent Agency et Rentrak, société spécialisée dans les mesures d’audience cinéma et TV, ont créé un service PreAct à l’intention de l’industrie du cinéma qui dissèque, à base d’algorithmes, les données de réseaux sociaux. La société a comme client Sony Entertainment et 20th Century Fox.

L’analyse des données permet aussi dans le cas du cinéma, comme de la musique de partir du piratage pour, à l’inverse, stimuler les ventes. Ainsi, le groupe de rock « Iron Maiden » qui avait repéré une forte croissance de fans et pirates en Amérique latine, y a organisé une tournée spécifique avec grand succès. La presse, elle, semble encore se chercher[+].

Revenir au sommaire

Mégadonnées ou méga-problèmes?

Les rapports et articles font souvent preuve de beaucoup d’optimisme en annonçant que le recours aux mégadonnées (Big Data) permettra, par exemple, aux cinéastes et à l’industrie cinématographique de prévoir les tendances. Ce déterminisme informationnel relève d’une conception mécaniste, quoique courante, du rôle de la technologie, qui comporte le risque de ne servir (souvent de façon inadéquate) que la majorité laissant de côté les minorités. De plus, les statisticiens le savent bien, corrélation ne signifie pas causalité. L’échec de la prévision de la grippe par Google (surestimation de l’ordre de 50 %)[+] est là pour nous le rappeler.

Les applications les plus fréquemment mises en avant relèvent du marketing (exemple de Criteo[+]) ou d’une forme ou d’une autre de commerce électronique, dont on perçoit aisément l’apport potentiel. Ainsi, dans l’exemple cité d’Iron Maiden il s’agit d’une rationalisation de détection de la demande. Toutefois, d’un point de vue plus qualitatif, dans l’univers des contenus, l’analyse des données peut s’avérer être un cercle vicieux du point de vue de la création et de l’innovation.  La prévision de la demande peut relever du fantasme Chercher ce qui est le plus populaire en musique comme au cinéma n’est pas forcément la meilleure façon de trouver des œuvres nouvelles et majeures. La prévision de la demande peut relever du fantasme et, en tout état de cause, les exemples cités, dont celui de Netflix, ne sont que des cas isolés jusqu’à présent. Il reste ainsi à voir si la firme de distribution peut confirmer ses succès dans la production, ou alors tomber dans les aléas habituels d’une profession marquée par l’incertitude. De fait, la dernière série en date, « Marco Polo”, ne semble pas susciter le même enthousiasme que Game of Thrones

Enfin, des problèmes plus généraux se posent en matière de protection de la vie privée : et de sécurité. Une enquête de 2012 de l’institut de recherche Pew Internet donnait un verdict pour le moins partagé entre ceux qui décelaient le fort potentiel des Big Data et ceux qui étaient de plus en plus préoccupés des abus possibles.

En ce qui concerne la protection des données, les normes de protection actuelles (anonymisation, consentement individuel et clause de retrait) s’avèrent de moins en moins appropriées et devront être modifiées notamment pour passer du contrôle des données elles-mêmes à leur utilisation, l’anonymisation des données devenant de plus en plus délicate. De plus, l’équilibre entre la collecte d’information à des fins sécuritaires et les droits fondamentaux se modifie.
La gestion de ces problèmes sociétaux majeurs prendra du temps, générera des tensions entre promotion de l’innovation et protection des droits. La technologie est autant une partie du problème que de la solution. Pour autant, les problèmes technologiques ne doivent pas être sous-estimés ni considérés comme réglés ou en voie de l’être. La poursuite de la croissance indéniable de cette valse des zettabytes passe par le déploiement de réseaux à même de traiter ces données (4G, 5G), de contribuer au développement de nouvelles applications, à la mise en place de nouvelles plateformes, au développement de nouveaux terminaux mobiles[+] à des prix accessibles et d’une connectivité appropriée.
Passer au crible une masse d’information est une opération complexe, le stockage de terabytes n’est pas simple non plus. Si les barrières à l’entrée peuvent se réduire avec la chute des coûts, notamment avec le « cloud computing », l’expertise reste coûteuse et peu ou pas présente dans les industries créatives.
Cette inégalité entre acteurs traditionnels des médias et dragons numériques est source de conflits, comme on l’a vu dans le désaccord qui a opposé Amazon et Hachette. Ce conflit renvoie à un problème de concurrence, de concentration du marché entre les mains des oligopoles du Big Data, de ces « barons des données »[+], même si pour l’instant, cette tendance a été contrecarrée par la vivacité de l’écosystème des start-ups dans le domaine.

En résumé, les mégadonnées sont peut-être là, mais la méga-vision manque encore à l’appel.

Revenir au sommaire

RÉSEAU SOCIAL ET BIG DATA

 Les réseaux sociaux d’entreprise n’ont pas tenu leurs promesses de performance, de transversalité ou d’intelligence collective.

20% seulement des projets ont produit des résultats mesurables et positifs !

Il serait donc grand temps de s’interroger sur les raisons de cet échec :

  • Mauvaise stratégie digitale ?
  • Manque d’accompagnement et de support ?
  • Mauvais choix de solution ?
  • Mauvaise connaissance de la culture, des attentes des salariés ?

Il y a un sérieux bilan à faire en s’inspirant des concepts de social business et digital workplace pour Que le RSE ne soit plus seulement une vague promesse de développer l’intelligence collective de l’entreprise mais réponde bien à des objectifs métiers, business, RH précis.

Pourtant cela ne semble pas être le cas en fait actuellement le mot à la mode, pour tenter de rebondir chez les éditeurs et certains consultants est : le Big Data !

Le réseau social fournissant des tonnes de données entres les fiches de profil, les discussions, les votes, sondages… c’est de l’exploitation de ces données que viendra la plus-value du réseau social.

Une belle fuite en avant que je ne recommande pas avant d’avoir trouvé la clef du succès de votre réseau social qui est souvent lié à son application business et son implémentation au cœur des process et non à côté.

Cependant le Big Data mérite mieux que d’être jeté par-dessus bord au titre de représenter un alibi aux échecs précédents et j’ai donc demandé à JC Dichant* de nous expliquer pourquoi selon lui ce n’est pas seulement une nouvelle mode.

————————————————————————–

 Jean-Christophe Dichant peux tu te présenter ?

C’est en répondant à un message de Vincent sur l’un des réseaux sociaux que nous fréquentons communément que ce dernier m’a proposé de participer à la rédaction de cet article. Mon parcours professionnel m’a permis d’intervenir régulièrement autour des thématiques de Gestion de l’Information et de Big Data et je m’intéresse de plus à tout ce qui concerne les réseaux sociaux d’entreprise comme grand public.

Après plusieurs années passées en tant qu’Ingénieur Avant-Vente chez un éditeur de solutions de Gestion de Contenus et de Processus, j’ai intégré l’équipe Information Management d’IBM Software. Œuvrant pour de nombreux projets de gestion de données non structurées, j’ai ensuite pris la responsabilité du Marketing de cette même entité, et me suis intéressé très tôt au phénomène Big Data naissant.

J’ai actuellement en charge la promotion du programme de support aux startups technologiques IBM Global Entrepreneur. Je suis en contact régulier avec de nombreux entrepreneurs dont les solutions utilisent les plateformes Big Data. Celles-ci sont la plupart du temps des solutions innovantes pour apporter un niveau de connaissance encore inconnu il y a peu. Ces solutions permettent de détecter signaux forts et signaux faibles, qu’il s’agisse d’un tableau de bord analytique pour les responsables marketing ou d’un outil d’écoute des réseaux sociaux pour gérer sa e-réputation.

 Définir Big Data : des 3 V aux 5 V !

Définir ce qu’est Big Data, au-delà des aspects logiciels, organisationnels et architecturaux, c’est s’intéresser aux 3V qui caractérisent les données considérées :

  • volume
  • variété
  • vélocité

On parle de projet Big Data dès lors que ces 3 critères sont réunis.

 V comme Volume

Big Data suppose d’importantes quantités de données à prendre en compte et à traiter par une approche que les solutions traditionnelles – bases de données – ne savent plus appréhender. Peu importe d’ailleurs la quantité que l’on met derrière le mot ‘volume’ tant qu’il s’agit d’un volume important ou en forte croissance pour votre activité habituelle.

 V comme Variété

Big Data s’intéresse aux données non structurées, dont les formats sont hétérogènes, de natures diverses et variées. Ces données sont difficilement traitables par les solutions traditionnelles qui n’ont pas pour finalité d’en analyser le contenu. Elles sont pourtant majoritaires (80% des données d’entreprise sont non structurées).

 V comme Vélocité

Big Data adresse des données qui arrivent à grande vitesse, en flux continu, qu’il faut pouvoir prendre en compte et traiter tout aussi rapidement.
Si ces trois critères sont réunis, alors on est en présence d’une problématique Big Data. Ce qui démontre bien au passage que Big Data n’adresse pas uniquement les quelques entreprises qui manipulent d’énormes volumes de données, mais bien toutes celles qui ont une problématique de type ’3V’. PME/PMI, vous en faites partie !
 
 Vers les ’5V’
Certains éditeurs ont récemment étendu le périmètre Big Data en ajoutant deux critères supplémentaires. C’est le cas d’IBM qui associe à Big Data :
 
– le V de Véracité : les données doivent être fiables et vérifiables pour pouvoir être prises en compte dans l’analyse,

– le V de Visibilité : les données doivent être interprétables par l’utilisateur et donc accessibles de la façon la plus conviviale possible.

Intégrer réseau social et Big Data, quel intérêt ?

De prime abord le lien entre réseau social d’entreprise et Big Data n’est pas évident. Quand bien même le réseau social génère un grand nombre de données non structurées, celles-ci sont rarement considérées comme typées Big Data. Les volumes ne sont pas si considérables, la vitesse de création de ces données dans le réseau social – vélocité – est faible. Le réseau social d’entreprise est loin de générer autant de données qu’un réseau social grand public, l’activité y est également moindre.

Néanmoins, et parce que cet article s’intéresse à l’échec mesuré de nombreux projets sociaux d’entreprise, il est important de se poser la question des raisons de ces échecs.
Une des raisons fréquemment évoquée par les utilisateurs est que le réseau social ne sait pas, ou pas bien, présenter une vision consolidée du flux de données : qu’est-ce qui se dit sur mes sujets de prédilection, quelles sont les tendances, quel est le sujet d’importance du moment que je ne dois pas rater ? Big Data peut répondre à ces attentes en fournissant des tableaux de bord basés sur l’analyse de ces données non structurées.
Big Data peut également répondre aux attentes de véracité de l’information : le réseau social doit donner des éléments d’informations fiables sans quoi il perd la crédibilité qu’on veut bien lui accorder. Et qui est la seconde raison de désintérêt pour les utilisateurs : en l’absence de données fiables, on n’utilise pas.

L’intégration Réseau social d’entreprise et Big Data une usine à gaz ?

Probablement, tant que les solutions de réseaux sociaux d’entreprise n’intégreront pas nativement des composants Big Data et des briques analytiques évoluées. L’infrastructure Big Data est complexe, une plateforme Hadoop est simple à mettre en œuvre mais complexe à utiliser et à optimiser. Les développements autour de Map Reduce, brique fondamentale de Big Data, nécessitent une forte expertise technique.

 Prochaines étapes ?

Les chemins divergent encore entre réseaux sociaux et Big Data mais vont finir par se croiser. Les éditeurs ne s’y trompent pas qui planchent déjà sur l’intégration de certains composants (gestion des flux et analyse des données par exemple, appliances Big Data).

Les solutions logicielles ne pourront néanmoins tout résoudre à elles seules. Face à la complexité de l’approche Big Data et aux changements de culture qu’imposent les réseaux sociaux, il est indispensable de savoir proposer un accompagnement adéquat, et d’apporter des réponses aux problématiques exposées plus qu’un catalogue d’outils mis à disposition d’utilisateurs qui ne les attendent pas nécessairement.

Merci Jean christophe

Conclusion :

Le big data dans le RSE ce n’est donc pas pour demain mais il y a un réel potentiel  Je trouve au passage assez osé de pousser ce concept pour les usages internes alors que les entreprises qui ont misé sur  la révolution des réseaux sociaux en terme de performance ont en grande majorité subi des échecs  Elles risquent de reproduire le même schéma avec le Big Data et faire la même erreur sur l’idée que le big Data serait la solution au décollage des RSE comme leur complément indispensable.

Enfin encore une fois les RH devront acquérir de nouvelles compétences digitales pour encadrer l’utilisation du big data en particulier sur l’utilisation des données, limites dans le type de données ainsi que le temps d’exploitation et droit des salariés par rapport à l’utilisation de leur production.

Sans accompagner et encadrer ces nouveaux usages dans la transparence il est à craindre que la peur de big brother amène encore plus d’autocontrôle des salariés sur leur participation et donc moins de données à analyser avec des RSE en jachère.