Après la création de son entreprise : les indicateurs à surveiller

indicateurs à surveillerLes études le démontrent : le taux de pérennité des entreprises 3 mois après la création est en moyenne de 70%. 3 entreprises sur 10 n’existent plus au bout de la 3e année. Différents facteurs expliquent ce chiffre (le choix du secteur d’activité, la mise de départ, la personnalité du dirigeant, les soutiens, etc.)
Aussi, le suivi de certains indicateurs dès les premières années d’exercice peut vous aider à passer ce cap fatidique des 3 ans. En voici quelques-uns.

L’analyse de son environnement

L’entreprise n’évolue pas en vase clos. En une ou deux années d’activité, votre environnement concurrentiel, les tendances d’achat ou de consommation ont peut-être évolué. Une analyse Pestel peut vous permettre de mettre en évidence des carences de votre business model ou a contrario des gisements de croissance. En tous les cas, l’analyse de votre environnement doit permettre soit de vous adapter, soit de conforter vos choix.

Le suivi des objectifs commerciaux

Les indicateurs commerciaux sont primordiaux pour une jeune entreprise. Lors de l’établissement de votre stratégie vous avez fixé des objectifs de vente. De ces objectifs dépendent la survie financière de votre entreprise sur le long terme. En effet, la gestion de votre affaire engendre des coûts (dépenses) qu’il faut compenser par des recettes. Aussi devez-vous surveiller cet indicateur et vous remettre en question si besoin :

  • Votre stratégie commerciale est-elle efficace ?
  • Vos commerciaux sont-ils performants ?
  • Avez-vous ciblé les bons clients ?
  • Etc.

Le suivi de l’évolution des coûts

Pour être compétitif, vous devez apporter une offre qui correspond à la demande en termes de qualité et de prix. Le tarif de vos prestations dépend de différents facteurs (prix relevés à la concurrence, coût des matières premières, fournisseurs, stockage, etc.). Une analyse des coûts à N+1 peut permettre un recentrage. Vous devrez peut-être revoir vos prix à la hausse ou à la baisse. Vous ne pouvez pas maintenir les mêmes tarifs alors même que tous vos concurrents pratiquent des prix plus bas. Si vos coûts de fabrication augmentent, il vous faut bien l’intégrer au risque de vendre à perte ou de ne pas dégager de marge.

Suivi du plan de trésorerie

Autre indicateur essentiel, le plan de trésorerie permet de suivre au mois le mois l’activité de l’entreprise. En N+1 ou N+2 vous aurez une ou deux années de recul. Cela vous permettra :

  • D’établir un prévisionnel au plus près de la réalité en se basant sur les années précédentes
  • D’analyser les écarts et y apporter des correctifs pour les années suivantes

L’objectif est d’anticiper les choses et de garder une trésorerie saine : lors du lancement de l’entreprise, l’argent est le nerf de la guerre.

Analyse de certains ratios comptables

Pour terminer, la lecture de vos documents comptables peut vous permettre d’analyser la performance de votre activité. Certains ratios donnent des indications utiles :Capitaux propres / endettement total
Ce ratio concerne la solvabilité de votre entreprise. De manière générale celui-ci doit être supérieur à 0,5. En deçà, cela signifie que votre entreprise a du mal à rembourser ses dettes.

Résultat d’exploitation / chiffre d’affaires
Ce ratio indique la performance de votre activité et la rentabilité de votre exploitation.

Chiffre d’affaires HT de l’année N/chiffre d’affaires HT de l’année N-1
Ce ratio vous aidera à calculer le taux de croissance de vos ventes. Vous pourrez ainsi savoir si vous faites mieux que les années précédentes et/ou mieux que vos concurrents (en effectuant notamment une analyse comparative avec les chiffres de votre secteur d’activité).

Il existe beaucoup d’autres indicateurs. Mais il n’est pas nécessaire de tous les connaitre. Choisissez lesinformations les plus pertinentes en fonction de votre entreprise et du secteur d’activité.

Choisir son business model – modèle économique

le modèle économique ou business model

Le business model ou modèle économique en français peut être rapidement défini comme la stratégie mise en place par une entreprise pour gagner de l’argent. Étape indispensable dans la création d’une entreprise, il doit être construit pendant la rédaction du business plan. En effet, une fois l’idée présentée aux financeurs potentiels, il est nécessaire de démontrer la capacité de la structure à générer des gains. C’est pourquoi on considère souvent le business model comme le cœur du business plan. Pour bâtir un projet de création solide il faut donc créer un modèle économique cohérent en s’inspirant de ceux déjà existants…

Les différents Business Models

Le choix du business model pour une entreprise dépend de son identité, de son offre et de sa stratégie. Il faut donc bâtir son modèle économique à partir de ces trois éléments. Il est effectivement conseillé de combinerplusieurs business models pour sécuriser l’activité de l’entreprise. Pour ce faire voici les principaux modèles économiques utilisés par les entreprises :

  • les enchères, dans ce business model ce sont les clients qui fixent eux-mêmes le prix du produit ou du service. Il est à noter qu’un système d’achat immédiat doit être mis en place pour satisfaire les clients pressés.
  • le freemium, contraction de free (gratuit) et de premium (haut de gamme), ce business model consiste à fournir une partie de l’offre gratuitement aux utilisateurs mais à bloquer certains contenus réservés aux membres premium. Au final ce sont ces derniers qui payent pour les utilisateurs free. Ex : Viadéo
  • le modèle de l’abonnement consiste simplement à commercialiser un produit ou un service contre une inscription d’une durée déterminée. Ex : Le Monde.
  • le cashback, business model qui consiste à donner un avantages aux meilleurs clients sous la forme de points ou de remboursements. Le modèle de cashback le plus connu est celui des « Miles » des compagnies aériennes.
  • l’affiliation, c’est le business model de nombreux site internet, vous proposez des publicités pour d’autres entreprises qui vendent leurs produits ou services. Dès lors qu’un internaute clic sur la bannière publicitaire et réalise une action (inscription ou achat) vous percevez une commission. Ex : les comparateurs mobile.
  • la vente à domicile, les ventes se concentrent sur des cercles de clients réduits et mise sur le bouche à oreille et les recommandations pour se développer. Ex : réunion tupperware
  • la ventes flash – ré-intermédiation – dé-stockage, la création de partenariats avec des marques permet de revendre leurs invendus ou produits des collections passées à des prix cassés. Ex : Ventes privés
  • le modèle low cost, consiste à utiliser un business model existant et qui a fait recette mais en proposant une offre réduite à sa plus simple expression, c’est à dire en supprimant toutes les options et tous les avantages « super fluts ». Ex : Easy Jet.
  • l’adaptatif, ce business model permet d’optimiser les ventes des entreprises proposant un produit ou un service qui non vendu est perdu. Ce business model est basé sur la variation des prix en fonction de la demande et des habitudes de consommation des clients. Ex : la SNCF
  • le modèle de l’utilisation, qui est le plus basique de tous, l’utilisateur paye un prix unique pour chaque utilisation du service. Ce prix doit être faible pour inciter le client à répéter plusieurs fois l’acte d’achat. Ex : machine à café
  • le modèle au temps passé, qui comme son nom l’indique permet aux consommateurs de profiter de services et de ne payer que le temps d’utilisation. Ex Cyber-café.
  • la transaction sur des ventes, l’entreprise génère son revenu en prenant une commission sur les ventes qu’elle organise. Elle permet à l’offre de rencontrer la demande. Ex : le bon coin.
  • le tout gratuit, dans ce business model ce sont les annonceurs qui financent les supports (sites internet, magazines, journaux, etc). Il permet ainsi d’offrir un service de qualité gratuit aux utilisateurs. Ex : 20 Minutes
  • le modèle dit de l’imprimante, il fonctionne en deux étapes, tout d’abord vendre un produit de base à perte avec une marge très faible, puis commercialiser les recharges pour ce produit à des marges élevées. Ex : Nespresso.

Exemple : Le business model d’un Food Truck

Le propriétaire d’un camion restaurant propose des déjeuners à ses clients. Il vend principalement à des salariés qui mangent « sur le pouce » entre 12h et 14h. Il réalise lui même l’ensemble des plats dans son camion et effectue aussi la vente en Business to Customers. Son camion est son outil de production. Il travaille seul et représente donc l’intégralité des Ressources Humaines. Enfin il fait lui même ses courses sur le marché pour proposer des produits de qualité (matières premières) qu’il transformera. Le panier moyen des clients est de 10 euros, les charges variables de production représentent 20 % et les frais fixes représentent 30 %. Il peut donc espérer dégager une marge maximale de 50 % de son chiffre d’affaires. Son business model basé sur la vente de repas est donc viable.

Mon conseil :

Il est important de garder à l’esprit que chaque entreprise est unique et donc que son business model doit aussi l’être. Inspirez-vous de cette liste non exhaustive pour bâtir votre propre business model. Enfin, une fois figé vous pouvez utiliser la matrice des 9 blocs de Alexander Osterwalder pour le présenter aux financeurs.

Les réseaux sociaux d’entreprise sont efficaces mais ne s’improvisent pas !

letemps_1701_rseTous les managers, et donc les collaborateurs, sont concernés par la question de l’«engagement» personnel au travail. Plus fort il est, meilleures sont la solidité et la performance de l’entreprise. Le sujet n’est pas nouveau, mais il a pris un tour inédit avec la montée en force des réseaux sociaux.

Certes, l’obligation de réserve et une légitime discrétion vont toujours de pair avec la fidélité ou la loyauté vis-à-vis de l’entreprise. Mais les managers sont soucieux d’améliorer la qualité de services et de ménager des gains de temps. Ils souhaitent donc des collaborateurs toujours plus concernés et engagés dans les projets et des dossiers dont ils ont la responsabilité.

Notre écosystème social étant devenu global, les entreprises tentent de «capturer» les avis favorables et de multiplier leur propagation sur les réseaux. Chacun d’entre nous devient potentiellement l’ambassadeur de sa marque. Mais il faut aussi essayer tant bien que mal de circonvenir les déçus et les mécontents: clients ou fournisseurs.
Du point de vue l’entreprise, les collaborateurs sont une source de pertinence, de savoir-faire, d’intelligence. Leur engagement est nécessaire comme support à l’innovation, pour aider à l’accueil des nouveaux collaborateurs ou encore pour faciliter la transmission des savoirs.
Les réseaux sociaux d’entreprises (RSE) peuvent servir de catalyseurs. Ils permettent d’identifier les compétences dont l’entreprise a besoin pour faire avancer un projet, partager des documents de façon collaborative, ou encore, promouvoir des bonnes pratiques pour un métier ou une fonction. Lieu d’échange, le RSE permet idéalement aux employés de discuter librement d’idées et de propositions. L’entreprise peut n’en retenir que les meilleures et ainsi favoriser l’excellence.
La mise à disposition de plateformes techniques permet d’aller dans ce sens, mais elle ne suffit pas. En effet, s’engager est un acte volontaire qui requiert un accompagnement. La créativité et la pertinence ne peuvent éclore que dans un système où règne la confiance.
La valorisation du «social», c’est-à-dire des discussions et des échanges dans et au service de l’entreprise, doit absolument se faire suivant des objectifs clairs et précis. Exemple: cette entreprise suisse de distribution qui a lancé un réseau pour engager un dialogue direct avec le personnel des magasins. Le premier bilan est très positif et montre un bon niveau de participation, des propos modérés et des propositions intéressantes, méritant une étude.
Autre exemple: une entreprise internationale de taille moyenne où le RSE est devenu un espace de dialogue et de gestion, simple et convivial au travers de communautés dédiées. Là, partenaires et revendeurs du monde entier communiquent.
Il apparaît cependant que le soutien des dirigeants aux réseaux sociaux n’est pas suffisant. Un RSE nécessite une véritable gouvernance. Celle-ci permet d’établir la confiance, ingrédient sans laquelle les réseaux auront du mal à trouver une légitimité aux yeux de ceux dont on attend le plus en termes de pertinence et de richesse: les employés contributeurs.
Le RSE ira bien avec un guide de pratiques et des conseils simples et transparents. Les communautés seront alors vivantes et les participants y trouveront de la valeur.

Enfin, le RSE doit se fonder sur une stratégie éditoriale, c’est-à-dire un ton et un cadre pour les communautés et les contenus, quand bien même tout un chacun peut y contribuer à son niveau et selon son envie. Il va aussi sans dire que les questions relatives à la protection et l’utilisation des données doivent faire l’objet de toutes les garanties nécessaires. L’existence de récompenses peut être un moyen d’émulation.
Cela dit, une enquête réalisée en novembre 2013 auprès de 138 entreprises par le Lab des Usages – un observatoire privé français – montre que la plupart des initiatives en matière de réseaux sociaux d’entreprises restent encore dans un périmètre très conservateur: la collaboration autour de projets techniques, le «go to market» pour un nouveau produit ou encore la préparation d’une opération de communication.

Les quatre vertus cardinales de l’entreprise 2.0

 

On en n’est plus à se demander ce que sera l’entreprise de demain, nous sommes en train de la construire et, à ce stade, il y a des choix à faire et c’est le moment de s’exprimer.

Quelque(s) soi(en)t le(s) chemin(s) que prend l’organisation pour mettre en oeuvre les méthodes et les outils qui servent son évolution, la démarche s’inscrit d’emblée dans un contexte humain (et social) qui «oblige» l’entreprise à valoriser 4 vertus cardinales, charnières.

l’Humilité

Durant ces dernières décennies, l’entreprise et les «gestionnaires» ont parfois perdu le sens des réalités et le contact avec le terrain, d’où une certaine arrogance.
La réalité économique et sociale, cause et/ou conséquence de nouveaux comportements, oblige les entreprises à adopter un comportement plus humble.

A l’instar du marketing des décennies passées, il ne suffit plus d’asséner, de faire du bruit ou de décider, il faut être LEGITIME !
La légitimité ne se décrète pas, elle est «ressentie» par les autres au travers de votre comportement et pour avoir une chance, il faut savoir non seulement écouter, mais également considérer que l’avis (le commentaire) de l’autre a, à priori, autant de valeur et de pertinence que le sien, et donc d’accepter, avec tolérance et bienveillance, d’en discuter ouvertement et sans discriminations.

L’humilité n’empêche en rien la passion, ni la raison, ni l’argumentation, mais elle concoure à optimiser l’exploitation des avis pour mieux faire en toute légitimité !

la Justice

La légalité ne suffit plus et le sentiment d’injustice est trop important pour que les entreprises ne se sentent pas concernées.
Sans sentiment de justice, il n’y a pas non plus de légitimité possible.
Les entreprises ont tout intérêt à adopter un comportement et des méthodes qui ne rendent pas vains leurs discours quant à la responsabilité sociale.
En tant que personne morale, l’organisation (commerciale ou pas) doit assumer, au même titre que tout à chacun, la pluralité de ses rôles et ne pas s’en tenir aux seuls qui l’arrangent.
Un comportement juste est signe de responsabilité et de maturité et il concoure largement à optimiser les relations de l’entreprise avec tous les acteurs de son écosystème, et ce, au mieux de ses intérêts.

la Transparence

L’opacité est devenue insupportable et c’est tout le corps social qui la rejette.
Sous prétexte de discrétion, les entreprises ont largement pratiqué le mensonge, la manipulation, pour aller, dans certains cas, jusqu’à l’escroquerie !
Tous les secteurs ont concernés : de la finance, aux équipementiers sportifs en passant par l’agro alimentaire et il est temps de changer pour plus de transparence.
Personne ne support plus d’être pris pour un «bobet» [expression vaudoise] et les entreprises qui vont au devant de leurs clients dans les réseaux sociaux découvrent la soif de transparence de ceux-ci !

La mise en oeuvre réelle de stratégies et de méthodes en support à la transparence est un facteur de différenciation important et une «garantie» de survie à moyen terme !

et enfin, la Force

On a l’habitude de dire qu’on est plus fort à plusieurs que tout seul !
Et pourtant, dans beaucoup d’entreprises, on a tout fait pour casser le «team spirit», terme très largement employé dans les présentations, mais absent des réalités de terrain où «diviser pour mieux régner» semble être l’apanage !

L’entreprise de demain, c’est d’abord ducollectif (pas que, mais…) et elle doit être suffisamment forte pour assurer son développement par l’innovation dans un contexte hyper concurrentiel, mais également pour créer des relations de confiance au sein de son écosystème.

La Force est source de constance au service de la réalisation de l’objectif.
Elle suppose un engagement sans faille et en cela, elle contribue à valoriser l’entreprise au delà de ses produits et de ses services.

Mais, ces quatre vertus ne seront rien sans un véritable leadership !

Il appartient, en effet, aux leaders d’opinion et autres évangélistes du 2.0 de s’abstraire un peu des processus, des méthodes et des systèmes (applications), pour proposer et mettre en avant, au service d’une vision, les «vraies» conditions de transformation de l’entreprise !

L’heure du reset du système financier mondial approche-t-il ?

resetNous voyons actuellement que les éléments ayant menés à la dernière crise financière sont à nouveau réunis, faisant planer l’ombre menaçante d’un krach boursier, alors que la majorité des places financières sont à leur zénith. Nous avons aussi vu que la volatilité a désormais gagné le marché des obligations d’État, et que les bons souverains sont très recherchés, même pour des pays fortement endettés, comme ceux de la périphérie de l’Europe, tels que l’Espagne, le Portugal ou l’Italie. Les politiques des centrales ont mené à quelque chose d’unique dans les marchés financiers, puisqu’à l’heure actuelle près de 25 % des dettes souveraines proposent des taux négatifs. Dans cet article je vous propose quelques pistes de réflexion afin de comprendre l’État du marché financier, alors que de nombreux nuages s’amoncellent à l’horizon.

La bulle d’obligations d’entreprise pire que celle des Dotcom

mark-cubanTous les marchés financiers subissent la fièvre acheteuse des banques centrales, en élargissant le spectre des actifs qu’elles peuvent désormais acquérir, celles-ci gouvernent désormais un marché, qui n’en est plus vraiment un. Même son de cloche du côté des obligations émises par les sociétés qui suivent le même chemin de la dette gouvernementale. En effet en 2014 les sociétés américaines ont émis la somme de 1,43 milliards de dollars en obligations de sociétés, pour mettre ces chiffres en perspective, il faut savoir que c’est 27 % en plus que lors de la dernière bulle des crédits subprime de 2007. Les indices semblent indiquer que la reprise américaine s’appuie largement sur la production du pétrole de schiste, dès lors on peut se demander si celle-ci ne fait pas déjà partie du passé en regard à l’effondrement des prix du baril de pétrole. L’autre secteur ayant toutes les caractéristiques d’une bulle et celui des valeurs technologiques, à tel point que Mark Cuban un investisseur milliardaire a récemment averti que celle-ci est «pire que la bulle technologique de 2000» et qu’elle est maintenant aussi sur le point d’éclater. On peut craindre le pire si ce marché d’obligations de sociétés aux États-Unis ayant atteint une taille gigantesque devait s’effondrer.

200 % de progression pour le S&P 500 est-ce une bulle ?

S&P500Tous les investisseurs savent que les valorisations boursières ont subi une hausse quasi verticale depuis les plus bas de 2009. Pour mettre ces chiffres en perspective, il suffit de prendre l’indice phare de la bourse américaine le S&P 500 ayant progressé de près de 200 %, le Nasdaq pour sa part vient de percer le plafond des 5000 points, une première depuis l’éclatement de la bulle des Dotcom en 2000. Dès lors face à un marché haussier ayant duré six ans pour déboucher avec la plus grande dépression économique le monde est connu donne matière à réfléchir sur la possible suite des événements. Les cicatrices de la crise des subprimes ne sont pas encore refermées, et les craintes chez les investisseurs commencent à se faire entendre, comme en atteste un article du Wall Street Journal pointant les prix de l’immobilier au Royaume-Uni évoluant 30 % plus chers que lors de leur sommet d’avant crise. Ce phénomène de surévaluation immobilière est désormais mondial puisque les prix sont en train de flamber en Australie, au Canada, en Suède et en Norvège. Des villes telles que San Francisco, Miami, Londres, Berlin, Paris, Milan et Amsterdam subissent toutes une hausse rapide de l’immobilier, sans aucune amélioration corrélative des fondamentaux sous-jacents. Même en Espagne et en Irlande, les prix de l’immobilier s’inscrivent en hausse.

Des ingrédients explosifs pour une fin en apothéose avant le reset

Comme nous l’avons mentionné dans la première partie de ce billet consacré au phénomène de bulle de crise et à la finance casino, les mêmes effets produisent les mêmes causes. Les mesures politiques timorées n’ont pas été à la hauteur des problèmes auxquels l’humanité fait aujourd’hui face, et comme bien souvent les états ont préféré renflouer les joueurs spéculateurs. Accompagné par l’action des banques centrales à l’origine de nouvelles bulles qui ne font que retarder l’instant final qui verra le système financier mondial se désintégrer sous nos yeux. La réalité est cruelle dans le monde réel, car nous savons de façon empirique que les bulles ne peuvent nous mener nulle part. Près de sept ans après la dernière crise financière, les investisseurs et les décideurs sont déjà bien engagés dans la suivante. Ce qui fait dire à la patronne du FMI Christine Lagarde que le big reset du système financier devient inéluctable à moyen terme.

Conclusion

les-fonds-vautoursLa ruée des spéculateurs sur les obligations d’État à rendement négatif, bien qu’apparemment paradoxale, a une explication simple : ce ne sont pas les coupons qui les intéressent, mais la valeur nominale. Les investisseurs ont maintenant acquis la conviction que, quoiqu’il arrive, il n’y aura jamais de restructuration de leurs créances et que les peuples seront axés autant qu’il le faut pour assurer les remboursements, comme cela se passe aujourd’hui en Argentine avec les fonds vautour. Ce qui pourrait arriver de mieux dans ce marché c’est que les événements actuels en Grèce nous donnent tort et nous ouvre les yeux.

Les nouvelles technologies au service du futur

Nous n’avons pas besoin de regarder trop loin en arrière pour comprendre la puissance de la technologie à façonner notre monde. En une génération, nous avons vu des stations spatiales se construire, le calcul des vitesses s’accélérer de façon exponentielle, sans parler du boom d’Internet. En fait, les progrès technologiques sont désormais si rapides que notre mode de vie actuel paraîtra sans doute désespérément obsolète dans une autre décennie. Dans cet esprit, il peut être amusant et fascinant de regarder ce que sera  l’avenir et quelles sont les technologies de pointe développées aujourd’hui qui seont d’une totale banalité demain. De quelles manières ces technologies modifieront-elles radicalement notre monde ? Bryan Nelson a écrit un papier dans revmodo.com, à partir duquel UP’ a enquêté sur la faisabilité et la réalité de neuf technologies qui pouraient bientôt faire que notre réalité devienne méconnaissable.

energieatmospheriqueL’énergie atmosphérique

Credit photo : ©gornjak/Shutterstock

La plupart de l’énergie que nous produisons aujourd’hui provient de ressources limitées, à savoir les combustibles fossiles. Mais comme ces ressources sont épuisées et que les conséquences environnementales deviennent une préoccupation croissante, le développement de nouvelles sources d’énergie renouvelables est primordiale. Bien sûr, les industries telles que l’énergie éolienne, solaire et biocarburants sont déjà en plein essor, mais ce ne sont que le dessus de l’iceberg.

Une source renouvelable en plein essor qui a le pouvoir de révolutionner la production d’électricité est l’énergie atmosphérique. Il y a toujours en circulation libre de l’électricité dans l’air. Cela est particulièrement évident dans un orage ou pendant les aurores polaires ou les aurores boréales. La capture et le contrôle de cette électricité peut être un défi, mais nous pourrions puiser directement dans ce champ électrique, en arrachant littérallement l’électricité de l’air. Le potentiel de cette technologie est immense.

Une entreprise travaille déjà sur le développement de l’énergie atmosphérique : SEFE, Inc. Ils ont déjà quatre brevets approuvés, trois en attente, et dix neuf en cours de recherche et développement.

nanotech

– Les nanotechnologies

Crédit photo : ©Paul Fleet/Shutterstock 

Ce sont parfois les petites choses qui font les plus forts impacts. C’est certainement le cas avec ces nanotechnologies qui sont essentiellement des manipulations de matériaux à l’échelle atomique et moléculaire.

Les nombreuses applications de nanotechnologies sont trop nombreuses pour les citer ici. La nanoélectronique a le potentiel de révolutionner l’informatique, non seulement en faisant des vitesses de calcul ultra rapides, mais en réalisant des appareils électroniques plus petits. Des machines de la taille de cellules pourront un jour naviguer à travers notre corps comme un système immunitaire artificiel. Les nanodispositifs pourront un jour être capables de manipuler notre code génétique, ou peut-être même fusionner avec lui. La nanotechnologie nous permettra d’inventer de nouveaux matériaux avec une vaste gamme d’applications : en 2008, plus de 800 produits nanotechnologiques ont déjà été rendus publiques, et de nouveaux produits arrivent sur le marché au rythme de trois à quatre par semaine.

Des scientifiques viennent de mettre au point un système de mesure de la glycémie en utilisant les avancées nanotechnologiques : comment pourraient-elles aider à détecter la glycémie dans les larmes en les intégrant dans des lentilles de contact. Une équipe américaine de l’Université de Purdue vient de mettre au point, toujours grâce aux avancées des nanotechnologies, un système de mesure du glucose qui serait aussi efficace dans le sang que dans la salive, l’urine et les larmes, donc par une mesure non invasive.

Autre exemple, Nanobiotix, société de nanomédecine spécialisée en radiothérapie : les nanotechnologies permettraient de traiter de façon plus sûre et plus efficace toute une variété de cancers via une radiothérapie classique. Pratiquée depuis des décennies, la radiothérapie reste un élément clé de l’arsenal anti-cancer: 60% des patients atteints en bénéficient à un stade ou un autre de leur traitement. Le principe est simple: les rayons X peuvent détruire toute cellule cancéreuse de quelque type qu’elle soit. La seule limite réside dans la dose que peuvent tolérer les tissus sains situés alentour. La technologie «NanoXRay» s’appuie sur des nanoparticules brevetées. Seuls ces éléments de «l’infiniment» petit (50 nanomètres, soit 5 centièmes de micron) sont capables de pénétrer dans les cellules (de taille très variable, les plus petites atteignant tout de même quelques microns). Les nanoparticules cristallines mises au point par Nanobiotix, non toxiques pour l’organisme, ont la propriété de multiplier jusqu’à neuf fois la dose de radiothérapie reçue spécifiquement dans les cellules visées. La promesse du groupe est donc de permettre une bien meilleure efficacité à dose équivalente ou bien de pouvoir traiter par des doses moindres des patients qui ne supporteraient pas une radiothérapie conventionnelle (Source : Le Figaro.fr / 11 oct 2012).

realiteaugmentee6– La réalité Augmentée

Credit photo : ©Max Braun/Flickr

Beaucoup de bruit a été fait récemment autour des lunettes de Google ; mais même si l’invention peut paraître « accessoire », la technologie de réalité augmentée a le potentiel de changer radicalement notre monde et notre façon d’interagir avec elle.

Vous avez entendu parler de la réalité virtuelle, qui est un environnement simulé par ordinateur. La réalité augmentée, elle, est une fusion par ordinateur de données sensorielles avec le monde réel. Plutôt que de créer un monde simulé, la réalité augmentée a le pouvoir de réellement améliorer notre perception du realworld.

La technologie a tout le potentiel pour permettre de contrôler l’information dans le monde en temps réel, un peu comme vous pouvez contrôler l’information à l’aide d’un appareil à écran tactile. Fondamentalement, la réalité augmentée nous rapproche un peu plus près de notre technologie de fusion avec la réalité.

Une des innovations les plus spectaculaires du dernier Mondial de l’automobile de Paris a été certainement la présentation du pare-brise de réalité augmentée. Cette technologie permet l’affichage couleur d’informations liées à la conduite (vitesse, conditions de circulation, GPS, distance avec le véhicule précédent…) sur le pare-brise via un système de projection/surimpression. Une technologie nommée Head-up display (affichage tête haute) déjà commercialisée au Japon (3 000 euros environ) depuis le mois d’août dernier. Le fabricant japonais Pioneer a en effet présenté son pare-brise équipé du système Cyber Navi qui affiche en temps réel un écran interactif de 90 x 30 grâce à un projecteur laser fixé sur le pare-soleil. En cours d’homologation en Europe, ce dispositif devrait être commercialisé en France courant 2013.

Motorola Mobility, filiale de Google, a acquis récemment l’entreprise américaine Viewdle, spécialisée dans les applications de reconnaissance faciale, de reconnaissance d’objets et de gestes. Ses produits permettent par exemple le taggage automatique de photographies sur Internet.

Autre exemple, la société Smartsy : cette start-up française, implantée aux USA, ne se situe pas seulement dans le domaine de la réalité augmentée mais aussi dans celui de la reconnaissance visuelle universelle. Smartsy permet de lier tout objet, document, image, produit de consommation courante, bâtiment ou monument, …à des informations enrichies et partageables. Une plateforme mobile d’informations et de diffusion qui fait donc le lien entre le monde physique et le monde digital.

carburantsolaire– Le carburant solaire

Credit photo : ©Chris Harvey/Shutterstock

Nous le savons tous, le développement des énergies renouvelables est primordial pour entrer dans l’avenir. Les technologies existantes comme l’énergie éolienne, solaire et hydraulique sont d’excellents moyens de production d’électricité renouvelable, mais qu’en est-il de la production réelle de combustible? Les biocarburants sont utiles, mais ils ont aussi beaucoup d’impacts négatifs pour l’espace agricole et notre approvisionnement alimentaire.

Et si nous pouvions convertir directement l’énergie solaire en un carburant liquide ? D’où l’ idée d’un combustible solaire qui pourrait être produit avec une technologie imitant la façon dont les plantes produisent de l’énergie grâce à la photosynthèse. Un combustible solaire qui pourrait également révolutionner la façon dont l’énergie renouvelable est stockée. Cela nous permettrait de garder l’énergie du soleil sous forme liquide.

Une société travaille à rendre cette vision possible au Massachusetts / USA : Joule Unlimited. Leur technologie est capable de créer un carburant en utilisant la lumière du soleil avec du dioxyde de carbone et de l’eau non potable. Ils pensent pouvoir être bientôt en mesure de produire ce carburant à un prix compétitif avec l’essence.

cellulesouche– Les Cellules souches modifiées

Credit photo : ©Andrea Danti/Shutterstock

Peu de technologies ont le pouvoir de transformer la médecine plus que l’ingénierie des cellules souches. Non seulement les cellules souches sont génétiquement programmées pour attaquer les maladies comme le VIH ou le cancer, mais elles sont maintenant utilisées pour générer des tissus vivants.

Le but ultime d’une telle technologie sera de stimuler la repousse des organes. Une fois mis au point, il peut être possible de prolonger indéfiniment la vie humaine. Imaginez si chacun de vos organes pouvait simplement être remplacé, comme une simple pièce de voiture…

La société française de biotechnologie Cellectis vient de décrocher un contrat de 9,5 millions de dollars sur cinq ans auprès du National Institutes of Health (NIH) et de plusieurs organismes gouvernementaux américains pour la fourniture de cellules iPS. Cellectis s’appuie sur la technologie qui a valu le prix Nobel de médecine 2012 à son inventeur, Shinya Yamanaka. 

A l‘Université libre de Bruxelles (ULB), des cellules souches embryonnaires (ES) ont été utilisées pour la première fois pour recréer la thyroïde d’une souris qui n’en avait pas, ce qui ouvre de nouvelles perspectives pour l’utilisation thérapeutique de ces puissantes cellules « pluripotentes ».

energiesansfil– Le transfert d’énergie sans fil

Credit photo : ©Fotovika/Shutterstock

Les appareils sans fil sont omniprésents aujourd’hui, relié par un seul fil, rien de plus.  Alors que nous pouvons transmettre des informations sans fil autour de nous, nos appareils électriques doivent toujours, dans l’ensemble, recevoir leurs pouvoirs de connexions câblées. Mais imaginez pouvoir utiliser l’énergie du faisceau d’une source d’alimentation directement dans un appareil, sans la nécessité d’un fil.

La technologie de transfert d’énergie sans fil existe déjà, mais doit encore être perfectionnée. Il s’agit en général d’ un problème d’efficacité : trop d’énergie est perdue quand elle est téléportée.

Comme la technologie évolue, on peut désormais imaginer un monde où rien ne sera plus branché. Plus incroyable, la technologie pourrait révolutionner l’exploration spatiale. Non seulement le pouvoir pourrait être dirigée vers les satellites, les stations spatiales, et des navettes spatiales de la Terre, mais la puissance collectée dans l’espace pourrait être aussi renvoyée à la Terre.

En 2006, Marin Soljačić ainsi que d’autres chercheurs du Massachusetts Institute of Technology (MIT) proposent une nouvelle application de transfert d’énergie sans fil, en se basant sur la théorie de l’électromagnétisme à champ proche, et l’utilisation de « résonateurs couplés »7,8. Le 7 juin 2007 un prototype est réalisé par le MIT : WiTricité permet d’alimenter une ampoule de 60 watts à une distance de 2 mètres, avec un rendement de 40 %. Le principe est basé sur le phénomène d’induction. Une bobine dans laquelle circule un courant électrique génère un champ magnétique qui lui-même génère du courant dans une bobine équivalente placée à proximité.

 

energiesolairenasa– Les bases spatiales d’énergie solaire « Space Based Solar »

Credit photo : © NASA

La grande majorité de l’énergie contenue sur la Terre provient du Soleil. Notre capacité à exploiter cette puissance dépend de l’efficacité que nous pouvons récolter. La technologie solaire demande de capter l’énergie du soleil, mais tous les collecteurs solaires basés sur la Terre sont limités parce que l’atmosphère dévie beaucoup  l’énergie du Soleil. Et si nous pouvions rassembler de vastes ensembles de panneaux solaires dans l’espace ?

Astrium étudie actuellement de nouvelles technologies de transfert d’énergie solaire orbitale vers la Terre. Une telle technologie fournirait ainsi une énergie propre, à partir d’une source inépuisable, et ferait partie d’un ensemble de solutions neutres à long terme et instamment nécessaires pour répondre durablement aux besoins énergétiques effrénés de notre planète.

Baptisé « Space Based Solar Power » (SBSP) – ou énergie solaire spatiale -, ce projet de recherche étudie la possibilité d’utiliser des plates-formes spatiales – essentiellement de grands satellites – pour capter les rayons du Soleil et les rediriger par faisceaux laser, à des longueurs d’onde inoffensives pour l’œil, vers des récepteurs terrestres spécialement équipés. Les lasers de bord transmettraient l’énergie à des puissances comparables au rayonnement solaire normal, et donc totalement sécurisé pour les humains et animaux qui le franchiraient.

Placée de préférence en orbite géostationnaire (GTO), la plate-forme SBSP serait ainsi visible en permanence par les récepteurs terrestres. De là, l’énergie pourrait être dirigée vers des sites implantés sur la partie visible de la surface du globe. Avec les technologies potentiellement disponibles à relatif court terme, un seul satellite permettrait de fournir environ 10 kW à l’utilisateur final, au sol, avec un système de transmission laser. Cette composante de base et les améliorations qui lui seraient apportées pourraient alors servir à fabriquer des systèmes multi-satellites, fournissant de l’énergie aux utilisateurs privés d’accès aux réseaux électriques existants.

Astrium maîtrise déjà et a fourni, pour un certain nombre de programmes, les briques technologiques essentielles pour faire de ces programmes une réalité – satellites de télécommunications haute-puissance, miroirs spatiaux (comme celui développé pour l’observatoire Herschel) et technologie laser.

teleportationquantique– La Téléportation quantique

Credit photo : ©lightpoet/Shutterstock

La téléportation n’est pas seulement de la science-fiction : la téléportation quantique est le transfert instantané d’un état quantique d’un endroit à un autre.

Albert Einstein appelait cela l’intrication quantique, une sorte « d’action fantôme » à distance. Et ce phénomène physique est au cœur de la nouvelle génération à venir d’ordinateurs quantiques ultra-puissants « bits quantiques » de l’information, ainsi que des systèmes de communication immunitaire à interception.

Une équipe internationale de chercheurs, utilisant la station optique au sol de l’ESA dans les îles Canaries, a établi un nouveau record mondial de distance de «téléportation quantique» en séparant sur 143 kms de distance un photon. Financés par l’ESA, des chercheurs autrichiens, canadiens, allemands et norvégiens ont transféré les propriétés physiques d’une particule de lumière – un photon – vers son « double » via la téléportation quantique, sur une distance de 143 km entre le télescope Jacobus Kapteyn de La Palma et la station au sol de l’ESA à Tenerife.

Au-delà de surprendre ou fasciner, la téléportation quantique est amenée à jouer un rôle central dans les communication cryptées du futur. Le problème du cryptage concerne la sécurité de la transmission entre l’émetteur et le récepteur, la clef de décryptage pouvant être interceptée. La téléportation quantique, par ses propriétés intrinsèques basées sur les lois de la mécanique quantique, rend cette interception impossible et la transmission sûre à 100%. Par la méthode qu’ils ont utilisé et les résultats qu’ils ont obtenus, les chercheurs de l’ESA ont démontré la possibilité de réaliser dans la pratique ces communications quantiques. La prochaine étape pour eux : établir une téléportation quantique entre la Terre et un satellite en orbite.

cyborg– L’Intelligence artificielle

Credit photo : © Ociacia/Shutterstock

La première image que l’on a quand on pense « intelligence artificielle » est celle de Terminator, ou peut-être HAL de 2001: A Space Odyssey. Il est vrai que le développement de l’intelligence artificielle pose quelques grandes questions philosophiques et éthiques, mais il y a peu de doute pour que la technologie aboutisse.

La puissance de traitement des ordinateurs continue de croître à un rythme effarant. En conséquence, nous sommes en mesure d’analyser les données à l’aide de modèles informatiques de plus en plus complexes, et à résoudre les problèmes de façons encore plus ingénieuses.

Jusqu’à présent, nous devons encore créer une machine avec une conscience artificielle, ou la conscience de soi. Mais cela, aussi, est probablement inévitable.. Des ingénieurs estiment que la conscience artificielle sortira en 2045.

En attendant, Google a dévoilé un logiciel qui reproduit la manière dont les neurones du cerveau humain communiquent et interagissent entre elles. La firme avait pour cela mis au point une machine, en connectant 16’000 processeurs informatiques, capable de reconnaître des choses dans des vidéos YouTube, tels que des chats, des visages humains ou d’autres objets. Cette technologie d’intelligence artificielle va à présent sortir des murs des laboratoires pour être mise à contribution dans des produits du géant du web, à commencer par le système de reconnaissance vocale de la firme. (Source : 20 minutesonline / 8 oct 2012).

Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d’imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publicationComputing machinery and intelligence,ce test consiste à mettre en confrontation verbale un humain avec un ordinateur et un autre humain à l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sémantique humaine (Source Wikipedia).

Or, le mythe de l’Homme se faisant dépasser par la machine qu’il aurait lui-même créé est en passe de devenir une réalité, ou presque. En effet, lors d’une compétition sponsorisée par 2K Games, le BotPrize, deux équipes de scientifiques, l’une de l’université d’Austin (Texas), et l’autre roumaine, ont réussi à démontrer qu’ils avaient créé un modèle d’intelligence artificielle pour Unreal Tournament 2004 dont le comportement et les réactions en jeu étaient plus « humaines » que celles d’un véritable humain ! Plus concrètement, il s’agissait d’opposer dans un mode compétitif un panel de joueurs composé pour moitié d’humains (des juges) et pour moitié de bots, chaque humain disposant d’une sorte de tagger en plus de ses armes classiques. Ce tagger sert notamment à marquer une cible, pour indiquer si la personne estime qu’il a affaire à un bot ou à un humain. Au bout du compte, le bot le plus taggé remporte la victoire. Dans le cas présent, les modèles vainqueurs, UT^2 et MirrorBot, ont obtenu chacun un indice d’humanité de 52 %, alors que le premier humain arrive loin derrière, avec un indice de seulement 42%.

Le principe de Singularité défend l’émergence d’une société dont les progrès ne seraient plus l’apanage de l’Homme, mais celui d’une intelligence artificielle supérieure. On voit là, qu’au sein de l’université d’Austin, ces scientifiques travaillent à ce que cette théorie devienne plus qu’un mythe…

Quand les générations « s’en-mêlent »

GENERATION Y

De quoi parle-t-on lorsque l’on évoque la génération Y ?

Au sens sociologique du terme, elle désigne la classe d’âge de ceux nés entre la fin des années 70 et la fin des années 90. On les nomme Y, « why » en phonétique anglaise, pour désigner le sens qu’ils cherchent à toute action. Marc PRENSKY les nomme les « digital natives » car ils ont grandi avec le boom du numérique. On peut lire également la « génération Peter Pan » pour repousser certains rites de passage à l’âge adulte.

Cette génération est caractérisée par sa capacité à maitriser les nouvelles technologies, sa créativité, sa promptitude à la remise en cause, à trouver les informations qui fâchent, à bousculer les règles de l’entreprise, à mettre en avant leur droits plus que leurs devoirs, à être plus centrés sur des valeurs individuelles que collectives. Une relation à l’autorité moins soumise, la recherche du plaisir au travail, une moindre frontière entre vie privée et vie professionnelle, la valorisation de l’équité, ou encore le désir d’être autonome rapidement.

Très bien réalisée par Adesias et Voix Off Agency, jetez un oeil à cette vidéo :

Mais peut-on vraiment caractériser cette génération de la sorte ?

Peut-on vraiment dire que le désir d’être autonome n’appartient qu’à la génération Y ? Toutes les générations peuvent se prétendre à l’être, ce qui nous permet donc de relativiser certaines caractéristiques de la génération Y et de regarder l’époque qui l’a vue grandir.

La génération Y, dernière arrivée en date sur le marché du travail, est actuellement en prise avec la génération X (milieu des années 60 – fin des années 70) et celle des Baby Boomers (après-guerre – milieu des années 60). Il y a aussi la vision portée par les générations les unes sur les autres.

De tous temps, les générations plus anciennes ont porté un jugement sur leurs cadets – et réciproquement. A la fin de XIXème siècle, Oscar WILDE écrivait déjà « la nouvelle génération est épouvantable. J’aimerais tellement en faire partie ». La capacité à remettre en cause le système n’est-elle que l’apanage de la génération Y ? Non, bien entendu, chaque génération a souhaité faire sa révolution individuelle ou collective lorsqu’elle en a eu l’opportunité.

S’agissant de la génération Y, il est important de comprendre les composantes du contexte civilisationnel qui l’accueille :

  • Un modèle familial dans un mouvement de décomposition et de recomposition qui s’accélère, provoquant une mutation de la cellule familiale traditionnelle,

  • Un modèle économique capitaliste mondialisé, toujours plus générateur d’inégalités, dont l’accès au travail,

  • Une perte de crédibilité de la part des institutions nationales et supra nationales,

  • Une généralisation des études longues qui retarde l’arrivée des Y sur le marché de l’emploi,

  • L’ouverture des sociétés aux différences autrefois davantage stigmatisées ou tues,

  • L’insécurité quotidienne symbolisée par le racket, les actes d’incivilité,

  • Le développement des NTIC qui favorise une hyper connexion permanente.

Chacun de ces éléments mérite en soi d’être traité en détail, d’exposer des thèses et d’en débattre. Pour autant, en synthèse, on constate un phénomène de mouvement civilisationnel plus intergénérationnel que centré uniquement sur la génération Y, ce que Gary HAMEL appelle la « web génération ». Sous l’influence du contexte actuel et de l’usage massif des nouvelles technologies de l’information et de la communication dans notre quotidien, il identifie 12 caractéristiques qui émergent chez cette « web génération » intergénérationnelle :

  • Toutes les idées peuvent rivaliser sur un pied d’égalité,

  • La contribution compte plus que les références (titre, âge,…),

  • Les hiérarchies sont naturelles, non prescrites,

  • Les leaders servent plutôt que président (Cf. Robert GREENLEAF, the Servant as a leader),

  • Les tâches sont choisies, non assignées,

  • Les groupes s’auto-définissent et s’auto-organisent,

  • Les ressources, cela s’attire, cela ne s’affecte pas,

  • Le pouvoir s’obtient en partageant non en thésaurisant,

  • Sur le web, les utilisateurs peuvent opposer leur véto à la plupart des décisions,

  • Les récompenses intrinsèques sont celles qui comptent le plus,

  • La médiocrité est toujours révélée au grand jour (notation en ligne),

  • Les contestataires peuvent se coaliser facilement.

Pour Hamel, les valeurs profondes du Web – ouverture d’esprit, méritocratie, flexibilité, collaboration – le rendent extrêmement souple, innovant et attirant. Ces valeurs doivent influencer ou devenir les valeurs des entreprises modernes.

Mais alors, quels sont les défis à relever dans l’entreprise, notamment au niveau managérial ?

Pour faire face à la défiance qui s’empare des individus (par rapport à l’autorité familiale, l’autorité de l’école, l’autorité des institutions…et l’autorité managériale), et pour garantir le futur équilibre encore instable del’écosystème de l’entreprise, il faudra transiter progressivement d’un leadership transactionnel qui s’appuie sur la seule autorité de statut, vers de nouvelles formes de leadership qui s’appuient sur une autorité naturelle, dans lesquels les individus se retrouveront davantage.

Sur quoi une autorité naturelle peut-elle se fonder ? On peut mettre en avant l’autorité de compétence. Ce n’est pas le titre, la fonction ou le nombre de barrettes sur les galons qui fondent la légitimité de l’autorité managériale, mais la maitrise des compétences managériales elles-mêmes (organisation, conduite des rendez-vous individuels et collectifs, connaissances techniques, qualité de l’accompagnement…).

L’autorité charismatique, incarnée par le manager, qui par ses qualités intrinsèques de communicant, sa capacité à donner du sens aux actions aussi simples soient-elles, arrivera à mobiliser l’énergie de ses équipes.

Ou encore l’autorité sapientiale qui lui confère aussi sa légitimité, se fondant sur les valeurs morales et les actions concrètes du manager. Ce type d’autorité met en lumière des valeurs aussi collectivement nécessaires que le courage, la justice, l’équité, la probité, l’altruisme, la tolérance….

On l’aura compris, la génération Y est une forme de symptôme de notre mutation civilisationnelle.

Ce sont les « Baby Boomer » et les « X » qui ont emprunté la terre des « Y », mais les trois générations aujourd’hui dans l’entreprise sont co-responsables de leur sort.

Ensuite, on peut avoir des comportements qualifiés de ceux de la génération Y alors que l’on est un « X » ou un « Baby Boomer ». Des comportements collaboratifs peuvent émerger quelle que soit l’expérience de l’individu. Il convient alors de regarder ces comportements et d’adapter son fonctionnement.

La question du management doit donc avant toute chose s’emparer de ce qui fonde aujourd’hui sa légitimité, et qui ne peut plus s’appuyer uniquement sur un fonctionnement autocrate seul, mais sur des hommes dont les valeurs morales seront aussi les piliers de l’organisation entrepreneuriale.

Ecrit par Olivier SUBE

« le marketing web n’est pas gratuit » !

Oui vous avez bien lu le titre: « le marketing web n’est pas gratuit » !

Je tiens à le souligner parce qu’un phénomène plus ou moins explicable fait en sorte que la majorité des gens au Québec font le saut lorsqu’on leur dit que certains sites web peuvent couter plusieurs milliers de dollars et leur souffle coupe lorsqu’on leur dit que pour avoir des résultats, il faut investir plusieurs milliers de dollars par mois.

Il y a une espèce de pensée magique qui veut que le web puisse régler tous les problèmes d’une entreprise, mais que ça doive seulement couter quelques « peanuts ». Malheureusement, le père Noël n’existe pas…

Dans cet article, je vous ouvre les yeux sur les coûts reliés à l’opération de l’usine du père Noël en vous démontrant pourquoi le marketing web n’est pas gratuit.

Père Noël

Le marketing web nécessite du temps

La première raison pour laquelle le marketing web n’est pas gratuit est parce qu’il demande du temps. BEAUCOUP DE TEMPS! Et comme vous le savez tous: « Le temps c’est de l’argent! »

N’allez pas penser que les experts du web peuvent tout vous régler en 3 clics. C’est faux. Certaines tâches peuvent nécessiter des centaines d’heures, voire même des milliers!

La production de contenu optimisé pour le web en est un très bon exemple. Dans mon plus récent article, je mentionnais quelques statistiques sur le marketing web et les plus intéressantes sont probablement les 2 suivantes:

  1. La longueur moyenne du contenu d’une page web qui se positionne dans le top 10 des résultats de Google pour n’importe quel mot-clé est d’au moins 2000 mots. (QuickSprout).
  2. Les entreprises qui ont un site qui compte entre 401 et 1000 pages obtiennent 6 fois plus de leads que celles qui ont un site qui compte entre 51 et 100 pages (HubSpot Lead Generation Lessons from 4,000 Businesses, 2011).

Donc, si on fait quelques petits calculs rapides, 1000 pages x 2000 mots = 2 000 000 mots.

Une étude (Karat, Halverson, Horn, Karat, 1999) a démontré qu’en composition de texte (et non en transcription) l’humain peut atteindre une vitesse moyenne de rédaction de 19 mots par minutes.

Alors, avec 2 000 000 de mots à rédiger et une vitesse de 19 mots par minutes, cela prendra environ 105 263 minutes, soit 1754 heures de rédaction pour avoir un bon site web. Encore là, il ne s’agit que de la rédaction! Il manque encore tous les temps alloués à la stratégie, au graphisme, à la programmation, à l’automatisation, aux publicités, au marketing par courriel, etc.

Calculez ça comme vous le voulez, mais que vous fassiez affaire avec un équipe interne ou externe les salaires horaires des professionnels du web font en sorte que votre marketing web ne pourra définitivement pas être gratuit!

Le web demande du temps

Le marketing web nécessite des outils

Une deuxième raison qui explique la non-gratuité du web est que pour mener des activités prospères en ligne il faut se munir d’un minimum d’outils qui ont tous un coût plus ou moins élevé.

Il est vrai qu’il existe une panoplie d’outils web gratuits, mais ces outils sont souvent destinés aux très petites entreprises et aux particuliers qui veulent gérer de petites initiatives en ligne.

Pour une PME ou une grande entreprise, les outils gratuits ne suffisent plus. Il faut investir dans des outils professionnels. Pensez-y, tous les professionnels en gestion ont des outils pour exécuter leur travail. Les comptables ont Acomba, Les gens de TI ont SAP… Pourquoi les marketers devraient être les clowns qui se contentent d’Excel?

Il existe maintenant des outils de marketing performant pour vous permettre de planifier, implanter et mesurer vos campagnes marketing. Il y en a de tous les prix et pour tous les besoins. Chose certaine, c’est que votre équipe web ne peut pas s’en passer!

outils web

Le marketing web nécessite des connaissances

La croyance que sur le web tout est gratuit ou coûte très peu cher nous vient du temps ou, dans les années 1990, les projets web des petites entreprises du Québec étaient entrepris par un neveu doué en informatique ou le beau-frère du patron.

Malheureusement, cette époque est révolue. Le web a beaucoup évolué et il constitue un environnement très complexe qui nécessite des connaissances approfondies. Les spécialistes du marketing web ont maintenant des formations universitaires avancées. Par exemple, la totalité des employés de FLY Conseils a une maitrise.

De plus, comme les programmes universitaires en marketing web sont désuets au Québec, les experts du web sont obligés d’être autodidactes et de courir les blogues, les webinaires, les livres et les formations en provenance de nos voisins du sud afin de se tenir à la fine pointe des évolutions du marketing en ligne.

Dans cette optique, puisque le marketing sur internet nécessite une main-d’oeuvre hautement qualifiée cela fait en sorte que les coûts reliés à l’embauche de cette main-d’oeuvre sont élevés, mais elle en vaut la peine!

Le marketing web nécessite une équipe

Tel que mentionné dans le point précédent, le web nécessite beaucoup de connaissances multidisciplinaires. Personne sur terre ne peut tout connaître du web (même pas moi et les autres auteurs de ce blogue :P). En effet, personne ne peut être un expert dans tous les aspects suivants:

  • la publicité display
  • la publicité sur les moteurs de recherche
  • la publicité sur les médias sociaux
  • La gestion de communauté
  • Le SEO
  • Le graphisme
  • La programmation web
  • La gestion de contenu
  • le marketing par courriel
  • l’expérience utilisateur
  • la vente en ligne
  • la génération de prospect
  • le marketing vidéo
  • le marketing mobile
  • le référencement local
  • la planification stratégique
  • la mesure des performances web
  • le marketing par affiliation
  • le remarketing
  • etc.

Donc, qu’elle soit à l’interne ou à l’externe, votre marketing web à besoin d’une équipe.

Équipe marketing

Le marketing web nécessite une stratégie

Un autre point qui fait en sorte que le marketing internet ne peut être gratuit et qu’il faut investir en réflexion stratégique avant d’investir en exécution de tactiques.

Je comprends qu’il peut parfois être frustrant de payer pour des choses non concrètes comme des conseils et des recommandations et difficile de le faire comprendre à son patron. Par contre, ces éléments sont des atouts qui peuvent faire la différence entre investir x $ sur le web pour n’obtenir aucun résultat et investir 1,5x $ et faire croître son entreprise.

Si vous hésitez encore à investir en stratégie web à cause des coûts que cela implique, vous vous rendrez compte un jour que vous perdez encore plus en faisant des erreurs fâcheuses.

Le marketing web nécessite de l’optimisation

Finalement, le dernier élément qui fait en sorte que le marketing sur le web n’est pas gratuit est que vous ne pouvez jamais considérer votre projet web comme terminé. La présence web d’une entreprise est un processus évolutif sans fin. Il y aura toujours quelque chose à améliorer. C’est ce qu’on appelle l’optimisation web.

Étant un outil totalement mesurable, le web nous permet, à l’aide d’analyses des données qu’il génère, de prendre du recul et de poser des actions dans le but d’optimiser les résultats. Rien ne sera jamais parfait et vous devez donc investir des sommes de façon récurrente pour maintenir et améliorer votre présence web.

Investir dans un nouveau site au 4-5 ans et ne rien faire d’autre entre temps n’est décidément pas l’option la plus avantageuse pour votre entreprise si vous voulez vous démarquer sur le web. Vous devez avoir un plan marketing web.

Voilà, j’espère que vous comprenez mieux maintenant pourquoi vous ne vous en sortirez pas sur le web sans investir un budget précis et réaliste. Si vous avez des commentaires ou réactions par rapport à cet article, il me fera plaisir de vous lire dans la section de commentaires au bas de cette page.

Un futur sans emploi

Une chose semble certaine : nous nous préparons à un futur sans emploi. Ou, en tout cas avec beaucoup moins d’emplois tels que nous les connaissons aujourd’hui. Les causes sont à la fois connues et nombreuses.

A commencer par les robots et autres machines intelligentes qui vont demain remplir un nombre croissant d’emplois aujourd’hui tenus par des humains. L’autre dimension vient des nouveaux modèles économiques et nouveaux modèles de travail qu’on qualifie aujourd’hui de digital labor.  Ce dernier prend un grand nombre de formes, du chauffeur Uber au Mechanical Turk d’Amazon, certaines plus enviables que d’autres, mais qui partagent un trait commun : une création massive de richesse d’un coté et une insécurité économique croissante de l’autre. Une « seconde économie » se forme, invisible, digitalisée et avale des emplois que, contrairement aux révolutions précédentes, nous ne verrons plus réapparaitre dans un secteur nouveau remplaçant l’ancien. Quant à l’économie du partage ses impacts en termes d’emploi, d’insécurité et de paupérisation sont relativement « prometteurs » dans certains secteurs.

L’enjeu est la distribution de la prospérité

A l’heure ou le travail devient à la demande, contingent, notre problème – comme dit dans l’article de McKinsey sur la seconde économie – n’est plus de produire de la prospérité mais de la distribuer. Autrement dit à défaut d’emplois nous allons tous avoir des activités contribuant à cette prospérité mais pour autant en toucher nécessairement les fruits.

Partant de là on voit trois attitudes possibles : l’engouement (c’est digital donc c’est le futur et c’est super), la résignation (on y échappera pas) ou la lucidité (ce qui remplacer le capitalisme tel que nous l’avons connuc’est le capitalisme en pire). Certains trouveront amusant que ce qu’on vend très bien sous le terme d’économie du partage, enrobé de bons sentiments, s’avère pire que le modèle qu’il remplace, d’autres beaucoup moins.

Bref la question aujourd’hui est de trouver le bon modèle qui permette d’être en phase avec les nouveaux modes de création de valeur, plus liés à l’activité et au travail qu’à l’emploi. Et si nous ne sommes pas encore prêts à faire face à la déferlante des robots nous sommes encore moins prêts à faire face à l’impact sociétal de ces nouveaux modèles que beaucoup poussent la fleur au fusil.

Le revenu de base ou la forfaitisation de la participation à la création de valeur

Le moindre de nos comportements est exploité et monétisé. Chacune de nos actions en et hors ligne génère de la donnée (et en générera encore plus chaque jour), ces données sont utilisées pour prendre de meilleures décisions, nous proposer de meilleurs services etc et in fine vont générer une valeur folle pour ceux qui les exploitent.

Ce constat a permis de remettre au goût du jour une vieille idée, celle du revenu de base. L’idée, rapidement résumée, est que si chacun contribue à la création de richesse mais que certains sont exclus du processus de partage de cette dernière car ne participent pas au flux financier, il suffit de forfaitiser leur contrepartie et leur retourner sous forme d’un revenu universel. Une idée qui n’a rien de neuf mais s’applique à des situations qui sont de plus en plus dans l’air du temps.

En effet si on reprend objectivement le business model de l’économie des données on trouve celui qui produit la donnée, celui qui la traite, celui qui fait business avec et seul le premier est exclu de l’équation financière finale. Un peu comme si vous aviez une nappe de pétrole sous votre jardin, que certains le forent, d’autres le raffinent et d’autres le vendent (à vous entre autres) et vous soyez le seul à ne pas toucher un centime sur l’opération. La chaine de valeur de la donnée exclut celui qui produit la matière première et si la solution est tout sauf évidente on ne peut s’imaginer que la situation puisse perdurer.

Cette idée peut nous amener à une autre : la valorisation du « patrimoine données ».

Valoriser les données individuelles comme un patrimoine

Après vient l’étape suivante. Si je génère de plus en plus de données et qu’elles servent à générer de plus en plus de valeur pour d’autres, si je pars du principe que j’en génère vraiment beaucoup plus que d’autres – peu importe la raison – ou que j’estime qu’elles ont une valeur particulière – reste à savoir pourquoi – je peux décider de les monétiser directement.

Cher Facebook maintenant j’en ai marre d’être un produit. Je deviens un fournisseur de données et tu paies en fonction.

On voit bien les limites du modèle : le système serait une vraie usine à gaz et il ne faut pas perdre que nos données personnelles ont peu de valeur sans les données des autres. Si on voit certaines entreprises s’aventurer sur cette route encore peu carrossable et à la destination hasardeuse, peut être qu’on verra un un jour des data brokers centraliser les opérations et faire l’intermédiaire entre les particuliers et les grands acteurs.

Aussi folle que cette idée soit, je vous laisse juste imaginer qu’un jour on assiste à une grève générale du « like », du « share » et de toute forme de contribution en ligne, que tout le monde navigue de manière privée…. Je vous laisse juste imaginer l’impact sur certains business models et les cours de bourse.

Mais pourquoi pas à long terme. De manière générale c’est la valorisation par chacun de son capital savoir et données…après tout on ne peut pas dire d’un coté qu’on est dans l’économie du savoir et des données et refuser à ceux qui les détiennent et les produisent en premier lieu de les valoriser et les monétiser pour réserver ce droit à des intermédiaire. Aujourd’hui le partage gratuit du savoir est devenu un instrument de valorisation de la marque personnelle dans un monde où il existe encore des emplois, qu’en sera-t-il lorsque l’emploi sera rare et qu’on aura plus un travail rémunérateur à coté de nos activités (gratuites) en ligne ?

Désintermédier et remplacer l’économie du partage par l’économie coopérative

Il y a un paradoxe dans l’économie du partage, proposée comme une alternative humaine – voire humaniste – non forcément au capitalisme en général mais au capitalisme financiarisé comme on l’entend aujourd’hui. Soit disant portée par les valeurs du web, on met en avant son coté désintermédié alors que le plus souvent elle ne l’est pas. Les vieux monopoles ont été remplacés par de nouveaux monopoles qui ont compris qu’il y avait plus fort que la désintermédiation : l’effet de levier. La différence entre G7 et Uber n’est pas flagrante sauf que le second a sorti sa plateforme avant l’autre et utilise le digital pour avoir un effet de levier plus important : plus de volume, moins de coûts. Avec toutes les critiques qu’on peut entendre sur le modèle en termes d’emploi.

Certains voient une alternative plus respectueuse des individus que cette forme d’économie du partage : les plateformes coopératives. De l’extérieur rien ne change, de l’intérieur tout est différent puisque la promesse de désintermediation faite par le web est enfin tenue. L’utilisation des leviers digitaux au service d’un vrai modèle desintermédié où la disparition de l’intermédiaire accroit la valeur partagée entre le client et les acteurs.

Parlant de ça, je vous invite à réfléchir deux minutes au caractère inéluctable et insurmontable du succès des Ubers and co. Par définition un intermédiaire est fragile et remplacer un intermédiaire par un autre ne change pas la nature du modèle. On est pas au bout du vrai changement, de la vraie économie collaborative, et les choses vont encore bouger de ce coté. L’option présentée ici est une option parmi d’autres mais elle n’est pas moins crédible qu’une autre.

Travailler moins pour faire face à la pénurie d’emplois

C’est une autre option proposée par de plus en plus en monde. Si les résultats de la dernière expérience de partage du travail mise en œuvre en France avec les 35h ressemble davantage à une énorme farce, l’idée revient et pas portée par n’importe qui puisqu’un des derniers à l’avoir évoqué est Larry Page de Google. Mais d’autres l’avaient déjà dit avant.

Là je suis plus sceptique. Si on a besoin de moins travailler individuellement pour produire autant cela ne signifie pas pour autant que le partage du travail va remettre du monde au travail. Il y a en effet le double enjeu de l’emploi et du revenu. Travailler moins pour moins de revenu ne fonctionne pas et maintenir le revenu est suicidaire vu de l’entreprise. Ce que vous dit Page c’est qu’on va pouvoir moins travailler, pas comment adresser les conséquences du fait qu’on travaille moins.

Et tous les remplois ne sont pas partageable. Les tâches routinières oui, les travaux intellectuels et créatifs beaucoup moins.

Mettre en place un modèle social de partage de risques

Les nouveaux modèles économiques partagent l’activité (beaucoup), le revenu (peu) et pas du tout les risques leur étant liés. Pour certains ces modèles n’arriveront à maturité que lorsqu’on y arrivera. Si l’entreprise abdique une partie de son rôle social en tant que partie prenante c’est à la société d’imposer de nouvelles règles.

Bref on a trois sujets à adresser conjointement :

• L’emploi : il y aura moins d’emplois et ils seront de plus en plus fragile

• Le risque économique et social : sera réparti sur la partie la plus fragile de la population

• Le revenu : va exclure une grande partie de ceux qui contribuent à le créer.

Je ne pense pas qu’on y arrive en prenant en compte un seul facteur à la fois, on risque de finir avec un système aussi bancal que celui qu’on veut remplacer.

Pleins de choses se disent et s’écrivent sur le sujet et je n’ai fait qu’en survoler une partie. Qu’est ce qui va fonctionner ? Je n’en ai pas la moindre idée. Mais il y a urgence à avancer vite.

On peut aussi dire « tant pis, c’est la victoire des entrepreneurs et de l’économie digitale ». Mais quand personne ne pourra plus acheter leur produits et services le serpent se mordra la queue.

« Les terres rares sont le pétrole du XXIe siècle »

Une chercheuse japonaise présente un échantillon de terres rares prélevées au fond des océans.

Investir dans les terres rares comme on parie sur des actions ?  Alors que les prix des métaux industriels continuent de baisser, des sociétés financières proposent aux particuliers d’investir dans les « terres rares », ces métaux confidentiels et coûteux qui entrent dans les fabrications de haute technologie et dont la Chine assure plus de 95 % de la production. Grégory Gautier, président du Groupe MTL Index, explique pourquoi il croit à ce placement, mais à long terme.

Pourquoi proposez-vous d’acheter des « terres rares » ?

Grégory Gautier, président de MTL Index

Parce qu’elles sont présentes dans les batteries des voitures électriques, les puces de nos portables et les composants de nos ampoules LED. Leur demande ne peut que croître et leurs prix aussi. Par exemple, de 2004 à 2013, le cours du dysprosium a explosé de 2 694 %.

Pourquoi ?

Il est très coûteux d’entretenir un parc marin d’éoliennes et moins elles tombent en panne, mieux c’est. Or leurs aimants « permanents » à haute performance contenant du dysprosium ne doivent être réparés en moyenne que toutes les huit mille heures de fonctionnement, alors que ceux qui sont fabriqués avec du néodyme défaillent au bout de six mille heures.

Mais est-ce bien raisonnable d’acheter une « terre rare » comme le dysprosium, produit à moins de 500 tonnes par an dans le monde ?

Aujourd’hui tout le monde est réticent à investir. La Bourse est aléatoire ; l’immobilier aussi ; l’or ne tient pas ses promesses. Il faut diversifier son portefeuille. Comment mieux le faire sinon en investissant dans un stock physique, donc sûr, qui répondra aux besoins croissants des industriels ? De plus, il s’agit d’un investissement de niche où l’on trouve peu de concurrents.

MTL Index revend donc ces métaux aux investisseurs ?

Non, nous leur fournissons des informations sur chacun des métaux qui nous semblent promis à un brillant avenir, parce que nous connaissons l’offre et que nous discutons avec les industriels pour connaître leurs besoins. Ce sont nos clients qui choisissent d’acheter de l’yttrium, utilisé pour la fabrication des pots catalytiques et des cartes à mémoire, ou de l’europium, dont la puissance d’éclairage sert aux tubes cathodiques et aux lampes à basse consommation.

Depuis un an, notre millier de clients placent leurs achats dans un entrepôt sous douane que gère la société Metlock à Francfort. Ils peuvent vendre leur stock quand ils le veulent et sans nous. Toutefois, nous leur conseillons de conserver leurs métaux entre trois et cinq ans. En fait, nous agissons comme des conseils en gestion de patrimoine.

Les cours des métaux rares baissent depuis 2012. N’est-ce pas décourageant ?

Au contraire, c’est le moment d’acheter, car nous savons que leurs cours vont remonter. La demande potentielle est gigantesque : ces métaux mineurs sont consubstantiels de la miniaturisation et de l’amélioration des performances des ordinateurs, des smartphones et des tablettes dont nous ne pouvons plus nous passer.

En regard, leur offre est peu élastique, car leur processus de production est long, complexe et concentré dans une poignée de pays, au premier rang desquels la Chine, qui assure plus de 95 % de la production mondiale.Voilà pourquoi nous disons que ces métaux sont le pétrole du XXIe siècle.