All posts by brzustowskiluc

Je suis curieux de tout ce qui touche l'évolution de notre monde

Synergie entre le chef de la direction et le président du CA : les quatre piliers

Avatar de Gouvernance des entreprises | Jacques GriséGouvernance | Jacques Grisé

Sous l’entête « What I write about », blogs in French, l’on retrouve tous ses articles en français.

L’auteure a une solide expérience d’interventions de consultation auprès de conseils d’administration de sociétés américaines et d’accompagnements auprès de hauts dirigeants de sociétés publiques.

Dans ce billet, elle aborde l’importance de créer une synergie  entre le président du CA et le premier dirigeant. Elle décrit les quatre piliers essentiels à de bonnes relations entre les deux parties : la confiance, le respect, la communication et la collaboration.

Bonne lecture ! Vos commentaires sont les bienvenus.

Synergie entre le chef de la direction et le président du CA : les quatre piliers

par

Johanne Bouchard

Tant le président d’un conseil d’administration…

Voir l’article original 1 016 mots de plus

Nine Disruptive Technologies Changing The World

9 disruptive technologies Intelligenthq

Change is pretty much a constant state of affairs in the 21st century, and in no area is this truer than that of technological development. Technology has swept aside vast, powerful established industries, transforming them fundamentally in just a few years. Take, for example, the way that music has changed, moving from LPs to CDs to music available in online files. This occurred in a very short time frame. Other organisations have found their industries transformed to a similar scale. All of this means that understanding upcoming disruptive technologies can help organisations to create new business models and adapt in good time. PreScouter developed a reportwhich showed that there are nine disruptive technologies that promise to revolutionize the world as we know it. The nine are big data, automation/AI, Internet of Things, MEMs, nanomaterials, biotechnology, terahertz, advanced energy and 3D printing. Each of these is now described.

1. Big Data – PreScouter predicts that “Big Data will be a $50 billion industry by 2017”. This is no big news, as many have predicted how big data will shape the world and will impact industries and organizations.The volume of data that people are producing is increasing at a tremendous rate, and this is only likely to further grow as a result of technology like wearable devices. At the same time costs of storage of this data have declined and this will enable predictive relationships to be produced according to PreScouter.

Viegas user activity on wikipedia Image source: wikipedia

2. Automation and Artificial Intelligence – PreScouter believes that artificial intelligence is starting to get introduced into consumer goods and this is already a $20.5 billion industry. Pre-runners like Siri are thought to be outdated and too “gimmicky” to be useful. AI that is placed in the backend however provides websites the ability to present different information to consumers based on their own preferences. This clearly has considerable marketing implications. Another important issue is the impact of automation and robots on economy and labor. What some call the “robots economy” is revolutionizing what we know as work, and the trend promises to continue to develop.

Automation equipment

3. The Internet of Things – while so many devices are not yet connected to the Internet, by 2022 PreScouter believes that there will be a network of 50 billion connected objects. When this is paired with the technology for artificial intelligence it is believed that factories will be able to become smart, and that this could contribute a whopping $2 trillion to the global economy.

Internet of things

4. Microelectromechanical Systems (MEMs) – MEMs are reported by PreScouter to be sensors that transfer information between the worlds of the physical and the digital. It is argued by PreScouter that advances to make these devices more miniature have transformed the medical world as well as industrial diagnostics. An health revolution has been promised by many. An interesting report published by MIT´s technological review reports on the latest advancements on this important area that combine Big Data with MEMs.

MEMs Image source: shopage.fr

5. Nanomaterials – related to the MEMs detailed above, nanomaterials are explained by PreScouter to have driven miniaturisation. They are also able to be used to create new classes of materials, such as changing the colour, strengths, conductivities and other properties of traditional materials. The market is already thought to be worth more than $25 billion in this area.

6. Biotechnology – agricultural science is believed to be advancing to new boundaries beyond that of breeding and crossbreeding, according to PreScouter. Indeed, it is explained that biotechnology has advanced to such a point that crops are able to be developed that are drought-resistant and have better vitamin content and salinity tolerance. All of this has tremendous potential to get rid of the problem of hunger in the world. The market already exceeds $80 billion a year, argues PreScouter, and it is growing rapidly.

Plant done through biotechnology

7. Terahertz Imaging – PreScouter reports that the market for Terahertz devices is predicted to grow by 35% per year annually and to reach more than $500 million by 2021. But what is it?  Terahertz Imaging “extends sensory capabilities by moving beyond the realm of the human body”. This helps to create imaging devices that can penetrate structures, for example. They are being used to detect explosives that were previously considered to be invisible, as well as in path planning for self-driving cars (PreScouter).

terahertz

8. Advanced Energy Storage and Generation – the ever expanding population of the world has an equally ever expanding need for energy, and this is being made more challenging by legislation to deal with the challenges of climate change. There have been significant advances to battery technology according to PreScouter, and this alone is estimated to have an economic impact of $415 billion. Greener products are also much more incentivised and it is thought likely that cold fusion power could become viable, argues PreScouter. Solar Power has also developed considerably and is an area that promises to grow considerably and become a viable energetic alternative,  as its becoming increasingly cheaper.

Compressed air energy storage

9. 3D Printing – last but not least, 3D printers are making tremendous strides, and PreScouter points out that this is already a $3.1 billion industry that is growing by 35% each year. This will continue to transform industries as the prices of printers drops and more people can gain access to them. On the other hand the Maker´s mouvement is gaining momentum, which is producing a new generation of people interested and with the skills to do things.

MakerBot´s 3D printing machine

The five essential factors of business improvement

As we emerge from what has been a very fragile economic climate, many organisations are now embarking on business improvement initiatives in a bid to greatly enhance customer service and sustain growth and profitability. In many cases, companies concentrate on only one element of change and disregard other factors when making improvements. This often leads to change being unsustained or results not being delivered at all.

These are five fundamental factors that influence successful business improvement:

1-      Customer journey: Many organisations fail to grasp the importance of the customer journey and experience. By taking the time to understand customers’ current and future needs, companies are better placed to answer these. Equally, business practices can be developed that enhance the customer experience and lead to increased growth and loyalty. The customer is the life blood of the company, without the customer we don’t have a business, yet all too often they are overlooked.

2-      Operating Framework: Many businesses assume that the development and implementation of new technology is the answer to all operational and reporting problems. The reality is, this will only support existing behaviours, rather than changing them. A system is not a substitute for management action. If the system is not updated and used properly by the people within your business, it will not be effective.  In order to drive and support the right kinds of behaviours, an effective operating framework is required. This is the glue that holds any business together. It comprises the forecasting, planning, controlling and reporting of work.  It enables key questions to be answered like what needs to be delivered and when? What and how many resources are needed? How are you performing against plan? What has been achieved? How can you improve?

3-      Processes:  Companies tend to stick to what they know. They believe that operational processes that have always worked will continue to be effective and deliver profit. Changing a process will cost time and money and is often something that teams would rather avoid. However, operational processes inevitably become out of date. Steps are introduced without careful consideration of the wider impacts, and slowly materials and time are introduced to make life “easier”, or to meet “customer” demand.  This can cause your once efficient process to become inefficient.  It will cost your business more if you don’t change your inefficient processes. Teams are not always compliant and become complacent, if the process is not easily executed and intuitive. Often teams find short cuts, even if those short cuts cost you money. In addition, when processes are re-engineered, it is normally through some kind of technology implementation or a Lean/Six Sigma type initiative. Typically, once re-engineered, they are well laid out and logical. However, the control of the processes is often what’s missing, allowing things to go low visibility, creating chases and causing frustration for both staff and customers alike. Processes can be controlled through active management and an effective operating framework.

4-      Policies: The common understanding is that policies are put in place to satisfy a regulatory body or meet the needs of an accrediting body, that will award some sort of recognised badge, ITIL, ISO, H&S, IIP etc. Businesses believe that this will enable the organisation to gain status and recognition within their field. Some policies are enforced and are a legal requirement.  In order to adopt policies successfully, the necessary systems and processes need to be embedded first and most importantly, employees need to be fully trained in their execution.

5-      People / Staff Engagement:  It is assumed that people within the business should be committed and loyal because they are being paid. Firms also believe that if they give their employees a new system to use, or train them in a new process that it will be followed without question and supported. The people within your business are the most influencing factor in determining whether your improvement initiative succeeds or fails. If the teams within your business do not use the system, follow the process or comply with the policy, your initiative will fail. Staff will only do this if they are fully engaged. Managers have a responsibility to ensure their teams’ values and beliefs align to the goals and objectives of the business. Furthermore, it is imperative to ensure the attitudes and behaviours of staff within your business are engaged and positive, and the communication within your company is concise, open and honest. The people within your business hold the key to its success.

For your business to realise and fulfil its potential, these five factors must be considered. Whether your company is looking to cut costs, maintain strong growth, greatly enhance the customer experience or gain a competitive edge, Balcroft can help you implement sustained change to ultimately achieve your long term business aims and goals.

Le Big Data : un enjeu pour les industries créatives

ARTICLE  par  Jean-Paul SIMON
Le Big Data : un enjeu pour les industries créatives
Anticipation de la demande, création de nouveaux contenus ou mise en avant d’artistes, que font les industries créatives avec le Big Data ?

Sommaire

La notion de Big Data, en français « mégadonnées »[+] ou « données massives » s’est rapidement répandue depuis quelques années, portée par des sociétés de conseil et largement relayées par les médias, puis les pouvoirs publics, sans pour autant faire l’objet d’une définition précise. Ces données sont souvent présentées comme le « nouvel or noir de la croissance », voire le « futur moteur » de l’économie. Comment définit-on le Big Data, quel est son périmètre et la taille du marché ? Comment les industries créatives en tirent-elles parti ?

La valse des zettabytes ou la folie des grandeurs

Selon les estimations les plus plausibles[+], mais il ne s’agit que d’un ordre de grandeur, la masse de données disponibles dans le monde serait passée de 3 milliards de gigabytes[+] en 1987 à 300 milliards en 2007 soit une multiplication par 100 en l’espace de 10 ans[+]. L’explosion annoncée des données (jusqu’à 7 zettabytes prévues pour 2015) provient de la croissance exponentielle des données disponibles, combinée à une capacité toujours plus grande de collecter, traiter et analyser ces données. Elle aura été rendue possible par le déploiement des infrastructures de réseaux (haut débit et de plus en plus, très haut débit), ainsi que par l’équipement des ménages en terminaux divers, avant tout mobiles (smartphones, tablettes et phablettes).

Ces données proviennent de sources diverses et hétérogènes : des individus eux-mêmes, des machines ou des capteurs. Il s’agit à la fois d’informations générées passivement, sous-produits d’une activité communicationnelle, et d’informations délivrées volontairement sur Internet. La fusion des données provient donc de sources disparates, numériques ou analogues[+].
L’indicateur le plus simple de cette explosion est la croissance impressionnante du trafic de données mobiles, suivie annuellement par Cisco qui souligne notamment la dominance des données vidéo[+](près de 80 % du total prévu à l’horizon 2018) ainsi que le rôle moteur des consommateurs.

Cette combinaison des infrastructures et des terminaux adéquats ouvre la voie à un développement de l’Internet des objets qui va encore accroitre le nombre de données. IDC prévoit la connexion de 212 milliards de terminaux pour 2020. De la même façon, les communications de machine à machine (M2M) sont en augmentation constante du fait de la baisse des coûts, d’une couverture améliorée, d’une offre de technologies radio plus pertinentes et d’un nombre croissant d’applications. SAP prévoit plus de 2 milliards de terminaux connectés pour 2021 contre seulement 200 millions en 2013.
En valeur, le marché des mégadonnées estimé par Transparent Market Research à 6,3 milliards de dollars en 2012, devrait atteindre 8,9 milliards en 2014 pour s’élever à 48,3 milliards en 2018. IDC indique 16,1 milliards de dollars pour cette même année 2014[+].

Revenir au sommaire

Des contours incertains

Il reste à se demander à quoi renvoient ces chiffres et quels processus ils recouvrent. La confusion règne le plus souvent en matière de définition. Malgré la pléthore de rapports en la matière,  il n’existe pas de définition reconnue des Big Data il n’existe pas de définition commune des Big Datareconnue sur le plan international, pas plus que de définition opérationnelle qui servirait à comprendre les développements des marchés, les contours du secteur et la nature des activités qui s’y déroulent. Confusion qui pourrait bien être voulue, car le flou renvoie souvent à des stratégies de vendeurs, comme le note perfidement Tim Harford.

On peut faire remonter la notion deBig Data à un rapport du Meta Group de 2001 qui identifiait trois dimensions de la croissance des données, les 3V : le volume[+], la vélocité[+] et la variété[+]. Sont venus s’ajouter trois autres V, la véracité[+], la valeur et la visualisation, ainsi que la complexité[+].

Les processus liés aux Big Datarenvoient à l’extraction (« data mining ») et au traitement d’un volume très important de données afin de mieux comprendre le comportement du consommateur, de gérer les chaînes de production ainsi que de nombreux autres aspects de l’activité économique.

La chaîne de la valeur des Big Datacomprend l’acquisition de données (structurées ou non), l’analyse, la conservation, le stockage et l’utilisation de ces données à des fins diverses : prévision, simulation, exploration, visualisation, modélisation. Les composants de base sont les logiciels (de loin le plus important selon IDC), le matériel et le stockage. De nouveaux outils sont apparus pour extraire, charger et transformer les données, et de nouvelles technologies telles Apache Hadoop[+] et NoSql sont au cœur du traitement.

Revenir au sommaire

Inflation verbale ou réalité économique?

Depuis 2001, de nombreux rapports, émanant de sociétés de conseil pour la plupart, se sont succédé pour enjoindre aux « naïfs » d’ouvrir les yeux face au phénomène des Big Data. Toutefois, le rapport de McKinsey de 2011 restait prudent, se contentant de fournir des exemples d’applications pour quelques secteurs alors impliqués. Toutefois, il notait déjà que tous les secteurs industriels n’étaient pas égaux face aux Big Data. Le rapport indiquait que les « suspects habituels » (fabricants de produits électroniques et acteurs du traitement de l’information) étaient les plus à même de bénéficier de manière substantielle de l’accès à de vastes quantités de données, ainsi des sociétés du monde de l’internet qui récoltent des masses de données. En revanche, des secteurs tels que la construction, l’éducation et les arts et loisirs donnaient des signes de productivité négative ce qui révélait la présence de barrières systémiques jouant contre l’accroissement de la productivité.

De la même façon le cabinet IDC[+], notait que les bénéfices escomptés  n’étaient pas toujours clairs. La société indiquait notamment qu’en 2013 environ 5 % de la masse des données avait une utilité, même s’il prévoyait un doublement pour 2020. La pénétration du M2M serait de l’ordre de 2 % des abonnements aux réseaux dont on mesure le trafic, soit environ 0.1 % du trafic de données mobile.

De plus, selon le rapport SAS 2013, la plupart des organisations n’ont pas développé, mis en place, ni exécuté une quelconque stratégie concernant les mégadonnées. Rien d’étonnant alors à ce que les sociétés de conseil insistent sur la nécessité d’acquérir une « mentalité ouverte aux données ». Toutefois, toutes les sociétés ne disposeront pas de spécialistes en la matière, ce qui pourrait constituer a fortiori une barrière à l’entrée non négligeable, exigeant investissements en formation et en temps.

Dans un livre blanc (2014), le monde de l’édition de livre souligne déjà ce point particulièrement sensible pour les petites maisons d’édition, ajoutant que, de surcroît, l’expertise extérieure est coûteuse. Le livre blanc note que les fournisseurs de services de technologies, tels que Klopotek[+]ou Publishing Technology[+], privilégient les grands éditeurs internationaux ou les éditeurs scientifiques et techniques qui ont déjà sauté le pas, même si on peut espérer qu’à terme la baisse des coûts, ou une concurrence accrue, élargiront leur base de clientèle. En tout état de cause, Macmillan est devenu un partenaire incontournable de sociétés telles que Next Big Book qui offre des services de traitement des Big Data. Ces deux sociétés ont développé un tableau de bord pour identifier et suivre les facteurs ayant le plus d’influence sur les ventes de livres.

Revenir au sommaire

La signification du phénomène pour les industries de contenu

L’élimination de ces barrières provoquera des tensions et des conflits aussi longtemps que le rapport coût/bénéfice restera incertain, comme ce fut le cas de l’informatisation des sociétés dans les années 1970. Dès lors, la question qui se pose est de savoir ce que l’on peut faire, en réalité, de ces Big Data, car une estimation de la taille des marchés (volume, valeur) ne suffit pas à rendre compte du phénomène.

Les Big Data ont fait irruption au début de ce siècle, portées par des start-ups et des sociétés de l’Internet telles eBay, Facebook, Google ou LinkedIn, qui se sont construites sur ces mégadonnées, sans avoir à les intégrer à des sources de données plus traditionnelles. On leur doit d’ailleurs une partie des technologies actuelles dans le domaine: Google a été l’inspirateur de Hadoop, Facebook a développé Cassandra. Ces sociétés ont porté le passage de l’ « analytique 1.0 »[+], selon T. H. Davenport et J.Dyché, à l’ « analytique 2.0 » à partir de 2005 en exploitant leurs données en ligne, pour déboucher sur  « l’analytique 3.0 » à partir de 2012, qui ouvre la voie aux données « prescriptives ».

De fait, les « dragons numériques »[+] sont intrinsèquement les mieux placés pour tirer parti de cette évolution, des nouvelles formes d’analyse des mégadonnées et du « cloud computing »; Amazon (AWS) comme Google (Big Query) et Microsoft (Azure) en sont les principaux fournisseurs de services pour tiers. Les nouveaux acteurs du numérique sont aussi les pionniers de l’extraction des données pour la compilation des recommandations de leurs utilisateurs (Amazon, Netflix, Pandora, Zynga…).

Les fournisseurs de contenus créent des unités pour superviser leurs activités d’analyse, tels Amazon et LinkedIn créant des « centres d’excellence », Netflix centralisant complètement cette activité. La société de distribution de films a produit sa série à succès House of Cards  après analyse des données de sa base de clientèle, soit des millions d’interactions quotidiennes, des millions de recherches, ainsi que des tags et autres métadonnées. Amazon Publishing repère les œuvres épuisées (AmazonEncore) ou à traduire (AmazonCrossing) à partir des données clients. Google, comme Zynga, s’appuie sur un département opérationnel, la société de jeux vidéo ayant été la première à relier la conception de jeux à son modèle d’affaires[+](jeux gratuits et ventes d’articles virtuels). Spotify s’est illustrée par ses prévisions pour les Grammy Awards effectuées à partir de l’analyse des flux de données.

Revenir au sommaire

Big Data : de nouveaux services pour les industries créatives

De nouvelles sociétés sont apparues pour offrir leurs services aux industries créatives. Les acteurs de la musique, du cinéma ou de l’édition se voient proposer toutes sortes de services à des fins commerciales.

Next Big Sound, une société lancée en 2009, analyse toutes sortes de données pour l’industrie de la musique (provenant de YouTube et Spotify, de statistiques issues des medias sociaux) afin de déterminer le meilleur canal de vente. La société indique traiter désormais les données pour plus de 85 % de l’industrie de la musique). Depuis son lancement en 2009, la société a recueilli plus de 4 années de données sur les réseaux sociaux pour des centaines de milliers d’artistes. Elle établit des corrélations entre les ventes et les chiffres de streaming. Elle entend contribuer à une redéfinition de la façon dont les musiciens sont découverts, commercialisés et évalués en liant perception, implication et recettes. Sa filiale, Next Big Book suit auteurs et livres par l’intermédiaire de plusieurs réseaux sociaux, des données de vente et provenant d’événements.

Persistent Systems a aidé Chennai Express, l’un des films les plus gros vendeurs d’entrée du box-office indien, pour sa campagne de marketing, en analysant plus d’un milliard de réactions et un nombre total de plus de 750 000 tweets pendant les 90 jours de cette campagne.
United Talent Agency et Rentrak, société spécialisée dans les mesures d’audience cinéma et TV, ont créé un service PreAct à l’intention de l’industrie du cinéma qui dissèque, à base d’algorithmes, les données de réseaux sociaux. La société a comme client Sony Entertainment et 20th Century Fox.

L’analyse des données permet aussi dans le cas du cinéma, comme de la musique de partir du piratage pour, à l’inverse, stimuler les ventes. Ainsi, le groupe de rock « Iron Maiden » qui avait repéré une forte croissance de fans et pirates en Amérique latine, y a organisé une tournée spécifique avec grand succès. La presse, elle, semble encore se chercher[+].

Revenir au sommaire

Mégadonnées ou méga-problèmes?

Les rapports et articles font souvent preuve de beaucoup d’optimisme en annonçant que le recours aux mégadonnées (Big Data) permettra, par exemple, aux cinéastes et à l’industrie cinématographique de prévoir les tendances. Ce déterminisme informationnel relève d’une conception mécaniste, quoique courante, du rôle de la technologie, qui comporte le risque de ne servir (souvent de façon inadéquate) que la majorité laissant de côté les minorités. De plus, les statisticiens le savent bien, corrélation ne signifie pas causalité. L’échec de la prévision de la grippe par Google (surestimation de l’ordre de 50 %)[+] est là pour nous le rappeler.

Les applications les plus fréquemment mises en avant relèvent du marketing (exemple de Criteo[+]) ou d’une forme ou d’une autre de commerce électronique, dont on perçoit aisément l’apport potentiel. Ainsi, dans l’exemple cité d’Iron Maiden il s’agit d’une rationalisation de détection de la demande. Toutefois, d’un point de vue plus qualitatif, dans l’univers des contenus, l’analyse des données peut s’avérer être un cercle vicieux du point de vue de la création et de l’innovation.  La prévision de la demande peut relever du fantasme Chercher ce qui est le plus populaire en musique comme au cinéma n’est pas forcément la meilleure façon de trouver des œuvres nouvelles et majeures. La prévision de la demande peut relever du fantasme et, en tout état de cause, les exemples cités, dont celui de Netflix, ne sont que des cas isolés jusqu’à présent. Il reste ainsi à voir si la firme de distribution peut confirmer ses succès dans la production, ou alors tomber dans les aléas habituels d’une profession marquée par l’incertitude. De fait, la dernière série en date, « Marco Polo”, ne semble pas susciter le même enthousiasme que Game of Thrones

Enfin, des problèmes plus généraux se posent en matière de protection de la vie privée : et de sécurité. Une enquête de 2012 de l’institut de recherche Pew Internet donnait un verdict pour le moins partagé entre ceux qui décelaient le fort potentiel des Big Data et ceux qui étaient de plus en plus préoccupés des abus possibles.

En ce qui concerne la protection des données, les normes de protection actuelles (anonymisation, consentement individuel et clause de retrait) s’avèrent de moins en moins appropriées et devront être modifiées notamment pour passer du contrôle des données elles-mêmes à leur utilisation, l’anonymisation des données devenant de plus en plus délicate. De plus, l’équilibre entre la collecte d’information à des fins sécuritaires et les droits fondamentaux se modifie.
La gestion de ces problèmes sociétaux majeurs prendra du temps, générera des tensions entre promotion de l’innovation et protection des droits. La technologie est autant une partie du problème que de la solution. Pour autant, les problèmes technologiques ne doivent pas être sous-estimés ni considérés comme réglés ou en voie de l’être. La poursuite de la croissance indéniable de cette valse des zettabytes passe par le déploiement de réseaux à même de traiter ces données (4G, 5G), de contribuer au développement de nouvelles applications, à la mise en place de nouvelles plateformes, au développement de nouveaux terminaux mobiles[+] à des prix accessibles et d’une connectivité appropriée.
Passer au crible une masse d’information est une opération complexe, le stockage de terabytes n’est pas simple non plus. Si les barrières à l’entrée peuvent se réduire avec la chute des coûts, notamment avec le « cloud computing », l’expertise reste coûteuse et peu ou pas présente dans les industries créatives.
Cette inégalité entre acteurs traditionnels des médias et dragons numériques est source de conflits, comme on l’a vu dans le désaccord qui a opposé Amazon et Hachette. Ce conflit renvoie à un problème de concurrence, de concentration du marché entre les mains des oligopoles du Big Data, de ces « barons des données »[+], même si pour l’instant, cette tendance a été contrecarrée par la vivacité de l’écosystème des start-ups dans le domaine.

En résumé, les mégadonnées sont peut-être là, mais la méga-vision manque encore à l’appel.

Revenir au sommaire

Comment réactiver son potentiel ?

Chronique de Jean- François Guédon Association Philotechnique

Pour maximiser ses chances de succès dans la vie personnelle comme dans la vie professionnelle, il est nécessaire d’activer en permanence son potentiel. Pour cela, un élément est important : l’équation personnelle.

Qu’est-ce que votre « équation personnelle » ? Dans les manuels de psychologie comme dans les dictionnaires courants, c’est tout simplement l’ensemble des éléments qui contribuent à définir la personnalité de quelqu’un.

Maitriser son équation personnelle permet de réaliser la célèbre maxime de Socrate: « Connais-toi toi-même et tu connaîtras l’univers et les dieux ».

Et Aristote avait ajouté à l’intention de son élève Alexandre (futur Alexandre le Grand !) : « Commence par faire la conquête de toi-même si tu veux conquérir le monde ».

En d’autres termes, votre équation, c’est vous. C’est un ensemble de qualités et de défauts qu’il faut savoir utiliser, valoriser pour affirmer votre place en société. Au tout début ou cours des entretiens, les jurys ou les recruteurs vous demanderont souvent d’exposer cette équation, directement ou indirectement, soit en présentation globale, soit au cours de discussions ponctuelles

Etre concret, présent et vivant

N’apprenez pas de façon superficielle, ou par simple souci d’accumuler des connaissances, sans penser à les situer dans votre contexte, en vous oubliant. Soyez vigilant sur vos besoins prioritaires, sur vos projets, sur leur évolution. C’est le moyen le plus sûr de ne pas oublier, de ne pas se disperser, de profiter au maximum de tous les acquis ou investissements possibles.

Mais peut-être ne voyez-vous pas toujours où vous allez, où vous voulez aller. Pourquoi tel investissement en vue d’une nouvelle formation, ou éventuellement tel examen ou tel concours, telle nouvelle orientation ? Pourquoi viser telle ou telle embauche ou changement d’orientation dans une entreprise ? L’enjeu vaut-il vraiment l’investissement et les sacrifices ? Et comment vous organiser au mieux ?

Le plus néfaste, ce serait de penser que ce que vous désirez est impossible. Ou, pire encore, quand une opportunité se présente, de penser que c’est à la fois inutile et hors de votre portée.

Par exemple, vous pouvez ressentir le besoin de vous engager dans une formation, ou une opportunité vous est offerte… Ce peut être avec un objectif ponctuel (acquérir une nouvelle compétence, ou vous perfectionner dans un domaine déterminé), et donc avec un programme précis à établir. Ce peut être avec un objectif plus ambitieux, avec un programme global en vue d’une promotion ou d’une réorientation… et donc une opération ou une série d’opérations beaucoup plus complexes.

Evaluez la situation au regard de la réalité et de vos souhaits

Vous vous ferez, c’est-à-dire : vous vous formerez et vous vous construirez.

Penser à l’adage antique « Faber fit fabricando » = « c’est en forgeant qu’on devient forgeron ».

L’examen, le concours, le diplôme, une nouvelle certification, c’est une balise dans la formation, la marque d’une étape, la partie émergée de l’iceberg.

N’en surestimez donc pas la valeur. Mais ne les négligez donc pas non plus.

L’examen, le concours, les procédures de formation et promotion, sont des moyens à votre service. Vous avez décidé de les utiliser, alors faites-le de façon cohérente et efficace. C’est-à-dire en pensant à vous, à ce qui est possible, à ce qui est souhaitable.

Ainsi composerez-vous votre équation personnelle, née de vos désirs et confrontée à la réalité.

Profiter des chances et des opportunités qui s’offrent à vous

Ce peut être le cas notamment dans le domaine de la formation, des opportunités de mobilité ou de promotion.

Comme le dit le célèbre proverbe, « si la chance frappe à ta porte, précipite-toi pour l’ouvrir ».

Une autre maxime pourrait inciter à l’audace : « Celui qui attend la fortune est moins sûr de la rencontrer que celui qui va au-devant d’elle ».

Plus je travaille, plus la chance me sourit

Notre bon Jean de La Fontaine n’avait pas manqué de souligner la nécessité d’un travail acharné : « Travaillez, prenez de la peine, c’est le fond qui manque le moins ».

Plus près de nous, Philippe Bouvard (grand humoriste et « gros bosseur » devant l’Eternel) avait écrit cette phrase fort sage, que Jean de La Fontaine n’eut pas désavouée : « La réussite, c’est d’abord d’être au travail quand les autres vont à la pêche. »

Et avant de vous lancer dans la course (…le marathon !),vous pouvez avoir à l’esprit cette pensée de Lao Tseu : « Un grand voyage commence toujours par un premier pas ».

L’équation personnelle, c’est essentiellement une formule  moderne qui recouvre à la fois votre personnalité, votre capacité, votre potentiel, votre vocation et vos ambitions.

Encore faut-il que cette vocation soit réelle … et réaliste. N’avez-vous pas choisi une voie trop étroite et / ou trop élevée ? Si les chances de réalisation sont infinitésimales, il faut penser dès maintenant aux solutions de « rechange », ou tout au moins aux « solutions d’attente ».

Réfléchir aux voies qui s’offrent à vous

Si votre vocation vous dirige vers une filière de formation spécialisée, il faut évidemment vous y consacrer en priorité. Cela vaut pour les Instituts universitaires de technologie (IUT), les Écoles d’ingénieurs, ou toute filière professionnelle, par exemple au Conservatoire national des Arts et Métiers (CNAM).

Mais il ne faut jamais négliger la culture générale, les éléments généraux et polyvalents de la formation, qui sont indispensables au développement de votre personnalité comme de l’ensemble de vos capacités (et qui, accessoirement, sont aussi indispensables pour vous permettre à moyen terme et à long terme d’éventuelles reconversions professionnelles).

A bien noter aussi : de nos jours, des compétences techniques sont devenues indispensables au même titre que la culture générale (informatique ou NTIC, nouvelles technologies de l’information et de la communication).

L’alliance entre culture générale et formation spécialisée, affirme et affine votre « équation personnelle ». L’examen, le concours, ou simplement les diverses occasions que vous avez de vous présenter, permettent de la tester.

Le rôle des valeurs

Il sera toujours bon de penser aux qualités, capacités et compétences à développer. Au plus haut niveau, il importe de réfléchir aussi sur le thème des valeurs.

Quelles sont vos valeurs permanentes, depuis votre première éducation, et la naissance de votre vocation ? Quelles valeurs nouvelles devriez-vous prendre en considération pour les développer au cours des prochaines années ? Quelles valeurs avez-vous développé depuis ?

Vos valeurs conditionnent à la fois votre motivation et votre capacité à agir.

La stratégie du responsable RH de Google pour gérer une armée de génies de la technologie

Le management chez Google est très différent de celui d’autres entreprises. Voici, selon Laszlo Bock, le responsable RH de Google, les critères pour être un bon manager.

Google a toujours eu une conception particulière du management. En 2002, Larry Page et Sergey Brin ont transformé et réorganisé l’entreprise de façon « horizontale », supprimant les responsables ingénieurs. Ce fonctionnement n’a duré que quelques mois, car Page ne pouvait pas répondre à toutes les requêtes d’aide à la prise de décision ou d’évolution de carrière.

Puis, en 2009, Google a lancé le projet Oxygen, une investigation pour déterminer l’utilité des managers. La conclusion ? Ils sont effectivement utiles. Mais leurs rôles ne sont pas les mêmes que dans les autres entreprises. Laszlo Bock, responsable RH de Google, a déclaré à Max Nisen de Quartz en début d’année que la définition du management chez Google était très particulière.

Selon lui, dans la plupart des entreprises, quand une personne devient manager, c’est parce qu’elle dispose de plus de compétences que les autres et est capable de composer avec les jeux de pouvoir au travail. « Tout ce que cette personne vit lui apprend qu’elle doit être convaincante, droite, et qu’elle doit prendre toutes les décisions nécessaires, » explique Bock.

Puis vous arrivez chez Google. Toute votre équipe est aussi intelligente que vous. Voire plus. « L’idée dans ce cas ce n’est pas de prendre une décision en tant que leader, » explique Bock, « c’est de trouver comment tirer le meilleur de l’équipe. »

Cette prise de conscience constitue un bouleversement important pour beaucoup de personnes.

« Vous vous rendez compte que les leviers dont vous disposiez dans une autre entreprise n’ont pas d’effet chez Google, et que vous avez beaucoup moins de contrôle et de pouvoir. Vous ne décidez pas qui embaucher ou quelle prime va recevoir tel employé. Vous ne décidez pas qui aura une promotion. »

Bock déclare que quand vous devenez manager chez Google, vous devez intégrer deux éléments : premièrement « vous êtes entourés de gens incroyables » et deuxièmement « vous ne disposez d’aucun des leviers traditionnels pour faire appliquer quelque chose. »

L’objectif d’un manager chez Google c’est de trouver comment tirer le meilleur de l’équipe

A cause de ces deux aspects, le travail de manager chez Google ressemble beaucoup plus à celui d’un chanteur accompagné au piano plutôt qu’à celui d’un sergent instructeur avec une recrue.

« Vous êtes obligé de trouver comment créer de la valeur sans utiliser le pouvoir. Vous y parvenez en influençant, en donnant aux gens d’une part des opportunités d’apprendre et d’autre part plus de libertés. »

Aujourd’hui, Google recueille les avis sur les managers en utilisant son « Upward Feedback Survey« , questionnaire que les employés utilisent pour rapporter anonymement ce qu’ils pensent de leur supérieur.

Voici les critères pour être un bon manager :

  • Faire des commentaires utiles qui aident les employés à améliorer leurs performances.
  • Eviter la micro gestion : ne pas s’impliquer dans des détails qui devraient être gérés à d’autres niveaux.
  • Faire preuve de considération envers les employés.
  • Maintenir son équipe concentrée sur les résultats prioritaires.
  • Partager régulièrement avec son équipe les informations pertinentes venant de son propre supérieur et de la direction.
  • Avoir des discussions constructives à propos de l’évolution de carrière de chaque membre de son équipe au moins une fois tous les 6 mois.
  • Communiquer des objectifs clairs à son équipe.
  • Disposer de l’expertise technique requise pour gérer efficacement son équipe.
  • Les employés vous recommanderaient à leurs collègues.

Acquérez toutes ces compétences et vous serez un excellent manager chez Googleaffirme Bock.

Article de Drake Baer. Traduction par Manon Franconville, JDN.

Voir l’article original : This Google exec has the perfect strategy for managing an army of tech geniuses

Guide destiné à mieux évaluer les risques

Avatar de Gouvernance des entreprises | Jacques GriséGouvernance | Jacques Grisé

Voici un article très intéressant sur l’évaluation des risques publié par H. Glen Jenkinset paru dans Inside Counsel (IC) Magazine.

Il s’agit d’un bref exposé sur la notion de risques organisationnels et sur les principaux éléments qu’il faut considérer afin d’en faire une gestion efficace.

Je vous invite à prendre connaissance des autres publications sur le site de IC, notamment Evaluating and managing litigation risk.

Bonne lecture !

Risk assessment: A primer for corporate counsel

The scope of legal responsibilities for in-house counsel varies depending on the size and complexity of the company. For instance, an attorney located at corporate headquarters could be chiefly responsible for issues affecting the shared services that are available and used by corporate headquarters, as well as every business unit and division. And yet at other times, in-house counsel’s concerns may be restricted to matters affecting only the parent company or a…

Voir l’article original 1 188 mots de plus

Les négociations financières et la valorisation

  • – shutterstock.com

Une fois la décision d’investissement confirmée s’ouvre la phase de négociation financière. La négociation peut durer plusieurs mois. Elle va amener à débattre des besoins à financer et de la valorisation de l’entreprise.

Pour commencer, quelques définitions …

Valorisation : La valorisation est le prix de l’entreprise sur le marché à un instant donné. Cette valeur tient compte du passé et de l’avenir attendu, mais aussi de la valeur marché (prix que quelqu’un est prêt à mettre…). Vous devez garder à l’esprit que, tant qu’elle n’est pas vendue, le prix de l’entreprise est « virtuel ».
Valorisation pre-money et post-money : Lorsque l’on parle de valorisation, il faut bien distinguer la « valeur pre-money » de la « valeur post-money » de l’entreprise :
• L’entreprise a une valeur dite « pre-money » avant l’apport de l’investisseur,
• Une fois cet apport réalisé, la nouvelle valeur, dite « post money », est égale à la valeur pré- money additionnée de l’apport de l’investisseur.
Cela donne l’équation suivante : valeur post money = valeur pré-money + montant investi
Pour déterminer cette valorisation, il existe des méthodes plus ou moins complexes. Les méthodes pertinentes varient selon le stade de développement de l’entreprise.

Les méthodes d’évaluation pour le capital-développement et les phases ultérieures

Pour des entreprises en développement ou à maturité, l’entreprise bénéficie d’un historique et d’une visibilité, ce qui permet d’utiliser plusieurs types de méthodes pour calculer sa valeur.

Les méthodes d’évaluation peuvent être classées en deux catégories :
Les méthodes intrinsèques
Les méthodes intrinsèques examinent l’ensemble des caractéristiques propres à l’entreprise :
• Le total de bilan, qui est la méthode la plus simple,
• L’approche  patrimoniale   (ou valorisation par l’actif net comptable): elle   consiste   à  recalculer   à   partir des comptes de l’entreprise un actif net   corrigé   obtenu   en   réévaluant les actifs de l’entreprise. Cette méthode est généralement utilisée pour des holdings ou sociétés de participation dont l’objet est de gérer des participations dans des activités diversifiées,
> Ces deux premières méthodes sont les moins   pertinentes   pour   des   entreprises « classiques » et « technologiques » ;mais elles permettent de se faire une première idée de l’ordre de grandeur de la valorisation.
• Les  approches  liées  à  la  rentabilité: elles consistent à déterminer un indicateur qui exprime la performance de    l’entreprise    (chiffre    d’affaires, EBE,   résultat   net,   «cash   flow»   = flux de trésorerie) et à déterminer la valorisation future liée à cet indicateur,
• La  méthode  des  «discounted  cash- flows»   (DCF),   ou   «   actualisation des  résultats  futurs  »,  qui  consiste à  visualiser  l’avenir  de  l’entreprise, et   prend   la   valeur   actuelle   nette des flux de trésorerie futurs. Schématiquement, la méthode des D.C.F. consiste à actualiser les «free cash-flows» (F.C.F.)

Les méthodes analogiques
Ce  sont  les  méthodes  des  comparables ou multiples. Elles consistent à appliquer aux critères de performance de l’entreprise évaluée (généralement le résultat d’exploitation ou le résultat net), les multiples de performance issus d’une ou d’un groupe d’entreprises de référence du même secteur
> Cette dernière méthode est la méthode intrinsèque la plus employée.
Ces dernières sont le plus souvent des sociétés cotées (on parle de comparables boursiers), et parfois des sociétés non cotées (il s’agit de transactions comparables), car il est difficile de connaître les prix retenus pour des prises de participation de non coté.
• Dans  la  méthode  des  comparables boursiers, le multiple de résultat d’exploitation est le rapport capitalisation boursière/résultat d’exploitation, le multiple de résultat net est le rapport capitalisation boursière/résultat net,
• Dans    la    méthode    des    multiples de transactions comparables, on substitue à la capitalisation boursière le prix de cession,
> Si la méthode des comparables est la plus facile à mettre en œuvre, elle n’est pas toujours pertinente, car trouver des sociétés réellement comparables n’est pas simple.

Comment choisir la bonne méthode ?

Le recours à plusieurs méthodes est fortement recommandé, pour ne pas dire obligatoire. La pertinence des méthodes dépend largement des caractéristiques de l’entreprise (type d’activité) et du contexte (conflit entre actionnaires, cession à un groupe industriel, etc.). Il convient donc de les employer avec discernement. Par exemple :
• Si l’activité de l’entreprise est à prédominante industrielle, l’approche patrimoniale est la méthode la plus couramment retenue,
• Si l’entreprise est en phase de fort développement, les méthodes liées à la rentabilité sont à privilégier,
• Si l’entreprise fait appel à l’épargne publique et que ses titres sont négociés sur un marché réglementé, la méthode par la comparaison des «Price Earning Ratio» (PER) est privilégiée.
Cependant la méthode la plus fréquemment utilisée par les banques d’affaires françaises et anglosaxones est la méthode dite DCF. Malgré l’existence de méthodes de calcul, l’évaluation d’une entreprise n’est pas une science exacte, car la valeur est aussi liée à une notion d’offre et de demande, à ne pas oublier…
Utiliser plusieurs méthodes permet de comparer les résultats obtenus et ainsi de se conforter sur la fourchette de prix obtenue. Ces différentes méthodes présentent l’avantage de fournir des arguments à celui qui aurait à défendre une valorisation. En réalité, force est de constater que le prix d’une entreprise est essentiellement déterminé par ce que les investisseurs sont prêts à payer. Libre à l’entrepreneur de refuser des conditions qu’il jugerait trop défavorables pour lui et d’attendre d’éventuels jours meilleurs…

Méthodes d’évaluation du capital amorçage ou capital création

Pour des projets à un stade d’amorçage ou de création, pour lesquels il existe peu d’historique, c’est plus complexe. Les méthodes d’évaluation citées ci-dessus ne s’appliquent pas.
À ces stades, la valorisation résulte en général de plusieurs paramètres :
Une méthode des comparables pour des opérations faites sur des start-ups de même typologie et au même stade de développement.Les investisseurs s’inspirent de leur expérience et de la tendance du marché pour avoir une première idée de la fourchette de valorisation de l’entreprise.
Vous pouvez essayer de vous renseigner en identifiant les valorisations qui sont pratiquées. Ces informations ne sont pas toujours faciles à obtenir. Vous pouvez en trouver sur internet (notamment dans les communiqués de presse de levées de fonds), et surtout en échangeant avec d’autres entrepreneurs qui ont levé des fonds.
Un  calcul  fait  en  tenant  compte  des contraintes et attentes des investisseurs et de l’entrepreneur :La valorisation précédente  s’il y en a une: si  l’entreprise  a  créé  de  la  valeur  depuis son tour de table précédent, il est difficile pour les investisseurs d’intervenir à une valorisation inférieure à celle du tour de table précédent. En effet, s’ils intervenaient à une valorisation inférieure, cela signifierait une très forte dilution des fondateurs, fortement démotivante.

La valorisation post money du tour précédent constitue donc une valeur « plancher » de référence.

Par contre, attention à ne pas fixer une valorisation  trop  élevée  lors  d’un  tour  de table avec du «love money» ou des «business angels», pour imposer cette valeur plancher par la suite à des investisseurs institutionnels. Vous prenez le risque qu’ils refusent tout simplement d’investir à cause de cette valorisation, même s’ils croient au projet.

Le montant levé et la dilution de l’entrepreneur lors  du  tour de table évoqué :  à ce stade et notamment en vue de tours ultérieurs, l’entrepreneur (et au minimum le Groupe fondateur) doit rester majoritaire après la levée de fonds. La fourchette basse de valorisation est obtenue par une simple règle de 3 prenant en compte le montant levé et le pourcentage minimal détenu par les fondateurs (51 %).

Soit :
Montant investi = 49 % Volo Post money,

d’où Volo post- money = Montant investi /49 x 100
et Volo pré-money = (Montant investi /49 x100) – Montant investi
Sachant qu’en général, pour les premiers tours de table, la fourchette de détention du capital « classique » des investisseurs est comprise entre 20 et 40 %. Cette fourchette vous permet d’étalonner la réflexion.

• Le nombre  de  tours  de  tables  prévus pour le développement  de l’entreprise et les montants qui devront être levés
Plus le nombre de tours de  table prévus et les montant s nécessaires  sont élevés, plus  les  investisseurs  doivent  consentir un pourcentage élevé  aux  fondateurs, de manière à ce que leur  dilution reste  raisonnable   lors   des   tours   de  table ultérieurs, foute  de   quoi,  ils   seraient  ensuite démotivés.
• Le TRI  et  la plus-value  potentielle attendus par  l’investisseur à  l’horizon envisagé pour la sortie
Ainsi, l’investisseur  raisonne  en  partant du  futur.  Il part d’une estimation de la valorisation  potentielle  de  l’entreprise ou moment d’une sortie (souvent basée sur le business plan à horizon 5 ans). Et à partir de cette valeur souhaitée, il calcule le  maximum que la société peut  valoir le  jour  de son  investissement pour  que cet investissement  soit  rentable pour lui lors de la vente.   Les chiffres  classiques attendus sont en général un multiple de 2 à 3 minimums pour une cession à 3 à 5 ans.
La prise en compte de ces contraintes donne une  fourchette de valorisations possibles.

• La tendance du marché de l’investissement.

Chaque catégorie d’acteurs connaît ses propres tendances:
Les business angels : ils mettent en général entre 150 K€  et 300 K€, pour entre  20 et  30 % de l’entreprise. Si vous faites le calcul, cela donne des valorisations moyennes pour un premier tour  de table comprises entre  450K€ et 1,5M€ post –money.
Les fonds interviennent plutôt sur des tours compris entre 1 et 3 M€, là encore pour    un   pourcentage   compris  entre 20 et 40 %.  Nous arrivons donc à des valorisations  post- money moyennes de 2,5 à 10 M€.
Ces  fourchettes peuvent varier en fonction des tendances du moment.

• La résultante d’une négociation  selon la loi de l’offre et la demande.
À l’intérieur  des fourchettes de valorisation (issues  des contraintes ci­ dessus), il y o une  marge de négociation qui  dépend de  quelques  éléments  à prendre en  compte, comme la qualité de   l’équipe,  le  relationnel  avec les investisseurs,  l’actualité et  la  taille  du marché, le  début de  traction que  peut avoir  l’entreprise, la capacité d’exécution des   fondateurs,   un premier   CA,   une  techno maîtrisée, une vraie connaissance intrinsèque du marché…
En aucun cos des éléments mathématiques que l’on pourrait mettre dons  des cases sur Excel.. Les investisseurs reçoivent beaucoup de dossiers, mois tous ne sont pos aussi prometteurs. Si   vous    êtes   dons  un    rapport    de force   à  votre avantage, et  que   vous pouvez  montrer   que   plusieurs <> d’investisseurs  sont   intéressés,  vous aurez   un   réel   pouvoir de  négociation et réussirez  à négocier   des  conditions d’entrée plus intéressantes.

Finalement, deux éléments dont vous êtes maître comptent beaucoup sur la valorisation :
Une  question  de timing et de rapport de force.

À quelques mois d’intervalle, votre projet n’a pas du tout la même valeur, que ce soit en raison de l’état des levées de fonds en général, de l’approche du mois de juin pour les fonds TEPA (liés à l’ISF), du type de projet que vous  avez,  de  l’envie  des  investisseurs de faire un deal et de leurs contraintes d’investissement (besoin d’investir ou de lever le pied). Un autre élément de timing est la dynamique dans laquelle se trouve votre projet : quelques mois pleins de bonnes nouvelles, et il est fort probable que la valorisation de votre boîte soit bien meilleure que si vous luttez depuis plusieurs mois… Beaucoup de porteurs de projets demandent des valorisations excessives  alors  même  que  la  société n’a généré ni de chiffre d’affaires, ni a fortiori signé des commandes, ni même obtenu  des  lettres  d’intention  de  la part de ses clients. L’absence de chiffre d’affaires et d’éléments crédibilisant venant du marché (lettres d’intérêt des clients, phase pilote engagée chez des clients…) minore de façon significative la valorisation de la société
• Une question du montant levé.

Certains entrepreneurs se fixent une valorisation et ne veulent pas lever en-dessous. Certes, c’est bien d’avoir des convictions et de ne pas « donner » son entreprise. Mais vous devez aussi pouvoir la développer et créer de la valeur. Le plus important n’est pas tant dans la valorisation de l’entreprise, mais dans le rythme auquel vous pourrez vous développer : mieux vaut avoir un peu moins, mais plus tôt, pour pouvoir continuellement accélérer et bâtir son projet.

Les négociations sur la valorisation

La valorisation est une phase délicate. Les chiffres annoncés par l’entrepreneur sont parfois très éloignés des estimations des investisseurs. Il s’agit alors de trouver un compromis.
Attention : il est important qu’à l’issue des négociations, chacun y trouve son compte. Dans le cas contraire, les rancœurs finiront toujours par ressortir et seront néfastes pour l’entreprise.

Un autre point important et à ne surtout pas négliger, est que la négociation ne se limite pas à la valorisation affichée au moment de l’entrée des investisseurs. Les entrepreneurs oublient fréquemment que la valorisation donnée au moment de la signature du chèque n’est pas toujours celle qui sera « pratiquée » au final. Deux autres éléments tout aussi importants interviennent :
• Il existe des mécanismes de réajustement de la valorisation qui permettent de faire évoluer la valorisation dans le temps, et peuvent faciliter l’obtention d’un compromis. Des systèmes de relution peuvent être mis en place par les investisseurs (sous forme d’obligations convertibles à parité variable, de Bons de souscription, de cessions d’actions…). Ils peuvent permettent à l’équipe dirigeante de renforcer sa part de capital si les résultats atteignent le prévisionnel (cf. Fiche 14). Il est fortement conseillé de préférer ce mode d’incentive, qui a également le mérite de rassurer les investisseurs, aux systèmes de dilution en cas d’échec ou de retard, qui sont souvent des « doubles peines » !
• En dehors des conditions financières d’entrée, les conditions indiquées dans les clauses du pacte d’associés sont également très importantes, et notamment les conditions de sortie. Une erreur serait de raisonner uniquement en termes de dilution. D’autres éléments sont à prendre en compte dans « le package » de la négociation, comme :

> La liberté de management,
> Les clauses du pacte en termes de droits et de contrôle (droits de vote double par exemple…),
> Les clauses du pacte prévoyant la sortie.

En résumé
Une réflexion sur le sujet de la valorisation est importante avant même d’aller rencontrer les investisseurs. Il faut s’y préparer et surtout savoir de quoi on parle : on peut bien évoquer tous les montages et toutes les clauses que l’on veut, le tout est de chercher à comprendre ce qui se cache derrière.
Et de donner la prime non pas à la valorisation la plus haute, mais bien à l’accord le plus clair et le plus simple entre les parties. Au-delà de la valorisation, c’est donc bien l’ensemble des conditions qu’il faut regarder.