Category Archives: savoir

Ouvrir une franchise : 10 étapes clés

Ouvrir une franchise doit être un projet bien fondé et réfléchi pour qu’il soit bénéfique. Toute la Franchise vous explique le guide à suivre pas à pas.

Pour ouvrir une franchise, généralement l’on compte 10 étapes successives qui prennent dans leur ensemble une moyenne de 18 mois pour être bouclées.

10 étapes clés pour entreprendre en franchiseÉtape 1 : Comprendre la franchise et faire le bilan de votre candidature

Avant de se lancer en franchise il est important d’en connaître la définition et les principes. La franchise est un modèle de développement en réseau qui s’appuie sur un contrat de collaboration entre deux entreprises : un franchiseur et son franchisé.
Il est essentiel dans un second temps de faire le point sur votre projet. L’idée est de cerner au plus près de la réalité possible les freins au projet. Ces freins peuvent être personnels (famille, finances…), mais aussi professionnels (lacunes dans certains domaines). Face à ces freins, le bilan met en avant vos motivations qui se doivent d’être solides notamment pour envisager de vous former, de moins passer de temps en famille, d’engager vos deniers personnels…
Analysez votre profil en profondeur pour cerner vos forces et vos faiblesses.

Étape 2 : Choisir votre futur secteur d’activité

Les activités en franchise sont nombreuses, en effet la franchise s’étend sur tous les domaines : la restauration, l’habitat, l’alimentaire, etc… Sachant que si certains métiers nécessitent un diplôme spécifique, la plupart n’exigent pas de compétences techniques particulières. Le champs est donc libre pour penser à la reconversion. Ceci étant, cette reconversion peut s’envisager dans un secteur connu et maîtrisé, ou au contraire dans un secteur qui est attirant pour le créateur pour des raisons personnelles ou financières. Le budget disponible est également déterminant dans le choix du secteur d’activité.
Toute-La-Franchise couvre plus de 1900 réseaux de franchises, découvrez-les dans l’annuaire des franchises !

Étape 3 : L’étude de marché

Chaque secteur géographique a ses particularités. Pour se donner le maximum de chances de réussite, il convient de savoir avant d’aller plus loin ce qui manque sur votre ville, votre région… Si vous savez déjà quel sera votre secteur d’activité, il est important de savoir quelle est la concurrence sur place. Si vous n’êtes pas spécialement attaché à votre région, vous devrez prendre contact avec les franchiseurs qui entrent dans le champ de votre sélection pour mieux choisir votre future implantation.

Étape 4 : Choisir votre franchiseur

Le choix du franchiseur découle des étapes précédentes. En fonction du secteur d’activité choisi, du budget disponible, des opportunités qui se présentent dans votre secteur géographique, etc, votre choix s’orientera vers quelques franchiseurs sélectionnés. Pour chacun d’eux, vous devez savoir si le concept est pertinent, suffisamment original, suffisamment rentable, et être sûr que le franchisé est bien formé et accompagné. Vous devez confronter le discours officiel du franchiseur par des visites de terrain aux franchisés de l’enseigne. Pour cela, rendez-vous dans les salons spécialisés où vous pourrez directement rencontrer les responsables des franchises qui vous intéressent.

Étape 5 : Le prévisionnel

Le prévisionnel reprend tous les éléments de l’étude de marché et les éléments comptables fournis par le franchiseur au sein du DIP. Plusieurs hypothèses sont émises pour mieux anticiper les difficultés potentielles. L’hypothèse haute est celle qui reste réaliste si tout se passe bien. Elle est posée aux vues des chiffres mis à disposition par le franchiseur. L’hypothèse médiane reprend les mêmes chiffres avec 20 % de moins. L’hypothèse basse retranche 50% sur l’hypothèse haute. Dans l’idéal, l’hypothèse basse doit rester sinon rentable du moins équilibrée c’est-à-dire couvrir les charges de l’exercice (c’est le seuil de rentabilité). Le prévisionnel est au cœur de la stratégie de votre création. Pour le réaliser, il est essentiel de se faire aider par des spécialistes de ce genre d’exercice.

Étape 6 : Boucler votre plan de financement

Sur la base du budget prévisionnel, vous devez connaître le montant minimal nécessaire à l’ouverture de votre franchise. Ce montant est en partie couvert par votre apport personnel, le reste est à aller chercher auprès d’organismes bancaires, mais aussi auprès des dispositifs d’aide pour les créateurs (prêts d’honneur, caution, exonérations de charges, aides de Pôle Emploi…).
Pour avoir toutes les chances de votre côté lors de vos recherches de ressources financières, élaborez un business plan. Vous déterminerez ainsi le retour sur investissement et votre seuil de rentabilité.

Étape 7 : Trouver votre local

La recherche d’un local est un moment crucial pour l’ouverture de votre franchise. Elle débute au plus tôt en parallèle des étapes précédentes mais ne peut réellement être contractualisée qu’après l’étape du budget prévisionnel et du montage du plan de financement. Dans la plupart des cas, la recherche est personnelle. Elle peut toutefois être épaulée par le réseau. Lorsqu’une adresse est trouvée, elle doit recevoir l’assentiment du franchiseur. C’est en effet le franchiseur qui évaluera les qualités et les contraintes du local choisi. Une enquête d’implantation vient entériner ou non, le choix final.

Étape 8 : Choisir votre statut juridique

Selon que vous lancez votre entreprise seul ou avec des associés, selon le montant des investissements consenti aussi, vous devrez choisir un statut en société (SARL, SA, SAS/SASU, SNC). Certaines activités plus légères peuvent également s’envisager sous forme d’entreprise individuelle. Sachant que de votre choix dépend le niveau de protection de votre patrimoine personnel, mieux vaut se faire aider par un expert juridique qui vous conseillera utilement sur les différentes options possibles et leurs conséquences sur votre patrimoine personnel.

Étape 9 : Signer votre contrat de franchise

Contrairement au Document d’Information Précontractuel (DIP) qui fait l’objet d’un encadrement juridique spécifique, la formulation d’un contrat de franchise n’est soumise à aucune réglementation distinctive à un contrat commercial classique. Autrement dit, mis à part les règles de droit commun, les jurisprudences connues et certains textes de droit européen et de droit de la concurrence, le contrat de franchise est de formulation libre. L’étude des clauses parfois pénalisantes doit être réalisée sereinement avec le soutien d’un professionnel spécialisé dans ce type d’exercice.

Étape 10 : Ouvrir votre franchise

Dernière étape, l’ouverture de votre franchise est précédée par la formation initiale d’avant ouverture. Le franchiseur est souvent très présent en amont et en aval de l’ouverture pour permettre au nouveau franchisé de pouvoir envisager sereinement ses premiers pas en franchise. Ainsi, le franchisé sera plus confiant dans sa nouvelle activité car le franchiseur sera là pour le guider, lui donner des conseils pertinents grâce à son expérience et bien faire respecter son concept.

Business Angels : 41,2 millions d’euros investis au capital des startups en 2015

business-angels-720x405

France Angels, fédération des business angels, édite tous les 6 mois un baromètre sur l’activité de ses membres. Le constat de sa dernière édition est clair : les investissements reprennent après une année 2014 plutôt difficile.

386 opérations de financement auraient été réalisées par les business angels en France, en 2015. C’est en tout cas ce que déclare l’association France Angels dans sa dernière enquête, réalisée auprès de ses 76 réseaux membres. Un chiffre qui représente un total de 41,2 millions d’euros investis par les réseaux de business angels au capital des startups, soit près de 13% de plus qu’un an plus tôt.

Le financement total réalisé dans les entreprises passe quant à lui à 124 millions d’euros grâce aux co-investissements, qui se font naturellement entre réseaux de business angels, mais également avec des investisseurs individuels, des fonds d’amorçage, des fonds régionaux de co-investissement et des banques régionales.

Le digital en tête des secteurs visés

Comme les années précédentes, le digital est le secteur d’activité favori des investisseurs, avec 48% des montants investis ainsi qu’un pourcentage similaire d’entreprises financées. Loin derrière, on retrouve la santé. En 2015, le secteur a attiré 17% des investissements. C’est plus que ceux de l’industrie (13%), de L’énergie, et des cleantech (7%).

Un accompagnement sur le long terme

Si 68% des opérations réalisées par les business angels concernent des premiers tours, l’étude précise que 32% concernent également des refinancements. Un chiffre qui prouve l’implication des réseaux de business angels auprès des entrepreneurs, et de leur croissance.

Des entrepreneurs qui se situent pour la majorité en Ile-de-France. Sur plus de 10 000 dossiers reçus et traités par les réseaux de Business Angels en 2015, 35,8% des investissements ont été réalisés en Ile-de-France. C’est bien plus qu’en Aquitaine, dans le Limousin et le Poitou-Charentes, qui suivent avec 14,1% des investissements réalisés en 2015. D’autres régions sont quant à elles à la traine, comme les Hauts-de-France et la Normandie (3,8%).

infographie business angels

Savoir tout stopper avant un lancement, ou l’échec utile d’une start-up

Après avoir travaillé pendant plus d’une année sur la création de Louis Voiturier, un service de voiturier à la demande pour les professionnels, mes associés et moi-même avons décidé de tout stopper avant le lancement. Dans cet article je donne les raisons qui nous ont poussé à faire ce choix et les 3 raisons qui nous ont fait échouer.

La genèse du projet

Constituée de 5 personnes ayant une affection particulière pour l’automobile et les nouvelles technologies, notre équipe était composée de profils aux compétences complémentaires : techniques (ingénieur automobile, développeur), marketing (chef de produit, UX designer, traffic manager) et commerciales (business developer).

Après une enquête terrain auprès d’automobilistes parisiens, nous avons relevé 2 principaux problèmes : les embouteillages et le stationnement.

Au même moment, un nouveau concept faisait son apparition à San Francisco : les voituriers à la demande. Inscrites dans la tendance de l’économie «à la demande», les start-up Luxe et Zirx ont levé plusieurs millions de dollars dès leur lancement.

Saviez-vous qu’à Paris, il faut en moyenne 16min pour trouver une place libre et que 20% de la circulation est à la recherche d’une place ? Emballés par l’idée et compte tenu des difficultés rencontrées par les automobilistes parisiens, nous avons décidé d’importer ce service en France.

Le concept

Afin de bien comprendre la logistique derrière un tel business (système d’entrée/sortie des parkings, gestion des clés, assurance, déplacements des voituriers…), l’un d’entre nous est parti à San Francisco pour tester le service et observer le fonctionnement des start-up américaines.

En parallèle, nous avons rencontré de nombreuses personnes afin de bien comprendre le marché du stationnement à Paris. Celà nous a également permis de travailler sur l’adaptation du concept pour le marché français (habitudes de consommation, embouteillages, localisation des parkings, règlementation…).

 

Interview d’un voiturier et observation sur le terrain à Paris

Après des premiers tests concluants durant l’été 2015, nous avons recruté 3 développeurs afin de créer les applications mobiles destinées aux clients mais aussi aux voituriers. L’objectif étant d’automatiser le maximum de tâches et d’offrir une expérience utilisateur optimale.

Un business compliqué

Alors que le concept se développait de plus en plus en Europe, les premiers concurrents parisiens ont finalement fait leur apparition : PopValet suivi de Drop don’t park.

Ces derniers ont fait le choix de proposer leur service à tous les Parisiens. De notre côté, nous ciblions uniquement les professionnels. En effet, le temps perdu est plus facilement valorisable que pour les particuliers qui sont très sensibles au prix.

La stratégie que nos concurrents ont prise est semblable à celle de nos homologues américains : acquérir un maximum d’utilisateurs le plus rapidement possible en proposant le service (voiturier + parking sécurisé) pour un tarif équivalent à celui d’un parking privé type Indigo (ex-Vinci). Autant vous dire qu’à ce tarif, après avoir payé toutes les charges et à défaut d’avoir un volume de courses énorme et une logistique impeccable, vous perdez de l’argent.

Cette logique est la même pour toutes les start-up qui reposent sur un modèle de market place : Uber, Airbnb… Les coûts variables liés à l’ouverture d’une nouvelle ville étant faibles, l’objectif est d’accroitre très rapidement la zone d’activité pour augmenter le volume d’affaires et ainsi amortir les coûts fixes (équipes en back office, coût de la plateforme…).

Evidemment, c’est sur les marchés les plus importants que l’on observe la plus féroce concurrence. La livraison de repas “food delivery” en est un très bon exemple avec un grand nombre de start-ups créées ces dernières années dont TokTokTok ou Take Eat Easy. Il existe également des market places pour des marchés plus restreints mais dont l’objectif est identique : pressing (Cleanio), beauté (Popmyday), transports de meubles (Trusk).

Désireux d’offrir un service de qualité, nous ne souhaitions pas nous lancer dans une guerre des prix. Par ailleurs, nous commencions à avoir quelques doutes sur la viabilité de ce business d’autant que quelques signaux négatifs commençaient à se faire sentir aux USA : avec une dizaine de villes couvertes par les 2 start-up, celles-ci n’étaient toujours pas rentables et ont du en fermer plusieurs fin 2015.

Peut-être par manque d’ambition mais aussi de confiance en notre business, nous ne pensions pas pouvoir réunir, en France, autant de fonds que nos concurrents américains pour nous étendre très rapidement au niveau européen et atteindre la fameuse taille critique.

L’autre inconvénient que nous avions vis-à-vis des Américains étant que les coûts variables sont plus importants. En effet, le développement de notre service en France se serait restreint aux grandes métropoles. Nous aurions donc du rapidement viser des villes Européennes, ce qui demande plus de travail que d’ouvrir une ville française (langue, cadre juridique, habitudes de consommation différents).

Compte-tenu de ces paramètres et du manque de disponibilité de certains membres de l’équipe, après 2 mois de longues hésitations, nous avons décidé de stopper le développement de Louis Voiturier avant même le lancement officiel. La décision n’a pas été facile mais je pense que nous avons fait le bon choix.

Aux Etats-Unis, malgré les 36 millions de dollars levés, Zirx a stoppé son service pour les particuliers fin février 2016 pour se focaliser sur la cible professionnelle qui semble visiblement plus rentable.

La plupart des autres start-up essaient également de développer une offre B2B en complément de services additionnels (lavage, plein de carburant) proposés aux clients afin de dégager davantage de marge. Malheureusement, sans nouvelle levée de fonds ou changement de business model, je doute que ces start-up parviennent à survivre plus de quelques mois.

Pourquoi ça n’a pas marché?

Après avoir officialisé la fin d’un projet qui a occupé une grande partie de mon temps pendant de longs mois, j’avais besoin de tirer des conclusions et de comprendre les raisons de cet échec. J’ai rencontré plusieurs entrepreneurs qui ont les mêmes problématiques, et notamment certains de nos concurrents. Ce qui m’a permis de lister les 3 principales raisons suivantes :

  1. Une équipe pas suffisamment engagée : nous avions tous une activité à côté qui nous prenait plus ou moins de temps. Il n’est pas réaliste de lancer un tel projet à temps partiel. Nous aurions du nous imposer d’y accorder tout notre temps pour nous donner toutes les chances et nous séparer des personnes qui n’étaient pas prêtes à le faire.
  2. Nous nous sommes laissés aveugler par l’idée qui paraissait «évidente» et les concurrents qui avaient levés plusieurs millions prenant cela comme une garantie du succès. Nous aurions du davantage travailler notre business model et poser plus rapidement les différentes hypothèses envisageables. L’idée ne fait pas tout, l’exécution est clé.
  3. Nous avons perdu trop de temps à vouloir développer un produit finalisé et propre. Résultat : d’autres acteurs se sont positionnés avant nous. Le temps que nous avons passé à travailler sur les applications, nous ne l’avons pas passé à confronter notre concept aux clients et récolter des feedbacks afin d’avancer plus vite. Nous voulions éviter cela dès le départ en créant un Minimum Viable Product mais à force de repousser les deadlines et en profitant des opportunités qui se sont présentées à nous en rencontrant des développeurs, nous avons fini par passer trop de temps sur le produit qui au final n’aura jamais été publié.

 

Ce retour d’expérience n’a pas pour but de donner des leçons ou démotiver les personnes qui s’engagent sur ce type de projets, mais simplement de partager ma vision suite à cette expérience en vous évitant de reproduire nos erreurs.

Même si le service n’a pas été lancé, toute l’équipe a retiré de belles leçons de cette expérience et attend une seule chose, recommencer.

Photo de l’équipe Louis Voiturier au complet

Par Johan Ayache, chef de produit Mobile / UX Designer au sein du Groupe Yves Rocher.

Quelle sera l’orientation du Big Data au cours des cinq prochaines années ?

where-is-big-data-headed.jpg

Au cours des prochaines années, nous allons cesser de parler de Big Data. C’est une expression qui a fait son temps. En effet, elle avait avant tout pour but de mettre l’accent sur la quantité de données sans précédent générées par les activités informatiques d’aujourd’hui. Il nous fallait catégoriser ce phénomène pour pouvoir utiliser notre expertise en vue de développer de nouveaux outils capables de gérer cette avalanche de données.

 

Au cours des années à venir, ces outils gagneront en maturité et toutes les entreprises adopteront des processus capables de prendre en charge et d’exploiter de façon optimale des volumes de données croissants. Ainsi, l’expression « Big Data », qui insiste principalement sur l’idée de volume, deviendra obsolète. Nous parlerons simplement de données.

Le « Big Data » va-t-il pour autant disparaître ? Le terme en lui-même va peut-être disparaître. Parallèlement, l’augmentation constante du volume de données, qui s’accompagnera d’une fidélité inégalée, va accélérer la transformation des entreprises. Néanmoins, il est difficile de prévoir quelle sera l’ampleur de ces changements. Cependant, certaines tendances claires présagent de l’orientation du Big Data au cours des cinq prochaines années.

Les outils d’analyse du Big Data vont se généraliser

La science des données reste, pour le moment, une science obscure, limitée à quelques personnes maîtrisant suffisamment les mathématiques et le code pour bien comprendre et exploiter les données brutes. Il y aura toujours une place pour les spécialistes des données. Cependant, comme je l’ai expliqué sur ce blog dans un article précédent, le Big Data est avant tout une formidable opportunité pour les développeurs de créer des applications, des plates-formes et des API permettant une analyse en « libre-service » du Big Data. Il ne s’agit pas uniquement des tableaux de bord existants, mais d’outils qui permettent aux cadres de combiner et de mettre en contexte les flux de données de manière pertinente.

L’hybridité va perdurer

La lutte entre Clouds publics et Clouds privés est déjà dépassée. Les Clouds hybrides resteront le premier choix des entreprises, puisqu’ils proposent différents modèles de stockage et de traitement de données adaptés à des types de données spécifiques. À titre d’exemple, il est tout à fait logique que les entreprises spécialisées dans la fabrication conservent sur leurs propres serveurs internes des instructions exhaustives sur la production des pièces pour les usines automatisées, tandis que les données de vente et de stock sont regroupées sur le Cloud public. Les produits que l’entreprise doit fabriquer dépendent à la fois de ces deux pools de données, c’est pourquoi les interfaces entre composants publics et privés du Cloud vont gagner en importance.

Toutes les entreprises vont considérer les données comme une marchandise

En 2015, beaucoup de sociétés vendent des données et il existe de nombreux modèles économiques dans ce domaine. À l’avenir, les données vont revêtir une importance cruciale pour toutes les entreprises et cette approche sera beaucoup plus répandue. Chaque donnée d’une entreprise sera considérée comme une marchandise de valeur, à protéger ou à échanger avec d’autres entreprises.

Le Big Data va continuer à se développer

Nous en sommes encore aux tout premiers stades de la croissance du volume des données. L’Internet des Objets sera le principal moteur de ce phénomène et il n’en est encore qu’à ses balbutiements. Au cours des cinq prochaines années, le nombre de dispositifs intelligents connectés, utilisés dans la sphère personnelle ou professionnelle, va augmenter de plusieurs dizaines, voire de centaines, de millions, générant une quantité exponentielle de données.

Les données vont être à l’origine d’une approche plus personnelle

Les médias sociaux ont créé un lien direct entre le client et l’entreprise. Ils ont fourni aux entreprises des données de sentiments très utiles pour prédire les tendances de la demande et découvrir de nouvelles opportunités. Bien que certains puissent s’en inquiéter, l’IoT (et notamment les dispositifs portables) va permettre d’obtenir une meilleure connaissance du client, permettant aux entreprises de personnaliser leur approche en matière de service client. Les clients vont s’attendre à des produits et services parfaitement adaptés à leurs besoins spécifiques.

Prédire l’avenir reste un pari risqué. Malgré tout, on peut sans trop s’avancer prédire que le Big Data va susciter de profonds changements au cours des cinq prochaines années.

 

À propos de l’auteur : David Chassan

Le droit d’entrée en franchise

Mieux comprendre ce qu’est le droit d’entrée pour s’engager en connaissance de cause

 

Le droit d’entrée, également appelé Redevance Initiale Forfaitaire (RIF), est une particularité de la franchise. Il est réclamé par le franchiseur à tous les nouveaux franchisés en contrepartie du droit d’utiliser son concept, sa marque et sa notoriété, sur une zone d’exclusivité déterminée pour une durée définie par contrat.

Le droit d’entrée est une spécificité de la franchise. Il est réclamé à tous les franchisés dès lors qu’ils signent un contrat de franchise. Le droit d’entrée peut être d’un montant très variable : de 0€ à plus de 50.000€. Il est payable à l’entrée du réseau et lors du renouvellement du contrat.

Droit d’entrée en franchise ?

Le droit d’entrée également appelé Redevance initiale forfaitaire (RIF) vient rémunérer le franchiseur pour tout son travail en amont, de conception et de test de son concept. En quelque sorte, le droit d’entrée en franchise est un retour sur investissement pour le franchiseur. Il est aussi d’une certaine manière un dédommagement que le franchisé paie pour l’exploitation d’une zone d’exclusivité que le franchiseur aurait pu exploiter lui-même.

En effet, lorsqu’un franchiseur crée un concept, il a deux options : soit il exploite son concept sur l’ensemble du territoire en finançant les différents points de vente sur ses fonds propres (c’est le développement en succursale, également appelé commerce intégré), soit il délègue l’exploitation sur des zones particulières à des indépendants (c’est la franchise, le partenariat, la licence de marque, autant de formes développées par le commerce associé). Ce choix d’expansion est stratégique.
Quand une zone est concédée à un indépendant, elle ne peut plus être exploitée par la « maison mère » directement. Il y a donc un manque à gagner pour le franchiseur. Le franchisé paie ce manque à gagner par le droit d’entrée au démarrage et ensuite par les royalties.

L’autre fonction du droit d’entrée est d’aider au financement du développement du réseau dans son ensemble. Sachant que le franchiseur a l’obligation d’assistance envers ses franchisés, mais aussi l’obligation de transmettre son savoir-faire au cours d’une formation initiale et d’innover en permanence pour garder ses offres compétitives profitant à tous, tous ces différents coûts sont répercutés sur chaque franchisé à l’entrée dans le réseau. Le contrat de franchise formalise la concession des droits d’exploitation de la marque en contrepartie du droit d’entrée.

Pourquoi paie-t-on un droit d’entrée ?

Comme nous l’avons vu, le droit d’entrée rémunère le franchiseur de son effort pour la conception, le test dans le cadre d’une unité pilote, et le développement global de son concept. Il finance aussi les frais engendrés par le recrutement des candidats, l’assistance et la formation de chaque franchisé, tout en rémunérant le manque à gagner de l’exploitation du concept sur une zone donnée par un tiers.
Tous ces frais engagés par le franchiseur qui profitent à tous, sont mutualisés et forfaitisés. Chaque franchisé paie donc un droit d’entrée identique dont le montant est fixé par le franchiseur. Ce droit d’entrée formalise par contrat que le franchisé pourra pendant toute la durée de son contrat, utiliser les éléments incorporels que le franchiseur met à sa disposition. Ces droits incorporels, spécificité majeure de la formule de la franchise, sont la marque, la notoriété de la marque et le savoir-faire. Le versement du droit d’entrée formalise aussi la concession d’une zone d’exclusivité d’exploitation pour une durée limitée par contrat et renouvelable. Le droit d’entrée est complété par la suite par les royalties prélevées le plus souvent de façon proportionnelle au chiffre d’affaires tout au long du contrat.

Quand règle-t-on un droit d’entrée ?

Comme son nom de Redevance Initiale Forfaitaire (RIF) peut le laisser supposer, le montant du droit d’entrée est réclamé à l’entrée du franchisé dans le réseau, autrement dit à la signature d’un contrat de franchise. Sachant que le droit d’entrée formalise l’engagement du franchiseur de concéder une zone d’exclusivité particulière, il peut également réclamer tout ou partie du RIF lors de la signature d’un pré-contrat ou contrat de réservation de zone. En aucun cas le franchiseur n’est autorisé à réclamer le montant du droit d’entrée à la remise du Document d’Information Pré-contractuel (DIP). Le franchisé doit avoir le temps de réfléchir sur son engagement pendant le délai légal de réflexion aménagé par la loi Doubin.

Outre la signature du premier contrat de franchise, le droit d’entrée est également réclamé lorsque le franchisé renouvelle son contrat. Le montant réclamé dans ce cas est généralement notablement inférieur à la première fois, puisque le franchisé n’a plus à contribuer au coût de la formation initiale et à l’accompagnement avant ouverture. De même, un droit d’entrée est réclamé lorsqu’un franchisé décide d’ouvrir un second magasin sous la même enseigne, sur une zone d’exclusivité distincte. Là encore, comme dans le cas d’un renouvellement, le montant à acquitter est souvent revu à la baisse, puisque le franchisé a déjà été formé et accompagné préalablement.

Bon à savoir : Le versement du droit d’entrée peut être réalisé en plusieurs échéances. Souvent, le franchiseur partitionne les versements : une partie à la signature du contrat, une partie à l’entrée en formation initiale, et le solde à l’ouverture du point de vente. Un franchiseur qui insiste auprès d’un candidat pour qu’il verse de l’argent au plus tôt et notamment avant la signature du contrat définitif, est à fuir absolument. La signature du contrat doit en effet se faire dans la sérénité et la réflexion. Si le franchiseur est trop pressé, cela veut peut-être dire qu’il est aux abois… Mauvais présage pour la suite du contrat !

Comment se fixe le montant du droit d’entrée en franchise ?

Le montant du droit d’entrée est très variable selon les franchiseurs et les domaines d’activités. Quand certains secteurs (comme l’immobilier par exemple), ne réclament aucun droit d’entrée ou une participation tout juste symbolique à leurs franchisés, d’autres réclament des sommes rondelettes pouvant dépasser les 50.000€. Comment expliquer ce grand écart ?
En fait, les grandes différences de prix découlent avant tout de la politique de développement du réseau, de sa notoriété et de son environnement concurrentiel. Ainsi, globalement, et contrairement à ce que l’on pourrait croire, le calcul du montant d’un droit d’entrée ne reflète que rarement le coût effectivement consenti par le réseau pour mettre au point son concept et développer son réseau. Clairement, les investissements consentis sont dans la très grande majorité des cas beaucoup plus conséquents que l’ensemble des droits d’entrée récoltés auprès des franchisés et des futurs franchisés.

Sachant cela, quels sont les critères effectivement retenus pour le calcul du droit d’entrée en franchise ? En fait, il y en a 4 principaux :

La notoriété de l’enseigne : De manière générale, plus l’enseigne est connue et plus le ticket d’entrée peut se permettre d’être élevé. Le nombre des zones d’exclusivité concédée étant réduit, la rareté s’installe et le prix grimpe. La sélection des candidats se fait plus pointue et le critère financier permet justement d’écrémer les motivations. Pour le franchisé, lorsque la marque est connue, le retour sur investissement est généralement plus rapide. Le franchisé peut alors accepter de payer plus. Lorsque le réseau est jeune et peu connu, le montant réclamé à l’entrée est souvent beaucoup moins élevé. De fait, le candidat accepte en essuyant les plâtres de gagner moins dans un premier temps, en même temps qu’il participe indirectement à la création de la renommée de son enseigne.

La qualité des services proposés avant ouverture : De manière générale là encore, plus le concept est abouti et plus le coût d’entrée est logiquement conséquent. La qualité de la transmission du savoir-faire, mais aussi les services ajoutés par certains franchiseurs (aide à la recherche d’emplacements, aide à la négociation du bail, accompagnement dans les premières semaines, formation des salariés…) font grimper la note. Les concepts simplifiés quant à eux sont souvent à moins forte valeur ajoutée ce qui explique un droit d’entrée plus modique.

Le secteur d’activité exploité : De manière générale, plus le montage du projet d’implantation d’une nouvelle unité franchisée est lourd, plus il demande d’énergie au franchiseur (formation initiale plus longue, montage financier plus long, recherche de locaux adaptés plus exigeante…). Le montant du droit d’entrée s’envole donc de façon proportionnelle au temps passé et aux investissements humains et financiers consentis. Pour le montage d’une unité franchisée de restauration rapide par exemple, les investissements sont généralement beaucoup plus lourds que pour le montage d’une unité franchisée de services ou de distribution. Le ticket d’entrée est souvent proportionnel : en moyenne 50 000 € pour un restaurant contre 10.000€ en moyenne pour une activité de services à la personne. De plus, chaque réseau de franchise doit tenir compte de son contexte concurrentiel particulier. Généralement, les montants réclamés à l’entrée d’un réseau s’alignent sur ceux pratiqués par les réseaux concurrents dans le même secteur d’activité.

Le montant des royalties réclamées : L’équilibre financier d’un réseau de franchise se base sur les droits d’entrée ET sur les royalties réclamées en cours de contrat. Plus le montant des royalties est élevé et plus le droit d’entrée doit faire profil bas. Lorsque la politique de développement s’appuie sur un système d’approvisionnement exclusif, le franchiseur doit impérativement faire un gros effort sur le montant de son ticket d’entrée pour compenser les frais après ouverture pour le franchisé.

Bon à savoir : Un franchiseur n’est pas un philanthrope. Son entreprise se doit d’être rentable. Ses comptes doivent être équilibrés pour que le réseau se développe et que chaque franchisé prospère. Sachant cela, il est nécessaire qu’à tous moments le réseau ait les moyens de ses ambitions. Un droit d’entrée trop bas peut cacher une faille financière probable qui pourra avoir de lourdes conséquences à la longue sur le niveau de services offert notamment.

Le montant du droit d’entrée peut-il être négocié ?

Assurément oui ! Et c’est là toute sa particularité… En effet, si tous les autres termes du contrat de franchise ne peuvent à l’évidence pas être modifiés pour respecter l’équité entre franchisés, le montant final du droit d’entrée à acquitter peut faire l’objet de négociations amiables individuelles. Ceci est vrai notamment chez les jeunes réseaux qui acceptent souvent d’octroyer des rabais pour séduire leurs premiers franchisés, mais aussi au sein des réseaux matures en perte de vitesse qui ont du mal à recruter de nouvelles candidatures. La négociation du montant du droit d’entrée est aussi la règle lors du renouvellement des contrats, et lorsque le même franchisé souhaite ouvrir un second point de vente au sein de son réseau. Dans le cadre d’une cession d’un fond de commerce franchisé, il est souvent possible aussi de négocier le montant du droit d’entrée du repreneur qui est accompagné par le cédant.

Bon à savoir : Le droit d’entrée est considéré comme un actif incorporel, à ce titre il n’est pas amortissable comptablement et fiscalement sauf s’il n’est pas renouvelable par tacite reconduction.

Ce qu’il faut retenir :

  • Le droit d’entrée est une spécificité de la franchise. Il rémunère le franchiseur des efforts consentis à tous les stades de la conception (mise au point du concept, test en unité pilote) et du développement de son réseau (recrutement, formation et accompagnement des nouveaux franchisés). Le droit d’entrée rémunère également le manque à gagner du franchiseur sur les zones concédées aux franchisés, qu’il aurait pu exploiter lui-même.
  • Le droit d’entrée est réclamé à la signature du contrat de franchise (contrat initial, renouvellement et multi-franchise). Il formalise le droit d’utilisation du concept (marque et savoir-faire) sur une zone d’exclusivité particulière.
  • Le montant du droit d’entrée est fixé selon des critères financiers internes (coût de la formation, coût de l’accompagnement…) et selon des critères externes liés essentiellement à la concurrence et à la lourdeur du projet créé. La notoriété de la marque, la qualité des services proposés avant ouverture, le type de secteur d’activité exploité et le montant des royalties réclamées en complément pendant toute la durée du contrat peuvent influer sur le montant final.
  • Le montant du droit d’entrée en franchise peut être négocié avec le franchiseur.

Dominique André-Chaigneau

3 clés pour savoir ce que votre interlocuteur ne vous dit pas

 

Et si vous écoutiez votre interlocuteur avec les yeux ? Au-delà de ses paroles, si vous décodiez ce que disent ses postures, ses gestes, ses mimiques ? Voici quelques décryptages pour affiner vos intuitions et mieux communiquer.

 

Olga Ciesco

Clé#1 : Suivre le débat gauche-droite.

Le point d’attention :Commencez par distinguer les parties droites et gauches de votre interlocuteur. Aussi bien au niveau du visage que du reste du corps. Première observation, – mais vous vous en doutiez déjà – les deux hémisphères semblent s’animer selon des points de vue différents.

La règle de décodage :

La partie droite, rationnelle, exprime ce que votre interlocuteur souhaite vous montrer et la gauche, émotive, ce qu’il ressent (et qu’il n’a pas forcément envie de révéler spontanément).
Question : sont-elles d’accord entre elles ?

L’exercice : La femme coupable.

 

Regardez son visage. Est-elle heureuse ou malheureuse ? Plutôt sombre à droite (votre gauche) et à gauche (votre droite) plutôt souriante. Il se pourrait qu’elle fasse semblant d’être triste… Et oui, Susan Smith, cette jeune mère dont les enfants ont disparu sourit du mauvais côté et finira par avouer son crime. Les mains droite et gauche s’animent selon la même logique et vous livreront elles-aussi de précieux indices…

Clé #2 : Comprendre la mécanique du corps.

Le point d’attention :

Intéressez-vous à la posture globale de votre interlocuteur. Est-il raide ou détendu ? S’il se sent bien, son corps aura tendance à se déployer et prendre de l’ampleur comme Usain Bolt qui franchit le premier la ligne d’arrivée.

La règle de décodage :

Plus nous sommes en confiance et plus nous avons envie de prendre de la place. Nos gestes prennent de la hauteur. À l’inverse, les épaules rentrent, le dos se voûte, le corps s’étiole : le malaise gagne…

L’exercice : Les footballeurs bien dans leurs baskets.

Remarquez les postures très décontractées des footballeurs victorieux en interview et surtout les jambes bien écartées (notamment Lionel Messi). Normal : c’est une interview après une brillante victoire.

Clé #3 : Connaître la symbolique des parties du corps.

Le point d’attention :

Ils sont multiples puisque chaque partie de notre corps possède une ou plusieurs significations symboliques.

Quelques exemples de décodage :

Le dos représente ce que l’on supporte (parfois avec difficulté). De nombreuses expressions viennent étayer cette symbolique : « en avoir plein le dos », « être le dos au mur », « un enfant dans le dos (ou un couteau), etc.

Votre interlocuteur pose ses mains sur ses lombaires ou au niveau de la nuque. Il recule : quelque chose peut lui déplaire dans ce que vous lui dites, ou lui sembler pénible. Interrogez-le avec tact pour qu’il s’exprime verbalement.


Photo Olga Ciesco ©

Les oreilles lorsqu’elles sont effleurées sur les lobes ou sur l’ourlet indiquent plutôt « une bonne entente » et même un certain plaisir… Votre interlocuteur apprécie ce qu’il entend.

Attention toutefois aux interprétations abusives. Un exemple : les bras croisés ont mauvaise presse : posture fermée, réaction de défense, etc. Mais pour bon nombre d’entre nous, il ne s’agit que d’une position confortable. Votre interlocuteur s’est peut-être tout simplement installé en situation d’attente pour mieux vous écouter. Aussi, pensez à pondérer vos observations en fonction du contexte et en les recoupant avec d’autres signes non-verbaux détectés.


Photo Olga Ciesco ©

L’exercice : Un service un peu trop lourd…

Regardez la photo ci-dessus. Qu’a bien pu demander cette jeune femme à l’homme que vous voyez de dos. Est-il franchement d’accord pour lui rendre service ? Peut-être s’agit-il de déplacer encore une fois la grosse commode du salon…
Nous n’avons pu évidemment qu’effleurer un vaste sujet. Bien d’autres signes, plus ténus et subtils tels que les micro-démangeaisons du visage vous livrent de précieux renseignements sur l’état d’esprit et la cohérence de votre interlocuteur.

Avec Olga Ciesco, Synergologue / Experte en Communication non verbale, auteure de Décoder le langage du corps.

Les franchiseurs revoient leurs emplacements pour s’adapter aux nouveaux modes de consommation

Se développe désormais une vision multi-format, avec des choix d’emplacements mixés. Essayons de comprendre ce phénomène.

Localisation de votre fanchise

 

 

 

 

 

 

 

Face à des comportements de consommation qui évoluent sans cesse, avec la poussée du numérique mais aussi des changements plus profonds dans l’organisation de nos villes, ou encore des prix de l’immobilier qui connaissent des fluctuations fortes selon les régions, les commerces doivent s’adapter en conséquence pour choisir leurs emplacements. En matière de franchise, l’approche classique voulant privilégier une implantation exclusive en centre-ville ou au contraire en périphérie tend à s’effacer. Se développe désormais une vision multi-format, avec des choix d’emplacements mixés. Essayons de comprendre ce phénomène.

Les emplacements n°1 en perte de vitesse ?

Les emplacements n°1, c’est-à-dire situés sur un axe commercial dit incontournable et bénéficiant de flux importants, sont-ils en train de perdre de leur superbe ? Oui, les emplacements n°1 ou encore les rues n°1 ne peuvent plus justifier du même attrait que par le passé. La faute à un chiffre d’affaires qui doit toujours être en hausse pour rentabiliser un emplacement dont le prix grimpe. Dans des villes qui mènent des politiques d’amélioration du centre-ville, les prix du foncier grimpent logiquement, et le coût des commerces avec. Alors, pour les enseignes, le ratio entre investissement et rentabilité est parfois difficile à atteindre. D’autant que des études montrent que l’effet du réaménagement des centres-villes a tendance à créer un phénomène de rétractation. Des emplacements naguère « en or » subissent parfois le passage en zone piétonne, l’ajout d’un tramway, ou la transformation en bureaux de lots voisins…
Cela ne signifie pas que les emplacements n°1 soient totalement morts ! Désormais, l’implantation optimale pour une entreprise ne se détermine pas forcément selon la qualité de l’emplacement seul, mais bien selon le potentiel de l’emplacement au regard de l’activité de la franchise. Certains commerces s’épanouiront bien plus en périphérie qu’en centre-ville, et les experts qui accompagnent les professionnels dans le choix de leur local intègrent cette vision pour conseiller les futurs franchisés. Un fleuriste, une enseigne de fast-food ou un cabinet de conseil ont tous un emplacement optimal. Et celui-ci est parfois loin d’un centre-ville !

La périphérie, cette zone au potentiel si longtemps oublié

Les valeurs locatives en périphérie n’ont rien de comparable avec celles des centres-villes. Des exemples ? A Bordeaux, comptez entre 120 et 220 € HT HC/m²/an en périphérie contre 1 000 à 1 800€ pour un emplacement n°1 cours de l’Intendance ou rue Voltaire. Même phénomène à Marseille, avec un prix de 1 200 à 1 700 € HT HC/m²/an rue St Ferréol ou rue Paradis, contre 200  à 300€ en périphérie (Plan de Campagne) voire entre 600 et 900€ (Avant Cap). « La typologie des formats commerciaux en périphérie est hétérogène (boîtes commerciales regroupées en entrée de ville, boîtes isolées, parcs d’activités commerciales architecturés) et ce marché connaît actuellement des évolutions structurelles fortes » peut-on lire dans l’étude « les commerces en France » CBRE datée de 2014.
La périphérie, et les communes environnantes des grandes agglomérations, un nouveau terrain de jeu pour des enseignes en franchise ? « Un restaurant Subway peut très bien s’implanter dans une ville de moins de 10 000 habitants » confiait, Patrick Rety, agent de développement de l’enseigne américaine de restauration rapide Subway fin décembre 2015 sur le site de l’Observatoire de la franchise. L’enseigne pourtant associée à l’hyper-centre-ville, avec une image de commerce de proximité qui s’adresse à un mode de vie « citadin », veut sortir de ce cliché. A termes, l’ambition officieuse est de lancer 2 000 restaurants dans l’hexagone, contre un peu plus de 500 aujourd’hui. Ce développement passera inévitablement par des implantations en dehors des grandes villes, via des emplacements périphériques choisis stratégiquement.

Les villes toujours attirantes pour de nouvelles franchises !

Tous les centres-villes de France ne souffrent pas d’un phénomène de désamour et de fuite des commerces. Certaines franchises l’affirment sans détour, elles ne jurent que par ces emplacements. C’est le cas de certaines marques dont l’image est très associée à la vie en ville, et à une certaine image du commerce. S’installer en périphérie pour des enseignes comme L’Occitane en Provence,  Côté Sushi ou encore Repetto, serait un élément qui pourrait diluer le positionnement de la marque.
Mais les villes n’attirent pas uniquement des marques qui y sont implantées historiquement. Ainsi, Georges Sampeur, Président du directoire de BB Hôtelsi, confiait que la chaîne d’hôtels s’invitait désormais à des emplacements jusqu’ici inédits. « La crise, quelquefois, a du bon, dans le sens où le prix de l’immobilier a été réajusté, ce qui nous permet de revenir vers des implantations en centre-ville, qui étaient inaccessibles pour nous dans des périodes fastes. Nous offrons ensuite une prestation qui est adaptée à l’endroit » expliquait le dirigeant au micro de Stéphane Soumier sur BFM Business en février 2016. La clé se trouve ici : désormais, les formats des points de vente s’adaptent aux lieux. Toutes les enseignes s’y mettent, suivant McDonald’s, pionnier dans le domaine. L’enseigne propose des restaurants adaptés à leurs emplacements : dans une gare ou un aéroport, un service rapide pour une clientèle pressée. Mais en périphérie, une aire de jeu pour les enfants, afin de séduire les familles… mais à chaque fois avec la même promesse sur les produits et le service.

Internet influe sur le choix des emplacements des franchises

La poussée du commerce en ligne influence directement la stratégie des enseignes en matière d’implantations. En effet, puisque la tendance est à la consommation en points de vente et sur la toile (omnicanal), il faut présenter aux clients des parcours connectés et complémentaires. Une enseigne qui propose par exemple de commander un produit en ligne et de le retirer en point de vente par la suite ne peut pas réaliser son maillage sans avoir en tête un objectif de présence « stratégique ».
Alors, parfois, un emplacement semblera étrange voire carrément décalé avec les habitudes de l’enseigne, mais sera en réalité pensé pour accompagner ce maillage du territoire au regard des besoins exprimés en ligne. Une franchise en pleine croissance ne peut pas se permettre de présenter une carte de France à trous si elle prétend être une enseigne nationale.
Le choix du local est primordial dans la réussite de l’entreprise. Il doit toujours être réalisé avec l’implication du franchisé si celui-ci est présent à l’origine du projet. Il arrive parfois qu’une période allant de 6 mois à 1 an se déroule entre la signature d’un contrat de franchise et l’ouverture effective du point de vente. Pendant ce long chemin de croix, le franchisé doit être au cœur de la réflexion et participer au choix de l’emplacement. Dans le cas de franchises qui ont un projet d’implantation clairement défini, avec des emplacements cibles, et recherchent ensuite les bons candidats pour ouvrir le point de vente, ne négligez pas les retours des « locaux », et donc de ces candidats. Un emplacement dans une zone commerciale séduisant sur le papier pourra vite apparaitre comme obsolète si les témoignages collectés en local sont mauvais. Le choix du bon emplacement, nerf de la guerre en franchise, passe donc plus que jamais par une bonne étude de coûts, et une enquête terrain solide.
Geoffrey Barre

Intelligence artificielle: quelles sont les avancées?

Après une petite introduction sur ce qu’est ou pas l’intelligence artificielle, passons à un côté plus terre à terre en faisant un petit inventaire approximatif des techniques de l’IA. Il s’agit toujours de vulgarisation et d’une restitution de mon processus de découverte du sujet au fil de l’eau ! Nous évoquerons en partie la question du matériel, notamment pour les réseaux de neurones. Le reste le sera dans la dernière partie de cette série d’articles.

Lire aussi : Les avancées de l’intelligence artificielle

Des hivers au printemps de l’IA

L’histoire moderne de l’intelligence artificielle a démarré comme nous l’avons vu dans la première partie en 1957. S’en est suivi une période de recherche fondamentale importante, notamment au MIT AI Lab, à l’origine notamment du langage LISP (1958) qui servi pendant deux à trois décennies à développer des solutions logicielles d’IA. Ces recherches étaient financées par l’ARPA, l’agence de recherche du Pentagone devenue ensuite la DARPA, l’équivalent de la DGA française, mais évidemment bien mieux financée. La recherche sur l’IA était principalement financée par les deniers publics, notamment aux USA et au Royaume-Uni.

L’IA connu son premier “hiver” avec une réduction d’une bonne part de ces budgets à partir de 1973, tant au Royaume-Uni qu’aux USA. C’était la conséquence de la publication du Rapport Lighthill destiné à l’organisme public britannique Science Research Council – équivalent de l’Agence Nationale de la Recherche française – qui remettait en cause le bien fondé des recherches de l’époque en robotique et en traitement du langage.  Cet hiver a duré jusqu’en 1980.

 

Herbert Simon

En cause, des promesses un peu trop optimistes des experts du secteur. Comme souvent, les prévisions peuvent être justes sur tout ou partie du fond mais à côté de la plaque sur leur timing. Cette histoire de l’IA en fait un inventaire intéressant. Herbert Simon (ci-dessus) et Allen Newell prévoyaient en 1958 qu’en 10 ans, un ordinateur deviendrait champion du monde d’échecs et un autre serait capable de prouver un nouveau et important théorème mathématique. 30 ans d’erreur pour la première prévision et autant pour la seconde sachant qu’elle est toujours largement en devenir pour être générique ! Cet écueil est le même dans les prévisions actuelles autour de la singularité et du transhumanisme (l’ordinateur plus intelligent que l’homme en 2030, l’immortalité pour nos enfants, etc).

Le chercheur d’IBM Herbert Gelernter avait réussi en 1958 à utiliser un logiciel de démonstration de théorèmes de géométrie fonctionnant en chainage arrière (de la solution jusqu’au problème) sur un IBM 704 et à partir d’une base de 1000 règles. Cela relevait d’une combinatoire plutôt simple. Il en va autrement du théorème d’incomplétude de Godel qui dit que “dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (x^n + y^n = z^n impossible pour un entier n>2) qui n’ont jamais été démontrés via de l’IA.

Le théorème de Fermat a été démontré au milieu des années 1990 et après des années d’efforts de plusieurs mathématiciens dont Andrew Wiles. Sa démonstration publiée dans les annales de mathématiques fait 109 pages et fait appel à de nombreux concepts ! Un défi a été lancé en 2005 par un certain Jan Bergstra pour démontrer le théorème de Fermat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente !

 

Fermat Theorem Demonstration by Wile

Herbert Simon prévoyait aussi – toujours en 1958 – qu’en 1978, les machines seraient capables de réaliser toutes les activités intellectuelles humaines. Et la loi de Moore n’existait pas encore puisqu’elle a été énoncée après, en 1965 ! En 1967, Marvin Minsky pensait qu’en une génération, tous les problèmes liés à l’IA seraient résolus. Deux générations plus tard, on en discute encore. Il prévoyait aussi qu’au milieu des années 1970, les ordinateurs auraient l’intelligence d’un homme moyen. Reste à savoir ce qu’est un homme moyen. Les retards étaient aussi manifestes dans la traduction automatique et dans la reconnaissance de la parole. Notons qu’Herbert Simon a été récompensé en 1978 par le Prix Nobel d’économie, pour ses travaux sur les rationalités de la prise de décision, après avoir gagné la fameuse médaille de Turing en 1975. Il n’existe pas de prix Nobel de la prévision ! Il faudrait en général les attribuer à des personnes déjà décédées !

S’en est suivie une période d’enthousiasme au début des années 1980 alimentée notamment par la vague des systèmes experts. Le langage Prolog du français Alain Colmerauer a contribué à cette vague. Une nouvelle vague de désillusions s’en est suivie autour des années 1990. L’une des raisons était que le matériel n’arrivait pas à suivre les besoins de l’IA, notamment pour traiter deux besoins clés : la reconnaissance de la parole et celle des images, très gourmandes en puissance de calcul (cf la source du schéma ci-dessous).

 

AI Winter

Lors des années 1980 avaient été lancés divers gosplans d’ordinateurs “de la cinquième génération” dédiés aux applications de l’IA. Cela a commencé avec celui du MITI Japonais lancé en 1981 avec des dépenses d’un milliard de dollars, puis avec le projet anglais Alvey lancé à ₤350 million et enfin le Strategic Computing Initiative de la DARPA. Tous ces projets ont capoté et ont été terminés discrètement. Le projet du MITI visait à la fois de faire avancer l’état de l’art côté matériel et côté logiciels. Ils cherchaient à traiter le langage naturel, à démontrer des théorèmes et même à gagner au jeu de Go. Le projet a probablement pâti d’une organisation trop traditionnelle, linéaire et centralisée. La fin des années 1980 a aussi connu l’effondrement du marché des ordinateurs dédiés au langage LISP.

Pendant les années 1990 et 2000 ont émergé de nombreux projets de HPC (high-performance computing) très éloignés de l’IA et focalisés sur la puissance brute et les calculs en éléments finis. Ils étaient et sont encore utilisés pour de la simulation, notamment d’armes nucléaires, d’écoulements d’air sur les ailes d’avion ou pour faire des prévisions météorologiques. Les HPC de Cray Computers avaient été créés pour cela ! Cette société existe toujours. C’est l’une des rares survivantes des années 1970 !

Depuis le début des années 2000, l’IA a été relancée grâce à diverses évolutions :

  • L’augmentation de la puissance du matériel qui a permis de diversifier la mise en œuvre de nombreuses méthodes jusqu’alors inaccessibles. Et en particulier, l’usage de méthodes statistiques pouvant exploiter la puissance des machines autant côté calcul que stockage et puis, plus récemment, les réseaux neuronaux.
  • L’atteinte de diverses étapes symboliques marquantes comme la victoire de Deep Blue contre Kasparov en 1997 puis d’IBM Watson dans Jeopardy en 2011. Enfin, il y a quelques jours, la victoire de DeepMind au jeu de Go.
  • L’Internet qui a créé de nouveaux besoins comme les moteurs de recherche et permis la mise en place d’architectures massivement distribuées.
  • La disponibilité de très gros volumes de données, via les usages de l’Internet et des mobiles, des objets connectés ou la génomique, qui permet d’associer les méthodes de force brute et les réseaux neuronaux et autres machine learning ou méthodes statistiques.
  • Les besoins dans la robotique, dans la conquête spatiale (Curiosity, Philae…), dans les véhicules à conduite assistée ou autonome, dans la sécurité informatique, la lutte contre la fraude et les scams.
  • Les nombreuses applications commerciales de l’IA croisant le machine learning, les objets connectés, la mobilité et le big data.
  • L’adoption de méthodes scientifiques et pragmatiques – basées sur l’expérimentation – et transdisciplinaires, par les chercheurs et industriels.

 

Comme tout domaine scientifique complexe, l’IA n’a jamais été un terrain d’unanimité et cela risque de perdurer. Diverses écoles de pensée se disputent sur les approches à adopter. On a vu s’opposer les partisans du connexionnisme – utilisant le principe des réseaux de neurones et de l’auto-apprentissage – face à ceux du computationnisme qui préfèrent utiliser des concepts de plus haut niveau sans chercher à les résoudre via des procédés de biomimétisme. On retrouve cette dichotomie dans la bataille entre «neats» et «scuffies», les premiers, notamment John McCarthy (Stanford), considérant que les solutions aux problèmes devraient être élégantes et carrées, et les seconds, notamment Marvin Minsky (MIT) que l’intelligence fonctionne de manière plus empirique et pas seulement par le biais de la logique. Comme si il y avait un écart entre la côté Est et la côte Ouest !

Ces débats ont leur équivalent dans les sciences cognitives, dans l’identification de l’inné et de l’acquis pour l’apprentissage des langues. Burrhus Frederic Skinner est à l’origine du comportementalisme linguistique qui décrit le conditionnement opérant dans l’apprentissage des langues. Noam Chomsky avait remis en cause cette approche en mettant en avant l’inné, une sorte de pré-conditionnement du cerveau des enfants avant leur naissance qui leur permet d’apprendre facilement les langues. En gros, le fonctionnement de l’intelligence humaine est toujours l’objet de désaccords scientifiques ! On continue d’ailleurs, comme nous le verrons dans le dernier article de cette série, à en découvrir sur la neurobiologie et le fonctionnement du cerveau.

D’autres débats ont court entre les langages de programmation déclaratifs et les moteurs d’inférences utilisant des bases de règles. Sont arrivées ensuite les méthodes statistiques s’appuyant notamment sur les réseaux bayésiens et les techniques d’optimisation. A ce jour, les méthodes les plus couramment utilisées sont plutôt des domaines mathématiques et procéduraux, mais les méthodes à base de réseaux neuronaux et d’auto-apprentissage font leur chemin. L’intelligence artificielle intégrative qui se développe vise à exploiter conjointement toutes les approches.

Aujourd’hui, les débats portent sur les dangers de l’IA. L’IA est l’objet d’un débat de société, philosophique, économique (sur le futur de l’emploi) et donc politique. Les débats ont tendance à trop sortir de la sphère scientifique et technique, au point que parfois, on ne sait plus de quoi l’on parle ! L’IA est un vaste machin ou tout est mis dans le même sac. On y anthropomorphise à outrance l’IA en imaginant qu’elle imite, remplace et dépasse l’homme. C’est l’une des raisons d’être de ces papiers que d’essayer de remettre quelques pendules à l’heure !

Sur ce, je vais maintenant partir des couches d’abstraction les plus basses (systèmes experts, réseaux neuronaux, machine learning, méthodes statistiques, …) pour ensuite monter dans les couches plus hautes qui font généralement appel aux couches basses, comme dans la reconnaissance de la parole ou des images. Pour chacune de ces techniques, je vais évoquer si besoin est leur ancienneté, les progrès les plus récents, les applications phares ainsi que quelques acteurs des marchés correspondants.

Force brute

La force brute est un moyen courant de simuler l’intelligence humaine ou de la dépasser. Pour un jeu comme les échecs, elle vise à tester toutes les possibilités et à identifier les chemins les plus optimums parmi des zillions de combinaisons. Cela peut fonctionner si c’est à la portée de la puissance de calcul des machines. Ces mécanismes peuvent être optimisés avec des algorithmes d’élagage qui évacuent les “branches mortes” de la combinatoire ne pouvant aboutir à aucune solution. C’est plus facile à réaliser aux échecs qu’au jeu de Go ! La force brute a été utilisée pour gagner aux premiers avec l’ordinateur Deeper Blue d’IBM en 1997, calculant 200 millions de positions par seconde. Des réseaux neuronaux ont été exploités pour gagner au Go récemment avec la solution créée par DeepMind, la filiale en IA de Google.

La force brute est utilisée dans de nombreux domaines comme dans les moteurs de recherche ou la découverte de mots de passe. On peut considérer que de nombreux pans de l’IA l’utilisent, même lorsqu’ils s’appuient sur des techniques modernes de réseaux neuronaux ou de machine learning que nous traiterons plus loin. Elle ne fonctionne que si la combinatoire reste dans l’enveloppe de puissance de l’ordinateur. Si elle est trop élevée, des méthodes de simplification des problèmes et de réduction de la combinatoire sont nécessaires.

 

travelling_salesman_problem

(source de l’image)

La force brute s’est aussi généralisée parce que la puissance des ordinateurs le permet : ils tournent plus vite, sont distribuables, le stockage coute de moins en moins cher, les télécommunications sont abordables et le capteurs de plus en plus nombreux, des appareils photo/vidéo des smartphones au capteurs d’objets connectés divers.

Moteurs de règles et systèmes experts

Les débuts des moteurs de règles remontent à 1957 quand Alan Newell et Herbert Simon développaient le General Problem Solver (GPS), un logiciel de résolution de problèmes utilisant des règles modélisant les inférences possibles d’un domaine et résolvant un problème en partant de la solution attendue et en remontant vers les hypothèses.

Les moteurs de règles s’appuient sur la notion de raisonnement contraint par des règles. On fournit au moteur un ensemble de règles pouvant par exemple représenter le savoir des experts dans un domaine donné. Avec des règles proches de la programmation logique du genre “si X et Y sont vrais, alors Z est vrai” ou “X entraine Y”. On peut alors interroger le système en lui posant des questions genre “est-ce que W est vrai” et il va se débrouiller pour exploiter les règles enregistrées pour répondre à la question. Les moteurs de règles utilisent la théorie des graphes et la gestion de contraintes.

Cette branche de l’IA a été introduite par John McCarthy en 1958. Elle aboutit dans les années 1970 aux travaux de Robert Kowalski de l’Université d’Edinbourg, d’Alain Colmerauer et Philippe Roussel qui sont à l’origine du langage de programmation Prolog qui connut ses heures de gloire dans les années 1980. Le LISP a été aussi utilisé dans ce domaine. Il s’est même développé une petite industrie avec les ordinateurs spécialisés de Lisp Machines et Symbolics (1979-2005), et des logiciels d’Intellicorp (créé en 1980 et maintenant spécialisé dans les logiciels de gestion d’applications pour SAP).

Les moteurs de règles sont employés dans les systèmes experts, un domaine et un marché qui s’est développé depuis les années 1980. Les systèmes experts ont été notamment théorisés dans le cadre du Stanford Heuristic Programming Project en 1980. Ils répondent à des questions dans des domaines spécifiques dont on a codifié la connaissance. Cela permis à l’IA de se rendre utile dans des domaines spécifiques, comme dans la santé. L’approche se heurtait cependant à la difficulté de capter la connaissance des experts. Cela explique son déclin dans les années 1990. Dans de nombreux domaines, la force brute s’est imposée en lieu et place de la logique et de la captation manuelle de connaissances. Cela se retrouve dans le traitement du langage, la traduction automatique, la reconnaissance des images ou les moteurs de recherche. Même IBM Watson utilise la force brute pour exploiter de gros volumes de bases de données de connaissances non structurées.

Figure: Expert System

Un système expert s’appuie sur deux composantes clés : une base de connaissance, générée souvent manuellement ou éventuellement par exploitation de bases de connaissances existantes, puis un moteur d’inférence, plus ou moins générique, qui va utiliser la base de connaissance pour répondre à des questions précises. Les systèmes experts peuvent expliquer le rationnel de leur réponse. La traçabilité est possible jusqu’au savoir codifié dans la base de connaissances.

On compte encore des outils et langages dans ce domaine et notamment l’offre du français ILOG, acquis en 2009 par IBM et dont les laboratoires de R&D sont toujours à Gentilly près de Paris. Le moteur d’inférence ILOG Jrules est devenu IBM Operational Decision Manager. De son côté, ILOG Solver est une bibliothèque C++ de programmation par contraintes, devenue IBM ILOG CPLEX CP Optimizer. Une stratégie de branding moins efficace que celle de IBM Watson, comme nous le verrons dans le prochain article de cette série.

Méthodes statistiques

Les méthodes statistiques et notamment bayésiennes permettent de prévoir la probabilité d’événement en fonction de l’analyse d’évènements passés. Les réseaux bayésiens utilisent des modèles à base de graphes pour décrire des relations d’interdépendance statistiques et de causalité entre facteurs.

Les applications sont nombreuses comme la détection de potentiel de fraudes dans les transactions de cartes bancaires ou l’analyse de risques d’incidents pour des assurés. Elles sont aussi très utilisées dans les moteurs de recherche au détriment de méthodes plus formelles, comme le rappelle Brian Bannon en 2009 dans Unreasonable Effectiveness of Data.

La plupart des études scientifiques dans le domaine de la biologie et de la santé génèrent des corpus sous forme de résultats statistiques comme des gaussiennes d’efficacité de nouveaux médicaments. L’exploitation de la masse de ces résultats relève aussi d’approches bayésiennes. Le cerveau met d’ailleurs en œuvre une logique bayésienne pour ses propres prises de décision, notamment motrices, les centres associés étant d’ailleurs situés dans le cervelet tandis que dans le cortex cérébral gère la mémoire et les actions explicites (source : Stanislas Dehaene).

 

Bayesian And Diabetes 2

Logique floue

La logique floue est un concept de logique inventé par l’américain Lofti Zadeh (“Fuzzy Logic”) en 1965. J’avais eu l’occasion de l’entendre la présenter lors d’une conférence à l’Ecole Centrale en 1984, lorsque j’étais en option informatique en troisième année. Ca ne nous rajeunit pas !

La logique floue permet de manipuler des informations floues qui ne sont ni vraie ni fausses, en complément de la logique booléenne, mais à pouvoir faire des opérations dessus comme l’inversion, le minimum ou le maximum de deux valeurs. On peut aussi faire des OU et des ET sur des valeurs “floues”.

Fuzzy Logic Example

Quid des applications ? Elles sont relativement rares. On les trouve dans le contrôle industriel, dans des boites de vitesse chez Volkswagen (pour tenir compte de l’intention “floue” du conducteur), pour gérer des feux de circulation et maximiser le débit, dans la reconnaissance de la parole et d’images, le plus souvent, en complément du bayésien. Des dizaines de milliers de brevets auraient été déposés pour protéger des procédés techniques utilisant la théorie de la logique floue.

Réseaux de neurones

Les réseaux de neurones visent à reproduire approximativement par bio mimétisme le fonctionnement des neurones vivants avec des sous-ensembles matériels et logiciels capables de faire des calculs à partir de quelques données en entrées et de générer un résultat en sortie. Combinées en grand nombre, les neurones artificiels permettent de créer des systèmes capables par exemple de reconnaitre des formes. Les réseaux neuronaux les plus intéressants sont ceux qui peuvent faire de l’auto-apprentissage.

Le concept de base est né en 1943 des travaux de Warren McCullochs et Walter Pitts. Donald Hebb ajouta le principe de modulation la connexion entre neurones en 1949, permettant aux neurones de mémoriser de l’expérience. La connaissance est acquise via les interconnexions entre neurones et via un processus d’apprentissage. Elle est matérialisée sous la forme de poids de connexions synaptiques entre neurones qui varient en fonction de l’expérience acquise, par exemple dans la reconnaissance d’images.

Le premier réseau de neurones matériel fut créé par Marvin Minsky et Dean Edmons en 1950. Le SNARC simulait 40 neurones avec 3000 lampes à tubes ! Frank Rosenblatt, un collègue de Marvin Minsky, créa ensuite le concept du perceptron en 1957 qui était un neurone assez simple dans son principe. Le premier perceptron était un réseau de neurones artificiels à une seule couche tournant sous forme de logiciel dans un IBM 704, le premier ordinateur du constructeur doté de mémoires à tores magnétiques. C’était un outil de classification linéaire utilisant un seul extracteur de caractéristique.

En 1969, Marvin Minsky publia avec Seymour Papert le livre “Perceptrons” qui critiquait sévèrement les travaux de Frank Rosenblatt. D’ailleurs, sur un point très spécifique portant sur les portes logiques XOR des perceptrons. Ce livre mit un coup d’arrêt à ces développements, un peu comme le rapport de Lightfill quelques années plus tard. Toujours, dans la dynamique de la rivalité des neats vs scuffies. Ce coup d’arrêt fit perdre un temps considérable à l’ensemble des recherches en IA, ce d’autant plus que les réseaux neuronaux sont devenus, depuis, un pan fondamental des progrès dans tous les étages de l’IA. Marvin Minsky reconnu toutefois son erreur dans les années 1980, après le décès de Frank Rosenblatt.

Depuis une vingtaine d’années, les réseaux neuronaux sont mis à toutes les sauces, la dernière étant la victoire de DeepMind contre un champion de Go à la mi-mars 2016. Les réseaux neuronaux ont progressé pas à pas, avec la création d’innombrables variantes conceptuelles pour améliorer leurs capacités d‘apprentissage et de mémorisation. L’IA progresse d’ailleurs régulièrement et de manière plutôt décentralisée, avec des dizaines de chercheurs contribuant à faire avancer l’état de l’art. Les dernières années ont cependant vu les efforts de recherche passer des travaux dans la logique de base vers ses applications.

Hidden Layers in Neuron Networks

L’un des points clés des réseaux de neurones actuels est la technique de la rétropropagation du gradient (back propagation). Elle a vu le jour dans les années 1960 puis, pendant et après le second hiver de l’IA, a repris son essor vers 1986. Elle permet de modifier le poids des liaisons synaptiques entre neurones en fonction des erreurs constatées dans les évaluations précédentes, par exemple dans la reconnaissance d’images. Comment fonctionne cette boucle d’apprentissage ? C’est un apprentissage soit assisté, soit automatique en comparant les résultats avec la bonne réponse, déjà connue. C’est un des débats clés d’aujourd’hui : est-on réellement capable de créer des réseaux doués de facultés d’auto-apprentissage ? Il semblerait que l’on en soit encore loin.

 

Back propagation

20 ans après la renaissance des réseaux neuronaux, en 2006, le japonais Osamu Hasegawa créait les réseaux neuronaux auto-organisés incrémentalement (“Self-Organising Incremental Neural Network” ou SOINN), utilisables dans des réseaux neuronaux auto-réplicables et capables d’auto-apprentissage. En 2011, son équipe développait un robot utilisant ces SOINN capable d’auto-apprentissage (vidéo), illustrant magistralement les applications des réseaux neuronaux. Nous sommes 10 ans plus tard, et on constate que les robots autonomes sont encore loin du compte, même si les sociétés telles que Boston Dynamics, filiale de Google, nous ébaubissent avec des robots très souples dans leur démarche et résistant à l’adversité.

 

SOINN robot

Les réseaux neuronaux ont aussi progressé grâce à leur mise en œuvre dans des architectures matérielles spécialisées permettant de bien paralléliser leurs traitements comme le fait le cerveau. Le composant électronique idéal pour créer un réseau de neurones est capable d’intégrer un très grand nombre de pico-unités de traitement avec entrées, sorties, logique de calcul si possible programmable et mémoire non volatile. Il faut par ailleurs que les connexions entre neurones (synapses) soient les plus nombreuses possibles. En pratique, les connexions se font avec les neurones adjacents dans les circuits.

Les memristors ont fait son apparition en 2008 chez HP après avoir été conceptualisée en 1971 par le sino-américain Leon Ong Chua. Ce sont des composants électroniques capables de mémoriser un état en faisant varier leur résistance électrique par l’application d’une tension. Un peu comme les cristaux liquides bistables qui servent dans (feu) les liseuses électroniques. La valeur modifiable de la résistance permet de stocker de l’information. Les memristors peuvent aussi être intégrés au côté de composants actifs classiques dans des unités de traitement. C’est très bien expliqué dans Memristor: From Basics to Deployment de Saraju Mohanty, publié en 2013, d’où sont extraits les deux schémas ci-dessous. Le second présente les différents types de memristors actuellement explorés. Ces composants sont intégrables dans des puces au silicium utilisant des procédés de fabrication plus ou moins traditionnels (nanoimprint lithography), en ajoutant une bonne douzaine d’étapes dans la production, et avec des matériaux rares comme les oxydes de titane.

Memristors

Les memristors ont été développés dans le cadre des projets de recherche du programme SyNAPSE de la DARPA. HP a été le premier à en prototyper en 2008, avec de l’oxyde de titane. Il en existe de plusieurs types, pouvant généralement être fabriqués dans les lignes de productions de chipsets CMOS traditionnelles, mais avec des procédés spécifiques de dépôt sous vide de couches minces de matériaux semi-conducteurs. HP a même lancé un partenariat avec le fabricant de mémoires Hynix, mais le projet a été mis en veilleuse en 2012. Le taux de rebus serait trop élevé lors de la fabrication. C’est un paramètre clé pour pouvoir fabriquer des composants en quantité industrielle et à un prix de vente abordable. De plus, le nombre de cycles d’écriture semblait limité pour des raisons chimiques, dans le cycle de libération/captation d’oxygène pour les memristors en oxydes de titane.

darpa_synapse_roadmap

En octobre 2015, HP et SanDisk ont cependant annoncé un partenariat pour fabriquer des mémoires volatiles et non volatiles à base de memristors, censées être 1000 fois plus rapides et plus endurantes que les mémoires flash traditionnelles.

D’autres laboratoires de recherche et industriels planchent aussi sur les memristores et les réseaux de neurones matériels :

  • IBM planche avec l’ETH de Zurich (le CNRS suisse) sur des ordinateurs à base de memristors. Ce même ETH développe un memristor capable de stocker trois états à base de pérovskite (titanate de calcium) de 5 nm d’épaisseur. Cela pourrait servir à gérer de la logique floue.
  • Des chercheurs de l’Université Technologique du Michigan ont annoncé début 2016 avoir créé des memristors à base de bisulfite de molybdène qui ont un comportement plus linéaire.
  • Des chercheurs du MIT ont annoncé début 2016 leurs travaux sur le chipset Eyeriss utilisant des neurones spécialisés réparties dans 168 cœurs dotés de leur propre mémoire. Mais visiblement sans memristors. L’application visée est la reconnaissance d’images. Le projet est financé par la DARPA.
  • Le projet Nanolitz aussi financé par la DARPA dans le cadre des projets Atoms to Product (A2P) et s’appuie sur des fils microscopiques pour connecter plus efficacement des cœurs et neurones dans des circuits spécialisés.
  • L’ANR a financé le projet collaboratif MHANN associant l’INRIA, l’IMS de Bordeaux et Thalès pour créer des memristors ferriques. Le projet devait être terminé en 2013 et avait bénéficié d’une enveloppe de 740 K€. Difficile de savoir ce qu’il en est advenu en ligne.
  • Enfin, la start-up californienne Knowm a lancé le premier composant commercial à base de memristors, fabriqué en partenariat avec la Boise State University, à base d’argent ou de cuivre et au prix de $220. Il est destiné en premier lieu aux laboratoires de recherche en réseaux neuronaux.

Le programme SyNAPSE de la DARPA a en tout cas aboutit en 2014 à la création par IBM de ses processeurs neuronaux TrueNorth capables de simuler un million de neurones artificiels, 256 millions de synapses reliant ces neurones et exécutant 46 milliards d’opérations synaptiques par secondes et par Watt consommé. Le tout avec 4096 cœurs. Le chipset a été fabriqué par Samsung en technologie CMOS 28 nm et avec une couche d’isolation SOI (issue du français SOITEC !) permettant de diminuer la consommation électrique et d’accélérer les traitements. Le chipsets comprend 5,4 milliards de transistors en tout et fait plus de 4 cm2 de surface. Et surtout, il ne consomme que 70 mW, ce qui permet d’envisager d’empiler ces processeurs en couches, quelque chose d’impossible avec les processeurs CMOS habituels qui consomment beaucoup plus d’énergie. A titre de comparaison, un processeur Intel Core i7 de dernière génération (Skymake) réalisé en technologie 14 nm consomme entre 15 W et 130 W selon les modèles, pour 1,7 milliards de transistors.

Le but d’IBM est de construire un ordinateur doté de 10 milliards de neurones et 100 trillions de synapses, consommant 1 KW et tenant dans un volume de deux litres. A titre de comparaison, un cerveau humain contient environ 85 milliards de neurones et ne consomme que 20 Watts ! Le biologique reste encore à ce stade une machine très efficace d’un point de vue énergétique !

 

truenorth_synapse_design

Il existe d’autres projets d’ordinateurs synaptiques à base de réseaux de neurones. On peut notamment citer le projet de Jeff Hawkins, le fondateur de Palm, celui de Stanford, qui travaille sur le chipset Neurocore intégrant pour l’instant 65536 neurones et fonctionnant à très basse consommation.

Il y a aussi le projet SpiNNaker de Steve Furber (Université de Manchester, UK), qui vise à créer un chipset de un milliard de neurones. Il s’appuie cependant sur une architecture matérielle classique, avec 18 cœurs 32 bits ARM par chip. On est plus dans l’architecture massivement parallèle avec des milliers de processeurs de ce type que dans les processeurs véritablement synaptiques.

Enfin, dans le domaine commercial, le CogniMem CM1K est un chipset ASIC intégrant un réseau de 1024 neurones qui sert aux applications de reconnaissance des formes. Ne coutant que 94 dollars, il est notamment utilisé dans la BrainCard, issue d’une start-up française.

Cognigen Neuron NetworkPlus récemment, Nvidia a présenté au CES 2016 sa carte PX2 pour l’automobile qui intègre deux processeurs X1 comprenant 256 GPU. Les GPU Nvidia sont utilisés pour simuler des réseaux de neurones. C’est bien mais probablement pas aussi optimal que de véritables réseaux de neurones et de synapses artificiels comme le TrueNorth d’IBM. Qui plus est, la carte PX2 doit être réfrigérée par eau car elle consomme plus de 200 W. Comme l’explique Tim Dettmers, un GPU n’est utilisable pour des réseaux de neurones que si la mémoire est facilement partagée entre les cœurs de GPU. C’est ce que propose justement Nvidia avec son architecture GPUDirect RDMA.

On peut donc constater que tout cela bouillonne, plutôt au niveau des laboratoires de recherche à ce stade, et que l’industrialisation prendra encore un peu de temps, mais que les réseaux neuronaux matériels ont probablement un bel avenir devant eux.

Machine learning et deep learning

Le vaste domaine du machine learning, ou apprentissage automatique, vise à faire des prédictions à partir de données existantes. C’est un domaine qui est intimement relié de à celui des réseaux de neurones, qui servent de substrat pour les traitements. En effet, les outils de machine learning et de deep learning s’appuient sur différentes variantes de réseaux de neurones pour leur mise en œuvre pratique, notamment des réseaux neuronaux à plusieurs niveaux. Ces réseaux sont supervisés ou pas selon les cas.

Le machine learning est surtout utilisé aujourd’hui pour la reconnaissance des formes dans les images et celle de la parole, donc dans les sens artificiels. Il peut aussi servir à exploiter des données non structurées et à gérer des bases de connaissances. IBM liste quelques-unes de ces applications dans son marketing. On y retrouve des études de cas dans l’éducation pour créer des MOOC auto-adaptatifs, dans le retail avec un assistant d’achats, dans la santé avec la personnalisation de traitements contre certains cancers ou encore dans l’analyse de diverses données dans la smart city.

Les réseaux neuronaux ont connu un renouveau en 2006 avec les travaux des canadiens Geoffrey Hinton et Simon Osindero et du singapourien Yee-Whye Teh publiés dans A Fast Learning Algorithm For Deep Belief Nets qui optimisent le fonctionnement des réseaux neuronaux multicouches. Le concept du machine learning a été ensuite formalisé par Georges Hinton en 2007 dans Learning multiple layers of representation. Il s’appuyait lui-même sur les travaux du français Yann Le Cun (en 1989) qui dirige maintenant le laboratoire de recherche en IA de Facebook et de l’allemand Jürgen Schmidhuber (1992) dont deux des anciens étudiants ont créé la start-up DeepMind maintenant filiale de Google. Petit monde ! Geoffrey Hinton travaille pour Google depuis 2013, pas loin du légendaire Jeff Dean, arrivé en 1999 et qui planche maintenant aussi sur le deep learning.

Pour comprendre le fonctionnement du deep learning, il faut avoir beaucoup du temps et un bon bagage mathématique et logique ! On peut commencer par parcourir Deep Learning in Neural Networks de ce Jürgen Schmidhuber, publié en 2014 qui fait 88 pages dont 53 de bibliographie ou bien Neural Networks and Deep Learning, un livre gratuit en ligne qui expose les principes du deep learning. Il explique notamment pourquoi l’auto-apprentissage est difficile. Bon, cela fait tout de même plus de 200 pages en corps 11 et on est largué à la cinquième page, même avec un bon background de développeur ! Il y a aussi Deep Learning Methods and Applications publié par Microsoft Research (197 pages) qui démarre en vulgarisant assez bien le sujet. Et puis l’excellent Artificial Intelligence A Modern Approach, une somme de référence sur l’IA qui fait la bagatelle de 1152 pages. J’ai enfin trouvé cette présentation plutôt synthétique A very brief overview of deep learning de Maarten Grachten en 22 slides ! Ouf ! Bref, il faut se taper l’équivalent de plusieurs Rapports du CES de Las Vegas !

  • A propos
Olivier-Ezratty
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique), et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Par Olivier Ezratty, expert Frenchweb.

 

Ces méthodes de recrutement qui n’existaient pas il y a 10 ans

En suivant les évolutions de la technologie, le recrutement a évolué. Nous le voyons au quotidien avec les clients que nous accompagnons, il peut être difficile de s’y retrouver entre les différentes méthodes qui ont émergé, et de nouvelles plateformes apparaissent tous les jours. Petit tour d’horizon des grandes méthodes qui ont pris leur envol en 10 ans, que nous avons expérimentées nous-mêmes au sein de 231e47 ou en accompagnant des grands groupes.

Réseaux sociaux

Vous ne vous imaginez plus recruter sans eux, et pourtant ils ne faisaient pas encore vraiment partie de votre vie il y a 10 ans. Il s’agit bien évidemment des réseaux sociaux. En 2006, LinkedIn ne s’était pas vraiment développé à l’international, Facebook n’avait pas lancé ses pages entreprises, Twitter était à peine naissant. Les recruteurs n’avaient pas ma même opportunité d’utiliser le sourcing pour toucher les candidats passifs, les entreprises ne pouvaient pas construire de marque employeur en dehors de leur site web, la conversation entre les candidats et les entreprises n’existait pas. Vous ne pouviez pas avoir de données sur votre communauté de candidats ou sur différencier votre discours en fonction de votre public. Les réseaux sociaux se sont profondément ancrés dans les pratiques de recrutement en les transformant radicalement, et vont continuer à les transformer alors que de plus en plus de nos clients cherchent des façons innovantes d’utiliser les réseaux sociaux et de transcender leur usage initial.

Le pouvoir au candidat

Imaginez un monde où le candidat a plus de pouvoir que le recruteur. Ce monde existe, d’une part à travers le développement de la transparence comme sur Glassdoor, d’autre part à travers la création de plateformes comme woo.com. En termes de transparence, nous aidons les entreprises à trouver comment motiver vos collaborateurs satisfaits à laisser leur avis sur Glassdoor, mais aussi à répondre aux avis négatifs de façon pertinente pour nourrir votre marque employeur. Comme l’a montré l’étude HRIdea, les entreprises sont encore peu proactives sur Glassdoor, alors que de mauvais avis peuvent dissuader un candidat de postuler.

Sur woo, les profils techniques comme des développeurs, pénuriques aux Etats-Unis, se créent des fiches anonymes (parce qu’ils n’ont pas envie que leur employeur les retrouve) avec leurs compétences et surtout leurs exigences en termes de salaire, de poste, de comp & ben… Les recruteurs ne voient alors que les fiches qui comprennent des exigences auxquels ils peuvent répondre. Le candidat, très sollicités par les cabinets de recrutement savent ainsi qu’ils ne recevront aucune proposition qui ne leur conviendra pas. Prêt à devenir flexible ?

Entretien différé

L’entretien différé est de plus en plus utilisé par les recruteurs et apprécié des candidats. Pour vous rappeler comment ça marche, les recruteurs définissent des questions qui seront indifféremment envoyées à travers une plateforme dédiée à tous les candidats, qui répondent en vidéo. Les plateformes ont commencé à exploser récemment, lorsque les recruteurs ont cherché une solution permettant de sélectionner des candidats sans la difficulté d’organiser les entretiens dans leur agenda. L’avantage est incontestablement de pouvoir se faire une idée des candidats plus complète qu’au téléphone, puisqu’on peut aussi analyser leur langage corporel. Pour les candidats, l’entretien différé permet de répondre aux questions au moment où ils sont le plus à l’aise, dans un univers qu’ils connaissent sans le stress du face à face.

image: http://www.frenchweb.fr/wp-content/uploads/2016/03/recrutement.gif

recrutement

Géolocalisation, cooptation, job matching : le recrutement mobile en pleine action

Trouver un emploi près de chez soi, un emploi qui correspond à ses compétences ou recommander une relation… Ces trois tâches sont loin d’être nouvelles dans le processus de recrutement. Pourtant, avoir des applications mobiles qui y sont dédiés a changé la donne et permis leur explosion. Chacun de ces trois secteurs a été simplifié par le mobile : la cooptation a profité des réseaux sociaux pour s’appuyer en un clic sur tous les contacts de ses utilisateurs.

La géolocalisation a beaucoup gagné de la possibilité de localiser le mobile d’un utilisateur et de lui proposer des offres autour de lui. Le job matching, qui exploite la data pour proposer aux candidats les postes les plus appropriés. En les proposant sur mobile, les candidats peuvent exploiter leur temps creux pour trier les offres d’emploi. Partout, tout le temps, dans les transports ou au supermarché.

pokemon-geolocalisation

Gamification & MOOC

Vous avez déjà eu envie de former un candidat à qui il manquait une seule compétence pour avoir le profil parfait ? Au contraire, avez-vous rêvé d’évaluer un candidat sur les tâches pour lesquelles il est réellement opérationnel ? Pour le premier cas de figure, vous pouvez lancer, comme Amazon, Facebook ou Google, des MOOC accessibles sur simple test de niveau d’entrée et sélectionner les meilleurs éléments parmi ceux qui sont allés jusqu’au bout du MOOC. Pour le second, des plateformes vous permettent de créer des défis à résoudre par les candidats (notamment sur des profils techniques comme les développeurs). Vous pourrez alors recruter parmi les candidats qui ont résolu les épreuves, avec la possibilité d’analyser la façon dont ils s’en sortent. Ces MOOC et serious game correspondent tous les deux à la même idée de mieux recruter, vous pouvez apporter de la valeur ajoutée aux candidats pour qu’il commence à apprendre ou jouer avec vous avant même d’intégrer l’entreprise.

  • A propos

 

jean-noel-chaintreuil- 231e47

Jean-Noel Chaintreuil est le CEO et fondateur de 231E47. Cette société accompagne les entreprises dans la définition et la mise en oeuvre de leurs stratégies d’acculturation digitale.
Par Jean-Noel Chaintreuil, CEO et fondateur de 231E47

 

5 astuces pour espionner la stratégie web de vos concurrents

Business strategy planning icon flat set with effective management achieving a goal isolated vector illustration

Business strategy planning icon flat set with effective management achieving a goal isolated vector illustration modern style

Créer un flux RSS avec les blogs des concurrents

Pour commencer, listez tous les concurrents qui ont un blog et relevez leur flux RSS. Ensuite, à l’aide d’un outil comme Netvibes ou Feedly, vous pouvez regrouper tous ces flux.

Chaque matin ou chaque soir, il vous suffit de les consulter pour connaître les derniers articles publiés.

Créer un flux RSS avec les médias spécialisés de votre secteur

De la même manière que vous avez relevé les blogs de vos concurrents, listez les médias spécialisés dans votre domaine d’activité. Ils publient généralement des informations sur vos concurrents et révèlent aussi les nouveaux acteurs du marché.

C’est aussi un excellent moyen de veiller sur les évolutions de votre secteur et les nouvelles attentes des consommateurs.

Créer des alertes sur les raisons sociales des concurrents

Pour que la veille sur vos concurrents soit complète, créez des alertes sur leur raison sociale. Vous pouvez utiliser un outil gratuit d’e-rupation comme Google Alertes ou payant, mais plus complet, comme Alerti ou Mention. Les résultats de ces alertes font remonter tous les articles et contenus des réseaux sociaux parlant des entreprises concurrentes.

Vous pouvez ainsi analyser les retombées de leur stratégie digitale et les feedbacks concernant leurs prestations. Ces données vous aideront à optimiser vos offres commerciales et à affiner votre communication.

Ajouter les comptes Twitter de concurrents dans une liste privée

Vos concurrents ont-ils un compte Twitter ? Si c’est le cas, profitez-en aussi pour veiller sur leurs posts sur le réseau de microblogging. Pour les espionner en toute discrétion, créer une liste privée, nommée « Concurrents » par exemple, et ajoutez-les. Attention, ne les suivez pas !

Il vous suffira de faire régulièrement un tour sur cette liste pour visualiser et analyser leurs dernières publications et leur stratégie.

S’abonner à leur newsletter

Une autre méthode pour garder vos concurrents en ligne de mire est de vous abonner à leur newsletter. Pour cela, évitez de choisir votre adresse professionnelle pour ne pas vous trahir. Prenez une adresse neutre en gmail ou outlook, qui vous servira seulement à effectuer votre veille.

Vous recevrez en direct les dernières actualités de l’entreprise, ainsi que ses offres commerciales. Idéal pour faire une contre-proposition aux consommateurs ou trouver comment être plus performant !

Faire appel à un freelance sur Codeur

Oui, il est vrai qu’une veille concurrentielle est chronophage, mais cela en vaut la peine ! C’est une technique performante qui vous permettra d’ajuster votre stratégie ou de trouver des idées pour la faire évoluer.

Si vous n’avez pas le temps de vous en occuper, nous disposons de freelances prêts à vous aider ! Ils pourront mettre en œuvre toutes les bonnes pratiques répertoriées dans cet article et vous transmettre un reporting mensuel des retombées concurrentielles, ainsi que des actions à retenir.

Postez dès aujourd’hui votre annonce gratuite pour trouver un freelance spécialisé dans la veille.

Et vous, comment veillez-vous sur vos concurrents ? N’hésitez pas à partager vos bonnes pratiques en commentaires.