Category Archives: web

Les impostures de «l’écriture web»

Si l’on en croît la vulgate de certains “experts” journalistiques ou marketing, écrire pour le web requiert  un savoir-faire complexe et bien précis. Il s’agirait de suivre des règles  incontournables si l’on veut plaire au lecteur et faire de l’audience.

1- IL FAUT ECRIRE COURT SUR INTERNET

Ce point est soulevé par Morgane Tual dans son dernier coup de gueule via lequel elle raille ces formateurs sexagénaires débitant ce genre de règle absurde avec une “certitude insensée”.

Ecrire court à tout prix alimente l’idée qu’on ne peut pas créer de la profondeur sur Internet, que tout est forcément superficiel et creux. Difficile d’expliquer le rigorisme de l’impératif kantien en 140 signes…

En réalité, il ne faut pas écrire court, il faut écrire “dense” : dire un maximum de choses avec un minimum de mots. Mais ceci n’a rien de spécifique au web. Cela est vrai de toute écriture digne de ce nom, journalistique ou pas, qui distingue du contenu riche du verbiage, comme d’une bonne ou d’une mauvaise copie de philo.

Mais écrire dense, cela veut dire avoir des choses à dire, avoir de l’information, des faits à délivrer. Je me souviens de cette responsable d’un magazine spécialisé assistant à l’une de mes formations, qui contesta ma recommandation de concision. Alors que j’insistais sur la nécessité d’aller à l’essentiel, de servir le lecteur en lui mâchant l’information utile, elle objecta: “nous, on doit remplir du papier, le lecteur en veut pour son argent, il lui faut ses 130 pages”.

En réalité, le verbiage avait surtout pour fonction d’augmenter artificiellement la pagination rédactionnelle, pour augmenter le nombre d’insertions de pub.  Mais en admettant que le facteur kilo joue aussi auprès des lecteurs, il fallait fournir en ce cas plus  de contenus (informations, illustrations)… La dilution ne tient que sur des segments  presse peu concurrentiels, monopoles ou oligopoles qui ne durent pas éternellement.

Il faut certes adapter l’aspect visuel des contenus pour faciliter la lecture en moyenne 25% plus difficile sur un écran si l’on en croit Jacob Nielsen, ergonome expert ayant étudié la questions.

Cela signifie éviter des paragraphes “pavés” de quinze ligne sans aération dans lesquels le lecteur ne veut pas “entrer”. Eviter aussi les phrases qui n’en finissent pas, emplies de virgules, de gérondifs et de participes présents.

2- LE WEB, C’EST FORCEMENT MULTIMEDIA

A l’heure d’Internet, l’écrit est dépassé, il faut proposer de la vidéo, des animations interactives, des “serious games” et éventuellement un mélange de tout cela.

Non, l’écrit n’a pas disparu, bien au contraire, la lecture en général se porte bien et le texte foisonne sur Internet, comme en témoigne l’explosion des bases de données, textuelles pour la plupart. La question n’est pas d’apporter de la vidéo ou une animation pour faire “moderne” ou être dans la “tendance”, mais bien de savoir quel est le service rendu au lecteur.

Sous quel format, doit-on présenter l’information pour quelle soit la plus claire, la plus agréable, la plus facile à consommer ? Il n’y a pas de réponse unique à cette question, car les publics sont multiples. Pour certains, une interview vidéo sera le format le plus agréable. Pour d’autres au contraire qui ont peu de temps et préfèrent lire “en diagonale”, le texte sera plus adapté. On sait par ailleurs qu’une proportion importante de lecteurs sur Internet le fait depuis son lieu de travail, et tous n’ont pas un casque… Pour la discrétion ou l’open space, c’est donc un frein majeur.

En ce cas là, il semble judicieux de proposer les deux formats simultanés. Mais faut-il pour autant multiplier les formats ? Proposer tout en se disant que le lecteur fera lui-même son marché ?

Cette méthode faillit à l’une des missions essentielle du médiateur (ou “curator” selon le nouveau terme en vogue) : sélectionner l’information, la préparer pour la rendre digeste et servir ainsi le lecteur, d’autant plus qu’il est toujours plus submergé d’informations, de sollicitations visuelles, sonores, tactiles… olfactives demain ?

Le format retenu doit être fonction du propos. Pour raconter l’affaire Clearstream aux multiples rebondissements, une animation chronologique semble pertinente. Mais un schéma montrant les relations entre les différents acteurs ne sera-t-il pas plus efficace ?  Et en tout état de cause le format choisi ne remplacera pas les articles anglés sur telle ou telle question: la manipulation de Lahoud, la contre-manipulation de Sarkozy, le rôle de Villepin, la complicité des grand patrons…

le-petit-clearstreamle-petit-clearstream3- IL FAUT ECRIRE POUR LES MOTEURS

J’ai déjà dénoncé ce reproche adressé souvent aux journalistes web selon lequel ils sont soumis au méchant Google qui leur impose des règles et du coup, formate l’information.

Si l’uniformisation des formes et contenus journalistiques n’est pas toujours une vue de l’esprit, la faute en incombe aux journalistes, pas à Google.

Google a conçu des règles pour répondre à un souci de pertinence, de service au lecteur. Ces critères ne sont pas parfaits, et sont de plus en plus détournés (rançon de la gloire). Mais ils fonctionnent globalement, sinon Google ne détiendrait pas 65% de parts de marché dans le monde, en dépit d’une concurrence acharnée de Bing/Yahoo notamment.

C’est peut-être justement au niveau des écoles de journalisme ou par imitation grégaire rassurante queles journalistes finissent par écrire tous de la même manière. Comme ils parlent tous de la même façon en télévision ou en radio. Norme évolutive si l’on se rappelle bien les tons nasillards de nos premiers speakers.

Les critères de Google : richesse syntaxique, mises en forme (gras, titres…), popularité sont des indices de qualité. Et Google ne punit pas les textes longs, bien au contraire, incapable de saisir la pertinence contextuelle d’un texte long ou court. Ainsi pour une dépêche d’agence, il semble pertinent pour servir l’utilisateur de faire court compte tenu de son mode de consommation limité dans le temps. Pour un article de blog, cela dépend de la richesse du contenu lui-même

Par ailleurs, les usages évoluent vite et ce qui est vrai aujourd’hui ne le sera plus demain. Ainsi des paginations horizontales limitées en 768 px de hauteur qui ont évolué d’abord avec l’augmentation des taux d’équipement en écran plus grands (du 15 au 19 pouces). Et ont été bouleversés ensuite par l’apparition de la molette sur les souris qui a fait éclore les navigations verticales à plat, sur l’initiative du précurseur 20 minutes. L’apparition des tablettes et du mobile va certainement changer encore les modes de lecture et de consommation de l’information.

Enfin, comme le rappelle Morgane, on tâtonne, on cherche, on teste… S’il y a bien une seule règle qui vaille, c’est celle de l’intérêt du lecteur qui appelle des réponses aussi diverses qu’il y a de publics différents.

4- IL FAUT METTRE UN MAXIMUM DE LIENS

Ajouter un grand nombre de liens, c’est bien pour le lecteur, car c’est lui offrir potentiellement plus d’informations. C’est d’ailleurs bien vis à vis des moteurs qui “récompensent” les liens internes et externes, indifféremment de leur nombre.

Oui, mais est-ce réellement un service au lecteur de l’étouffer sous l’information ? Pire encore sont ces liens automatiques générés à partir des tags qui noient les liens pertinents sous une masse d’autres inutiles ou éloignés du sujet principal.

Cette “infobésité” dessert le lecteur en lui faisant perdre du temps et en diluant le “sens” sous la masse d’informations.

Ce cas de figure est un exemple de l’arbitrage qu’il faut réaliser entre les fameuses règles de Google et l’intérêt du lecteur qui doit toujours rester la finalité.

5- LES SUJETS SERIEUX NE MARCHENT PAS

Les sujets sérieux, “high-brow topics” (haut du front), comme disent les Anglais ne fonctionnent pas. La politique, les sujets internationaux, tous thèmes profonds ne font pas d’audience.

Il faudrait au contraire ne fournir au lecteur que ce qu’il “demande”, à savoir des faits divers, du people, de l’insolite, du spectaculaire plus ou moins racoleur.

Il semble évident qu’une galerie photo sur les ravages du Tsunami fera plus d’audience qu’un dossier sur les subprimes. Mais rien n’empêche d’expliquer le principe de ces produits financiers lors d’un diaporama sur les raisons de la crise financière. Et mon expérience m’a prouvé que l’on peut faire de l’audience, certes pas dans les mêmes proportions, avec ce genre de sujets “sérieux”. Tout dépend du format, du propos, du contexte.

Car s’’il faut procurer au client-lecteur ce dont il a besoin, il faut aussi lui apporter ce dont il ne sait pas encore qu’il a besoin.

Le journaliste est aussi ce pédagogue qui, tout en satisfaisant son public, cherche aussi à l’instruire, à l’élever, l’air de rien, “par la bande”. Equilibre délicat où il convient de ne pas trop exiger de son lecteur pour ne pas trop se couper de lui. Sans tomber non plus dans le pur suivisme racoleur qui aboutit à un rejet tout aussi inéluctable, in fine.

Entre l’austère plat de haricots “politique internationale” et l’indigestion de bonbons Haribo “faits divers ou people”, il faut éduquer nos enfants-lecteurs à l’information. Cet équilibre complexe est ce qu’on appelle une ligne éditoriale

Les jeunes journalistes doivent donc prendre du recul par rapport aux règles qu’on leur dispense. Celles-ci ne sont pas paroles d’évangile, elles doivent être adaptées au cibles, au contexte de diffusion, aux sujets, au lieu de promotion dans le journal ou sur le site (page d’accueil, de rubrique ou de blog ?). Et garder à l’esprit que les usages changent vite et nécessitent surtout une écoute attentive pour s’adapter. Ainsi qu’une dose de créativité pour proposer.  Un bon supermarché fournit rayons ET têtes de gondoles.

  • Par Cyrille Frank, fondateur de Mediaculture.fr
  • A propos

 

cyrille frank

Cyrille Frank est journaliste. Fondateur de Mediaculture.fr et Quoi.info («l’actualité expliquée», devenu «ça m’intéresse»), il accompagne les médias dans leur mutation numérique. Formateur en marketing de contenus, stratégie éditoriale (augmentation de trafic, fidélisation, monétisation d’audience) et en usages des réseaux sociaux (acquisition de trafic, engagement…).

 

Withings ou l’histoire d’une naïveté française

Le spectaculaire rachat de Withings par Nokia ne traduit pas comme on l’évoque systématiquement la faiblesse de notre système de financement mais le manque de vision et d’engagement de notre scène entrepreneuriale. L’incapacité à créer des écosystèmes à l’échelle mondiale afin de se positionner dans la guerre du numérique qui oppose la Chine aux Etats-Unis. Il est temps de se mobiliser pour «faire tomber les GAFA» et défendre notre souveraineté.

Après Captain Train racheté par les Anglais pour 200M€, c’est au tour d’un emblème de la technologie française Withings et qui a fait grand bruit au CES de Las Vegas en jouant la carte du made in France, de passer sous le contrôle de Nokia pour 170M€. Et il y a fort à parier que Blalacar ne résisterait pas à une proposition de Facebook si ce dernier décidait d’introduire le covoiturage dans sa palette de services pour connecter la planète. L’aventure de ce que l’on appelle les pépites à la française n’a malheureusement qu’une seule issue : un gros chèque !

L’intelligence first

Plus la technologie se développe et plus elle s’efface derrière les idées. Le «purpose» ou la raison d’être. Les grands acteurs du numérique l’ont compris en prenant le virage de «l’intelligence first». Le produit devient une fonctionnalité qui s’intègre dans une plateforme dont le rôle est de résoudre les problèmes du monde, la santé, les déplacements, les loisirs… gérer une communauté, organiser un écosystème circulaire, itératif, ouvert et inclusif qui met en contact directement les utilisateurs et producteurs pour raccourcir et optimiser l’interaction. C’est la mort annoncée des sites et des applications. Le rôle de l’entrepreneur est alors de défendre une «vision» et ensuite de designer le système qui va avec. C’est un chef d’orchestre plus qu’un créateur de ressources qui va défendre les actifs clés de l’entreprise ; les idées et les données. Dans ce nouveau contexte, des entreprises mono-produits comme Withings n’ont aucune chance de se développer sinon à intégrer un écosystème. On peut d’ailleurs s’interroger sur les véritables bénéfices pour Whitings d’un rachat par Nokia ? Dropbox ou Evernote en ont l’amère expérience en cédant au pouvoir de frappe des grandes plateformes. Et que dire de la pertinence de cette phrase de Steve Job : «Vous êtes une fonctionnalité et non pas un produit», en refusant de racheter Dropbox il y a dix ans ?

La nouvelle guerre des écosystèmes

C’est sur le terrain des écosystèmes que s’affrontent désormais les deux géants du numérique, les Etats-Unis avec les GAFA, sous-tendus par une idéologie, et la Chine avec des entreprises plus pragmatiques comme Alibaba, Wechat qui ont su développer de nouveaux écosystèmes dans des secteurs en plein essor en créant de nouveaux modèles de business et qui après avoir touché un nombre impressionnant d’utilisateurs sur leur marché intérieur commencent à se positionner à l’international en déclenchant une lutte féroce avec les Américains. C’est dans ce contexte que les GAFAs (principalement) font leur «marché» aux quatre coins de la planète pour alimenter et enrichir leur écosystème. Et la France avec la qualité de sa recherche et le dynamisme de ses start-up est un terrain de chasse particulièrement attractif.

Pourquoi l’Europe n’est pas en mesure de créer des écosystèmes à l’échelle mondiale ?

Le rachat de Withings n’est pas comme on l’évoque un problème de financement. Un écosystème européen d’investissement inadapté qui empêcherait un scale-up rapide de nos pépites. Le périmètre de withings quels que soient les fonds qu’on y injecte rend de toute façon un développement impossible hors d’une plateforme. La question est pourquoi l’Europe n’est pas en mesure de créer des écosystèmes à l’échelle mondiale au sein desquels des pépites comme Withings trouveraient toute leur place ?

Nous ne pensons pas le numérique à la bonne échelle !

Nos discours sur le made in France, la mise en scène autour de nos champions du numérique et de leur présence au CES appuyée par le ministre de l’économie en personne a quelque chose de naïf et de pathétique. Toutes nos infrastructures institutionnelles ou privées, accélérateurs, groupes de réflexion, French tech, CNNum, École 42, The Family, l’accélérateur ou le NUMA, pour ne citer que les plus en vue ne sont pas programmées pour développer des plateformes avec des visions mais des produits et des fonctionnalités ou des lois et des rapports. C’est notre culture économique et entrepreneuriale qui est en cause. Un monde encore très marqué par la culture de l’ingénieur et du spécialiste. Un monde qui n’est pas familier et qui reste méfiant envers les notions de vision et d’engagement et plus généralement envers le monde des idées. Des entrepreneurs plutôt conservateurs qui ne perçoivent pas la nature profondément subversive de la révolution numérique et la nécessité de changer leur «échelle de réflexion».

Des grands groupes qui ont tous un potentiel de start-up

Nous pourrions aussi nous appuyer sur les grands groupes qui ont tous un potentiel de start-up à l’image de l’Américain Goldman Sachs qui déclare : «Nous ne sommes plus une banque, mais une entreprise de technologie, nous sommes les Google de la finance», en faisant travailler trois mille cinq cents personnes sur le sujet et en annonçant un train de mesures comme l’ouverture en open source des données de marché et de gestion des risques. On imagine très bien des entreprises comme La Poste et Groupama dont les métiers vont être radicalement remis en cause dans les cinq prochaines années préparer l’avenir en organisant un écosystème autour du soin et de la santé (par exemple) qui intègre Withings et ses savoir faire. Mais en écoutant les représentants de ces grands groupes, Pierre Gattaz ou de Carlos Ghosn par exemple, on perçoit rapidement leur vision court terme et leur manque d’intérêt (ils n’ont rien à y gagner) pour les stratégies de rupture.

Sommes-nous prêts à vivre dans un «Internet Fisher Price»

Sommes-nous condamnés à devenir des satellites, à perdre notre souveraineté économique et de sécurité en restant sous l’emprise des GAFAs. Ou encore comme le propose François Candelon, Senior Manager au sein du Boston Consulting Group dans un très bon article «de regarder ce que la Chine peut nous apprendre et nous apporter» et de «créer une route de la soie du numérique». Sommes-nous condamnés à choisir entre Charybde et Scylla ? Non ! Car si les géants du web avec leur vision ont ouvert la voie à de nouvelles relations en construisant les entreprises les plus disruptives de l’histoire, elles nous laissent face à un trou béant. La «technicisation de l’individu». Sommes-nous prêts à vivre dans un «Internet Fisher Price», comme le titrait Viuz «dans des résidences fermées» gérées par des machines «avec des bosquets rondouillards, des pelouses impeccables et des routes goudronnées» où règne l’exclusivité, le premium et la rareté en laissant à la porte toute une partie de la population. Des sortes de maisons de retraite ultra sécurisées pour les plus fortunés ?

Faire tomber les GAFA

Il faut sans aucune hésitation nous engouffrer dans une troisième voie : «Faire tomber les GAFA». Si la formule est quelque peu provocante, elle incite à la mobilisation. Le retard sera difficile à rattraper, mais il est temps pour l’Europe de s’appuyer sur ses valeurs historiques et fondamentales pour construire de nouveaux écosystèmes et entrer de plain-pied dans la guerre économique qui oppose les deux grands blocs. Proposer des alternatives aux GAFAs. «Se servir des algorithmes et de l’intelligence artificielle pour créer une intelligence augmentée et résoudre les problèmes complexes que l’urgence écologique et sociale nous pose», comme le dit Yann Moulier Boutang. Intégrer les nouvelles technologies pour rééquilibrer les rapports de force, trouver les clés d’une véritable économie du partage et de la connaissance, s’attaquer à la question de l’avenir du travail, de sa rémunération, de la santé, du libre-arbitre, de l’éducation…

Changer d’échelle

Une rupture qui nécessite de changer d’échelle en bousculant notre culture économique et notre appréhension du monde. Une rupture qui, si elle se heurte encore à une «diabolique» inertie, s’impose comme une nécessité pour beaucoup d’entre nous.

Si vous faites partie de cette nouvelle «génération» de «l’intelligence first», si vous avez des idées et des solutions pour changer notre échelle de réflexion, je vous invite à nous joindre sur Twitter @ifbranding ou par email f.nemo@ifbranding.fr ensemble, nous avons des solutions à proposer et des projets à construire.

  • L’auteur

Par François Nemo, spécialiste en conseil en stratégies de ruptures.Site Internet : ifbranding.fr

Twitter : @ifbranding

Medium : @ifbranding

 

Le hashtag,un petit symbole au grand pouvoir

Le hashtag est ce petit signe typographique en croisillon « # », aussi appelé « dièse » en français. Aujourd’hui en cliquant sur un hashtag, vous pouvez suivre un fil de discussion associé au sujet et même l’actualité en direct. Découvrez en une infographie les pouvoirs de ce petit marqueur.

Infographie-Hashtag

 

Le numérique est-il en train de disrupter la démocratie ?

Les citoyens et la politique

Le désintérêt pour la politique est flagrant et le dialogue entre citoyens et élus semble être de plus en plus difficile. Pourtant le numérique est en train de rebattre les cartes et invite à la démocratie participative, au débat et à l’expression citoyenne.


Le digital est un outil politique puissant. Personne n’ignore le rôle central joué par les réseaux sociaux et les technologies numériques lors du Printemps arabe. Une actualité peut devenir en quelques heures un sujet brûlant suivi par des millions de personnes grâce au hashtag de Twitter – avant même que les médias traditionnels ne s’en emparent. En France nous sommes loin d’un mouvement massif visant à révolutionner les institutions, mais on s’accorde à dire que le politique ne va pas bien. Nous souffrons d’une forme croissante de désintérêt vis-à-vis du politique, d’une forme d’indifférence reflétée par de forts taux d’abstention aux élections des dernières années (50% d’abstention au 2ème tour des élections départementales en mars 2015). Le dialogue entre les citoyens et leurs élus est difficile. Abreuvés de résultats de sondage, les citoyens ne se sentent pourtant pas toujours écoutés.

Mais cela pourrait bien changer. Comme dans tous les autres secteurs, les nouvelles technologies font leur entrée sur la scène politique pour la bousculer. Elles viennent y recréer de la démocratie participative, du débat, de l’expression citoyenne, de l’implication.

Les citoyens manifestent

Avoir accès à une information claire et simple

Dans l’idéal, l’information devrait permettre à chacun de se forger une opinion, de saisir les enjeux globaux d’un débat au delà de sa propre fenêtre. Internet et les réseaux sociaux nous donnent aujourd’hui accès à une masse d’informations en temps réel 24h/24. Cette information pléthorique (la fameuse infobésité) nous laisse souvent, paradoxalement, mal ou pas informés – quand on n’a pas le temps d’analyser l’information et de prendre du recul, pas toujours facile d’avoir un avis éclairé.

Le besoin de clarification et de simplification de l’information grandit. En réponse à cela apparaissent sur la Toile des acteurs dont l’ambition est de présenter l’information politique de manière simple, «neutre» et pédagogique pour permettre à chacun de la comprendre rapidement. On a vu ainsi apparaître ces dernières années des médias pure players qui cherchent à délivrer une information indépendante tout en permettant aux internautes de participer au décryptage des faits sous un mode participatif. Certains ont rencontré le succès (exemple : Mediapart, acteur reconnu du secteur des médias aujourd’hui), d’autres n’ont pas trouvé leur modèle économique (exemple : quoi.info, site participatif qui se voulait « consacré au décryptage et à l’explication de l’actualité. Pas d’opinion, que des faits et des explications pour vous offrir un service nouveau : comprendre l’actu en quelques minutes »).

L’association voxe.org, née en 2012 et finaliste du Google Impact Challenge, mise sur les nouvelles technologies pour délivrer des « informations neutres et claires » sur la politique. Son but : recréer la confiance dans le politique et redonner aux citoyens l’envie de participer à la vie politique de leur pays. L’association a développé un « comparateur neutre » des propositions des candidats aux élections. Elle veut enrichir cet outil et développer une plate-forme sur laquelle il sera possible de débattre, de rédiger des lettres ouvertes, de participer à des réunions publiques. Il est encore trop tôt pour préjuger de son impact, mais l’initiative de voxe.org a le mérite de pointer un besoin bien réel : celui d’avoir accès à l’information « autrement ».

les citoyens ont une voix

S’exprimer en tant que citoyen

Les outils digitaux permettent aujourd’hui aux citoyens de (re)prendre la parole pour exprimer ce qui leur tient à cœur. Les réseaux sociaux amplifient leur message pour rallier à leur cause le plus possible de sympathisants.

Lancer une pétition et collecter des milliers, voire des millions de signatures pour la cause que l’on veut défendre est devenu possible à moindre frais grâce à change.org. Cet outil permet au citoyen lambda de donner de la voix et de peser dans le dialogue avec les décideurs. Lancé en 2007 (2012 en France), la plate-forme affirme compter 100 millions d’utilisateurs dans près de 200 pays, dont 5 millions en France. 35 millions d’utilisateurs auraient participé à une campagne victorieuse (chiffres change.org).

Autre initiative, plus récente encore : l’application edemocratie.net, actuellement en version bêta. Cette appli ambitionne de devenir le réseau social citoyen. Elle veut délivrer chaque jour de l’information sur un sujet d’actualité et permettre à tous de débattre autour de ces sujets et de participer aux décisions qui nous impactent. La promesse : chaque thème proposé par l’équipe éditoriale sera accompagné d’un article « court et clair » pour comprendre les éléments du débat. Les discussions sur le réseau social devront permettre de faire émerger les questions prioritaires à l’attention des personnels politiques.

Décidée à disrupter la politique, l’application Gov a été lancée en réponse aux événements de Tunisie et en particulier aux premières élections présidentielles libres de novembre 2014. L’équipe de Gov fait ce constat : les citoyens ont besoin de faire entendre leur voix mais manquent d’outils et de supports modernes pour le faire. Dans un système démocratique qui s’appuie sur des institutions conçues au XIXème siècle, avec un pouvoir qui va « du haut vers le bas », Gov veut donner « une voix aux sans voix » et inverser le système. 10 mois après son lancement, l’appli recensait déjà 3 millions d’opinions exprimées. Sur Gov, outil de « météo de l’opinion »on peut donner son avis au jour le jour sur les femmes et les hommes politiques, répondre à des sondages sur des sujets d’actualité, voir les résultats en temps réels, partager ces résultats, lancer soi-même un débat – bref interagir chaque jour et peser dans le débat public.

Les initiatives ne viennent pas que d’acteurs privés. Elles sont aussi prises par des politiques en place comme vient de le faire Axelle Lemaire, et c’est à saluer comme une première en France. La secrétaire d’Etat au numérique utilise les outils numériques pour impliquer les citoyens dans la co-création d’un projet de loi, sur un sujet susceptible d’impacter tous les aspects de leur vie future. Elle a proposé un débat public autour du projet de loi sur une République Numérique. 21 330 personnes ont participé, le site a enregistré 8501 contributions et 147 710 votes. Un résultat encourageant en termes de participation pour une démarche à laquelle les gens ne sont pas encore habitués. Au final, le gouvernement a ajouté cinq articles issus de ces contributions au texte présenté vendredi 6 novembre.

manifestation de citoyens

Parler avec sa ville

A l’échelle locale, le digital permet aussi aujourd’hui de dialoguer avec sa ville. Intéressées par l’expérience d’une démarche participative, de nombreuses villes (Toulouse, Lyon, Paris…) sont ainsi passées, via les outils digitaux, par une phase de questionnement de leurs habitants, les incitant à proposer leurs idées pour le développement futur de  leur ville. Exemple : le grand débat public lancé par la ville de Paris sur « Paris intelligente et Durable, perspectives pour 2020 et au delà » a pour ambition de permettre au plus grand nombre d’exprimer son point de vue et ainsi d’enrichir le document d’orientation préparé par la Ville de Paris. C’est le logiciel d’intelligence collective Assembl développé par bluenove qui a été choisi pour concrétiser ce projet. Les enjeux sont forts : la technologie doit être capable « d’attraper, de synthétiser et de gérer » cette communauté muti-facettes et éphémère. Le projet a été mis en ligne début juillet 2015. A la mi-octobre, plusieurs milliers de personnes sont venues consulter le site, 500 messages y ont été postés par 76 participants au total. A première vue, on est donc loin d’un raz-de-marée participatif, mais là encore l’outil est très nouveau.

La toute récente application Vooter propose à tout un chacun de s’exprimer sur les projets de sa ville. Les habitants de Bougival dans le 78 ont par exemple dès aujourd’hui la possibilité de tester Vooter pour donner leur avis sur l’implantation de bornes Autolib’ dans leur ville. Le mobinaute a accès via la géolocalisation aux projets de sa ville. Il peut donner son avis en cliquant sur l’une des réponses proposées par l’appli et s’il souhaite s’exprimer plus en détail, envoyer un mail aux responsables du projet via l’appli. Au même moment, 4 communes du Pays Basque testent l’appli popvox, aux objectifs assez comparables. Développée par une startup locale, popvox fonctionne aussi sur la géolocalisation et propose de développer les relations de proximité entre les villes et les citoyens, sous plusieurs formes. Les citoyens pourront poser une question, participer à un sondage, lancer un débat et voir les résultats en temps réel. La ville pourra de son côté lancer un projet participatif, poser des questions aux habitants pour mieux cerner leurs besoins, les informer en temps réel, publier des alertes : le champ des possibles est très large et les « bêta tests » vont contribuer à donner à l’appli sa forme définitive.

On peut également citer l’application city2gether développée par soyhuce. Son objectif : permettre aux citoyens d’une ville de s’impliquer dans la vie de leur cité, de développer un engagement citoyen pour améliorer la vie en commun, mais aussi – c’est ce qui nous intéresse ici – de créer la possibilité technique d’un dialogue direct et simple entre les citoyens et leur ville. Au final, city2gether veut « redonner goût au citoyen de prendre part à la vie de la cité », bref construire la « Démocratie Urbaine ».

De nombreuses questions encore ouvertes

Quel rôle ces nouveaux outils sont-ils appelés à jouer dans la démocratie des années à venir ?  Vont-ils être capables de redonner aux citoyens l’envie de dialoguer avec leurs élus, de s’impliquer dans la vie politique de leur pays et de leur ville ? Vont-ils rendre aux citoyens la possibilité de jouer un rôle actif ? Aujourd’hui tout reste à inventer. La notion même de démocratie participative reste assez floue, même si on la voit émerger à travers de nombreuses initiatives publiques ou privées.

Ces outils qui ambitionnent de réveiller la démocratie doivent encore prouver leur pouvoir d’adhésion, pour amener le plus grand nombre  à participer et à s‘exprimer. Ils doivent aussi prouver leur pouvoir d’action : ce que les citoyens expriment à travers ces outils doit être pris en compte par les décideurs et avoir un impact sur la vie politique. Comment, sous quelles conditions et dans quelle mesure, puisqu’ils ne peuvent remplacer, en tout cas aujourd’hui, le vote dans les urnes ? Quoi qu’on en pense, la démocratie du XXIème siècle est bel et bien en train de se construire sous nos yeux, en ce moment – et le numérique sera sans aucun doute au coeur de son fonctionnement.

Article proposé par Chloé Duval

5 TACTIQUES SEO QUE VOUS DEVRIEZ COMMENCER À APPLIQUER IMMEDIATEMENT !

seo techniques optimisation pour les moteurs de recherche

Le référencement n’est pas le sujet favori de tout le monde, je sais. Mais si vous voulez que votre contenu soit bien classé sur les moteurs de recherche, travailler le SEO de votre site web est une incontournable nécessité.

Pour rendre le processus d’optimisation de votre contenu un peu plus facile, je vous ai concocté cette liste de : cinq tactiques SEO que vous devriez commencer à appliquer immédiatement !

1. UTILISEZ LES BALISES « HEADING TAGS » POUR PRÉSENTER VOTRE CONTENU

Cela peut sembler compliqué, mais croyez-moi – ça ne l’est pas. Les balises heading tags sont tout simplement des titres utilisés pour indiquer à Google et à vos lecteurs de quoi parle votre contenu. Présentes au nombre de six, elles permettent de mieux hiérarchiser vos contenus en indiquant les titres, les sous-titres, les rubriques, les axes d’argumentation, Etc.

Dans le code HTML de votre page, les balises heading tags vont ressembler à quelque chose comme ceci : <h1> Ceci est mon titre </ h1>. Si vous voulez que votre contenu soit bien classé sur les moteurs de recherche, je vous recommande fortement d’utiliser des titres uniques et non dupliqués.

Voici un rapide aperçu de comment utiliser les heading tags pour obtenir un bon classement de votre contenu :

Balise de titre H1 : Chaque page doit avoir un titre H1. Ce sera généralement le titre de votre page ou de votre article de blogue et il est important à la fois pour le positionnement sur les moteurs de recherche et pour l’expérience de l’utilisateur.

Balise de titre H2 : ce sont en général des sous-titres qui vont servir a diviser votre texte en blocs d’information distincts ou en paragraphes. Ils aident vos lecteurs à comprendre la progression logique de votre contenu et permettent aux moteurs de moteurs de comprendre les principaux thèmes de votre page.

Balise de titre H3, H4, Etc. : Il s’agit en fait des sous-rubriques. D’une manière générale, les balises H1 et H2 sont celles sur lesquelles vous devriez vous concentrer le plus. Toutefois, des articles plus longs peuvent bénéficier de l’utilisation de ces sous-titres pour mieux structurer et aérer le texte.

2. RÉDIGEZ UN CONTENU PLUS LONG

Avant, il était possible d’écrire un texte court (moins de 400 mots), autour du mot-clé cible et obtenir un bon classement sur les moteurs de recherche. Mais de plus en plus, Google montre une nette préférence pour un contenu textuel plus long, susceptible de couvrir un sujet plus en profondeur.

Selon une récente étude SEO & référencement de Searchmetrics, le nombre moyen de mots des pages bien classées est d’environ 1285. Donc, si vous voulez que votre contenu soit bien positionné sur les moteurs de recherche, assurez-vous qu’il couvre bien le sujet traité.

Ne vous attardez pas trop sur atteindre un nombre de mots précis, assurez-vous juste d’offrir des informations de qualité et des points de vues uniques.

seo et referencement etude de serchmetrics

3. ASSUREZ-VOUS D’UTILISER UNE VARIÉTÉ DE MOTS-CLÉS ET D’EXPRESSIONS PERTINENTES DANS VOTRE CONTENU

Au cours des dernières années, nous avons vu un énorme changement s’opérer dans la manière d’utiliser les mots-clés. Tandis que l’utilisation de mots-clés dans les balises meta, dans les balises de titres et dans le corps du texte reste importante, Google veut maintenant voir que vous utilisez une grande variété de termes et d’expressions connexes, en lien avec le sujet que vous traitez.

D’ailleurs, Searchmetrics a constaté lors de sa dernière étude SEO & référencement que ce point est de plus en plus important pour bien se positionner sur les résultats de recherche Google. Par termes et expressions connexes, je désigne des mots qui seront naturellement inclus si vous couvrez un sujet en profondeur. Par exemple, si vous écrivez sur le web design, vous allez naturellement inclure des mots comme Internet, site web et design.

Si vous avez besoin d’une aide supplémentaire pour vous assurer d’inclure différentes expressions et termes liés, je vous recommande d’utiliser l’outil de suggestion de mots-clés basé sur Google Suggest. Cet outil vous propose en temps réel pendant que vous tapez votre requête une liste de 10 mots ou expressions se rapprochant de votre recherche ; à vous ensuite de sélectionner dans la liste ce qui vous intéresse le plus.

Voici l’exemple d’une recherche sur Google Suggest, effectuée avec le mot-clé « référencement » :

outil google suggest mots-cles referencement naturel

4. ASSUREZ-VOUS QUE VOTRE SITE S’ADAPTE AUX APPAREILS MOBILES

Vous avez probablement entendu parler de la récente décision de Google qui a fait de l’adaptabilité mobile un facteur de classement sur son moteur de recherche. Cette mise à jour de l’algorithme Google a été désignée par certains par le terme ‘Mobilegeddon‘. Pour l’expliquer simplement, depuis avril 2015, les sites non adaptés à l’affichage sur tablettes et smartphones auront, beaucoup de mal à atteindre un bon classement dans la recherche mobile !

Pas sûr si votre site est mobile-friendly ? Utilisez le test de compatibilité mobile de Google. S’il s’avère que votre site n’est pas en design adaptatif, envisagez de passer à une conception de site qui l’est. Si vous avez un site WordPress, il est possible d’utiliser un plugin gratuit comme Jetpack pour convertir instantanément votre thème à une conception adaptative !

sites en web design adaptatif outil verificationde google

5. UTILISEZ DES LISTES ET DES ÉLÉMENTS INTERACTIFS POUR STRUCTURER VOTRE CONTENU

Nous savons depuis longtemps que le fait d’avoir des textes aérés, bien structurés et faciles à lire améliore grandement l’expérience des utilisateurs. N’hésitez pas à y intégrer des éléments multi-médias tels que des images de démonstrations ou des vidéos quand cela s’avère utile ou nécessaire.

Gardez à l’esprit que beaucoup de vos visiteurs vont consulter votre site web sur leur appareil mobile, l’utilisation des images, des liens, des boutons et des listes peut rendre votre contenu plus agréable visuellement et plus facile à lire !

J’espère que cet article va vous aider à mieux optimiser votre site en SEO pour les moteurs de recherche. Avant toute chose, concentrez sur la rédaction d’un contenu de qualité, qui répond parfaitement bien aux besoins, aux attentes ou aux questions que peut se poser votre audience et surtout, prenez le temps de bien soigner votre mise en page etstructurer votre contenu d’une manière qui a du sens pour vos lecteurs.

Ce sont des éléments clés pour obtenir un bon référencement naturel et un bon classement sur les moteurs de recherche!

Devenir compétent en matière numérique : un devoir pour le citoyen du 21e siècle

Picture: Jesus Sanz / Shutterstock.com

Le travail, l’employabilité, l’enseignement, les loisirs, l’intégration et la participation dans la société… Tous ces sujets et d’autres domaines de notre société sont de plus en plus « numérisés », c’est-à-dire que les informations et les services sont de plus en plus accessibles via l’internet. Par conséquent, la compétence numérique est essentielle pour pouvoir participer dans la société et l’économie d’aujourd’hui. Étant une compétence transversale, la compétence numérique aide également à maîtriser d’autres compétences clés, telles que la communication, les langues ou des compétences de base en mathématiques et en sciences.

Être compétent en matière numérique dans le monde d’aujourd’hui exige non seulement un accès et une utilisation des TIC, mais aussi une connaissance appropriée, des compétences et des attitudes envers elles. Selon une enquête de 2014 sur l’insertion et les compétences numériques dans l’UE, jusqu’à 47 % de la population européenne n’a pas suffisamment de compétences numériques, dont 23 % qui n’en a pas du tout.

La compétence numérique va au-delà de savoir comment naviguer sur Internet, mais elle peut être décomposée en une série d’éléments plus petits. Le Référentiel européen pour les compétences numériques des citoyens, aussi appelé DIGCOMP, identifie cinq domaines qui décrivent ce qui signifie d’être « calé » en matière numérique : le traitement de l’information, la communication, la création de contenu, la sécurité et la résolution de problèmes. Les citoyens européens pourraient bientôt bénéficier d’un outil d’évaluation en ligne qui leur permettra d’avoir accès rapidement et facilement à leurs compétences numériques. À partir de l’été 2015, les demandeurs d’emploi pourront déjà utiliser un outil d’évaluation de leurs compétences numériques dans le cadre du Curriculum Vitae Europass afin d’inclure leurs niveaux de compétences numériques directement sur leur CV. Cet outil, fondé sur le Référentiel DIGCOMP, sera disponible dans toutes les langues de l’UE.

DIGCOMP est aussi utilisé pour soutenir les décideurs politiques ainsi que les autorités en charge de l’éducation. Par exemple, le très récent indice relatif à l’économie et à la société numériques élaboré à l’échelle européenne se sert du Référentiel DIGCOMP pour construire un indicateur et fournir des informations spécifiques par pays sur la situation des citoyens en termes de compétences numériques. Le Référentiel est également utilisé pour planifier et concevoir des programmes d’éducation et de formation, par exemple pour passer en revue les programmes d’études ou pour développer des cours pour adultes, et mettre au point des programmes de développement professionnel pour les enseignants. Il permet également de mieux définir le niveau de compétences numériques requis pour les différents secteurs, par exemple dans celui des soins de santé.

En ce qui concerne les compétences numériques des enseignants, des études sur le terrain ne cessent de signaler un manque de programmes de développement professionnel, en particulier pour l’utilisation des TIC à des fins pédagogiques. De même, les possibilités pour les enseignants de perfectionner leurs propres compétences en TIC sont relativement rares et les possibilités d’apprentissage informel peuvent dès lors être bénéfiques pour les enseignants. Par exemple, eTwinning fournit un réseau d’enseignants pour une collaboration professionnelle qui peut mener à l’adoption de nouvelles pratiques en classe vis-à-vis des TIC et même à un meilleur sentiment d’efficacité personnelle en tant qu’enseignant (TALIS 2013, p. 209). La publication Teacher Networks Teacher Networks propose des points de vue et des interprétations sur les défis et les opportunités pour la profession d’enseignant. Par ailleurs, eTwinning peut également être utilisé pour développer les compétences des élèves, y compris les compétences numériques.

À la fin de l’année 2015, le centre de recherche commun de la Commission européenne (JRC-IPTS) commencera à travailler sur le Référentiel des compétences numériques pour le corps enseignant. De même, des travaux sont en cours pour créer un référentiel de compétences numériques pour les consommateurs sur le marché unique numérique.


DIGCOMP, le Référentiel pour développer et comprendre les compétences numériques en Europe a été réalisé par le centre de recherche JRC-IPTS en 2013 sous l’égide d’un projet scientifique étalé sur plusieurs années lancé par la direction générale de l’éducation et de la culture et mis en oeuvre par la direction générale de l’emploi, des affaires sociales et de l’égalité des changes. Le projet a identifié les éléments clés des compétences numériques en termes de connaissances, de compétences et d’attitudes, et a élaboré des descripteurs sur trois niveaux de qualification. Des représentants des États membres de l’UE ont soutenu le Référentiel DIGCOMP lors du groupe de travail thématique ET 2020 sur les TIC et l’enseignement, et du groupe de travail sur les compétences transversales. Par ailleurs, plusieurs États membres testent déjà le Référentiel.

Le Dr. Riina Vuorikari travaille au centre JRC-IPT, contribue à la recherche et fournit un soutien stratégique dans le domaine des « TIC pour l’apprentissage et les qualifications ». Son travail est axé sur les compétences numériques pour les citoyens et sur un projet d’exploration sur la science ouverte 2.0.

Evolution du système d’information financier

Alexandrine Lavaury, Directrice pédagogique, Francis Lefebvre Formation, et Christophe de Brébisson, Consultant Francis Lefebvre Formation et Associé chez DBA reviennent sur l’évolution du système d’information financier : état de l’art et enjeux pour les directions financières.

  • Les enjeux, importants, doivent être appréhendés en amont pour établir un cahier des charges précis, et savoir choisir la meilleure solution.
  • L’évolution des systèmes d’information impacte le profil des salariés des DAF.

Christophe de Brébisson :

Aujourd’hui le rôle et les enjeux de la direction financière quelle que soit la taille de son groupe, est double :
– Elle doit être le garant de la fiabilité de l’information produite périodiquement pour des besoins internes : chaque mois, chaque trimestre ou chaque année.
– Elle est également l’entité vers laquelle tous les tiers – banques, commissaires aux comptes, services fiscaux, fournisseurs – vont se tourner pour accéder à l’information dont ils ont besoin.

Pour répondre à ces demandes dans des délais toujours plus courts, il est nécessaire de disposer de systèmes efficients afin de permettre au Directeur Financier de se concentrer sur la communication financière et la production d’informations qualifiées. Il doit donc passer beaucoup moins de temps que par le passé à la production de l’information.

Une révolution technologique : le Cloud et la Saas

Les vrais enjeux en matière de systèmes d’information financiers ont débuté dans les années 90 lorsque l’on a commencé à voir arriver sur le marché des progiciels de gestion intégrés connus sous le nom anglais d’ERP, comme SAP (Systems, Applications and Products for data processing), PeopleSoft racheté par Oracle depuis, ou encore JD Edwards. Ces progiciels ont permis de faire le lien entre les flux d’activités et les flux financiers. A l’époque les modules financiers intégraient essentiellement des opérations liées au traitement des flux de la comptabilité générale et analytique, de la gestion des tiers et des règlements. En termes de traitement de l’information décisionnelle nous étions aux prémices des reportings, l’information pouvant être traitée et utilisée par requêtes souvent à la main des DSI. Cela correspondait aux premiers projets menés par les directions financières.

Depuis plus de 20 ans maintenant, des bonds fonctionnels et technologiques importants ont été réalisés, et l’un des derniers en date, certainement le plus important, est le Cloud Computing. Clairement, opérer sur un système externalisé et totalement mutualisé, exonère non seulement de nombreuses contraintes techniques comme l’installation, l’hébergement et la maintenance mais permet également de mutualiser les développements des applications et de les rendre ainsi plus agiles. Concrètement, les nouvelles applications développées en mode Saas permettent d’avoir accès via internet, et donc à distance, à ses applications, ce qui transforme les modes de traitement et de fonctionnement des responsables financiers. Ceci permet des gains en termes de productivité, de simplicité, de réactivité et donc au final de production de leurs reportings.

Nous sommes entrés dans une ère où toutes les tâches à faible valeur ajoutée sont simplifiées et automatisées au maximum, où l’on s’exonère de toutes ressaisies, où l’on simplifie et où l’on dématérialise les workflows d’approbation pour disposer d’une information financière en temps réel qui servira aux besoins de la BI (Business Intelligence).

Alexandrine Lavaury :

Certains points reviennent systématiquement dans les attentes formulées par nos clients vis-à-vis de leur système d’information.
La partie BI / pilotage : les directeurs financiers veulent pouvoir élaborer rapidement des tableaux de bord où figurent des informations qualifiées à l’attention d’une direction générale, d’un conseil d’administration ou d’une direction opérationnelle.

Les échanges « papier » : ils souhaitent que ceux-ci soient supprimés car ils retardent souvent un process de production d’information. Il faut donc les dématérialiser. Des outils existent, tels que la GED (Gestion Electronique Documentaire) permettant, notamment, une reconnaissance de caractères impliquant, lorsqu’une facture est scannée, de l’archiver, de la mettre dans un workflow d’approbation, puis de la comptabiliser. Il s’agit là d’une fonctionnalité extrêmement importante, notamment pour toutes les organisations décentralisées.

La possibilité de travailler de manière plus étroite avec la DSI (Direction des systèmes d’information) sur certains projets : les directions financières souhaitent être impliquées en amont pour mieux comprendre les enjeux et définir de façon plus précise leurs besoins. Elles veillent à ce que les contraintes technologiques ne soient pas un obstacle majeur à la réalisation du projet, telles qu’elles l’ont défini.

Christophe de Brébisson :

Nous sommes aujourd’hui sur des marchés arrivés à maturité où les différences entre logiciels sont minimes. Des fonctionnalités avancées (recherche pièces / écritures, pré comptabilisation, rapprochement / lettrage automatique, axes analytiques, multi langues, export Excel….) ont été intégrées dans les systèmes d’information par quasiment tous les éditeurs de la place. Sur les modules de base, les solutions sont donc extrêmement comparables. En revanche, certaines briques dites « expertes » n’ont pas été intégrées de manière systématique à ces « ERP financiers » et doivent donc être traitées à part ; tel est le cas des outils de dématérialisation, de trésorerie, de fiscalité ou de consolidation notamment.

Aujourd’hui, le facteur clé de succès est donc l’interopérabilité. La différence se fera sur la facilité d’ouverture du logiciel vers les autres applications financières, dites expertes. Sachant qu’il existe des applications qui communiquent plus ou moins bien entre elles, la différence va donc s’opérer dans la facilité à développer et maintenir ces interfaces avec les autres applications et dans la facilité de restitution de cette information en provenance de différentes sources.

Alexandrine Lavaury :

Nous constatons que dans les directions financières, en tout cas d’une certaine taille, il y a au moins une personne dont la fonction est de faire le lien entre les utilisateurs du S.I financier et le service informatique. Cette personne exprime le besoin émanant de la direction financière aux informaticiens et assure également le « service après-vente » en ce qui concerne les évolutions de la solution qui aura été trouvée. L’importance de bénéficier d’un système d’information fiable et évolutif est donc bien comprise car l’enjeu est d’importance.

Ces personnes « relais » ou des membres des DAF sont ainsi demandeuses de formations pouvant les aider à devenir plus pointus sur ces sujets ; Ce début d’expertise ayant lui-même pour but de les rendre aptes à juger des solutions proposées.

En tout état de cause, des profils hybrides sont apparus ces dernières années, avec des professionnels comprenant bien la technique, la technologie du produit, mais aussi le métier. Elles évoluent dans des organisations de type DOSI (Direction de l’Organisation des Systèmes d’Information). Ces personnes sont capables, demain, d’aller modifier dans l’outil un workflow pour créer l’habilitation d’une nouvelle personne, pour faire une ségrégation de droits ou réaliser une sauvegarde.

De son côté, le rôle de directeur financier évolue aussi : il devient de moins en moins expert sur des sujets financiers comme la comptabilité, la fiscalité, la trésorerie, car il n’est plus en mesure de tout gérer du fait de la complexification de ces périmètres. On constate qu’il joue de plus en plus le rôle de chef d’orchestre entre différents experts, qu’ils soient internes ou externes. Tout l’enjeu pour ce professionnel est de bien s’entourer et d’avoir suffisamment de recul pour comprendre les impacts de la mise en place du système sur les différents périmètres qu’il a sous sa responsabilité. De ce point de vue-là, ses compétences évoluent.

Christophe de Brébisson :

La conclusion est que l’évolution des technologies pousse le système financier à évoluer, et à devenir plus efficient avec, comme corollaire, l’évolution des compétences des directeurs financiers et de leurs équipes vers un rôle élargi de maitrise technique de leur système d’information. Désormais, on demande à ceux-ci d’avoir des compétences qui n’étaient pas exigées auparavant. Les DRH ont aujourd’hui comme critère de sélection pour un poste de chef comptable ou de directeur financier une connaissance approfondie des systèmes d’information financiers, voire d’un vécu projet sur cette thématique. Un CV sans mention d’Excel++, de Business Object, d’un ou deux ERP financiers et de BI connus, est moins regardé, même si le professionnel est parfaitement au fait de son métier de financier.

Alexandrine Lavaury, Directrice pédagogique, Francis Lefebvre Formation, et Christophe de Brébisson, Consultant Francis Lefebvre Formation et Associé chez DBA.

10 outils en ligne pour créer des infographies

BY

Un dessin vaut mieux que de long discours. Le refrain est connu. Le développement  de l’usage des infographies dans la presse , dans les médias, dans l’édition ces dernières années est une tendance lourde des nouveaux moyens d’informer.

Nous sommes abreuvés d’informations tous les jours. Une « infobesité » chronique à laquelle il est difficile d’échapper. Pour mieux mémoriser, mieux comprendre des informations, notamment statistiques ou géographiques rien de mieux qu’un diagramme, une cartographie ou un schéma explicatif. Rien de mieux qu’une bonne infographie.

Pour créer une belle infographie de nos jours plus besoin de vous plonger dans Photoshop ou être un virtuose d’Illustrator. Le net propose de nombreux outils en ligne qui permettent de créer de magnifiques infographies en quelques minutes. Voici une liste de 10 d’entre eux. 10 outils en ligne pour créer des infographies.

Venngage

Venngage

Venngage est un excellent outil pour vous lancer dans la création de votre première infographie. Il propose des centaines de modèles prêts à être utilisés pour y insérer vos données. Vous obtiendrez des visuels de qualité à télécharger dans différents formats ou à partager sur un site ou sur les réseaux sociaux.
Lien: Venngage

Infogr.am

Infogram

Infogram a su se occuper une des premières places dans ce marché très encombré des outils pour créer des infographies. Ce n’est pas un hasard. L’outil propose des modèles de qualité et une prise en main immédiate. Plus de 2 millions d’infographies créées avec Infogram et des utilisateurs prestigieux comme EuroNews ou l’Huffington Post.
Lien: Infogram

Visme.co

Visme

Encore un outil bien pensé qui va vous permettre de réaliser de brillantes créations graphiques sans avoir besoin d’être un virtuose des outils graphiques. Visme permet de créer des infographies, mais aussi des animations, des présentations interactives, un Cv ou encore des bannières.
Lien: Visme

Canva

C

Canva fait partie  des incontournables de cette liste. Je lui ai d’ailleurs consacré un article complet il y a quelque temps de cela sur OutilsTice. Canva, c’est un studio graphique à la portée de tous. Canva peut être utilisé dans de nombreuses situations, il peut aussi et c’est important mis dans les mains de vos élèves. Utile et ludique.
Lien: Canva

Easelly

Easelly

J’aime beaucoup Easelly. Il offre comme la plupart des autres outils des modèles prêts à servir. Ils sont ici de qualité et un moteur de recherche particulièrement utile vous permettra de choisir le mieux adapté à votre projet. Chaque modèle est ensuite personnalisable à souhait et vous pourrez y ajouter des fonds, des pictos, du texte, des diagrammes etc.
Lien: Easelly

Tableau

Tableau
Anciennement InfoActive, Tableau est plus délicat à manipuler. Il est intéressant cependant par la possibilité qu’il offre de connecter votre infographie à la source de données de manière dynamique. Quand les données évoluent, l’infographie en ligne évolue aussi en temps réel.
Lien: Tableau

PikToChart

PikToChart

PikToChart avait également eu droit  par le passé a un article complet sur Outils Tice. L’outil m’avait conquis par sa facilité d’utilisation et le rendu très pro des infographies générées. Je l’ai re-visité à l’occasion de ce nouvel article et je n’ai pas changé d’avis. C’est un excellent outil qui va dégager l’éditeur des contraintes techniques et lui permettre de se concentrer sur l’essentiel: la collecte et le sens à donner à l’information.
Lien: PikToChart

Creately
creately

Creately est un outil en ligne qui permet de créer très facilement graphiques et diagrammes. IL est imbattable pour la réalisation de cartes mentales et a un atout de taille : il permet de travailler en mode collaboratif. Creately propose plus de 10 000 modèles ou templates sur lesquels vous appuyer pour vos propres créations.
Lien: Creately

Google Charts

Google Charts

Vous pouvez aussi vous tourner vers l’incontournable Google. Si vous devez créer une visualisation de données pour votre site ou blog, Charts de Google est une solution simple pour créer une infographie dynamique. De nombreux modèles sont présentés et réutilisables facilement.
Lien: Google Charts

Knoema

Knoema
Knoema n’st pas à proprement parler un outil pour créer des infographies. Ce site est cependant un bon point de départ pour tous ceux qui veulent explorer l’univers de la datavisualisation. Knoema, que j’ai présenté ici, compile des milliers de datas publiques issues de centaines de sources concernant la plupart des pays du monde pour en proposer des représentations graphiques interactives.
Lien: Knoema

What your age says about how you use the Web

We’re in the midst of a generational shift, with Millennials expected to surpass Baby Boomers in 2015 as the largest living generation.

Each generation has unique backgrounds, lifestyles, values, and expectations that influence how they browse the Web. Successful strategists recognize these differences and offer their audience compelling content tailored to these singularities, but what if your target audience spans several generations? Is it possible to make content that is well-received and shared by multiple age groups?

To better understand the habits of each generation and any overlaps,BuzzStream and Fractl surveyed over 1,200 individuals and segmented their responses into three groups: Millennials (born between 1977 and 1995), Generation Xers (born between 1965 and 1976), and Baby Boomers (born between 1946 and 1964).

We compared their responses to uncover similarities in digital consumption preferences along with any unique trends among all three generations. Here, we’ll break down three key takeaways you can use to elevate your future campaigns.

  1. Baby Boomers consume most of their content between early morning and noon, whereas Millennials and Gen Xers consume the most during the late evening.

We asked our respondents what time they enjoy most of their content, and our results revealed that the younger generations are glued to their devices much later than Baby Boomers. More than 30 percent of Millennials and Gen Xers consume most of their content between 8 p.m. and midnight, whereas nearly 40 percent of Baby Boomers are online between 5 a.m. and noon. Additional findings revealed:

  • Baby Boomers peak between 9 a.m. and noon with more than 20 percent of respondents online at this time – nearly 30 percent more than Gen Xers and Millennials.
  • The least popular time for most respondents to engage online is late at night – between midnight and 5 a.m.; this period earned fewer than 10 percent from each generation.
  • During Millennials’ and Gen Xers’ peak hours – between 8 p.m. and midnight –  80 percent more of these generations are online compared to Baby Boomers.


When Do We Consume Content

  1. More than 25 percent of Millennials are consuming content through their mobile phones, while the preferred portable device for Baby Boomers is a tablet.

When it comes to which device each generation uses to consume content, computers are still king. The most popular device for each generation is a laptop – at least 35 percent of each generation shares this preference – followed by desktops. However, the biggest distinction is in portable devices: More than 25 percent of Millennials use their mobiles as their primary source for content, and out of those who use a tablet as their primary device, nearly 40 percent are Baby Boomers. Further analysis revealed:

  • More than 50 percent of respondents who primarily use mobile devices for content are Millennials.
  • Baby Boomers use laptops the most – 43 percent – 20 percent more than Millennials.
  • More than 115 percent more Millennials are using their mobile devices compared to Baby Boomers.


Device To Consume Content

  1. Preferred content types span across all three generations, but specific genres differ significantly.

Although they can’t strongly agree on which device to use, every generation unites unanimously on at least four content types: blog articles, images, comments, and e-books. Additional findings indicated:

  • The least preferred content types – flip books, SlideShares, webinars, and white papers – were the same across generations too although not in that exact order.
  • Reviews closed out the top five for Baby Boomers, whereas this content type didn’t even make the top 10 for Millennials.
  • Lists, infographics, podcasts, and guides all landed somewhere in the middle for each generation in terms of preference.
  • Although sites such as BuzzFeed and PlayBuzz seem to be popular with younger generations, Gen Xers and Millennials listed quizzes as one of their five least favorite content types.


Most Consumed Content Type

Regarding verticals or “genres”: Although every generation is engaged the most in the entertainment vertical, each generation had its own unique preference for others:

  • Millennials held a strong lead in technology at 19 percent – 71 percent more than Baby Boomers.
  • Baby Boomers lead in world news and politics at 18 and 12 percent respectively – its biggest win coming from the politics vertical, with 120 percent more Baby Boomers reading about politics than Millennials.
  • Gen Xers held its strongest lead in healthy living at 13 percent while also nabbing the top spot in the personal finance and parents verticals.
  • The least popular vertical for Millennials was style, whereas Gen Xers and Baby Boomers equally engaged the least in both the environment and style verticals.


Favorite Content Genres

It’s essential for digital strategists to understand what different audiences connect with and align their content accordingly. Multi-generational marketing is more than just appealing to the unique needs of individuals within one specific generation; it’s about appreciating the similarities and differences among each group and improving your content accordingly.

Review this deck for additional insights, including the preferred video length and weekend consuming habits of each generation. Although there is no one-size-fits-all campaign, successful marketers can create content that multiple generations will want to share.

Image credit: Shutterstock

Pigeon : ce que l’on sait sur l’algorithme impactant les résultats locaux

Google Pigeon et le SEO Local

Mise à jour majeure, Google Pigeon a impacté le SEO Local dans les pays où elle a été déployée. Rappel de ce qu’en a dit Google, et de ce qui a pu être observé.

 Google a confirmé que Google Pigeon avait bien été déployé en France.

Pigeon est le nom d’une mise à jour importante de l’algorithme de Google qui a modifié ce qu’on appelle le référencement local, c’est-à-dire les résultats que remonte le moteur pour les requêtes associées à un lieu (même implicitement).

Google Pigeon a été déployé aux Etats-Unis le 24 juillet 2014, et dans les autres pays anglophones fin 2014 (le 22 décembre). Le moteur de Mountain View n’a pas précisé, comme il peut le faire parfois, le pourcentage de requêtes impactées par cette mise à jour, mais la secousse ressentie a été très sérieuse. Selon un sondage réalisé outre-Atlantique quelques mois après le déploiement, sur 600 SEO et responsables de site interrogés, plus de la moitié estiment que Google Pigeon a eu un impact négatif sur les entreprises. Et près de 6 sur 10 ont déjà changé, ou vont changer leur stratégie à cause de Pigeon. C’est dire l’importance de cette mise à jour.

Google n’a publié aucune annonce officielle concernant cette mise à jour. Mais le moteur l’a bien confirmée. Pour l’anecdote, il se trouve que ce nom de Pigeon n’a pas été choisi par Google, contrairement à Penguin ou Panda. Le nom Pigeon a été donné par un spécialiste américain bien connu des SEO, Barry Schwartz, en clin d’œil aux pigeons qui ont la faculté de pouvoir retrouver certains lieux, a-t-il expliqué.

Caractéristiques officielles : ce que Google a dit sur Pigeon

7 pack resto 350
Pack de 7 résultats épinglés sur une carte à la suite d’une recherche locale. © Capture Google

Si rien n’a été publié sur les blogs officiels, Google a toutefois pudonner à Barry Schwartz quelques détails sur cette mise à jour. On sait ainsi qu’elle impacte les résultats remontés sur Google Maps, mais aussi ceux qui remontent dans les résultats classiques. Et notamment ceux qui sont listés au sein des « packs » dédiés, qui regroupent de 2 à 7 lieux épinglés sur la carte qui apparaît après une recherche locale (voir exemple ci-contre).

Google a aussi expliqué que le « nouvel algorithme dédié à la recherche locale était désormais mieux lié à la recherche classique ». Plus précisément, les critères qui font remonter un résultat dans Google Maps et dans les « packs » sont désormais plus proches de ceux employés pour classer les résultats classiques. D’après Google, Pigeon est donc censé mieux inclure les centaines de critères utilisés dans le cadre de la recherche classique, mais aussi le Knowledge Graph, l’orthographe, les synonymes et « bien d’autres choses ». Le moteur a aussi précisé avoir amélioré « les paramètres de classement lié à la géolocalisation et à la distance ».

Les conséquences de Pigeon observées par les spécialistes

Outre ces explications venant de Google, viennent aussi les observations des référenceurs. Ces derniers sont à peu près d’accord sur ces trois tendances fortes de Google Pigeon :

 1- D’après l’outil, fiable, de Moz qui suit les mouvements dans les pages de résultat sur un grand nombre de mots clés outre-Atlantique, la mise à jour Pigeon a considérablement fait baisser le nombre de requêtes faisant remonter un pack. Une baisse conséquente, de l’ordre de 25%, a même étéobservée. Quant au nombre de résultats contenus dans ses packs, après le déploiement de Google Pigeon, Moz a remarqué que « les packs de 4, 5, ou 6 résultats sont toujours aussi rares. Mais le nombre de packs de 3 résultats a augmenté considérablement, alors que le nombre de packs de 7 résultats a baissé de presque autant. »

 2- La carte sur laquelle se trouvent les résultats qui remontent après une requête localisée s’est rétrécie. « Google a souvent, mais pas toujours réduit ce périmètre de recherche », a ainsi fait pu remarquer le spécialiste américain  Mike Blumenthal.

Google Pigeon a pu faire perdre beaucoup de visibilité à des commerces

Conséquence évidente de ces deux tendances : les sites listés à l’intérieur des packs ont pu changer. Certains commerces qui apparaissaient après une recherche locale ont donc pu sortir de la liste des résultats les plus visibles…

 3- Les annuaires qui listent des entreprises et leur adresse ont gagné en visibilité sur les résultats remontés par Google. C’est ce qu’a notamment pu noter Matt McGee, rédacteur en chef du site spécialisé Search Engine Land. Selon lui, la mise à jour Pigeon a par exemple pu profiter à des sites comme Yelp, ou TripAdvisor, voire même Hotels.com sur certaines requêtes. Il s’étonne d’ailleurs de ne pas voir de site dédié à un seul hôtel, ou un restaurant en particulier avant la deuxième, voire la troisième page de résultats pour certaines requêtes.

Bref, là encore, comme pour chaque mise à jour, la nouvelle visibilité de certains sites peut donc se faire au détriment de celles d’autres sites. Attention, donc, à ne pas faire partie du mauvais groupe…

Les facteurs qui ont gagné en importance après Pigeon

Par ailleurs, chaque année, aux Etats-Unis, un sondage interroge des dizaines de spécialistes du SEO Local pour comprendre les facteurs utilisés par Google pour classer les résultats d’une recherche locale. Or, cette année, ils étaient sollicités pour voter sur les facteurs qui avaient le plus été impactés par Pigeon… Parmi les facteurs qui ont vu leur importance croître, les trois plus souvent cités étaient l’autorité du domaine du site, puis la proximité de l’endroit de la recherche avec l’adresse de l’entreprise et, enfin, la qualité ainsi que l’autorité des liens pointant vers le domaine.

Les conseils d’un spécialiste

ad 200
Aurélien Delefosse, consultant en webmarketing, spécialiste du SEO et auteur d’un ouvrage sur le référencement local.© A.D

Le JDN a demandé à un spécialiste du SEO, Aurélien Delefosse, auteur d’un ouvrage sur le référencement local, ce qu’allait changer cette mise à jour. Et surtout, comment y faire face.

Selon lui, « ce déploiement ne changera pas fondamentalement ce que nous connaissions auparavant en France, avec une présence déjà très forte de Tripadvisor, PagesJaune, ou Yelp », estime-t-il.

Pour faire face au mieux à cette mise à jour, ce spécialiste recommande de privilégier les leviers suivants :

 S’inscrire sur les sites et les annuaires déjà positionnés, « afin d’avoir du trafic venant de ces sites, mais aussi des liens sur des sites thématiques de confiance ».

 Mettre en place un annuaire de ses boutiques via une page de type « store finders », « surtout quand les boutiques physiques disposent de leur propre site, car cela permet de maximiser les chances de se positionner ».

 Obtenir des citations et des liens entrants de qualité.

En résumé, de manière plus générale, Aurélien Delefosse observe que « la tendance de Google est de favoriser les sites d’envergure et les marques bien en place, mais également ses services. Il faut donc s’imposer comme un site de référence, tout en exploitant les annuaires des sites qui ressortent dans les résultats de recherche. »