L’innovation n’est pas qu’une question de technologies

Innover exige de sortir du cadre et certaines sociétés de conseil développent de nouvelles approches en y associant des méthodes de design. On voit ainsi arriver des profils de « consultants designers » qui accompagnent les entreprises dans leur transformation. C’est le cas de Tiphaine Lorant et Pauline Audinet, toutes deux consultantes chez weave, qui m’ont éclairé sur la nature de leur métier.

Subir la transformation numérique nuit à son efficacité. Pour survivre à la vague du numérique, les entreprises n’ont pas d’autres choix que d’innover. La transformation numérique est devenue synonyme d’innovation mais elle est trop souvent abordée sous l’angle technologique. Les nouvelles technologies ont indéniablement ouvert la voie à de nouveaux usages et de nouveaux modèles d’affaire mais la transformation numérique va bien au-delà de l’adoption de technologies. Elle modifie considérablement les méthodes de travail, les domaines de responsabilité et le périmètre de certaines professions. Une approche imposée de manière hiérarchique risque fort de se heurter à des résistances et aboutir à une transformation appliquée à reculons de manière incomplète et dans un timing qui s’éternise.

Donner du sens à la transformation pour faciliter l’adhésion. Pour qu’une transformation aboutisse correctement, il faut que tous les membres d’une organisation y trouvent un sens et se l’approprient voire l’incarnent. Rien de mieux pour s’approprier un projet que d’en être le co-concepteur. Pourtant il n’est pas souvent facile de remettre en question les méthodes de travail, l’organisation, les outils sans paraitre négatif voire transgressif. C’est là que des consultants comme Thiphaine et Pauline interviennent. Elles sont consultantes et maitrisent les méthodes de design. A l’heure du numérique on observe une hybridation du conseil et du design que weave désigne sous le nom de « IIF » pour Integrated Innovation Framework . Elle repose sur les 3 P du triptyque People, Place et Process.

Chacun possède une partie de la solution. L’approche IIF s’adapte à de nombreux contextes clients. Par exemple dans une grande institution financière il s’agissait de réfléchir sur la simplification des systèmes d’informations. Sujet d’actualité pour toutes les entreprises aujourd’hui. Les consultants designers comme Tiphaine et Pauline jouent le rôle de facilitateur de la co-construction des projets de transformation. Elles réunissent des personnes de profiles et de responsabilités différentes pour travailler à la conception de solutions concrètes. Il ne s’agit pas d’apprendre aux participants leurs métiers mais de les aider à réfléchir sur leurs contraintes et d’extérioriser les problèmes pour faire émerger des solutions. Sortir du cadre, laisser libre cours à ses idées, échanger sans appréhension est loin d’être aussi naturel qu’il n’y parait. L’expérience d’innovation ne doit pas se contenter d’être enrichissante, elle doit être suivie d’une validation pour s’assurer que les résultats de cette expérience peuvent être opérationnels. Dans un exemple comme celui-ci, des architectes IT ou des experts de la gouvernance IT viennent compléter l’équipe weave pour veiller à une parfaite efficacité.

Un espace pour favoriser l’innovation : Nous avons tous fait l’expérience d’une réunion ou d’un séminaire dont le déroulement avait pâti du lieu choisi. Les entreprises le ressentent et d’ailleurs elles choisissent d’aller au vert pour se sortir de la routine quand cela est nécessaire. L’espace influence l’innovation et son rôle est déterminant dans l’expérience que l’on veut vivre.  weave en a bien conscience à tel point qu’il a créé en mai 2017 « la Friche ». Un espace de 1300 m2 dans Paris conçu pour évoluer entre technologie et nature, disruption et confort. D’entrée de jeu le ton est donné, on accède dans une allée végétale « La Gallery ».

Le « GreenLive » est une sorte d’amphithéâtre cosy où les clients vont élargir leur horizon de réflexions et aborder des sujets sous d’autres points de vue.  Des intervenants weave et des personnalités extérieures sont chargés de provoquer le changement par des présentations décalées. Même impression de détente dans l’espace Bivouac propice au brainstorming. Il s’agit de donner corps à des idées et d’en sélectionner quelques-unes qui feront l’objet d’un prototypage dans l’espace « Garage »

Des méthodes empruntées au développement. L’innovation doit être stimulée et guidée. Plus que la recherche de créativité, on cherche à matérialiser des idées qui ne demandent qu’un coup de pouce pour émerger de nos esprits. On utilise pour y arriver des méthodes de conception de solutions telles que la pensée agile, le lean UX et le design thinking. Elles ne sont pas appliquées de manière systématique et peuvent être combinées ou adaptées en fonction du contexte et du but recherché. L ’agilité sera plutôt axé sur l’idéation et/ou le coaching de groupe, le Lean UX sur l’efficacité et le design thinking pour sortir du cadre et matérialiser des idées en suivant trois phases : inspiration, idéation et prototypage. Ces méthodes s’appliquent aussi bien pour le développement d’un produit que pour l’élaboration d’un organigramme, une prise de décision, une orientation stratégique ou un nouveau business model.

Se transformer commence par un changement d’état d’esprit. Les méthodes de design ne sont que des outils pour faciliter le processus et apporter de la rigueur dans la démarche. Ce sont néanmoins des atouts indéniables pour réussir sa transformation et nous pouvons compter sur les consultants designer pour déplacer nos barrières mentales.

HPE France se réinvente aux cotés de Picasso primitif

Ce n’est sans doute pas anodin si HPE France avait choisi l’exposition Picasso Primitif pour présenter sa stratégie. Picasso a réinventé à sa manière la vision du monde. Une forme d’innovation artistique qui bouleverse les codes et les règles. HPE se réinvente à son tour et le fait rapidement pour innover dans les infrastructures qui supporteront la croissance du cloud et de l’IoT.


Le monde va trop vite pour nous adapter : il faut se réinventer. Dans un monde en plein bouleversement, il est plus question de réinventer que de s’adapter à en croire Bruno Marion futuriste et spécialiste de la théorie du chaos. Selon lui le monde est devenu chaotique pour 3 raisons. Le nombre d’êtres humains : la population mondiale est passée de 1 milliards à 7,4 milliards en 150 ans. La connexion des individus : la moitié des habitants de la planète sera connectée à internet en 2017. Et surtout la vitesse des changements !! Il a fallu des milliers d’années pour que l’homme se sédentarise en passant de l’ère de la chasse et de la cueillette (nomade) à celui de l’agriculture (sédentaire). L’industrie et le commerce sont apparus 250 ans après l’agriculture et l’élevage. Des périodes de transition suffisamment longues à l’échelle humaine pour que l’on puisse s’adapter. La période actuelle est riche en innovations technologiques qui se succèdent rapidement. Les périodes de transition se réalisent en quelques dizaines d’années. Le cycle de transformation du monde moderne est à l’échelle d’une vie. Dans ces conditions il devient de plus en plus difficile de s’adapter. Loin de tomber dans le pessimisme B. Marion  voit dans ce chaos la possibilité de l’émergence d’un système plus complexe reposant sur un nouvel équilibre.

Cloud et IoT poursuivent la digitalisation de du monde moderne. Sans aller aussi loin dans la théorie du chaos, Gille Thiebaut, Directeur General de HPE France, voit : « un lien entre Picasso et HPE : les deux ont bouleversé leurs domaines, des précurseurs en la matière« . En termes de bouleversements il constate que la cloudification continue sa progression en devenant de plus en plus hybride et pense que l’internet des objets va accentuer la digitalisation du monde avec pour conséquence une profusion accrue des données. Une voiture autonome par exemple produira 4 Téraoctets de données par jour. L’usage de systèmes connectés va obliger à mettre en place des solutions de traitement de type Edge Computing. Il faut s’y préparer car 40% des données générées par l’IoT devront, selon G.Thiebaut, être traitées au plus près des systèmes connectés. Amener l’intelligence là où elle sera le plus efficace c’est ce que compte faire HPE avec l’approche « Intelligent Edge ».

Une stratégie qui allie innovations et acquisitions. Les acteurs de l’IT tels que HPE opèrent de profonds changements pour être plus agiles, plus pertinents et apporter plus de valeur à leur clients. Depuis la création au premier semestre 2016, HPE a progressé à grand pas avec la cession de certaines activités (la division services cédée à DXC Technology, la division logiciel vendue à Micro Focus) et surtout la réalisation de 5 acquisitions en 9 mois  (SGI, Simplivity, Cloud Cruiser, Niara et Nimble Storage)  alignées avec le cœur de métier de l’entreprise. L’innovation continue comme j’avais eu l’occasion de l’expliquer lors du lancement de Synergy (lire le billet). Pour accompagner les clients dans leur transformation avec plus de valeur ajoutée, la stratégie HPE est recentrée autour de 3 axes qui se complètent : Le cloud hybride (infrastructure, pilotage), l’Intelligent Edge (IoT, mobilité, sécurité) et les services regroupés récemment sous le nom de HPE Pointnext.

Intelligent Edge : Adapter le traitement de données à l’évolution des usages.  Visiblement le sujet passionne G.Thiebaut qui explique avec force détails comment les solutions Intelligent Edge vont renforcer l’expérience digitale dans trois domaines.

  • L’espace de travail digital : Avec l’offre Aruba, HPE met en œuvre des solutions de sécurité et de géolocalisation qui étendent les possibilités de l’espace de travail. Un bâtiment de bureaux partagés pourra par exemple proposer un service d’impression à proximité de la personne et trouver une salle de réunion disponible et la réserver en se servant d’informations en temps réel.
  • Les espaces intelligents. Les solutions de mobilité enrichissent la relation avec les clients ou qu’ils se trouvent. L’aéroport de Rio rénové à l’occasion des jeux Olympiques illustre ce qui peut être fait dans ce domaine. Les passagers s’orientent dans l’aéroport, le trafic des passagers à l’intérieur de l‘aéroport est analysé et amélioré et des offres commerciales personnalisées peuvent être envoyées en tenant compte des profils des passagers.
  • Les objets connectés: Tous les domaines sectoriels peuvent bénéficier de l’internet des objets. Gilles Thiebaut a donné l’exemple de l’agriculture et tout particulièrement celui de palmeraies en Malaisie qui ont été équipées de nombreux capteurs fournissant toutes sortes de mesures. Avec l’aide de la société Immarsat, spécialiste des télécommunications satellitaires, HPE a capturé ces données transmises par satellite sur une plateforme HPE. Ces données ont ensuite été encapsulées et mises à disposition d’application pour suivre l’exploitation des palmeraies et en améliorer le rendement.

 Les usages du numériques sont devenus une réalité et modifient notre quotiden privé et professionnel. Cela peut perturber mais c’est irrésistible alors souhaitons donc, avec l’aide des constructeurs et des entreprises, que du « chaos » cher à B.Marion émerge une société meilleure

Windows 10 une approche inscrite dans la modernité.

Le numérique a bouleversé les rythmes et les usages. L’utilisateur comme l’entreprise sont devenus mobiles. Les entreprises ont dû adapter leurs applications pour tenir compte de l’appareil utilisé par leurs employés ou leurs clients pour accéder aux applications. Avec la simplicité des smartphones et des tablettes, les applications prolifèrent et deviennent à elles seuls un secteur économique. Elles doivent évoluer en permanence pour offrir de nouveaux services et de nouvelles fonctionnalités au risque de devenir rapidement dépassées par l’arrivée d’une start up débordante d’idées. Une aubaine pour les utilisateurs mais un cauchemar pour les entreprises qui doivent gérer les parcs applicatifs.

Le cauchemar des utilisateurs  touche peut être à sa fin avec Windows 10.

  • Finis les changements de version. Microsoft met en œuvre les principes du continuous delivery si chers à DevOps. Dorénavant les améliorations ou les ajouts de fonctionnalités se feront sans changement de version.
  • Un système d’exploitation multi devices. Pour la première fois un système d’exploitation (OS) va être identique quel que soit l’appareil utilisé. PC, tablette, smartphone et sans doute dans un avenir proche des objets connecté seront tous doté du même OS. De quoi simplifier grandement la tâche des développeurs qui pourront passer plus de temps au développement, à la qualité et aux évolutions de leurs applications.
  • La voie ouverte aux applications modernes. Microsoft les « Modern Applications » car elles n’ont plus besoin de s’inquiéter de l’appareil qui utilisera l’application à partir du moment où elles auront été développées pour Windows 10. Mobile ou fixe, Smartphone ou tablette peu importe, les problèmes de portabilité ne seront plus qu’un vieux souvenir pour les développeurs.
  • Premier OS BYOD. Microsoft a tenu compte de cette tendance à ne plus différencier l’usage personnel de l’usage professionnel. Windows 10 offre donc la possibilité  de pouvoir lié un compte entreprise à un compte personnel.

Windows 10 n’est pas qu’une nouvelle version. (lire l’article de Stephane Padique « Quand Windows 10 apporte sa pierre à l’édifice : Simplicité pour les utilisateurs, Sécurité pour les entreprises”) C’est en soi l’entrée dans un monde numérique résolument tourné vers la mobilité et les applications. Windows 10 devrait rapidement devenir incontournable pour les entreprises tant les intérêts sont flagrants. Tout aussi séduisant que soit la promesse de Windows 10 il faut quand même que les entreprises se préparent pour profiter des avantages de Windows 10. Se contenter d’exploiter les applications actuelles sous Windows 10 ne peut qu’être une étape transitoire avant de développer toutes les nouvelles applications sous Windows 10.  Pour s’y préparer il faut se poser quelques questions sur les outils dont on dispose pour gérer le par et déployer les applications.

  • Gestion du parc. La grande majorité des entreprises utilise Windows 7 et les outils qui vont avec. Il n’est cependant pas recommandé d’utiliser ces outils avec Windows 10 qui a été conçu comme un OS de device mobile et par conséquent devra être géré avec des outils de MDM ou d’EMM. La gestion des anciennes et des nouvelles applications imposera la cohabitation de deux outillages distincts (Active Directory pour les anciennes, In Tune pour les nouvelles)
  • Déploiement des applications. Windows 10 se distingue des OS précédent dans la manière de mettre à disposition les applications. Là encore il faudra utiliser deux types d’outils, SCCM pour les anciennes applications et In Tune pour les nouvelles.
  • Impact du cloud sur la confidentialité. Windows 10 est le premier OS conçu pour s’intégrer à un environnement cloud à tel point qu’à la connexion il demande de faire le choix entre une Active Directory ou une directory Azure. Un atout et une souplesse qui peuvent cependant inquiéter certaines entreprises désireuses de maitriser leurs identités.

 Des promesses alléchantes qui devront être tenues pour ne pas décevoir les utilisateurs.

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Recommandations et publicités : une approche différente de la personnalisation

Les consommateurs ont rarement une idée précise de ce qui arrive aux données qu’ils contribuent à générer lors de leurs visites et de leurs alexei-v1achats sur des sites de e-commerce. Ces données personnelles sont pourtant largement utilisées dans un but de personnalisation et de publicité. Pour comprendre l’usage qui en fait j’ai demandé quelques explications à  Alexei Kounine, CEO de la société TasteHit spécialiste de la personnalisation de site e-commerce.

recommandation-marketing

Les systèmes de recommandations apportent un service sur mesure. Aujourd’hui Il est relativement aisé de collecter, sur les sites web, de grandes quantités de données anonymes sur le comportement des utilisateurs. Elles sont personnelles car elles concernent un individu, elles sont anonymes car on ne peut pas savoir en principe qui est l’individu sans son consentement.  Ces données peuvent ensuite être analysées par des algorithmes de machine learning (des systèmes d’autoapprentissage) et l’historique de recherche d’un utilisateur peut être comparé aux comportements de millions d’utilisateurs pour réaliser des prédictions et créer une expérience personnalisée. C’est ce qu’on appelle le « filtrage collaboratif » (collaborative filtering en anglais) qui est utilisé par les systèmes de recommandation. On se sert des opinions et des évaluations d‘un grand nombre d’utilisateurs pour personnaliser une recommandation vers un individu.  Nous avons tous fait l’expérience consciemment ou non de cette « expérience tastehit-image-2personnalisée ». C’est le cas quand nous lisons le fil d’actualités de nos comptes Facebook et Twitter ou si nous regardons des vidéos sur Netflix ou bien encore quand nous faisons défiler les produits sur Amazon. Le choix du contenu et l’ordre dans lequel il nous est présenté dépend de notre comportement passé et des services utilisés. Chacun des 1,7 milliards d’utilisateurs Facebook a une vue de son compte Facebook totalement personnalisé en fonction des données collectées par le numéro 1 des réseaux sociaux.

Le cookie, pierre angulaire de la personnalisation. Lorsque les systèmes de recommandations sont bien pensés, ils sont généralement bien perçus et considérés quasiment comme un service en soi. C’est particulièrement le cas pour la recommandation de morceaux de musique par Spotify, de films par NetFlix ou de produits sur des sites e-commerce. Mais ce n’est pas toujours le cas et de nombreuses publicités personnalisées sont perçues comme intrusives par les consommateurs qui ont réagi en adoptant rapidement des « ad blockers ». Pour comprendre ces réactions il faut revenir sur le rôle du cookie. Le cookie est un petit fichier texte stocké dans le browser de l’équipement que nous utilisons pour aller sur le web. Ces cookies aident les sites web à se souvenir de qui nous sommes et à collecter des données sur les clics des consommateurs. Sans ces cookies, un site n’a aucun moyen de savoir que c’est la même personne qui fait deux requêtes consécutives sur des pages différentes. L’utilisation des cookies est très répandue car c’est le moyen de garantir que nos paramètres de navigation sont gardés entre deux pages d’un même site. Pour être plus précis les cookies sont les mécanismes qui permettent d’assurer par exemple une continuité de l’expérience utilisateur entre la consultation de produits, l’achat et la confirmation de paiement. Ils sont aussi utilisés pour faire des recommandations personnalisées de produits. Ce type de cookies placés par le site visité pour suivre l’activité sur ce site s’appelle un « first » cookie. Ces cookies complétées par des données comportementales et contextuelles de plus en plus nombreuses pour atteindre une hyper-personnalisation et obtenir des systèmes de recommandations performants.

Certains cookies nous suivent à la trace. Les cookies sont utiles pour la personnalisation et la navigation sur un site, pourtant certains s’en méfient comme de la peste. Il y a une raison à cette méfiance. Vous avez sans doute remarqué que lorsque vous passez d’un site web à un autre,  il est fréquent qu’apparaisse sur le nouveau site que vous visitez une publicité qui concerne comme par hasard le produit sur lequel vous aviez cliqué sur un site précédent. C’est un autre type de cookie qui est utilisé pour nous pister ainsi de site en site : le « third party cookie ». En fait lors d’une visite d’un site web, ce site fait appel à une société tierce pour placer leurs cookies dans notre browser. Pour faire simple, ce cookie contient un identifiant unique, qui ne permet pas de savoir nommément qui nous sommes, mais qui indique par exemple ce que nous avons précédemment acheté ou consulté. Le mécanisme qui utilise ces cookies pour présenter des publicités concernant des produits visités sur d’autres sites s’appelle le « retargeting ». Le consommateur qui cliquera sur la publicité va être redirigé vers le site d’origine ou le produit avait été consulté.

Une personnalisation hors du contexte rebute le consommateur. Le consommateur n’est pas au courant de tous ces processus mis en place et n’a en général jamais entendu parler de sociétés de retargeting qui traquent le comportement des consommateurs sur tout le web. La personnalisation n’est pas celle que pourrait espérer le consommateur. Au contraire il peut éprouver le sentiment d’être épié et suivi si par exemple lorsqu’il est sur un site d’électroménager, une publicité lui présente une paire de chaussures consultée sur un autre site. Cette personnalisation qui est sortie du contexte explique en partie le rejet du consommateur pour ces publicités ciblées.

A lire également pour comprendre les modèles économiques des acteurs de la publicité en ligne:  How your personal data is used in personalization and advertising

La connaissance client se nourrit d’un monde hyperconnecté

La connaissance client n’aura jamais été aussi stratégique qu’aujourd’hui et son rôle sera de plus en plus déterminant. La notion de connaissance client a évolué et s’est enrichie avec les évolutions technologiques et les comportements des consommateurs qui en ont découlé. Le développement des smartphones  a donné une autonomie sans précédent aux consommateurs et les a propulsés dans un monde hyper connecté parsemé de points de contacts avec les marques qui sont autant de sources d’informations  sur les clients. Le déferlement des objets connectés et le développement d’assistants virtuels ou de robots conversationnels devraient apporter une autre dimension à la connaissance client

Connaissance client V2

La connaissance contextuelle passage obligé d’un marketing personnalisé. Le consommateur a gagné en maturité et sa fidélité à une marque n’est plus acquise indéfiniment. Il analyse, compare  et achète à sa guise sur internet ou en magasin selon ses propres critères. Face à cette évolution la marque, pour garder ses clients et en gagner d’autres, n’a d’autre choix que d’être en écoute active permanente et de proposer une expérience client sans pareil. Cela se traduit par une personnalisation de plus en plus poussée et des interactions de plus en plus intelligentes mais qui nécessitent au préalable une connaissance client augmentée reposant sur:

  • La connaissance globale: Un nombre d’individus important et des données nombreuses et récentes permettent une analyse de tendances grandeur nature et  une segmentation fine qui peut servir par exemple  à définir des personas proches de la réalité.
  • La connaissance individuelle: en plus du profile et de l’historique du consommateur, on s’attache à connaitre le comportement, les préférences et les habitudes de chaque personne pour tenter de prédire leurs intentions d’achat.
  • La connaissance contextuelle: Elle touche l’immédiateté. Elle est la clé d’un marketing moderne et personnalisé. Connaitre l’équipement utilisé pour se connecter, la géolocalisation (ville, magasin, aéroport..) du consommateur. Prendre en compte l’environnement du consommateur (l’actualité, la situation météo, le trafic routier …)  qui peut interférer sur l’humeur et le comportement du consommateur. La contextualisation rend la personnalisation plus pertinente.

Le besoin d’une vision unifiée du client. L’enjeu est fort mais le marketing n’aura jamais disposé d’autant de données et d’outils pour les exploiter. Tout commence par l’identification des sources de données pour ensuite les collecter et les réconcilier. Sites web, calls center, connaissance clients étapesagences, points de ventes, retour de campagnes marketing sont les sources les plus évidentes mais il faut y rajouter les applications mobiles, les réseaux sociaux, les objets connectés…. La connaissance client s’alimente de données qui vont au-delà des données de l’entreprise encore trop souvent organisées en silos. De nombreuses sociétés, à l’image du groupe Accor ou de Covea ,  ont entrepris d’unifier la vision client en mutualisant leurs données dans un « data lake » (lac de données) pour faire face à la concurrence de pure players du numérique. D’autres se sont engagés sur la voie d’une DMP (Data Management Platform). Toute entreprise est potentiellement amenée à traiter des données massives et est donc éligible à des solutions de Big Data. L’avènement du cloud contribue de son côté à démocratiser ce type de solutions en fournissant  des infrastructures de Big data et des logiciels de machine Learning (système auto apprenant) sous forme de services dans le cloud accessibles à toutes les entreprises. Tous les voyants se mettent progressivement au vert pour un véritable « data driven marketing »

Les réseaux sociaux en avance sur la connaissance des utilisateurs. Les réseaux sont devenus un gisement de données inestimable  et il savent l’exploiter mieux que personne. Ils montrent en quelque sorte ce que pourrait devenir la connaissance client quand on est capable de saisir les Facebook j'aimeémotions, les valeurs et tout ce qui façonne la personnalité et la rend unique.  Une étude réalisée par des chercheurs des universités de Cambridge et de Standford en 2015 a démontré que Facebook en savait plus sur nous que nos proches. Suite à l’étude des  « likes » sur Facebook de 86.000 volontaires on y apprend qu’avec 16 likes Facebook en sait plus sur un utilisateur que ses collègues et qu’avec 300 likes il en sait plus que son conjoint. (lire le billet sur ce sujet)

Les objets connectés nouvelle étape dans la connaissance client.  L’objet connecté a une double fonction. Il offre un service ou un usage à la personne qui l’utilise et dans le même temps il remonte des informations à l’entreprise qui le commercialise. D’un point de vue marketing cette vague d’objets connectés va venir enrichir la connaissance sur les habitudes et le comportement du client (santé, sport, conduite automobile, consommation électrique etc..) au niveau individuel et global mais aussi sur son mode d’utilisation de l’objet ou de l’équipement. On a ainsi un double bénéfice pour agir sur la relation client et sur l’évolution des produits et des services. Aujourd’hui moins de 2% des objets sont connectés mais tout objet a vocation, dans un avenir proche, à devenir connecté en l’équipant de différents capteurs. Il est donc essentiel pour le marketing de prendre la mesure de l’enjeu lié à ces objets. L’exemple de certains assureurs qui modulent les frais d’assurance en fonction du comportement des assurés au volant est assez révélateur de ce vers quoi on va tendre dans les prochaines années.

Les Interactions évoluent vers le conversationnel. Les interactions entre les marques et les consommateurs sont nombreuses et prennent de nombreuses formes à commencer par les publicités et les campagnes marketing qui sont de plus en plus personnalisées. On peut noter cependant trois grandes tendances qui structurent la connaissance clients pour atteindre l’expérience utilisateur souhaitée. Pour chacune d’entre elle, l’efficacité et la qualité de l’expérience client repose sur la connaissance du client.

  • L’Omnicanal. La variété des canaux utilisables par le consommateur pour une même marque ne doit pas s’accompagner d’un sentiment d’incohérence. Le passage d’un point de contact à un autre doit se faire « sans couture ». La progression dans le parcours client doit tenir compte des points de contact précédents que ceux-ci soient « numériques » ou physiques et des informations recueillies à chaque étape. Chaque point de contact est une opportunité de collecter des informations et d’enrichir la base de connaissance des clients. La connaissance client devient temps réel et pose la question des moyens mis en œuvre pour collecter et fédérer ces informations en temps réel.
  • Le Phygital. Après une période on opposa digital et commerce physique, il est apparu que la combinaison des deux, sous le terme phygital, pouvait créer de nouvelles expériences client intéressant. Par exemple un consommateur peut rentrer dans un magasin, être identifié comme client, une application de son smartphone se connecte alors automatiquement (avec son accord) au réseau wifi du magasin. Il pourra ensuite être localisé dans le magasin (via des balises beacon par exemple) et selon son emplacement des propositions ou des informations personnalisées lui seront envoyés sur son smartphone en tenant compte de son profile enregistré dans la base de données du magasin et des offres promotionnelles en cours. Il pourra également être assisté dans ses achats par un vendeur équipé d’une tablette qui  aura accès aux informations du consommateur et des produits (disponibilité, prix..). D’autres technologies permettent aussi d’analyser son comportement devant des rayons pour ensuite en tenir compte dans l’agencement du magasin.
  • L’intelligence conversationnelle. Les progrès de l’intelligence artificielle vont sans doute façonner les nouvelles interactions avec les consommateurs et les utilisateurs. L’interaction devrait se développer rapidement sur un mode conversationnel de plus en plus en plus évolué et de plus en plus proche d’une interaction humaine. Les agents conversationnels (chatbot), les conseillers virtuels (robots advizer), les assistants virtuels (Cortana, GoogleNow, Echo etc..) et bientôt la réalité virtuelle deviennent de plus en plus performantes. Les techniques de machine learning leur permettent de comprendre le sens de textes ou de paroles et d’analyser le contenu de photos ou de vidéos. Dernièrement Facebook a présenté son projet Deep Text basée sur de l’intelligence. Il analysera une partie des 400 000 posts et 125 000 commentaires postés chaque minute sur Facebook pour comprendre quels contenus sont les plus pertinents pour un utilisateur donné. Bien sûr dans ce domaine les géants du web sont précurseurs mais il y a fort à parier que les entreprises suivront rapidement ou s’appuieront sur les offres de ses acteurs. La connaissance client va ainsi s’étendre aux contenus  consultés et partagés par les internautes. La rapidité d’adoption de ces technologies conversationnelles dépendra de leur faculté à nous connaitre suffisamment pour analyser nos questions à l’aune d’un contexte personnalisé et à nous répondre dans un mode proche du langage humain.

La connaissance client est un domaine qui va devenir de plus en plus pointu capable d’intégrer la psychologie du client et de la projeter dans un contexte bien précis. Cela ouvre les champs des possibles mais peut inquiéter par la même occasion. La réglementation européenne sur la protection des données personnelles a pour vocation de nous protéger contre les abus et les dérives et de nous rassurer si c’est possible.

Lire également : La performance du marketing sous l’emprise des données

 

 

La fracture numérique porte aujourd’hui sur les usages

Ce qui vaut pour l’entreprise vaut pour le citoyen. L’acculturation numérique est devenue une nécessité pour l’ensemble des français, elle ne concerne pas seulement les spécialistes du numérique mais bien tout un chacun. L’inclusion numérique est une priorité et c’est l’une des missions de l’Agence du Numérique

PIM V1

L’employabilité nécessite la maitrise du numérique. Souvenez-vous, en 2000 on parlait de la fameuse fracture numérique qui allait couper la France en deux et laisser sur le bord de la route du numérique une partie des français. A l’époque on évoquait cette fracture à propos des équipements. Aujourd’hui le problème s’est déplacé, les familles françaises se sont largement dotées d’outils numériques au point de faire pâlir d’envies certaines entreprises qui ont adopté les nouvelles technologies plus lentement. A présent la fracture porte sur les usages du numérique. Première étape de la transformation numérique, la dématérialisation s’est répandue dans de nombreux domaines. L’administration est devenue largement numérique, les recherches et les démarches administratives se font sur internet et la pression est forte pour réduire à une portion congrue les déclarations d’impôts papier. Des services et des commerces en lignes de plus en plus nombreux offrent une souplesse et une richesse indéniables accessibles à tous à condition de savoir s’en servir. L’emploi lui-même est conditionné par le numérique. On peut difficilement se passer d’un réseau social professionnel pour rechercher un emploi et l’employabilité nécessite  la maitrise des outils numérique dans quasiment toutes les fonctions.

Accélérer l’acculturation numérique. Pour lutter contre cette nouvelle forme de fracture Agence du numerique acteursnumérique il est nécessaire de mettre en place une société qui n’exclue pas des citoyens du fait du numérique. Nous sommes rentrés dans la phase de l’inclusion numérique. Les gains de productivité réalisés, notamment dans les services publics, doivent contribuer à financer en partie l’acculturation numérique des français.  Quand Emmanuel MACRON et Axelle LEMAIRE ont annoncé la création de l’Agence du Numérique ils fixaient trois missions : la Mission Très Haut Débit, la Mission French Tech et la Délégation aux usages de l’internet

Des Espaces Publics Numériques sur toute la France. La Délégation aux usages de l’Internet cible ces problèmes d’acculturation numérique par l’aide au déploiement  de 5000 EPN GeolocalisationEspaces Publics Numériques (EPN) sur l’ensemble du territoire pour faciliter l’accès à internet et aux usages du numérique. On les trouve au sein de services publics ou associatifs.  Un portail NetPublic a été créé pour supporter ces EPN. On y trouve de nombreuses ressources et informations ainsi qu’un blog. On peut ainsi connaître l’emplacement de tous les EPN sur la carte de France et faire connaissance avec le Passeport Internet et Multimedia.  Dans un monde numérique extrêmement dynamique ces EPN s’adaptent et font évoluer les services offerts pour appréhender de nouvelles technologies, de nouvelles réglementations ou des nouveaux usages.  L’objectif étant d’offrir à tous une mise à niveau technique, juridique et culturelle nécessaire à l’inclusion numérique. On peut bien évidemment suivre NetPublic sur les principaux réseaux sociaux comme Twitter @netpublic

N’oublions pas le très haut débit. Pour réussir son pari du numérique la France ne peut pas compter seulement sur l’acculturation, il lui faudra également rattraper son retard dans les réseaux très hauts débits. Le développement des usages, l’augmentation des personnes connectées et la vague des objets connectés vont nécessiter des réseaux toujours plus puissants. Comme le rappelait Benoit Thieulin ancien directeur du CNNum, Internet est devenue une infrastructure essentielle et le très haut débit en constitue l’épine dorsale. En 2013 un investissement de 20 milliards d’euros a été dégagé pour financer un Plan très hauts débits partagé entre opérateurs privés, collectivités territoriales et l’Etat. L’Etat sans être prescripteur doit jouer un rôle dans la stratégie en développant une vision réaliste et efficace à l’image des Etats Unis qui ont su anticiper les besoins.

L’inclusion numérique de notre société doit permettre de ne laisser personne de côté mais elle ne doit pas nous faire oublier que l’acculturation numérique est également primordiale, sous une autre forme plus stratégique, pour les chefs d’entreprises et les politiques et qu’elle doit les faire réfléchir sur la transformation de l’entreprise, de l’économie et de la société.