Adobe Summit : L’expérience client prime sur le produit

Plus de 5000 personnes étaient réunies pour l’Adobe Summit 2018 à Londres. Après avoir réussi son évolution dans le cloud, Adobe adopte l’intelligence artificielle avec Adobe Sensei.  Omniprésente dans les offres Adobe, L’intelligence artificielle a pour objectif de permettre aux entreprises de construire des expériences clients de qualité à grande échelle.

« Making Experience your business ». Adobe a annoncé clairement la couleur.  Les termes « Experience utilisateur » ont envahi les discours marketing sans toujours se concrétiser dans les faits. Pourtant l’enjeu est crucial pour les entreprises car désormais dans l’esprit des consommateurs la qualité de l’expérience a pris le pas sur le produit lui-même. Une étude Forrester, présentée par Brad Rencher ( Adobe executive vice president and general manager of Experience Cloud) illustre parfaitement l’enjeu économique pour les entreprises. Les innovations technologiques ont ouvert d’immenses possibilités mais ne se suffisent pas à elles seules. Le CEO d’Adobe Shantanu Narayen a rappelé qu’aussi excitantes que soient les technologies pour réussir il faut se concentrer sur le « design » de l’expérience.  L’empathie avec le consommateur doit bien sur guider les développements mais construire une expérience réussie nécessite de repenser l’architecture de l’entreprise autour de la donnée et de l’intelligence artificielle.

L’omniprésence de l’intelligence artificielle dans l’offre Adobe. Concrètement pour Adobe cela consiste en une intégration complète entre Adobe Cloud Plateform et Adobe Sensei, le framework de machine learning. Désormais toutes les fonctions des produits Adobe peuvent faire appel à des fonctions d’intelligence artificielle sans que l’utilisateur en ait nécessairement conscience si ce n’est en constatant la puissance des outils. L’intelligence artificielle est omniprésente et c’est logique. Automatiser les campagnes marketing, optimiser les parcours clients, construire des publicités et adapter automatiquement leur format au support, analyser en temps réel les impacts et les performances d’une image ou d’une campagne. Les exemples ne manquent pas. Le marketing d’aujourd’hui fonctionne en temps réel et utilise massivement les vidéos et les images. Être capable de distinguer dans ces images des formes et des objets pour les taguer ou les modifier en temps réel devient impossible sans l’intelligence artificielle.

Déployer l’expérience à l’échelle d’une entreprise. Le digital a multiplié les canaux par lesquels on peut interagir avec les clients et les données sur les consommateurs prolifèrent. On ne peut espérer offrir une expérience utilisateur de qualité sans avoir au préalable créer un profil unifié du client.  C’est un véritable enjeu pour les entreprises qui disposent d’une multitude de systèmes qui génèrent leurs propres données. Ces données n’ont d’intérêt que si on est capable de les consolider et de les transformer en informations utiles et exploitables pour déclencher des actions. Pour y arriver  l’entreprise doit disposer d’une infrastructure technologique capable de gérer et de donner du sens aux données et aux contenus.

C’est l’objectif de « l’experience system of records », présenté par Brad Rencher, qui propose de concevoir, de mesurer et d’optimiser une expérience client omnicanal qui fournit une hyperpersonnalisation et qui apprend toujours d’avantage avec les interactions clients.

En quelques années Adobe a accompli une véritable révolution. Adobe s’affiche désormais comme un acteur complet de la transformation digitale comme ont pu en témoigner des entreprises comme Virgin Atlantic, Shell, HSBC ou Nissan.  Bon nombre d’entreprises ont souligné que la difficulté ne consistait pas seulement à fournir une expérience de qualité mais qu’il fallait pouvoir le faire à l’échelle de toute l’entreprise sur tous les canaux et vis à vis de tous les clients. « L’experience at scale » est inenvisageable sans l’intelligence artificielle.  De la même manière qu’il est impossible d’imaginer un aéroport fonctionnant sans informatique, l’expérience utilisateur de demain sera impossible sans IA.  Adobe Sensei unifie l’Intelligence Artificielle pour libérer la créativité, analyser les contenus et fournir une expérience incomparable. Pour faciliter l’utilisation de l’IA et l’intégration des offres Adobe avec des produits partenaires, Adobe a annoncé un « Data Science workspace » ainsi que des services Adobe Sensei pour les développeurs. Les data scientists ont ainsi la possibilité des créer des services intelligents en exploitant Adobe Sensei via des APIs (Application Programming Interfaces). Ces services peuvent fonctionner avec d’autres services Adobe tels qu’Adobe Target et Adobe Analytics Cloud pour automatiser la personnalisation et le ciblage d’expériences digitales dans le web, sur ordinateurs portable ou avec des applications mobiles.

Pour continuer dans le sens de la collaboration et de l’adoption des technologies Adobe a également annoncé le programme« Experience League ».On y trouve un certain nombre d’outils et de documentation, la mise en place d’une communauté et l’accès à des experts.

 

 

 

Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.

La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Expérience client: éléments de langage ou impératif stratégique

Donnons du sens aux mots. « L’expérience client » est devenu à la mode et émaille toutes les communications marketing. En banalisant l’usage des mots on en oublierait l’enjeu stratégique qui a suscité ce formidable intérêt pour l’expérience client.

L’expérience fait référence au vécu. Auparavant les entreprises employaient plutôt les mots « satisfaction client » qui concernaient ce qui suivaient l’acte d’achat (utilisation, fonctionnement du produit, qualité du service et efficacité de l’après-vente).  Pourtant depuis toujours, chacun d’entre nous vit de bonnes ou de mauvaises expériences dans un hôtel, un magasin, lors d’un voyage, en découvrant un produit ou dans la relation avec un fournisseur. Le fait que les entreprises se soient à leur tour appropriées le mot expérience est révélateur. Une entreprise ne peut plus seulement se soucier de l’adéquation entre son offre et le besoin exprimé par le client mais doit s’intéresser au vécu et au ressenti du client. Cela doit aller bien au-delà du besoin initial. L’expérience client doit porter sur la qualité du produit ou de la prestation mais doit s’étendre également à tout ce qui précède et suit l’acte d’achat en considérant tous les facteurs qui participent à la satisfaction, au plaisir et à l’émotion. L’enjeu n’est pas seulement de satisfaire le client, mais de se distinguer de ses concurrents par une proposition de valeur unique et différentiante qui s’appuie autant sur des qualités techniques que sur des valeurs émotionnelles. L’expérience n’est pas réservée aux seuls clients et consommateurs. Elle s’applique de la même manière à l’usager, l’utilisateur, le patient, le citoyen, le collaborateur et plus généralement à tout contexte ou un individu, ou un groupe d’individus, éprouve une impression, une sensation voire une émotion. L’expérience est avant tout personnelle car nous réagissons chacun différemment face à une même situation. Cela tient à notre personnalité, à notre histoire personnelle et à notre génération. Dans le cadre de la révolution numérique cela prend toute son importance et revêt un caractère stratégique qui touche quasiment à la pérennité des entreprises.

La concurrence s’est déplacée sur le terrain des usages.  Des sociétés comme Uber ont créé de nouvelles formes de concurrences contre laquelle on ne lutte pas à en améliorant son offre ou en diminuant ses prix. Les nouveaux acteurs doivent le succès qu’on leur connait au fait qu’elles ont su analyser tous les éléments qui constituent une expérience client et en traiter chacun des aspects. Si dans le cas de Uber le besoin initial peut se résumer à aller rapidement d’un point A à un point B, l’expérience client recouvre bien d’autres critères. Elle doit tenir compte du processus de réservation, du temps d’attente, des informations fournies au client (type de véhicule, localisation, nom du chauffeur, heure d’arrivée), des conditions du transport et des facilités du mode de paiement. On n’oubliera pas le facteur humain qu’on tente de mesurer avec la notation du chauffeur. Le trajet en lui-même n’est qu’une partie de l’expérience client. L’expérience client doit être simple, unique et personnalisée. AirBnB ou Uber essayent d’avoir une expérience client identique quel que soit le pays. L’application est la même et quand le paiement est intégré à l’application on n’a plus besoin de s’inquiéter de disposer de liquide dans la monnaie du pays ou de savoir si le prestataire accepte les cartes de crédit. Finie l’époque du client captif. Le numérique à transformé le paysage concurrentiel et ouvert le champ des alternatives. La compétition s’est déplacée sur le terrain de l’usage. Les comportements des consommateurs ont évolué en conséquence. On le voit avec les nouvelles générations qui ne regardent pratiquement plus la télévision. Ils veulent contrôler leur expérience en composant leurs propres programmes directement sur le Net et regarder à la suite plusieurs épisodes d’une série américaine sur NetFlix. Le projet du grand Paris avec un métro connecté souhaite prolonger l’expérience de l’usager entre son domicile et son lieu de travail. Les outils numériques offrent des nouvelles expériences de travail adaptées à la mobilité et à la collaboration. L’expérience s’enrichit avec les possibilités offertes par les nouvelles technologies. Certains musées revoient totalement leurs approches vis-à-vis des visiteurs allant jusqu’à proposer des expériences d’immersions numériques.

En prônant l’expérience client à tout vent on génère également plus d’attente. L’expérience client doit donc tenir compte des imprévus, des incidents et des dysfonctionnements. Elle sera d’autant plus dégradée qu’on n’aura pas su fournir des informations sur la résolution du problème et proposer des alternatives ou des solutions de contournements. La confiance est aussi une composante de l’expérience client c’est pourquoi de nombreux accords sont noués entre des assurances et des startups pour rassurer les usagers en cas de problèmes ou d’accidents. Cette fixation sur l’expérience client conditionne la conception et le développement des offres. Depuis des dizaines d’années le client est soi-disant au cœur de la stratégie des entreprises amis avec le numérique il ne suffit plus de le proclamer. Les consommateurs ont gagné en maturité et en autonomie avec Internet, les smartphones. Ils comparent et sélectionnent en quelques clics et n’hésitent pas à changer de fournisseurs. Les entreprises ne doivent plus penser à la place des clients mais essayer de se mettre à leur place en développant d’avantage d’empathie. C’est ce que l’on retrouve dans les méthodes de design thinking où la part du design est au moins aussi importante que la part de technologie. De la même manière que les applications d’aujourd’hui sont développées selon des méthodes d’amélioration continue, l’expérience client est un processus qui ne s’achève jamais. Les start-up se créent rapidement mais la concurrence se développe au même rythme. Face à un « Velib » qui vous oblige à restituer le vélo à des bornes précises voilà que « Gobee » modifie légèrement l’expérience utilisateur en vous laissant la liberté de laisser le vélo n’importe où. L’avis des clients est devenu une obsession qui nécessite une veille constante pour qu’une mauvaise expérience client exprimée par un avis défavorable, voire assassin, ne vienne pas dégrader la perception des autres clients. Pour rester toujours en pointe en matière d’expérience client de plus en plus d’entreprises collectent et analysent des données. Elles s’en servent pour améliorer l’ergonomie de leur application/plateforme et créer des services qui vont renforcer la satisfaction et le plaisir de l’utilisateur.

Le facteur humain reste essentiel. L’aboutissement de l’expérience client est de créer une émotion alors que paradoxalement l’abus de technologies peut conduire à une déshumanisation des services. On en vient à utiliser des technologies d’intelligence artificielle pour détecter les émotions des clients.  Et finalement si tout ce déluge de technologies n’avait pour but que de recréer les simples plaisirs que nous éprouvions, avant l’arrivée du numérique : échanger un sourire et quelques mots avec le commerçant, rêver en regardant défiler le paysage dans le train sans être tenter de regarder ses mails ou les commentaires sur les réseaux sociaux sur son smartphone ….

 

 

Hôtellerie et restaurateurs à la reconquête des données clients.

L’hôtellerie et la restauration seront-ils les grands perdants du digital ? Les agences de réservation en ligne et les comparateurs de prix les ont dépossédées de leurs données clients. Tout n’est pas perdu pour autant mais il est urgent d’agir. En lançant le premier salon français Food Hotel Tech, Karen Serfaty compte bien sensibiliser le marché et contribuer à créer un écosystème adapté. Karen, que j’ai rencontrée, m’a expliqué pourquoi il était crucial d’agir rapidement.

Les agence de réservations en ligne ont pris le pouvoir. Sur le marché des réservations en ligne, un acteur comme Booking.com règne en roi. Plus de 80% des réservations en ligne passent par lui. Il est incontournable sur Internet et les hôtelleries doivent bon gré malgré composer avec pour assurer le remplissage de leurs chambres. Au passage ils paient un large tribut qui diminue leurs marges d’environ 30%. Mais comment faire autrement. Impossible de ne pas figurer sur ces plateformes de réservations sans se condamner à perdre des clients. La France est la 1ère destination touristique avec ses 85 millions de visiteurs enregistrés l’an dernier pourtant la croissance n’est plus au rendez-vous. Dans le secteur hôtelier, elle ralentit et ne progresse plus que de 2,1%… Dans la restauration, c’est même pire : le chiffre d’affaire du secteur a baissé d’environ 4,5% l’an dernier ! Comment s’explique ce contraste ? Les hôteliers et les restaurateurs doivent se mettre à l’heure de la révolution digitale pour concurrencer les nouveaux acteurs du numérique comme AirBnB. Les plateformes de réservation n’ont pas de limite à l’image d’AirBnB qui évolue progressivement vers une plateforme de voyage et a annoncé récemment vouloir proposer de la réservation de restaurants.

Celui qui détient les données clients règne en maitre.  La présence sur Internet n’est plus une option. Faute de l’avoir anticipé l’hôtellerie a laissé la porte ouverte aux  Booking.com et autres Expedia qui s’y sont engouffrés en offrant au passage un éventail de services qui simplifie la recherche et le choix pour les usagers. Plus grave que la perte de marge, l’hôtellerie a perdu le lien inestimable avec le client : ses données.  Booking.com a compris depuis longtemps comme tous les acteurs du Net que celui qui détient les données client possède un pouvoir considérable en termes de marketing. Il se garde bien de communiquer ses précieuses données aux hôteliers qui ne possèdent péniblement que 25% des adresses email !!! Comment valoriser ses services, en promouvoir des nouveaux, cibler ses clients, personnaliser et contextualiser les messages sans une parfaite connaissance client ? Les acteurs du net sont experts dans l’analyse des données et du marketing digital. Ils maitrisent parfaitement le big data et le machine Learning.  Des géants de l’hôtellerie, comme Accor avec ses 36.000 hôtels dans le monde, pensaient être à l’abri.  Le groupe Accor a compris tardivement la menace et a développé en 2014 un plan « Leading Digital Hospitality » sur cinq ans. Il est urgent de se réapproprier la données clients et de développer de nouveaux services. L’un ne va pas sans l’autre.

Le numérique s’est invité également à la table de la restauration.   Pour l’instant des sociétés comme Deliveroo, Foodora et UberEats jouent la carte du gentil partenaire qui augmente le chiffre d’affaire des restaurants en livrant les plats à domicile. Ce serait une erreur de les confondre avec de simples livreurs. Eux aussi captent les données et les analysent méticuleusement. Ce ne sont pas de simples intermédiaires, ils recommandent les restaurants et les plats en fonction des goûts et des habitudes des clients et proposent de vrais services. On commence aussi à voir des tentatives de créer des tables chez l’habitant. Une tendance qui demande à trouver son public mais qui sait….. Les comportements changent. Le bouche à oreille continue à exister certes mais il prend de plus en plus souvent la forme de recommandations sur internet ou d’applications spécialisées. Les nouvelles générations y ont recours quasi systématiquement.

S’approprier le numérique est la meilleure défense. Les start-up du digital ont déstabilisé le marché de l’hôtellerie et de la restauration mais le numérique peut devenir une opportunité à condition de se retrousser les manches rapidement. La voie est ouverte à toutes les formes d’innovations et les start-up peuvent être vues comme de véritables créateurs de valeur pour les hôteliers et les restaurateurs. Pour Karen Serfaty, « prendre le bon virage
technologique sera déterminant pour faire face à une concurrence accrue dans les marchés de l’hôtellerie et de la restauration, les piliers du secteur touristique ». Pour aider hôteliers et restaurateurs à inverser cette courbe, Karen Serfaty a décidé de lancer Food Hôtel Tech, un événement rassemblant experts, entreprises innovantes et poids lourds des deux secteurs. « Le but du salon est de faciliter les rencontres entre tous ces acteurs pour permettre aux établissements de reconquérir leurs clients perdus », explique-t-elle. « Mais aussi attirer de nouvelles populations grâce à la création de nouveaux services ! » Traitement optimisé des données, dématérialisation des commandes, parcours client simplifié : les professionnels pourront trouver dans les allées du salon l’innovation idéale pour accélérer leur activité rapidement. Et conserver une longueur d’avance sur les trublions du digital.

C’est à ma connaissance le premier salon BtoB dédié aux innovations Tech et Digital dans l’hôtellerie et la restauration. Bonne nouvelle pour les lecteurs du blog vous pouvez vous obtenir un badge gracieusement pour le salon « Food Hôtel Tech » en utilisant le code FHTMAG lors de l’enregistrement sur le site. Première édition du salon les 28 et 29 novembre 2017 à Paris