Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.

La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Expérience client: éléments de langage ou impératif stratégique

Donnons du sens aux mots. « L’expérience client » est devenu à la mode et émaille toutes les communications marketing. En banalisant l’usage des mots on en oublierait l’enjeu stratégique qui a suscité ce formidable intérêt pour l’expérience client.

L’expérience fait référence au vécu. Auparavant les entreprises employaient plutôt les mots « satisfaction client » qui concernaient ce qui suivaient l’acte d’achat (utilisation, fonctionnement du produit, qualité du service et efficacité de l’après-vente).  Pourtant depuis toujours, chacun d’entre nous vit de bonnes ou de mauvaises expériences dans un hôtel, un magasin, lors d’un voyage, en découvrant un produit ou dans la relation avec un fournisseur. Le fait que les entreprises se soient à leur tour appropriées le mot expérience est révélateur. Une entreprise ne peut plus seulement se soucier de l’adéquation entre son offre et le besoin exprimé par le client mais doit s’intéresser au vécu et au ressenti du client. Cela doit aller bien au-delà du besoin initial. L’expérience client doit porter sur la qualité du produit ou de la prestation mais doit s’étendre également à tout ce qui précède et suit l’acte d’achat en considérant tous les facteurs qui participent à la satisfaction, au plaisir et à l’émotion. L’enjeu n’est pas seulement de satisfaire le client, mais de se distinguer de ses concurrents par une proposition de valeur unique et différentiante qui s’appuie autant sur des qualités techniques que sur des valeurs émotionnelles. L’expérience n’est pas réservée aux seuls clients et consommateurs. Elle s’applique de la même manière à l’usager, l’utilisateur, le patient, le citoyen, le collaborateur et plus généralement à tout contexte ou un individu, ou un groupe d’individus, éprouve une impression, une sensation voire une émotion. L’expérience est avant tout personnelle car nous réagissons chacun différemment face à une même situation. Cela tient à notre personnalité, à notre histoire personnelle et à notre génération. Dans le cadre de la révolution numérique cela prend toute son importance et revêt un caractère stratégique qui touche quasiment à la pérennité des entreprises.

La concurrence s’est déplacée sur le terrain des usages.  Des sociétés comme Uber ont créé de nouvelles formes de concurrences contre laquelle on ne lutte pas à en améliorant son offre ou en diminuant ses prix. Les nouveaux acteurs doivent le succès qu’on leur connait au fait qu’elles ont su analyser tous les éléments qui constituent une expérience client et en traiter chacun des aspects. Si dans le cas de Uber le besoin initial peut se résumer à aller rapidement d’un point A à un point B, l’expérience client recouvre bien d’autres critères. Elle doit tenir compte du processus de réservation, du temps d’attente, des informations fournies au client (type de véhicule, localisation, nom du chauffeur, heure d’arrivée), des conditions du transport et des facilités du mode de paiement. On n’oubliera pas le facteur humain qu’on tente de mesurer avec la notation du chauffeur. Le trajet en lui-même n’est qu’une partie de l’expérience client. L’expérience client doit être simple, unique et personnalisée. AirBnB ou Uber essayent d’avoir une expérience client identique quel que soit le pays. L’application est la même et quand le paiement est intégré à l’application on n’a plus besoin de s’inquiéter de disposer de liquide dans la monnaie du pays ou de savoir si le prestataire accepte les cartes de crédit. Finie l’époque du client captif. Le numérique à transformé le paysage concurrentiel et ouvert le champ des alternatives. La compétition s’est déplacée sur le terrain de l’usage. Les comportements des consommateurs ont évolué en conséquence. On le voit avec les nouvelles générations qui ne regardent pratiquement plus la télévision. Ils veulent contrôler leur expérience en composant leurs propres programmes directement sur le Net et regarder à la suite plusieurs épisodes d’une série américaine sur NetFlix. Le projet du grand Paris avec un métro connecté souhaite prolonger l’expérience de l’usager entre son domicile et son lieu de travail. Les outils numériques offrent des nouvelles expériences de travail adaptées à la mobilité et à la collaboration. L’expérience s’enrichit avec les possibilités offertes par les nouvelles technologies. Certains musées revoient totalement leurs approches vis-à-vis des visiteurs allant jusqu’à proposer des expériences d’immersions numériques.

En prônant l’expérience client à tout vent on génère également plus d’attente. L’expérience client doit donc tenir compte des imprévus, des incidents et des dysfonctionnements. Elle sera d’autant plus dégradée qu’on n’aura pas su fournir des informations sur la résolution du problème et proposer des alternatives ou des solutions de contournements. La confiance est aussi une composante de l’expérience client c’est pourquoi de nombreux accords sont noués entre des assurances et des startups pour rassurer les usagers en cas de problèmes ou d’accidents. Cette fixation sur l’expérience client conditionne la conception et le développement des offres. Depuis des dizaines d’années le client est soi-disant au cœur de la stratégie des entreprises mais avec le numérique il ne suffit plus de le proclamer. Les consommateurs ont gagné en maturité et en autonomie avec Internet, les smartphones. Ils comparent et sélectionnent en quelques clics et n’hésitent pas à changer de fournisseurs. Les entreprises ne doivent plus penser à la place des clients mais essayer de se mettre à leur place en développant d’avantage d’empathie. C’est ce que l’on retrouve dans les méthodes de design thinking où la part du design est au moins aussi importante que la part de technologie. De la même manière que les applications d’aujourd’hui sont développées selon des méthodes d’amélioration continue, l’expérience client est un processus qui ne s’achève jamais. Les start-up se créent rapidement mais la concurrence se développe au même rythme. Face à un « Velib » qui vous oblige à restituer le vélo à des bornes précises voilà que « Gobee » modifie légèrement l’expérience utilisateur en vous laissant la liberté de laisser le vélo n’importe où. L’avis des clients est devenu une obsession qui nécessite une veille constante pour qu’une mauvaise expérience client exprimée par un avis défavorable, voire assassin, ne vienne pas dégrader la perception des autres clients. Pour rester toujours en pointe en matière d’expérience client de plus en plus d’entreprises collectent et analysent des données. Elles s’en servent pour améliorer l’ergonomie de leur application/plateforme et créer des services qui vont renforcer la satisfaction et le plaisir de l’utilisateur.

Le facteur humain reste essentiel. L’aboutissement de l’expérience client est de créer une émotion alors que paradoxalement l’abus de technologies peut conduire à une déshumanisation des services. On en vient à utiliser des technologies d’intelligence artificielle pour détecter les émotions des clients.  Et finalement si tout ce déluge de technologies n’avait pour but que de recréer les simples plaisirs que nous éprouvions, avant l’arrivée du numérique : échanger un sourire et quelques mots avec le commerçant, rêver en regardant défiler le paysage dans le train sans être tenter de regarder ses mails ou les commentaires sur les réseaux sociaux sur son smartphone ….

 

 

Hôtellerie et restaurateurs à la reconquête des données clients.

L’hôtellerie et la restauration seront-ils les grands perdants du digital ? Les agences de réservation en ligne et les comparateurs de prix les ont dépossédées de leurs données clients. Tout n’est pas perdu pour autant mais il est urgent d’agir. En lançant le premier salon français Food Hotel Tech, Karen Serfaty compte bien sensibiliser le marché et contribuer à créer un écosystème adapté. Karen, que j’ai rencontrée, m’a expliqué pourquoi il était crucial d’agir rapidement.

Les agence de réservations en ligne ont pris le pouvoir. Sur le marché des réservations en ligne, un acteur comme Booking.com règne en roi. Plus de 80% des réservations en ligne passent par lui. Il est incontournable sur Internet et les hôtelleries doivent bon gré malgré composer avec pour assurer le remplissage de leurs chambres. Au passage ils paient un large tribut qui diminue leurs marges d’environ 30%. Mais comment faire autrement. Impossible de ne pas figurer sur ces plateformes de réservations sans se condamner à perdre des clients. La France est la 1ère destination touristique avec ses 85 millions de visiteurs enregistrés l’an dernier pourtant la croissance n’est plus au rendez-vous. Dans le secteur hôtelier, elle ralentit et ne progresse plus que de 2,1%… Dans la restauration, c’est même pire : le chiffre d’affaire du secteur a baissé d’environ 4,5% l’an dernier ! Comment s’explique ce contraste ? Les hôteliers et les restaurateurs doivent se mettre à l’heure de la révolution digitale pour concurrencer les nouveaux acteurs du numérique comme AirBnB. Les plateformes de réservation n’ont pas de limite à l’image d’AirBnB qui évolue progressivement vers une plateforme de voyage et a annoncé récemment vouloir proposer de la réservation de restaurants.

Celui qui détient les données clients règne en maitre.  La présence sur Internet n’est plus une option. Faute de l’avoir anticipé l’hôtellerie a laissé la porte ouverte aux  Booking.com et autres Expedia qui s’y sont engouffrés en offrant au passage un éventail de services qui simplifie la recherche et le choix pour les usagers. Plus grave que la perte de marge, l’hôtellerie a perdu le lien inestimable avec le client : ses données.  Booking.com a compris depuis longtemps comme tous les acteurs du Net que celui qui détient les données client possède un pouvoir considérable en termes de marketing. Il se garde bien de communiquer ses précieuses données aux hôteliers qui ne possèdent péniblement que 25% des adresses email !!! Comment valoriser ses services, en promouvoir des nouveaux, cibler ses clients, personnaliser et contextualiser les messages sans une parfaite connaissance client ? Les acteurs du net sont experts dans l’analyse des données et du marketing digital. Ils maitrisent parfaitement le big data et le machine Learning.  Des géants de l’hôtellerie, comme Accor avec ses 36.000 hôtels dans le monde, pensaient être à l’abri.  Le groupe Accor a compris tardivement la menace et a développé en 2014 un plan « Leading Digital Hospitality » sur cinq ans. Il est urgent de se réapproprier la données clients et de développer de nouveaux services. L’un ne va pas sans l’autre.

Le numérique s’est invité également à la table de la restauration.   Pour l’instant des sociétés comme Deliveroo, Foodora et UberEats jouent la carte du gentil partenaire qui augmente le chiffre d’affaire des restaurants en livrant les plats à domicile. Ce serait une erreur de les confondre avec de simples livreurs. Eux aussi captent les données et les analysent méticuleusement. Ce ne sont pas de simples intermédiaires, ils recommandent les restaurants et les plats en fonction des goûts et des habitudes des clients et proposent de vrais services. On commence aussi à voir des tentatives de créer des tables chez l’habitant. Une tendance qui demande à trouver son public mais qui sait….. Les comportements changent. Le bouche à oreille continue à exister certes mais il prend de plus en plus souvent la forme de recommandations sur internet ou d’applications spécialisées. Les nouvelles générations y ont recours quasi systématiquement.

S’approprier le numérique est la meilleure défense. Les start-up du digital ont déstabilisé le marché de l’hôtellerie et de la restauration mais le numérique peut devenir une opportunité à condition de se retrousser les manches rapidement. La voie est ouverte à toutes les formes d’innovations et les start-up peuvent être vues comme de véritables créateurs de valeur pour les hôteliers et les restaurateurs. Pour Karen Serfaty, « prendre le bon virage
technologique sera déterminant pour faire face à une concurrence accrue dans les marchés de l’hôtellerie et de la restauration, les piliers du secteur touristique ». Pour aider hôteliers et restaurateurs à inverser cette courbe, Karen Serfaty a décidé de lancer Food Hôtel Tech, un événement rassemblant experts, entreprises innovantes et poids lourds des deux secteurs. « Le but du salon est de faciliter les rencontres entre tous ces acteurs pour permettre aux établissements de reconquérir leurs clients perdus », explique-t-elle. « Mais aussi attirer de nouvelles populations grâce à la création de nouveaux services ! » Traitement optimisé des données, dématérialisation des commandes, parcours client simplifié : les professionnels pourront trouver dans les allées du salon l’innovation idéale pour accélérer leur activité rapidement. Et conserver une longueur d’avance sur les trublions du digital.

C’est à ma connaissance le premier salon BtoB dédié aux innovations Tech et Digital dans l’hôtellerie et la restauration. Bonne nouvelle pour les lecteurs du blog vous pouvez vous obtenir un badge gracieusement pour le salon « Food Hôtel Tech » en utilisant le code FHTMAG lors de l’enregistrement sur le site. Première édition du salon les 28 et 29 novembre 2017 à Paris

 

 

 

 

Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »

 

L’innovation n’est pas qu’une question de technologies

Innover exige de sortir du cadre et certaines sociétés de conseil développent de nouvelles approches en y associant des méthodes de design. On voit ainsi arriver des profils de « consultants designers » qui accompagnent les entreprises dans leur transformation. C’est le cas de Tiphaine Lorant et Pauline Audinet, toutes deux consultantes chez weave, qui m’ont éclairé sur la nature de leur métier.

Subir la transformation numérique nuit à son efficacité. Pour survivre à la vague du numérique, les entreprises n’ont pas d’autres choix que d’innover. La transformation numérique est devenue synonyme d’innovation mais elle est trop souvent abordée sous l’angle technologique. Les nouvelles technologies ont indéniablement ouvert la voie à de nouveaux usages et de nouveaux modèles d’affaire mais la transformation numérique va bien au-delà de l’adoption de technologies. Elle modifie considérablement les méthodes de travail, les domaines de responsabilité et le périmètre de certaines professions. Une approche imposée de manière hiérarchique risque fort de se heurter à des résistances et aboutir à une transformation appliquée à reculons de manière incomplète et dans un timing qui s’éternise.

Donner du sens à la transformation pour faciliter l’adhésion. Pour qu’une transformation aboutisse correctement, il faut que tous les membres d’une organisation y trouvent un sens et se l’approprient voire l’incarnent. Rien de mieux pour s’approprier un projet que d’en être le co-concepteur. Pourtant il n’est pas souvent facile de remettre en question les méthodes de travail, l’organisation, les outils sans paraitre négatif voire transgressif. C’est là que des consultants comme Thiphaine et Pauline interviennent. Elles sont consultantes et maitrisent les méthodes de design. A l’heure du numérique on observe une hybridation du conseil et du design que weave désigne sous le nom de « IIF » pour Integrated Innovation Framework . Elle repose sur les 3 P du triptyque People, Place et Process.

Chacun possède une partie de la solution. L’approche IIF s’adapte à de nombreux contextes clients. Par exemple dans une grande institution financière il s’agissait de réfléchir sur la simplification des systèmes d’informations. Sujet d’actualité pour toutes les entreprises aujourd’hui. Les consultants designers comme Tiphaine et Pauline jouent le rôle de facilitateur de la co-construction des projets de transformation. Elles réunissent des personnes de profiles et de responsabilités différentes pour travailler à la conception de solutions concrètes. Il ne s’agit pas d’apprendre aux participants leurs métiers mais de les aider à réfléchir sur leurs contraintes et d’extérioriser les problèmes pour faire émerger des solutions. Sortir du cadre, laisser libre cours à ses idées, échanger sans appréhension est loin d’être aussi naturel qu’il n’y parait. L’expérience d’innovation ne doit pas se contenter d’être enrichissante, elle doit être suivie d’une validation pour s’assurer que les résultats de cette expérience peuvent être opérationnels. Dans un exemple comme celui-ci, des architectes IT ou des experts de la gouvernance IT viennent compléter l’équipe weave pour veiller à une parfaite efficacité.

Un espace pour favoriser l’innovation : Nous avons tous fait l’expérience d’une réunion ou d’un séminaire dont le déroulement avait pâti du lieu choisi. Les entreprises le ressentent et d’ailleurs elles choisissent d’aller au vert pour se sortir de la routine quand cela est nécessaire. L’espace influence l’innovation et son rôle est déterminant dans l’expérience que l’on veut vivre.  weave en a bien conscience à tel point qu’il a créé en mai 2017 « la Friche ». Un espace de 1300 m2 dans Paris conçu pour évoluer entre technologie et nature, disruption et confort. D’entrée de jeu le ton est donné, on accède dans une allée végétale « La Gallery ».

Le « GreenLive » est une sorte d’amphithéâtre cosy où les clients vont élargir leur horizon de réflexions et aborder des sujets sous d’autres points de vue.  Des intervenants weave et des personnalités extérieures sont chargés de provoquer le changement par des présentations décalées. Même impression de détente dans l’espace Bivouac propice au brainstorming. Il s’agit de donner corps à des idées et d’en sélectionner quelques-unes qui feront l’objet d’un prototypage dans l’espace « Garage »

Des méthodes empruntées au développement. L’innovation doit être stimulée et guidée. Plus que la recherche de créativité, on cherche à matérialiser des idées qui ne demandent qu’un coup de pouce pour émerger de nos esprits. On utilise pour y arriver des méthodes de conception de solutions telles que la pensée agile, le lean UX et le design thinking. Elles ne sont pas appliquées de manière systématique et peuvent être combinées ou adaptées en fonction du contexte et du but recherché. L ’agilité sera plutôt axée sur l’idéation et/ou le coaching de groupe, le Lean UX sur l’efficacité et le design thinking pour sortir du cadre et matérialiser des idées en suivant trois phases : inspiration, idéation et prototypage. Ces méthodes s’appliquent aussi bien pour le développement d’un produit que pour l’élaboration d’un organigramme, une prise de décision, une orientation stratégique ou un nouveau business model.

Se transformer commence par un changement d’état d’esprit. Les méthodes de design ne sont que des outils pour faciliter le processus et apporter de la rigueur dans la démarche. Ce sont néanmoins des atouts indéniables pour réussir sa transformation et nous pouvons compter sur les consultants designer pour déplacer nos barrières mentales.