Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.

La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »

 

L’innovation n’est pas qu’une question de technologies

Innover exige de sortir du cadre et certaines sociétés de conseil développent de nouvelles approches en y associant des méthodes de design. On voit ainsi arriver des profils de « consultants designers » qui accompagnent les entreprises dans leur transformation. C’est le cas de Tiphaine Lorant et Pauline Audinet, toutes deux consultantes chez weave, qui m’ont éclairé sur la nature de leur métier.

Subir la transformation numérique nuit à son efficacité. Pour survivre à la vague du numérique, les entreprises n’ont pas d’autres choix que d’innover. La transformation numérique est devenue synonyme d’innovation mais elle est trop souvent abordée sous l’angle technologique. Les nouvelles technologies ont indéniablement ouvert la voie à de nouveaux usages et de nouveaux modèles d’affaire mais la transformation numérique va bien au-delà de l’adoption de technologies. Elle modifie considérablement les méthodes de travail, les domaines de responsabilité et le périmètre de certaines professions. Une approche imposée de manière hiérarchique risque fort de se heurter à des résistances et aboutir à une transformation appliquée à reculons de manière incomplète et dans un timing qui s’éternise.

Donner du sens à la transformation pour faciliter l’adhésion. Pour qu’une transformation aboutisse correctement, il faut que tous les membres d’une organisation y trouvent un sens et se l’approprient voire l’incarnent. Rien de mieux pour s’approprier un projet que d’en être le co-concepteur. Pourtant il n’est pas souvent facile de remettre en question les méthodes de travail, l’organisation, les outils sans paraitre négatif voire transgressif. C’est là que des consultants comme Thiphaine et Pauline interviennent. Elles sont consultantes et maitrisent les méthodes de design. A l’heure du numérique on observe une hybridation du conseil et du design que weave désigne sous le nom de « IIF » pour Integrated Innovation Framework . Elle repose sur les 3 P du triptyque People, Place et Process.

Chacun possède une partie de la solution. L’approche IIF s’adapte à de nombreux contextes clients. Par exemple dans une grande institution financière il s’agissait de réfléchir sur la simplification des systèmes d’informations. Sujet d’actualité pour toutes les entreprises aujourd’hui. Les consultants designers comme Tiphaine et Pauline jouent le rôle de facilitateur de la co-construction des projets de transformation. Elles réunissent des personnes de profiles et de responsabilités différentes pour travailler à la conception de solutions concrètes. Il ne s’agit pas d’apprendre aux participants leurs métiers mais de les aider à réfléchir sur leurs contraintes et d’extérioriser les problèmes pour faire émerger des solutions. Sortir du cadre, laisser libre cours à ses idées, échanger sans appréhension est loin d’être aussi naturel qu’il n’y parait. L’expérience d’innovation ne doit pas se contenter d’être enrichissante, elle doit être suivie d’une validation pour s’assurer que les résultats de cette expérience peuvent être opérationnels. Dans un exemple comme celui-ci, des architectes IT ou des experts de la gouvernance IT viennent compléter l’équipe weave pour veiller à une parfaite efficacité.

Un espace pour favoriser l’innovation : Nous avons tous fait l’expérience d’une réunion ou d’un séminaire dont le déroulement avait pâti du lieu choisi. Les entreprises le ressentent et d’ailleurs elles choisissent d’aller au vert pour se sortir de la routine quand cela est nécessaire. L’espace influence l’innovation et son rôle est déterminant dans l’expérience que l’on veut vivre.  weave en a bien conscience à tel point qu’il a créé en mai 2017 « la Friche ». Un espace de 1300 m2 dans Paris conçu pour évoluer entre technologie et nature, disruption et confort. D’entrée de jeu le ton est donné, on accède dans une allée végétale « La Gallery ».

Le « GreenLive » est une sorte d’amphithéâtre cosy où les clients vont élargir leur horizon de réflexions et aborder des sujets sous d’autres points de vue.  Des intervenants weave et des personnalités extérieures sont chargés de provoquer le changement par des présentations décalées. Même impression de détente dans l’espace Bivouac propice au brainstorming. Il s’agit de donner corps à des idées et d’en sélectionner quelques-unes qui feront l’objet d’un prototypage dans l’espace « Garage »

Des méthodes empruntées au développement. L’innovation doit être stimulée et guidée. Plus que la recherche de créativité, on cherche à matérialiser des idées qui ne demandent qu’un coup de pouce pour émerger de nos esprits. On utilise pour y arriver des méthodes de conception de solutions telles que la pensée agile, le lean UX et le design thinking. Elles ne sont pas appliquées de manière systématique et peuvent être combinées ou adaptées en fonction du contexte et du but recherché. L ’agilité sera plutôt axée sur l’idéation et/ou le coaching de groupe, le Lean UX sur l’efficacité et le design thinking pour sortir du cadre et matérialiser des idées en suivant trois phases : inspiration, idéation et prototypage. Ces méthodes s’appliquent aussi bien pour le développement d’un produit que pour l’élaboration d’un organigramme, une prise de décision, une orientation stratégique ou un nouveau business model.

Se transformer commence par un changement d’état d’esprit. Les méthodes de design ne sont que des outils pour faciliter le processus et apporter de la rigueur dans la démarche. Ce sont néanmoins des atouts indéniables pour réussir sa transformation et nous pouvons compter sur les consultants designer pour déplacer nos barrières mentales.

HPE France se réinvente aux cotés de Picasso primitif

Ce n’est sans doute pas anodin si HPE France avait choisi l’exposition Picasso Primitif pour présenter sa stratégie. Picasso a réinventé à sa manière la vision du monde. Une forme d’innovation artistique qui bouleverse les codes et les règles. HPE se réinvente à son tour et le fait rapidement pour innover dans les infrastructures qui supporteront la croissance du cloud et de l’IoT.


Le monde va trop vite pour nous adapter : il faut se réinventer. Dans un monde en plein bouleversement, il est plus question de réinventer que de s’adapter à en croire Bruno Marion futuriste et spécialiste de la théorie du chaos. Selon lui le monde est devenu chaotique pour 3 raisons. Le nombre d’êtres humains : la population mondiale est passée de 1 milliards à 7,4 milliards en 150 ans. La connexion des individus : la moitié des habitants de la planète sera connectée à internet en 2017. Et surtout la vitesse des changements !! Il a fallu des milliers d’années pour que l’homme se sédentarise en passant de l’ère de la chasse et de la cueillette (nomade) à celui de l’agriculture (sédentaire). L’industrie et le commerce sont apparus 250 ans après l’agriculture et l’élevage. Des périodes de transition suffisamment longues à l’échelle humaine pour que l’on puisse s’adapter. La période actuelle est riche en innovations technologiques qui se succèdent rapidement. Les périodes de transition se réalisent en quelques dizaines d’années. Le cycle de transformation du monde moderne est à l’échelle d’une vie. Dans ces conditions il devient de plus en plus difficile de s’adapter. Loin de tomber dans le pessimisme B. Marion  voit dans ce chaos la possibilité de l’émergence d’un système plus complexe reposant sur un nouvel équilibre.

Cloud et IoT poursuivent la digitalisation de du monde moderne. Sans aller aussi loin dans la théorie du chaos, Gille Thiebaut, Directeur General de HPE France, voit : « un lien entre Picasso et HPE : les deux ont bouleversé leurs domaines, des précurseurs en la matière« . En termes de bouleversements il constate que la cloudification continue sa progression en devenant de plus en plus hybride et pense que l’internet des objets va accentuer la digitalisation du monde avec pour conséquence une profusion accrue des données. Une voiture autonome par exemple produira 4 Téraoctets de données par jour. L’usage de systèmes connectés va obliger à mettre en place des solutions de traitement de type Edge Computing. Il faut s’y préparer car 40% des données générées par l’IoT devront, selon G.Thiebaut, être traitées au plus près des systèmes connectés. Amener l’intelligence là où elle sera le plus efficace c’est ce que compte faire HPE avec l’approche « Intelligent Edge ».

Une stratégie qui allie innovations et acquisitions. Les acteurs de l’IT tels que HPE opèrent de profonds changements pour être plus agiles, plus pertinents et apporter plus de valeur à leur clients. Depuis la création au premier semestre 2016, HPE a progressé à grand pas avec la cession de certaines activités (la division services cédée à DXC Technology, la division logiciel vendue à Micro Focus) et surtout la réalisation de 5 acquisitions en 9 mois  (SGI, Simplivity, Cloud Cruiser, Niara et Nimble Storage)  alignées avec le cœur de métier de l’entreprise. L’innovation continue comme j’avais eu l’occasion de l’expliquer lors du lancement de Synergy (lire le billet). Pour accompagner les clients dans leur transformation avec plus de valeur ajoutée, la stratégie HPE est recentrée autour de 3 axes qui se complètent : Le cloud hybride (infrastructure, pilotage), l’Intelligent Edge (IoT, mobilité, sécurité) et les services regroupés récemment sous le nom de HPE Pointnext.

Intelligent Edge : Adapter le traitement de données à l’évolution des usages.  Visiblement le sujet passionne G.Thiebaut qui explique avec force détails comment les solutions Intelligent Edge vont renforcer l’expérience digitale dans trois domaines.

  • L’espace de travail digital : Avec l’offre Aruba, HPE met en œuvre des solutions de sécurité et de géolocalisation qui étendent les possibilités de l’espace de travail. Un bâtiment de bureaux partagés pourra par exemple proposer un service d’impression à proximité de la personne et trouver une salle de réunion disponible et la réserver en se servant d’informations en temps réel.
  • Les espaces intelligents. Les solutions de mobilité enrichissent la relation avec les clients ou qu’ils se trouvent. L’aéroport de Rio rénové à l’occasion des jeux Olympiques illustre ce qui peut être fait dans ce domaine. Les passagers s’orientent dans l’aéroport, le trafic des passagers à l’intérieur de l‘aéroport est analysé et amélioré et des offres commerciales personnalisées peuvent être envoyées en tenant compte des profils des passagers.
  • Les objets connectés: Tous les domaines sectoriels peuvent bénéficier de l’internet des objets. Gilles Thiebaut a donné l’exemple de l’agriculture et tout particulièrement celui de palmeraies en Malaisie qui ont été équipées de nombreux capteurs fournissant toutes sortes de mesures. Avec l’aide de la société Immarsat, spécialiste des télécommunications satellitaires, HPE a capturé ces données transmises par satellite sur une plateforme HPE. Ces données ont ensuite été encapsulées et mises à disposition d’application pour suivre l’exploitation des palmeraies et en améliorer le rendement.

 Les usages du numériques sont devenus une réalité et modifient notre quotiden privé et professionnel. Cela peut perturber mais c’est irrésistible alors souhaitons donc, avec l’aide des constructeurs et des entreprises, que du « chaos » cher à B.Marion émerge une société meilleure