La nouvelle Vice présidente Cloud présente la stratégie d’IBM

   Agnieszka Bruyère a été nommée récemment au poste de Vice-Présidente Cloud Chez IBM. Elle maitrise déjà parfaitement le sujet. En compagnie de Ouafaa El Moumouhi, Directrice Watson et Cloud Platform, Agnieska Bruère a rappelé la stratégie Cloud d’IBM. Le cloud se rapproche du business mais doit dans le même temps veiller à simplifier l’utilisation des infrastructures dans un cloud devenu hybride et multi clouds.

Le cloud devient un vecteur d’accélération business. Progressivement le Cloud s’est imposé aux entreprises. En France depuis deux ans l’adoption s’est accélérée de façon notoire. Au début du cloud on y voyait un moyen simple et économique d’accéder à des ressources informatiques à la demande sous forme de services. Aujourd’hui le cloud devient un catalyseur d’innovation et un pilier incontournable de la transformation numérique. On s’intéresse d’avantage aux usages et aux métiers de l’IT qu’aux infrastructures à proprement parlé. Le rythme effréné d’apparition des nouvelles technologies qui sous-tendent les nouveaux usages et bousculent les modèles d‘affaires traditionnels mettent les entreprises sous pression. Il leur faut gagner en agilité pour être en mesure d’innover. L’agilité n’est plus seulement dans l’infrastructure IT mais surtout dans le développement des applications qui vont transcrire les nouveaux usages en code. Pour rester dans la course dans une économie numérique, les entreprises doivent s’intéresser au big data, à l’internet des objets (IoT), à la blockchain, à l’intelligence artificielle … Autant de tendances technologiques qui requièrent des compétences nouvelles et d’importants investissements.  Impossible pour une entreprise de faire face seule à autant de défis technologiques. Dans un tel contexte le cloud s’est doté d’un nombre considérable de nouveaux services. Dans le cloud IBM on compte plus de 170 services liés aux infrastructures et surtout à ces nouvelles technologies. Ces services vont en accélérer l’adoption et faciliter la vie des développeurs, que ces derniers travaillent avec des serveurs physiques ( bare metal), des machines virtuelles, des containers ou en environnement « serverless ».  Rien que pour l’intelligence artificielle on peut trouver un nombre important de services « Watson » autour du traitement en langage naturel, de la reconnaissance visuelle et du machine learning. Pour que ces services puissent s’intégrer parfaitement avec les applications des entreprises, IBM a soigné tout particulièrement la gestion des APIs.

Le cloud hybride ne doit pas s’accompagner d’une nouvelle complexité.La rivalité entre cloud privé et cloud public a fait long feu. Les clients ont tranché, le cloud est hybride. Selon IDC 80% des entreprises utiliseront du cloud hybride et combineront cloud privé, cloud public et des infrastructures traditionnelles résidant sur le site de l’entreprise (on premise). Dans un tel contexte le risque est grand de reproduire la complexité que l’on a connue avec les silos de l’informatique du passé. Du côté applications, la modernisation est en place pour les adapter aux exigences des nouveaux usages. L’échelle de temps a changé. Il faut pouvoir mettre rapidement sur le marché de nouvelles applications et être capable de les faire évoluer régulièrement sans impact sur la production et le service.  Les nouvelles applications, qu’on appelle également « Cloud Native Application », sont conçues autour de microservices qui apportent une plus grande agilité durant leur cycle de vie. La containerisation des applications accompagne l’utilisation des microservices et en facilitent la gestion. La stratégie Cloud d’IBM reflète cette hybridation et la containerisation. Les entreprises doivent être libérées de toute complexité pour pouvoir se concentrer sur le développement des nouveaux usages. Pour cela il faut pouvoir disposer d’une architecture unique quel que soit le cloud. IBM a donc fait le choix de Kubernetes pour constituer le socle commun au cloud privé et au cloud public. A ce socle, IBM a également rassemblé un ensemble de logiciels Open Source pour fournir une gestion complète des containeurs. La plateforme Istio permet par exemple de gérer un réseau de microservices. Istio s’éxécute dans IBM Cloud Kubernetes Service et donne la possibilité de : surveiller le trafic réseau, équilibrer la charge entre microservices, renforcer les politiques de sécurité etc….Les équipements matériels perdent de leur importance au profit du logiciel. Le Cloud privé d’IBM est avant tout du logiciel qui va pouvoir s’installer sur n’importe quelle plateforme matérielle.

La mission du cloud s’est élargie. Les services proposés se rapprochent du business et des usages. Le cloud monte en valeur mais doit veiller constamment à ce que les infrastructures sous-jacentes soient alignées avec les nouveaux besoins applicatifs et adaptées aux environnements hybrides.

Adobe Summit : L’expérience client prime sur le produit

Plus de 5000 personnes étaient réunies pour l’Adobe Summit 2018 à Londres. Après avoir réussi son évolution dans le cloud, Adobe adopte l’intelligence artificielle avec Adobe Sensei.  Omniprésente dans les offres Adobe, L’intelligence artificielle a pour objectif de permettre aux entreprises de construire des expériences clients de qualité à grande échelle.

« Making Experience your business ». Adobe a annoncé clairement la couleur.  Les termes « Experience utilisateur » ont envahi les discours marketing sans toujours se concrétiser dans les faits. Pourtant l’enjeu est crucial pour les entreprises car désormais dans l’esprit des consommateurs la qualité de l’expérience a pris le pas sur le produit lui-même. Une étude Forrester, présentée par Brad Rencher ( Adobe executive vice president and general manager of Experience Cloud) illustre parfaitement l’enjeu économique pour les entreprises. Les innovations technologiques ont ouvert d’immenses possibilités mais ne se suffisent pas à elles seules. Le CEO d’Adobe Shantanu Narayen a rappelé qu’aussi excitantes que soient les technologies pour réussir il faut se concentrer sur le « design » de l’expérience.  L’empathie avec le consommateur doit bien sur guider les développements mais construire une expérience réussie nécessite de repenser l’architecture de l’entreprise autour de la donnée et de l’intelligence artificielle.

L’omniprésence de l’intelligence artificielle dans l’offre Adobe. Concrètement pour Adobe cela consiste en une intégration complète entre Adobe Cloud Plateform et Adobe Sensei, le framework de machine learning. Désormais toutes les fonctions des produits Adobe peuvent faire appel à des fonctions d’intelligence artificielle sans que l’utilisateur en ait nécessairement conscience si ce n’est en constatant la puissance des outils. L’intelligence artificielle est omniprésente et c’est logique. Automatiser les campagnes marketing, optimiser les parcours clients, construire des publicités et adapter automatiquement leur format au support, analyser en temps réel les impacts et les performances d’une image ou d’une campagne. Les exemples ne manquent pas. Le marketing d’aujourd’hui fonctionne en temps réel et utilise massivement les vidéos et les images. Être capable de distinguer dans ces images des formes et des objets pour les taguer ou les modifier en temps réel devient impossible sans l’intelligence artificielle.

Déployer l’expérience à l’échelle d’une entreprise. Le digital a multiplié les canaux par lesquels on peut interagir avec les clients et les données sur les consommateurs prolifèrent. On ne peut espérer offrir une expérience utilisateur de qualité sans avoir au préalable créer un profil unifié du client.  C’est un véritable enjeu pour les entreprises qui disposent d’une multitude de systèmes qui génèrent leurs propres données. Ces données n’ont d’intérêt que si on est capable de les consolider et de les transformer en informations utiles et exploitables pour déclencher des actions. Pour y arriver  l’entreprise doit disposer d’une infrastructure technologique capable de gérer et de donner du sens aux données et aux contenus.

C’est l’objectif de « l’experience system of records », présenté par Brad Rencher, qui propose de concevoir, de mesurer et d’optimiser une expérience client omnicanal qui fournit une hyperpersonnalisation et qui apprend toujours d’avantage avec les interactions clients.

En quelques années Adobe a accompli une véritable révolution. Adobe s’affiche désormais comme un acteur complet de la transformation digitale comme ont pu en témoigner des entreprises comme Virgin Atlantic, Shell, HSBC ou Nissan.  Bon nombre d’entreprises ont souligné que la difficulté ne consistait pas seulement à fournir une expérience de qualité mais qu’il fallait pouvoir le faire à l’échelle de toute l’entreprise sur tous les canaux et vis à vis de tous les clients. « L’experience at scale » est inenvisageable sans l’intelligence artificielle.  De la même manière qu’il est impossible d’imaginer un aéroport fonctionnant sans informatique, l’expérience utilisateur de demain sera impossible sans IA.  Adobe Sensei unifie l’Intelligence Artificielle pour libérer la créativité, analyser les contenus et fournir une expérience incomparable. Pour faciliter l’utilisation de l’IA et l’intégration des offres Adobe avec des produits partenaires, Adobe a annoncé un « Data Science workspace » ainsi que des services Adobe Sensei pour les développeurs. Les data scientists ont ainsi la possibilité des créer des services intelligents en exploitant Adobe Sensei via des APIs (Application Programming Interfaces). Ces services peuvent fonctionner avec d’autres services Adobe tels qu’Adobe Target et Adobe Analytics Cloud pour automatiser la personnalisation et le ciblage d’expériences digitales dans le web, sur ordinateurs portable ou avec des applications mobiles.

Pour continuer dans le sens de la collaboration et de l’adoption des technologies Adobe a également annoncé le programme« Experience League ».On y trouve un certain nombre d’outils et de documentation, la mise en place d’une communauté et l’accès à des experts.

 

 

 

Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.

La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »