Le numérique augmente la vulnérabilité des entreprises

Les cyberattaques se sont élevées au 5 cinquième rang des risques qui menacent les entreprises. Bien que les pertes financières soient rarement communiquées, Zurich Insurance estime leur coût pour les entreprises à environ 8.000 milliards de dollars sur les cinq prochaines années. Selon certains experts 92% des entreprises auraient eu à subir au moins une cyberattaque en 2017. Les fameuses attaquent Wannacry puis NotPeyta ont démontré que les effets pouvaient toucher toutes les entreprises et tous les organismes. Plus nombreuses et plus sophistiquées les cyberattaques surfent sur les nouveaux usages du numérique et exploitent toutes les vulnérabilités.

Le progrès numérique s’accompagne d’une plus grande vulnérabilité.Le numérique est partout : dans un hôpital, dans la ville intelligente, dans les véhicules connectés, dans nos logements…. Avec le développement de l’internet des objets, chaque objet peut devenir une menace. Les pirates les détournent pour lancer des attaques massives et saturer les serveurs informatiques des entreprises. Selon les experts de Check Point un million d’objets connectés auraient déjà été infectés dans le but de faire tomber une partie des serveurs internet américains dans les prochains mois (lire l’article de Capital). La mobilité est devenue incontournable mais oblige les responsables de la sécurité à repenser leurs méthodes. On ne sécurise plus un ordinateur de bureau fourni par l’entreprise mais on doit gérer la connexion de smartphones, de tablettes et d’ordinateurs portables qui appartiennent bien souvent à l’utilisateur (BYOD), à un client ou à un invité. Ils contiennent aussi bien des applications professionnelles que privées. Il faudra prendre en compte également les applications à base d’intelligence artificielle. On s’émerveille des prouesses réalisées par l’intelligence artificielle mais comment garantir qu’elle ne sera pas détournée lors de sa phase d’apprentissage ou en phase d’exploitation (inférence).

Des attaques plus discrètes et plus efficaces.Le contexte du numérique est particulièrement complexe et mouvant. Aucune solution ne garantit d’être protégé à 100 %. British Airway a subi récemment des vols de données et dernièrement Marriott a découvert une faille dans sa base de données de réservationsde sa succursale Starwood. L’apparition de nouvelles menaces rend les solutions traditionnelles moins efficaces. Les antivirus et les pare-feu ne sont efficaces que pour des menaces connues avec des signatures répertoriées. Malheureusement les pirates sont ingénieux. Aux techniques de Phishing, DDoS, Ramsonware viennent se rajouter le cryptojacking pour utiliser frauduleusement des ressources informatiques ou bien encore le fileless (attaque sans fichier). La réglementation comme la RGPD impose aux entreprises de signaler les vols de données 72 h après la notification initiale mais de plus en plus d’attaques sont difficilement détectables. Certaines prennent la forme de « credential stuffing » et pillent discrètement les données personnelles le plus longtemps possible à partir d’informations d’identification préalablement dérobées.

Nouveaux défis à la sécurité : le Cloud et les nouvelles applications. La vulnérabilité de notre économie moderne aux cyberattaques est un problème rendu encore plus complexe par le recours au cloud et par les nouvelles méthodes de développement d’applications. Les applications modernes se répartissent de plus en plus souvent dans des clouds hybrides et des multicloud qui font appel à des fournisseurs différents. Comment avoir la visibilité d’une application sur l’ensemble ? Comment disposer d’une sécurité consistante et homogène sur la totalité des clouds ? On a vu apparaitre les applications dites « cloud natives ». Contrairement aux applications traditionnelles assez monolithiques, les nouvelles applications utilisent des microservices et des containers. Elles sont plus faciles à faire évoluer mais elles nécessitent de nombreux composants qui augmentent d’autant la surface d’attaque. Signe des temps modernes, pour innover les applications changent régulièrement, on les met à jour et on y ajoute de nouvelles fonctions. Elles sont dans des modes de développement et d’intégrations continus. Pour assurer la fluidité entre le développement et la production les entreprises adoptent des approches DevOps. Certains aimeraient que la sécurité soit intégrée dans une approche « SecDevOps ».

IA et sécurité by design au secours de la cybersécurité. Les dépenses pour la sécurité sont conséquentes mais l’efficacité ne suit pas pour autant. Il ne suffit pas d’empiler les produits. Les solutions de protection doivent s’accompagner de mesures de remédiation exhaustives (isolation, segmentation ..). Face aux menaces très sophistiquées (APT Adanced Persistent Threat) réputées indétectables de nouvelles approches sont nécessaires. Impossible d’avoir une solution prête pour chaque menace. On doit se concentrer sur les valeurs à protéger (les données et les applications) et sur tous les comportements suspects. L’intelligence artificielle aura sans doute un rôle grandissant dans le domaine de la sécurité grâce à sa capacité à reconnaitre rapidement des patterns suspectes dans des volumes de données importants. Des domaines comme les « User and Entity Behavior Analytics » UEBA devraient en tirer avantage. La « sécurité by design » devrait être imposée. Les dernières générations de puces informatiquescommencent à intégrer ce principe. On ne peut que souhaiter que ce principe soit généralisé aux objets connectés en attendant ce sera au réseau d’être lui-même « sécurisé by design » pour compenser.

Heureusement pour nous l’intelligence artificielle n’est pas qu’une technologie.

Serons-nous un jour confrontés à une intelligence artificielle si évoluée que nous aurions du mal à la distinguer d’un être humain comme dans le film Ex Machina sorti en 2015 ? Paradoxalement à l’heure de l’intelligence artificielle faire des prévisions sur ce sujet reste un grand défi. Déjà en 1950 Alan Turing pensait qu’une machine serait capable de réussir son test éponyme en 2000. Ce n’est toujours pas le cas !! En 2005 Ray Kurzweil dans son livre « The singularity is near » situe le point de singularité en 2045. Depuis 2012 les progrès sont si rapides dans le domaine du deep learning que l’on peut comprendre les interrogations sur l’avenir de nos emplois mais cela ne doit pas devenir une obsession paralysante qui masquerait les aspects positifs de ces évolutions.

l’IA n’est pas une technologie mais une science dont le champ d’application évolue rapidement en fonction des avancées technologiques. Pour se convaincre que l’IA n’est pas qu’une technologie il faut se rappeler que le mot algorithme tire son origine du nom du mathématicien Al-Kwarizmi qui vivait au 9 ème siècle a Bagdad et n’avait donc aucun moyen informatique a sa disposition. L’économie moderne est devenue une économie numérique dont la matière première est la donnée. Au rythme où nous produisons les données il n’est humainement plus possible de les traiter avec des moyens conventionnels. Tous les professionnels que ce soient des médecins, des chercheurs, des avocats, des ingénieurs, des marketeurs sont confrontés à cette « infobésité ». Cette profusion d’informations est source de connaissance approfondie et de progrès mais encore faut-il pouvoir l’exploiter de manière rapide pour produire des effets positifs à l’échelle humaine. Les progrès sont tels en deep learning que les taux d’erreur dans la reconnaissance d’image sont inférieurs a ceux des être humains. Détecter les tumeurs ou anticiper les effets d’un traitement anticancéreux avec précision sont devenus possibles. Cette année la Food Drug Administration a d’ailleurs validé l’usage d’une IA pour détecter la rétinopathie diabétique responsable de cécité. Aujourd’hui on ne remet plus en cause l’utilisation de l’informatique dans le monde moderne. Il est inenvisageable de s’en passer pour gérer le trafic aérien ou ferroviaire, calculer notre comptabilité ou commander sur internet. La technologie a déjà « amplifié » les compétences des professionnels et les médecins savent « numériser » le corps humain. Nous rentrons logiquement dans la phase suivante consistant à exploiter d’avantage les données à notre disposition et l’IA sera incontournable. On pourra difficilement faire l’impasse de l’intelligence artificielle pour gérer les smartcities quand on sait que plus de la moitié de la population humaine vit déjà en ville et que cela va s’accentuer dans les années à venir.
Devons-nous devenir des experts de l’intelligence artificielle ? Tous les jeunes séduits par l’IA sont promis à un bel avenir mais tout le monde n’a pas l’appétence pour les mathématiques, le code ou pour la technologie. L’informatique n’a pas fait de nous des informaticiens par contre il est évident que tout le monde dans sa vie professionnelle ou privée utilise des outils ou des applications qui reposent sur des moyens informatiques. Heureusement pour nous, nous ne sommes pas obligés de connaitre les dessous de l’informatique pour envoyer un email ou consulter notre banque sur internet. Il est cependant essentiel de se former constamment aux nouveaux outils liés à notre emploi et de comprendre comment ils vont faire évoluer notre fonction dans l’entreprise. Fini le cloisonnement fonctionnel, collaborer sera un impératif grandissant. De plus en plus d’éditeurs comme Salesforce ou Adobe intègrent de l’intelligence artificielle dans leurs offres. On doit aussi être en veille constante pour guetter l’arrivée des nouveaux métiers qui n’ont pas encore été imaginés. Car c’est sur cela que notre esprit bute. On identifie assez bien les emplois qui seront impactés par l’arrivée de l’IA même si on peine à préciser dans quelle mesure. Par contre il est extrêmement difficile de se projeter dans le futur et de concevoir,et encore plus de nommer, les futurs emplois engendrés directement ou indirectement par l’intelligence artificielle. Les étudiants qui rentraient dans les écoles de commerce au début des années 2010 ont eu la surprise de découvrir en arrivant en entreprise quantité de nouveaux métiers dans le marketing dont ils n’avaient pas entendu parler durant leurs études. C’est un véritable défi que doivent relever les écoles et les universités pour adapter leurs cursus à un environnement professionnel en constante évolution.

adobe

L’experience digitale et l’intelligence artificielle. La technologie peut faire peur et il est nécessaire de la démystifier pour éviter qu’elle ne nous paralyse. C’est un des objectifs de l’entretien que j’aurai avec David Deraedt lors de l’Adobe Symposium qui se tient à Paris le 13 novembre 2018. Nous nous concentrerons sur « l’expérience digital » pour analyser comment les équipes marketing peuvent faire face eux enjeux de la personnalisation et de l’interaction quasi permanente grâce à l’intelligence artificielle. Le marketing numérique a créé de nombreuses nouvelles fonctions au sein des équipes marketing, l’intelligence artificielle va poursuivre dans la même voie et ouvrir un incroyable champ des possibles.

lire également :

l’intelligence artificielle , une imitatrice de génie

L’intelligence artificielle, une imitatrice de génie

A en croire certains analystes la vie ne serait qu’une combinaison d’algorithmes. Partant de ce principe et confiant dans une technologie sans limite on imagine donc que l’intelligence artificielle (IA) dépassera un jour (qu’on appelle singularité technologique) les capacités humaines. Si cela est vrai reste à préciser à quel horizon car même si l’IA progresse de plus en plus rapidement, elle encore loin d’égaler la sophistication d’un cerveau humain. Il n’en demeure pas moins que sans verser dans le catastrophisme il est important d’anticiper les changements que l’IA nous prépare.

robot-3490522_1920-002-e1539450275897.jpg
L’IA moins intelligente que l’homme mais plus rapide. L’IA compense son manque « d’intelligence » par d’importantes puissances de traitements informatiques. Si l’IA a décollé au début des années 2010 alors qu’elle existe depuis les années 50 cela est du aux progrès réalisés en termes de moyens informatiques et à l’abondance de données. Sans faire ombrage aux compétences et à la qualité des chercheurs et des développeurs, l’apprentissage des machines est rudimentaire comparé à l’efficacité du cerveau. Un enfant est capable de nommer un objet après qu’on lui ait répéter quelques fois son nom alors qu’une IA aura besoin de voir plusieurs millions d’images associées à des labels (étiquettes en mode supervisé) pour reconnaitre un objet. En 2012 Google Brain avait réussi à découvrir le concept de chat (en mode non supervisé) après qu’on lui ait fait analyser 10 millions de captures d’écran de vidéo de chats en utilisant de puissants ordinateurs. L’IA réduit l’échelle de temps de l’apprentissage. Si Alpha GO a réussi à battre le champion du monde de GO en 2016, ce n’est pas qu’il était plus brillant que le champion Lee Sedol mais parce que sa puissance de traitement lui a permis d’apprendre en peu de temps ce qui avait pris des années à Lee Sedol. La machine apprend grâce aux données qu’on lui injecte. On est encore loin des capacités d’un être humain qui explore son environnement, expérimente et s’adapte. On y travaille bien sûr et c’est tout le sens des travaux sur l’apprentissage par renforcement « reinforcement Learning ». L’IA utilise dans ce cas-là les données à la volée pour se créer sa propre expérience. Inutile de dire que c’est bien plus complexe.

L’homme : un « rôle model » pour l’IA. On avance mais il faut rester humble et s’abstenir de toute prévision aventureuse même si on ne peut qu’être surpris par les progrès réalisés ces dernières années. On a tendance à vouloir poser sur l’IA un regard anthropomorphique influencé par des dizaines de films de sciences fiction. Certains veulent doter l’IA d’empathie. On est là plus dans l’imitation que dans le ressenti ou l’émotion. Qu’en est il de l’intuition, de l’imagination, de la créativité ? Des algorithmes eux aussi ? Le cerveau humain est un sujet d’étude pour l’homme avec les neurosciences qui tentent de comprendre les mécanismes d’apprentissage de notre cerveau. Ce qui fait l’originalité de l’homme c’est souvent une pointe d’imperfection qui se transforme en différentiation et le hasard vient souvent au secours de son inventivité. On cite de plus en plus de cas de créations réalisées par une IA. Une peinture, de la musique, des articles de presses …. Mais dans tous les cas l’IA a trouvé son inspiration dans les données. Elle créée « à la manière de ». Ce qui rend la création unique c’est d’abord l’envie de créer. L’envie est-elle un algorithme qui rentre dans les cordes de l’IA ? La créativité est une étrange alchimie de la culture, des influences, de l’éducation et du vécu : tout ce qui forme notre personnalité, notre sensibilité, notre humanité. L’IA pourra peut-être un jour s’approcher de cette « humanité » mais pour encore longtemps l’IA se contentera de créer à « la manière de ». Une raison de plus de s’inquiéter des biais introduits lors du développement d’une IA par ses concepteurs.

jobs blog

Pour collaborer avec l’IA nous allons devoir adapter nos compétences. L’IA comme beaucoup de technologies qui l’ont précédée va permettre d’explorer de nouvelles pistes et d’amplifier le potentiel humain. Voyons-la davantage comme un outil fantastique qui augmente nos capacités que comme un rival qui va limiter notre champ d’action. Pas question pour autant d’être naïf. L’IA va affecter nos métiers et les entreprises comme l’avait fait l’informatique en son temps mais à un rythme accéléré. C’est justement sur ces qualités humaines de création et d’innovation que nous devons capitaliser pour nous distinguer de l’IA et collaborer avec elle. Une récente étude du forum économique international (« future of jobs 2018 ») nous rassure en expliquant que l’IA devrait créer plus d’emplois qu’il n’en détruira mais elle insiste sur le fait que nous rentrons dans une zone d’instabilité des compétences à laquelle nous devons nous préparer. Parmi les 10 compétences qui seront recherchées en 2022, d’après cette étude, on trouve en tête : pensée analytique et innovation, capacité d’apprendre et créativité, originalité, esprit d’initiative. Autant de qualités qui continueront pour longtemps encore à nous distinguer des machines aussi intelligentes soient elles. Apparemment les écoles de commerces et d’ingénieurs ( Le design thinking » essaime dans l’enseignement supérieur ) sont sensibles à ce changement de profile des compétences et commencent à intégrer le design thinking dans leur cursus.

La nouvelle Vice présidente Cloud présente la stratégie d’IBM

   Agnieszka Bruyère a été nommée récemment au poste de Vice-Présidente Cloud Chez IBM. Elle maitrise déjà parfaitement le sujet. En compagnie de Ouafaa El Moumouhi, Directrice Watson et Cloud Platform, Agnieska Bruère a rappelé la stratégie Cloud d’IBM. Le cloud se rapproche du business mais doit dans le même temps veiller à simplifier l’utilisation des infrastructures dans un cloud devenu hybride et multi clouds.

Le cloud devient un vecteur d’accélération business. Progressivement le Cloud s’est imposé aux entreprises. En France depuis deux ans l’adoption s’est accélérée de façon notoire. Au début du cloud on y voyait un moyen simple et économique d’accéder à des ressources informatiques à la demande sous forme de services. Aujourd’hui le cloud devient un catalyseur d’innovation et un pilier incontournable de la transformation numérique. On s’intéresse d’avantage aux usages et aux métiers de l’IT qu’aux infrastructures à proprement parlé. Le rythme effréné d’apparition des nouvelles technologies qui sous-tendent les nouveaux usages et bousculent les modèles d‘affaires traditionnels mettent les entreprises sous pression. Il leur faut gagner en agilité pour être en mesure d’innover. L’agilité n’est plus seulement dans l’infrastructure IT mais surtout dans le développement des applications qui vont transcrire les nouveaux usages en code. Pour rester dans la course dans une économie numérique, les entreprises doivent s’intéresser au big data, à l’internet des objets (IoT), à la blockchain, à l’intelligence artificielle … Autant de tendances technologiques qui requièrent des compétences nouvelles et d’importants investissements.  Impossible pour une entreprise de faire face seule à autant de défis technologiques. Dans un tel contexte le cloud s’est doté d’un nombre considérable de nouveaux services. Dans le cloud IBM on compte plus de 170 services liés aux infrastructures et surtout à ces nouvelles technologies. Ces services vont en accélérer l’adoption et faciliter la vie des développeurs, que ces derniers travaillent avec des serveurs physiques ( bare metal), des machines virtuelles, des containers ou en environnement « serverless ».  Rien que pour l’intelligence artificielle on peut trouver un nombre important de services « Watson » autour du traitement en langage naturel, de la reconnaissance visuelle et du machine learning. Pour que ces services puissent s’intégrer parfaitement avec les applications des entreprises, IBM a soigné tout particulièrement la gestion des APIs.

Le cloud hybride ne doit pas s’accompagner d’une nouvelle complexité.La rivalité entre cloud privé et cloud public a fait long feu. Les clients ont tranché, le cloud est hybride. Selon IDC 80% des entreprises utiliseront du cloud hybride et combineront cloud privé, cloud public et des infrastructures traditionnelles résidant sur le site de l’entreprise (on premise). Dans un tel contexte le risque est grand de reproduire la complexité que l’on a connue avec les silos de l’informatique du passé. Du côté applications, la modernisation est en place pour les adapter aux exigences des nouveaux usages. L’échelle de temps a changé. Il faut pouvoir mettre rapidement sur le marché de nouvelles applications et être capable de les faire évoluer régulièrement sans impact sur la production et le service.  Les nouvelles applications, qu’on appelle également « Cloud Native Application », sont conçues autour de microservices qui apportent une plus grande agilité durant leur cycle de vie. La containerisation des applications accompagne l’utilisation des microservices et en facilitent la gestion. La stratégie Cloud d’IBM reflète cette hybridation et la containerisation. Les entreprises doivent être libérées de toute complexité pour pouvoir se concentrer sur le développement des nouveaux usages. Pour cela il faut pouvoir disposer d’une architecture unique quel que soit le cloud. IBM a donc fait le choix de Kubernetes pour constituer le socle commun au cloud privé et au cloud public. A ce socle, IBM a également rassemblé un ensemble de logiciels Open Source pour fournir une gestion complète des containeurs. La plateforme Istio permet par exemple de gérer un réseau de microservices. Istio s’éxécute dans IBM Cloud Kubernetes Service et donne la possibilité de : surveiller le trafic réseau, équilibrer la charge entre microservices, renforcer les politiques de sécurité etc….Les équipements matériels perdent de leur importance au profit du logiciel. Le Cloud privé d’IBM est avant tout du logiciel qui va pouvoir s’installer sur n’importe quelle plateforme matérielle.

La mission du cloud s’est élargie. Les services proposés se rapprochent du business et des usages. Le cloud monte en valeur mais doit veiller constamment à ce que les infrastructures sous-jacentes soient alignées avec les nouveaux besoins applicatifs et adaptées aux environnements hybrides.

Adobe Summit : L’expérience client prime sur le produit

Plus de 5000 personnes étaient réunies pour l’Adobe Summit 2018 à Londres. Après avoir réussi son évolution dans le cloud, Adobe adopte l’intelligence artificielle avec Adobe Sensei.  Omniprésente dans les offres Adobe, L’intelligence artificielle a pour objectif de permettre aux entreprises de construire des expériences clients de qualité à grande échelle.

« Making Experience your business ». Adobe a annoncé clairement la couleur.  Les termes « Experience utilisateur » ont envahi les discours marketing sans toujours se concrétiser dans les faits. Pourtant l’enjeu est crucial pour les entreprises car désormais dans l’esprit des consommateurs la qualité de l’expérience a pris le pas sur le produit lui-même. Une étude Forrester, présentée par Brad Rencher ( Adobe executive vice president and general manager of Experience Cloud) illustre parfaitement l’enjeu économique pour les entreprises. Les innovations technologiques ont ouvert d’immenses possibilités mais ne se suffisent pas à elles seules. Le CEO d’Adobe Shantanu Narayen a rappelé qu’aussi excitantes que soient les technologies pour réussir il faut se concentrer sur le « design » de l’expérience.  L’empathie avec le consommateur doit bien sur guider les développements mais construire une expérience réussie nécessite de repenser l’architecture de l’entreprise autour de la donnée et de l’intelligence artificielle.

L’omniprésence de l’intelligence artificielle dans l’offre Adobe. Concrètement pour Adobe cela consiste en une intégration complète entre Adobe Cloud Plateform et Adobe Sensei, le framework de machine learning. Désormais toutes les fonctions des produits Adobe peuvent faire appel à des fonctions d’intelligence artificielle sans que l’utilisateur en ait nécessairement conscience si ce n’est en constatant la puissance des outils. L’intelligence artificielle est omniprésente et c’est logique. Automatiser les campagnes marketing, optimiser les parcours clients, construire des publicités et adapter automatiquement leur format au support, analyser en temps réel les impacts et les performances d’une image ou d’une campagne. Les exemples ne manquent pas. Le marketing d’aujourd’hui fonctionne en temps réel et utilise massivement les vidéos et les images. Être capable de distinguer dans ces images des formes et des objets pour les taguer ou les modifier en temps réel devient impossible sans l’intelligence artificielle.

Déployer l’expérience à l’échelle d’une entreprise. Le digital a multiplié les canaux par lesquels on peut interagir avec les clients et les données sur les consommateurs prolifèrent. On ne peut espérer offrir une expérience utilisateur de qualité sans avoir au préalable créer un profil unifié du client.  C’est un véritable enjeu pour les entreprises qui disposent d’une multitude de systèmes qui génèrent leurs propres données. Ces données n’ont d’intérêt que si on est capable de les consolider et de les transformer en informations utiles et exploitables pour déclencher des actions. Pour y arriver  l’entreprise doit disposer d’une infrastructure technologique capable de gérer et de donner du sens aux données et aux contenus.

C’est l’objectif de « l’experience system of records », présenté par Brad Rencher, qui propose de concevoir, de mesurer et d’optimiser une expérience client omnicanal qui fournit une hyperpersonnalisation et qui apprend toujours d’avantage avec les interactions clients.

En quelques années Adobe a accompli une véritable révolution. Adobe s’affiche désormais comme un acteur complet de la transformation digitale comme ont pu en témoigner des entreprises comme Virgin Atlantic, Shell, HSBC ou Nissan.  Bon nombre d’entreprises ont souligné que la difficulté ne consistait pas seulement à fournir une expérience de qualité mais qu’il fallait pouvoir le faire à l’échelle de toute l’entreprise sur tous les canaux et vis à vis de tous les clients. « L’experience at scale » est inenvisageable sans l’intelligence artificielle.  De la même manière qu’il est impossible d’imaginer un aéroport fonctionnant sans informatique, l’expérience utilisateur de demain sera impossible sans IA.  Adobe Sensei unifie l’Intelligence Artificielle pour libérer la créativité, analyser les contenus et fournir une expérience incomparable. Pour faciliter l’utilisation de l’IA et l’intégration des offres Adobe avec des produits partenaires, Adobe a annoncé un « Data Science workspace » ainsi que des services Adobe Sensei pour les développeurs. Les data scientists ont ainsi la possibilité des créer des services intelligents en exploitant Adobe Sensei via des APIs (Application Programming Interfaces). Ces services peuvent fonctionner avec d’autres services Adobe tels qu’Adobe Target et Adobe Analytics Cloud pour automatiser la personnalisation et le ciblage d’expériences digitales dans le web, sur ordinateurs portable ou avec des applications mobiles.

Pour continuer dans le sens de la collaboration et de l’adoption des technologies Adobe a également annoncé le programme« Experience League ».On y trouve un certain nombre d’outils et de documentation, la mise en place d’une communauté et l’accès à des experts.

 

 

 

Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.