Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s