Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

L’hyperconvergence au secours des datacenters

Remises en cause par des startups dotées d’une agilité sans contrainte et par les grands acteurs du web qui ont entamé un processus de diversification, les entreprises sont soumises à rude épreuve de nos jours. Pour rester dans la course les entreprises doivent innover pour offrir de nouveaux produits et de nouveaux services. Cette innovation repose pour une part sur la capacité de développer et de mettre en production des applications informatiques rapidement. Les infrastructures convergentes et à présent hyper convergentes vont dans ce sens

Une informatique en silos, complexe et longue à évoluer. Les organisations informatiques se sont construites au fil du temps et des technologies sur des structures en silos séparant le développement de la production et cloisonnant les domaines technologiques (serveurs, stockage, réseaux ..).

L’évolution galopante des data centers s’est accompagnée d’une telle complexité qu’il devient difficile de répondre aux exigences des directions métiers en temps et en heure et à des coûts acceptables. Posséder l’élasticité et la réactivité des acteurs de Cloud comme Amazon en fait rêver plus d’un. Posséder son cloud privé peut sembler être une solution pour garder la maitrise de ses ressources informatiques à condition de ne pas tomber dans les mêmes pièges que les data centers traditionnels. Pour s’affranchir des contraintes de ces silos on a vu apparaitre différentes initiatives qui ont donné naissance à de nombreuses startups :

  • Le mouvement « devops » pour accélérer le développement des applications tout en assurant un service de qualité
  • les infrastructures intégrées pour accélérer la conception et la mise en production des infrastructures devant supporter ces applications.

La convergence des infrastructures en plein boom. Durant l’été Gartner a publié son nouveau magic quadrant sur les infrastructures intégrées.

magic quadrant integrated system aout 2015

Gartner regroupe sous ce terme différentes catégories :

  • Integrated stack system (ISS)  équivalent à Integrated platform pour IDC : serveurs, stockage et réseau sont intégrés avec le logiciel applicatif. Exemple IBM PureApplication System, Oracle Exadata Database Machine et Teradata..
  • Integrated infrastructure system (IIS)  même terme pour IDC : serveur, stockage et réseau sont intégrés pour un usage généraliste. Exemples VCE Vblock, HP ConvergedSystem et Lenovo Converged System (anciennement PureFlex).
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau et serveur mais le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

En 2018 deux tiers des infrastructures sous forme d’infrastructures intégrées. Les infrastructures convergées de types ISS sont apparues sur le marché vers 2009. Elles répondaient à un désir de réduire le temps de conception et de mises à disposition des infrastructures. Leur coût est souvent équivalent à la somme des composants plus le coût d’intégration. Les gains sont à attendre du côté de la réduction des coûts opérationnels.

Les systèmes intégrés semblent démontrer leur efficacité dans les data centers et ne subissent pas la crise. Gartner prévoit une croissance de 24% par an entre 2014 et 2018 passant ainsi de 8 milliards de dollars en 2014 à 19 milliards de dollars en 2018. On peut ainsi estimer qu’à l’horizon 2018 près des deux tiers des infrastructures seront sous forme d’infrastructures convergées.

L’arrivée de l’hyper convergence bouleverse l’écosystème. Pour faire face l’incroyable demande de stockage les grands acteurs du web, comme Google et Facebook, ont bâti des architectures « hyperscales » à partir de disques génériques achetés en grandes quantité auprès des ODM (Original Design Manufacturers) et pilotés par du logiciel. Le revenu généré par ces ODM en vendant directement à ces grands acteurs du Web a augmenté de 25,8% au deuxième trimestre selon IDC. Un revenu qui échappe aux fournisseurs traditionnels de stockage.

Si les premières solutions convergentes se contentaient d’intégrer des solutions de stockage dites traditionnelles, les nouvelles solutions hyper convergentes bousculent les constructeurs de stockage. L’hyper Hyperconvergence ecosystemeconvergence met aux oubliettes une approche purement stockage en mutualisant les disques internes (DAS) des serveurs . Les constructeurs ne peuvent plus miser sur leurs solutions SAN externe pour capter la croissance des données, ils doivent composer avec ces nouvelles solutions qui leur imposent de travailler avec des partenaires complémentaires ou faire des acquisitions à l’exemple d’HP avec Lefthand (HP StoreVirtual ) en 2008 et d’EMC avec ScaleIO en 2013

Après l’arrivée et les premières réussites d’acteurs comme Nutanix et Simplivity, l’écosystème s’est étoffé. VMware en 2014 a renforcé l’intérêt pour l’hyper convergence en annonçant sa EVO Railsolution logicielle vSAN suivie par l’Appliance  EVO Rail, combinant matériels et logiciels, portée par des partenaires. De nouvelles startups sont entrées dans la danse et tous les grands acteurs d’infrastructures ont commencé à mettre à leur catalogue des solutions d’hyper convergence.

En 2014 les infrastructures hyper convergées ont progressé de 162,3 % (IDC). Les solutions d’hyper convergence représentent encore un revenu relativement faible (373 millions de dollars en 2014 selon IDC) mais avec des taux de croissance de plus de 100% les première années.

Gartner prévoit qu’à l’horizon 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyper convergentes. Des estimations qui pourraient être dépassées car si les Hyperconvergence slide EDpremière installations concernaient les moyennes entreprises aujourd’hui on considère que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyper convergées.

Reste à faire les bons choix dans une offre qui évolue. On peut déjà distinguer quelques critères qui pourront être déterminants pour certaines entreprises par rapport à leur stratégie  :

  • Approche pur logiciel ou Appliance ?
  • Logiciel natif dans l’hyperviseur ou embarqué dans une VM ?
  • Type d’hyperviseurs supportés ?

En offrant une forte modularité et une  intégration poussée, les offres d’hyper convergence devraient continuer à séduire non seulement les moyennes entreprises mais aussi celles qui veulent bâtir un cloud privé sur un socle d’infrastructure très « scalable »

A noter que certains acteurs comme Atlantis computing et Maxta n’apparaissent pas encore dans le Magic Quadrant du Gartner mais sont mentionnés, et donc à prendre en compte, dans la note qui accompagne le quadrant.

Lire également : Le stockage des données est un enjeu pour l’économie numérique