Le stockage des données est un enjeu pour l’économie numérique

Nous ne cessons de produire des données numériques et le phénomène ne fera que s’accentuer avec le temps et la montée en puissance de l’image et de la vidéo, de l’internet de l’objet et des réseaux sociaux. Tout nouvel équipement ou objet a dorénavant vocation à se connecter, à communiquer donc à générer des données. Il devient difficile de se représenter ces volumes de données qui devraient atteindre 44 zettabytes d’après une étude réalisée par IDC pour EMC. Imaginer qu’il y aura 57 fois plus d’octets que de grains de sable sur terre en 2020 (IDC).  La comparaison fréquente avec l’or noir exprime bien le fait que la donnée est devenue la ressource principale de l’économie du 21ème siècle.

Le stockage des données est un enjeu pour l’économe numérique. La volumétrie qu’on devra stocker dans les années à venir impose de baisser constamment les coûts et l’encombrement des systèmes de stockage. Mais ce ne sont pas les seules contraintes, dans une économie « data driven » moderne le temps réel est devenu une exigence quasi généralisée. Le stockage doit donc être de moins en moins cher et de plus de plus performant, deux caractéristiques souvent antagonistes. Confrontés à cet impératif de temps réel et de performances, les centres informatiques ont souvent été contraints de multiplier les disques durs pour augmenter les accès (nombre d’entrées/sorties) au détriment du taux de remplissage. Dans le même temps les constructeurs informatiques ont cherché à améliorer les coûts en faisant la chasse aux données inutiles (déduplication) et en proposant des algorithmes de compression. Cet effort d’efficacité du stockage a eu souvent pour effet d’augmenter le nombre d’accès, à capacité de stockage égale, au risque de pénaliser les performances.

En 2019 20 % du stockage se fera sur des systèmes Flash. Le coût du stockage n’est pas le coût d’achat de la capacité théorique du stockage mais bien de la capacité réellement utile. Il Flash cout Wikibonfaut intégrer la notion de densité d’accès c’est-à-dire le nombre d’accès réalisé sur une surface de stockage. Ce contexte et la baisse de prix des technologies de mémoires flash expliquent l’engouement croissant depuis quelques années des centres informatiques pour les systèmes de stockage « flash ». Le site spécialisé sur le stockage wikibon estime que le stockage flash (ou SSD Solid State Disk ) pourrait devenir en 2016 plus économique pour toutes les formes de stockage. Gartner quant à lui prévoit que 20% des disques (HDD Hard disk drive) traditionnels highend seront remplacés par des SSD en 2019 et que le futur sera de plus en plus en faveur du « tout flash » que de systèmes hybrides (partie disque, partie flash).

Couts, Performance et efficacité des systèmes de stockage flash . Les systèmes Flash sont réputés pour leur temps d’accès extrêmement rapides. Pour se faire une idée, là ou un système flash mettrait 1 seconde pour accéder à un certain volume d’informations, un système àGartner MQ SSA juin 2015 disques durs mettrait environ 1 jour pour accéder au même volume. Les fonctions de déduplication et de compression ne sont plus limitées par les performances avec le stockage flash et peuvent donc être utilisées sans contrainte pour augmenter l’efficacité du stockage. Le constructeur hp annonce sur son site que les solutions flash coûtent moins de 1,50$ par Go et que l’encombrement est réduit de 80% entrainant du même coût une baisse très sensible de la consommation électrique. La disponibilité n’est pas oubliée et sur des systèmes Flash de classe entreprise on peut compter aujourd’hui sur une disponibilité de 99,9999% . Tous les constructeurs de stockage ont dû intégrer le flash dans leur portefeuille produit. Le Gartner a publié son Magic Quadrant sur les SSA (Solid State Arrays) en juin 2015 faisant apparaitre les principaux acteurs dans le « carré leaders » ou l’on trouve EMC, Pure Storage , IBM et HP .

Software Defined Storage et Flash les deux faces de l’évolution du stockage. Les spécialistes du stockage évoluent d’une part sur la gestion du stockage avec le Software Defined Storage et le stockage objet et d’autre part sur le support matériel de stockage à proprement parlé (Flash et HDD). Deux approches qui se complètent et ou les disques traditionnels devraient au fur et à mesure se cantonner au stockage capacitif à faibles accès.

lire également : L’hyperconvergence au secours des datacenters

 

L’hyperconvergence au secours des datacenters

Remises en cause par des startups dotées d’une agilité sans contrainte et par les grands acteurs du web qui ont entamé un processus de diversification, les entreprises sont soumises à rude épreuve de nos jours. Pour rester dans la course les entreprises doivent innover pour offrir de nouveaux produits et de nouveaux services. Cette innovation repose pour une part sur la capacité de développer et de mettre en production des applications informatiques rapidement. Les infrastructures convergentes et à présent hyper convergentes vont dans ce sens

Une informatique en silos, complexe et longue à évoluer. Les organisations informatiques se sont construites au fil du temps et des technologies sur des structures en silos séparant le développement de la production et cloisonnant les domaines technologiques (serveurs, stockage, réseaux ..).

L’évolution galopante des data centers s’est accompagnée d’une telle complexité qu’il devient difficile de répondre aux exigences des directions métiers en temps et en heure et à des coûts acceptables. Posséder l’élasticité et la réactivité des acteurs de Cloud comme Amazon en fait rêver plus d’un. Posséder son cloud privé peut sembler être une solution pour garder la maitrise de ses ressources informatiques à condition de ne pas tomber dans les mêmes pièges que les data centers traditionnels. Pour s’affranchir des contraintes de ces silos on a vu apparaitre différentes initiatives qui ont donné naissance à de nombreuses startups :

  • Le mouvement « devops » pour accélérer le développement des applications tout en assurant un service de qualité
  • les infrastructures intégrées pour accélérer la conception et la mise en production des infrastructures devant supporter ces applications.

La convergence des infrastructures en plein boom. Durant l’été Gartner a publié son nouveau magic quadrant sur les infrastructures intégrées.

magic quadrant integrated system aout 2015

Gartner regroupe sous ce terme différentes catégories :

  • Integrated stack system (ISS)  équivalent à Integrated platform pour IDC : serveurs, stockage et réseau sont intégrés avec le logiciel applicatif. Exemple IBM PureApplication System, Oracle Exadata Database Machine et Teradata..
  • Integrated infrastructure system (IIS)  même terme pour IDC : serveur, stockage et réseau sont intégrés pour un usage généraliste. Exemples VCE Vblock, HP ConvergedSystem et Lenovo Converged System (anciennement PureFlex).
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau et serveur mais le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

En 2018 deux tiers des infrastructures sous forme d’infrastructures intégrées. Les infrastructures convergées de types ISS sont apparues sur le marché vers 2009. Elles répondaient à un désir de réduire le temps de conception et de mises à disposition des infrastructures. Leur coût est souvent équivalent à la somme des composants plus le coût d’intégration. Les gains sont à attendre du côté de la réduction des coûts opérationnels.

Les systèmes intégrés semblent démontrer leur efficacité dans les data centers et ne subissent pas la crise. Gartner prévoit une croissance de 24% par an entre 2014 et 2018 passant ainsi de 8 milliards de dollars en 2014 à 19 milliards de dollars en 2018. On peut ainsi estimer qu’à l’horizon 2018 près des deux tiers des infrastructures seront sous forme d’infrastructures convergées.

L’arrivée de l’hyper convergence bouleverse l’écosystème. Pour faire face l’incroyable demande de stockage les grands acteurs du web, comme Google et Facebook, ont bâti des architectures « hyperscales » à partir de disques génériques achetés en grandes quantité auprès des ODM (Original Design Manufacturers) et pilotés par du logiciel. Le revenu généré par ces ODM en vendant directement à ces grands acteurs du Web a augmenté de 25,8% au deuxième trimestre selon IDC. Un revenu qui échappe aux fournisseurs traditionnels de stockage.

Si les premières solutions convergentes se contentaient d’intégrer des solutions de stockage dites traditionnelles, les nouvelles solutions hyper convergentes bousculent les constructeurs de stockage. L’hyper Hyperconvergence ecosystemeconvergence met aux oubliettes une approche purement stockage en mutualisant les disques internes (DAS) des serveurs . Les constructeurs ne peuvent plus miser sur leurs solutions SAN externe pour capter la croissance des données, ils doivent composer avec ces nouvelles solutions qui leur imposent de travailler avec des partenaires complémentaires ou faire des acquisitions à l’exemple d’HP avec Lefthand (HP StoreVirtual ) en 2008 et d’EMC avec ScaleIO en 2013

Après l’arrivée et les premières réussites d’acteurs comme Nutanix et Simplivity, l’écosystème s’est étoffé. VMware en 2014 a renforcé l’intérêt pour l’hyper convergence en annonçant sa EVO Railsolution logicielle vSAN suivie par l’Appliance  EVO Rail, combinant matériels et logiciels, portée par des partenaires. De nouvelles startups sont entrées dans la danse et tous les grands acteurs d’infrastructures ont commencé à mettre à leur catalogue des solutions d’hyper convergence.

En 2014 les infrastructures hyper convergées ont progressé de 162,3 % (IDC). Les solutions d’hyper convergence représentent encore un revenu relativement faible (373 millions de dollars en 2014 selon IDC) mais avec des taux de croissance de plus de 100% les première années.

Gartner prévoit qu’à l’horizon 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyper convergentes. Des estimations qui pourraient être dépassées car si les Hyperconvergence slide EDpremière installations concernaient les moyennes entreprises aujourd’hui on considère que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyper convergées.

Reste à faire les bons choix dans une offre qui évolue. On peut déjà distinguer quelques critères qui pourront être déterminants pour certaines entreprises par rapport à leur stratégie  :

  • Approche pur logiciel ou Appliance ?
  • Logiciel natif dans l’hyperviseur ou embarqué dans une VM ?
  • Type d’hyperviseurs supportés ?

En offrant une forte modularité et une  intégration poussée, les offres d’hyper convergence devraient continuer à séduire non seulement les moyennes entreprises mais aussi celles qui veulent bâtir un cloud privé sur un socle d’infrastructure très « scalable »

A noter que certains acteurs comme Atlantis computing et Maxta n’apparaissent pas encore dans le Magic Quadrant du Gartner mais sont mentionnés, et donc à prendre en compte, dans la note qui accompagne le quadrant.

Lire également : Le stockage des données est un enjeu pour l’économie numérique

 

 

 

Le spécialiste de la «data intensive» DDN crée un centre de R&D en France

L’économie moderne dépendra fortement de la capacité des entreprises à utiliser de manière intensive les données. Depuis plus 25 ans Paul Bloch, fondateur de DDN, a fait de la « data intensive » son cœur de métier bien avant que l’on parle de Big Data. En 2015 DDN investit dans le la R&D en France et annonce des solutions d’hyper convergence.

Paul Bloch

Les français savent entreprendre et innover et cela ne date pas d’aujourd’hui. C’est avec l’esprit d’aventure que Paul Boch part aux Etats Unis achever ses études à Caltech. Avant de créer sa propre entreprise à partir de zéro il effectue son service militaire à la DATAR pour tenter de convaincre des sociétés américaines d’investir en France. En rencontrant Paul Bloch, fondateur de la société DDN avec son ami Alex Bouzari, ce qui frappe c’est sa simplicité et sa passion intacte après plus de 25 ans à la tête de son entreprise. Des qualités qui lui permettent de continuer à innover sur le marché de la data qu’il avait perçu très tôt comme stratégique. Avec DDN c’est un peu la saga de la donnée que l’on suit et qui nous mène inéluctablement au Big Data et à l’hyper convergence

Anticiper le marché de la donnée intensive. C’est par le bais d’une solution de stockage amovible innovante que très tôt Paul Boch côtoie des grandes entreprises américaines qui manipulent d’important volumes de données comme le Pentagone et l’ Air Force. Ces grands Gartner DDNutilisateurs de données amènent Paul et son associé Alex à se focaliser dès 1988 sur ce marché du stockage ou la donnée est déjà reine et l’utilisateur particulièrement exigeant en termes de traitement et d’accès aux données. Au milieu des années 90 Paul et son associé considèrent que ce marché du stockage de données intensives va devenir stratégique dans les années à venir. Leur société Megadrive Systems créée en 1988 deviendra en 1998 DataDirect Network après la fusion avec ImpactData. Paul et Alex investissent tous leurs bénéfices dans la Recherche et le développement pour concevoir un stockage parfaitement adaptées aux attentes de ces gros utilisateurs de données de recherche, de vidéo et de traitements intensifs. En 2000 la NASA leur fait confiance et devient un de leurs clients.

Investir dans la R&D pour Innover et servir des données exigeantes. DDN s’impose comme le leader du stockage de données dans les environnements HPC (High Performance DDN customersComputing) dits de traitement intensif. Un succès qui s’explique par une forte différentiation sur la performance 5 fois plus rapides que les concurrents. Comptant près de 70% des entreprises HPC comme clients, DDN dispose d’un observatoire sans commune mesure pour analyser finement l’évolution des besoins liée à l’exploitation de données intensives. Dotée de cette connaissance clients et de l’expérience du stockage des données Paul et Alex comprennent que la croissance des données (médiatisée par la suite avec le Big Data) et l’exigence toujours plus forte de performance réclament des innovations technologiques. Ils adaptent leur stratégie en conséquence et développent des produits spécifiques:

  • SFA (Storage Fusion Architecture): Une plateforme de stockage, pour des accès intensifs et des performances élevées, adaptée aux besoins du big data
  • WOS (Web Object Scaler) : pour prendre en compte les besoins de scalabilité massive. C’est une plateforme qui utilise le « stockage objet » natif pour lever les contraintes des fichiers traditionnels confrontés à de très forte volumétrie.
  • IME (Infinite Memory Engine) :   Un accélérateur d’entrées sorties pour les applications particulièrement exigeantes en performances d’accès aux données.

WOS et IME peuvent à présent être commercialisés sous forme de logiciels installables sur des machines tiers dans une approche de Software Designed Storage

2015 l’année de l’hyper convergence avec l’annonce de Wolfcreek. Le développement de l’analytique et la multiplication des objets connectés propulsent la data au rang de valeur Paul et Ericvedette. La course à la performance pour tirer le meilleur de ces données va accentuer la pression sur les solutions technologiques. Traitement et accès aux données doivent s’intégrer dans une approche cohérente des performances sous peine de créer un déséquilibre préjudiciable à la performance globale des applications. Une nouvelle étape est franchie cette année avec l’annonce en juin 2015 de Wolfcreek une plateforme d’hyper convergence fruit de la R&D de DDN. Avec un débit de 60 GB/sec et plus de 5 millions d’entrées sorties par seconde dans un rack de 4U, cette plateforme Wolfcreek fournira deux fois plus de performances que les autres solutions du marché. DDN n’entend plus se limiter au seul marché du HPC. Aujourd’hui tout type d’entreprise quel que soit sa taille peut bénéficier du savoir-faire de DDN.

2015: DDN investit dans un centre de développement en France. Une partie du développement de ces nouvelles solutions sera désormais réalisée à Meudon en France puisque début 2015 DDN a décidé d’embaucher une vingtaine de développeurs et compte multiplier leurs nombre par trois d’ici 18 mois. La France a décidemment une excellente réputation en matière de développement et pour Paul c’est une manière de réinvestir dans son pays.

lire également l’annonce du 30 juin: DDN Outlines Strategic Vision Driving Rapid Adoption of DDN High performance Storage Technology throughout the Enterprise