Les objets connectés pourraient avoir besoin du Fog Computing

Les objets connectés de types industriels amènent à repenser l’utilisation du Cloud. Pour analyser efficacement ces données volumineuses générées en flux continu certains ont imaginé un traitement local au plus près de groupes d’objets sur le principe du Fog Computing

 Fog Edge Computing

Avec 50 milliards d’objets connectés en 2020 il va falloir repenser l’usage du Cloud.  Les objets connectés sont déjà très largement répandus et s’emparent progressivement de tous les secteurs. Le grand public y voit le moyen d’améliorer la vie quotidienne alors que les entreprises les utilisent déjà pour contrôler et améliorer les processus industriels et proposer de nouveaux services. Les villes et les véhicules deviennent intelligents en utilisant différents types de capteurs. Nous n’en sommes qu’aux prémisses, les technologies existent reste à imaginer des usages qui répondront à de véritables attentes ou qui apporteront une véritable valeur ajoutée. Cette capacité à rendre intelligent notre environnement est liée à ces capteurs qui se multiplient, aux données collectées par ces capteurs et à la rapidité de traitement de ces données. Le triptyque objets connectés, big data et Cloud deviendra incontournable pour transformer cet univers d’objets connectés en systèmes intelligents

 Le flux continu de données générées par les objets industriels va challenger les réseaux. Le Cloud est un moyen simple et souple pour traiter de manière économique cette masse de données qui ne va cesser de s’amplifier avec le temps et les nouveaux usages. On oublie cependant la particularité des objets connectés qui dans de nombreux cas vont se trouver disséminés géographiquement de façon plus ou moins dense pouvant créer par endroit des concentrations d’objets. Dans le cas de l’internet industriel et du Machine to Machine (M2M) on pourrait être face à une densification d’équipements connectés générant des volumes d’informations importants en flux continu. La question du traitement efficace de ces informations se pose alors. Transférer la totalité des informations pour les traiter de manière consolidée dans un cloud peut solliciter abusivement les infrastructures réseaux et créer des contentions et des problèmes de performances incompatibles avec le besoin de prise d’actions en temps réel.

 Le fog Computing en complément du Cloud. Certains ont donc imaginé une manière différente de gérer ces flux d’informations. Plutôt que de tout traiter dans un cloud centralisé pourquoi ne pas assurer tout ou partie du traitement au plus près des objets. C’est le principe du « Fog Computing » ou du « edge computing ». Cette nouvelle tendance technologique amène l’intelligence dans les équipements d’extrémité de réseau en embarquant des logiciels d’analyse vidéo, de traitement local de processus et permet de connecter des matériels complémentaires comme lecteur de badges, antenne LoRa etc… Le fog computing n’a pas pour vocation à remplacer le cloud mais à le compléter en offrant des réponses locales à l’analyse de données en temps réel, à l’identification des données utiles à renvoyer vers le cloud ou bien encore à la résilience de l’exploitation locale en cas de perte de connexion avec le cloud.  Certains estiment que d’ici 2018, 40 % des données générées par l’IoT seront traitées dans le fog.

A titre d’exemple l’éditeur français Quasardb a déjà adapté sa base de données de type NoSql pour proposer un modèle embarqué de sa base de données dans le contexte de fog computing.

 Le Fog Computing pour sécuriser le réseau ferroviaire américain. En 2008 le congrès américain a souhaité que la technologie Positive Train Control (PTC) soit déployée dans près de 20.000 trains et 65.000 rails sur le territoire américain d’ici 2020 (voir le plan de déploiement).  Ces équipements embarqués contrôlent la vitesse des trains et leurs mouvements pour éviter les risques de collisions.

PTC Video

 

Le système nécessite une base de données des équipements ferroviaire relié à un système de navigation temps réel. Les systèmes de Fog Computing donnent la possibilité d’analyser et de décider en temps réel quelles données doivent être transmises vers le cloud et qu’elles sont celles qui peuvent être supprimées ou stockées. Les opérateurs sont alertés quand les données fournies par les capteurs divergent des normes. Le temps de réaction est accéléré et le réseau ne subit pas de congestion.

Informations complémentaires: L’illustration est tiré du document « Attaining IoT Value: How To Move from Connecting Things to capturing Insights Gain an Edge by Taking Analytics to the Edge » . Dans ce document figurent un certain nombre d’éléments chiffrés.

 

L’hyperconvergence au secours des datacenters

Remises en cause par des startups dotées d’une agilité sans contrainte et par les grands acteurs du web qui ont entamé un processus de diversification, les entreprises sont soumises à rude épreuve de nos jours. Pour rester dans la course les entreprises doivent innover pour offrir de nouveaux produits et de nouveaux services. Cette innovation repose pour une part sur la capacité de développer et de mettre en production des applications informatiques rapidement. Les infrastructures convergentes et à présent hyper convergentes vont dans ce sens

Une informatique en silos, complexe et longue à évoluer. Les organisations informatiques se sont construites au fil du temps et des technologies sur des structures en silos séparant le développement de la production et cloisonnant les domaines technologiques (serveurs, stockage, réseaux ..).

L’évolution galopante des data centers s’est accompagnée d’une telle complexité qu’il devient difficile de répondre aux exigences des directions métiers en temps et en heure et à des coûts acceptables. Posséder l’élasticité et la réactivité des acteurs de Cloud comme Amazon en fait rêver plus d’un. Posséder son cloud privé peut sembler être une solution pour garder la maitrise de ses ressources informatiques à condition de ne pas tomber dans les mêmes pièges que les data centers traditionnels. Pour s’affranchir des contraintes de ces silos on a vu apparaitre différentes initiatives qui ont donné naissance à de nombreuses startups :

  • Le mouvement « devops » pour accélérer le développement des applications tout en assurant un service de qualité
  • les infrastructures intégrées pour accélérer la conception et la mise en production des infrastructures devant supporter ces applications.

La convergence des infrastructures en plein boom. Durant l’été Gartner a publié son nouveau magic quadrant sur les infrastructures intégrées.

magic quadrant integrated system aout 2015

Gartner regroupe sous ce terme différentes catégories :

  • Integrated stack system (ISS)  équivalent à Integrated platform pour IDC : serveurs, stockage et réseau sont intégrés avec le logiciel applicatif. Exemple IBM PureApplication System, Oracle Exadata Database Machine et Teradata..
  • Integrated infrastructure system (IIS)  même terme pour IDC : serveur, stockage et réseau sont intégrés pour un usage généraliste. Exemples VCE Vblock, HP ConvergedSystem et Lenovo Converged System (anciennement PureFlex).
  • Hyperconverged integrated system (HCIS) : l’intégration réunit réseau et serveur mais le stockage réside dans chaque serveur et est mutualisé. Ces solutions sont centrées sur la virtualisation. Le logiciel qui gère l’ensemble se trouve soit nativement dans l’hyperviseur, soit dans une VM. Le logiciel assure des fonctions de gestion du stockage comme le recovery, la réplication, la déduplication et la compression.

En 2018 deux tiers des infrastructures sous forme d’infrastructures intégrées. Les infrastructures convergées de types ISS sont apparues sur le marché vers 2009. Elles répondaient à un désir de réduire le temps de conception et de mises à disposition des infrastructures. Leur coût est souvent équivalent à la somme des composants plus le coût d’intégration. Les gains sont à attendre du côté de la réduction des coûts opérationnels.

Les systèmes intégrés semblent démontrer leur efficacité dans les data centers et ne subissent pas la crise. Gartner prévoit une croissance de 24% par an entre 2014 et 2018 passant ainsi de 8 milliards de dollars en 2014 à 19 milliards de dollars en 2018. On peut ainsi estimer qu’à l’horizon 2018 près des deux tiers des infrastructures seront sous forme d’infrastructures convergées.

L’arrivée de l’hyper convergence bouleverse l’écosystème. Pour faire face l’incroyable demande de stockage les grands acteurs du web, comme Google et Facebook, ont bâti des architectures « hyperscales » à partir de disques génériques achetés en grandes quantité auprès des ODM (Original Design Manufacturers) et pilotés par du logiciel. Le revenu généré par ces ODM en vendant directement à ces grands acteurs du Web a augmenté de 25,8% au deuxième trimestre selon IDC. Un revenu qui échappe aux fournisseurs traditionnels de stockage.

Si les premières solutions convergentes se contentaient d’intégrer des solutions de stockage dites traditionnelles, les nouvelles solutions hyper convergentes bousculent les constructeurs de stockage. L’hyper Hyperconvergence ecosystemeconvergence met aux oubliettes une approche purement stockage en mutualisant les disques internes (DAS) des serveurs . Les constructeurs ne peuvent plus miser sur leurs solutions SAN externe pour capter la croissance des données, ils doivent composer avec ces nouvelles solutions qui leur imposent de travailler avec des partenaires complémentaires ou faire des acquisitions à l’exemple d’HP avec Lefthand (HP StoreVirtual ) en 2008 et d’EMC avec ScaleIO en 2013

Après l’arrivée et les premières réussites d’acteurs comme Nutanix et Simplivity, l’écosystème s’est étoffé. VMware en 2014 a renforcé l’intérêt pour l’hyper convergence en annonçant sa EVO Railsolution logicielle vSAN suivie par l’Appliance  EVO Rail, combinant matériels et logiciels, portée par des partenaires. De nouvelles startups sont entrées dans la danse et tous les grands acteurs d’infrastructures ont commencé à mettre à leur catalogue des solutions d’hyper convergence.

En 2014 les infrastructures hyper convergées ont progressé de 162,3 % (IDC). Les solutions d’hyper convergence représentent encore un revenu relativement faible (373 millions de dollars en 2014 selon IDC) mais avec des taux de croissance de plus de 100% les première années.

Gartner prévoit qu’à l’horizon 2018 plus d’un tiers des solutions intégrées seront des infrastructures hyper convergentes. Des estimations qui pourraient être dépassées car si les Hyperconvergence slide EDpremière installations concernaient les moyennes entreprises aujourd’hui on considère que 75 % du marché des systèmes intégrés pourraient être adressés par des infrastructures hyper convergées.

Reste à faire les bons choix dans une offre qui évolue. On peut déjà distinguer quelques critères qui pourront être déterminants pour certaines entreprises par rapport à leur stratégie  :

  • Approche pur logiciel ou Appliance ?
  • Logiciel natif dans l’hyperviseur ou embarqué dans une VM ?
  • Type d’hyperviseurs supportés ?

En offrant une forte modularité et une  intégration poussée, les offres d’hyper convergence devraient continuer à séduire non seulement les moyennes entreprises mais aussi celles qui veulent bâtir un cloud privé sur un socle d’infrastructure très « scalable »

A noter que certains acteurs comme Atlantis computing et Maxta n’apparaissent pas encore dans le Magic Quadrant du Gartner mais sont mentionnés, et donc à prendre en compte, dans la note qui accompagne le quadrant.

Lire également : Le stockage des données est un enjeu pour l’économie numérique

 

 

 

Le groupe Vinci étoffe sa compétence dans le Cloud avec la société APX Cloud Builder

Ne pas manquer le rendez-vous du numérique, c’est sans doute cet impératif qui a conduit Vinci Energie à conclure un accord pour l’acquisition de la société APX Cloud builder , le spécialiste du Datacenter et du cloud . Bruno Lampe président d’APX et Yves Pellemans CTO m’ont livré à chaud leurs impression.

nuages3

APX « Cloud Builder » rejoint  le Groupe VINCI sous la marque AXIANS. Du réseau mobile au transport, de l’automatisation dans l’industrie aux éclairages urbains en passant par la production d’énergie ou la maintenance des hôpitaux ou écoles, Vinci Energie est présents sur de nombreux secteurs qui améliorent le quotidien. Tous ces secteurs sont aujourd’hui concernés par la transformation numérique. Pour être capable de proposer de nouveaux types de solutions qui bénéficieront des évolutions technologiques il faut disposer de nouvelles compétences et nouer des partenariats. Et surtout il faut aller vite car la course au numérique est déjà lancée. Cette acquisition, qui reste soumise à l’approbation de l’Autorité de la concurrence, viendra compléter significativement le positionnement sur le marché français d’Axians, la marque de VINCI Energies dédiée aux solutions ICT (technologies de l’information et de la communication), notamment sur les segments du Cloud et des Datas Centers . Axians réalise aujourd’hui 1,6 milliard d’euros de chiffres d’affaires dans 15 pays et compte 7000 collaborateurs.

L’agilité d’un expert du Cloud combinée à la force d’un grand groupe. APX avait déjà anticipé le mouvement du numérique pour accompagner ses clients. On sent de l’enthousiasme dans la voix de Bruno Lampe qui m’explique que ce rapprochement avec VINCI sous la marque Axians va permettre aux clients d’APX de continuer à bénéficier de sa capacité d’innovation et de son expertise de Cloud Builder tout en développant industriellement son savoir-faire au niveau Français et Européen. Si APX bénéficie des atouts d’un grand groupe international la société reste une société à taille humaine qui conserve ses valeurs de proximité, d’agilité et de satisfaction client chères à Bruno Lampe. Le Cloud est un des leviers de la transformation numérique, APX l’avait compris depuis longtemps et fait évoluer ses compétences et ses offres dans ce sens. Cette opération permettra donc de compléter efficacement les expertises d’Axians dans le domaine du Cloud et des Datas Centers. Bruno Lampe « pense sincèrement qu’avec l’apport d’APX, Axians devient aujourd’hui le leader des « Cloud Builder » sur le marché Français ! »

La recette pour construire un Cloud builder européen. Yves Pellemans , CTO d’APX me livre à sa manière la recette d’un bon accord : « Prenez un positionnement unique et claire de Cloud Builder, associé à des offres « vPACK » innovantes, ajoutez-y des investissements massifs dans les domaines du VDI, du provisioning, du HPC et du Big Data. Saupoudrez le tout d’un ADN de proximité porté par de formidables équipes et vous avez le cocktail de la réussite d’APX « Cloud Builder » ! Ajoutez-y maintenant VINCI et la puissance de sa marque AXIANS et vous obtenez un Cloud Builder européen. Et ce n’est que le début d’une grande aventure »

Connectons nos énergies. C’est une nouvelle page qui s’inscrit pour APX. Je les connais personnellement depuis de nombreuses années alors Bruno, Yves et toute l’équipe APX je vous dis félicitations et bravo pour cette nouvelle aventure. « Connectons nos énergies », c’est le slogan de Vinci énergie. Avec les équipes d’APX ce sont de nouvelles énergies qui viennent de se connecter.

 

 

Les jeux Olympiques : une véritable entreprise digitale

 

Si certaines de nos entreprises françaises sont encore frileuses pour aller dans le cloud, l’exemple des jeux olympiques peut sans doute les rassurer. Les JO requièrent des exigences extrêmes et une visibilité énorme qui vont bien au-delà de la durée de la compétition. Le cloud ainsi que le Big Data participent à leur manière à la transformation digitale des jeux Olympiques.

Atos GAme

Yan Noblot Directeur des opérations chez Atos nous fait partager sa passion des jeux. Si les jeux Olympiques font l’objet d’une longue préparation de la part des athlètes, il en va de même pour l’organisation et la couverture de chaque JO qui fait appel à toute l’innovation technologique pour être prêt à enchanter, le jour des compétitions, les spectateurs du monde entier. J’avais très brièvement abordé le sujet dans mon précédent billet et j’ai eu la chance de pouvoir discuter un long moment avec Yan Noblot, Directeur des opérations dans la division Major events & Olympics de Atos , qui m’a fait partager sa passion pour le sujet. Lire la suite

Canopy : « Le cloud est un des leviers de la transformation numérique »

Canopy atos cloudPhilippe Llorens, directeur général de Canopy la filiale cloud d’ATOS, m’a reçu pendant EMC world à Las Vegas pour m’expliquer comment il comptait réaliser ses objectifs ambitieux dans le cloud.

tucci become Digital

L’époque n’est plus à l’attentisme, le numérique est un véritable projet de transformation. Lire la suite

Eurocloud veut faire de Paris la capitale du Cloud

La Capitale française peut compter sur le dynamisme de ses startups pour profiter de l’ère du numérique. Elle devrait bénéficier également de l’impulsion qu’Eurocloud souhaite apporter dans le cloud en organisant la Cloud Week du 6 au 10 juillet à Paris

 Cloudweek Paris

Donner à Paris et à l’Ile de France le statut de 1ère place du Cloud en Europe. En annonçant la première Cloud Week Paris du 6 au 10 juillet, L’ambition du président d’EuroCloudCloud week part assoc France Pierre-José Billotte est clairement affichée : « Faire de Paris et de l’Ile de France, la capitale et la région leaders du Cloud en Europe ». Pour y arriver, Eurocloud France a des atouts et en particulier ses nombreux adhérents qui font partie du réseau de 1500 entreprises actrices du cloud et membres d’EuroCloud (EuroCloud France en est la branche française) réparties dans 31 pays. La liste des adhérents en France peut être consultée ici . L’évènement sera placé sous le haut patronage de Mme Axelle Lemaire,Secrétaire d’Etat chargée du Numérique, et bénéficie du support de partenaires institutionnels et associatifs (CDRT, le CIGREF, Cloud Confidence, Forum Atena, l’Ecole d’Ingénieurs ISEP et Transition Numérique ) et de nombreux sponsors. On peut noter bien évidemment le soutien de la mairie de Paris, de la région Île de France, du ministère de l’économie et du CNN.

La vision du Cloud dans 10 ans . Dans tout projet il n’y a pas de succès durable sans vision. C’’est le thème choisi pour la journée d’ouverture le 6 juillet et qui permettra aux participants de prendre un peu de hauteur avant de rentrer dans le concret les jours suivants. Une journée de prospective qui sera éclairée par le point de vue de 8 visionnaires (4 français et 4 étrangers) sous une forme dynamique. Ils utiliseront le style des fameuses présentations de « TED » en exposant en 10 minutes, sans powerpoint, leur vision du Cloud. Axelle Lemaire clôturera cette première journée.

Favoriser les rendez-vous d’affaires. 4000 visiteurs (français et internationaux) sont attendus et Eurocloud France souhaite faire de cet évènement un lieu privilégié pour les rendez-vous d’affaires tout au long de la semaine. Les sujets s’y prêtent puisqu’ils abordent de nombreuses facettes du Cloud :

  • Innovation,
  • Recherche et dernières tendances technologiques,
  • Formation
  • Financement des start-ups
  • Nouveaux business models et nouveaux usages
  • Développement des achats publics de services Cloud
  • Soutien des acteurs de l’informatique pour leur migration vers le Cloud
  • Souveraineté, sécurité, confiance
  • Politique françaises et européennes en faveur du Cloud
  • Ouvertures vers les marchés européens
  • Etats du marché et prospectives

Clôture de l’appel à candidature pour les trophées du Cloud Computing le 15 mai 2015. Il faut saluer et encourager ceux qui se distinguent par la qualité de leurs offrs et leur innovation.  Depuis 2007, EuroCloud France décerne chaque année les trophées du Cloud. Cette année ce seront 6 catégories qui seront récompensées et les heureux élus seront éligibles aux trophées EuroCloud Europe

  • le meilleur service cloud pour les marchés horizontaux,
  • le meilleur service cloud pour les marchés verticaux,
  • le meilleur service cloud infrastructure,
  • la meilleure start up cloud,
  • le meilleur cas client et
  • la meilleure solution de migration vers le cloud.

On sent décidemment un dynamisme numérique en France. Profitons en pour saluer l’implication d’Axelle Lemaire présente partout où l’on parle de numérique et de transformation et qui communique à chaque fois sa passion et son enthousiasme.

 

 

 

 

Un CRM Big Data dans le Cloud avec Salesforce

 Salesforces fait un pas de plus dans le Big Data.en annonçant le 5 mars Salesforce Marketing Cloud Predictive Decisions qui sera disponible en mai 215. Une approche de « CRM Big Data » dans le Cloud qui peut simplifier la tâche des équipes marketing

Salesforce illustrationRendre le CRM Big Data accessible. Si certaines entreprises sont rebutées par la technicité et la complexité des plateformes de Big Data les solutions dans le cloud peuvent sans doute les inciter à profiter des avantages du Big Data sans en craindre les écueils et la complexité. Sans aucun doute Salesforce est le grand leader du CRM mais surtout il montre par cette annonce qu’il est possible, pour ceux qui le souhaitent, de profiter des avantages du CRM et du Big Data sans pour autant disposer en interne de ressources techniques spécifiques.    Sales force n’utilise pas le terme DMP (Data Management Plateform) mais la solution en présente certains aspects. Des intégrateurs comme Micropole et Ysance ont déjà à leur catalogue des offres de types DMP dans le cloud qui facilite la mise en œuvre de ces solutions.  N’oublions pas néanmoins qu’on ne peut pas s’affranchir d’analyser et de recenser les sources des données qui vont alimenter ces plateformes et de déterminer les flux de données sortants pour savoir comment les exploiter et à quels fins.

Salesforce veut mettre la « science des données » dans les mains des directions marketing.    Les entreprises doivent interagir avec leurs clients de manière personnalisées et en temps réel pendant un parcours d’achat de plus en plus « cross channel ». La solution « Predictive Decisions » de Salesforce affiche cette ambition. Le marketing devrait pouvoir s’appuyer sur la science des données pour analyser l’engagement du client, lui faire des recommandations de manière proactive et ainsi augmenter le taux de conversion. La solution donne la possibilité de concevoir des programmes intelligents allant au-delà de l’engagement contextuel pour faire du marketing prédictif en utilisant des algorithmes sophistiqués. Le marketing devrait ainsi disposer d’une plateforme unique combinant le CRM et les données marketing avec des informations contextuelles. Il pourra élaborer des tableaux de bord à partir d’informations provenant d’interactions, de navigations mais également d’autres applications de Salesforce. Sales force avec cette annonce a souligné quelques innovations qui demandent encore à être détaillées.

  • « collect beacon » avec les mises à jour en temps réel de contenus et de comportements utilisateurs directement dans la plateforme pour permettre des décisions prédictives.
  • Workflow et automatisation. Les données de comportements des clients sont chargées automatiquement dans la plateforme marketing Cloud en temps réel
  • Décisions prédictives natives. Anticiper quel contenu obtiendra le plus fort taux de conversion. Faire en sorte que chaque message soit personnalisé à l’individu et son contexte.

Le Cloud s’impose de plus en plus en plus comme un facilitateur de technologies. C’est en particulier le cas pour le Big Data. Pendant le salon du Big Data Paris on pouvait noter que de nombreuses sociétés s’associent pour offrir des solutions de big data dans le cloud et en accélérer ainsi l’adoption.