Les objets connectés sont l’avenir du 21 ème siècle

Avec le numérique on n’arrête plus de faire la révolution, la prochaine annoncée est celle des objets connectés (IoT) . Elle porte en soi la concrétisation de toutes les promesses du numérique et bénéficie des innovations apportées par le cloud, le big data et l’intelligence artificielle. La richesse des objets connectés c’est la multitude d’objets qui collaborent et communiquent pour transformer le monde en données et le rendre « intelligent ».

Aujourd’hui un très faible pourcentage d’objets sont connectés, sans doute environ 2%, mais en 2020 selon IDC ce seront 15 % qui seront connectés représentant plus de 20 milliards d’objets pour Gartner. La mission première de tous ces objets est de collecter et de transmettre des informations, grâce à des capteurs multiples et variés, qui après exploitation vont ajouter des fonctionnalités à cet objet et offrir de nouveaux services pour une expérience utilisateur augmentée. Avec cette prolifération d’objets connectés l’univers numérique touchera à l’apothéose : à terme quasiment tout deviendra source de données. Dernièrement Le MIT Media Lab et Microsoft Research ont même été imaginer un tatouage éphémère qui pousserait la notion d’objet connectable encore plus loin. En 2020 on estime que les objets connectés compteront pour 27% de toutes les données (source IDC).

Les objets connectés apportent une réponse aux enjeux du 21 ème siècle. Le déploiement des objets connectés trouve son utilité dans tous les secteurs d’activité. Plus qu’utile l’objet connecté va s’avérer incontournable pour faire face aux enjeux du 21 ème siècle. Il faut considérer chaque objet connecté comme un élément d’un système plus vaste (l’habitat, le bâtiment la voiture, le magasin, l’aéroport, l’usine, la ville etc ..) et œuvrant pour l’amélioration de tous les secteurs d’activité (agriculture connectée, santé connectée etc…). Tout le monde s’intéresse au marché IoT y compris les géants du web comme Google qui a déposé fin juillet un brevet de salle de bain connectée pour prévenir les maladie en mesurant l’évolution des systèmes cardiovasculaires, nerveux, endocriniens et musculaire de ses utilisateurs. Face à la démographie galopante qui nous promet 9,6 milliards d’habitants sur terre en 2050 (dont plus de la moitié vit  en zone urbaine depuis 2008) le rôle des objets connectés est essentiel. Un rôle d’autant plus important que nos ressources s’épuisent.  Le mercredi 22 août 2016, l’humanité avait déjà épuisé son crédit annuel de ressources naturelles. Les effets sont inquiétants quand on sait qu’en 2030 la demande en eau sera supérieure de 40% à l’offre mondiale. Les objets connectés ne sont pas le remède miracle mais surement une partie de la solution. L’agriculture a déjà entamé la révolution des objets connectés pour optimiser les rendements. Avec 54% de la population mondiale qui vit aujourd’hui dans les zones urbaines et qui devrait passer à 66% en 2050 les villes n’ont pas d’autre choix que de devenir intelligentes pour réguler le trafic automobile, la consommation électrique, la fourniture d’eau et lutter contre la pollution. En 2030 tous les foyers français devraient être équipés de compteurs d’eau intelligents qui pourraient faire baisser la consommation d’environ 15% grâce à un suivi personnalisé. ( lire En 2030, notre eau sera intelligente et connectée)

L’utilisation des objets connectés s’appuient sur les piliers de la transformation numérique. Les objets connectés ne fonctionnent qu’en exploitant les technologies fondamentales du numériques et bien sur les réseaux. Les mobiles et smartphones pour fournir les applications exploitant les données de bon nombre d’objets. Le big data pour collecter, stocker et traiter la multitude de données, l’intelligence artificielle pour créer des systèmes agissant de façon autonome et le cloud pour héberger de manière économique les ressources informatiques qui sous-tendent le fonctionnement des objets connectés. Pour accompagner ce formidable développement les questions ne manquent pas à commencer par la sécurité. Le sujet n’est pas nouveau dans notre monde désormais numérique mais le nombre et la distribution d’objets interconnectés couplés à la puissance de l’intelligence artificielle amplifient les risques et complexifient la sécurité. On a déjà en tête le piratage de voiture et tout récemment un article faisait froid dans le dos en évoquant le possible piratage d’un cerveau humain à partir d’implants (lire Brainjacking: Hacking brain implants). Scénarii catastrophes qui nous sensibilisent encore d’avantage à la cyber sécurité thème majeur de notre siècle. N’oublions pas d’évoquer le sujet de la protection des données personnelles. Tous ces objets vont envahir notre quotidien et enregister bon nombre de nos activités  posant ainsi la question de la limite de l’utilisation de ces données. Une raison de s’intéresser à la toute dernière réglementation européenne dans ce domaine la General Data Protection Regulation GDPR.

Comme toute révolution technologique des metiers disparaissent et d’autres se créent. Le bilan est positif ou négatif selon les analystes qu’on interroge mais face aux enjeux de notre planète il parait désormais difficile de s’en passer.  Reste à repenser nos modèles économique et sociétaux pour que la transition se fasse le plus harmonieusement possible

Rencontre avec Anthony Cirot Directeur Cloud chez IBM France

L’abondance d’innovations technologiques a créé de nouveaux usages et amené des modèles d’affaires en rupture avec le passé. Dans ce monde en profonde mutation les entreprises n’ont d’autres choix que d’innover rapidement pour maintenir leur positon et continuer à se développer. Le numérique impose une accélération souvent insoutenable pour beaucoup. Dans ce contexte le cloud devient le moteur de l’innovation en facilitant bien entendu l’accès aux ressources informatiques mais surtout en offrant un véritable environnement d’innovation. Rencontre avec Anthony Cirot Directeur du Cloud IBM France à quelques jours de la Cloudweek 2016 à Paris.

Anthony Cirot

Le cloud incontournable pour les développeurs. Le tournoi de Roland-Garros en est un excellent exemple. L’évènement a beau se dérouler sur une courte période il faut néanmoins disposer de ressources puissantes pour développer les applications et fournir en temps réel les statistiques des joueurs qui s’afficheront sur nos écrans. Pour y arriver IBM s’est appuyé sur son offre d’Infrastructure as a service (IaaS) Softlayer et sa plateforme d’innovation Bluemix. Les données du tournoi étaient collectées sur place en temps réel dans un petit data center. Ce dernier formait un cloud hybride avec le cloud Softlayer, lui-même réparti sur quatre plaques géographiques pour assurer une totale résilience. Les développeurs mobilisés pour le tournoi pouvaient faire appel à des services cognitifs dans le cloud et effectuer toutes les opérations sur les applications en temps réel dans l’esprit DevOps.

Bluemix une plateforme pour l’innovation. Anthony Cirot préfère définir Bluemix comme une plateforme d’innovation numérique plutôt que par l’acronyme PaaS (Platform as a Service) qu’il juge réducteur. Avec 140 services Bluemix, il est vrai que l’offre est riche et les développeurs peuvent utiliser une combinaison des technologies informatiques open source les plus en vue pour optimiser leurs applications.

Bluemix innovation V1

Au-delà d’une large palette de langages de programmation, de très nombreux domaines son couverts. Cela va de DevOps aux outils cognitifs Waston en passant par la mobilité, le big data ou bien encore l’IoT. On trouve également un service Blockchain en beta. Un client peut étendre les fonctionnalités de ces applications en faisant le choix parmi des services IBM, de tiers et de communauté. Cette plateforme d’innovation se présente sous la forme d’un cloud privé installé chez le client, d’un cloud privé externe ou bien encore d’un cloud public. Bluemix peut compter sur les 25 datacenters d’IBM Softlayer pour répondre à toutes les attentes des clients où qu’ils soient. Pour dynamiser encore l’innovation, IBM dispose aussi de « Bluemix garages » dans différents pays y compris la France à Nice. Ce concept de « garage » propose des services de conseils et développement d’application sur Bluemix avec l’ADN d’une startup. Ces Bluemix garage offrent la possibilité, à des entreprises de toutes tailles, de concevoir et de créer des applications attractives via « le Design Thinking » d’IBM, le démarrage rapide et l’implémentation agile incluant notamment la mise en place de chaînes DevOps pour améliorer la qualité. Les entreprises peuvent ainsi accélérer toutes les phases du cycle de vie de conception, de développement et de distribution des applications.

IBM franchit une nouvelle étape avec des services de vidéo dans le cloud. Le marché et les attentes évoluent rapidement au gré de l’adoption des nouveaux usages comme en IBM Rolland garrostémoignent les acquisitions d’IBM totalement intégrées dans sa stratégie Cloud. Après l’achat de Softlayer en 2013 pour construire l’offre IaaS, IBM a entamé un processus d’acquisitions pour adapter et enrichir son offre. En janvier 2014 c’était Aspera pour accélérer le transfert massif et sécurisé de fichiers sur de longues distances. En novembre 2015 Cleversafe apportait le stockage objet au cloud IBM. Avec le développement de la vidéo, qui devrait représenter près de 80% du trafic internet en 2020, on ne s’étonnera pas de voir IBM s’emparer du sujet. En décembre 2015 IBM faisait l’acquisition de la société Clearleap pour offrir aux entreprises des services de vidéo à la demande en mode Software as a services SaaS. Peu de temps après, en janvier 2016, c’est au tour de la société Ustream d’intégrer l’offre Cloud d’IBM pour proposer du vidéo streaming pour diffuser aussi bien la séance plénière d’une entreprise n direct qu’un concert musical. L’arrivée de ce type de solutions vidéo dans le cloud aura sans doute un impact sur la chaîne de valeur et sur l’écosystème de la vidéo.

IBM collabore avec VMware dans le cloud. (lire l’annonce) IBM et VMware ont conçu une architecture qui permettra aux clients de provisionner automatiquement dans le cloud IBM Softlayer des environnements VMware SDDC (Software Defined DataCenter) composés de VMware vSphere, NSX et Virtual SAN.IBM vmare Une collaboration qui a du sens quand on sait que près de 100% des clients Fortune 1000 utilisent des technologies VMware. Les clients VMware pourront étendre facilement leurs workloads existants depuis leur datacenter vers le Cloud. De son côté VMware a étendu les fonctions de ses outils d’administration vRealize Automation et vCenter pour déployer et gérer des environnements dans les cloud IBM de la même manière que s’ils étaient dans le datacenter du client.

Les services dans le cloud ne cessent de s’enrichir. Le vieux débat sur le prix d’une VM dans le cloud semble dépassé. L’enjeu se situe d’avantage sur la rapidité et la qualité du développement d’applications qui permettront aux entreprises d’innover et de progresser.

 

Le stockage se prépare aux grandes marées digitales

L’univers digitale est en pleine expansion et n’est pas prêt de s’arrêter. La vague des objets connectés et le développement continu des réseaux sociaux vont encore amplifier le phénomène. Dans cette profusion de données dans laquelle nous allons baigner beaucoup y voit une source de dynamisme économique présentant la donnée comme le nouvel or noir de l’économie numérique. Il va pourtant falloir déborder d’imagination pour collecter toutes ces données et les stocker pour les analyser en temps réel pour certaines et plus tard pour d’autres.

Cloud storage market

Une marée de données créée par les internautes et les objets connectées. Le domaine du stockage d’information se remet en cause et doit faire preuve d’innovation pour être capable de prendre en compte ces volumes considérables de données. Les technologies progressent  continuellement et offrent un rapport coût performance sans cesse amélioré. Mais ce n’est pas suffisant. Aujourd’hui environ 3,2 milliards de personnes sont connectées à Internet et l’ONU souhaite que 1,5 milliards de personnes supplémentaires puissent avoir accès à Internet en 2020. On estime qu’une personne connectée génère 1,7 Megaoctets par seconde le calcul est vite fait. Vient se rajouter les données qui seront créées par les 50 milliards d’objets connectées (source Cisco). On assiste à une véritable accélération, certains avaient déjà estimé qu’en 2013 il suffisait d’environ 10 mn pour créer ce qui prenait deux jours en 2010 … Explorons donc quelques initiatives non exhaustives pour stocker cette nouvelle richesse infinie.

Le stockage cognitif pour être sélectif dans le choix des données à stocker. Toutes les données n’ont pas la même valeur. Certaines sont abondamment dupliquées, d’autres sont peu fiables  et d’autres n’ont de valeur qu’à un instant précis. Les constructeurs de stockage ont développé des fonctionnalités de déduplication pour être sûr de ne stocker qu’une fois les données. Les spécialistes de la gestion de données proposent des solutions logicielles pour effectuer un nettoyage de données afin de  supprimer les données peu fiables ou redondantes. IBM pourrait aller plus loin grâce à un projet de stockage cognitif qui distinguerait automatiquement les données à forte valeur de celles qui ne présentent qu’un faible intérêt. On pourrait dès lors  savoir lesquelles stocker prioritairement et sur quels types de supports. En d’autres termes on apprend à l’ordinateur à se souvenir des choses importantes et à oublier le reste comme le fait le cerveau. On rentre ainsi dans le domaine de l’infonomics, une discipline émergente qui considère l’information comme faisant partie du capital de l’entreprise et devant être gérée en tant que telle pour apporter de la valeur au business de l’entreprise. Pour l’instant ce projet est à l’état de recherche et il faudra certainement attendre quelques années pour voir un produit commercialisé.

L’ADN comme alternative au stockage magnétique. L’imagination humaine étant sans limite des chercheurs d’Harvard ont réussi à stocker de l’information sur de l’ADN synthétisé. Là encore pas de produit commercialisable mais quand même. Un rapport présenté cette année aStockage ADN montré que l’on pouvait stocker 1 Exaoctets de données sur 1mm3 d’ADN. Chacune des bases nucléotidiques (TGAC) représente une valeur binaire. Le film « le voyage dans la lune » réalisé par Georges Melies en 1902 a pu ainsi être copié un million de fois en utilisant cette technique. En plus de son incroyable capacité de stockage, stocker des données sous la forme de molécules d’ADN offre l’avantage d’une très grande conservation qui peut aller jusqu’à plusieurs siècles en théorie. Une technologie sans doute intéressante dans le futur pour de l’archivage très longue durée.

Repousser les limites technologiques. Certains supports magnétiques ont la vie dure. C’est le cas de la bande magnétique. Plusieurs fois annoncée en fin de vie, la bande magnétique ne cesse d’évoluer pour atteindre de très hautes capacités à de faibles coûts. A ces début en 1952 la bande contenait seulement 2 megaoctets de données. En 2015 IBM et Fujifilm ont annoncé avoir réussi à stocker 220 Teraoctets de données sur une bande (environ 88 fois la capacité de la technologie LTO 6)  Une petite prouesse technologie quand on sait que cela représente 123 milliards de bits par inch carré et qu’il a fallu réussir a positionner la tête de lecture avec une précision de quelques nanomètres.   Google utilise lui-même des librairies automatisées de bandes magnétiques. C’est grâce à ces bandes que Google avait réussi à restaurer des boites Gmail en 2011. Certains utilisateurs de Gmail avaient eu la mauvaise surprise de voir leur boite de messagerie vide suite à un bug logiciel qui avait effacé les copies sur disques. Heureusement une sauvegarde existait sur des bandes magnétiques. A ce jour ce seraient plus de 500 exaoctets de données qui résideraient sur des systèmes de stockage sur bandes.

Stocker les données sous forme d’objets. Traditionnellement les systèmes informatiques stockaient les données sous forme de fichiers et de blocs. Un stockage qui se prêtait bien aux applications traditionnelles basées sur des bases de données relationnelles pour des données dites structurées. En 2020, 70% à 80% des données seront des données non structurées stockage objet gartner(document, email, video, image, son etc..). Il faut donc être capable de proposer des systèmes de stockage optimisés pour les données non structurées, peu coûteux, capable d’évoluer « à l’infini » évolutif et simple d’accès (via http). C’est le principe du stockage objet. La donnée est stockée comme un objet contenant le fichier ainsi que des métadonnées souples que l’on peut enrichir. Les données sont accessibles très facilement via http et chaque donnée possède un identifiant unique. Les applications peuvent également exploiter simplement les données stockées sous ce format grâce à des interfaces de programmation (API REST). Tous les grands constructeurs de systèmes de stockage (voir l’analyse du Gartner dans StorageNewsletter) proposent ce type de solutions sur site (on premise) pour les nouvelles applications dites cloud natives et les fournisseurs de stockage cloud ont adopté cette technologie.

Utiliser le cloud pour stocker l’information. Pour faire face à cette marée de données sans se laisser déborder par la gestion des coûts et la complexité des infrastructures,  les entreprises se tournent de plus en plus vers du stockage dans le cloud. Une manière d’étendre le stockage des Datacenters des entreprises en souplesse dans en environnement hybride combinant cloud privé et cloud public. A en croire l’étude de MarketandMarket le marché du Public cloud storage servicesstockage dans le cloud va croitre de 28,2% par an entre 2015 (18,87 miliards $) et 2020 (65,41 milliards $). Les données des applications critiques resteront dans le datacenter pour des raisons de sécurité ou de réglementation mais pour d’autre comme les sauvegardes ou  la partie web des applications n tiers le cloud offre une solution élégante. Il faut pour cela que l’application ne fasse pas de distinguo entre le stockage résidant dans le Datacenter (ou le cloud privé) et celui localisé dans un cloud public. Pour les nouvelles applications pas de souci elles ont été conçues en général pour le cloud. Pour les applications traditionnelles il faut utiliser une passerelle cloud (Cloud gateway). C’est un équipement physique et virtuel installé dans le datacenter et connecté au stockage objet du fournisseur de cloud. C’est un moyen efficace d’introduire une solution de stockage cloud hybride sans d’importantes modifications d’une application.

Le marché du stockage en ébullition. Les évolutions du stockage ne s’arrêtent pas là, je n’ai pas traité dans ce billet la technologie flash qui devrait s’imposer en 2016 ni de l’hyperconvergence qui ne cesse de croitre. Je renvoie pour cela aux précédents billets :

Un antidote universel contre les ransomwares proposé par Systancia

Les cybercriminels ne sont jamais à court d’idées pour détourner la technologie à des fins malveillantes. Les demandes de rançon sous peine de paralysie des moyens informatiques sont désormais courantes. Ces fameux « ransomwares» touchent aussi bien les individus que les entreprises. Bonne nouvelle, il sera désormais possible d’ouvrir une pièce jointe d’un mail « suspect » sans risque de se faire piéger grâce à la solution de l’éditeur Systancia

ransomware

Les cybercriminels rançonnent par logiciels. Les ransomwares sont des programmes malveillants (malwares) installés sur un ordinateur aux dépends de son propriétaire qui se fait piéger en ouvrant bien souvent la pièce jointe d’un email ou en visitant un site douteux. L’utilisateur est alors averti via un pop-up que son ordinateur est bloqué et qu’il va devoir verser une rançon pour le débloquer. En 2015 ce sont près de 2,2 millions de français qui auraient déjà été victimes de ce type de cyberagression. Aujourd’hui, le premier vecteur de contamination de tous les types de virus est la messagerie, via les pièces jointes ou les liens contenus dans les messages. Certains mails sont indiscutablement des faux, d’autres créent le doute ou semblent faux et peuvent se révéler authentiques. Difficile d’en être sur sans ouvrir la pièce jointe.

Ouvrir un mail sans craindre le pire à chaque fois. Il sera désormais possible d’ouvrir la pièce jointe d’un email suspect sans risque grâce à la solution de l’éditeur de logiciels Systancia qui s’est attaqué à la pandémie des ransomwares avec une solution efficace contre toute menace reçue par e-mail.  La solution permet d’ouvrir la pièce jointe comme on le ferait avec toute pièce jointe mais en toute sécurité. Le fichier est ouvert en temps réel dans une zone de quarantaine dans le cloud hors du système d’information de l’entreprise. L’utilisateur peut donc consulter normalement sa pièce jointe, la parcourir, et s’il estime qu’il s’agit d’un faux, simplement cliquer sur supprimer. Le système effectue en parallèle une vérification pour donner un avis sur la présence d’un mécanisme viral.

L’arme contre le rançonnage : le cloud plus une zone de quarantaine. En plus d’être dans le cloud, cette zone de quarantaine est totalement étanche car les ingénieurs de Systancia ont développé un système qui ouvre la pièce jointe dans une zone sans réseau. Une caractéristique importante quand on sait que la première action d’un ransomware est d’utiliser les capacités réseau du poste de travail. Avec cette zone de quarantaine le virus reste enfermé, piégé à son tour. La grande force de la solution proposée par Systancia est d’avoir réussi la prouesse technologique de faire exister une zone de quarantaine dénuée de réseau mais localisée dans le cloud.

Une protection transparente pour l’utilisateur. Pour l’utilisateur le système est totalement transparent, il est simplement précisé que la pièce jointe est ouverte via IPdiva Protect. Pour les entreprises, contrairement aux anti-virus qui nécessitent une installation sur le poste de travail, IPdiva Protect ne nécessite aucune installation et est compatible Windows, iOS, Linux et sur tout support PC, tablettes et smartphones. L’ensemble de la solution repose sur l’association des produits, AppliDis pour la virtualisation des applications et IPdiva pour la sécurisation des accès

Lire également l’article Systancia: Ultra mobilité et ergonomie font bon ménage avec la virtualisation

L’urgence est à la modernisation des datacenters

Poussée par la vague du numérique, les Datacenters n’ont pas d’autres choix que de se moderniser. A l’horizon 2020 ce sont 7 milliards de personnes et 30 milliards d’objets qui seront connectés et qui participeront à la création des 44 Zettabytes de données prévues en 2020. Les datacenters vont devoir démontrer leur capacité à absorber cette explosion de données et à les traiter de manière efficace. En réunissant clients et partenaires à Las Vegas pour EMC World 2016, en présence de Michael Dell et de Joe Tucci, EMC entend faciliter la voie de cette modernisation à ses clients.

EMC 2

« C’est le commencement de quelque chose de grand » c’est ainsi que Joe Tucci, à la tête de EMC depuis 15 ans, a ouvert la session plénière en évoquant l’acquisition Dell/EMC . Michael Dell,  a son tour sur scène avec Joe Tucci , a rappelé les incroyables progrès technologiques réalisés ces 15 dernières années, tout a été multiplié par 1000 et ce sera encore le cas les 15 prochaines années. Selon lui  « les prochaines applications seront nativement dans le cloud et utiliseront le modèle DevOps ». Et pour Clore son intervention Michael Dell a annoncé que la nouvelle compagnie, quand l’achat sera effectif, prendra le nom de « Dell Technologies ».

Le Datacenter pris en tenaille entre les applications nouvelles et traditionnelles . Ces quinze dernières années les datacenters se sont structurés autour des grands logiciels applicatifs qui automatisaient les fonctions principales de l’entreprise et en constituaient la colonne vertébrale. On choisissait d’abord les logiciels puis ensuite les infrastructures matérielles en suivant les préconisations des éditeurs pour fournir le niveau de service adapté. Cette méthode a contribué à bâtir des silos au sein de la direction informatique avec souvent une grande diversité dans les choix d’architectures technologiques. Les quinze prochaines années les applications ne se contenteront plus de supporter l’activité de l’entreprise mais vont transformer le business notamment avec les applications mobiles. La grande majorité de cette nouvelle génération d’applications sont et seront développées nativement pour le cloud en appliquant les principes de DevOps. On développe l’application et ensuite on vient consommer des ressources d’infrastructures standardisées. Toutes ces nouvelles applications sont directement impactées par la transformation numérique qui constitue la troisième plateforme définie par IDC dont le socle est constitué du Big Data, de la mobilité, du cloud et des réseaux sociaux.

Moderniser sans compromis le Datacenter c’est possible. L’enjeu des datacenters selon EMC consiste à les moderniser en tenant compte à la fois des applications dites traditionnelles et des nouvelles applications. Pour aider les clients dans cette démarche, EMC conjugue la Feration newpuissance de ses sociétés qui a produit des solutions concrètes. Si en 2015 on pouvait s’interroger sur le sens à donner à cette Fédération, cette année le doute n’est plus permis, démonstrations à l’appui pendant l’EMC World. L’action combinée de ces sociétés, qui se renforcera avec l’offre de Dell une fois l’acquisition réalisée, ne se réduit pas à une stratégie marketing ou à une synergie commerciale. Elle combine les technologies de ses membres  (EMC II, Pivotal, VMware, Virtustream, RSA, VCE) pour offrir un large spectre de réponses adaptées aux différentes facettes de la modernisation d’un datacenter que ce soit sous l’angle des applications traditionnelles ou sous celui des nouvelles. Cette approche est parfaitement illustrée dans le cas du cloud en intégrant l’aspect hybride ou bien encore avec la déclinaison de la plateforme  convergée VxRAck qui peut être personnalisée pour l’hyper convergence, le cloud, le big data ou Openstack.

L’union fait la force. L’offre est riche et s’articule pour offrir les caractéristiques essentielles que doit posséder un Datacenter moderne :

modern DC

  • Performance du Flash. Le Flash va devenir le média de prédilection pour stocker l’information. Sa performance est adaptée aux besoins des nouvelles applications et les évolutions récentes l’ont rendu économiquement intéressant pour les applications traditionnelles.
  • Evolutivité Scale out. Pour de nombreuses applications du datacenter moderne, l’architecture sera de nature scale out. L’explosion des données et leur importance dans une économie centrée sur la donnée impose de disposer d’architectures qui s’adaptent de manière fluide et modulaire à cet afflux de données massives. C’est dans ce sens que les architectures scale out (ajout de nœuds) se montrent plus efficaces que les infrastructures scale up (ajout de composant dans un même système)
  • Agilité du Software Defined. La définition des ressources informatiques par logiciels devraient séduire de plus en plus d’entreprises. Utiliser de matériel “commoditisé” (simple et peu coûteux) donne la possibilité de traiter des données massives de manière économique. C’est un impératif car si les données sont multiplié par 1000 c’est loin d’être le cas pour les budgets. Le Software Defined est également le moyen de gagner en agilité en automatisant les configurations et le déploiement des services IT.
  • Ouverture sur le Cloud. Les infrastructures des datacenters (on premise) doivent être impérativement ouvertes sur le Cloud. Elles peuvent ainsi bénéficier du cloud public sans créer de rupture.
  • Haut niveau de confiance. Les considérations précédentes ne sont réellement opérationnelles que  si elles sont pas pensées dans une logique de sécurité et de disponibilité pour garantir un haut niveau de service au application et l’assurance que les données sont protégées et leur intégrité garantie.

Chaque entreprise pourra mettre en œuvre et ajuster ces caractéristiques en fonction de sa taille, de son existant, de sa stratégie d’évolution et de ses exigences. Il n’y a pas une solution unique qui réponde aux particularités de tous les datacenters et de toutes les applications. On le voit avec l’hyper convergence ou selon le nombre de nœuds à gérer et la croissance envisagées on se tournera vers des solutions VxRail ou VxRAck embarquant du VSAN pour des configurations petites ou moyennes et vers du VxRak avec ScaleIO pour de « l’hyperscalabilté ».

Des annonces pour accompagner la modernisation des Datacenters. En début EMC annonces 2 maid’année EMC a déjà fait de nombreuses annonces avec Isilon 8.0, ScaleIO 2.0, ECS 2.2 (Elastic Cloud Storage), les VMAX Full Flash … Ces journées à EMC World vont en ajouter de nouvelles avec comme objectif pour  EMC de toujours coller au plus près des exigences du datacenter moderne. Je vous invite à visiter les blogs EMC pour plus de  détails.

 

Aller chercher la croissance en Amérique du Nord ….

La croissance il faut savoir aller la chercher. Que l’on soit une moyenne entreprise, une entreprise bien établie ou une jeune startup pleine de rêves, la croissance est essentielle à la pérennité. L’époque ne pardonne pas l’immobilisme et condamne les entreprises à rechercher continuellement de nouveaux marchés et de nouveaux débouchés. C’est particulièrement vrai dans la nouvelle économie numérique. A peine lancée la startup fière de son innovation doit très vite asseoir son assise, gagner rapidement de nombreux clients et innover de nouveaux pour ne pas être à son tour challengé par de nouveaux entrants. Dans ce contexte le déploiement à l’international représente pour beaucoup une obligation.

The reflection of Toronto skyline at dusk in Ontario, Canada.

Le rêve d’expansion impose de s’y préparer. L’enjeu n’est pas de quitter la France mais bien de s’étendre sur d’autres marchés avec souvent comme première étape l’Amérique du Nord. Le rêve américain peut cependant se révéler plus risqué que prévu et se transformer en cauchemar pour avoir négligé les embûches. Les célèbres réussites masquent une réalité plus compliquée. Entre besoin de croissance et ressources contraintes, le choix de l’export est souvent difficile. Dans un précédent billet j’expliquai comment la région Ile de France facilitait l’implantation d’entreprises étrangères. Dans l’autre sens on trouve des français qui souhaitent simplifier et accélérer le déploiement des entreprises françaises à l’étranger et tout particulièrement au Canada. C’est le cas de Jérôme Le dall, président d’Acacia Partners, que j’ai rencontré lors d’une de ses visites à Paris.

Toronto : une rampe de lancement pour les entreprises françaises en Amérique du Nord. Jérôme est convaincu que les nouvelles technologies sont des gisements de croissance. Big data, mobilité, cloud, IoT sont en plein développement et requièrent de nouveaux canaux etJ Le Dall 2 de nouveaux partenariats. L’objectif de Jerome est de créer pour les entreprises intéressées par ces technologies un contexte favorable pour un développement aux Etats Unis en se servant de la ville de Toronto comme « hub » pour l’Amérique du nord. Pourquoi Toronto ? Les arguments ne manquent pas à commencer par un environnement multiculturel accueillant ou bon nombre d’activités se fait en anglais et en français. On ne le sait pas toujours mais Toronto est la 4e plus grande ville en Amérique  du Nord après New York, Los Angeles et Mexico et elle est au centre de la zone économique la plus active au monde (triangle New York, Chicago, Montréal). Près de 15.000 entreprises technologiques sont concentrées dans le Census Metropolitan Area (CMA) et emploient 160.000 personnes. Ce hub technologique héberge 35% des entreprises technologiques du pays et en fait le centre technologique de recherche et développement du Canada. Pour démarrer une activité commerciale avec un minimum de risque Toronto semble l’endroit rêvé à en croire le journal Fortune qui classe la ville comme la plus sure de ce point de vue. Un taux de change favorable comparé aux autres villes de l’Amérique du nord (New York, San Francisco, Seattle, Vancouver, Chicago) renforce son attrait économique.

Le déploiement à l’étranger est souvent une découverte et une aventure. Jérôme Le Dall organise souvent des voyages d’études à Toronto. Il considère que c’est un préalable pour démarrer un projet d’export sur de bonnes bases à condition d’avoir été préparé et de disposer des bons contacts sur place. Des français installés à Toronto peuvent être un réel atout en partageant leurs connaissances de l’environnement économique et leurs réseaux. Les attentes sont variées : recherche de réseau de distribution, prospection de clients nord-américains, partenariats technologiques. Comme souvent le tissu relationnel local peut faire gagner beaucoup de temps. Pendant ce voyage les premières opportunités et des partenaires potentiels sont identifiés. Reste ensuite à s’implanter localement en fonction de ses ressources et de ses finances. Acacia Partners simplifie l’hébergement en proposant des espaces bureaux partagés ou privés. Employés ou VIE (Volontariat International en Entreprise) pourront travailler au sein d’une communauté française qui facilitera la transition si nécessaire. Acacia Partners a signé un accord avec la CCI française au Canada installée à Montréal pour développer le business des entreprises françaises dans le Canada anglophone. Depuis 2013 le Canada dispose également d’un « Startup Visa program »  pour attirer des startup étrangères au Canada.

Plus que jamais nos entreprises doivent être ouvertes pour s’adapter aux changements (lire « au secours Darwin le monde est devenu numérique »). Cela passe également par des échanges avec d’autres pays, d’autres cultures, d’autres points de vue qui permettent de progresser et de s’améliorer. Promouvoir nos valeurs et nos réussites et apprendre aux contacts des autres ne sont pas incompatibles.

Pour plus d’info sur le business à Toronto contacter info@acaciapartners.ca

Photo de Toronto utilisée avec l’accord d’Acacia Partners

Plus d’emplois dans le numérique en Ile de France grâce à l’attractivité de la région

La création d’emplois dépend du développement économique de la France. En bouleversant l’économie, le numérique est devenu incontournable dans ce développement et représente un enjeu majeur pour le pays et ses entreprises. Pour attirer des acteurs du numérique, la France possède de nombreux atouts qui devraient accroitre son attractivité mais là, comme ailleurs, la compétition est rude. La France et ses régions doivent monter au créneau pour inciter les sociétés étrangères à s’installer en France. En Ile de France, au sein de « Paris Region Entreprises », Cécile Delépine s’attèle avec passion à cette mission

C Delepine Blog

Paris Region Entreprises (PRE) : contribuer au développement économique de l’Ile de France.  De nombreux acteurs économiques travaillent au développement économique de la France que ce soit au niveau national ou régional. Chaque région met en place des structures pour accélérer et faciliter ce développement. En Ile de France  « Paris Region Entreprises » est l’agence de développement économique de la région avec pour mission:

  • Attirer et implanter en Île-de-France les entreprises étrangères à potentiel de croissance et d’emplois ;
  • Accompagner les entreprises franciliennes dans leur développement économique ;
  • Fédérer les acteurs et les écosystèmes.

La création d’emploi dépend pour une part de la capacité de la France à attirer des entreprises étrangères pour qu’elles s’implantent et se développent sur le territoire. La région Ile de France possèdent de nombreux atouts encore faut-il qu’ils soient connus et reconnus à l’extérieur de la France. Sur ce terrain comme ailleurs, il y a compétition entre les pays pour faire valoir leurs avantages. Au sein de PRE, la direction de la promotion et de la prospection internationale est organisée par filières. L’une d’entre elles concerne les technologies numériques.

Une filière dédiée aux technologies du numérique pour l’Ile de France. Depuis 2011 Cécile Delépine s’occupe de la filière « logiciels d’entreprises » et plus spécifiquement sur le cloud, le Big Data, les plateformes IoT, le machine learning, les smart machines, l’open source et la cyber-sécurité. Une fonction clé qui demande de l’engagement et de la polyvalence dans une époque où le numérique est perçu comme un enjeu majeur pour les entreprises et l’économie. Pour qu’une société étrangère crée des emplois en Ile de France, Cécile doit les identifier, les attirer en Ile de France et les accompagner dans leur développement.

1-      Identifier à l’international les sociétés à fort potentiel : Son rôle consiste tout d’abord à analyser les bassins d’innovation à l’international. Comprendre ou se crée l’innovation et quelles sont les sociétés à forte croissance capables de créer de l’emploi. Cécile se livre à un véritable travail d’analyste. Elle scrute les études et les rapports, participe aux conférences et surveille ce que font les autres pays européens en matière d’attractivité dans le numérique. Il lui faut à la fois de la méthode et de la rigueur mais également de l’intuition pour déceler les tendances et les sociétés qu’elle va cibler. Elle doit vérifier que le potentiel d’innovation et de développement des sociétés identifiées soit en phase avec la maturité et les capacités du marché francilien. Il faut également s’assurer que sur le domaine concerné il y ait de la place pour un nouvel acteur.

2-      Attirer les sociétés étrangères. Après le métier d’analyste, Cécile endosse le métier de commerciale. Son « produit » c’est la région Ile de France et pour le vendre elle doit aller à la rencontre de ses prospects. Elle peut s’appuyer en partie sur les bureaux étrangers à San Francisco, Boston, Shanghai et Tel Aviv. Elle accomplit des missions ciblées à l’étranger pour rencontrer ces sociétés dans leurs locaux quand elle a réussi à obtenir un rendez-vous. Sinon elle prend des contacts dans les salons et les conférences pour provoquer les rencontres. Elle n’hésite pas à monter sur scène pour prendre la parole, comme elle le fera au mois d’Avril à Londres pendant le Cloud Expo, et s’exprimer sur «  Why is the Paris Region good for DataCenter development and Cloud technologies’ adoption ? ».  La région Ile de France a de bons arguments, elle en est convaincue et elle le fait savoir:

  • 3ème plus forte concentration au monde des entreprises Fortune 500.  La Région Ile de France est la première en Europe devant Londres. Tous les grands groupes et tous les secteurs d’activité y sont représentés.
  • La région francilienne possède les compétences clés du numérique. La qualité des écoles d’ingénieur et l’excellence française dans des domaines comme les mathématiques sont reconnues. Facebook ne s’y est d’ailleurs pas trompée en ouvrant un centre de recherche à Paris pour l’intelligence artificielle.
  • Un environnement stimulant pour l’innovation. Les pôles de compétitivité, Cap Digital et Systematic dédiés à la transformation et l’innovation numériques agissent comme des catalyseurs de créativité et d’innovation et ambitionnent de faire de la région Ile de France l’une de références mondiales du numérique. Paris R&DLes sociétés étrangères s’implantant en France pourront bénéficier de cet environnement dynamique pour se développer.

3-      Accompagner les sociétés dans leur développement. Le succès n’est au rendez-vous que si les sociétés réussissent leur développement et créent de l’emploi en Ile de France.  A ce stade Cécile devient « Business Developer ».  Rapidement la société doit identifier son écosystème, bâtir son canal de vente et établir des partenariats. Créer le cadre favorable aux rencontres et aux échanges font partie des missions de Cécile. Elle travaille par exemple avec EuroCloud à la préparation d’un évènement pendant la CloudWeek à Paris début Juillet pour réunir des sociétés étrangères et des sociétés françaises (Intégrateurs, Fournisseur de Cloud, Directeurs informatiques etc..).

Cécile garde toujours en tête l’objectif de sa mission : créer des emplois. Elle suit d’ailleurs avec intérêt les chiffres du Financial Times sur les Foreign Direct Investments ou FDI pour ajuster ses axes de travail avec la réalité des implantations, le montant des investissements et le nombre d’emplois créés. Avec une telle ambassadrice on est sûr que les atouts de la région sont présentés avec brio.

Pour en savoir plus je vous conseille la lecture de l’édition 2016 des Paris Region Key Figures qui présente les chiffres clés de l’économie francilienne (en anglais uniquement).