Les instituts de sondages opèrent leur mutation numérique.

En vue des échéances présidentielles de 2017, l’institut d’études de marché et d’opinions BVA met en place une plateforme digitales en partenariat avec Salesforce, Orange, Presse Régionale et la Fédération Nationale des Travaux Publics. BVA fait ainsi preuve d’innovation et souligne par là même l’importance croissante des réseaux sociaux dans ce qu’ils révèlent des tendances d’opinion. Ces gigantesques sources d’informations participent au big data et doivent être exploitées avec méthode pour en tirer un enseignement de qualité. L’expérience POP 2017 menée par BVA est à ce titre intéressante.

bva-pop-2017

Les citoyens acteurs du débat public grâce au web et aux réseaux sociaux. La campagne présidentielle américaine a apporté son lot de surprises et de rebondissements écornant au passage la qualité du débat démocratique.  Elle nous éclaire sur le risque de décalage qui peut exister entre une classe politique et l’opinion publique. Les citoyens sont de plus en plus nombreux à vouloir agir sur le débat public. Ils s’expriment sur les réseaux sociaux et signent des pétitions en ligne. Ce sont autant de signaux envoyés instantanément à nos politiques qui doivent apprendre  à les décoder et à les analyser pour comprendre et répondre aux attentes de leurs concitoyens. Jusqu’à aujourd’hui nos politiques s’appuyaient sur des enquêtes d’opinion traditionnelles mais le métier des études d’opinion se réinvente à l’aune de la transformation numérique de notre société.

Mesurer en temps réel l’impact de l’actualité sur l’opinion. L’institut de sondage BVA a profité de l’échéance électorale française de 2017 pour innover en matière d’étude de l’opinion.  En lançant la « Plateforme des Opinions Publiques » POP 2017, BVA propose de dresser un panorama à 360° des opinions des Français et de saisir en temps réel l’influence de l’actualité sur les mouvements d’opinion. Un exercice délicat qui requiert des outils et du métier car toute actualité, même brûlante, ne modifie pas forcément les intentions de vote. De la même manière, constater qu’une personnalité ou un sujet provoque des réactions  sur internet ne suffit pas. Il faut pouvoir identifier la cause de ces réactions en décelant, dès leur apparition, les signaux faibles qui peuvent en être à l’origine.  Ces signaux faibles sont des actualités qui passent souvent inaperçues alors qu’elles peuvent générer dans le temps des changements d’opinions. Pour identifier ces signaux faibles les réseaux sont une source incomparable.

POP 2017 : un laboratoire d’analyse des opinions politiques.   Pour réussir à mesurer l’impact de l’actualité et la cristallisation des intentions de vote autour de quelques thématiques, POP 2017, réalisé en partenariat avec Salesforce, la Presse Régionale, Orange et la Fédération Nationale des Travaux Publics, s’articule autour de trois volets :

  • L’écoute du Web et des réseaux sociaux: L’outil Social Studio de Salesforce recherche en permanence des mentions sur 18 personnalités politiques et 30 thématiques. Il analyse  plus d’un milliard de sources sur le web.
  • Une communauté de citoyens en ligne : En commentant et en réagissant à des sujets d’actualité, cette communauté aide à comprendre comment se forment et se structurent les opinions.
  • Des sondages: Plus de 30 sondages par mois sont réalisés auprès d’un échantillon représentatif de la population française pour mesurer l’impact des opinions sur les intentions de vote.

POP 2017 fournit l’ensemble de ces données en temps réel sur le site www.pop2017.fr

Une expérience dont les politiques devraient s’inspirer. Loin de tout abandonner au profit des seuls réseaux sociaux, l’originalité de POP 2017 repose sur le mix de ces 3 sources complémentaires d’analyse.  BVA dispose ainsi d’une vue d’ensemble sur les mouvements d’opinions qui tient compte de temporalités différentes. Si cette expérience contribue à faire évoluer le métier des sondeurs d’opinion, elle devrait inspirer également les politiques. L’expérience menée par POP 2017 démontre que réagir à une actualité ponctuelle, même importante, peut conduire à occulter les véritables attentes des Français. Le prisme de la surmédiatisation explique souvent le décalage ressenti entre l’opinion et la classe politique. Interpréter les signaux forts et les signaux faibles demande des outils et du doigté.

Ce laboratoire d’opinions est utilisé dans un contexte de campagne présidentielle mais son champ d’application peut s’étendre bien au-delà. Toutes les entreprises font appel à des études pour connaitre et comprendre leur marché, leurs clients et leurs utilisateurs afin d’améliorer leurs offres, leurs services et la relation client. L’exploitation des réseaux sociaux leur offre une source complémentaire d’informations à condition de savoir l’exploiter avec méthode.

 

 

 

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Dataviz : pilotage à vue de l’entreprise

Ce n’est pas une science nouvelle, depuis que l’informatique existe nous avons cherché à présenter les données d’une manière visuelle pour en simplifier la compréhension et l’interprétation. toucan-baptisteLa data visualisation donnait une forme concrète à la business intelligence. Avec l’arrivée des données massives (Big data) le terme data virtualisation a progressivement laissé la place à la « DataViz » une manière de montrer que cette discipline s’est adaptée à l’ère du numérique. Rencontre avec Baptiste Jourdan Directeur du business development chez Toucan Toco spécialiste de la dataviz

La Dataviz :  l’outil moderne de pilotage des entreprises. La DataViz est devenu en soi un moyen de communication tant en interne qu’en externe. Ce n’est pas nouveau, Confucius déjà en son temps se plaisait à dire qu’une image vaut mille mots” et de nos jours l’image prime souvent sur les mots. La data visualisation, c’est l’art de raconter des chiffres de manière créative et ludique, là où les tableaux Excel ont toucan-interactionatteint leurs limites. Dans notre économie moderne toutes les directions ont besoin de piloter leurs organisations le plus finement possible en s’appuyant sur des données nombreuses et riches et en produisant des tableaux de bords pertinents. Toucan Toco donne dans son blog l’exemple de 6 tableaux de bord pour les Ressources humaines. De ma rencontre avec Baptiste j’ai retenu quelques principes qui font de la dataviz un outil de communication moderne, efficace et intéractif.

Premier principe : la dataviz s’appuie sur les sciences cognitives. La dataviz est devenue un art qui allie l’esthétique à la psychologie et démocratise par la même occasion l’accès à la donnée. Elle reprend des concepts philosophiques de la théorie de Gelstalt selon laquelle l’être humain à tendance à organiser des éléments visuels dans des groupes qui l’aide à en distinguer les formes par des jeux de couleurs et des procédés visuels. Cette partie des sciences cognitives constitue l’ADN de Toucan Toco.

Deuxième principe : la dataviz n’est plus réservée à un cercle restreint d’happy few. Le rôle de la dataviz est de communiquer des chiffres ou des données toucan-dev-1brutes en les présentant sous forme d’objets visuels. C’est un formidable outil de communication qui facilite le partage et la compréhension de l’information. Son impact est tel que la dataviz se démocratise et de ce fait elle doit s’adapter à la typologie de chaque utilisateur en offrant des « data story telling » différents à partir de la même application.

Troisième principe : la dataviz donne vie aux données. Elle peut devenir à elle seule le cœur d’une présentation dynamique lors d’une réunion. Les données ne sont plus figées, elles prennent vie à l’écran et raconte une histoire plus ou moins détaillées en remontant dans le temps si nécessaire selon les interlocuteurs et leurs centres d’intérêt. L’utilisateur interagit avec la représentation des données en temps réel.  Les néophytes peuvent s’approprier les données car d’une certaine manière la dataviz permet au big data de parcourir le dernier kilomètre jusqu’à l’utilisateur final.

Quatrième principe : utiliser les multiples sources de données. Tout le monde n’a pas encore créé son fameux lac de données (data lake) qui hébergerait toutes les données de l’entreprise pour que l’on puisse y puiser facilement ce que l’on cherche. Toucan Toco a donc développer de nombreux connecteurs qui permettent d’aller chercher les données là où elles se trouvent.

Cinquième principe : l’expérience mobile sur tous les types d’operating system.

toucan-mobilite

Il ne suffit pas d’adapter les dataviz au profil de chaque utilisateur,  encore faut-il eque chacun y est accès en fonction de son usage et de son mode de connexion. On connait l’usage qui est fait des mobiles de nos jours, une dataviz digne de ce nom ne peut donc pas passer à côté d’une expérience mobile disponible sur tous les équipements. C’est ce qu’a fait Toucan Toco en offrant un accès économique à la dataviz à quelques soit l’équipement mobile utilisé

La dataviz : une autre manière de consommer les données. L’infobésité nous guette. Devant ce flux de données la paralysie nous guette. Moteur de recommandation, curation et dataviz sont autant de moyens de nous aider à lutter contre l’infobésité en contrôlant la manière dont nous absorbons l’information. Pas étonnant donc que la dataviz ait le vent en poupe dans de nombreuses entreprises. Toucan Toco est présent chez de nombreux clients français et réalise des dataviz grand public comme la météo de l’économie française et le baromètre des pages jaunes

De multiples usages

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :

Les objets connectés sont l’avenir du 21 ème siècle

Avec le numérique on n’arrête plus de faire la révolution, la prochaine annoncée est celle des objets connectés (IoT) . Elle porte en soi la concrétisation de toutes les promesses du numérique et bénéficie des innovations apportées par le cloud, le big data et l’intelligence artificielle. La richesse des objets connectés c’est la multitude d’objets qui collaborent et communiquent pour transformer le monde en données et le rendre « intelligent ».

Aujourd’hui un très faible pourcentage d’objets sont connectés, sans doute environ 2%, mais en 2020 selon IDC ce seront 15 % qui seront connectés représentant plus de 20 milliards d’objets pour Gartner. La mission première de tous ces objets est de collecter et de transmettre des informations, grâce à des capteurs multiples et variés, qui après exploitation vont ajouter des fonctionnalités à cet objet et offrir de nouveaux services pour une expérience utilisateur augmentée. Avec cette prolifération d’objets connectés l’univers numérique touchera à l’apothéose : à terme quasiment tout deviendra source de données. Dernièrement Le MIT Media Lab et Microsoft Research ont même été imaginer un tatouage éphémère qui pousserait la notion d’objet connectable encore plus loin. En 2020 on estime que les objets connectés compteront pour 27% de toutes les données (source IDC).

Les objets connectés apportent une réponse aux enjeux du 21 ème siècle. Le déploiement des objets connectés trouve son utilité dans tous les secteurs d’activité. Plus qu’utile l’objet connecté va s’avérer incontournable pour faire face aux enjeux du 21 ème siècle. Il faut considérer chaque objet connecté comme un élément d’un système plus vaste (l’habitat, le bâtiment la voiture, le magasin, l’aéroport, l’usine, la ville etc ..) et œuvrant pour l’amélioration de tous les secteurs d’activité (agriculture connectée, santé connectée etc…). Tout le monde s’intéresse au marché IoT y compris les géants du web comme Google qui a déposé fin juillet un brevet de salle de bain connectée pour prévenir les maladie en mesurant l’évolution des systèmes cardiovasculaires, nerveux, endocriniens et musculaire de ses utilisateurs. Face à la démographie galopante qui nous promet 9,6 milliards d’habitants sur terre en 2050 (dont plus de la moitié vit  en zone urbaine depuis 2008) le rôle des objets connectés est essentiel. Un rôle d’autant plus important que nos ressources s’épuisent.  Le mercredi 22 août 2016, l’humanité avait déjà épuisé son crédit annuel de ressources naturelles. Les effets sont inquiétants quand on sait qu’en 2030 la demande en eau sera supérieure de 40% à l’offre mondiale. Les objets connectés ne sont pas le remède miracle mais surement une partie de la solution. L’agriculture a déjà entamé la révolution des objets connectés pour optimiser les rendements. Avec 54% de la population mondiale qui vit aujourd’hui dans les zones urbaines et qui devrait passer à 66% en 2050 les villes n’ont pas d’autre choix que de devenir intelligentes pour réguler le trafic automobile, la consommation électrique, la fourniture d’eau et lutter contre la pollution. En 2030 tous les foyers français devraient être équipés de compteurs d’eau intelligents qui pourraient faire baisser la consommation d’environ 15% grâce à un suivi personnalisé. ( lire En 2030, notre eau sera intelligente et connectée)

L’utilisation des objets connectés s’appuient sur les piliers de la transformation numérique. Les objets connectés ne fonctionnent qu’en exploitant les technologies fondamentales du numériques et bien sur les réseaux. Les mobiles et smartphones pour fournir les applications exploitant les données de bon nombre d’objets. Le big data pour collecter, stocker et traiter la multitude de données, l’intelligence artificielle pour créer des systèmes agissant de façon autonome et le cloud pour héberger de manière économique les ressources informatiques qui sous-tendent le fonctionnement des objets connectés. Pour accompagner ce formidable développement les questions ne manquent pas à commencer par la sécurité. Le sujet n’est pas nouveau dans notre monde désormais numérique mais le nombre et la distribution d’objets interconnectés couplés à la puissance de l’intelligence artificielle amplifient les risques et complexifient la sécurité. On a déjà en tête le piratage de voiture et tout récemment un article faisait froid dans le dos en évoquant le possible piratage d’un cerveau humain à partir d’implants (lire Brainjacking: Hacking brain implants). Scénarii catastrophes qui nous sensibilisent encore d’avantage à la cyber sécurité thème majeur de notre siècle. N’oublions pas d’évoquer le sujet de la protection des données personnelles. Tous ces objets vont envahir notre quotidien et enregister bon nombre de nos activités  posant ainsi la question de la limite de l’utilisation de ces données. Une raison de s’intéresser à la toute dernière réglementation européenne dans ce domaine la General Data Protection Regulation GDPR.

Comme toute révolution technologique des metiers disparaissent et d’autres se créent. Le bilan est positif ou négatif selon les analystes qu’on interroge mais face aux enjeux de notre planète il parait désormais difficile de s’en passer.  Reste à repenser nos modèles économique et sociétaux pour que la transition se fasse le plus harmonieusement possible

Moins de 2 ans pour se conformer à la General Data Protection Régulation européenne GDPR

La nouvelle réglementation européenne sur la protection des données GDPR laisse moins de 2 ans aux entreprises pour s’y conformer. Au-delà de la contrainte réglementaire c’est aussi une formidable opportunité de gagner la confiance des clients et des consommateurs en renforçant sa politique de sécurité

GDPR site

Concilier potentiel économique et respect de la vie privée. Les données personnelles sont devenues un enjeu économique extrêmement important. L’économie numérique repose largement sur cette notion de services contre l’échange de données à caractère personnelle. Avec l’utilisation des smartphones et des applications chacun d’entre nous produit constamment des données qui sont autant d’informations sur notre mode de vie et nos comportements. Les données massives (big data) représentent un formidable vecteur de croissance pour l’économie moderne que le foisonnement des objets connectés dans tous les secteurs va continuer à accentuer. Le développement de l’intelligence artificielle ouvre des possibilités quasiment illimitées sur l’exploitation de toutes ces données.  Le potentiel économique de ses données est de nature à aiguiser les appétits et à faire fi du respect de notre intimité dans un univers numérique ou les frontières se sont nettement estompées et complique la réglementation.

Quatre ans pour aboutir à une réglementation européenne sur la protection des données personnelles. Il aura ainsi fallu 4 ans de préparation et de débats pour que finalement une réglementation européenne voie le jour. C’est la fameuse GDPR (General Data Protection Regulation) qui a été approuvée le 14 avril 2016 et qui remplace la directive 95/46/EC. Tous les états membres de la communauté européenne devront s’y conformer d’ici le 25 mai 2018. Cette réglementation européenne a pour objectifs d’harmoniser les lois sur les données personnelles en Europe, de protéger les données personnelles des citoyens européens et de réformer la manière dont les organisations approchent les données personnelles.

Moins de deux ans pour se conformer à la GDPR. Cette réglementation  s’applique de manière uniforme à tous les membres de l’union européenne indépendamment de leur localisation que le traitement des données soit exécuté en Europe ou non. Les entreprises et les organisations européennes ont désormais moins de deux ans pour se conformer à cette réglementation sous peine d’amendes qui peuvent aller jusqu’à 4 % du chiffre d’affaires annuel mondial ou 20 millions d’euros. Il n’y a donc pas de temps à perdre car la tache peut s’avérer ardue et nécessite de la méthode et de la préparation. Mais plutôt que la sanction les entreprises peuvent y trouver une autre source de motivation. La confiance des consommateurs est souvent remise en question par des craintes sur la sécurité. Voici donc une belle occasion de renforcer cette sécurité indispensable à l’économie numérique et d’augmenter par la même occasion la confiance des consommateurs. La transparence est de rigueur avec la GDPR et la notification de failles de sécurité sera impérative et obligatoire dans un délai de 72h après la détection de la faille. La GDPR est un argument de plus pour pousser les entreprises à mettre en œuvre de véritables politiques de sécurité  et à se préparer activement aux cyberattaques.

Le GDPR a le mérite de clarifier les choses sur  de nombreux points tels que consentement, droit à l’accès aux données, droit à l’oubli, portabilité des données ou bien encore nomination d’un Data Protection officer (DPO). Je ne saurai trop recommander aux entreprises de rapidement se pencher sur cette réglementation et de se rapprocher des experts qui pourront les accompagner efficacement dans la mise en conformité. Reste à voir également comment le Royaume uni se comportera vis-à-vis du GDPR suite au Brexit ….

Lire également GDPR : Pas de conformité sans sécurité des données personnelles, pas de sécurité sans respect de la vie privée

site GDPR : http://www.eugdpr.org/eugdpr.org.html

 

Le stockage se prépare aux grandes marées digitales

L’univers digitale est en pleine expansion et n’est pas prêt de s’arrêter. La vague des objets connectés et le développement continu des réseaux sociaux vont encore amplifier le phénomène. Dans cette profusion de données dans laquelle nous allons baigner beaucoup y voit une source de dynamisme économique présentant la donnée comme le nouvel or noir de l’économie numérique. Il va pourtant falloir déborder d’imagination pour collecter toutes ces données et les stocker pour les analyser en temps réel pour certaines et plus tard pour d’autres.

Cloud storage market

Une marée de données créée par les internautes et les objets connectées. Le domaine du stockage d’information se remet en cause et doit faire preuve d’innovation pour être capable de prendre en compte ces volumes considérables de données. Les technologies progressent  continuellement et offrent un rapport coût performance sans cesse amélioré. Mais ce n’est pas suffisant. Aujourd’hui environ 3,2 milliards de personnes sont connectées à Internet et l’ONU souhaite que 1,5 milliards de personnes supplémentaires puissent avoir accès à Internet en 2020. On estime qu’une personne connectée génère 1,7 Megaoctets par seconde le calcul est vite fait. Vient se rajouter les données qui seront créées par les 50 milliards d’objets connectées (source Cisco). On assiste à une véritable accélération, certains avaient déjà estimé qu’en 2013 il suffisait d’environ 10 mn pour créer ce qui prenait deux jours en 2010 … Explorons donc quelques initiatives non exhaustives pour stocker cette nouvelle richesse infinie.

Le stockage cognitif pour être sélectif dans le choix des données à stocker. Toutes les données n’ont pas la même valeur. Certaines sont abondamment dupliquées, d’autres sont peu fiables  et d’autres n’ont de valeur qu’à un instant précis. Les constructeurs de stockage ont développé des fonctionnalités de déduplication pour être sûr de ne stocker qu’une fois les données. Les spécialistes de la gestion de données proposent des solutions logicielles pour effectuer un nettoyage de données afin de  supprimer les données peu fiables ou redondantes. IBM pourrait aller plus loin grâce à un projet de stockage cognitif qui distinguerait automatiquement les données à forte valeur de celles qui ne présentent qu’un faible intérêt. On pourrait dès lors  savoir lesquelles stocker prioritairement et sur quels types de supports. En d’autres termes on apprend à l’ordinateur à se souvenir des choses importantes et à oublier le reste comme le fait le cerveau. On rentre ainsi dans le domaine de l’infonomics, une discipline émergente qui considère l’information comme faisant partie du capital de l’entreprise et devant être gérée en tant que telle pour apporter de la valeur au business de l’entreprise. Pour l’instant ce projet est à l’état de recherche et il faudra certainement attendre quelques années pour voir un produit commercialisé.

L’ADN comme alternative au stockage magnétique. L’imagination humaine étant sans limite des chercheurs d’Harvard ont réussi à stocker de l’information sur de l’ADN synthétisé. Là encore pas de produit commercialisable mais quand même. Un rapport présenté cette année aStockage ADN montré que l’on pouvait stocker 1 Exaoctets de données sur 1mm3 d’ADN. Chacune des bases nucléotidiques (TGAC) représente une valeur binaire. Le film « le voyage dans la lune » réalisé par Georges Melies en 1902 a pu ainsi être copié un million de fois en utilisant cette technique. En plus de son incroyable capacité de stockage, stocker des données sous la forme de molécules d’ADN offre l’avantage d’une très grande conservation qui peut aller jusqu’à plusieurs siècles en théorie. Une technologie sans doute intéressante dans le futur pour de l’archivage très longue durée.

Repousser les limites technologiques. Certains supports magnétiques ont la vie dure. C’est le cas de la bande magnétique. Plusieurs fois annoncée en fin de vie, la bande magnétique ne cesse d’évoluer pour atteindre de très hautes capacités à de faibles coûts. A ces début en 1952 la bande contenait seulement 2 megaoctets de données. En 2015 IBM et Fujifilm ont annoncé avoir réussi à stocker 220 Teraoctets de données sur une bande (environ 88 fois la capacité de la technologie LTO 6)  Une petite prouesse technologie quand on sait que cela représente 123 milliards de bits par inch carré et qu’il a fallu réussir a positionner la tête de lecture avec une précision de quelques nanomètres.   Google utilise lui-même des librairies automatisées de bandes magnétiques. C’est grâce à ces bandes que Google avait réussi à restaurer des boites Gmail en 2011. Certains utilisateurs de Gmail avaient eu la mauvaise surprise de voir leur boite de messagerie vide suite à un bug logiciel qui avait effacé les copies sur disques. Heureusement une sauvegarde existait sur des bandes magnétiques. A ce jour ce seraient plus de 500 exaoctets de données qui résideraient sur des systèmes de stockage sur bandes.

Stocker les données sous forme d’objets. Traditionnellement les systèmes informatiques stockaient les données sous forme de fichiers et de blocs. Un stockage qui se prêtait bien aux applications traditionnelles basées sur des bases de données relationnelles pour des données dites structurées. En 2020, 70% à 80% des données seront des données non structurées stockage objet gartner(document, email, video, image, son etc..). Il faut donc être capable de proposer des systèmes de stockage optimisés pour les données non structurées, peu coûteux, capable d’évoluer « à l’infini » évolutif et simple d’accès (via http). C’est le principe du stockage objet. La donnée est stockée comme un objet contenant le fichier ainsi que des métadonnées souples que l’on peut enrichir. Les données sont accessibles très facilement via http et chaque donnée possède un identifiant unique. Les applications peuvent également exploiter simplement les données stockées sous ce format grâce à des interfaces de programmation (API REST). Tous les grands constructeurs de systèmes de stockage (voir l’analyse du Gartner dans StorageNewsletter) proposent ce type de solutions sur site (on premise) pour les nouvelles applications dites cloud natives et les fournisseurs de stockage cloud ont adopté cette technologie.

Utiliser le cloud pour stocker l’information. Pour faire face à cette marée de données sans se laisser déborder par la gestion des coûts et la complexité des infrastructures,  les entreprises se tournent de plus en plus vers du stockage dans le cloud. Une manière d’étendre le stockage des Datacenters des entreprises en souplesse dans en environnement hybride combinant cloud privé et cloud public. A en croire l’étude de MarketandMarket le marché du Public cloud storage servicesstockage dans le cloud va croitre de 28,2% par an entre 2015 (18,87 miliards $) et 2020 (65,41 milliards $). Les données des applications critiques resteront dans le datacenter pour des raisons de sécurité ou de réglementation mais pour d’autre comme les sauvegardes ou  la partie web des applications n tiers le cloud offre une solution élégante. Il faut pour cela que l’application ne fasse pas de distinguo entre le stockage résidant dans le Datacenter (ou le cloud privé) et celui localisé dans un cloud public. Pour les nouvelles applications pas de souci elles ont été conçues en général pour le cloud. Pour les applications traditionnelles il faut utiliser une passerelle cloud (Cloud gateway). C’est un équipement physique et virtuel installé dans le datacenter et connecté au stockage objet du fournisseur de cloud. C’est un moyen efficace d’introduire une solution de stockage cloud hybride sans d’importantes modifications d’une application.

Le marché du stockage en ébullition. Les évolutions du stockage ne s’arrêtent pas là, je n’ai pas traité dans ce billet la technologie flash qui devrait s’imposer en 2016 ni de l’hyperconvergence qui ne cesse de croitre. Je renvoie pour cela aux précédents billets :