Moins de 2 ans pour se conformer à la General Data Protection Régulation européenne GDPR

La nouvelle réglementation européenne sur la protection des données GDPR laisse moins de 2 ans aux entreprises pour s’y conformer. Au-delà de la contrainte réglementaire c’est aussi une formidable opportunité de gagner la confiance des clients et des consommateurs en renforçant sa politique de sécurité

GDPR site

Concilier potentiel économique et respect de la vie privée. Les données personnelles sont devenues un enjeu économique extrêmement important. L’économie numérique repose largement sur cette notion de services contre l’échange de données à caractère personnelle. Avec l’utilisation des smartphones et des applications chacun d’entre nous produit constamment des données qui sont autant d’informations sur notre mode de vie et nos comportements. Les données massives (big data) représentent un formidable vecteur de croissance pour l’économie moderne que le foisonnement des objets connectés dans tous les secteurs va continuer à accentuer. Le développement de l’intelligence artificielle ouvre des possibilités quasiment illimitées sur l’exploitation de toutes ces données.  Le potentiel économique de ses données est de nature à aiguiser les appétits et à faire fi du respect de notre intimité dans un univers numérique ou les frontières se sont nettement estompées et complique la réglementation.

Quatre ans pour aboutir à une réglementation européenne sur la protection des données personnelles. Il aura ainsi fallu 4 ans de préparation et de débats pour que finalement une réglementation européenne voie le jour. C’est la fameuse GDPR (General Data Protection Regulation) qui a été approuvée le 14 avril 2016 et qui remplace la directive 95/46/EC. Tous les états membres de la communauté européenne devront s’y conformer d’ici le 25 mai 2018. Cette réglementation européenne a pour objectifs d’harmoniser les lois sur les données personnelles en Europe, de protéger les données personnelles des citoyens européens et de réformer la manière dont les organisations approchent les données personnelles.

Moins de deux ans pour se conformer à la GDPR. Cette réglementation  s’applique de manière uniforme à tous les membres de l’union européenne indépendamment de leur localisation que le traitement des données soit exécuté en Europe ou non. Les entreprises et les organisations européennes ont désormais moins de deux ans pour se conformer à cette réglementation sous peine d’amendes qui peuvent aller jusqu’à 4 % du chiffre d’affaires annuel mondial ou 20 millions d’euros. Il n’y a donc pas de temps à perdre car la tache peut s’avérer ardue et nécessite de la méthode et de la préparation. Mais plutôt que la sanction les entreprises peuvent y trouver une autre source de motivation. La confiance des consommateurs est souvent remise en question par des craintes sur la sécurité. Voici donc une belle occasion de renforcer cette sécurité indispensable à l’économie numérique et d’augmenter par la même occasion la confiance des consommateurs. La transparence est de rigueur avec la GDPR et la notification de failles de sécurité sera impérative et obligatoire dans un délai de 72h après la détection de la faille. La GDPR est un argument de plus pour pousser les entreprises à mettre en œuvre de véritables politiques de sécurité  et à se préparer activement aux cyberattaques.

Le GDPR a le mérite de clarifier les choses sur  de nombreux points tels que consentement, droit à l’accès aux données, droit à l’oubli, portabilité des données ou bien encore nomination d’un Data Protection officer (DPO). Je ne saurai trop recommander aux entreprises de rapidement se pencher sur cette réglementation et de se rapprocher des experts qui pourront les accompagner efficacement dans la mise en conformité. Reste à voir également comment le Royaume uni se comportera vis-à-vis du GDPR suite au Brexit ….

Lire également GDPR : Pas de conformité sans sécurité des données personnelles, pas de sécurité sans respect de la vie privée

site GDPR : http://www.eugdpr.org/eugdpr.org.html

 

La mobilité et la vidéo révolutionnent le marché publicitaire.

A l’occasion du salon VivaTech, qui s’est déroulé à Paris, les 1 et 2 juillet 2016, plus de 8 500 visiteurs se sont déplacés pour bleriotrencontrer des start-ups mais également pour assister à de nombreux débats et spécialement autour de la publicité TV « à l’âge des écrans multiples » et de « la révolution mobile ». En 2020 la vidéo représentera 82% du trafic internet. Avec la généralisation des smartphones et des tablettes l’usage de la vidéo s’est démocratisé. Toutes les entreprises vont devoir élaborer de véritables stratégies de communication axées sur la vidéo. Christine Bleriot experte en communication digitale attire notre attention sur ce marché en pleine évolution.

vivatech

25% du marché publicitaire se déroulera sur le second écran en 2017 ! Cette prévision  est l’une des principales priorités que tout directeur médias et marketing doit prendre en considération dès aujourd’hui. PC, mobile, tablette, IPTV, attirent les annonceurs. Encore faut-il appréhender la façon dont la publicité est consommée sur chaque écran.  L’écran TV va rester  le média de prédilection pour le divertissement et le sport en général. C’est une tv d’accompagnent qui donne la liberté au téléspectateur de faire autre chose en parallèle. Les spectateurs sur écran mobile et ou tablette, attendent eux une dynamique de contenus, une nouvelle expérience avec interaction possible, une expérience enrichie.  On ne consomme pas les écrans de la même façon, même si les études Médiamétrie montrent qu’en moyenne un  individu regarde les programmes sur 3 à 4 écrans différents par jour.

Place aux nouvelles expériences sur le second écran. Pour être efficaces les spots digitaux deviennent individualisés et géo localisés. Les annonceurs et agences doivent créer des contenus différents. Nous sommes au démarrage du multi-écrans et le message se personnalise et se formate en tenant compte de l’individu quand on s’adresse à lui sur le mobile. « Produce more contents for more devices ». Sur une tablette, l’annonceur n’a que 5 secondes en moyenne pour capter l’attention avec une vidéo, bien moins que les 15/30 secondes des spots TV traditionnels. Une adaptation primaire d’un spot TV ou de cinéma ne suffit donc pas  à convaincre cette cible zappeuse. Les régies publicitaires des grands groupes TV évangélisent les annonceurs en proposant des offres de spots digitaux individualisés, géo localisées. L’annonceur peut y gagner en interaction avec sa cible. Ce type de format est très performant sur les moins de 35 ans. Susciter l’intérêt avec des spots courts de moins de 6 secondes, embarquer le spectateur dans un véritable story-telling, sont donc les priorités futures des annonceurs et des directeurs artistiques en agence. Stop à la publicité classique sur les seconds écrans, place aux nouvelles expériences ! Avant de réaliser votre vidéo n’oubliez pas qu’une vidéo sur 2 sur mobile et tablette est visionnée sans le son !

La vidéo au sein du parcours client. Les investissements publicitaires en ligne ne cessent de croitre. La pub vidéo représente déjà 30 % de ce marché florissant et ce phénomène va s’amplifier. Nous sommes tous internautes et souvent lassés et agacés des pre-roll que nous recevons régulièrement. Alors, Les opérateurs mobile et  les agences médias brainstorment, Gingalabinnovent et imaginent des nouveaux formats qui se veulent plus pertinents parce que de plus en plus personnalisés. C’est le cas notamment avec SFR qui teste actuellement avec une start-up présente à VivaTech, Gingalab , une vidéo dont le contenu s’adapte au mobinaute selon l’endroit physique où il est géolocalisé. Vous faites par exemple vos courses chez Carrefour, mais la veille vous vous êtes connecté avec votre mobile pour trouver des tarifs de pneus. Le lendemain, à peine passé les portes de votre centre commercial préféré, vous recevez une vidéo en push qui vous propose une offre promotionnelle immédiate à valoir si vous vous rendez au centre auto situé sur le parking. Résisterez-vous à la tentation ? Le principe tient dans une automatisation de centaines de scénarii possibles, préenregistrés à l’avance, et l’opérateur n’a plus qu’à vous adresser celui qui vous correspond à un instant T de votre vie de mobinaute.

Tout le monde s’est mis à la vidéo et les réseaux sociaux s’inventent en « chaine de telé » avec le live streaming video.  Chacun de nous peut s’improviser réalisateur tant le numérique a mis à la portée de tous des moyens simples pour créer des vidéos de bonne qualité . La startup Gingalab avec son produit Active Cloud Editing démontre la simplicité de monter une vidéo en ligne (voir la demo).  Dans cette profusion de nouveaux contenus  pour rester efficace il faudra redoubler d’imagination.

Merci à Christine Bleriot pour sa contribution à la rédaction de ce billet

 

Rencontre avec Anthony Cirot Directeur Cloud chez IBM France

L’abondance d’innovations technologiques a créé de nouveaux usages et amené des modèles d’affaires en rupture avec le passé. Dans ce monde en profonde mutation les entreprises n’ont d’autres choix que d’innover rapidement pour maintenir leur positon et continuer à se développer. Le numérique impose une accélération souvent insoutenable pour beaucoup. Dans ce contexte le cloud devient le moteur de l’innovation en facilitant bien entendu l’accès aux ressources informatiques mais surtout en offrant un véritable environnement d’innovation. Rencontre avec Anthony Cirot Directeur du Cloud IBM France à quelques jours de la Cloudweek 2016 à Paris.

Anthony Cirot

Le cloud incontournable pour les développeurs. Le tournoi de Roland-Garros en est un excellent exemple. L’évènement a beau se dérouler sur une courte période il faut néanmoins disposer de ressources puissantes pour développer les applications et fournir en temps réel les statistiques des joueurs qui s’afficheront sur nos écrans. Pour y arriver IBM s’est appuyé sur son offre d’Infrastructure as a service (IaaS) Softlayer et sa plateforme d’innovation Bluemix. Les données du tournoi étaient collectées sur place en temps réel dans un petit data center. Ce dernier formait un cloud hybride avec le cloud Softlayer, lui-même réparti sur quatre plaques géographiques pour assurer une totale résilience. Les développeurs mobilisés pour le tournoi pouvaient faire appel à des services cognitifs dans le cloud et effectuer toutes les opérations sur les applications en temps réel dans l’esprit DevOps.

Bluemix une plateforme pour l’innovation. Anthony Cirot préfère définir Bluemix comme une plateforme d’innovation numérique plutôt que par l’acronyme PaaS (Platform as a Service) qu’il juge réducteur. Avec 140 services Bluemix, il est vrai que l’offre est riche et les développeurs peuvent utiliser une combinaison des technologies informatiques open source les plus en vue pour optimiser leurs applications.

Bluemix innovation V1

Au-delà d’une large palette de langages de programmation, de très nombreux domaines son couverts. Cela va de DevOps aux outils cognitifs Waston en passant par la mobilité, le big data ou bien encore l’IoT. On trouve également un service Blockchain en beta. Un client peut étendre les fonctionnalités de ces applications en faisant le choix parmi des services IBM, de tiers et de communauté. Cette plateforme d’innovation se présente sous la forme d’un cloud privé installé chez le client, d’un cloud privé externe ou bien encore d’un cloud public. Bluemix peut compter sur les 25 datacenters d’IBM Softlayer pour répondre à toutes les attentes des clients où qu’ils soient. Pour dynamiser encore l’innovation, IBM dispose aussi de « Bluemix garages » dans différents pays y compris la France à Nice. Ce concept de « garage » propose des services de conseils et développement d’application sur Bluemix avec l’ADN d’une startup. Ces Bluemix garage offrent la possibilité, à des entreprises de toutes tailles, de concevoir et de créer des applications attractives via « le Design Thinking » d’IBM, le démarrage rapide et l’implémentation agile incluant notamment la mise en place de chaînes DevOps pour améliorer la qualité. Les entreprises peuvent ainsi accélérer toutes les phases du cycle de vie de conception, de développement et de distribution des applications.

IBM franchit une nouvelle étape avec des services de vidéo dans le cloud. Le marché et les attentes évoluent rapidement au gré de l’adoption des nouveaux usages comme en IBM Rolland garrostémoignent les acquisitions d’IBM totalement intégrées dans sa stratégie Cloud. Après l’achat de Softlayer en 2013 pour construire l’offre IaaS, IBM a entamé un processus d’acquisitions pour adapter et enrichir son offre. En janvier 2014 c’était Aspera pour accélérer le transfert massif et sécurisé de fichiers sur de longues distances. En novembre 2015 Cleversafe apportait le stockage objet au cloud IBM. Avec le développement de la vidéo, qui devrait représenter près de 80% du trafic internet en 2020, on ne s’étonnera pas de voir IBM s’emparer du sujet. En décembre 2015 IBM faisait l’acquisition de la société Clearleap pour offrir aux entreprises des services de vidéo à la demande en mode Software as a services SaaS. Peu de temps après, en janvier 2016, c’est au tour de la société Ustream d’intégrer l’offre Cloud d’IBM pour proposer du vidéo streaming pour diffuser aussi bien la séance plénière d’une entreprise n direct qu’un concert musical. L’arrivée de ce type de solutions vidéo dans le cloud aura sans doute un impact sur la chaîne de valeur et sur l’écosystème de la vidéo.

IBM collabore avec VMware dans le cloud. (lire l’annonce) IBM et VMware ont conçu une architecture qui permettra aux clients de provisionner automatiquement dans le cloud IBM Softlayer des environnements VMware SDDC (Software Defined DataCenter) composés de VMware vSphere, NSX et Virtual SAN.IBM vmare Une collaboration qui a du sens quand on sait que près de 100% des clients Fortune 1000 utilisent des technologies VMware. Les clients VMware pourront étendre facilement leurs workloads existants depuis leur datacenter vers le Cloud. De son côté VMware a étendu les fonctions de ses outils d’administration vRealize Automation et vCenter pour déployer et gérer des environnements dans les cloud IBM de la même manière que s’ils étaient dans le datacenter du client.

Les services dans le cloud ne cessent de s’enrichir. Le vieux débat sur le prix d’une VM dans le cloud semble dépassé. L’enjeu se situe d’avantage sur la rapidité et la qualité du développement d’applications qui permettront aux entreprises d’innover et de progresser.

 

La connaissance client se nourrit d’un monde hyperconnecté

La connaissance client n’aura jamais été aussi stratégique qu’aujourd’hui et son rôle sera de plus en plus déterminant. La notion de connaissance client a évolué et s’est enrichie avec les évolutions technologiques et les comportements des consommateurs qui en ont découlé. Le développement des smartphones  a donné une autonomie sans précédent aux consommateurs et les a propulsés dans un monde hyper connecté parsemé de points de contacts avec les marques qui sont autant de sources d’informations  sur les clients. Le déferlement des objets connectés et le développement d’assistants virtuels ou de robots conversationnels devraient apporter une autre dimension à la connaissance client

Connaissance client V2

La connaissance contextuelle passage obligé d’un marketing personnalisé. Le consommateur a gagné en maturité et sa fidélité à une marque n’est plus acquise indéfiniment. Il analyse, compare  et achète à sa guise sur internet ou en magasin selon ses propres critères. Face à cette évolution la marque, pour garder ses clients et en gagner d’autres, n’a d’autre choix que d’être en écoute active permanente et de proposer une expérience client sans pareil. Cela se traduit par une personnalisation de plus en plus poussée et des interactions de plus en plus intelligentes mais qui nécessitent au préalable une connaissance client augmentée reposant sur:

  • La connaissance globale: Un nombre d’individus important et des données nombreuses et récentes permettent une analyse de tendances grandeur nature et  une segmentation fine qui peut servir par exemple  à définir des personas proches de la réalité.
  • La connaissance individuelle: en plus du profile et de l’historique du consommateur, on s’attache à connaitre le comportement, les préférences et les habitudes de chaque personne pour tenter de prédire leurs intentions d’achat.
  • La connaissance contextuelle: Elle touche l’immédiateté. Elle est la clé d’un marketing moderne et personnalisé. Connaitre l’équipement utilisé pour se connecter, la géolocalisation (ville, magasin, aéroport..) du consommateur. Prendre en compte l’environnement du consommateur (l’actualité, la situation météo, le trafic routier …)  qui peut interférer sur l’humeur et le comportement du consommateur. La contextualisation rend la personnalisation plus pertinente.

Le besoin d’une vision unifiée du client. L’enjeu est fort mais le marketing n’aura jamais disposé d’autant de données et d’outils pour les exploiter. Tout commence par l’identification des sources de données pour ensuite les collecter et les réconcilier. Sites web, calls center, connaissance clients étapesagences, points de ventes, retour de campagnes marketing sont les sources les plus évidentes mais il faut y rajouter les applications mobiles, les réseaux sociaux, les objets connectés…. La connaissance client s’alimente de données qui vont au-delà des données de l’entreprise encore trop souvent organisées en silos. De nombreuses sociétés, à l’image du groupe Accor ou de Covea ,  ont entrepris d’unifier la vision client en mutualisant leurs données dans un « data lake » (lac de données) pour faire face à la concurrence de pure players du numérique. D’autres se sont engagés sur la voie d’une DMP (Data Management Platform). Toute entreprise est potentiellement amenée à traiter des données massives et est donc éligible à des solutions de Big Data. L’avènement du cloud contribue de son côté à démocratiser ce type de solutions en fournissant  des infrastructures de Big data et des logiciels de machine Learning (système auto apprenant) sous forme de services dans le cloud accessibles à toutes les entreprises. Tous les voyants se mettent progressivement au vert pour un véritable « data driven marketing »

Les réseaux sociaux en avance sur la connaissance des utilisateurs. Les réseaux sont devenus un gisement de données inestimable  et il savent l’exploiter mieux que personne. Ils montrent en quelque sorte ce que pourrait devenir la connaissance client quand on est capable de saisir les Facebook j'aimeémotions, les valeurs et tout ce qui façonne la personnalité et la rend unique.  Une étude réalisée par des chercheurs des universités de Cambridge et de Standford en 2015 a démontré que Facebook en savait plus sur nous que nos proches. Suite à l’étude des  « likes » sur Facebook de 86.000 volontaires on y apprend qu’avec 16 likes Facebook en sait plus sur un utilisateur que ses collègues et qu’avec 300 likes il en sait plus que son conjoint. (lire le billet sur ce sujet)

Les objets connectés nouvelle étape dans la connaissance client.  L’objet connecté a une double fonction. Il offre un service ou un usage à la personne qui l’utilise et dans le même temps il remonte des informations à l’entreprise qui le commercialise. D’un point de vue marketing cette vague d’objets connectés va venir enrichir la connaissance sur les habitudes et le comportement du client (santé, sport, conduite automobile, consommation électrique etc..) au niveau individuel et global mais aussi sur son mode d’utilisation de l’objet ou de l’équipement. On a ainsi un double bénéfice pour agir sur la relation client et sur l’évolution des produits et des services. Aujourd’hui moins de 2% des objets sont connectés mais tout objet a vocation, dans un avenir proche, à devenir connecté en l’équipant de différents capteurs. Il est donc essentiel pour le marketing de prendre la mesure de l’enjeu lié à ces objets. L’exemple de certains assureurs qui modulent les frais d’assurance en fonction du comportement des assurés au volant est assez révélateur de ce vers quoi on va tendre dans les prochaines années.

Les Interactions évoluent vers le conversationnel. Les interactions entre les marques et les consommateurs sont nombreuses et prennent de nombreuses formes à commencer par les publicités et les campagnes marketing qui sont de plus en plus personnalisées. On peut noter cependant trois grandes tendances qui structurent la connaissance clients pour atteindre l’expérience utilisateur souhaitée. Pour chacune d’entre elle, l’efficacité et la qualité de l’expérience client repose sur la connaissance du client.

  • L’Omnicanal. La variété des canaux utilisables par le consommateur pour une même marque ne doit pas s’accompagner d’un sentiment d’incohérence. Le passage d’un point de contact à un autre doit se faire « sans couture ». La progression dans le parcours client doit tenir compte des points de contact précédents que ceux-ci soient « numériques » ou physiques et des informations recueillies à chaque étape. Chaque point de contact est une opportunité de collecter des informations et d’enrichir la base de connaissance des clients. La connaissance client devient temps réel et pose la question des moyens mis en œuvre pour collecter et fédérer ces informations en temps réel.
  • Le Phygital. Après une période on opposa digital et commerce physique, il est apparu que la combinaison des deux, sous le terme phygital, pouvait créer de nouvelles expériences client intéressant. Par exemple un consommateur peut rentrer dans un magasin, être identifié comme client, une application de son smartphone se connecte alors automatiquement (avec son accord) au réseau wifi du magasin. Il pourra ensuite être localisé dans le magasin (via des balises beacon par exemple) et selon son emplacement des propositions ou des informations personnalisées lui seront envoyés sur son smartphone en tenant compte de son profile enregistré dans la base de données du magasin et des offres promotionnelles en cours. Il pourra également être assisté dans ses achats par un vendeur équipé d’une tablette qui  aura accès aux informations du consommateur et des produits (disponibilité, prix..). D’autres technologies permettent aussi d’analyser son comportement devant des rayons pour ensuite en tenir compte dans l’agencement du magasin.
  • L’intelligence conversationnelle. Les progrès de l’intelligence artificielle vont sans doute façonner les nouvelles interactions avec les consommateurs et les utilisateurs. L’interaction devrait se développer rapidement sur un mode conversationnel de plus en plus en plus évolué et de plus en plus proche d’une interaction humaine. Les agents conversationnels (chatbot), les conseillers virtuels (robots advizer), les assistants virtuels (Cortana, GoogleNow, Echo etc..) et bientôt la réalité virtuelle deviennent de plus en plus performantes. Les techniques de machine learning leur permettent de comprendre le sens de textes ou de paroles et d’analyser le contenu de photos ou de vidéos. Dernièrement Facebook a présenté son projet Deep Text basée sur de l’intelligence. Il analysera une partie des 400 000 posts et 125 000 commentaires postés chaque minute sur Facebook pour comprendre quels contenus sont les plus pertinents pour un utilisateur donné. Bien sûr dans ce domaine les géants du web sont précurseurs mais il y a fort à parier que les entreprises suivront rapidement ou s’appuieront sur les offres de ses acteurs. La connaissance client va ainsi s’étendre aux contenus  consultés et partagés par les internautes. La rapidité d’adoption de ces technologies conversationnelles dépendra de leur faculté à nous connaitre suffisamment pour analyser nos questions à l’aune d’un contexte personnalisé et à nous répondre dans un mode proche du langage humain.

La connaissance client est un domaine qui va devenir de plus en plus pointu capable d’intégrer la psychologie du client et de la projeter dans un contexte bien précis. Cela ouvre les champs des possibles mais peut inquiéter par la même occasion. La réglementation européenne sur la protection des données personnelles a pour vocation de nous protéger contre les abus et les dérives et de nous rassurer si c’est possible.

Lire également : La performance du marketing sous l’emprise des données

 

 

La fracture numérique porte aujourd’hui sur les usages

Ce qui vaut pour l’entreprise vaut pour le citoyen. L’acculturation numérique est devenue une nécessité pour l’ensemble des français, elle ne concerne pas seulement les spécialistes du numérique mais bien tout un chacun. L’inclusion numérique est une priorité et c’est l’une des missions de l’Agence du Numérique

PIM V1

L’employabilité nécessite la maitrise du numérique. Souvenez-vous, en 2000 on parlait de la fameuse fracture numérique qui allait couper la France en deux et laisser sur le bord de la route du numérique une partie des français. A l’époque on évoquait cette fracture à propos des équipements. Aujourd’hui le problème s’est déplacé, les familles françaises se sont largement dotées d’outils numériques au point de faire pâlir d’envies certaines entreprises qui ont adopté les nouvelles technologies plus lentement. A présent la fracture porte sur les usages du numérique. Première étape de la transformation numérique, la dématérialisation s’est répandue dans de nombreux domaines. L’administration est devenue largement numérique, les recherches et les démarches administratives se font sur internet et la pression est forte pour réduire à une portion congrue les déclarations d’impôts papier. Des services et des commerces en lignes de plus en plus nombreux offrent une souplesse et une richesse indéniables accessibles à tous à condition de savoir s’en servir. L’emploi lui-même est conditionné par le numérique. On peut difficilement se passer d’un réseau social professionnel pour rechercher un emploi et l’employabilité nécessite  la maitrise des outils numérique dans quasiment toutes les fonctions.

Accélérer l’acculturation numérique. Pour lutter contre cette nouvelle forme de fracture Agence du numerique acteursnumérique il est nécessaire de mettre en place une société qui n’exclue pas des citoyens du fait du numérique. Nous sommes rentrés dans la phase de l’inclusion numérique. Les gains de productivité réalisés, notamment dans les services publics, doivent contribuer à financer en partie l’acculturation numérique des français.  Quand Emmanuel MACRON et Axelle LEMAIRE ont annoncé la création de l’Agence du Numérique ils fixaient trois missions : la Mission Très Haut Débit, la Mission French Tech et la Délégation aux usages de l’internet

Des Espaces Publics Numériques sur toute la France. La Délégation aux usages de l’Internet cible ces problèmes d’acculturation numérique par l’aide au déploiement  de 5000 EPN GeolocalisationEspaces Publics Numériques (EPN) sur l’ensemble du territoire pour faciliter l’accès à internet et aux usages du numérique. On les trouve au sein de services publics ou associatifs.  Un portail NetPublic a été créé pour supporter ces EPN. On y trouve de nombreuses ressources et informations ainsi qu’un blog. On peut ainsi connaître l’emplacement de tous les EPN sur la carte de France et faire connaissance avec le Passeport Internet et Multimedia.  Dans un monde numérique extrêmement dynamique ces EPN s’adaptent et font évoluer les services offerts pour appréhender de nouvelles technologies, de nouvelles réglementations ou des nouveaux usages.  L’objectif étant d’offrir à tous une mise à niveau technique, juridique et culturelle nécessaire à l’inclusion numérique. On peut bien évidemment suivre NetPublic sur les principaux réseaux sociaux comme Twitter @netpublic

N’oublions pas le très haut débit. Pour réussir son pari du numérique la France ne peut pas compter seulement sur l’acculturation, il lui faudra également rattraper son retard dans les réseaux très hauts débits. Le développement des usages, l’augmentation des personnes connectées et la vague des objets connectés vont nécessiter des réseaux toujours plus puissants. Comme le rappelait Benoit Thieulin ancien directeur du CNNum, Internet est devenue une infrastructure essentielle et le très haut débit en constitue l’épine dorsale. En 2013 un investissement de 20 milliards d’euros a été dégagé pour financer un Plan très hauts débits partagé entre opérateurs privés, collectivités territoriales et l’Etat. L’Etat sans être prescripteur doit jouer un rôle dans la stratégie en développant une vision réaliste et efficace à l’image des Etats Unis qui ont su anticiper les besoins.

L’inclusion numérique de notre société doit permettre de ne laisser personne de côté mais elle ne doit pas nous faire oublier que l’acculturation numérique est également primordiale, sous une autre forme plus stratégique, pour les chefs d’entreprises et les politiques et qu’elle doit les faire réfléchir sur la transformation de l’entreprise, de l’économie et de la société.

Le stockage se prépare aux grandes marées digitales

L’univers digitale est en pleine expansion et n’est pas prêt de s’arrêter. La vague des objets connectés et le développement continu des réseaux sociaux vont encore amplifier le phénomène. Dans cette profusion de données dans laquelle nous allons baigner beaucoup y voit une source de dynamisme économique présentant la donnée comme le nouvel or noir de l’économie numérique. Il va pourtant falloir déborder d’imagination pour collecter toutes ces données et les stocker pour les analyser en temps réel pour certaines et plus tard pour d’autres.

Cloud storage market

Une marée de données créée par les internautes et les objets connectées. Le domaine du stockage d’information se remet en cause et doit faire preuve d’innovation pour être capable de prendre en compte ces volumes considérables de données. Les technologies progressent  continuellement et offrent un rapport coût performance sans cesse amélioré. Mais ce n’est pas suffisant. Aujourd’hui environ 3,2 milliards de personnes sont connectées à Internet et l’ONU souhaite que 1,5 milliards de personnes supplémentaires puissent avoir accès à Internet en 2020. On estime qu’une personne connectée génère 1,7 Megaoctets par seconde le calcul est vite fait. Vient se rajouter les données qui seront créées par les 50 milliards d’objets connectées (source Cisco). On assiste à une véritable accélération, certains avaient déjà estimé qu’en 2013 il suffisait d’environ 10 mn pour créer ce qui prenait deux jours en 2010 … Explorons donc quelques initiatives non exhaustives pour stocker cette nouvelle richesse infinie.

Le stockage cognitif pour être sélectif dans le choix des données à stocker. Toutes les données n’ont pas la même valeur. Certaines sont abondamment dupliquées, d’autres sont peu fiables  et d’autres n’ont de valeur qu’à un instant précis. Les constructeurs de stockage ont développé des fonctionnalités de déduplication pour être sûr de ne stocker qu’une fois les données. Les spécialistes de la gestion de données proposent des solutions logicielles pour effectuer un nettoyage de données afin de  supprimer les données peu fiables ou redondantes. IBM pourrait aller plus loin grâce à un projet de stockage cognitif qui distinguerait automatiquement les données à forte valeur de celles qui ne présentent qu’un faible intérêt. On pourrait dès lors  savoir lesquelles stocker prioritairement et sur quels types de supports. En d’autres termes on apprend à l’ordinateur à se souvenir des choses importantes et à oublier le reste comme le fait le cerveau. On rentre ainsi dans le domaine de l’infonomics, une discipline émergente qui considère l’information comme faisant partie du capital de l’entreprise et devant être gérée en tant que telle pour apporter de la valeur au business de l’entreprise. Pour l’instant ce projet est à l’état de recherche et il faudra certainement attendre quelques années pour voir un produit commercialisé.

L’ADN comme alternative au stockage magnétique. L’imagination humaine étant sans limite des chercheurs d’Harvard ont réussi à stocker de l’information sur de l’ADN synthétisé. Là encore pas de produit commercialisable mais quand même. Un rapport présenté cette année aStockage ADN montré que l’on pouvait stocker 1 Exaoctets de données sur 1mm3 d’ADN. Chacune des bases nucléotidiques (TGAC) représente une valeur binaire. Le film « le voyage dans la lune » réalisé par Georges Melies en 1902 a pu ainsi être copié un million de fois en utilisant cette technique. En plus de son incroyable capacité de stockage, stocker des données sous la forme de molécules d’ADN offre l’avantage d’une très grande conservation qui peut aller jusqu’à plusieurs siècles en théorie. Une technologie sans doute intéressante dans le futur pour de l’archivage très longue durée.

Repousser les limites technologiques. Certains supports magnétiques ont la vie dure. C’est le cas de la bande magnétique. Plusieurs fois annoncée en fin de vie, la bande magnétique ne cesse d’évoluer pour atteindre de très hautes capacités à de faibles coûts. A ces début en 1952 la bande contenait seulement 2 megaoctets de données. En 2015 IBM et Fujifilm ont annoncé avoir réussi à stocker 220 Teraoctets de données sur une bande (environ 88 fois la capacité de la technologie LTO 6)  Une petite prouesse technologie quand on sait que cela représente 123 milliards de bits par inch carré et qu’il a fallu réussir a positionner la tête de lecture avec une précision de quelques nanomètres.   Google utilise lui-même des librairies automatisées de bandes magnétiques. C’est grâce à ces bandes que Google avait réussi à restaurer des boites Gmail en 2011. Certains utilisateurs de Gmail avaient eu la mauvaise surprise de voir leur boite de messagerie vide suite à un bug logiciel qui avait effacé les copies sur disques. Heureusement une sauvegarde existait sur des bandes magnétiques. A ce jour ce seraient plus de 500 exaoctets de données qui résideraient sur des systèmes de stockage sur bandes.

Stocker les données sous forme d’objets. Traditionnellement les systèmes informatiques stockaient les données sous forme de fichiers et de blocs. Un stockage qui se prêtait bien aux applications traditionnelles basées sur des bases de données relationnelles pour des données dites structurées. En 2020, 70% à 80% des données seront des données non structurées stockage objet gartner(document, email, video, image, son etc..). Il faut donc être capable de proposer des systèmes de stockage optimisés pour les données non structurées, peu coûteux, capable d’évoluer « à l’infini » évolutif et simple d’accès (via http). C’est le principe du stockage objet. La donnée est stockée comme un objet contenant le fichier ainsi que des métadonnées souples que l’on peut enrichir. Les données sont accessibles très facilement via http et chaque donnée possède un identifiant unique. Les applications peuvent également exploiter simplement les données stockées sous ce format grâce à des interfaces de programmation (API REST). Tous les grands constructeurs de systèmes de stockage (voir l’analyse du Gartner dans StorageNewsletter) proposent ce type de solutions sur site (on premise) pour les nouvelles applications dites cloud natives et les fournisseurs de stockage cloud ont adopté cette technologie.

Utiliser le cloud pour stocker l’information. Pour faire face à cette marée de données sans se laisser déborder par la gestion des coûts et la complexité des infrastructures,  les entreprises se tournent de plus en plus vers du stockage dans le cloud. Une manière d’étendre le stockage des Datacenters des entreprises en souplesse dans en environnement hybride combinant cloud privé et cloud public. A en croire l’étude de MarketandMarket le marché du Public cloud storage servicesstockage dans le cloud va croitre de 28,2% par an entre 2015 (18,87 miliards $) et 2020 (65,41 milliards $). Les données des applications critiques resteront dans le datacenter pour des raisons de sécurité ou de réglementation mais pour d’autre comme les sauvegardes ou  la partie web des applications n tiers le cloud offre une solution élégante. Il faut pour cela que l’application ne fasse pas de distinguo entre le stockage résidant dans le Datacenter (ou le cloud privé) et celui localisé dans un cloud public. Pour les nouvelles applications pas de souci elles ont été conçues en général pour le cloud. Pour les applications traditionnelles il faut utiliser une passerelle cloud (Cloud gateway). C’est un équipement physique et virtuel installé dans le datacenter et connecté au stockage objet du fournisseur de cloud. C’est un moyen efficace d’introduire une solution de stockage cloud hybride sans d’importantes modifications d’une application.

Le marché du stockage en ébullition. Les évolutions du stockage ne s’arrêtent pas là, je n’ai pas traité dans ce billet la technologie flash qui devrait s’imposer en 2016 ni de l’hyperconvergence qui ne cesse de croitre. Je renvoie pour cela aux précédents billets :

Un antidote universel contre les ransomwares proposé par Systancia

Les cybercriminels ne sont jamais à court d’idées pour détourner la technologie à des fins malveillantes. Les demandes de rançon sous peine de paralysie des moyens informatiques sont désormais courantes. Ces fameux « ransomwares» touchent aussi bien les individus que les entreprises. Bonne nouvelle, il sera désormais possible d’ouvrir une pièce jointe d’un mail « suspect » sans risque de se faire piéger grâce à la solution de l’éditeur Systancia

ransomware

Les cybercriminels rançonnent par logiciels. Les ransomwares sont des programmes malveillants (malwares) installés sur un ordinateur aux dépends de son propriétaire qui se fait piéger en ouvrant bien souvent la pièce jointe d’un email ou en visitant un site douteux. L’utilisateur est alors averti via un pop-up que son ordinateur est bloqué et qu’il va devoir verser une rançon pour le débloquer. En 2015 ce sont près de 2,2 millions de français qui auraient déjà été victimes de ce type de cyberagression. Aujourd’hui, le premier vecteur de contamination de tous les types de virus est la messagerie, via les pièces jointes ou les liens contenus dans les messages. Certains mails sont indiscutablement des faux, d’autres créent le doute ou semblent faux et peuvent se révéler authentiques. Difficile d’en être sur sans ouvrir la pièce jointe.

Ouvrir un mail sans craindre le pire à chaque fois. Il sera désormais possible d’ouvrir la pièce jointe d’un email suspect sans risque grâce à la solution de l’éditeur de logiciels Systancia qui s’est attaqué à la pandémie des ransomwares avec une solution efficace contre toute menace reçue par e-mail.  La solution permet d’ouvrir la pièce jointe comme on le ferait avec toute pièce jointe mais en toute sécurité. Le fichier est ouvert en temps réel dans une zone de quarantaine dans le cloud hors du système d’information de l’entreprise. L’utilisateur peut donc consulter normalement sa pièce jointe, la parcourir, et s’il estime qu’il s’agit d’un faux, simplement cliquer sur supprimer. Le système effectue en parallèle une vérification pour donner un avis sur la présence d’un mécanisme viral.

L’arme contre le rançonnage : le cloud plus une zone de quarantaine. En plus d’être dans le cloud, cette zone de quarantaine est totalement étanche car les ingénieurs de Systancia ont développé un système qui ouvre la pièce jointe dans une zone sans réseau. Une caractéristique importante quand on sait que la première action d’un ransomware est d’utiliser les capacités réseau du poste de travail. Avec cette zone de quarantaine le virus reste enfermé, piégé à son tour. La grande force de la solution proposée par Systancia est d’avoir réussi la prouesse technologique de faire exister une zone de quarantaine dénuée de réseau mais localisée dans le cloud.

Une protection transparente pour l’utilisateur. Pour l’utilisateur le système est totalement transparent, il est simplement précisé que la pièce jointe est ouverte via IPdiva Protect. Pour les entreprises, contrairement aux anti-virus qui nécessitent une installation sur le poste de travail, IPdiva Protect ne nécessite aucune installation et est compatible Windows, iOS, Linux et sur tout support PC, tablettes et smartphones. L’ensemble de la solution repose sur l’association des produits, AppliDis pour la virtualisation des applications et IPdiva pour la sécurisation des accès

Lire également l’article Systancia: Ultra mobilité et ergonomie font bon ménage avec la virtualisation