#IoT: Les objets connectés détournés par les cybercriminels

Les objets connectés sont porteurs de belles promesses pour améliorer notre monde moderne (Les objets connectés sont l’avenir du 21 ème siècle). Ces promesses sont réalistes mais dans l’euphorie qui entoure les innovations portées par les objets connectés il faudrait voir à ne pas oublier les questions essentielles de sécurité. La récente attaque DDoS subie par l’hébergeur OVH nous alerte sur la sécurité des objets connectés.

cyber-iot

Les objets connectés utilisés comme arme par les cybercriminels. Le 20 septembre le journaliste Brian Krebbs a brusquement pris conscience du rôle que les objets connectés pouvaient jouer dans une attaque DDoS (Dstributed Denial of Service) contre son site hébergé chez un fournisseur externe. C’était ensuite au tour de l’hébergeur OVH de subir le même type d’attaque d’une ampleur sans précédent. Pour faire simple, les pirates utilisent des objets connectés infectés pour créer une activité telle que le site n’a pas réussi à la supporter. Il faut bien comprendre que ces objets n’ont rien à voir avec la victime de l’attaque. Ce type d’attaque n’est pas nouveau en soit mais jusqu’à maintenant on infectait des serveurs en nombre pour provoquer cet afflux d’accès sur le site ciblé. Ce qui est nouveau aujourd’hui c’est l’utilisation ddos-ovhd’objets connectés pour le faire. Dans le cas d’OVH ce sont des caméras de vidéosurveillance qui ont été impliquées. D’autres attaques ont montré la vulnérabilité potentielle de véhicules connectés dont on pourrait prendre le contrôle à distance. Quand on sait que déjà dans le domaine industriel une multitude de capteurs sont utilisés pour contrôler et mesurer les équipements on a besoin d’être rassuré. Et ce ne sont pas les nouvelles séries américaines comme « CSI : Cyber » ou « Mr Robot » qui vont nous aider à mieux dormir.

Dès qu’un objet est connecté à Internet on doit s’inquiéter de la sécurité. Dans un billet daté du 23 septembre, quasiment simultanément avec l’attaque du site du journaliste, le spécialiste de la sécurité Symantec alertait sur les risques liés aux objets connectés. Ce n’est pas réellement le propriétaire de l’objet qui est visé, mais l’objet est utilisé à des fins d’attaques cybercriminelles. A partir du moment ou un équipement est connecté à Internet, la question de la sécurité se pose, quel que soit sa taille et son usage personnel ou professionnel. Les risques sont multiples. On pense bien sûr aux vols de données collectées, à la prise de contrôle de l’objet lui-même (camera, voiture connectée ..) mais également à la diffusion de logiciels malveillants en servant d’un objet connecté comme point d’entrée et aux attaques massives de type DDoS pour créer via de multiples objets infectés une activité massive sur un site qui va exploser sous a charge.

Les objets connectés doivent être « secured by design ». Notre société est tellement dépendante d’internet que la cyber sécurité est un sujet qui préoccupe, ou qui devrait préoccuper, toutes les entreprises. Ce domaine évolue constamment pour s’adapter aux cybercriminels. On cloisonne les environnements avec de la micro segmentation pour éviter que les logiciels malveillants puissent se propager et l’intelligence artificielle commence à entrer en jeu pour déceler les comportements suspects. Toutes les mesures que les entreprises prennent pour une meilleure protection vont dans le bon sens mais cela ne doit pas masquer la racine du problème lié aux objets connectés : leur faible niveau de sécurité. Les explications ne doivent pas servir d’excuses pour agir. Beaucoup d’objets connectés sont dotés d’operating systems et de processeurs aux capacités limités qui ne permettent pas d’intégrer des fonctions de sécurité très sophistiquées. Bien souvent il n’existe pas de mise à jour des microcodes ou bien les propriétaires des objets ne les activent pas. C’est ainsi qu’on se retrouve avec des objets infectés sans que personne ne s’en rende compte.

La sécurité des objets connectés doit être envisagée dès la conception, le manque de standard et l’écosystème important qui rentre en jeu ne facilitent certes pas la tâche mais raison de plus de s’y atteler sans tarder pour ne pas faire capoter cette nouvelle révolution industrielle qu’on annonce avec les objets connectés.

Dataviz : pilotage à vue de l’entreprise

Ce n’est pas une science nouvelle, depuis que l’informatique existe nous avons cherché à présenter les données d’une manière visuelle pour en simplifier la compréhension et l’interprétation. toucan-baptisteLa data visualisation donnait une forme concrète à la business intelligence. Avec l’arrivée des données massives (Big data) le terme data virtualisation a progressivement laissé la place à la « DataViz » une manière de montrer que cette discipline s’est adaptée à l’ère du numérique. Rencontre avec Baptiste Jourdan Directeur du business development chez Toucan Toco spécialiste de la dataviz

La Dataviz :  l’outil moderne de pilotage des entreprises. La DataViz est devenu en soi un moyen de communication tant en interne qu’en externe. Ce n’est pas nouveau, Confucius déjà en son temps se plaisait à dire qu’une image vaut mille mots” et de nos jours l’image prime souvent sur les mots. La data visualisation, c’est l’art de raconter des chiffres de manière créative et ludique, là où les tableaux Excel ont toucan-interactionatteint leurs limites. Dans notre économie moderne toutes les directions ont besoin de piloter leurs organisations le plus finement possible en s’appuyant sur des données nombreuses et riches et en produisant des tableaux de bords pertinents. Toucan Toco donne dans son blog l’exemple de 6 tableaux de bord pour les Ressources humaines. De ma rencontre avec Baptiste j’ai retenu quelques principes qui font de la dataviz un outil de communication moderne, efficace et intéractif.

Premier principe : la dataviz s’appuie sur les sciences cognitives. La dataviz est devenue un art qui allie l’esthétique à la psychologie et démocratise par la même occasion l’accès à la donnée. Elle reprend des concepts philosophiques de la théorie de Gelstalt selon laquelle l’être humain à tendance à organiser des éléments visuels dans des groupes qui l’aide à en distinguer les formes par des jeux de couleurs et des procédés visuels. Cette partie des sciences cognitives constitue l’ADN de Toucan Toco.

Deuxième principe : la dataviz n’est plus réservée à un cercle restreint d’happy few. Le rôle de la dataviz est de communiquer des chiffres ou des données toucan-dev-1brutes en les présentant sous forme d’objets visuels. C’est un formidable outil de communication qui facilite le partage et la compréhension de l’information. Son impact est tel que la dataviz se démocratise et de ce fait elle doit s’adapter à la typologie de chaque utilisateur en offrant des « data story telling » différents à partir de la même application.

Troisième principe : la dataviz donne vie aux données. Elle peut devenir à elle seule le cœur d’une présentation dynamique lors d’une réunion. Les données ne sont plus figées, elles prennent vie à l’écran et raconte une histoire plus ou moins détaillées en remontant dans le temps si nécessaire selon les interlocuteurs et leurs centres d’intérêt. L’utilisateur interagit avec la représentation des données en temps réel.  Les néophytes peuvent s’approprier les données car d’une certaine manière la dataviz permet au big data de parcourir le dernier kilomètre jusqu’à l’utilisateur final.

Quatrième principe : utiliser les multiples sources de données. Tout le monde n’a pas encore créé son fameux lac de données (data lake) qui hébergerait toutes les données de l’entreprise pour que l’on puisse y puiser facilement ce que l’on cherche. Toucan Toco a donc développer de nombreux connecteurs qui permettent d’aller chercher les données là où elles se trouvent.

Cinquième principe : l’expérience mobile sur tous les types d’operating system.

toucan-mobilite

Il ne suffit pas d’adapter les dataviz au profil de chaque utilisateur,  encore faut-il eque chacun y est accès en fonction de son usage et de son mode de connexion. On connait l’usage qui est fait des mobiles de nos jours, une dataviz digne de ce nom ne peut donc pas passer à côté d’une expérience mobile disponible sur tous les équipements. C’est ce qu’a fait Toucan Toco en offrant un accès économique à la dataviz à quelques soit l’équipement mobile utilisé

La dataviz : une autre manière de consommer les données. L’infobésité nous guette. Devant ce flux de données la paralysie nous guette. Moteur de recommandation, curation et dataviz sont autant de moyens de nous aider à lutter contre l’infobésité en contrôlant la manière dont nous absorbons l’information. Pas étonnant donc que la dataviz ait le vent en poupe dans de nombreuses entreprises. Toucan Toco est présent chez de nombreux clients français et réalise des dataviz grand public comme la météo de l’économie française et le baromètre des pages jaunes

De multiples usages

Recommandations et publicités : une approche différente de la personnalisation

Les consommateurs ont rarement une idée précise de ce qui arrive aux données qu’ils contribuent à générer lors de leurs visites et de leurs alexei-v1achats sur des sites de e-commerce. Ces données personnelles sont pourtant largement utilisées dans un but de personnalisation et de publicité. Pour comprendre l’usage qui en fait j’ai demandé quelques explications à  Alexei Kounine, CEO de la société TasteHit spécialiste de la personnalisation de site e-commerce.

recommandation-marketing

Les systèmes de recommandations apportent un service sur mesure. Aujourd’hui Il est relativement aisé de collecter, sur les sites web, de grandes quantités de données anonymes sur le comportement des utilisateurs. Elles sont personnelles car elles concernent un individu, elles sont anonymes car on ne peut pas savoir en principe qui est l’individu sans son consentement.  Ces données peuvent ensuite être analysées par des algorithmes de machine learning (des systèmes d’autoapprentissage) et l’historique de recherche d’un utilisateur peut être comparé aux comportements de millions d’utilisateurs pour réaliser des prédictions et créer une expérience personnalisée. C’est ce qu’on appelle le « filtrage collaboratif » (collaborative filtering en anglais) qui est utilisé par les systèmes de recommandation. On se sert des opinions et des évaluations d‘un grand nombre d’utilisateurs pour personnaliser une recommandation vers un individu.  Nous avons tous fait l’expérience consciemment ou non de cette « expérience tastehit-image-2personnalisée ». C’est le cas quand nous lisons le fil d’actualités de nos comptes Facebook et Twitter ou si nous regardons des vidéos sur Netflix ou bien encore quand nous faisons défiler les produits sur Amazon. Le choix du contenu et l’ordre dans lequel il nous est présenté dépend de notre comportement passé et des services utilisés. Chacun des 1,7 milliards d’utilisateurs Facebook a une vue de son compte Facebook totalement personnalisé en fonction des données collectées par le numéro 1 des réseaux sociaux.

Le cookie, pierre angulaire de la personnalisation. Lorsque les systèmes de recommandations sont bien pensés, ils sont généralement bien perçus et considérés quasiment comme un service en soi. C’est particulièrement le cas pour la recommandation de morceaux de musique par Spotify, de films par NetFlix ou de produits sur des sites e-commerce. Mais ce n’est pas toujours le cas et de nombreuses publicités personnalisées sont perçues comme intrusives par les consommateurs qui ont réagi en adoptant rapidement des « ad blockers ». Pour comprendre ces réactions il faut revenir sur le rôle du cookie. Le cookie est un petit fichier texte stocké dans le browser de l’équipement que nous utilisons pour aller sur le web. Ces cookies aident les sites web à se souvenir de qui nous sommes et à collecter des données sur les clics des consommateurs. Sans ces cookies, un site n’a aucun moyen de savoir que c’est la même personne qui fait deux requêtes consécutives sur des pages différentes. L’utilisation des cookies est très répandue car c’est le moyen de garantir que nos paramètres de navigation sont gardés entre deux pages d’un même site. Pour être plus précis les cookies sont les mécanismes qui permettent d’assurer par exemple une continuité de l’expérience utilisateur entre la consultation de produits, l’achat et la confirmation de paiement. Ils sont aussi utilisés pour faire des recommandations personnalisées de produits. Ce type de cookies placés par le site visité pour suivre l’activité sur ce site s’appelle un « first » cookie. Ces cookies complétées par des données comportementales et contextuelles de plus en plus nombreuses pour atteindre une hyper-personnalisation et obtenir des systèmes de recommandations performants.

Certains cookies nous suivent à la trace. Les cookies sont utiles pour la personnalisation et la navigation sur un site, pourtant certains s’en méfient comme de la peste. Il y a une raison à cette méfiance. Vous avez sans doute remarqué que lorsque vous passez d’un site web à un autre,  il est fréquent qu’apparaisse sur le nouveau site que vous visitez une publicité qui concerne comme par hasard le produit sur lequel vous aviez cliqué sur un site précédent. C’est un autre type de cookie qui est utilisé pour nous pister ainsi de site en site : le « third party cookie ». En fait lors d’une visite d’un site web, ce site fait appel à une société tierce pour placer leurs cookies dans notre browser. Pour faire simple, ce cookie contient un identifiant unique, qui ne permet pas de savoir nommément qui nous sommes, mais qui indique par exemple ce que nous avons précédemment acheté ou consulté. Le mécanisme qui utilise ces cookies pour présenter des publicités concernant des produits visités sur d’autres sites s’appelle le « retargeting ». Le consommateur qui cliquera sur la publicité va être redirigé vers le site d’origine ou le produit avait été consulté.

Une personnalisation hors du contexte rebute le consommateur. Le consommateur n’est pas au courant de tous ces processus mis en place et n’a en général jamais entendu parler de sociétés de retargeting qui traquent le comportement des consommateurs sur tout le web. La personnalisation n’est pas celle que pourrait espérer le consommateur. Au contraire il peut éprouver le sentiment d’être épié et suivi si par exemple lorsqu’il est sur un site d’électroménager, une publicité lui présente une paire de chaussures consultée sur un autre site. Cette personnalisation qui est sortie du contexte explique en partie le rejet du consommateur pour ces publicités ciblées.

A lire également pour comprendre les modèles économiques des acteurs de la publicité en ligne:  How your personal data is used in personalization and advertising

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :

Les objets connectés sont l’avenir du 21 ème siècle

Avec le numérique on n’arrête plus de faire la révolution, la prochaine annoncée est celle des objets connectés (IoT) . Elle porte en soi la concrétisation de toutes les promesses du numérique et bénéficie des innovations apportées par le cloud, le big data et l’intelligence artificielle. La richesse des objets connectés c’est la multitude d’objets qui collaborent et communiquent pour transformer le monde en données et le rendre « intelligent ».

Aujourd’hui un très faible pourcentage d’objets sont connectés, sans doute environ 2%, mais en 2020 selon IDC ce seront 15 % qui seront connectés représentant plus de 20 milliards d’objets pour Gartner. La mission première de tous ces objets est de collecter et de transmettre des informations, grâce à des capteurs multiples et variés, qui après exploitation vont ajouter des fonctionnalités à cet objet et offrir de nouveaux services pour une expérience utilisateur augmentée. Avec cette prolifération d’objets connectés l’univers numérique touchera à l’apothéose : à terme quasiment tout deviendra source de données. Dernièrement Le MIT Media Lab et Microsoft Research ont même été imaginer un tatouage éphémère qui pousserait la notion d’objet connectable encore plus loin. En 2020 on estime que les objets connectés compteront pour 27% de toutes les données (source IDC).

Les objets connectés apportent une réponse aux enjeux du 21 ème siècle. Le déploiement des objets connectés trouve son utilité dans tous les secteurs d’activité. Plus qu’utile l’objet connecté va s’avérer incontournable pour faire face aux enjeux du 21 ème siècle. Il faut considérer chaque objet connecté comme un élément d’un système plus vaste (l’habitat, le bâtiment la voiture, le magasin, l’aéroport, l’usine, la ville etc ..) et œuvrant pour l’amélioration de tous les secteurs d’activité (agriculture connectée, santé connectée etc…). Tout le monde s’intéresse au marché IoT y compris les géants du web comme Google qui a déposé fin juillet un brevet de salle de bain connectée pour prévenir les maladie en mesurant l’évolution des systèmes cardiovasculaires, nerveux, endocriniens et musculaire de ses utilisateurs. Face à la démographie galopante qui nous promet 9,6 milliards d’habitants sur terre en 2050 (dont plus de la moitié vit  en zone urbaine depuis 2008) le rôle des objets connectés est essentiel. Un rôle d’autant plus important que nos ressources s’épuisent.  Le mercredi 22 août 2016, l’humanité avait déjà épuisé son crédit annuel de ressources naturelles. Les effets sont inquiétants quand on sait qu’en 2030 la demande en eau sera supérieure de 40% à l’offre mondiale. Les objets connectés ne sont pas le remède miracle mais surement une partie de la solution. L’agriculture a déjà entamé la révolution des objets connectés pour optimiser les rendements. Avec 54% de la population mondiale qui vit aujourd’hui dans les zones urbaines et qui devrait passer à 66% en 2050 les villes n’ont pas d’autre choix que de devenir intelligentes pour réguler le trafic automobile, la consommation électrique, la fourniture d’eau et lutter contre la pollution. En 2030 tous les foyers français devraient être équipés de compteurs d’eau intelligents qui pourraient faire baisser la consommation d’environ 15% grâce à un suivi personnalisé. ( lire En 2030, notre eau sera intelligente et connectée)

L’utilisation des objets connectés s’appuient sur les piliers de la transformation numérique. Les objets connectés ne fonctionnent qu’en exploitant les technologies fondamentales du numériques et bien sur les réseaux. Les mobiles et smartphones pour fournir les applications exploitant les données de bon nombre d’objets. Le big data pour collecter, stocker et traiter la multitude de données, l’intelligence artificielle pour créer des systèmes agissant de façon autonome et le cloud pour héberger de manière économique les ressources informatiques qui sous-tendent le fonctionnement des objets connectés. Pour accompagner ce formidable développement les questions ne manquent pas à commencer par la sécurité. Le sujet n’est pas nouveau dans notre monde désormais numérique mais le nombre et la distribution d’objets interconnectés couplés à la puissance de l’intelligence artificielle amplifient les risques et complexifient la sécurité. On a déjà en tête le piratage de voiture et tout récemment un article faisait froid dans le dos en évoquant le possible piratage d’un cerveau humain à partir d’implants (lire Brainjacking: Hacking brain implants). Scénarii catastrophes qui nous sensibilisent encore d’avantage à la cyber sécurité thème majeur de notre siècle. N’oublions pas d’évoquer le sujet de la protection des données personnelles. Tous ces objets vont envahir notre quotidien et enregister bon nombre de nos activités  posant ainsi la question de la limite de l’utilisation de ces données. Une raison de s’intéresser à la toute dernière réglementation européenne dans ce domaine la General Data Protection Regulation GDPR.

Comme toute révolution technologique des metiers disparaissent et d’autres se créent. Le bilan est positif ou négatif selon les analystes qu’on interroge mais face aux enjeux de notre planète il parait désormais difficile de s’en passer.  Reste à repenser nos modèles économique et sociétaux pour que la transition se fasse le plus harmonieusement possible

Moins de 2 ans pour se conformer à la General Data Protection Régulation européenne GDPR

La nouvelle réglementation européenne sur la protection des données GDPR laisse moins de 2 ans aux entreprises pour s’y conformer. Au-delà de la contrainte réglementaire c’est aussi une formidable opportunité de gagner la confiance des clients et des consommateurs en renforçant sa politique de sécurité

GDPR site

Concilier potentiel économique et respect de la vie privée. Les données personnelles sont devenues un enjeu économique extrêmement important. L’économie numérique repose largement sur cette notion de services contre l’échange de données à caractère personnelle. Avec l’utilisation des smartphones et des applications chacun d’entre nous produit constamment des données qui sont autant d’informations sur notre mode de vie et nos comportements. Les données massives (big data) représentent un formidable vecteur de croissance pour l’économie moderne que le foisonnement des objets connectés dans tous les secteurs va continuer à accentuer. Le développement de l’intelligence artificielle ouvre des possibilités quasiment illimitées sur l’exploitation de toutes ces données.  Le potentiel économique de ses données est de nature à aiguiser les appétits et à faire fi du respect de notre intimité dans un univers numérique ou les frontières se sont nettement estompées et complique la réglementation.

Quatre ans pour aboutir à une réglementation européenne sur la protection des données personnelles. Il aura ainsi fallu 4 ans de préparation et de débats pour que finalement une réglementation européenne voie le jour. C’est la fameuse GDPR (General Data Protection Regulation) qui a été approuvée le 14 avril 2016 et qui remplace la directive 95/46/EC. Tous les états membres de la communauté européenne devront s’y conformer d’ici le 25 mai 2018. Cette réglementation européenne a pour objectifs d’harmoniser les lois sur les données personnelles en Europe, de protéger les données personnelles des citoyens européens et de réformer la manière dont les organisations approchent les données personnelles.

Moins de deux ans pour se conformer à la GDPR. Cette réglementation  s’applique de manière uniforme à tous les membres de l’union européenne indépendamment de leur localisation que le traitement des données soit exécuté en Europe ou non. Les entreprises et les organisations européennes ont désormais moins de deux ans pour se conformer à cette réglementation sous peine d’amendes qui peuvent aller jusqu’à 4 % du chiffre d’affaires annuel mondial ou 20 millions d’euros. Il n’y a donc pas de temps à perdre car la tache peut s’avérer ardue et nécessite de la méthode et de la préparation. Mais plutôt que la sanction les entreprises peuvent y trouver une autre source de motivation. La confiance des consommateurs est souvent remise en question par des craintes sur la sécurité. Voici donc une belle occasion de renforcer cette sécurité indispensable à l’économie numérique et d’augmenter par la même occasion la confiance des consommateurs. La transparence est de rigueur avec la GDPR et la notification de failles de sécurité sera impérative et obligatoire dans un délai de 72h après la détection de la faille. La GDPR est un argument de plus pour pousser les entreprises à mettre en œuvre de véritables politiques de sécurité  et à se préparer activement aux cyberattaques.

Le GDPR a le mérite de clarifier les choses sur  de nombreux points tels que consentement, droit à l’accès aux données, droit à l’oubli, portabilité des données ou bien encore nomination d’un Data Protection officer (DPO). Je ne saurai trop recommander aux entreprises de rapidement se pencher sur cette réglementation et de se rapprocher des experts qui pourront les accompagner efficacement dans la mise en conformité. Reste à voir également comment le Royaume uni se comportera vis-à-vis du GDPR suite au Brexit ….

Lire également GDPR : Pas de conformité sans sécurité des données personnelles, pas de sécurité sans respect de la vie privée

site GDPR : http://www.eugdpr.org/eugdpr.org.html

 

La mobilité et la vidéo révolutionnent le marché publicitaire.

A l’occasion du salon VivaTech, qui s’est déroulé à Paris, les 1 et 2 juillet 2016, plus de 8 500 visiteurs se sont déplacés pour bleriotrencontrer des start-ups mais également pour assister à de nombreux débats et spécialement autour de la publicité TV « à l’âge des écrans multiples » et de « la révolution mobile ». En 2020 la vidéo représentera 82% du trafic internet. Avec la généralisation des smartphones et des tablettes l’usage de la vidéo s’est démocratisé. Toutes les entreprises vont devoir élaborer de véritables stratégies de communication axées sur la vidéo. Christine Bleriot experte en communication digitale attire notre attention sur ce marché en pleine évolution.

vivatech

25% du marché publicitaire se déroulera sur le second écran en 2017 ! Cette prévision  est l’une des principales priorités que tout directeur médias et marketing doit prendre en considération dès aujourd’hui. PC, mobile, tablette, IPTV, attirent les annonceurs. Encore faut-il appréhender la façon dont la publicité est consommée sur chaque écran.  L’écran TV va rester  le média de prédilection pour le divertissement et le sport en général. C’est une tv d’accompagnent qui donne la liberté au téléspectateur de faire autre chose en parallèle. Les spectateurs sur écran mobile et ou tablette, attendent eux une dynamique de contenus, une nouvelle expérience avec interaction possible, une expérience enrichie.  On ne consomme pas les écrans de la même façon, même si les études Médiamétrie montrent qu’en moyenne un  individu regarde les programmes sur 3 à 4 écrans différents par jour.

Place aux nouvelles expériences sur le second écran. Pour être efficaces les spots digitaux deviennent individualisés et géo localisés. Les annonceurs et agences doivent créer des contenus différents. Nous sommes au démarrage du multi-écrans et le message se personnalise et se formate en tenant compte de l’individu quand on s’adresse à lui sur le mobile. « Produce more contents for more devices ». Sur une tablette, l’annonceur n’a que 5 secondes en moyenne pour capter l’attention avec une vidéo, bien moins que les 15/30 secondes des spots TV traditionnels. Une adaptation primaire d’un spot TV ou de cinéma ne suffit donc pas  à convaincre cette cible zappeuse. Les régies publicitaires des grands groupes TV évangélisent les annonceurs en proposant des offres de spots digitaux individualisés, géo localisées. L’annonceur peut y gagner en interaction avec sa cible. Ce type de format est très performant sur les moins de 35 ans. Susciter l’intérêt avec des spots courts de moins de 6 secondes, embarquer le spectateur dans un véritable story-telling, sont donc les priorités futures des annonceurs et des directeurs artistiques en agence. Stop à la publicité classique sur les seconds écrans, place aux nouvelles expériences ! Avant de réaliser votre vidéo n’oubliez pas qu’une vidéo sur 2 sur mobile et tablette est visionnée sans le son !

La vidéo au sein du parcours client. Les investissements publicitaires en ligne ne cessent de croitre. La pub vidéo représente déjà 30 % de ce marché florissant et ce phénomène va s’amplifier. Nous sommes tous internautes et souvent lassés et agacés des pre-roll que nous recevons régulièrement. Alors, Les opérateurs mobile et  les agences médias brainstorment, Gingalabinnovent et imaginent des nouveaux formats qui se veulent plus pertinents parce que de plus en plus personnalisés. C’est le cas notamment avec SFR qui teste actuellement avec une start-up présente à VivaTech, Gingalab , une vidéo dont le contenu s’adapte au mobinaute selon l’endroit physique où il est géolocalisé. Vous faites par exemple vos courses chez Carrefour, mais la veille vous vous êtes connecté avec votre mobile pour trouver des tarifs de pneus. Le lendemain, à peine passé les portes de votre centre commercial préféré, vous recevez une vidéo en push qui vous propose une offre promotionnelle immédiate à valoir si vous vous rendez au centre auto situé sur le parking. Résisterez-vous à la tentation ? Le principe tient dans une automatisation de centaines de scénarii possibles, préenregistrés à l’avance, et l’opérateur n’a plus qu’à vous adresser celui qui vous correspond à un instant T de votre vie de mobinaute.

Tout le monde s’est mis à la vidéo et les réseaux sociaux s’inventent en « chaine de telé » avec le live streaming video.  Chacun de nous peut s’improviser réalisateur tant le numérique a mis à la portée de tous des moyens simples pour créer des vidéos de bonne qualité . La startup Gingalab avec son produit Active Cloud Editing démontre la simplicité de monter une vidéo en ligne (voir la demo).  Dans cette profusion de nouveaux contenus  pour rester efficace il faudra redoubler d’imagination.

Merci à Christine Bleriot pour sa contribution à la rédaction de ce billet