Le marketing en quête d’efficacité

La donnée et le marketing ont toujours été de bons amis. Connaitre le client et tenter d’influencer ses intentions d’achat sont dans les gènes du marketing. Alors pourquoi tant d’emphase autour de ce fameux big data et du machine Learning ?  La concurrence est devenue globale et protéiforme. Le consommateur, désormais averti, est face à un large spectre d’offres et de canaux d’achat. Le marketing n’a d’autres choix que d’augmenter son efficacité en apprenant l’art d’exploiter la multitude de données issue de l’univers numérique.

Le marketing en quête d’efficacité. Le contexte commercial évolue rapidement et nécessite de la part du marketing d’augmenter constamment son efficacité. Avec internet et les smartphones les consommateurs ont gagné en mobilité et en autonomie. Les termes « parcours client » résument bien les nombreuses possibilités dont dispose le consommateur pour se renseigner, échanger, comparer et acheter pour au final obtenir le meilleur rapport qualité prix. Il n’hésite pas non plus à mettre les offres traditionnelles en concurrence avec les barbares du web qui bousculent l’ordre établi avec de nouveaux modèles d’affaires particulièrement attrayants. Le numérique change la donne et accélère les transformations. Les entreprises traditionnelles tout comme les nouvelles issues du numérique doivent constamment rechercher plus d’efficacité accentuant la pression sur le marketing et mettant à l’épreuve son agilité.

Satisfaire un consommateur de plus en plus exigeant. Aucune entreprise ne peut rester attentiste sur un marché en ébullition. Le client veut désormais un marketing individualisé qui lui propose des offres personnalisées adaptées à ses besoins financiers et à ses goûts. Quel que soit le canal utilisé il veut être reconnu comme client et traité comme tel. L’incohérence ou le manque de fluidité sur son parcours client peut vite le détourner d’une entreprise. Le consommateur maitrise également les nouveaux modes de communication sur les forums et les réseaux sociaux pour recommander un produit, s’il en est satisfait, ou bien faire part de son mécontentement dans le cas contraire. Le consommateur est rentré dans l’ère du numérique bien avant les entreprises. Pour le satisfaire et répondre aux objectifs de l’entreprise le marketing devient digital et doit exploiter au mieux les données, aussi bien internes à l’entreprise qu’externes. La marketing peut ainsi

  • Augmenter la connaissance client (vision 360)
  • Suivre et analyser les tendances de marché
  • Affiner la segmentation
  • Améliorer le ciblage les campagnes
  • Devancer les attentes par de l’analyse prédictive
  • Personnaliser les offres et les programmes en fonction du contexte
  • Adapter ses tarifs de manière dynamique
  • Maitriser l’attrition des clients
  • Surveiller la réputation de l’entreprise
  • Offrir de nouveaux services
  • Enrichir l’expérience client

Vers une démocratisation des solutions de big data. Extraire la valeur de la donnée brute est un processus complexe qui se heurtait à des problèmes techniques et financiers. Là encore le contexte a changé. D’un point de vue financier il suffit de voir les capacités de stockage dont nous disposons sur un ordinateur familial pour s’apercevoir que les coûts ont suffisamment baissé pour envisager de stocker d’importants volumes de données. La puissance de traitement des serveurs d’aujourd’hui rendent possible l’exécution d’algorithmes complexes et de technologies de machine learning en des temps extrêmes rapides. L’écosystème du big data s’est étoffé en conséquence pour adresser toutes les étapes de la transformation de la donnée à commencer par la collecte, le stockage, le traitement et la visualisation. Le Cloud contribue à démocratiser l’adoption du big data en proposant les infrastructures appropriées au besoin et à l’évolution de chaque entreprise. De nombreux éditeurs commencent à offrir des solutions de Big Data prêtes à l’emploi en mode SaaS palliant au manque de compétences spécialisées et à la nécessité de s’équiper en matériel couteux. Les offreurs de Cloud comme Amazon, Microsoft ou IBM ont aujourd’hui leur offre de Machine Learning dans le cloud .Les sociétés de services s’organisent en conséquence et mettent en place des départements composés d’analystes de données et de datascientists. De nouvelles sociétés de conseil font de l’analyse de la donnée leur cœur de métier.

Une approche pragmatique pour commencer : La donnée est le nouvel or noir, les solutions deviennent abordables, reste à franchir le pas. L’écosystème du big data pour le marketing reste encore complexe et entre le cas d’usage et les briques à assembler pour la solution, le trajet est semé d’embuches. Inutile de vouloir faire le big bang, le pragmatisme doit primer et commence par le choix d’un cas d’usage, un domaine dont l’amélioration peut être déterminante et probante. Il faut ensuite tester la solution et mesurer les effets. Se faire accompagner peut se révéler indispensable et l’expérience montre que la majorité des entreprises en fonction de leur taille et de leurs enjeux nouent des formes de partenariats avec des sociétés de services, des éditeurs ou des startups spécialisées.

La Data s’invite à la COP 21 pour un « data driven climate »

Impossible de rester insensible aux changements climatiques. La COP21, sans préjuger de ses résultats, a au moins l’intérêt de nous informer sur les conséquences de ces changements si aucune action n’est prise. De nombreuses initiatives verront sans doute le jour. Certaines entendent tirer parti du numérique et notamment de l’exploitation des données avec les solutions de Big Data.

COP 21

Des données pour proposer des solutions plus efficaces au changement climatique Notre mode de vie a considérablement modifié l’environnement et contribué aux changements climatiques. La modification du climat a des conséquences graves et souvent durables. La pollution menace notre santé, la désertification provoque des migrations de population et les cataclysmes causent d’innombrables pertes humaines. Lutter contre le changement climatique est en train de devenir une priorité mis en lumière par la COP21 qui a identifié plusieurs domaines d’action : la production d’énergie, la production industrielle, le transport, l’agriculture, la déforestation, les bâtiments, le traitement des eaux et des déchets. Les solutions proposées pour chacun de ces domaines seront d’autant plus efficaces qu’elles pourront disposer de données nombreuses et précises. On peut donc saluer les initiatives qui visent à mettre à disposition des volumes de données de plus en plus vaste.

Une plateforme Philanthropique de données : « Data for Climate Action » est une initiative d’innovation alliant l’analyse de Big data avec des politiques publiques pour accentuer l’action sur le changement climatique. Chaque jour nous faisons des choix qui influencent le climat qui en retour nous force à prendre des décisions. Ces décisions et ces comportements laissent des traces tangibles sous forme de données détenues par les banques, les opérateurs de télécom, les compagnies d’électricité ou les supermarchés. Il existe une énorme quantité de données dans tous les secteurs d’activité et dans toutes les régions du monde qui, si elles étaient disponibles à l’analyse et à la recherche, pourraient être corrélées pour mieux comprendre l’impact de nos choix et nous aider à découvrir des solutions pour agir favorablement sur le climat. Le Big data pourrait ainsi accélérer l’innovation dans le domaine des actions climatiques. Pour y arriver, l’initiative « Data for Climate Action » propose de mobiliser la communauté globale des entreprises pour partager les données dans une optique philanthropique pour le bien public. Le site dataclimatefor action  donne un certain nombre d’exemples de données utiles pour la recherche de solutions climatiques. La première phase de cette initiative se déroule en ce moment à l’occasion de la COP 21 et consiste à mobiliser les entreprises du secteur privé pour partager leurs données. Cette phase sera suivie par un challenge de recherche pour inciter les institutions à analyser cette mine de données. « Data for Climate Action » est hébergée par Global Pulse. Ce programme est mené sous l’égide des Nations Unis dans le but d’accélérer l’adoption et le développement du Big Data et de l’innovation a des fins de développement durable et d’actions humanitaires.

Etalab met à disposition des données pour faciliter la lutte contre le changement climatique. Etalab rappelle que la production d’énergie contribue pour 35% des émissions des gaz à effet de serre dans le monde. Pour analyser l’impact des différents types d’énergies consommées et évaluer des solutions Etalab fournit des jeux de données au niveau national, régional ou départemental. Des sociétés ont déjà exploitées ces données et en ont rendu public leurs résultats sur le site d’Etalab. Le Climat Change Challenge (C3) a quant à lui exploité plus de 500 jeux de données mis à disposition sur le site d’Etalab par les partenaires du C3. Un exemple concret du rôle des données dans la lutte contre le changement climatique puisqu’à l’issue de ce challenge 29 projets de solutions innovantes ont été imaginés et développés.

C3 COP21

Les 5 lauréats (Diwo, Plan B, Green My City, Tayo , Bla Bla carotte) et le coup de cœur du public (Meet and Reboot) ont l’occasion reçu leurs prix durant la COP 21.

Data et technologies contre le changement climatiques. Lutter contre le changement climatique demande de la réflexion et de l’innovation. La France n’en manque pas ni dans l’exploitation des données ni dans le développement de technologies propres comme en témoignent les 150 startups les plus emblématiques de la filière « Clean Tech » qui ont été recensées et dont 21 sélectionnées étaient présentes à la COP 21 pour jouer le rôle d’ambassadeurs de la French Tech.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data

Beaucoup d’articles de presse évoquent le potentiel économique des données. La donnée concourt à la création de nouveaux services et participe à la compétitivité des entreprises en permettant par exemple un pricing dynamique. Derrière ses nouvelles pratiques il faut affronter des défis technologiques dans le domaine des bases de données. Des défis relevés par l’éditeur français Quasardb et la société Quartet FS dont les solutions collaborent à présent pour repousser les limites du Big Data.

Edouard quasardb
Avec Edouard Alligand, fondateur de quasardb

Le développement d’internet a modifié considérablement le comportement des consommateurs. Aujourd’hui avant d’acheter, le consommateur se livre en quelques clics à une véritable étude de marché. Il utilise des comparateurs de prix qui le conduira à choisir entre tel magasin physique et tel site marchand. Le consommateur sait faire la part des choses entre la valeur ajoutée d’un produit et son prix. Internet est devenu un vaste marché ou les compétiteurs s’épient et ajustent leur prix en conséquence. L’exemple du groupe Accor illustre bien le problème. Après avoir vécu la désintermédiation avec des sites en ligne, l’arrivée des comparateurs de prix sur internet, il subit maintenant la concurrence des plateformes locatives comme Airbnb. Le groupe a tardé à réagir avant d’annoncer un investissement de 225 millions d’euros sur 5 ans dans le numérique qui devra permettre d’ajuster les tarifs en fonction d’un certain nombre de paramètres et de personnaliser les offres et les promotions. Ces initiatives reposent en partie sur la mise en place de solutions de Big Data.

Ajuster dynamiquement les prix avec la solution Active Pivot. La tarification est devenue une science. Lors d’un séminaire la FNAC expliquait la complexité de la gestion desActive pivot pricing prix. Les concurrents surveillent en permanence les prix, les mises à jour sont de plus en plus fréquentes et un même produit peut avoir différents prix selon le mode de commercialisation et le type de livraison. Dans ce contexte la FNAC a décidé d’industrialiser sa gestion des prix. Cela signifie d’être capable d’analyser de nombreuses données, de faire des simulations pour vérifier l’impact sur les marges et ensuite de transférer le nouveau prix dans le catalogue. Bien sur toutes ses opérations doivent s’exécuter en temps réel pour une meilleure efficacité. Un défi technologique rendu possible avec la solution Active Pivot de la société Quartet FS qui a développé une base de données analytique « in Memory ». Toutes les données sont donc chargées en mémoire du serveur et permettent d’obtenir des temps de traitements extrêmement rapides sans commune mesure avec un stockage sur disque. Il serait tentant d’étendre l’usage de ce type de solution à toutes les données de l’entreprise mais les analyses plus classiques sur des données historiques ne justifient pas en général le coût d’une solution In-Memory, car les requêtes sont ponctuelles, et les volumes de données peuvent dépasser 100 téraoctets.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data. Avoir les avantages du traitement en mémoire sans avoir l’inconvénient des coûts c’est ce que devrait permettre l’accord annoncé par Quartet FS et quasardb le 30 novembre 2015. Quasardb est un éditeur français éditeur français d’une base de données NoSQL Key-Value Store pour le traitement de Big Data. Grâce à son modèle scale-out cette technologie Big Data permet de répartir les données dans des fermes d’ordinateurs standards. La conception permet de gérer des bases de données de taille quasi illimitée. Active Pivot a été modifié pour que les utilisateurs puissent sélectionner des données stockées dans quasardb et les analyser ensuite dans Active Pivot. Les deux technologies s’échangent les données à la vitesse de 10 Gigaoctets par seconde. C’est à dire qu’il faut moins de deux minutes pour mettre à disposition un Téraoctet de données dans Active Pivot. Une fois en mémoire, les données peuvent être analysées de manière extrêmement performante par Active Pivot.

Dans le domaine du Big Data les bases de données semblent se concurrencer. Avec le temps et l’expérience on s’aperçoit qu’elles correspondent à des cas d’usages bien précis et que loin de s’opposer elles se révèlent complémentaires. Comme le fait remarquer Edouard Alligand, fondateur de quasardb, « ce partenariat démontre que les technologies NoSQL et In Memory ne sont pas concurrentes mais complémentaires. En alliant la puissance de calcul de l’in-memory aux capacités de stockage du NoSQL, quasardb et Quartet FS contribuent à faire progresser l’innovation en matière d’analyse des données ».

Pour en savoir plus sur quasardb vous pouvez participer au petit déjeuner que la sociétéquasardb seminaire 15 dec organise le 15 décembre. J’aurai le plaisir de faire l’introduction de la matinée. Peut être l’occasion de s’y rencontrer.

A lire également : Le Big Data exigera des bases de données NoSQL qu’elles repoussent encore leurs limites

Le numérique renforce le besoin de protection des données personnelles

Avec l’importance grandissante des données dans l’économie numérique, les entreprises doivent se montrer d’une extrême vigilance et veiller au respect des obligations légales relatives aux données personnelles. La désignation d’un Correspondant Informatique et Libertés (CIL) peut faciliter la tâche. Afin de comprendre le contexte juridique et les enjeux, je me suis entretenu avec Betty Sfez, avocate au sein du Cabinet Deleporte Wentz Avocat, spécialisée en droit des nouvelles technologies et tout particulièrement en matière de protection des données personnelles et de la vie privée.

betty Sfez bureau

Depuis la création de la loi informatique et libertés le contexte a évolué. En 1978 quand fut promulguée la loi « informatique et Libertés » internet en était à ses balbutiements. Les données stockées à l’époque dans les centres informatiques des entreprises pourraient quasiment tenir aujourd’hui sur le disque dur d’un ordinateur familial. Le contexte a bien changé en 2015, la donnée est devenue l’un des moteurs principaux de l’économie numérique et les grands acteurs du Web sont passés maitres dans l’art de traiter de grandes masses de données. Pour offrir des services de plus en plus personnalisés et anticiper le comportement des consommateurs, les entreprises sont amenées à collecter de très nombreuses données. Nous même, à titre personnel, nous laissons de multiple informations, volontairement ou involontairement, sur les sites marchands, les réseaux sociaux et dans le cloud. Une abondance de données personnelles qui pourrait facilement porter atteinte à nos vies privées.

 Sommes-nous bien protégés par la loi ? En 2004, la loi Informatique et libertés a été modifiée. Elle encadre tous types d’opérations portant sur des données permettant d’identifier directement ou indirectement une personne physique. Mais cette loi, avec son décret protection donnée personnelle reglementtiond’application en 2005, n’est que le résultat de la transposition en droit français de la directive européenne 95/46/CE de 1995. Il aura donc fallu près de 10 ans pour adapter le droit interne, soit une éternité lorsque l’on sait à quelle vitesse les innovations technologiques fleurissent. Face à la révolution numérique, la Commission européenne a décidé de réformer le cadre légal existant et a publié, le 25 janvier 2012, un projet de règlement relatif au traitement de données à caractère personnel. L’adoption de ce projet a pris du retard. Difficile de trouver un consensus à 28 pays sur un sujet dont la sensibilisé de chacun varie selon son histoire. L’enjeu est important, il s’agit de protéger la vie privée sans pour autant briser l’élan de l’économie de la donnée ni céder au lobbying des GAFA. Toutefois, les bases juridiques existent et dictent déjà de nombreuses obligations aux responsables de traitements (en principe le dirigeant de l’entreprise ou le chef de service de l’organisme public en charge des traitements de données). L’idéal serait bien sûr d’arriver à créer des produits et des services qui respectent dès leur conception ces obligations légales. C’est le concept introduit par le projet de règlement européen de « Privacy by design » ou « data protection by design ».

 Respecter la loi nécessite une double compétence juridique et informatique. Nul n’est censé ignorer la loi, mais il faut reconnaitre que pour suivre à la lettre la loi informatique et libertés on doit disposer à la fois de bonnes connaissances informatiques et juridiques. Une double compétence que l’on trouve rarement dans une même direction. Pour parer à cette difficulté la notion de Correspondant Informatique et Libertés (CIL ou Data Protection Officer DPO en anglais) a été inclue dans la loi de 2004 et son décret d’application de 2005. Dix ans donc que cette fonction existe mais qui n’est toujours pas obligatoire alors qu’avec le développement des solutions de Big Data et de machine learning il est facile de franchir les limites de la vie privée. Il ne suffit pas de se retrancher derrière des données anonymisées. L’anonymat peut vite être remis en cause par des recoupements et l’utilisation d’algorithmes si on ne veille pas à garantir que la chaine d’anonymat n’est pas cassée.

 La complexité des traitements et la connaissance de la loi plaident pour la désignation d’un CIL. De crainte d’être « ubériser » ou pour résister aux géants d’Internet qui viennent les concurrencer sur leurs terres, toutes les entreprises vont devoir accélérer leur transformation numérique. La généralisation des objets connectés offre également des opportunités pour de nouveaux services qui peuvent vite empiéter sur la vie privée s’il n’y a pas un CIL chargé d’assurer le respect des obligations à la loi. Le CIL joue donc un rôle de conseil auprès du responsable de traitement. Sa désignation présente de nombreux intérêts pour une entreprise et peut constituer un réel avantage concurrentiel et social. Les risques de contentieux sont réduits et des erreurs stratégiques lors du lancement de nouveaux services ou produits peuvent être évitées.

Pour assurer sa mission le CIL peut compter sur le support de la CNIL. Aucun agrément n’est exigé à ce jour et aucun diplôme n’est requis pour être CIL  mais, dès sa désignation par le responsable de traitement, le CIL s’enregistre auprès de la CNIL et bénéficie alors de ses services. Un accompagnement personnalisé lui est proposé par l’intermédiaire d’ateliers d’informations, d’un extranet et de réponses rapides aux demandes de conseil juridique. La désignation d’un CIL est aussi une étape vers l’obtention du label « gouvernance » de la CNIL pour améliorer la confiance des utilisateurs dans des produits et des procédures en termes de protection de la vie privée. Avec le renforcement des droits des personnes et des obligations des entreprises dans le projet de règlement européen on peut s’attendre à ce que le CIL devienne obligatoire.

 Entre obligations et sensibilisation. Par définition, la question de la protection des B Sfez face V1données personnelles concernent tout le monde.. Au-delà des obligations légales il est nécessaire de sensibiliser les entreprises, leurs employés et les futurs entrepreneurs. Un travail effectué régulièrement par Maître Betty Sfez au travers de conférences, d’accompagnement de start-up et de cours dans des écoles ingénieurs. Le métier d’avocat d’affaire évolue lui aussi avec le numérique. Il deviendra bientôt difficile pour un avocat de continuer à conseiller ses clients sans une bonne connaissance des aspects numériques pour en comprendre les implications dans le fonctionnement et la stratégie de l’entreprise.

Blog du cabinet Deleporte Wentz Avocat

Avec l’intelligence artificielle, Facebook en sait autant sur vous que votre conjoint.

Impossible d’échapper aux mécanismes de recommandations sur Internet. Tous les sites internet, marchands ou réseaux sociaux, utilisent désormais ces fameuses recommandations censées influencer nos comportements d’achats. Basées sur de l’intelligence artificielle de plus en plus puissante, les recommandations se font plus pertinentes. Dans l’avenir elles pourront tirer profit d’une connaissance précise de notre personnalité comme le montre une étude réalisée à partir de l’analyse des « likes » de Facebook.

Facebook j'aime

Toute action sur Internet se transforme en données. On s’inquiète à juste titre de l’usage qui est fait de nos données personnelles (voir mon billet sur Safe Harbor). L’annonce par Facebook de « Search FYI » devrait encore attirer notre attention sur la protection de notre vie privée. Avec Search FYI, Facebook peut rechercher des informations dans tous les messages publics publiés par ses membres. Avec le développement de l’intelligence artificielle et l’utilisation du machine learning la valeur des données monte en flèche. Le mot « donnée » est souvent sous-estimé. On comprend bien qu’une photo et un texte postés sur un réseau social sont des données mais on oublie que le simple fait de cliquer sur un « like » devient une donnée aussi importante voire plus. Toute action sur internet laisse une trace numérique qui pourra être exploitée. C’est la base même du marketing digitale qui utilise ces traces numériques laissées sur le parcourt client pour mieux connaitre le consommateur et augmenter l’expérience utilisateur. C’est du donnant donnant : mieux nous sommes connus, mieux nous sommes servis. C’est l’évolution naturelle liée à la transformation numérique.

En analysant les « Likes », Facebook en sait plus sur notre personnalité que nos proches. La personnalité est un concept complexe qui semble difficilement mesurable. Cela touche à des sentiments, des émotions, des valeurs qui nous façonnent et qui nous rendent uniques. On pourrait donc imaginer, voire espérer, que les ordinateurs puissent se montrer impuissants à « quantifier » ce qui nous définit en tant qu’être humain. Pourtant une étude menée par des chercheurs des universités de Cambridge et de Stanford, publiée en janvier 2015, a montré que l’Intelligence Artificielle a le potentiel de mieux nous connaitre que nos proches. Cette étude visait à comparer la précision d’un jugement sur la personnalité réalisé par un ordinateur et des êtres humains. Les chercheurs ont demandé à 86.200 volontaires de leur donner accès à leurs « Likes » sur Facebook et de répondre à un questionnaire de 100 questions sur leur personnalité. Ces données ont été modélisées et le résultat est assez étonnant. On apprend que :

  • Avec l’analyse de 10 likes, Facebook en sait plus sur nous que nos collègues
  • Avec 70 likes Facebook en sait plus que nos amis
  • Avec 150 likes Facebook en sait plus que notre famille
  • Avec 300 likes Facebook en sait plus que notre conjoint

Quand on sait qu’en moyenne un utilisateur Facebook a 227 Likes, on se dit que nous n’avons plus grand choses à cacher.

Partager des émotions comme on partage des photos ou des vidéos. C’est la prochaine étape qu’imagine Mark Zuckerberg dans le futur. Durant une session de questions réponses sur son profile Facebook, le patron de Facebook a expliqué qu’il pensait que nous aurions à l’avenir la possibilité de partager nos expériences émotionnelles rien que par le seul fait d’y penser. La télépathie appliquée aux réseaux sociaux ? En matière d’Intelligence artificielle il devient difficile de faire la différence entre science-fiction et prévision. Quoiqu’il en soit Gartner a rappelé que c’étaient les algorithmes qui donnaient leur valeur aux données. Le progrès de ces algorithmes et leur complexité justifient qu’on s’intéresse à la protection de notre vie privée. Ils deviennent incontournables dans notre vie moderne, il faut en être conscient.

Safe Harbor : la question de la protection des données personnelles au-delà des frontières

Les données sont devenues essentielles à la nouvelle économie. Impossible pour une entreprise de faire l’impasse si elle veut tirer son épingle du jeu. Dans une économie largement mondialisée ou les biens, la monnaie et les personnes circulent, les données sont tentées de les suivre. On entrevoit les possibilités des algorithmes et de l’intelligence artificielle pour exploiter toutes ces données mais dans le même temps on s’inquiète légitimement de la protection de notre vie privée et de nos données personnelles. Protéger la vie privée sans brider l’économie de la donnée, c’est un peu le casse-tête auquel on assiste avec l’invalidation de Safe Harbor

Safe harbor bateaux

Difficile pour de simples citoyens comme vous et moi de s’y retrouver. Nous confions en permanence des données personnelles de notre plein gré ou à notre insu à des sites marchands et des réseaux sociaux. Nous en prenons conscience sans savoir réellement l’utilisation qui est faite de nos données et des meta data qui les accompagnent.

L’invalidation du Safe Harbor le 6 octobre 2015 par la cour de justice de l’union européenne CJUE met en lumière l’enjeu et la complexité de la protection des données dans l’économie moderne. Je dois avouer que je n’ai su que Safe Harbor existait qu’à l’annonce de son invalidation. Cela m’a donné l’envie d’en savoir plus et de partager ma compréhension du sujet dans ce billet en rappelant toutefois que je ne suis pas un spécialiste de ces questions particulièrement pointues. Je renvoie donc vers les sites spécialisés pour ceux qui ont besoin d’avis juridiques qualifiés.

Une directive européenne pour protéger les droits et les libertés des personnes lors d’un traitement de données à caractère personnel. En 1995 l’union Européenne avait identifié le besoin de protéger la vie privée des citoyens en restreignant la diffusion des données personnelles. C’est l’objet de la directive 95/46/CE qui autorise des pays tiers à recevoir des données en provenance de l’Union Européenne à condition de justifier d’un système de protection adéquat.

Protéger les droits et les libertés des personnes par rapport au traitement de données à caractère personnel c’est l’objectif de la directive. Pour le faire la directive établit des principes relatifs à la légitimation des traitements de données  ( lire le chapitre 2, section II article 7 de la directive):

  • Consentement indubitable
  • Traitement nécessaire à l’exécution d’un contrat
  • respect d’une obligation légale à laquelle le responsable du traitement est soumis
  • sauvegarde de l’intérêt vital de la personne concernée
  • Exécution d’une mission d’intérêt public ou relevant de l’exercice de l’autorité publique
  • Intérêt légitime poursuivi par le responsable du traitement ou par le tiers, à condition que ne prévalent pas l’intérêt ou les droits et libertés fondamentaux de la personne concernée

Et la personne concernée peut exercer ses droits en ce qui concerne

  • le droit d’obtenir des informations
  • le droit d’accès aux données
  • le droit d’opposition aux traitements de données Les autorités publiques américaines peuvent accéder de manière massive aux données transférées.

Le transfert des données personnelles vers un pays hors de l’union Européenne impose au pays d’assurer un niveau de protection « adéquat » qui peut être constaté par la commission européenne.

Pour permettre le transfert de données des pays de l’union européenne vers les Etats Unis, un ensemble de principes de protection des données personnelles a été négocié entre les Autorités américaines et la Commission européenne en 2000. C’est ce qui a donné lieu au Safe Harbor (Sphère de sécurité en français). Cet accord permet de donner une certification de sécurité aux entreprises américaines qui en respectent les principes.  Pourtant malgré les négociations de 2000, l’accord Safe Harbor a été invalidé par la Cour de Justice de l’Union européenne (CJUE). Lire le communiqué de presse de la Cour de justice.

Pourquoi invalider Safe Harbor. A priori la confiance ne suffit pas. Sur le fond, la CJUE a relevé que les autorités publiques américaines peuvent accéder de manière massive et indifférenciée aux données ainsi transférées, sans assurer de protection juridique efficace aux personnes concernées. Le site de la CNIL nous livre quelques explications : la Cour de Justice de l’Union européenne (CJUE) a jugé que, pour se prononcer sur le niveau de protection assuré par la « sphère de sécurité », la Commission européenne ne pouvait se limiter à la seule analyse de ce régime, mais devait apprécier si les Etats-Unis assuraient effectivement, par leur législation ou leurs engagements internationaux, « un niveau de protection des droits fondamentaux substantiellement équivalent à celui garanti au sein de l’Union en vertu de la directive lue à la lumière de la Charte ».

Pour dire les choses plus simplement les transferts internationaux de données personnelles pouvaient garantir le respect des principes du Safe Harbor sans pour autant être conformes aux principes du droit des états membres de l’Union européenne. Du fait de cet arrêt l’autorité irlandaise de contrôle va pouvoir et devoir examiner la plainte de M. Schrems. Elle devra décider s’il convient de suspendre le transfert des données des abonnés européens de Facebook vers les États-Unis au motifs qu’ils n’offrent pas un niveau de protection adéquat des données personnelles

Safe harbor cnil

 Laissons les juristes se pencher sur la question. Le groupe des autorités européennes de protection des données (G29) a laissé trois mois à la Commission européenne et aux États-Unis pour trouver une alternative au Safe Harbor.

lire l’article de la CNIL sur l’invalidation du Safe Harbor par la cour de justice de l’Union Européenne.

 

 

 

 

Les plateformes de supervision deviennent à leur tour «data driven» et intègrent le machine learning

L’intelligence artificielle ne cesse d’étendre ses domaines d’applications. Dernier en date la supervision des moyens informatiques par les fournisseurs de services managés (MSP). Spécialiste de la supervision, LOGICnow a consacré 18 mois de développement pour intégrer le machine learning au produit LOGICcards qui exploite les données de millions d’équipements supervisés dans une intelligence collective.

supervision

Le numérique crée une dépendance avec les technologies et les systèmes informatiques. La mutation des entreprises vers le numérique entraine dans son sillon une multitude de changements qui affectent de manière tangible la société et l’économie. Le numérique se nourrit de la donnée qui devient le vecteur de la transformation et l’élément fondateur des nouveaux services et des nouveaux modèles d’affaires. Dans notre société moderne qui se veut axée sur les services, la gestion des moyens informatiques s’avère de plus en plus complexe et couteuse. Nombreux sont ceux qui poussent la logique jusqu’au bout en considérant l’informatique elle-même comme un service qu’ils confient à des fournisseurs de cloud et de services managés MSP (Managed Services Provider). Un moyen efficace de gagner en agilité et de retrouver le temps pour innover.

Une intelligence collective pour surveiller les centres informatiques. Les entreprises, en devenant numériques, augmentent leur niveau d’exigences vis-à-vis de leurs fournisseurs de services managés. Ces MSP ont depuis longtemps adopté des solutions qui leur permettent de surveiller en permanence le bon fonctionnement des équipements et des logiciels pour anticiper un dysfonctionnement et réagir en conséquence. Une nouvelle étape vient d’être franchie par la société LOGICnow en intégrant de l’intelligence artificielle dans ces solutions de supervision. Les plateformes de supervision deviennent à leur tour « data driven » (pilotées à partir des données). Avec 12.000 clients MSP utilisant ses solutions de supervision, LOGICnow dispose d’une large communauté d’utilisateurs et de milliards d’évènements provenant de millions d’équipements supervisés. De quoi constituer une « intelligence collective » partagée au travers d’une architecture dans le cloud. C’est ce qui a été concrétisé par l’offre LOGICcards fruit de 18 mois de développement et de 10 millions de dollars d’investissement.

De l’analyse descriptive à l’analyse prescriptive. Les outils de supervision traditionnels génèrent des analyses descriptives qui expliquent ce qui est déjà arrivé. La nouvelle étape consiste à réaliser des analyses prédictives qui prévoient ce qui pourrait arriver. En utilisant pour la première fois le machine learning dans ce type de solutions, LOGICcards va bien au-delà du tableau de bord opérationnel. Le produit propose des informations pertinentes tirant partie de cette intelligence collective et les personnalise à l’environnement et au contexte de chaque MSP. De descriptive, l’analyse devient prédictive puis prescriptive en proposant des actions en fonction d’un événement qui a été anticipé. Le machine learning agit à différents niveaux :

  • Prévisions : Il détermine ce qui est susceptible d’arriver
  • Comportements : Il analyse les événements et tient compte du comportement des utilisateurs pour améliorer ses recommandations au fil du temps
  • Prescription : Il recommande des actions pour optimiser le fonctionnement ou anticiper un dysfonctionnement

L’utilisation du machine learning apporte aux MSP une meilleure connaissance en temps réel deLogiccards schema l’environnement technique, du contexte commercial et du comportement de l’utilisateur. Le MSP peut donc non seulement améliorer la qualité du service offert mais permettre également adapter son offre et ses propositions commerciales en fonction de chaque client et de chaque contexte. Une manière d’introduire la notion « d’expérience utilisateur » si chère au marketing.

Le 5 novembre la solution LOGICnow sera présentée à Paris La Defense dans le cadre de la réunion utilisateurs MAXfocus 2015 organisé avec Aubelio et j’aurai le plaisir d’intervenir sur le thème « Big Data et Intelligence artificielle » (voir le programme)

Adopter le Big Data, une affaire de méthodes selon « Business et Décision »

Pour la deuxième année consécutive, le cabinet Business & Decision tenait sa « matinale du Big Data » au Pavillon Kleber le mercredi 14 octobre. Un événement concret qui permettait d’analyser l’évolution du marché et proposer, à partir de retour d’expériences, des approches méthodologiques pour aborder le Big Data.

Business et decision matinale

Un contexte favorable à l’adoption du Big Data par toutes les entreprises. En 2004 les géants du web tels que Google et Yahoo étaient concernés au premier chef par les problématiques de Big Data. Leur besoin d’optimiser leur moteur de recherche face à une volumétrie grandissante de données les avait amenés à développer Hadoop. Aujourd’hui le Big Data n’est plus réservé à ces quelques géants du web, toutes les entreprises peuvent en bénéficier. Mick Levy ,‎Directeur de l’Innovation à Business & Decision l’explique par l’alignement favorable des planètes :

  • Vague d’innovations. Des freins ont été levés et de nouvelles possibilités sont désormais possibles grâce aux innovations incessantes de la technologieMick Levy V1
  • Explosion des données. 90 % des données ont été produites ces deux dernières années. Le développement des objets connectés va encore amplifier la création de données. Pourtant seuls 2 % des données sont exploitées ce qui nous laisse imaginer le fabuleux potentiel.
  • Démocratisation de l’accès à l’information. La mobilité et le cloud ont transformé les habitudes. Que ce soit à titre personnel ou professionnels nous créons et accédons aux données en permanence
  • Baisse des coûts matériels. Les équipements réseau, serveurs et stockages sont aujourd’hui plus performants et moins chers. Traiter et stocker des volumes importants de données à des coûts raisonnables devient possible. On peut ainsi imaginer des business model ou des cas d’usage dont la rentabilité ne sera plus remise en cause par des infrastructures aux coûts prohibitifs.

Le Big Data , tout comme un cerveau , va donc pouvoir exercer ses facultés pour exploiter enfin toutes ses informations et déclencher des actions. L’analogie avec le cerveau est séduisante et Mick Levy la poursuit en découpant le big data en quatre grandes zones responsables de:

  • La récolte des informations. Collecter toutes les données provenant de toutes les sources
  • La mémorisation. Stocker l’information de manière à pouvoir les exploiter efficacement
  • Le raisonnement. Apporter de l’intelligence pour transformer l’information
  • La conscience. Se poser des questions d’éthique sur l’usage qui sera fait de la donnée.

Big Data Tout le monde y croit mais l’adoption est encore lente.  Depuis la médiatisation en 2010 par l’article « the data deluge » publié dans the Economist, le terme Big Data est passé dans la sphère publique et les entreprises sont dorénavant sensibilisées. En 2015 Gartner relève que 75% des entreprises souhaitent investir dans les technologies de Big Data et pourtant seules 14% ont déjà déployés du Big Data. Des chiffres que l’on peut aisément appliqués à la France.

Un paradoxe qui peut s’expliquer par la complexité des solutions technologiques et le manque de méthodes pour identifier des cas d’usage et les mettre en œuvre. Business et Decision a identifié quatre manières d’aborder le sujet :

  • Par les données. L’approche est exploratoire et destinée à créer de la valeur et à résoudre des problèmes en partant des données
  • Par les technologies. Une approche très demandée par les DSI qui cherchent à réduire les coûts et obtenir plus d’agilité. Elle peut donner lieu à une urbanisation du SI en plaçant la donnée au centre et en travaillant sur la complémentarité de la Business Intelligence et du Big Data.
  • Par les questions. Chercher des réponses à des questions qui touchent l’activité ou les objectifs d’une entreprise : évolution des ventes, propagation d’une épidémie etc..
  • Par les usages. L’approche est la plus aboutie, nous sommes là une véritable transformation de l’activité de ‘entreprises.

Devenir une entreprise « data driven »: un processus en plusieurs étapes. Penser différemment, faire preuve d’imagination, innover…. La remise en cause peut être brutale et rebuter plus d’une entreprise. Autant de raisons de procéder par étape pour convaincre et transformer.

  • Acculturation. Le big data contribue à la transformation numérique de l’entreprises. Créer de nouveaux usages, transformer des processus existants, imaginer de nouveaux modèles bousculent les habitudes et les organisations et font appel à de nouvelles compétences. Hackatons, incubateurs, partenariats sont autant de manières d’insuffler de l’innovation et de la compétence.
  • Pré adoption. Etape quasi exigée, l’identification d’un cas d’usage donne lieu à un Proof Of Concept (POC), une maquette qui va valider l’intérêt de la solution.
  • Adoption. Passer de l’expérimentation d‘un cas d’usage la réalisation réelle demande un effort supplémentaire d’acculturation qui passe par de la communication. Ce n’est qu’après une réalisation réussie et concluante que l’on pourra alors voir les choses en grand et passer à la généralisation.
  • Généralisation. La première expérience a ouvert les yeux à l’entreprise qui voit désormais l’éventail des opportunités du big data. Les architectures techniques devront être pensées pour être évolutive et permettre à l’entreprise de d’exploiter pleinement toutes ses données en dépassant les silos organisationnels.
  • Entreprise data driven. La donnée est considérée comme le moteur économique de l’entreprise. On exploite non seulement les données de l’entreprise mais l’entreprise est en permanence à la recherche de données externes (réseaux sociaux, open data etc..) pour renforcer ses modèles.

Au cours de la matinale du Big Data , le Groupe La Poste et la société Adecco ont illustré ces approches en partageant leurs expériences dans une table ronde. Gestion d’une flotte automobile pour la Poste et Optimisation du planning intérimaire pour Adecco. Deux expériences positives qui démontrent l’intérêt du Big Data.

a consulter également le blog de Business & Decison consacré au Big Data

Les algorithmes ont pris le contrôle de l’économie

Les données des entreprises se transforment en produits et services grâce aux algorithmes. Le développement et la maitrise de ces algorithmes vont devenir un enjeu économique majeur pour les entreprises qui veulent rentrer dans l’ère du numérique à l’exemple des GAFA qui accélèrent dans le domaine du machine learning par coup d’acquisition de start up.

algorithme

Comme le pétrole, la donnée doit être transformée pour rencontrer les usages. En 2010, le journal The Economist nous alertait sur le « Data Deluge » et mettait ainsi un coup de projecteur médiatique sur le Big Data. Une analogie bien choisie à l’époque montrant que la donnée était une ressource au même titre que l’eau. Pour la canaliser et la stocker dans un « lac de données » il fallait revoir les infrastructures informatiques. On a vu ainsi arriver les systèmes Hadoop et les bases de données No SQL .

Plus récemment l’analogie s’est portée sur l’or noir, une manière de signifier que les données étaient une ressource essentielle de la nouvelle économie. En comparant la donnée à l’or noir nous évoluons vers une étape très révélatrice. Nous quittons la phase du déluge, qui menaçait nos infrastructures, pour entrer dans la phase de transformation nécessaire à la création de valeur au travers de nouveaux produits et de nouveaux services. On a pris conscience que si la donnée constituait un capital pour les entreprises, sa valeur ne pouvait être révélée qu’après des étapes de transformation qui, pour une grande part, vont être réalisées par les fameux « algorithmes ».

L’économie devient algorithmique. Le directeur de recherche de Gartner, Peter Sondergaard,  n’hésite pas à parler «  d’une économie algorithmique qui permettra le prochain grand bond de l’évolution du machine to machine dans l’internet des objets » (lire l’article) . On peut aujourd’hui difficilement dissocier big data et intelligence artificielle. Les usages du Big data mettent en œuvre des systèmes de Machine Learning et de deep Learning manipulant des algorithmes de plus en plus complexes.

Rappelons que dans le Machine learning, le système apprend par lui-même (auto apprentissage) et permet ainsi de résoudre des problèmes ou il est impossible de prévoir tous les cas de figures à priori. Le deep learning est quant à lui une forme du machine learning plus complexe qui essaye de se comporter comme le cerveau humain avec un système de type neuronale.

Les GAFA s’agitent autour des startups de machine Learning. Les GAFA (Google, Apple, Facebook, Amazon) ont compris depuis longtemps que leur activité et leur succès dépendaient de leur capacité à traiter ces énormes quantités de données avec ces technologies de Machine learning et de deep learning.

Début octobre Apple a racheté la société « VocalIQ » , un spécialiste du machine learning pour la reconnaissance vocale. Cette acquisition permettra d’améliorer le fonctionnement de l’outil Siri pour le rendre encore plus « intelligent ». Quelques jours plus tard Apple jetait son dévolu sur la startup « Perceptio » elle aussi spécialisée dans le machine Learning mais dans le domaine des photographies. Une acquisition qui devrait faciliter et optimiser la classification des photos sur les smartphones. Facebook est lui aussi un grand utilisateur de Machine Learning et, quand en juin 2015 il lance “Moments”, il utilise là encore des algorithme de pour reconnaitre les visages de personnes sur différentes photos. En 2014 Google avait investi 500 millions de dollars pour la start up d’intelligence artificielle DeepMind basée en Angleterre. Cette semaine Google a investi au travers de sa filiale allemande dans DFKI (le centre de recherche allemand pour l’intelligence artificielle). Avec l’acquisition de ces startups, ce sont également de nouvelles compétences que l’on recherche : les datascientists.

La maitrise de ces algorithmes est critique pour les nouveaux modèles économiques. Cela nous montre à quel point la maitrise de ces algorithmes est critique pour les nouveaux modèles économiques et pour optimiser les processus existants. Ce ne sont pas que les GAFA qui sont concernés mais bien toutes les entreprises et tout particulièrement le e-business. Derrière le terme générique de Big Data c’est bien souvent des méthodes de machine learning que l’on trouve par exemple pour :

  • L’analyse prédictive du panier d’achat du consommateur
  • L’analyse de sentiments
  • La détection de fraude
  • L’analyse de risques bancaires
  • La reconnaissance du langage ou des visages

L’homme va t’il perdre le contrôle . Le machine learning fait appel à des algorithmes de plus en plus complexes mais ils permettent de s’adapter à des contextes ou les statistiques seuls ne suffiraient pas. Par là même il devient difficile pour un être humain de comprendre ce que fait la machine. Comment dans ce cas s’assurer que la prédiction est fiable ? Comment être sûr que la machine n’a pas trouvé, par un « sur apprentissage » (overfitting), une corrélation entre deux événements alors qu’il n’y avait aucun lien de cause à effet entre les deux ? Pour diminuer ce risque et être capable de mesurer la fiabilité d’un résultat, les domaines des statistiques et du machine learning se sont rapprochés ces dernières années.

Mais la crainte va au-delà de la fiabilité des algorithmes. La protection des données personnelles en est un exemple. L’application de partage de photos de Facebook « Moments », citée précédemment, n’est pas encore disponible en Europe. L’autorité européenne, en charge de la protection des données personnelles, a estimé que la technologie de reconnaissance faciale ne devait pas être activée par défaut sans l’accord explicite des utilisateurs concernés. L’omniprésence des algorithmes qui analysent nos comportements et guident nos choix crée une nouvelle forme de pouvoir exercé par des entreprises ou des gouvernements qui conçoivent ces algorithmes. Reste à savoir comment garantir l’éthique de ces algorithmes.

 

 

 

L’univers du Luxe n’échappe pas au phénomène du Big Data.

Pour prendre en main l’avenir du Luxe, Louis Vuitton fait appel aux technologies du Big Data et n’hésite pas à organiser un Hackathon du Luxe pour rechercher rapidement de l’innovation. Preuve que les technologies de big data et de machine learning peuvent s’appliquer à tous les secteurs d’activité

L’émotion du luxe ne s’oppose plus au rationnel de l’analytique. Le commerce du luxe cultive l’attractivité de la marque et l’expérience émotionnelle attachée au produit. Parler de technique de marché de masse dans ce contexte peut sembler incongru. Dans le domaine du luxe l’émotion prime sur l’analyse rationnelle. De là à penser que les technologies de big data sont inutiles et inefficace il n’y a qu’un pas à franchir. Pourtant si les enseignes de Luxe cherchent à maintenir une relation personnelle haut de gamme avec un groupe réduit de clients fidèles et choyés, dans le même temps elles développent souvent une approche de vente qui s’apparente à du « mass market ».

On a l’habitude de dire que le monde du Luxe ne subit pas la crise, c’est oublier qu’il est soumis aussi à la concurrence et aux changements de comportements des nouvelles générations. Réfléchir au potentiel extraordinaire que représente le big data n’est donc pas du …luxe.  Big Data et Luxe sont deux univers totalement différents avec des cultures diamétralement opposées. L’émotion et l’imaginaire du Luxe se heurtent à l’analyse et la rationalité du Big Data.

Un hackathon sert à faire bouger des lignes rapidement. Pour créer la dynamique et du liant il faut savoir chercher de l’aide à l’extérieur. C’est ce qu’a  fait Louis Vuitton en lançant le premier Hackathon du Luxe durant 48h ce week end du  25 au 27 septembre. Le défi est ambitieux puisqu‘il s’agit ni plus ni moins que de changer l’avenir de luxe : « Unlock the Future of Luxury » .

Un hackathon est un événement de plus en plus souvent utilisé, et mis en scène, par les grandes entreprises pour faire bouger les lignes sur des nouveaux sujets. Le terme est né de la fusion des mots « hack » et  « marathon ». Il consiste à rassembler des développeurs, souvent lors d’un weekend, pour travailler sans interruption sur un projet et produire un prototype d’application. La durée courte du Hackathon est délibérée pour mettre une pression positive et aller à l’essentiel en maintenant la concentration des développeurs.

Des analyses prédictives sur les tendances, les ventes et l’évolution de la marque. Pour l’exercice Louis Vuitton fournit des données internes et externes et demande aux participants d’utiliser leurs compétences en intelligence artificielle et en machine learning pour réaliser des analyses prédictives sur les tendances, les ventes et l’évolution de la marque :

  • Croiser les données commerciales et sociales pour anticiper les ventes.
  • Suivre les prescripteurs et les activités des concurrents pour anticiper les tendances.
  • Connaître la vision de la marque et de ses produits par les différentes parties prenantes et définir son évolution.

Les participants n’auront peut-être pas eu le temps de goûter à la beauté des lieux. Dommage car le Louis Vuitton atelierHackaton se déroulait dans les ateliers de Louis Vuitton à Asnières-sur-Seine. A noter que dans l’agenda les organisateurs avaient glissé le 26 septembre un cours de gym à 10 h et un challenge Twitter à 17 h. Il ne faudrait pas que les développeurs négligent leur santé…. Les réalisations étaient présentées devant un jury à l’issue des 48 h  et les vainqueurs pourront gagner un voyage à San Francisco et d’autres récompenses.

Pour plus d’information aller sur le site Unlock the future of Luxury