Un CRM Big Data dans le Cloud avec Salesforce

 Salesforces fait un pas de plus dans le Big Data.en annonçant le 5 mars Salesforce Marketing Cloud Predictive Decisions qui sera disponible en mai 215. Une approche de « CRM Big Data » dans le Cloud qui peut simplifier la tâche des équipes marketing

Salesforce illustrationRendre le CRM Big Data accessible. Si certaines entreprises sont rebutées par la technicité et la complexité des plateformes de Big Data les solutions dans le cloud peuvent sans doute les inciter à profiter des avantages du Big Data sans en craindre les écueils et la complexité. Sans aucun doute Salesforce est le grand leader du CRM mais surtout il montre par cette annonce qu’il est possible, pour ceux qui le souhaitent, de profiter des avantages du CRM et du Big Data sans pour autant disposer en interne de ressources techniques spécifiques.    Sales force n’utilise pas le terme DMP (Data Management Plateform) mais la solution en présente certains aspects. Des intégrateurs comme Micropole et Ysance ont déjà à leur catalogue des offres de types DMP dans le cloud qui facilite la mise en œuvre de ces solutions.  N’oublions pas néanmoins qu’on ne peut pas s’affranchir d’analyser et de recenser les sources des données qui vont alimenter ces plateformes et de déterminer les flux de données sortants pour savoir comment les exploiter et à quels fins.

Salesforce veut mettre la « science des données » dans les mains des directions marketing.    Les entreprises doivent interagir avec leurs clients de manière personnalisées et en temps réel pendant un parcours d’achat de plus en plus « cross channel ». La solution « Predictive Decisions » de Salesforce affiche cette ambition. Le marketing devrait pouvoir s’appuyer sur la science des données pour analyser l’engagement du client, lui faire des recommandations de manière proactive et ainsi augmenter le taux de conversion. La solution donne la possibilité de concevoir des programmes intelligents allant au-delà de l’engagement contextuel pour faire du marketing prédictif en utilisant des algorithmes sophistiqués. Le marketing devrait ainsi disposer d’une plateforme unique combinant le CRM et les données marketing avec des informations contextuelles. Il pourra élaborer des tableaux de bord à partir d’informations provenant d’interactions, de navigations mais également d’autres applications de Salesforce. Sales force avec cette annonce a souligné quelques innovations qui demandent encore à être détaillées.

  • « collect beacon » avec les mises à jour en temps réel de contenus et de comportements utilisateurs directement dans la plateforme pour permettre des décisions prédictives.
  • Workflow et automatisation. Les données de comportements des clients sont chargées automatiquement dans la plateforme marketing Cloud en temps réel
  • Décisions prédictives natives. Anticiper quel contenu obtiendra le plus fort taux de conversion. Faire en sorte que chaque message soit personnalisé à l’individu et son contexte.

Le Cloud s’impose de plus en plus en plus comme un facilitateur de technologies. C’est en particulier le cas pour le Big Data. Pendant le salon du Big Data Paris on pouvait noter que de nombreuses sociétés s’associent pour offrir des solutions de big data dans le cloud et en accélérer ainsi l’adoption.

Un monde différent avec le Big Data selon Gilles Babinet

 Comme trop souvent avec les nouveautés, le terme Big Data est mis à toutes les sauces. Le livre de Gilles Babinet est donc le bienvenu, il remet les choses à leur place et permet de comprendre les origines, le potentiel mais également les freins et les risques du Big Data.

DSCN5681

C’est à l’issu des deux jours du salon Big Data Paris que se tenait la soirée de lancement du livre « Big Data, Penser l’homme et le monde autrement » écrit par Gilles Babinet. Une soirée quicloudera VIP V1 avait lieu au fatlab « la Paillasse » avec la participation d’Axelle Lemaire et d’une célébrité du Big Dat en la personne de Doug Cutting ( de la société Cloudera) concepteur de Hadoop le fameux framework Big Data. Ayant eu le plaisir de rencontrer l’auteur ce soir-là et d’entendre les commentaires flatteurs d’Axelle Lemaire sur le livre je ne pouvais pas faire moins que de le lire.

Faire bouger les lignes sans verser dans l’angélisme

La lecture en vaut la peine, en plus du fait qu’il se lit facilement le livre est utile à tous. C’est un Gilles et Ericlivre de convictions qui cherche à faire bouger les lignes sans verser dans l’angélisme. La première partie rappelle les origines et illustre l’intérêt du Big Data avec des exemples dans la santé, l’agriculture et la ville. C’est précis, documenté et plaisant à lire. La promesse du Big Data tient à trois moments: révéler, prédire, réagir.

Le Big Data doit être pris en charge par la direction Générale

La deuxième partie pose les vrais problèmes liés aux organisations et souligne l’impact économique des données. Gilles Babinet précise que : « il est apparu que le Big Data effrayait les directeurs des systèmes d’informations tant il s’inscrivait en rupture par rapport aux processus traditionnels » car le Big Data revient à remettre en cause l’organisation en silos. Le Big Data doit être reconnu comme un enjeu stratégique et par conséquent être pris en charge par la direction générale.

La question de la juste utilisation du Big Data par les institutions

Gilles Babinet est également conscient des questions qui se posent autour de la vie privée avec l’utilisation du Big Data et pour ce faire il revient dans la troisième partie sur l’affaire Snowden et les différents programmes utilisés par la NSA (XKeystore, Prism et MonsterMind). Intéressant et instructif on se croirait presque dans un roman d’espionnage. La question du respect de la vie privée est de taille et Gilles Babinet pense que : « la question de la juste utilisation du Big Data par les gouvernements et autres institutions va se poser avec de plus en plus d’acuité. »

Alors sans hésiter je vous conseille vivement la lecture de ce livre ( paru aux éditions Le passeur et bravo Gilles pour ce beau travail d’explication et de sensibilisation. (Gilles Babinet est Digital Champion et représente la France auprès de la commission européenne sur ces sujets.)

Google met sa maitrise du Big Data au service de la recherche pharmaceutique

Et si le big Data nous aidait à mieux vivre ? C’est en tout cas le sens des travaux effectués par Google sur la recherche pharmaceutique. Ne nous méprenons pas, Google n’entend pas remplacer les grands laboratoires pharmaceutiques mais cherche à explorer les possibilités d’accélérer les processus en utilisant les principes du Big Data.

 

google drug

Le deep learning appliqué à la recherche pharmaceutique. Habitué à manipuler des volumes gigantesques de données provenant de sources variées Google, associé au Pand Lab de l’université de Standford, a publié un document ( Large-Scale Machine Learning for Drug Discovery ) qui analyse comment des données provenant de sources variées pourraient permettre de déterminer avec une plus grande précision les composants chimiques pour réaliser les traitements appropriés à de nombreuses maladies. Pas de révélation médicale dans cette approche mais le test de modèles de traitement basés sur des techniques de machines learning et de deep learning. Le Deep Learning s’inspire de la neurobiologie pour constituer un réseau de neurones artificiels capable d’apprendre sur le modèle du cerveau humain. Lire la suite

Le Big Data exigera des bases de données NoSQL qu’elles repoussent encore leurs limites

Le Big Data sera un des éléments clé de la transformation numérique des entreprises. Le terme recouvre cependant de nombreuses technologies. Parmi celles-ci on trouve les bases de données NoSQL dont la multitude des offres nécessite de comprendre les principes qui régissent leur conception.

life-of-pix-free-stock-photos-light-sky-silo-windows-lillyphotographer

Face au déferlement de données auquel on a assisté ces dernières années, et à la prise de conscience que ces données pouvaient constituées une valeur sans commune mesure pour l’entreprise, une nouvelle vague de bases de données a vu le jour. Un mouvement amorcé en 2009 par les grands acteurs du web qui ont été les premiers à être confrontés à des volumétries inédites de données, structurées et non structurées, et à un nombre vertigineux de requêtes.

Les bases de données NoSQL adressent des enjeux différents de ceux des bases de données relationnelles historiques

Ces bases de données de type NoSQL viennent compléter (et non pas remplacer) les bases de données relationnelles qui se heurtaient à des limites d’évolutivité et de performances dans des environnements de données massives.

Avec la prolifération annoncée des objets connectés qui vont être autant de sources de nouvelles données, la gestion de bases de données massives se posera de manière accrue.

Les solutions de type NoSQL existent en grand nombre aujourd’hui et la difficulté consiste à choisir la base de données NoSQL adaptée à un contexte précis.

Pas réellement de définition précise d’une base de données NoSQL mais des objectifs communs :

Les bases de données NoSQL se différencient du modèle SQL par une logique de représentation de données non relationnelle qui se caractérise en général par :

  • D’importants volumes de données structurées et non structurées
  • Une multitude de requêtes simultanées
  • Une forte évolutivité de type scale out (évolution horizontale par rajout de serveurs)
  • De hautes performances
  • Pas de schéma (schema less) . La base de données n’impose pas de définition des éléments au sein d’un ensemble de données .

Les objectifs étant globalement partagés par l’ensemble des fournisseurs de bases de données NoSQL, comment dès lors faire la différence parmi une offre abondante ?

Les concepteurs de bases de données NoSQL ont du faire des choix d’architecture pour réaliser leurs objectifs. Les caractéristiques et les fonctionnalités d’une base de données NoSQL sont souvent la résultante de compromis et de combinaisons de choix complétés par des développements spécifiques de fonctionnalités.

Choisir une base de données nécessite de comprendre les choix architecturaux qui ont concouru à sa conception

   Le parti pris par les fournisseurs ne préjuge pas de la qualité d’une base de données NoSQL mais il permet de comprendre son positionnement et son adaptation par rapport à des cas d’usage et des conditions d’exploitation. Sans être exhaustif on peut recenser quelques choix d’architectures déterminants

1. Le choix du modèle de données : On trouve quatre modèles qui présentent chacun des intérêts et des limites. Les limites de chaque modèle pouvant être compensées certaines fois par des fonctions additionnelles

      • Clé/Valeur
      • Orienté colonne
      • Documents
      • Graphe

 2. Le mode de répartition des données : Face à une quantité de données importante et à de nombreux accès simultanés, il est nécessaire de répartir les données et les accès sur différents serveurs. Les moyens d’y arriver sont nombreux et on trouvera des systèmes totalement distribués ou de types master/slave. La topologie choisie et les algorithmes pour implémenter la distribution des données auront une incidence sur

  • L’uniformité de la répartition des données et des accès
  • La quantité maximale de données et de requêtes supportées avec le même niveau de performance.
  • Le maintien des performances en cas d’ajout ou de suppression d’une ressource
  • La simplicité de rajout d’une ressource
  • Le maintien des accès en cas de perte d’une ressource

3. La nature de l’algorithme:  Les algorithmes sont utilisés pour mettre en œuvre l’infrastructure distribuée en fonction du modèle de données choisi. Le choix de l’algorithme et son implémentation sont essentiels. Si on a par exemple choisi un modèle de données clé/valeur, pour des raisons de simplicité et de performances, et un système distribué de type pair à pair (peer to peer), pour un équilibrage de charge homogène, on pourra alors s‘appuyer sur un algorithme de type Table de hashage distribuée DHT (Distributed Hash Table) pour la mise en œuvre de la solution.

Dans cet exemple la combinaison « pair à pair » et l’algorithme « DHT » déterminera la qualité de performance, la souplesse d’évolution du cluster et le niveau de disponibilité selon les réplications permises.

4. La programmation:  Rarement mentionnés dans les documentations techniques, les choix de programmation ne sont pas sans conséquence sur les performances et la frugalité (l’usage minimum des ressources) de la base de données.  Plus la programmation sera proche de l’OS (programmation bas niveau), plus les performances seront optimisées et moins la consommation des ressources sera importante. Cela demande cependant une expertise forte et un investissement supérieur en temps de développement

Une maitrise complète des ressources par le code présente l’avantage de pouvoir assurer que certaines fonctions peuvent s’effectuer sans dégrader les performances. Une consommation minimum de ressource mémoire par exemple permet d’optimiser des fonctions de multithread et d’obtenir une scalabilité au sein d’un nœud d’un cluster sans impact sensible sur les performances.

Attention aux effets de seuils: Par définition lorsque l’on s’intéresse aux bases de données NoSQL on arrive dans des domaines extrêmes, ou qui tendront à le devenir dans l’avenir, en termes de nombre de requêtes et en quantité de données. La question est donc de s’assurer que les performances resteront constantes au fur et à mesures de l’augmentation des ressources.  On pourrait imaginer que le problème est résolu par le simple ajout physique de ressources.

Dans la réalité on constate une effet de seuil. Cet effet de seuil, comme son nom l’indique, se déclenche quand un niveau de requête est dépassé. La performance se dégrade alors sans possibilité d’y remédier par l’ajout de ressources matérielles. La manière dont on a implémenté le code de la base de données prend alors toute son importance . Plus l’effort de développement aura porté sur l’optimisation du code en utilisant de la programmation bas niveau, et plus tard l’effet de seuil se fera ressentir.

En fonction de chaque contexte et des prévisions de croissance l’effet de seuil peut être ou non un problème. Des benchmarks permettent de s’assurer que la solution envisagée supportera les charges prévues dans le temps.

Simplicité opérationnelle

Si les notions de scalabilité, de performances et de disponibilité sont particulièrement sensibles dans un contexte de bases de données NoSQl il ne faut pas pour autant négliger le côté opérationnel de la solution

  • Mise en œuvre : simplicité de l’interface utilisateur, utilisation ou non du format de données d’origine, besoin d’interruption lors d’ajout de ressources.
  • Intégration dans un environnement existant : infrastructures et standards du marché supportés

Pas de recette miracle donc mais des questions à se poser qui pourront nécessiter au final quelques tests pour valider que les niveaux de performances et les capacités d’évolution répondent bien aux cas d’usages concernés.

Documentations:

a lire également : Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data

 

« social Media Intelligence » : un atout précieux pour les entreprises

Progressivement les réseaux sociaux modifient les modes de communications et s’imposent aux entreprises. En offrant à chaque individu de s’exprimer librement et en temps réel sur tous les sujets, les réseaux sociaux révolutionnent la relation client.

photo pour social media

8 français sur 10 utilisent au moins un réseau social. Les entreprises n’ont pas d’autres choix que de tenir compte de l’influence des réseaux sociaux et de repenser leurs prises de paroles et leurs canaux de communication. Le consommateur accorde plus d’importance à présent à ce que disent ses pairs sur le web social qu’à une communication officielle d’une entreprise ou d’une marque. Sur le web social on trouvera le meilleur et le pire, cela reflète tout simplement notre société. Plutôt que de l’ignorer, mieux vaut en maitriser les codes pour s’en faire un allié

Donner du sens aux conversations sur les réseaux sociaux avec la Social Media Intelligence . Face à ces évolutions de nouveaux métiers apparaissent comme le Social Media Intelligence. Son rôle ? Écouter  les Barometre Social media Cegos 2014conversations sur les réseaux sociaux et en analyser le contenu pour en extraire des informations utiles pour les entreprises ou les marques.

Une petite révolution en soi. Là où le marketing réalisait des études qualitatives ou quantitatives basées sur des enquêtes auprès d’échantillons de population ou de panels d’utilisateurs, nous disposons avec les réseaux sociaux de nouveaux terrains d’études quasiment illimités. On ne pose plus des questions formatées, on écoute des réactions et des opinions spontanées en temps réels. On peut collecter en continu et instantanément tout ce qui se dit sur les réseaux sociaux pour être capable de réagir immédiatement à une crise, déceler les tendances du moment où bien procéder sur des analyses en profondeurs pour élaborer des stratégies marketing ou mettre en place des plans d’actions opérationnels.    ( lire l’article Social Media Intelligence : quelles tendances ?)

Fédérer l’ensemble des sources de données marketing avec la Data Management Platform. Les données en provenance des réseaux sociaux viennent s’ajouter aux CRM, Business Intelligence et autres sites web utilisés par le marketing. Les directions marketing comprennent la nécessité de gérer cette multitude de sources de données. Avec les Data Management Platform (DMP) on met en pratique les technologies du Big Data pour collecter les données le long du parcours client, centraliser les données d’audience et de campagne marketing et les compléter par des données tierces. Différents outils pourront se connecter au DMP pour exploiter et apporter du sens à ces données. On parle également de « Insight Mining » pour exprimer cette recherche de sens (tendances, opinions, crises..) dans cette masse d’informations contenue dans le DMP. Après la gestion des achats de publicité display, le rôle du DMP s’étend ainsi progressivement à la gestion du marketing digitale. On peut dès lors obtenir un meilleur ciblage de la publicité en ligne pour l’annonceur, proposer des recommandations plus pertinentes tout au long du parcours client et optimiser le marketing direct.

Les entreprises B to B trouvent de la valeur aux réseaux sociaux .  Si les réseaux sociaux sont considérés comme quasiment incontournables pour les entreprises grand public (Business to Customer) ils sont encore souvent relégués à un second rôle dans les entreprises B to B (business to business).  Pourtant certaines entreprises B to B ont démontré la force des réseaux sociaux quel que soit le produit de l’entreprise.  J’en veux pour preuve la société Maersk Line spécialisée dans le transport maritime de containers.maersk line

Difficile à priori de trouver un intérêt particulier à un produit comme un container. Pourtant à partir de 2011 Maersk a réussi à créer un élan autour de sa marque, de ses bateaux et de ses containers en utilisant les réseaux sociaux. Maersk a gagner son pari en racontant une véritable histoire sur la durée (story telling ) autour de visuels de haute qualité . Résultats une présence sur les réseaux sociaux avec un nombre de « followers » ou d’abonnés qui ferait pâlir des sociétés grands publics. En 2013 Marersk a même réussi l’exploit d’obtenir un taux d’engagement situé entre Lego et Disney.

Si l’objectif principal était de se rapprocher de ses clients, Maersk a également réalisé qu’il pouvait y gagner en termes de couverture médiatique, d’incitation à l’embauche, de notoriété et de visibilité, ainsi que de renseignements émanant de spécialistes du monde entier. Et tout cela pour un budget dérisoire au regard des résultats obtenus mais avec l’adhésion et l’engagement de la direction générale

Les réseaux sociaux souffrent encore de la méconnaissance, voire de la crainte, des dirigeants français dans ce domaine peu à l’aise dans l’utilisation de ces nouveaux media. Pourtant le mouvement est inexorable, il est dangereux de pratiquer la politique de l’autruche. Éduquons-nous et apprenons à maitriser et à exploiter ces nouveaux outils.

 

La relation client sublimée par le big data.

 

L’expérience Client est plus que jamais une préoccupation des entreprises. Les solutions de Big Data, associées aux technologies de machines Learning et de Cloud, ouvrent d’intéressantes perspectives.

2-Life-of-Pix-free-stock-photos-hands-desk-swatch-Damian-zaleski

On ne parle plus que de l’expérience client, autrement dit on cherche à créer des émotions et des sentiments lors de l’utilisation d’un produit ou d’un service. Avec l’expérience client on est souvent dans le domaine de l’irrationnel car environ 85% de nos actions sont irrationnelles. Nos émotions, nos valeurs, nos expériences influencent très largement notre acte d’achat. Comment dès lors anticiper les attentes des clients ?

Les outils de CRM (Customer Relationship Management) analytiques se limitent encore trop souvent à analyser des faits précis comme les produits achetés ou les montants dépensés pour en déduire des préférences possibles en les corrélant à des segmentations basées sur des critères relativement figés (age, sexe, lieu, profession etc..). Dans un contexte économique difficile où les modèles économiques se renouvellent, une relation individualisée et augmentée avec le client devient essentielle.

Interagir avec le client et devancer ses désirs  , dans un environnement de plus en plus omni canal, seront les enjeux du CRM d’aujourd’hui. Les consommateurs attendront des marques une expérience unique et personnalisée.

Ce qui paraissait encore impossible il y a quelques années devient progressivement accessible à toutes les entreprises quel que soit leur taille. Le Big Data est passé par là avec un écosystème qui s’élargit pour produire des solutions adaptées à chaque domaine. Certains se posent encore des questions sur l’usage du big data, pourtant nous utilisons tous le big data. Chaque fois que nous faisons des recherchent sur internet, des solutions de type big data brassent des quantités gigantesques de données pour nous donner instantanément des réponses de plus en plus pertinentes.

Compléter le CRM avec les informations des réseaux sociaux : En utilisant les réseaux sociaux nous donnons à ces sociétés (Facebook, Twitter, Linkedin, Instagram etc…) accès à nos données personnelles qui cumulées constituent de gigantesque bases d’informations que ces acteurs du Net monétisent. Grace aux échanges conversationnels, les réseaux recèlent une mine d’informations sur l’attitude des personnes.

L’attitude concerne les raisons qui peuvent motiver un acte (un achat par exemple) alors que le comportement se déduit en général à partir de ce que le client a acheté. Des outils sont désormais disponibles pour extraire ces données non structurées des réseaux sociaux. Dans le domaine du Big Data les premiers exemples viennent des géants de l’internet et se démocratisent ensuite. eBay avait par exemple indexé plus de 40 millions de blogs et de forums dans le cadre d’un programme décisionnel relatif aux media sociaux. On passe ainsi d’un CRM comportemental à un CRM attitudinal.

Les progrès du machine learning : Encore un nouveau terme, de plus en plus associé au big data. Le machine learning utilisent des types d’algorithmes qui présentent l’avantage de ne pas reposer sur des règles prédéfinis dont on connait le résultat à l’avance. Le machine Learning,comme son nom l’indique, regroupe les formes de programmes qui apprennent en permanence et s’enrichissent de l’expérience de chaque utilisateur (ou client), de processus ou de machines.

Combiner quantités massives d’informations (le big data) et algorithmes d’apprentissage (machine learning) permet de trouver des solutions à des problèmes inenvisageables auparavant. La pertinence des recherches ou des recommandations dépendent de cette association big data – machine learning et de la qualité des algorithmes et des données. C’est ainsi l’on peut réellement prédire le comportement des clients et proposer des offres qui devanceront leurs désirs

Des solutions big data as a service dans le cloud : Souvent le Big data apparait complexe et il peut vraiment l’être. Deux approches sont possibles.

  • Au sein de l’entreprise : La taille de l’entreprise, la nature du projet (un cas d’usage ou un contexte particulier) et des compétences disponibles peuvent justifier le développement d’une solution « on premise ». Certains commencent à penser « stratégie » en construisant un réservoir de donnée (data lake ou data hub) fédérant les données de l’entreprise et accessibles par l’ensemble des directions métiers. Les solutions hadoop constituent généralement dans ce cas-là la colonne vertébrale de l’architecture.
  • Dans le cloud : On choisit une solution correspondant à son(ou ses) cas d’usages sans même se poser la question de savoir si c’est ou non du big data. On est là dans une approche de type Software as a Service. On utilise un logiciel dans le cloud qui exploite une plateforme de big data avec éventuellement du machine learning. Grandes entreprises ou entreprises de taille moyenne, c’est un moyen rapide de profiter des avancées technologiques.

Dans le débat d’orientation sur la stratégie numérique, Axelle Lemaire a mentionné l’économie de la donnée. Nous y sommes avec le Big Data et le machine Learning. (Lire le billet Une République numérique pour la France)