Numérique et assureurs : un rôle de conseil renforcé

Le monde de l’assurance n’a pas échappé à la vague numérique. Certaines tâches vont peu à peu s’automatiser et les offres commencent à prendre en compte les nouveaux usages et les nouveaux risques liés au numérique. Dans ce contexte l’assureur est plus que jamais un conseiller. Karine Lazimi Chouraqui Agent Général à Paris 8ème, explique avec passion pourquoi le numérique renforce le rôle de l’assureur et  la relation humaine.

 Avec l’automatisation l’assureur peut se consacrer à son métier de conseil. Karine a compris très tôt les nouveaux enjeux de l’assurance dans un monde digital. photo-karine-lazimi-chouraquiElle bénéficie d’une forte culture numérique acquise au sein d’Allianz France. Son parcours parle pour elle. En charge de l’innovation, des réseaux sociaux, de la ereputation, elle a très vite compris que les usages changeaient et qu’avec le numérique de nouveaux risques apparaissaient. Elle voit dans le numérique une opportunité de valoriser encore d’avantage le rôle de conseil de l’assureur. Loin de réduire sa mission, l’automatisation va contribuer à décharger l’assureur des tâches qui ne requièrent pas de valeur ajoutée. Beaucoup de choses se font déjà de manière automatisée dans l’asset management et dans la gestion des profils à risques.

Repenser responsabilités et protection juridique à l’aune du numérique. L’économie numérique est liée à une exploitation optimisée d’une multitude de données au travers d’applications de plus en plus nombreuses. Cela ouvre d’énormes possibilités mais expose les entreprises à des risques nouveaux ou amplifiés par le développement du numérique.

  • Les cyberattaques concernent tout le monde. La presse s’en fait régulièrement l’écho. Les cyberattaques se multiplient et les préjudices peuvent avoir des conséquences dramatiques. Avec le développement du Big data et de l’intelligence artificielle, toute action délictueuse sur les données fait peser un risque qui ira croissant sur l’activité de l’entreprise et sur sa responsabilité.
  • La réputation de l’entreprise est devenue un sujet sensible. Avec le développement des réseaux sociaux la réputation d’une entreprise peut rapidement être mise à mal et nécessite de réagir rapidement. Ne pas être sur les réseaux sociaux ne dispense pas les entreprises de se soucier de leur ereputation. La ereputation ne se limite pas un problème de communication, la protection juridique dans ce domaine est souvent nécessaire et doit être adaptée au risque
  • L’économie de partage redéfinit les responsabilités.  L’économie numérique a donné naissance à de nouveaux modèles d’affaires basés sur des plateformes technologiques mettant en relation des particuliers pour transporter des biens à l’exemple du covoiturage. Cela pose le problème du partage de responsabilités. Tout récemment Karine a développé une offre en inclusion pour son client PostTrip pour tenir compte de ces enjeux de responsabilités. PostTrip propose de trouver des voyageurs de confiance pour transporter des objets à moindres coûts. Après discussion avec la startup pour comprendre son modèle et ses enjeux, un contrat a été construit pour assurer le transporteur pour tout objet dont la valeur ne dépasse pas 500 €.  Il est important, en tant que particulier, quand on utilise ces plateformes de connaitre les conditions générales pour savoir si sa responsabilité peut être engagée.
  • Le coworking est un partage de ressources et de responsabilités. Le mode de travail évolue avec le numérique. On souhaite plus de flexibilité que ce soit pour lancer son entreprise ou s’implanter dans une autre ville ou un autre pays. Le coworking répond à cette nouvelle demande. Les services offerts peuvent être limités à de l’espace ou enrichis par de multiples services. Les entrepreneurs ne sont pas toujours conscients de la répartition des responsabilités qui varient selon les offres.

La confiance est au centre de la relation assureur- assuré. Dans ce contexte en pleine effervescence Karine place la confiance comme la valeur primordiale de l’assureur. Le mot conseil est trop souvent galvaudé. L’arrivée du numérique doit renforcer cette valeur essentielle. Il n’y a pas de bonne assurance si on ne comprend pas le métier de l’entreprise et les risques associés. C’est un dialogue qui doit s’instaurer entre l’agent général et son client d’autant plus pour des petites et moyennes entreprises qui ne bénéficient pas d’une organisation conséquente pour analyser les risques et les conséquences juridiques.

Vous pouvez également suivre Karine sur Twitter @karinelazimi , sur LinkedIn et très bientôt sur son blog.

Le marketing prédictif doit tenir compte de la géolocalisation

De tout temps l’homme a rêvé de maitriser son destin et de contrôler l’avenir. Pas sûr que ce soit la clé du bonheur, peut être mieux vaut vivre dans une douce incertitude qui nous permet d’apprécier le temps présent et de bâtir des projets. « Carpe Diem » comme l’écrivait le poète Horace. Quoiqu’il en soit dans le business on n’aime pas être surpris et le marketing se veut de plus en plus prédictif vis-à-vis d’un consommateur de plus en plus mobile.

predictif-geolocalisation

Marketing prédictif : Surprendre à bon escient. Pour autant il ne suffit pas de bien connaître son client pour deviner simplement son futur comportement et ses intentions d’achats. Nos décisions sont très souvent irrationnelles influencées par nos émotions et notre inconscient. Si on s’intéresse à nos routines quotidiennes pas besoin d’être grand clerc pour prédire que l’on va rejouer la même partition. L’objectif du marketing prédictif est plus ambitieux. Il doit être capable de nous proposer des produits ou des services auxquelles nous n’aurions pas nécessairement pensés mais qui ont de forte chance de nous intéresser. Les données étant de plus en plus nombreuses et les technologies de big data et de machine Learning se démocratisant, le marketing prédictif a une voie toute tracée devant lui.

Une liberté de décision sous influence. On a beau penser que nous avons notre libre arbitre nos comportements obéissent à des règles non écrites dictées par de nombreux facteurs comme notre éducation, notre niveau de vie et notre environnement. C’est en cela que nous pouvons être prédictibles. Prédire le comportement d’une personne consiste à l’associer à un groupe d’individus présentant les mêmes caractéristiques. Plus les caractéristiques sont nombreuses et plus la segmentation est fine. On peut alors estimer que la personne a de forte probabilité de se comporter comme la majorité du groupe. Si dans le même groupe la majorité des membres ayant acheté le produit A a également acheté le produit C, alors dès qu’un consommateur ayant les même caractéristiques que le groupe choisrai le produit A on lui suggérera automatiquement le produit C. Cette méthode qu’on appelle le « filtrage collaboratif » est très utilisée par des sociétés comme Facebook, Amazon ou NetFlix. Les algorithmes de recommandations appliquent souvent cette méthode pour personnaliser l’expérience utilisateur en suggérant des contenus pertinents à l’utilisateur. Les algorithmes de recommandations sont pléthore mais chacun d’entre nous a pu expérimenter leur efficacité très disparate entre celui qui nous propose un produit que l’on vient d’acheter et un autre qui propose un article qu’on ne recherchait pas mais qui nous conviendrait parfaitement. La qualité des algorithmes et des données est très différentiante.

La contextualisation améliore l’efficacité des recommandations. Avec le marketing prédictif c’est la personnalisation de l’expérience utilisateur qui est en jeu. Pour que cette personnalisation soit réellement efficace et pertinente elle doit impérativement être contextualisée. Parmi tous les éléments qui renseignent ce contexte il est en un qui est incontournable c’est la géolocalisation. Nous sommes mobiles et connectés. On sera d’autant plus sensible à une suggestion ou une recommandation qu’elle tiendra compte de l’endroit où l’on se trouve. La géolocalisation c’est bien sur le lieu mais implicitement c’est la météo, le fuseau horaire et beaucoup d’autres informations. Nous sommes tous dotés d’un smartphone aujourd’hui qui nous permet d’interagir avec notre environnement. Wifi, RFID, GPS, Balises beacon les moyens de manquent pas pour cela. Les techniques de geofencing se servent de la géolocalisation pour définir des zones. Dès que l’on les franchit, des actions se déclenchent en liaison avec une application que l’on aura préalablement chargée sur notre smartphone. Dans une zone commerciale, à proximité d’un magasin ou d’un restaurant on recevra des messages promotionnels dont l’efficacité dépendra des algorithmes utilisés, de notre historique et du nombre d’utilisateurs.

Aujourd’hui il devient impensable que la géolocalisation ne soit pas prise en compte par le marketing. Personnalisation d’un site web ou de  newsletters, applications, recommandations il en va de leur efficacité et de la satisfaction des clients. Cela suppose d’avoir également résolu  le problème de la réconciliation des données sur tout le parcours clients. Un problème qui persiste encore souvent et qui empêche de disposer d’une vue unique et à jour du client à chaque point de contact avec lui  afin d’assurer la cohérence et la continuité des interactions.

Lire également : L’expérience client augmentée par la géolocalisation et Comment le data lake débride l’innovation des entreprises

 

Numérique  : ces tendances technologiques qui favorisent l’émergence des nouveaux usages . 

Capitalisant sur l’essor d’Internet, le numérique s’est développé par une suite d’innovations technologiques qui continue de s’accélérer. La mobilité, le Cloud, le Big Data, les objets connectés et les réseaux sociaux constituent désormais les fondations du numérique. Ces piliers interagissent pour conjuguer leurs effets et ouvrir la voie à d’autres innovations qui favorisent l’émergence de nouveaux services, de nouveaux acteurs et de nouveaux modèles économiques. Les entreprises doivent relever un véritable défi pour s’adapter à temps et ne pas être ébranlées par les Licornes.

 

L’arrivée du Web en 1989 ouvre la voie aux services en ligne. Le web rencontre un tel succès qu’en 1994 la société Yahoo voit le jour pour faciliter les recherches sur le web. Le web ouvre de nouvelles possibilités de faire du commerce en offrant une alternative aux magasins physiques. Le commerce en ligne ou e-commerce est né. De nouveaux acteurs comme Amazon en 1995 font leur apparition. On observe un des premiers effets du numérique, la dématérialisation. Progressivement Internet se substitue aux réseaux physiques d’agences, de guichets et de magasins puis s’attaque aux produits/supports eux-mêmes (journaux, musique, video ..). Certains secteurs comme la presse et l’industrie du disque ont vécu cette révolution douloureusement.

Dans les années 2000 la mobilité apporte au consommateur une totale autonomie. Le terme numérique est déjà employé dans l’électronique grand public mais c’est en 2008 avec l’arrivée de l’Iphone que l’usage du mot se généralise réellement. Avec le développement des smarphones et des tablettes, le consommateur peut accéder à Internet à tout instant. Il adapte son comportement d’achat en conséquence. Où qu’il soit il peut désormais consulter des offres, les comparer, acheter ou faire des réservations. En 2015 ce sont plus de 25 millions de smartphones qui sont vendus en France et 82,3 % des Français accèdent à internet en situation de mobilité d’après le baromètre trimestriel de la Mobile Marketing Association (MMA). Les smartphones amènent Internet dans les pays ou les réseaux filaires étaient inexistants. On doit compter environ 7 milliards de smartphones dans le monde aujourd’hui. Le taux d’équipement en smartphones et tablettes pousse les entreprises à développer dès 2008 les « applis » mobiles et à adapter leurs sites web au format de ces équipements. L’économie des « apps » se développe enrichissant tablettes et smartphones pour en faire de véritables appareils multiservices. Le « commerce  en ligne » s’étend progressivement aux « services en ligne ». De leur côté les employés, les artisans, les professions libérales équipés de tablettes deviennent plus efficaces et apportent un service amélioré, plus rapide et plus pertinent à leurs clients.

Le cloud démocratise l’accès aux ressources informatiques. Désormais quel que soit sa taille l’entreprise peut disposer d’équipements informatiques et de logiciels adaptés à ses besoins et à ses évolutions. Plus qu’une révolution technique, le cloud est une révolution du mode de consommation. Il n’est plus nécessaire de posséder un centre informatique pour développer son activité, un nouveau mode de consommation des ressources informatiques est né. Les ressources deviennent des services qu’on utilise en fonction de ses besoins. Les PME et les start-up y trouvent des ressources adaptées à leurs budgets et les grandes entreprises y voient le moyen de se libérer des contraintes de gestion d’infrastructures complexes pour consacrer plus de temps à l’innovation. Selon IDC en 2015 près de 30% des dépenses des infrastructures IT ont été réalisées dans le Cloud, soit une croissance de 24,1%.

Le Big Data et l’intelligence artificielle tirent la quintessence des données. Dans le projet loi NOE (Nouvelles Opportunités Economiques) Le ministre de l’économie Emmanuel Macron précise que les données sont la nouvelle ressource de l’économie numérique. Les ordinateurs ont fait de tels progrès que les solutions d’intelligence artificielles (algorithmes, machine learning, deep learning) deviennent efficaces et accessibles économiquement. L’abondance de contenus (texte, image, musique, video) inonde l’internaute au risque de le paralyser si dans ses choix si le machine Learning ne vient pas à son secours par des recommandations et de propositions ciblées en fonction de ses goûts. L’intelligence artificielle et big data sont à présent omniprésents. On fait appel à eux par exemple pour l’analyse prédictive du panier d’achat du consommateur, l’analyse de sentiments, la détection de fraude, l’analyse de risques bancaires ou en encore la reconnaissance du langage ou des visages. Le champ des possibles devient illimité. De nouveaux usages et de nouveaux modèles d’affaires basés sur l’exploitation des données apparaissent. « L’économie de la donnée » fait partie d’une des 9 solutions industrielles identifiées dans la phase 2 du plan pour la « Nouvelle France industrielle » lancée en septembre 2013.  La donnée constitue pour toutes les entreprises quel que soit leur secteur d’activité :

    • une matière première
    • un levier économique
    • un actif stratégique pour l’entreprise.

Les réseaux sociaux réinventent une communication de « l’ immédiateté ». Avec les réseaux sociaux la multitude s’exprime. La communication s’établit directement sans intermédiaires. L’information se consomme dans l’instant sans toujours être assimilée ou vérifiée. Des communautés se créent, des influenceurs apparaissent, des tendances se dessinent sur les réseaux sociaux. Les entreprises n’ont plus le choix, elles doivent être présentes sur les réseaux sociaux à minima pour veiller à leur e-reputation mais de plus en plus pour établir une nouvelle forme de communication pour la marque. Certaines vont plus loin, elles commencent à comprendre que les réseaux sociaux contiennent des mines d’informations et constituent des panels grandeur nature sur l’actualité et les tendances que l’on peut exploiter efficacement par le big data et l’intelligence artificielle.

Les objets connectés : une nouvelle vision de la société et du paysage industriel . L’internet des objets représente une opportunité économique pour l’Europe de 1000 milliards d’euros d’ici à 2020 selon le cabinet ATKearney qui souligne l’effet levier de l’internet des objets. Grace à des capteurs et des algorithmes sophistiqués les objets et les équipements collectent des informations, les analyses et communiquent entre eux. C’est une révolution qui touche l’individu, l’habitat, les véhicules, les transports, l’industrie, l’usine, la ville et plus globalement la société. Les technologies de cloud, de big data et de machine learning collaborent avec l’IoT (Internet of things) pour créer les nouveaux usages et optimiser les processus existants. Les chaines de logistiques sont optimisées, la maintenance des équipements (aéronautique, ferroviaire, automobile etc..) devient prédictive et l’agriculture augmente sa productivité. Les secteurs traditionnels cherchent à créer de nouveaux services basés sur ces objets connectés. Certains assureurs proposent déjà des contrats basés sur la conduite des assurés grâce à des boitiers intelligents dans les voitures ou font de la prévention de santé avec des bracelets connectés. Avec les objets communicants, Internet a bouclé la boucle : Tout et tout le monde communiquent.

Le numérique: un défi permanent à relever. Les innovations continuent : impression 3D, Drones etc… Il est important d’en mesurer les effets sur les processus existants. En novembre 2009, dans un rapport intitulé « La nouvelle grammaire du succès : La transformation numérique de l’économie française » Philippe Lemoine identifie les effets du numérique sur l’économie : l’automatisation – la dématérialisation – la désintermédiation/ré-intermédiation. 8 effets de la transformation numérique V2Maitriser les nouvelles technologies, repenser les usages, refonder l’organisation…La transformation numérique est un projet complexe pour les entreprises. Elles n’ont cependant pas le choix, les GAFA (Google, Apple, Facebook, Amazon) et autres NATU (Netflix, AirBnB, Tesla, Uber) ont ébranlé l’économie traditionnelle et fait des émules. En un an nous sommes passés de 40 Licornes (startup ayant franchi le milliard de $) à 130. Elles ne souffrent d’aucune contrainte et débordent d’imagination. Les entreprises semblent avoir mesuré le risque et n’hésitent plus à s’allier avec des startup, voire à favoriser leur émergence via des incubateurs, pour gagner en agilité et en innovation. Le Conseil national du numérique, dans son rapport de janvier 2016 intitulé « Les nouvelles trajectoires » , affirme que la période que nous traversons est celle d’une évolution systémique, exceptionnelle et rarement connue dans l’histoire de l’humanité. Une raison de plus de s’adapter rapidement.

Le marketing en quête d’efficacité

La donnée et le marketing ont toujours été de bons amis. Connaitre le client et tenter d’influencer ses intentions d’achat sont dans les gènes du marketing. Alors pourquoi tant d’emphase autour de ce fameux big data et du machine Learning ?  La concurrence est devenue globale et protéiforme. Le consommateur, désormais averti, est face à un large spectre d’offres et de canaux d’achat. Le marketing n’a d’autres choix que d’augmenter son efficacité en apprenant l’art d’exploiter la multitude de données issue de l’univers numérique.

Le marketing en quête d’efficacité. Le contexte commercial évolue rapidement et nécessite de la part du marketing d’augmenter constamment son efficacité. Avec internet et les smartphones les consommateurs ont gagné en mobilité et en autonomie. Les termes « parcours client » résument bien les nombreuses possibilités dont dispose le consommateur pour se renseigner, échanger, comparer et acheter pour au final obtenir le meilleur rapport qualité prix. Il n’hésite pas non plus à mettre les offres traditionnelles en concurrence avec les barbares du web qui bousculent l’ordre établi avec de nouveaux modèles d’affaires particulièrement attrayants. Le numérique change la donne et accélère les transformations. Les entreprises traditionnelles tout comme les nouvelles issues du numérique doivent constamment rechercher plus d’efficacité accentuant la pression sur le marketing et mettant à l’épreuve son agilité.

Satisfaire un consommateur de plus en plus exigeant. Aucune entreprise ne peut rester attentiste sur un marché en ébullition. Le client veut désormais un marketing individualisé qui lui propose des offres personnalisées adaptées à ses besoins financiers et à ses goûts. Quel que soit le canal utilisé il veut être reconnu comme client et traité comme tel. L’incohérence ou le manque de fluidité sur son parcours client peut vite le détourner d’une entreprise. Le consommateur maitrise également les nouveaux modes de communication sur les forums et les réseaux sociaux pour recommander un produit, s’il en est satisfait, ou bien faire part de son mécontentement dans le cas contraire. Le consommateur est rentré dans l’ère du numérique bien avant les entreprises. Pour le satisfaire et répondre aux objectifs de l’entreprise le marketing devient digital et doit exploiter au mieux les données, aussi bien internes à l’entreprise qu’externes. La marketing peut ainsi

  • Augmenter la connaissance client (vision 360)
  • Suivre et analyser les tendances de marché
  • Affiner la segmentation
  • Améliorer le ciblage les campagnes
  • Devancer les attentes par de l’analyse prédictive
  • Personnaliser les offres et les programmes en fonction du contexte
  • Adapter ses tarifs de manière dynamique
  • Maitriser l’attrition des clients
  • Surveiller la réputation de l’entreprise
  • Offrir de nouveaux services
  • Enrichir l’expérience client

Vers une démocratisation des solutions de big data. Extraire la valeur de la donnée brute est un processus complexe qui se heurtait à des problèmes techniques et financiers. Là encore le contexte a changé. D’un point de vue financier il suffit de voir les capacités de stockage dont nous disposons sur un ordinateur familial pour s’apercevoir que les coûts ont suffisamment baissé pour envisager de stocker d’importants volumes de données. La puissance de traitement des serveurs d’aujourd’hui rendent possible l’exécution d’algorithmes complexes et de technologies de machine learning en des temps extrêmes rapides. L’écosystème du big data s’est étoffé en conséquence pour adresser toutes les étapes de la transformation de la donnée à commencer par la collecte, le stockage, le traitement et la visualisation. Le Cloud contribue à démocratiser l’adoption du big data en proposant les infrastructures appropriées au besoin et à l’évolution de chaque entreprise. De nombreux éditeurs commencent à offrir des solutions de Big Data prêtes à l’emploi en mode SaaS palliant au manque de compétences spécialisées et à la nécessité de s’équiper en matériel couteux. Les offreurs de Cloud comme Amazon, Microsoft ou IBM ont aujourd’hui leur offre de Machine Learning dans le cloud .Les sociétés de services s’organisent en conséquence et mettent en place des départements composés d’analystes de données et de datascientists. De nouvelles sociétés de conseil font de l’analyse de la donnée leur cœur de métier.

Une approche pragmatique pour commencer : La donnée est le nouvel or noir, les solutions deviennent abordables, reste à franchir le pas. L’écosystème du big data pour le marketing reste encore complexe et entre le cas d’usage et les briques à assembler pour la solution, le trajet est semé d’embuches. Inutile de vouloir faire le big bang, le pragmatisme doit primer et commence par le choix d’un cas d’usage, un domaine dont l’amélioration peut être déterminante et probante. Il faut ensuite tester la solution et mesurer les effets. Se faire accompagner peut se révéler indispensable et l’expérience montre que la majorité des entreprises en fonction de leur taille et de leurs enjeux nouent des formes de partenariats avec des sociétés de services, des éditeurs ou des startups spécialisées.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data

Beaucoup d’articles de presse évoquent le potentiel économique des données. La donnée concourt à la création de nouveaux services et participe à la compétitivité des entreprises en permettant par exemple un pricing dynamique. Derrière ses nouvelles pratiques il faut affronter des défis technologiques dans le domaine des bases de données. Des défis relevés par l’éditeur français Quasardb et la société Quartet FS dont les solutions collaborent à présent pour repousser les limites du Big Data.

Edouard quasardb
Avec Edouard Alligand, fondateur de quasardb

Le développement d’internet a modifié considérablement le comportement des consommateurs. Aujourd’hui avant d’acheter, le consommateur se livre en quelques clics à une véritable étude de marché. Il utilise des comparateurs de prix qui le conduira à choisir entre tel magasin physique et tel site marchand. Le consommateur sait faire la part des choses entre la valeur ajoutée d’un produit et son prix. Internet est devenu un vaste marché ou les compétiteurs s’épient et ajustent leur prix en conséquence. L’exemple du groupe Accor illustre bien le problème. Après avoir vécu la désintermédiation avec des sites en ligne, l’arrivée des comparateurs de prix sur internet, il subit maintenant la concurrence des plateformes locatives comme Airbnb. Le groupe a tardé à réagir avant d’annoncer un investissement de 225 millions d’euros sur 5 ans dans le numérique qui devra permettre d’ajuster les tarifs en fonction d’un certain nombre de paramètres et de personnaliser les offres et les promotions. Ces initiatives reposent en partie sur la mise en place de solutions de Big Data.

Ajuster dynamiquement les prix avec la solution Active Pivot. La tarification est devenue une science. Lors d’un séminaire la FNAC expliquait la complexité de la gestion desActive pivot pricing prix. Les concurrents surveillent en permanence les prix, les mises à jour sont de plus en plus fréquentes et un même produit peut avoir différents prix selon le mode de commercialisation et le type de livraison. Dans ce contexte la FNAC a décidé d’industrialiser sa gestion des prix. Cela signifie d’être capable d’analyser de nombreuses données, de faire des simulations pour vérifier l’impact sur les marges et ensuite de transférer le nouveau prix dans le catalogue. Bien sur toutes ses opérations doivent s’exécuter en temps réel pour une meilleure efficacité. Un défi technologique rendu possible avec la solution Active Pivot de la société Quartet FS qui a développé une base de données analytique « in Memory ». Toutes les données sont donc chargées en mémoire du serveur et permettent d’obtenir des temps de traitements extrêmement rapides sans commune mesure avec un stockage sur disque. Il serait tentant d’étendre l’usage de ce type de solution à toutes les données de l’entreprise mais les analyses plus classiques sur des données historiques ne justifient pas en général le coût d’une solution In-Memory, car les requêtes sont ponctuelles, et les volumes de données peuvent dépasser 100 téraoctets.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data. Avoir les avantages du traitement en mémoire sans avoir l’inconvénient des coûts c’est ce que devrait permettre l’accord annoncé par Quartet FS et quasardb le 30 novembre 2015. Quasardb est un éditeur français éditeur français d’une base de données NoSQL Key-Value Store pour le traitement de Big Data. Grâce à son modèle scale-out cette technologie Big Data permet de répartir les données dans des fermes d’ordinateurs standards. La conception permet de gérer des bases de données de taille quasi illimitée. Active Pivot a été modifié pour que les utilisateurs puissent sélectionner des données stockées dans quasardb et les analyser ensuite dans Active Pivot. Les deux technologies s’échangent les données à la vitesse de 10 Gigaoctets par seconde. C’est à dire qu’il faut moins de deux minutes pour mettre à disposition un Téraoctet de données dans Active Pivot. Une fois en mémoire, les données peuvent être analysées de manière extrêmement performante par Active Pivot.

Dans le domaine du Big Data les bases de données semblent se concurrencer. Avec le temps et l’expérience on s’aperçoit qu’elles correspondent à des cas d’usages bien précis et que loin de s’opposer elles se révèlent complémentaires. Comme le fait remarquer Edouard Alligand, fondateur de quasardb, « ce partenariat démontre que les technologies NoSQL et In Memory ne sont pas concurrentes mais complémentaires. En alliant la puissance de calcul de l’in-memory aux capacités de stockage du NoSQL, quasardb et Quartet FS contribuent à faire progresser l’innovation en matière d’analyse des données ».

Pour en savoir plus sur quasardb vous pouvez participer au petit déjeuner que la sociétéquasardb seminaire 15 dec organise le 15 décembre. J’aurai le plaisir de faire l’introduction de la matinée. Peut être l’occasion de s’y rencontrer.

A lire également : Le Big Data exigera des bases de données NoSQL qu’elles repoussent encore leurs limites

Les algorithmes ont pris le contrôle de l’économie

Les données des entreprises se transforment en produits et services grâce aux algorithmes. Le développement et la maitrise de ces algorithmes vont devenir un enjeu économique majeur pour les entreprises qui veulent rentrer dans l’ère du numérique à l’exemple des GAFA qui accélèrent dans le domaine du machine learning par coup d’acquisition de start up.

algorithme

Comme le pétrole, la donnée doit être transformée pour rencontrer les usages. En 2010, le journal The Economist nous alertait sur le « Data Deluge » et mettait ainsi un coup de projecteur médiatique sur le Big Data. Une analogie bien choisie à l’époque montrant que la donnée était une ressource au même titre que l’eau. Pour la canaliser et la stocker dans un « lac de données » il fallait revoir les infrastructures informatiques. On a vu ainsi arriver les systèmes Hadoop et les bases de données No SQL .

Plus récemment l’analogie s’est portée sur l’or noir, une manière de signifier que les données étaient une ressource essentielle de la nouvelle économie. En comparant la donnée à l’or noir nous évoluons vers une étape très révélatrice. Nous quittons la phase du déluge, qui menaçait nos infrastructures, pour entrer dans la phase de transformation nécessaire à la création de valeur au travers de nouveaux produits et de nouveaux services. On a pris conscience que si la donnée constituait un capital pour les entreprises, sa valeur ne pouvait être révélée qu’après des étapes de transformation qui, pour une grande part, vont être réalisées par les fameux « algorithmes ».

L’économie devient algorithmique. Le directeur de recherche de Gartner, Peter Sondergaard,  n’hésite pas à parler «  d’une économie algorithmique qui permettra le prochain grand bond de l’évolution du machine to machine dans l’internet des objets » (lire l’article) . On peut aujourd’hui difficilement dissocier big data et intelligence artificielle. Les usages du Big data mettent en œuvre des systèmes de Machine Learning et de deep Learning manipulant des algorithmes de plus en plus complexes.

Rappelons que dans le Machine learning, le système apprend par lui-même (auto apprentissage) et permet ainsi de résoudre des problèmes ou il est impossible de prévoir tous les cas de figures à priori. Le deep learning est quant à lui une forme du machine learning plus complexe qui essaye de se comporter comme le cerveau humain avec un système de type neuronale.

Les GAFA s’agitent autour des startups de machine Learning. Les GAFA (Google, Apple, Facebook, Amazon) ont compris depuis longtemps que leur activité et leur succès dépendaient de leur capacité à traiter ces énormes quantités de données avec ces technologies de Machine learning et de deep learning.

Début octobre Apple a racheté la société « VocalIQ » , un spécialiste du machine learning pour la reconnaissance vocale. Cette acquisition permettra d’améliorer le fonctionnement de l’outil Siri pour le rendre encore plus « intelligent ». Quelques jours plus tard Apple jetait son dévolu sur la startup « Perceptio » elle aussi spécialisée dans le machine Learning mais dans le domaine des photographies. Une acquisition qui devrait faciliter et optimiser la classification des photos sur les smartphones. Facebook est lui aussi un grand utilisateur de Machine Learning et, quand en juin 2015 il lance “Moments”, il utilise là encore des algorithme de pour reconnaitre les visages de personnes sur différentes photos. En 2014 Google avait investi 500 millions de dollars pour la start up d’intelligence artificielle DeepMind basée en Angleterre. Cette semaine Google a investi au travers de sa filiale allemande dans DFKI (le centre de recherche allemand pour l’intelligence artificielle). Avec l’acquisition de ces startups, ce sont également de nouvelles compétences que l’on recherche : les datascientists.

La maitrise de ces algorithmes est critique pour les nouveaux modèles économiques. Cela nous montre à quel point la maitrise de ces algorithmes est critique pour les nouveaux modèles économiques et pour optimiser les processus existants. Ce ne sont pas que les GAFA qui sont concernés mais bien toutes les entreprises et tout particulièrement le e-business. Derrière le terme générique de Big Data c’est bien souvent des méthodes de machine learning que l’on trouve par exemple pour :

  • L’analyse prédictive du panier d’achat du consommateur
  • L’analyse de sentiments
  • La détection de fraude
  • L’analyse de risques bancaires
  • La reconnaissance du langage ou des visages

L’homme va t’il perdre le contrôle . Le machine learning fait appel à des algorithmes de plus en plus complexes mais ils permettent de s’adapter à des contextes ou les statistiques seuls ne suffiraient pas. Par là même il devient difficile pour un être humain de comprendre ce que fait la machine. Comment dans ce cas s’assurer que la prédiction est fiable ? Comment être sûr que la machine n’a pas trouvé, par un « sur apprentissage » (overfitting), une corrélation entre deux événements alors qu’il n’y avait aucun lien de cause à effet entre les deux ? Pour diminuer ce risque et être capable de mesurer la fiabilité d’un résultat, les domaines des statistiques et du machine learning se sont rapprochés ces dernières années.

Mais la crainte va au-delà de la fiabilité des algorithmes. La protection des données personnelles en est un exemple. L’application de partage de photos de Facebook « Moments », citée précédemment, n’est pas encore disponible en Europe. L’autorité européenne, en charge de la protection des données personnelles, a estimé que la technologie de reconnaissance faciale ne devait pas être activée par défaut sans l’accord explicite des utilisateurs concernés. L’omniprésence des algorithmes qui analysent nos comportements et guident nos choix crée une nouvelle forme de pouvoir exercé par des entreprises ou des gouvernements qui conçoivent ces algorithmes. Reste à savoir comment garantir l’éthique de ces algorithmes.

 

 

 

L’univers du Luxe n’échappe pas au phénomène du Big Data.

Pour prendre en main l’avenir du Luxe, Louis Vuitton fait appel aux technologies du Big Data et n’hésite pas à organiser un Hackathon du Luxe pour rechercher rapidement de l’innovation. Preuve que les technologies de big data et de machine learning peuvent s’appliquer à tous les secteurs d’activité

L’émotion du luxe ne s’oppose plus au rationnel de l’analytique. Le commerce du luxe cultive l’attractivité de la marque et l’expérience émotionnelle attachée au produit. Parler de technique de marché de masse dans ce contexte peut sembler incongru. Dans le domaine du luxe l’émotion prime sur l’analyse rationnelle. De là à penser que les technologies de big data sont inutiles et inefficace il n’y a qu’un pas à franchir. Pourtant si les enseignes de Luxe cherchent à maintenir une relation personnelle haut de gamme avec un groupe réduit de clients fidèles et choyés, dans le même temps elles développent souvent une approche de vente qui s’apparente à du « mass market ».

On a l’habitude de dire que le monde du Luxe ne subit pas la crise, c’est oublier qu’il est soumis aussi à la concurrence et aux changements de comportements des nouvelles générations. Réfléchir au potentiel extraordinaire que représente le big data n’est donc pas du …luxe.  Big Data et Luxe sont deux univers totalement différents avec des cultures diamétralement opposées. L’émotion et l’imaginaire du Luxe se heurtent à l’analyse et la rationalité du Big Data.

Un hackathon sert à faire bouger des lignes rapidement. Pour créer la dynamique et du liant il faut savoir chercher de l’aide à l’extérieur. C’est ce qu’a  fait Louis Vuitton en lançant le premier Hackathon du Luxe durant 48h ce week end du  25 au 27 septembre. Le défi est ambitieux puisqu‘il s’agit ni plus ni moins que de changer l’avenir de luxe : « Unlock the Future of Luxury » .

Un hackathon est un événement de plus en plus souvent utilisé, et mis en scène, par les grandes entreprises pour faire bouger les lignes sur des nouveaux sujets. Le terme est né de la fusion des mots « hack » et  « marathon ». Il consiste à rassembler des développeurs, souvent lors d’un weekend, pour travailler sans interruption sur un projet et produire un prototype d’application. La durée courte du Hackathon est délibérée pour mettre une pression positive et aller à l’essentiel en maintenant la concentration des développeurs.

Des analyses prédictives sur les tendances, les ventes et l’évolution de la marque. Pour l’exercice Louis Vuitton fournit des données internes et externes et demande aux participants d’utiliser leurs compétences en intelligence artificielle et en machine learning pour réaliser des analyses prédictives sur les tendances, les ventes et l’évolution de la marque :

  • Croiser les données commerciales et sociales pour anticiper les ventes.
  • Suivre les prescripteurs et les activités des concurrents pour anticiper les tendances.
  • Connaître la vision de la marque et de ses produits par les différentes parties prenantes et définir son évolution.

Les participants n’auront peut-être pas eu le temps de goûter à la beauté des lieux. Dommage car le Louis Vuitton atelierHackaton se déroulait dans les ateliers de Louis Vuitton à Asnières-sur-Seine. A noter que dans l’agenda les organisateurs avaient glissé le 26 septembre un cours de gym à 10 h et un challenge Twitter à 17 h. Il ne faudrait pas que les développeurs négligent leur santé…. Les réalisations étaient présentées devant un jury à l’issue des 48 h  et les vainqueurs pourront gagner un voyage à San Francisco et d’autres récompenses.

Pour plus d’information aller sur le site Unlock the future of Luxury

 

Le spécialiste de la «data intensive» DDN crée un centre de R&D en France

L’économie moderne dépendra fortement de la capacité des entreprises à utiliser de manière intensive les données. Depuis plus 25 ans Paul Bloch, fondateur de DDN, a fait de la « data intensive » son cœur de métier bien avant que l’on parle de Big Data. En 2015 DDN investit dans le la R&D en France et annonce des solutions d’hyper convergence.

Paul Bloch

Les français savent entreprendre et innover et cela ne date pas d’aujourd’hui. C’est avec l’esprit d’aventure que Paul Boch part aux Etats Unis achever ses études à Caltech. Avant de créer sa propre entreprise à partir de zéro il effectue son service militaire à la DATAR pour tenter de convaincre des sociétés américaines d’investir en France. En rencontrant Paul Bloch, fondateur de la société DDN avec son ami Alex Bouzari, ce qui frappe c’est sa simplicité et sa passion intacte après plus de 25 ans à la tête de son entreprise. Des qualités qui lui permettent de continuer à innover sur le marché de la data qu’il avait perçu très tôt comme stratégique. Avec DDN c’est un peu la saga de la donnée que l’on suit et qui nous mène inéluctablement au Big Data et à l’hyper convergence

Anticiper le marché de la donnée intensive. C’est par le bais d’une solution de stockage amovible innovante que très tôt Paul Boch côtoie des grandes entreprises américaines qui manipulent d’important volumes de données comme le Pentagone et l’ Air Force. Ces grands Gartner DDNutilisateurs de données amènent Paul et son associé Alex à se focaliser dès 1988 sur ce marché du stockage ou la donnée est déjà reine et l’utilisateur particulièrement exigeant en termes de traitement et d’accès aux données. Au milieu des années 90 Paul et son associé considèrent que ce marché du stockage de données intensives va devenir stratégique dans les années à venir. Leur société Megadrive Systems créée en 1988 deviendra en 1998 DataDirect Network après la fusion avec ImpactData. Paul et Alex investissent tous leurs bénéfices dans la Recherche et le développement pour concevoir un stockage parfaitement adaptées aux attentes de ces gros utilisateurs de données de recherche, de vidéo et de traitements intensifs. En 2000 la NASA leur fait confiance et devient un de leurs clients.

Investir dans la R&D pour Innover et servir des données exigeantes. DDN s’impose comme le leader du stockage de données dans les environnements HPC (High Performance DDN customersComputing) dits de traitement intensif. Un succès qui s’explique par une forte différentiation sur la performance 5 fois plus rapides que les concurrents. Comptant près de 70% des entreprises HPC comme clients, DDN dispose d’un observatoire sans commune mesure pour analyser finement l’évolution des besoins liée à l’exploitation de données intensives. Dotée de cette connaissance clients et de l’expérience du stockage des données Paul et Alex comprennent que la croissance des données (médiatisée par la suite avec le Big Data) et l’exigence toujours plus forte de performance réclament des innovations technologiques. Ils adaptent leur stratégie en conséquence et développent des produits spécifiques:

  • SFA (Storage Fusion Architecture): Une plateforme de stockage, pour des accès intensifs et des performances élevées, adaptée aux besoins du big data
  • WOS (Web Object Scaler) : pour prendre en compte les besoins de scalabilité massive. C’est une plateforme qui utilise le « stockage objet » natif pour lever les contraintes des fichiers traditionnels confrontés à de très forte volumétrie.
  • IME (Infinite Memory Engine) :   Un accélérateur d’entrées sorties pour les applications particulièrement exigeantes en performances d’accès aux données.

WOS et IME peuvent à présent être commercialisés sous forme de logiciels installables sur des machines tiers dans une approche de Software Designed Storage

2015 l’année de l’hyper convergence avec l’annonce de Wolfcreek. Le développement de l’analytique et la multiplication des objets connectés propulsent la data au rang de valeur Paul et Ericvedette. La course à la performance pour tirer le meilleur de ces données va accentuer la pression sur les solutions technologiques. Traitement et accès aux données doivent s’intégrer dans une approche cohérente des performances sous peine de créer un déséquilibre préjudiciable à la performance globale des applications. Une nouvelle étape est franchie cette année avec l’annonce en juin 2015 de Wolfcreek une plateforme d’hyper convergence fruit de la R&D de DDN. Avec un débit de 60 GB/sec et plus de 5 millions d’entrées sorties par seconde dans un rack de 4U, cette plateforme Wolfcreek fournira deux fois plus de performances que les autres solutions du marché. DDN n’entend plus se limiter au seul marché du HPC. Aujourd’hui tout type d’entreprise quel que soit sa taille peut bénéficier du savoir-faire de DDN.

2015: DDN investit dans un centre de développement en France. Une partie du développement de ces nouvelles solutions sera désormais réalisée à Meudon en France puisque début 2015 DDN a décidé d’embaucher une vingtaine de développeurs et compte multiplier leurs nombre par trois d’ici 18 mois. La France a décidemment une excellente réputation en matière de développement et pour Paul c’est une manière de réinvestir dans son pays.

lire également l’annonce du 30 juin: DDN Outlines Strategic Vision Driving Rapid Adoption of DDN High performance Storage Technology throughout the Enterprise

Le smartphone de plus en plus utilisé dans les magasins physiques

 Le smartphone est devenu le moyen privilégié pour interagir avec le consommateur. Les marques doivent en tenir compte dans leur stratégie. Elles doivent proposer des recommandations appropriées et pertinentes en utilisant les technologies de big data et de machine learning.

mobile en magasin GFK

20,5 millions de smartphone en France en 2015. Aucun doute là-dessus, les smartphones font partie de notre quotidien et sont encore promis à un bel avenir. Alors que vient à peine de se terminer le Mobile World Congress 2015 on peut rappeler que les smartphones ont franchi un nouveau record de vente en 2014 avec 1,2 milliards d’appareils vendus dans le monde soit une progression de 23%. Un chiffre d’affaire de 381 milliards qui donne une idée du phénomène.

En France ce seront plus de 20,5 millions de Smartphones qui seront vendus en 2015, en croissance en volume de 12,5% par rapport à 2014 selon Michael MATHIEU, Directeur des marchés de l’Image et des Telecoms chez GfK en France. Ce succès s’explique par les services rendus par le smartphone dans tous les actes du quotidien. Il permet de communiquer bien sûr mais de surtout faciliter la vie.

Les consommateurs consultent leurs smarphone pendant leurs achats . L’utilisation du mobile est étudiée très attentivement par les l’industrie du commerce. Il influence considérablement le comportement du consommateur comme en témoigne l’étude de GFK qui s’est intéressé plus particulièrement à l’utilisation du mobile dans le magasin physique. Aujourd’hui on oppose plus magasins et site e-commerce ils sont devenus complémentaires voire indissociables. En dehors du fait que l’on peut faire des achats directement sur un mobile, ce que l’on appelle le m-commerce, le smarphone joue un rôle important dans la prise de décision d’achat. Trois grandes tendances se dégagent en tête de l’étude :

  • Accès à des comparateurs de prix
  • Appel à des amis pour avoir des recommandations
  • Prise de photos des produits intéressants

Mobile comparateur GFK

 Première constatation le comportement des consommateurs changent en fonction des pays. Si 40% des consommateurs dans le monde utilisent leur smartphone pour comparer les prix, ils ne sont que 24% à le faire en France. Par contre le premier usage (32%) que font les consommateurs français de leur smartphone en magasin c’est l’appel à un ami ou à un parent pour avoir une recommandation. Cela illustre bien la confiance croissante accordée par le consommateur à ses pairs plutôt qu’à la voix officielle des marques. Une tendance bien comprise par les marques qui tentent de s’adapter en développant leur présence sur les réseaux sociaux.

Les sites web doivent être s’adapter à l’affichage des smartphones.  Nombreux sont encore les sites web qui n’ont pas porté suffisamment leurs efforts pour les rendre non seulement compatibles mais également attrayant sur les smartphones. Vu le rôle croissant des mobiles dans le processus d’achat, concevoir des sites web pour les mobiles n’est plus option mais sera bientôt une question de survie d’autant plus que Google a décidé à partir du 21 avril de favoriser en terme de référencement (SEO) les sites qui seront « mobile friendly »

Les marques doivent surveiller en temps réel les prix.  Cette connexion permanente des consommateurs via leur smartphone doit inciter les magasins et points de vente à évoluer. Etre soumis à la dure loi de la concurrence existe de tout temps mais le smartphone exacerbe cette concurrence en temps réel. « Surveiller de manière active et en temps réel le prix des concurrents online et réagir rapidement sont maintenant des facteurs clés de succès aussi bien pour les distributeurs physiques que online » comme le souligne Juliette Villeminot, Responsable de l’expertise Shopper chez GfK.

Les recommandations doivent être pertinentes et personnalisées. Les technologies de machine learning le permettent aujourd’hui en affinant la connaissance des gouts des consommateurs et en personnalisant en temps les recommandations qui seront affichées sur l’écran du téléphone portabe. (je l’avais évoqué dans le billet sur la startup Tastehit.)

Interagir avec le consommateur lors qu’il est présent dans le magasin devient une nécessité.

Precision retailing

Certaines solutions du marché savent déjà détecter l’arrivée du consommateur dans le magasin, lui proposer automatiquement l’accès au Wi-Fi du magasin (avec son autorisation) et ensuite avec l’aide de plateforme de type Big Data lui proposer, en fonction de sa position dans le magasin, des offres ou des recommandations qui seront affichées directement sur son smartphone. C’est ce que SAP appelle le « precision retailing » basé sur des technologies SAP HANA.

 

Ciblage publicitaire par Criteo : #bigdata et confidentialité

Les technologies de machine learning permettent des reciblages publicitaires personnalisés. Criteo est passé maitre dans ce domaine et assure respecter la confidentialité des internautes qui gardent la possibilité de se soustraire à ces publicités

Le reciblage publicitaire est un enjeu important pour les sites de e-commerce puisque l’on sait que 97% des visiteurs d’un site le quittent sans avoir acheté.Les techniques de reciblage publicitaire vont proposer à des visiteurs volatiles des publicités personnalisées sur les autres sites qu’ils vont visiter. C’est un domaine ou Criteo s’est imposé comme un des leaders et il est souvent cité en exemple de la réussite des startups française. Dans une « interview numérique » réalisée par Alice Antheaume, Grégory Gazagne, directeur général de Criteo explique le fonctionnement de ces publicités en ligne. (voir l’enregistrement de l’interview)

Criteo ITW V1

Le reciblage publicitaire c’est d’abord une course de vitesse. Criteo réussit à créer de manière dynamique une bannière dynamique en 6ms après avoir négocié en temps réel (Real Time Bidding RTB) le prix de l’espace sur un Ad Exchange (place de marché spécialisée). Pour réussir cette performance Critéo a développé 3 types d’algorithme de machine learning:

  • Un algorithme de recommandation qui détermine les produits les plus pertinents à afficher pour optimiser le taux de conversion.
  • Un algorithme qui calcule en temps réel la valeur pour chaque internaute (taux d eclic, taux de conversion de manière à estimer le meilleur prix.
  • Un algorithme de création dynamique de bannière.

La performance est d’autant plus impressionnante que les algorithmes de Criteo analysent plus de 230 téraoctets de données par jour et traite 15 millions de requêtes à la seconde. Près d’un milliard d’internautes sont ainsi ciblés chaque mois par les publicités affichées par Criteo. Ce sont près de 3 milliards de bannières publicitaires affichées par jour. Pour réussir ses prouesses Criteo dispose de 5 centres informatiques sur 3 continents et un important cluster hadoop pour gérer ses « Big Data ».

L’internaute peut se prémunir du reciblage publicitaire. Certains apprécieront le reciblage publicitaire si les recommandations sont pertinentes, d’autres peuvent se sentir agressés voir harcelés. Criteo propose une fonction qui permet de se désinscrire vis-à-vis d’un annonceur mais on peut également se soustraire à ces publicités en utilisant le site Your Online Choices . Cela ne désactive pas toutes les pubs internet mais seulement celles qui sont basées sur vos centres d’intérêt définis en fonction de votre activité internet et navigation antérieure.

Ciblage publicitaire et confidentialité est-ce possible ? La question revient de plus en plus souvent et commencent à inquiéter car le nombre d’informations que chacun d’entre nous laisse à son insu sur internet est considérable. Grégory Gazagne nous rassure sur ce point en indiquant que toutes les données utilisées par Criteo sont sub-anonymes. C’est-à-dire qu’elles sont liées à l’utilisateur sans savoir qui il est car ce qui intéresse Criteo c’est l’intention d’achat. Criteo a d’ailleurs définit une charte de vie privée disponible sur son site  ou il est expliqué que « Les informations personnelles dont nous avons connaissance, comme votre nom ou votre adresse e-mail, sont uniquement celles que vous décidez de nous fournir lorsque vous remplissez le formulaire de contact disponible sur notre site Web » et que « Des cookies sont utilisés sur notre site Web. Qui collectent des données non personnelles relatives à votre navigation sur notre site Web »