Numérique et assureurs : un rôle de conseil renforcé

Le monde de l’assurance n’a pas échappé à la vague numérique. Certaines tâches vont peu à peu s’automatiser et les offres commencent à prendre en compte les nouveaux usages et les nouveaux risques liés au numérique. Dans ce contexte l’assureur est plus que jamais un conseiller. Karine Lazimi Chouraqui Agent Général à Paris 8ème, explique avec passion pourquoi le numérique renforce le rôle de l’assureur et  la relation humaine.

 Avec l’automatisation l’assureur peut se consacrer à son métier de conseil. Karine a compris très tôt les nouveaux enjeux de l’assurance dans un monde digital. photo-karine-lazimi-chouraquiElle bénéficie d’une forte culture numérique acquise au sein d’Allianz France. Son parcours parle pour elle. En charge de l’innovation, des réseaux sociaux, de la ereputation, elle a très vite compris que les usages changeaient et qu’avec le numérique de nouveaux risques apparaissaient. Elle voit dans le numérique une opportunité de valoriser encore d’avantage le rôle de conseil de l’assureur. Loin de réduire sa mission, l’automatisation va contribuer à décharger l’assureur des tâches qui ne requièrent pas de valeur ajoutée. Beaucoup de choses se font déjà de manière automatisée dans l’asset management et dans la gestion des profils à risques.

Repenser responsabilités et protection juridique à l’aune du numérique. L’économie numérique est liée à une exploitation optimisée d’une multitude de données au travers d’applications de plus en plus nombreuses. Cela ouvre d’énormes possibilités mais expose les entreprises à des risques nouveaux ou amplifiés par le développement du numérique.

  • Les cyberattaques concernent tout le monde. La presse s’en fait régulièrement l’écho. Les cyberattaques se multiplient et les préjudices peuvent avoir des conséquences dramatiques. Avec le développement du Big data et de l’intelligence artificielle, toute action délictueuse sur les données fait peser un risque qui ira croissant sur l’activité de l’entreprise et sur sa responsabilité.
  • La réputation de l’entreprise est devenue un sujet sensible. Avec le développement des réseaux sociaux la réputation d’une entreprise peut rapidement être mise à mal et nécessite de réagir rapidement. Ne pas être sur les réseaux sociaux ne dispense pas les entreprises de se soucier de leur ereputation. La ereputation ne se limite pas un problème de communication, la protection juridique dans ce domaine est souvent nécessaire et doit être adaptée au risque
  • L’économie de partage redéfinit les responsabilités.  L’économie numérique a donné naissance à de nouveaux modèles d’affaires basés sur des plateformes technologiques mettant en relation des particuliers pour transporter des biens à l’exemple du covoiturage. Cela pose le problème du partage de responsabilités. Tout récemment Karine a développé une offre en inclusion pour son client PostTrip pour tenir compte de ces enjeux de responsabilités. PostTrip propose de trouver des voyageurs de confiance pour transporter des objets à moindres coûts. Après discussion avec la startup pour comprendre son modèle et ses enjeux, un contrat a été construit pour assurer le transporteur pour tout objet dont la valeur ne dépasse pas 500 €.  Il est important, en tant que particulier, quand on utilise ces plateformes de connaitre les conditions générales pour savoir si sa responsabilité peut être engagée.
  • Le coworking est un partage de ressources et de responsabilités. Le mode de travail évolue avec le numérique. On souhaite plus de flexibilité que ce soit pour lancer son entreprise ou s’implanter dans une autre ville ou un autre pays. Le coworking répond à cette nouvelle demande. Les services offerts peuvent être limités à de l’espace ou enrichis par de multiples services. Les entrepreneurs ne sont pas toujours conscients de la répartition des responsabilités qui varient selon les offres.

La confiance est au centre de la relation assureur- assuré. Dans ce contexte en pleine effervescence Karine place la confiance comme la valeur primordiale de l’assureur. Le mot conseil est trop souvent galvaudé. L’arrivée du numérique doit renforcer cette valeur essentielle. Il n’y a pas de bonne assurance si on ne comprend pas le métier de l’entreprise et les risques associés. C’est un dialogue qui doit s’instaurer entre l’agent général et son client d’autant plus pour des petites et moyennes entreprises qui ne bénéficient pas d’une organisation conséquente pour analyser les risques et les conséquences juridiques.

Vous pouvez également suivre Karine sur Twitter @karinelazimi , sur LinkedIn et très bientôt sur son blog.

Le marketing prédictif doit tenir compte de la géolocalisation

De tout temps l’homme a rêvé de maitriser son destin et de contrôler l’avenir. Pas sûr que ce soit la clé du bonheur, peut être mieux vaut vivre dans une douce incertitude qui nous permet d’apprécier le temps présent et de bâtir des projets. « Carpe Diem » comme l’écrivait le poète Horace. Quoiqu’il en soit dans le business on n’aime pas être surpris et le marketing se veut de plus en plus prédictif vis-à-vis d’un consommateur de plus en plus mobile.

predictif-geolocalisation

Marketing prédictif : Surprendre à bon escient. Pour autant il ne suffit pas de bien connaître son client pour deviner simplement son futur comportement et ses intentions d’achats. Nos décisions sont très souvent irrationnelles influencées par nos émotions et notre inconscient. Si on s’intéresse à nos routines quotidiennes pas besoin d’être grand clerc pour prédire que l’on va rejouer la même partition. L’objectif du marketing prédictif est plus ambitieux. Il doit être capable de nous proposer des produits ou des services auxquelles nous n’aurions pas nécessairement pensés mais qui ont de forte chance de nous intéresser. Les données étant de plus en plus nombreuses et les technologies de big data et de machine Learning se démocratisant, le marketing prédictif a une voie toute tracée devant lui.

Une liberté de décision sous influence. On a beau penser que nous avons notre libre arbitre nos comportements obéissent à des règles non écrites dictées par de nombreux facteurs comme notre éducation, notre niveau de vie et notre environnement. C’est en cela que nous pouvons être prédictibles. Prédire le comportement d’une personne consiste à l’associer à un groupe d’individus présentant les mêmes caractéristiques. Plus les caractéristiques sont nombreuses et plus la segmentation est fine. On peut alors estimer que la personne a de forte probabilité de se comporter comme la majorité du groupe. Si dans le même groupe la majorité des membres ayant acheté le produit A a également acheté le produit C, alors dès qu’un consommateur ayant les même caractéristiques que le groupe choisrai le produit A on lui suggérera automatiquement le produit C. Cette méthode qu’on appelle le « filtrage collaboratif » est très utilisée par des sociétés comme Facebook, Amazon ou NetFlix. Les algorithmes de recommandations appliquent souvent cette méthode pour personnaliser l’expérience utilisateur en suggérant des contenus pertinents à l’utilisateur. Les algorithmes de recommandations sont pléthore mais chacun d’entre nous a pu expérimenter leur efficacité très disparate entre celui qui nous propose un produit que l’on vient d’acheter et un autre qui propose un article qu’on ne recherchait pas mais qui nous conviendrait parfaitement. La qualité des algorithmes et des données est très différentiante.

La contextualisation améliore l’efficacité des recommandations. Avec le marketing prédictif c’est la personnalisation de l’expérience utilisateur qui est en jeu. Pour que cette personnalisation soit réellement efficace et pertinente elle doit impérativement être contextualisée. Parmi tous les éléments qui renseignent ce contexte il est en un qui est incontournable c’est la géolocalisation. Nous sommes mobiles et connectés. On sera d’autant plus sensible à une suggestion ou une recommandation qu’elle tiendra compte de l’endroit où l’on se trouve. La géolocalisation c’est bien sur le lieu mais implicitement c’est la météo, le fuseau horaire et beaucoup d’autres informations. Nous sommes tous dotés d’un smartphone aujourd’hui qui nous permet d’interagir avec notre environnement. Wifi, RFID, GPS, Balises beacon les moyens de manquent pas pour cela. Les techniques de geofencing se servent de la géolocalisation pour définir des zones. Dès que l’on les franchit, des actions se déclenchent en liaison avec une application que l’on aura préalablement chargée sur notre smartphone. Dans une zone commerciale, à proximité d’un magasin ou d’un restaurant on recevra des messages promotionnels dont l’efficacité dépendra des algorithmes utilisés, de notre historique et du nombre d’utilisateurs.

Aujourd’hui il devient impensable que la géolocalisation ne soit pas prise en compte par le marketing. Personnalisation d’un site web ou de  newsletters, applications, recommandations il en va de leur efficacité et de la satisfaction des clients. Cela suppose d’avoir également résolu  le problème de la réconciliation des données sur tout le parcours clients. Un problème qui persiste encore souvent et qui empêche de disposer d’une vue unique et à jour du client à chaque point de contact avec lui  afin d’assurer la cohérence et la continuité des interactions.

Lire également : L’expérience client augmentée par la géolocalisation et Comment le data lake débride l’innovation des entreprises

 

Numérique  : ces tendances technologiques qui favorisent l’émergence des nouveaux usages . 

Capitalisant sur l’essor d’Internet, le numérique s’est développé par une suite d’innovations technologiques qui continue de s’accélérer. La mobilité, le Cloud, le Big Data, les objets connectés et les réseaux sociaux constituent désormais les fondations du numérique. Ces piliers interagissent pour conjuguer leurs effets et ouvrir la voie à d’autres innovations qui favorisent l’émergence de nouveaux services, de nouveaux acteurs et de nouveaux modèles économiques. Les entreprises doivent relever un véritable défi pour s’adapter à temps et ne pas être ébranlées par les Licornes.

 

L’arrivée du Web en 1989 ouvre la voie aux services en ligne. Le web rencontre un tel succès qu’en 1994 la société Yahoo voit le jour pour faciliter les recherches sur le web. Le web ouvre de nouvelles possibilités de faire du commerce en offrant une alternative aux magasins physiques. Le commerce en ligne ou e-commerce est né. De nouveaux acteurs comme Amazon en 1995 font leur apparition. On observe un des premiers effets du numérique, la dématérialisation. Progressivement Internet se substitue aux réseaux physiques d’agences, de guichets et de magasins puis s’attaque aux produits/supports eux-mêmes (journaux, musique, video ..). Certains secteurs comme la presse et l’industrie du disque ont vécu cette révolution douloureusement.

Dans les années 2000 la mobilité apporte au consommateur une totale autonomie. Le terme numérique est déjà employé dans l’électronique grand public mais c’est en 2008 avec l’arrivée de l’Iphone que l’usage du mot se généralise réellement. Avec le développement des smarphones et des tablettes, le consommateur peut accéder à Internet à tout instant. Il adapte son comportement d’achat en conséquence. Où qu’il soit il peut désormais consulter des offres, les comparer, acheter ou faire des réservations. En 2015 ce sont plus de 25 millions de smartphones qui sont vendus en France et 82,3 % des Français accèdent à internet en situation de mobilité d’après le baromètre trimestriel de la Mobile Marketing Association (MMA). Les smartphones amènent Internet dans les pays ou les réseaux filaires étaient inexistants. On doit compter environ 7 milliards de smartphones dans le monde aujourd’hui. Le taux d’équipement en smartphones et tablettes pousse les entreprises à développer dès 2008 les « applis » mobiles et à adapter leurs sites web au format de ces équipements. L’économie des « apps » se développe enrichissant tablettes et smartphones pour en faire de véritables appareils multiservices. Le « commerce  en ligne » s’étend progressivement aux « services en ligne ». De leur côté les employés, les artisans, les professions libérales équipés de tablettes deviennent plus efficaces et apportent un service amélioré, plus rapide et plus pertinent à leurs clients.

Le cloud démocratise l’accès aux ressources informatiques. Désormais quel que soit sa taille l’entreprise peut disposer d’équipements informatiques et de logiciels adaptés à ses besoins et à ses évolutions. Plus qu’une révolution technique, le cloud est une révolution du mode de consommation. Il n’est plus nécessaire de posséder un centre informatique pour développer son activité, un nouveau mode de consommation des ressources informatiques est né. Les ressources deviennent des services qu’on utilise en fonction de ses besoins. Les PME et les start-up y trouvent des ressources adaptées à leurs budgets et les grandes entreprises y voient le moyen de se libérer des contraintes de gestion d’infrastructures complexes pour consacrer plus de temps à l’innovation. Selon IDC en 2015 près de 30% des dépenses des infrastructures IT ont été réalisées dans le Cloud, soit une croissance de 24,1%.

Le Big Data et l’intelligence artificielle tirent la quintessence des données. Dans le projet loi NOE (Nouvelles Opportunités Economiques) Le ministre de l’économie Emmanuel Macron précise que les données sont la nouvelle ressource de l’économie numérique. Les ordinateurs ont fait de tels progrès que les solutions d’intelligence artificielles (algorithmes, machine learning, deep learning) deviennent efficaces et accessibles économiquement. L’abondance de contenus (texte, image, musique, video) inonde l’internaute au risque de le paralyser si dans ses choix si le machine Learning ne vient pas à son secours par des recommandations et de propositions ciblées en fonction de ses goûts. L’intelligence artificielle et big data sont à présent omniprésents. On fait appel à eux par exemple pour l’analyse prédictive du panier d’achat du consommateur, l’analyse de sentiments, la détection de fraude, l’analyse de risques bancaires ou en encore la reconnaissance du langage ou des visages. Le champ des possibles devient illimité. De nouveaux usages et de nouveaux modèles d’affaires basés sur l’exploitation des données apparaissent. « L’économie de la donnée » fait partie d’une des 9 solutions industrielles identifiées dans la phase 2 du plan pour la « Nouvelle France industrielle » lancée en septembre 2013.  La donnée constitue pour toutes les entreprises quel que soit leur secteur d’activité :

    • une matière première
    • un levier économique
    • un actif stratégique pour l’entreprise.

Les réseaux sociaux réinventent une communication de « l’ immédiateté ». Avec les réseaux sociaux la multitude s’exprime. La communication s’établit directement sans intermédiaires. L’information se consomme dans l’instant sans toujours être assimilée ou vérifiée. Des communautés se créent, des influenceurs apparaissent, des tendances se dessinent sur les réseaux sociaux. Les entreprises n’ont plus le choix, elles doivent être présentes sur les réseaux sociaux à minima pour veiller à leur e-reputation mais de plus en plus pour établir une nouvelle forme de communication pour la marque. Certaines vont plus loin, elles commencent à comprendre que les réseaux sociaux contiennent des mines d’informations et constituent des panels grandeur nature sur l’actualité et les tendances que l’on peut exploiter efficacement par le big data et l’intelligence artificielle.

Les objets connectés : une nouvelle vision de la société et du paysage industriel . L’internet des objets représente une opportunité économique pour l’Europe de 1000 milliards d’euros d’ici à 2020 selon le cabinet ATKearney qui souligne l’effet levier de l’internet des objets. Grace à des capteurs et des algorithmes sophistiqués les objets et les équipements collectent des informations, les analyses et communiquent entre eux. C’est une révolution qui touche l’individu, l’habitat, les véhicules, les transports, l’industrie, l’usine, la ville et plus globalement la société. Les technologies de cloud, de big data et de machine learning collaborent avec l’IoT (Internet of things) pour créer les nouveaux usages et optimiser les processus existants. Les chaines de logistiques sont optimisées, la maintenance des équipements (aéronautique, ferroviaire, automobile etc..) devient prédictive et l’agriculture augmente sa productivité. Les secteurs traditionnels cherchent à créer de nouveaux services basés sur ces objets connectés. Certains assureurs proposent déjà des contrats basés sur la conduite des assurés grâce à des boitiers intelligents dans les voitures ou font de la prévention de santé avec des bracelets connectés. Avec les objets communicants, Internet a bouclé la boucle : Tout et tout le monde communiquent.

Le numérique: un défi permanent à relever. Les innovations continuent : impression 3D, Drones etc… Il est important d’en mesurer les effets sur les processus existants. En novembre 2009, dans un rapport intitulé « La nouvelle grammaire du succès : La transformation numérique de l’économie française » Philippe Lemoine identifie les effets du numérique sur l’économie : l’automatisation – la dématérialisation – la désintermédiation/ré-intermédiation. 8 effets de la transformation numérique V2Maitriser les nouvelles technologies, repenser les usages, refonder l’organisation…La transformation numérique est un projet complexe pour les entreprises. Elles n’ont cependant pas le choix, les GAFA (Google, Apple, Facebook, Amazon) et autres NATU (Netflix, AirBnB, Tesla, Uber) ont ébranlé l’économie traditionnelle et fait des émules. En un an nous sommes passés de 40 Licornes (startup ayant franchi le milliard de $) à 130. Elles ne souffrent d’aucune contrainte et débordent d’imagination. Les entreprises semblent avoir mesuré le risque et n’hésitent plus à s’allier avec des startup, voire à favoriser leur émergence via des incubateurs, pour gagner en agilité et en innovation. Le Conseil national du numérique, dans son rapport de janvier 2016 intitulé « Les nouvelles trajectoires » , affirme que la période que nous traversons est celle d’une évolution systémique, exceptionnelle et rarement connue dans l’histoire de l’humanité. Une raison de plus de s’adapter rapidement.

Le marketing en quête d’efficacité

La donnée et le marketing ont toujours été de bons amis. Connaitre le client et tenter d’influencer ses intentions d’achat sont dans les gènes du marketing. Alors pourquoi tant d’emphase autour de ce fameux big data et du machine Learning ?  La concurrence est devenue globale et protéiforme. Le consommateur, désormais averti, est face à un large spectre d’offres et de canaux d’achat. Le marketing n’a d’autres choix que d’augmenter son efficacité en apprenant l’art d’exploiter la multitude de données issue de l’univers numérique.

Le marketing en quête d’efficacité. Le contexte commercial évolue rapidement et nécessite de la part du marketing d’augmenter constamment son efficacité. Avec internet et les smartphones les consommateurs ont gagné en mobilité et en autonomie. Les termes « parcours client » résument bien les nombreuses possibilités dont dispose le consommateur pour se renseigner, échanger, comparer et acheter pour au final obtenir le meilleur rapport qualité prix. Il n’hésite pas non plus à mettre les offres traditionnelles en concurrence avec les barbares du web qui bousculent l’ordre établi avec de nouveaux modèles d’affaires particulièrement attrayants. Le numérique change la donne et accélère les transformations. Les entreprises traditionnelles tout comme les nouvelles issues du numérique doivent constamment rechercher plus d’efficacité accentuant la pression sur le marketing et mettant à l’épreuve son agilité.

Satisfaire un consommateur de plus en plus exigeant. Aucune entreprise ne peut rester attentiste sur un marché en ébullition. Le client veut désormais un marketing individualisé qui lui propose des offres personnalisées adaptées à ses besoins financiers et à ses goûts. Quel que soit le canal utilisé il veut être reconnu comme client et traité comme tel. L’incohérence ou le manque de fluidité sur son parcours client peut vite le détourner d’une entreprise. Le consommateur maitrise également les nouveaux modes de communication sur les forums et les réseaux sociaux pour recommander un produit, s’il en est satisfait, ou bien faire part de son mécontentement dans le cas contraire. Le consommateur est rentré dans l’ère du numérique bien avant les entreprises. Pour le satisfaire et répondre aux objectifs de l’entreprise le marketing devient digital et doit exploiter au mieux les données, aussi bien internes à l’entreprise qu’externes. La marketing peut ainsi

  • Augmenter la connaissance client (vision 360)
  • Suivre et analyser les tendances de marché
  • Affiner la segmentation
  • Améliorer le ciblage les campagnes
  • Devancer les attentes par de l’analyse prédictive
  • Personnaliser les offres et les programmes en fonction du contexte
  • Adapter ses tarifs de manière dynamique
  • Maitriser l’attrition des clients
  • Surveiller la réputation de l’entreprise
  • Offrir de nouveaux services
  • Enrichir l’expérience client

Vers une démocratisation des solutions de big data. Extraire la valeur de la donnée brute est un processus complexe qui se heurtait à des problèmes techniques et financiers. Là encore le contexte a changé. D’un point de vue financier il suffit de voir les capacités de stockage dont nous disposons sur un ordinateur familial pour s’apercevoir que les coûts ont suffisamment baissé pour envisager de stocker d’importants volumes de données. La puissance de traitement des serveurs d’aujourd’hui rendent possible l’exécution d’algorithmes complexes et de technologies de machine learning en des temps extrêmes rapides. L’écosystème du big data s’est étoffé en conséquence pour adresser toutes les étapes de la transformation de la donnée à commencer par la collecte, le stockage, le traitement et la visualisation. Le Cloud contribue à démocratiser l’adoption du big data en proposant les infrastructures appropriées au besoin et à l’évolution de chaque entreprise. De nombreux éditeurs commencent à offrir des solutions de Big Data prêtes à l’emploi en mode SaaS palliant au manque de compétences spécialisées et à la nécessité de s’équiper en matériel couteux. Les offreurs de Cloud comme Amazon, Microsoft ou IBM ont aujourd’hui leur offre de Machine Learning dans le cloud .Les sociétés de services s’organisent en conséquence et mettent en place des départements composés d’analystes de données et de datascientists. De nouvelles sociétés de conseil font de l’analyse de la donnée leur cœur de métier.

Une approche pragmatique pour commencer : La donnée est le nouvel or noir, les solutions deviennent abordables, reste à franchir le pas. L’écosystème du big data pour le marketing reste encore complexe et entre le cas d’usage et les briques à assembler pour la solution, le trajet est semé d’embuches. Inutile de vouloir faire le big bang, le pragmatisme doit primer et commence par le choix d’un cas d’usage, un domaine dont l’amélioration peut être déterminante et probante. Il faut ensuite tester la solution et mesurer les effets. Se faire accompagner peut se révéler indispensable et l’expérience montre que la majorité des entreprises en fonction de leur taille et de leurs enjeux nouent des formes de partenariats avec des sociétés de services, des éditeurs ou des startups spécialisées.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data

Beaucoup d’articles de presse évoquent le potentiel économique des données. La donnée concourt à la création de nouveaux services et participe à la compétitivité des entreprises en permettant par exemple un pricing dynamique. Derrière ses nouvelles pratiques il faut affronter des défis technologiques dans le domaine des bases de données. Des défis relevés par l’éditeur français Quasardb et la société Quartet FS dont les solutions collaborent à présent pour repousser les limites du Big Data.

Edouard quasardb
Avec Edouard Alligand, fondateur de quasardb

Le développement d’internet a modifié considérablement le comportement des consommateurs. Aujourd’hui avant d’acheter, le consommateur se livre en quelques clics à une véritable étude de marché. Il utilise des comparateurs de prix qui le conduira à choisir entre tel magasin physique et tel site marchand. Le consommateur sait faire la part des choses entre la valeur ajoutée d’un produit et son prix. Internet est devenu un vaste marché ou les compétiteurs s’épient et ajustent leur prix en conséquence. L’exemple du groupe Accor illustre bien le problème. Après avoir vécu la désintermédiation avec des sites en ligne, l’arrivée des comparateurs de prix sur internet, il subit maintenant la concurrence des plateformes locatives comme Airbnb. Le groupe a tardé à réagir avant d’annoncer un investissement de 225 millions d’euros sur 5 ans dans le numérique qui devra permettre d’ajuster les tarifs en fonction d’un certain nombre de paramètres et de personnaliser les offres et les promotions. Ces initiatives reposent en partie sur la mise en place de solutions de Big Data.

Ajuster dynamiquement les prix avec la solution Active Pivot. La tarification est devenue une science. Lors d’un séminaire la FNAC expliquait la complexité de la gestion desActive pivot pricing prix. Les concurrents surveillent en permanence les prix, les mises à jour sont de plus en plus fréquentes et un même produit peut avoir différents prix selon le mode de commercialisation et le type de livraison. Dans ce contexte la FNAC a décidé d’industrialiser sa gestion des prix. Cela signifie d’être capable d’analyser de nombreuses données, de faire des simulations pour vérifier l’impact sur les marges et ensuite de transférer le nouveau prix dans le catalogue. Bien sur toutes ses opérations doivent s’exécuter en temps réel pour une meilleure efficacité. Un défi technologique rendu possible avec la solution Active Pivot de la société Quartet FS qui a développé une base de données analytique « in Memory ». Toutes les données sont donc chargées en mémoire du serveur et permettent d’obtenir des temps de traitements extrêmement rapides sans commune mesure avec un stockage sur disque. Il serait tentant d’étendre l’usage de ce type de solution à toutes les données de l’entreprise mais les analyses plus classiques sur des données historiques ne justifient pas en général le coût d’une solution In-Memory, car les requêtes sont ponctuelles, et les volumes de données peuvent dépasser 100 téraoctets.

Quartet FS et quasardb s’allient pour repousser les limites de l’analyse Big Data. Avoir les avantages du traitement en mémoire sans avoir l’inconvénient des coûts c’est ce que devrait permettre l’accord annoncé par Quartet FS et quasardb le 30 novembre 2015. Quasardb est un éditeur français éditeur français d’une base de données NoSQL Key-Value Store pour le traitement de Big Data. Grâce à son modèle scale-out cette technologie Big Data permet de répartir les données dans des fermes d’ordinateurs standards. La conception permet de gérer des bases de données de taille quasi illimitée. Active Pivot a été modifié pour que les utilisateurs puissent sélectionner des données stockées dans quasardb et les analyser ensuite dans Active Pivot. Les deux technologies s’échangent les données à la vitesse de 10 Gigaoctets par seconde. C’est à dire qu’il faut moins de deux minutes pour mettre à disposition un Téraoctet de données dans Active Pivot. Une fois en mémoire, les données peuvent être analysées de manière extrêmement performante par Active Pivot.

Dans le domaine du Big Data les bases de données semblent se concurrencer. Avec le temps et l’expérience on s’aperçoit qu’elles correspondent à des cas d’usages bien précis et que loin de s’opposer elles se révèlent complémentaires. Comme le fait remarquer Edouard Alligand, fondateur de quasardb, « ce partenariat démontre que les technologies NoSQL et In Memory ne sont pas concurrentes mais complémentaires. En alliant la puissance de calcul de l’in-memory aux capacités de stockage du NoSQL, quasardb et Quartet FS contribuent à faire progresser l’innovation en matière d’analyse des données ».

Pour en savoir plus sur quasardb vous pouvez participer au petit déjeuner que la sociétéquasardb seminaire 15 dec organise le 15 décembre. J’aurai le plaisir de faire l’introduction de la matinée. Peut être l’occasion de s’y rencontrer.

A lire également : Le Big Data exigera des bases de données NoSQL qu’elles repoussent encore leurs limites

Sophie Romano , Chief Data Officer de la start up The Assets

Dans un environnement économique qui demande de plus de plus d’agilité, les entreprises sont souvent contraintes par leur capacité de financement. Pour lever cette contrainte Nicolas Voisin, serial entrepreneur du numérique, a eu l’idée de créer avec « The Assets » une place de marché qui recycle un actif dans une économie circulaire et donne naissance à de nouvelles formes de financement sans crédit bancaire et à coût zéro. Les entreprises peuvent dorénavant monétiser des actifs sous-utilisés et accélérer leurs projets d’innovation en ayant les moyens d’acquérir toutes les briques nécessaires à un projet.

The Assets Sophie Eric

Chief Data Officer : définir une stratégie marketing et piloter l’exécution. Aussi performante que soit la plateforme, pour mener la course en tête sur ce créneau The Assets sait pertinemment qu’elle doit l’enrichir en permanence de services à valeur ajoutée. Pour y arriver la start up doit exploiter efficacement de plus en plus de données, nouvel or noir de l’économie numérique. Un constat qui a amené à la création logique d’un poste de Chief Data Officer occupé depuis près d’un an par Sophie Romano.

Ce poste, Sophie le conçoit comme étant à la croisée des chemins du business, des usages et de la technique. Son quotidien : innover et créer de nouvelles offres et de nouveaux usages à partir des données disponibles et/ou à acquérir. Il lui faut également valider que ces offres répondent bien à des besoins utilisateurs et à des enjeux business, évaluer la faisabilité techniques et établir des partenariats stratégiques pour accélérer le développement des offres.

Enrichir la plateforme The Assets avec le big data et de la business intelligence. Ce nouveau mode de financement utile et intelligent adresse un large marché et répond à un besoin tangible. Le choix d’un actif d’entreprises, qu’il soit matériel ou immatériel, peut se révéler complexe et doit tenir compte d’un certain nombre de critères qui peut concerner l’actif lui-même, l’entreprise ou bien encore le contexte technologique ou économique. The Assets veut donc aider ses utilisateurs dans leur décision d’achat en offrant la meilleure connaissance de l’actif recherché. Sophie travaille avec les équipes techniques à la réalisation d’outils d’aide à la décision pour enrichir la connaissance des acheteurs sur les actifs et l’environnement marché. Chaque utilisateur pourra visualiser de manière simple des données volumineuses et hétérogènes provenant de différentes bases de données technologiques, économiques et financières. Pour traiter toutes ces données, les technologies les plus récentes dans le traitement des Big Data sont utilisées comme ElasticSearch ou Spark et les datascientists The Assets ont développé un savoir-faire dans le domaine des algorithmes du NLP (Natural Language Processing) notamment.

Un focus sur les actifs d’innovation.

OLYMPUS DIGITAL CAMERA
Avec Alain Clot président de The Assets et de France Fintech
La course à l’innovation est le leitmotiv de l’économie numérique. Quoi de mieux que les 60 millions de brevets au monde pour caractériser l’innovation. Déposer un brevet est le premier acte pour définir et protéger une innovation. C’est la raison pour laquelle Sophie se concentre sur la typologie d’actifs « brevets » et de manière plus générale sur l’innovation. Une entreprise qui vend ou licencie un brevet, possède souvent d’autres actifs qui contribuent aussi à la valorisation de l’actif : de la documentation technique, du savoir-faire, des marques, des outils ou encore des machines. Après avoir mis en place l’équipe, conçu les offres et identifié les chantiers prioritaires de R&D sur le traitement intelligent des données, Sophie Romano vient de finaliser la négociation d’un partenariat stratégique avec l’entreprise Questel, l’un des leaders dans le domaine de la propriété intellectuelle et des brevets.

En créant ce poste de Chief Data Officer, The Assets démontre l’importance prise par les données dans notre économie. La majorité des start-up l’ont bien compris et ont placé l’utilisation des données au centre de leur modèle d’affaires. Les entreprises traditionnelles commencent à prendre conscience de la nécessité d’entamer une transformation numérique mais oublient parfois que les nouveaux usages dépendent autant des données que des technologies. Le poste de Chief Data Officer remet la donnée au centre du jeu.

 

 

 

Les algorithmes ont pris le contrôle de l’économie

Les données des entreprises se transforment en produits et services grâce aux algorithmes. Le développement et la maitrise de ces algorithmes vont devenir un enjeu économique majeur pour les entreprises qui veulent rentrer dans l’ère du numérique à l’exemple des GAFA qui accélèrent dans le domaine du machine learning par coup d’acquisition de start up.

algorithme

Comme le pétrole, la donnée doit être transformée pour rencontrer les usages. En 2010, le journal The Economist nous alertait sur le « Data Deluge » et mettait ainsi un coup de projecteur médiatique sur le Big Data. Une analogie bien choisie à l’époque montrant que la donnée était une ressource au même titre que l’eau. Pour la canaliser et la stocker dans un « lac de données » il fallait revoir les infrastructures informatiques. On a vu ainsi arriver les systèmes Hadoop et les bases de données No SQL .

Plus récemment l’analogie s’est portée sur l’or noir, une manière de signifier que les données étaient une ressource essentielle de la nouvelle économie. En comparant la donnée à l’or noir nous évoluons vers une étape très révélatrice. Nous quittons la phase du déluge, qui menaçait nos infrastructures, pour entrer dans la phase de transformation nécessaire à la création de valeur au travers de nouveaux produits et de nouveaux services. On a pris conscience que si la donnée constituait un capital pour les entreprises, sa valeur ne pouvait être révélée qu’après des étapes de transformation qui, pour une grande part, vont être réalisées par les fameux « algorithmes ».

L’économie devient algorithmique. Le directeur de recherche de Gartner, Peter Sondergaard,  n’hésite pas à parler «  d’une économie algorithmique qui permettra le prochain grand bond de l’évolution du machine to machine dans l’internet des objets » (lire l’article) . On peut aujourd’hui difficilement dissocier big data et intelligence artificielle. Les usages du Big data mettent en œuvre des systèmes de Machine Learning et de deep Learning manipulant des algorithmes de plus en plus complexes.

Rappelons que dans le Machine learning, le système apprend par lui-même (auto apprentissage) et permet ainsi de résoudre des problèmes ou il est impossible de prévoir tous les cas de figures à priori. Le deep learning est quant à lui une forme du machine learning plus complexe qui essaye de se comporter comme le cerveau humain avec un système de type neuronale.

Les GAFA s’agitent autour des startups de machine Learning. Les GAFA (Google, Apple, Facebook, Amazon) ont compris depuis longtemps que leur activité et leur succès dépendaient de leur capacité à traiter ces énormes quantités de données avec ces technologies de Machine learning et de deep learning.

Début octobre Apple a racheté la société « VocalIQ » , un spécialiste du machine learning pour la reconnaissance vocale. Cette acquisition permettra d’améliorer le fonctionnement de l’outil Siri pour le rendre encore plus « intelligent ». Quelques jours plus tard Apple jetait son dévolu sur la startup « Perceptio » elle aussi spécialisée dans le machine Learning mais dans le domaine des photographies. Une acquisition qui devrait faciliter et optimiser la classification des photos sur les smartphones. Facebook est lui aussi un grand utilisateur de Machine Learning et, quand en juin 2015 il lance “Moments”, il utilise là encore des algorithme de pour reconnaitre les visages de personnes sur différentes photos. En 2014 Google avait investi 500 millions de dollars pour la start up d’intelligence artificielle DeepMind basée en Angleterre. Cette semaine Google a investi au travers de sa filiale allemande dans DFKI (le centre de recherche allemand pour l’intelligence artificielle). Avec l’acquisition de ces startups, ce sont également de nouvelles compétences que l’on recherche : les datascientists.

La maitrise de ces algorithmes est critique pour les nouveaux modèles économiques. Cela nous montre à quel point la maitrise de ces algorithmes est critique pour les nouveaux modèles économiques et pour optimiser les processus existants. Ce ne sont pas que les GAFA qui sont concernés mais bien toutes les entreprises et tout particulièrement le e-business. Derrière le terme générique de Big Data c’est bien souvent des méthodes de machine learning que l’on trouve par exemple pour :

  • L’analyse prédictive du panier d’achat du consommateur
  • L’analyse de sentiments
  • La détection de fraude
  • L’analyse de risques bancaires
  • La reconnaissance du langage ou des visages

L’homme va t’il perdre le contrôle . Le machine learning fait appel à des algorithmes de plus en plus complexes mais ils permettent de s’adapter à des contextes ou les statistiques seuls ne suffiraient pas. Par là même il devient difficile pour un être humain de comprendre ce que fait la machine. Comment dans ce cas s’assurer que la prédiction est fiable ? Comment être sûr que la machine n’a pas trouvé, par un « sur apprentissage » (overfitting), une corrélation entre deux événements alors qu’il n’y avait aucun lien de cause à effet entre les deux ? Pour diminuer ce risque et être capable de mesurer la fiabilité d’un résultat, les domaines des statistiques et du machine learning se sont rapprochés ces dernières années.

Mais la crainte va au-delà de la fiabilité des algorithmes. La protection des données personnelles en est un exemple. L’application de partage de photos de Facebook « Moments », citée précédemment, n’est pas encore disponible en Europe. L’autorité européenne, en charge de la protection des données personnelles, a estimé que la technologie de reconnaissance faciale ne devait pas être activée par défaut sans l’accord explicite des utilisateurs concernés. L’omniprésence des algorithmes qui analysent nos comportements et guident nos choix crée une nouvelle forme de pouvoir exercé par des entreprises ou des gouvernements qui conçoivent ces algorithmes. Reste à savoir comment garantir l’éthique de ces algorithmes.