L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Recommandations et publicités : une approche différente de la personnalisation

Les consommateurs ont rarement une idée précise de ce qui arrive aux données qu’ils contribuent à générer lors de leurs visites et de leurs alexei-v1achats sur des sites de e-commerce. Ces données personnelles sont pourtant largement utilisées dans un but de personnalisation et de publicité. Pour comprendre l’usage qui en fait j’ai demandé quelques explications à  Alexei Kounine, CEO de la société TasteHit spécialiste de la personnalisation de site e-commerce.

recommandation-marketing

Les systèmes de recommandations apportent un service sur mesure. Aujourd’hui Il est relativement aisé de collecter, sur les sites web, de grandes quantités de données anonymes sur le comportement des utilisateurs. Elles sont personnelles car elles concernent un individu, elles sont anonymes car on ne peut pas savoir en principe qui est l’individu sans son consentement.  Ces données peuvent ensuite être analysées par des algorithmes de machine learning (des systèmes d’autoapprentissage) et l’historique de recherche d’un utilisateur peut être comparé aux comportements de millions d’utilisateurs pour réaliser des prédictions et créer une expérience personnalisée. C’est ce qu’on appelle le « filtrage collaboratif » (collaborative filtering en anglais) qui est utilisé par les systèmes de recommandation. On se sert des opinions et des évaluations d‘un grand nombre d’utilisateurs pour personnaliser une recommandation vers un individu.  Nous avons tous fait l’expérience consciemment ou non de cette « expérience tastehit-image-2personnalisée ». C’est le cas quand nous lisons le fil d’actualités de nos comptes Facebook et Twitter ou si nous regardons des vidéos sur Netflix ou bien encore quand nous faisons défiler les produits sur Amazon. Le choix du contenu et l’ordre dans lequel il nous est présenté dépend de notre comportement passé et des services utilisés. Chacun des 1,7 milliards d’utilisateurs Facebook a une vue de son compte Facebook totalement personnalisé en fonction des données collectées par le numéro 1 des réseaux sociaux.

Le cookie, pierre angulaire de la personnalisation. Lorsque les systèmes de recommandations sont bien pensés, ils sont généralement bien perçus et considérés quasiment comme un service en soi. C’est particulièrement le cas pour la recommandation de morceaux de musique par Spotify, de films par NetFlix ou de produits sur des sites e-commerce. Mais ce n’est pas toujours le cas et de nombreuses publicités personnalisées sont perçues comme intrusives par les consommateurs qui ont réagi en adoptant rapidement des « ad blockers ». Pour comprendre ces réactions il faut revenir sur le rôle du cookie. Le cookie est un petit fichier texte stocké dans le browser de l’équipement que nous utilisons pour aller sur le web. Ces cookies aident les sites web à se souvenir de qui nous sommes et à collecter des données sur les clics des consommateurs. Sans ces cookies, un site n’a aucun moyen de savoir que c’est la même personne qui fait deux requêtes consécutives sur des pages différentes. L’utilisation des cookies est très répandue car c’est le moyen de garantir que nos paramètres de navigation sont gardés entre deux pages d’un même site. Pour être plus précis les cookies sont les mécanismes qui permettent d’assurer par exemple une continuité de l’expérience utilisateur entre la consultation de produits, l’achat et la confirmation de paiement. Ils sont aussi utilisés pour faire des recommandations personnalisées de produits. Ce type de cookies placés par le site visité pour suivre l’activité sur ce site s’appelle un « first » cookie. Ces cookies complétées par des données comportementales et contextuelles de plus en plus nombreuses pour atteindre une hyper-personnalisation et obtenir des systèmes de recommandations performants.

Certains cookies nous suivent à la trace. Les cookies sont utiles pour la personnalisation et la navigation sur un site, pourtant certains s’en méfient comme de la peste. Il y a une raison à cette méfiance. Vous avez sans doute remarqué que lorsque vous passez d’un site web à un autre,  il est fréquent qu’apparaisse sur le nouveau site que vous visitez une publicité qui concerne comme par hasard le produit sur lequel vous aviez cliqué sur un site précédent. C’est un autre type de cookie qui est utilisé pour nous pister ainsi de site en site : le « third party cookie ». En fait lors d’une visite d’un site web, ce site fait appel à une société tierce pour placer leurs cookies dans notre browser. Pour faire simple, ce cookie contient un identifiant unique, qui ne permet pas de savoir nommément qui nous sommes, mais qui indique par exemple ce que nous avons précédemment acheté ou consulté. Le mécanisme qui utilise ces cookies pour présenter des publicités concernant des produits visités sur d’autres sites s’appelle le « retargeting ». Le consommateur qui cliquera sur la publicité va être redirigé vers le site d’origine ou le produit avait été consulté.

Une personnalisation hors du contexte rebute le consommateur. Le consommateur n’est pas au courant de tous ces processus mis en place et n’a en général jamais entendu parler de sociétés de retargeting qui traquent le comportement des consommateurs sur tout le web. La personnalisation n’est pas celle que pourrait espérer le consommateur. Au contraire il peut éprouver le sentiment d’être épié et suivi si par exemple lorsqu’il est sur un site d’électroménager, une publicité lui présente une paire de chaussures consultée sur un autre site. Cette personnalisation qui est sortie du contexte explique en partie le rejet du consommateur pour ces publicités ciblées.

A lire également pour comprendre les modèles économiques des acteurs de la publicité en ligne:  How your personal data is used in personalization and advertising

La connaissance client se nourrit d’un monde hyperconnecté

La connaissance client n’aura jamais été aussi stratégique qu’aujourd’hui et son rôle sera de plus en plus déterminant. La notion de connaissance client a évolué et s’est enrichie avec les évolutions technologiques et les comportements des consommateurs qui en ont découlé. Le développement des smartphones  a donné une autonomie sans précédent aux consommateurs et les a propulsés dans un monde hyper connecté parsemé de points de contacts avec les marques qui sont autant de sources d’informations  sur les clients. Le déferlement des objets connectés et le développement d’assistants virtuels ou de robots conversationnels devraient apporter une autre dimension à la connaissance client

Connaissance client V2

La connaissance contextuelle passage obligé d’un marketing personnalisé. Le consommateur a gagné en maturité et sa fidélité à une marque n’est plus acquise indéfiniment. Il analyse, compare  et achète à sa guise sur internet ou en magasin selon ses propres critères. Face à cette évolution la marque, pour garder ses clients et en gagner d’autres, n’a d’autre choix que d’être en écoute active permanente et de proposer une expérience client sans pareil. Cela se traduit par une personnalisation de plus en plus poussée et des interactions de plus en plus intelligentes mais qui nécessitent au préalable une connaissance client augmentée reposant sur:

  • La connaissance globale: Un nombre d’individus important et des données nombreuses et récentes permettent une analyse de tendances grandeur nature et  une segmentation fine qui peut servir par exemple  à définir des personas proches de la réalité.
  • La connaissance individuelle: en plus du profile et de l’historique du consommateur, on s’attache à connaitre le comportement, les préférences et les habitudes de chaque personne pour tenter de prédire leurs intentions d’achat.
  • La connaissance contextuelle: Elle touche l’immédiateté. Elle est la clé d’un marketing moderne et personnalisé. Connaitre l’équipement utilisé pour se connecter, la géolocalisation (ville, magasin, aéroport..) du consommateur. Prendre en compte l’environnement du consommateur (l’actualité, la situation météo, le trafic routier …)  qui peut interférer sur l’humeur et le comportement du consommateur. La contextualisation rend la personnalisation plus pertinente.

Le besoin d’une vision unifiée du client. L’enjeu est fort mais le marketing n’aura jamais disposé d’autant de données et d’outils pour les exploiter. Tout commence par l’identification des sources de données pour ensuite les collecter et les réconcilier. Sites web, calls center, connaissance clients étapesagences, points de ventes, retour de campagnes marketing sont les sources les plus évidentes mais il faut y rajouter les applications mobiles, les réseaux sociaux, les objets connectés…. La connaissance client s’alimente de données qui vont au-delà des données de l’entreprise encore trop souvent organisées en silos. De nombreuses sociétés, à l’image du groupe Accor ou de Covea ,  ont entrepris d’unifier la vision client en mutualisant leurs données dans un « data lake » (lac de données) pour faire face à la concurrence de pure players du numérique. D’autres se sont engagés sur la voie d’une DMP (Data Management Platform). Toute entreprise est potentiellement amenée à traiter des données massives et est donc éligible à des solutions de Big Data. L’avènement du cloud contribue de son côté à démocratiser ce type de solutions en fournissant  des infrastructures de Big data et des logiciels de machine Learning (système auto apprenant) sous forme de services dans le cloud accessibles à toutes les entreprises. Tous les voyants se mettent progressivement au vert pour un véritable « data driven marketing »

Les réseaux sociaux en avance sur la connaissance des utilisateurs. Les réseaux sont devenus un gisement de données inestimable  et il savent l’exploiter mieux que personne. Ils montrent en quelque sorte ce que pourrait devenir la connaissance client quand on est capable de saisir les Facebook j'aimeémotions, les valeurs et tout ce qui façonne la personnalité et la rend unique.  Une étude réalisée par des chercheurs des universités de Cambridge et de Standford en 2015 a démontré que Facebook en savait plus sur nous que nos proches. Suite à l’étude des  « likes » sur Facebook de 86.000 volontaires on y apprend qu’avec 16 likes Facebook en sait plus sur un utilisateur que ses collègues et qu’avec 300 likes il en sait plus que son conjoint. (lire le billet sur ce sujet)

Les objets connectés nouvelle étape dans la connaissance client.  L’objet connecté a une double fonction. Il offre un service ou un usage à la personne qui l’utilise et dans le même temps il remonte des informations à l’entreprise qui le commercialise. D’un point de vue marketing cette vague d’objets connectés va venir enrichir la connaissance sur les habitudes et le comportement du client (santé, sport, conduite automobile, consommation électrique etc..) au niveau individuel et global mais aussi sur son mode d’utilisation de l’objet ou de l’équipement. On a ainsi un double bénéfice pour agir sur la relation client et sur l’évolution des produits et des services. Aujourd’hui moins de 2% des objets sont connectés mais tout objet a vocation, dans un avenir proche, à devenir connecté en l’équipant de différents capteurs. Il est donc essentiel pour le marketing de prendre la mesure de l’enjeu lié à ces objets. L’exemple de certains assureurs qui modulent les frais d’assurance en fonction du comportement des assurés au volant est assez révélateur de ce vers quoi on va tendre dans les prochaines années.

Les Interactions évoluent vers le conversationnel. Les interactions entre les marques et les consommateurs sont nombreuses et prennent de nombreuses formes à commencer par les publicités et les campagnes marketing qui sont de plus en plus personnalisées. On peut noter cependant trois grandes tendances qui structurent la connaissance clients pour atteindre l’expérience utilisateur souhaitée. Pour chacune d’entre elle, l’efficacité et la qualité de l’expérience client repose sur la connaissance du client.

  • L’Omnicanal. La variété des canaux utilisables par le consommateur pour une même marque ne doit pas s’accompagner d’un sentiment d’incohérence. Le passage d’un point de contact à un autre doit se faire « sans couture ». La progression dans le parcours client doit tenir compte des points de contact précédents que ceux-ci soient « numériques » ou physiques et des informations recueillies à chaque étape. Chaque point de contact est une opportunité de collecter des informations et d’enrichir la base de connaissance des clients. La connaissance client devient temps réel et pose la question des moyens mis en œuvre pour collecter et fédérer ces informations en temps réel.
  • Le Phygital. Après une période on opposa digital et commerce physique, il est apparu que la combinaison des deux, sous le terme phygital, pouvait créer de nouvelles expériences client intéressant. Par exemple un consommateur peut rentrer dans un magasin, être identifié comme client, une application de son smartphone se connecte alors automatiquement (avec son accord) au réseau wifi du magasin. Il pourra ensuite être localisé dans le magasin (via des balises beacon par exemple) et selon son emplacement des propositions ou des informations personnalisées lui seront envoyés sur son smartphone en tenant compte de son profile enregistré dans la base de données du magasin et des offres promotionnelles en cours. Il pourra également être assisté dans ses achats par un vendeur équipé d’une tablette qui  aura accès aux informations du consommateur et des produits (disponibilité, prix..). D’autres technologies permettent aussi d’analyser son comportement devant des rayons pour ensuite en tenir compte dans l’agencement du magasin.
  • L’intelligence conversationnelle. Les progrès de l’intelligence artificielle vont sans doute façonner les nouvelles interactions avec les consommateurs et les utilisateurs. L’interaction devrait se développer rapidement sur un mode conversationnel de plus en plus en plus évolué et de plus en plus proche d’une interaction humaine. Les agents conversationnels (chatbot), les conseillers virtuels (robots advizer), les assistants virtuels (Cortana, GoogleNow, Echo etc..) et bientôt la réalité virtuelle deviennent de plus en plus performantes. Les techniques de machine learning leur permettent de comprendre le sens de textes ou de paroles et d’analyser le contenu de photos ou de vidéos. Dernièrement Facebook a présenté son projet Deep Text basée sur de l’intelligence. Il analysera une partie des 400 000 posts et 125 000 commentaires postés chaque minute sur Facebook pour comprendre quels contenus sont les plus pertinents pour un utilisateur donné. Bien sûr dans ce domaine les géants du web sont précurseurs mais il y a fort à parier que les entreprises suivront rapidement ou s’appuieront sur les offres de ses acteurs. La connaissance client va ainsi s’étendre aux contenus  consultés et partagés par les internautes. La rapidité d’adoption de ces technologies conversationnelles dépendra de leur faculté à nous connaitre suffisamment pour analyser nos questions à l’aune d’un contexte personnalisé et à nous répondre dans un mode proche du langage humain.

La connaissance client est un domaine qui va devenir de plus en plus pointu capable d’intégrer la psychologie du client et de la projeter dans un contexte bien précis. Cela ouvre les champs des possibles mais peut inquiéter par la même occasion. La réglementation européenne sur la protection des données personnelles a pour vocation de nous protéger contre les abus et les dérives et de nous rassurer si c’est possible.

Lire également : La performance du marketing sous l’emprise des données

 

 

La fracture numérique porte aujourd’hui sur les usages

Ce qui vaut pour l’entreprise vaut pour le citoyen. L’acculturation numérique est devenue une nécessité pour l’ensemble des français, elle ne concerne pas seulement les spécialistes du numérique mais bien tout un chacun. L’inclusion numérique est une priorité et c’est l’une des missions de l’Agence du Numérique

PIM V1

L’employabilité nécessite la maitrise du numérique. Souvenez-vous, en 2000 on parlait de la fameuse fracture numérique qui allait couper la France en deux et laisser sur le bord de la route du numérique une partie des français. A l’époque on évoquait cette fracture à propos des équipements. Aujourd’hui le problème s’est déplacé, les familles françaises se sont largement dotées d’outils numériques au point de faire pâlir d’envies certaines entreprises qui ont adopté les nouvelles technologies plus lentement. A présent la fracture porte sur les usages du numérique. Première étape de la transformation numérique, la dématérialisation s’est répandue dans de nombreux domaines. L’administration est devenue largement numérique, les recherches et les démarches administratives se font sur internet et la pression est forte pour réduire à une portion congrue les déclarations d’impôts papier. Des services et des commerces en lignes de plus en plus nombreux offrent une souplesse et une richesse indéniables accessibles à tous à condition de savoir s’en servir. L’emploi lui-même est conditionné par le numérique. On peut difficilement se passer d’un réseau social professionnel pour rechercher un emploi et l’employabilité nécessite  la maitrise des outils numérique dans quasiment toutes les fonctions.

Accélérer l’acculturation numérique. Pour lutter contre cette nouvelle forme de fracture Agence du numerique acteursnumérique il est nécessaire de mettre en place une société qui n’exclue pas des citoyens du fait du numérique. Nous sommes rentrés dans la phase de l’inclusion numérique. Les gains de productivité réalisés, notamment dans les services publics, doivent contribuer à financer en partie l’acculturation numérique des français.  Quand Emmanuel MACRON et Axelle LEMAIRE ont annoncé la création de l’Agence du Numérique ils fixaient trois missions : la Mission Très Haut Débit, la Mission French Tech et la Délégation aux usages de l’internet

Des Espaces Publics Numériques sur toute la France. La Délégation aux usages de l’Internet cible ces problèmes d’acculturation numérique par l’aide au déploiement  de 5000 EPN GeolocalisationEspaces Publics Numériques (EPN) sur l’ensemble du territoire pour faciliter l’accès à internet et aux usages du numérique. On les trouve au sein de services publics ou associatifs.  Un portail NetPublic a été créé pour supporter ces EPN. On y trouve de nombreuses ressources et informations ainsi qu’un blog. On peut ainsi connaître l’emplacement de tous les EPN sur la carte de France et faire connaissance avec le Passeport Internet et Multimedia.  Dans un monde numérique extrêmement dynamique ces EPN s’adaptent et font évoluer les services offerts pour appréhender de nouvelles technologies, de nouvelles réglementations ou des nouveaux usages.  L’objectif étant d’offrir à tous une mise à niveau technique, juridique et culturelle nécessaire à l’inclusion numérique. On peut bien évidemment suivre NetPublic sur les principaux réseaux sociaux comme Twitter @netpublic

N’oublions pas le très haut débit. Pour réussir son pari du numérique la France ne peut pas compter seulement sur l’acculturation, il lui faudra également rattraper son retard dans les réseaux très hauts débits. Le développement des usages, l’augmentation des personnes connectées et la vague des objets connectés vont nécessiter des réseaux toujours plus puissants. Comme le rappelait Benoit Thieulin ancien directeur du CNNum, Internet est devenue une infrastructure essentielle et le très haut débit en constitue l’épine dorsale. En 2013 un investissement de 20 milliards d’euros a été dégagé pour financer un Plan très hauts débits partagé entre opérateurs privés, collectivités territoriales et l’Etat. L’Etat sans être prescripteur doit jouer un rôle dans la stratégie en développant une vision réaliste et efficace à l’image des Etats Unis qui ont su anticiper les besoins.

L’inclusion numérique de notre société doit permettre de ne laisser personne de côté mais elle ne doit pas nous faire oublier que l’acculturation numérique est également primordiale, sous une autre forme plus stratégique, pour les chefs d’entreprises et les politiques et qu’elle doit les faire réfléchir sur la transformation de l’entreprise, de l’économie et de la société.

Le stockage se prépare aux grandes marées digitales

L’univers digitale est en pleine expansion et n’est pas prêt de s’arrêter. La vague des objets connectés et le développement continu des réseaux sociaux vont encore amplifier le phénomène. Dans cette profusion de données dans laquelle nous allons baigner beaucoup y voit une source de dynamisme économique présentant la donnée comme le nouvel or noir de l’économie numérique. Il va pourtant falloir déborder d’imagination pour collecter toutes ces données et les stocker pour les analyser en temps réel pour certaines et plus tard pour d’autres.

Cloud storage market

Une marée de données créée par les internautes et les objets connectées. Le domaine du stockage d’information se remet en cause et doit faire preuve d’innovation pour être capable de prendre en compte ces volumes considérables de données. Les technologies progressent  continuellement et offrent un rapport coût performance sans cesse amélioré. Mais ce n’est pas suffisant. Aujourd’hui environ 3,2 milliards de personnes sont connectées à Internet et l’ONU souhaite que 1,5 milliards de personnes supplémentaires puissent avoir accès à Internet en 2020. On estime qu’une personne connectée génère 1,7 Megaoctets par seconde le calcul est vite fait. Vient se rajouter les données qui seront créées par les 50 milliards d’objets connectées (source Cisco). On assiste à une véritable accélération, certains avaient déjà estimé qu’en 2013 il suffisait d’environ 10 mn pour créer ce qui prenait deux jours en 2010 … Explorons donc quelques initiatives non exhaustives pour stocker cette nouvelle richesse infinie.

Le stockage cognitif pour être sélectif dans le choix des données à stocker. Toutes les données n’ont pas la même valeur. Certaines sont abondamment dupliquées, d’autres sont peu fiables  et d’autres n’ont de valeur qu’à un instant précis. Les constructeurs de stockage ont développé des fonctionnalités de déduplication pour être sûr de ne stocker qu’une fois les données. Les spécialistes de la gestion de données proposent des solutions logicielles pour effectuer un nettoyage de données afin de  supprimer les données peu fiables ou redondantes. IBM pourrait aller plus loin grâce à un projet de stockage cognitif qui distinguerait automatiquement les données à forte valeur de celles qui ne présentent qu’un faible intérêt. On pourrait dès lors  savoir lesquelles stocker prioritairement et sur quels types de supports. En d’autres termes on apprend à l’ordinateur à se souvenir des choses importantes et à oublier le reste comme le fait le cerveau. On rentre ainsi dans le domaine de l’infonomics, une discipline émergente qui considère l’information comme faisant partie du capital de l’entreprise et devant être gérée en tant que telle pour apporter de la valeur au business de l’entreprise. Pour l’instant ce projet est à l’état de recherche et il faudra certainement attendre quelques années pour voir un produit commercialisé.

L’ADN comme alternative au stockage magnétique. L’imagination humaine étant sans limite des chercheurs d’Harvard ont réussi à stocker de l’information sur de l’ADN synthétisé. Là encore pas de produit commercialisable mais quand même. Un rapport présenté cette année aStockage ADN montré que l’on pouvait stocker 1 Exaoctets de données sur 1mm3 d’ADN. Chacune des bases nucléotidiques (TGAC) représente une valeur binaire. Le film « le voyage dans la lune » réalisé par Georges Melies en 1902 a pu ainsi être copié un million de fois en utilisant cette technique. En plus de son incroyable capacité de stockage, stocker des données sous la forme de molécules d’ADN offre l’avantage d’une très grande conservation qui peut aller jusqu’à plusieurs siècles en théorie. Une technologie sans doute intéressante dans le futur pour de l’archivage très longue durée.

Repousser les limites technologiques. Certains supports magnétiques ont la vie dure. C’est le cas de la bande magnétique. Plusieurs fois annoncée en fin de vie, la bande magnétique ne cesse d’évoluer pour atteindre de très hautes capacités à de faibles coûts. A ces début en 1952 la bande contenait seulement 2 megaoctets de données. En 2015 IBM et Fujifilm ont annoncé avoir réussi à stocker 220 Teraoctets de données sur une bande (environ 88 fois la capacité de la technologie LTO 6)  Une petite prouesse technologie quand on sait que cela représente 123 milliards de bits par inch carré et qu’il a fallu réussir a positionner la tête de lecture avec une précision de quelques nanomètres.   Google utilise lui-même des librairies automatisées de bandes magnétiques. C’est grâce à ces bandes que Google avait réussi à restaurer des boites Gmail en 2011. Certains utilisateurs de Gmail avaient eu la mauvaise surprise de voir leur boite de messagerie vide suite à un bug logiciel qui avait effacé les copies sur disques. Heureusement une sauvegarde existait sur des bandes magnétiques. A ce jour ce seraient plus de 500 exaoctets de données qui résideraient sur des systèmes de stockage sur bandes.

Stocker les données sous forme d’objets. Traditionnellement les systèmes informatiques stockaient les données sous forme de fichiers et de blocs. Un stockage qui se prêtait bien aux applications traditionnelles basées sur des bases de données relationnelles pour des données dites structurées. En 2020, 70% à 80% des données seront des données non structurées stockage objet gartner(document, email, video, image, son etc..). Il faut donc être capable de proposer des systèmes de stockage optimisés pour les données non structurées, peu coûteux, capable d’évoluer « à l’infini » évolutif et simple d’accès (via http). C’est le principe du stockage objet. La donnée est stockée comme un objet contenant le fichier ainsi que des métadonnées souples que l’on peut enrichir. Les données sont accessibles très facilement via http et chaque donnée possède un identifiant unique. Les applications peuvent également exploiter simplement les données stockées sous ce format grâce à des interfaces de programmation (API REST). Tous les grands constructeurs de systèmes de stockage (voir l’analyse du Gartner dans StorageNewsletter) proposent ce type de solutions sur site (on premise) pour les nouvelles applications dites cloud natives et les fournisseurs de stockage cloud ont adopté cette technologie.

Utiliser le cloud pour stocker l’information. Pour faire face à cette marée de données sans se laisser déborder par la gestion des coûts et la complexité des infrastructures,  les entreprises se tournent de plus en plus vers du stockage dans le cloud. Une manière d’étendre le stockage des Datacenters des entreprises en souplesse dans en environnement hybride combinant cloud privé et cloud public. A en croire l’étude de MarketandMarket le marché du Public cloud storage servicesstockage dans le cloud va croitre de 28,2% par an entre 2015 (18,87 miliards $) et 2020 (65,41 milliards $). Les données des applications critiques resteront dans le datacenter pour des raisons de sécurité ou de réglementation mais pour d’autre comme les sauvegardes ou  la partie web des applications n tiers le cloud offre une solution élégante. Il faut pour cela que l’application ne fasse pas de distinguo entre le stockage résidant dans le Datacenter (ou le cloud privé) et celui localisé dans un cloud public. Pour les nouvelles applications pas de souci elles ont été conçues en général pour le cloud. Pour les applications traditionnelles il faut utiliser une passerelle cloud (Cloud gateway). C’est un équipement physique et virtuel installé dans le datacenter et connecté au stockage objet du fournisseur de cloud. C’est un moyen efficace d’introduire une solution de stockage cloud hybride sans d’importantes modifications d’une application.

Le marché du stockage en ébullition. Les évolutions du stockage ne s’arrêtent pas là, je n’ai pas traité dans ce billet la technologie flash qui devrait s’imposer en 2016 ni de l’hyperconvergence qui ne cesse de croitre. Je renvoie pour cela aux précédents billets :

Le marketing peut-il encore se passer d’une DMP

Le salon du e-marketing qui se tenait à Paris la semaine dernière a été l’occasion de reparler de DMP, la Data Management Plateform. Un terme apparu dans les années 2009 qui concernait principalement les agences media à l’origine. Depuis l’intérêt de la DMP s’est élargi aux directions marketing des entreprises et bénéficie des progrès réalisés par les technologies big data.

DMP blog

Le parcours client ne doit pas être un saut d’obstacles. Le numérique a transformé considérablement la relation entre les entreprises et les consommateurs. Ces derniers adoptent rapidement les technologies et jonglent allègrement avec tous les supports qui leurs sont proposés pour les aider dans leurs achats. La profusion de points de contacts et de canaux de communication peut rapidement se transformer en sauts d’obstacles sans une véritable approche omni canal. L’enjeu pour les marques est bien de  transformer un saut d’obstacles en un parcours client fluide et cohérent.  Cela impose d’être capable de suivre le client, individuellement et en temps réel, dès ses premières recherches sur internet jusqu’à son acte d’achat (sur internet ou en magasin ). C’est à cette condition qu’il est possible d’interagir avec lui de manière personnalisée et appropriée.

Un conseiller bienveillant plutôt qu’un publicitaire intempestif. Le client est au centre des préoccupations des entreprises mais cela ne doit pas se transformer en chasse à courre. Le consommateur est hyper connecté et par la même hyper sollicité. L’abondance d’informations et leurs décalages fréquents avec le besoin du consommateur peuvent vite virer à l’overdose qui le conduit à utiliser des adblockers voire à délaisser une marque. Se préoccuper du client c’est avant tout le respecter. Cela nécessite de bien le connaitre et d’anticiper ses intentions pour apparaitre comme un conseiller bienveillant plutôt qu’un publicitaire intempestif.

Connaitre-segmenter- personnaliser. Les données ont toujours été l’arme du marketing. Avec le numérique cette arme est devenue redoutable. Le consommateur ne cesse de laisser des traces sur le chemin qui le même à l’achat. Le marketing doit être capable de collecter en temps réel et d’unifier dans un même système l’ensemble des données offline et online que l’on classe généralement en 3 catégories :

  • Les Données first party. Ce sont les données propriétaires (CRM, POS, Site web, social, mobile..)
  • Les données second party. Ce sont les données provenant de partenaires
  • Les données Third party. Ce sont des données (en général socio démographique)  achetées à des fournisseurs spécialisés de données.

Cette richesse de données est la source même de la connaissance 360° des clients qui permettra  une segmentation fine nécessaire pour activer des interactions personnalisées sur les canaux de communication appropriées.

Le marketing peut-il encore se passer d’une DMP

Apparue en 2009, la Data Management Plateform avait pour objectif principal d’optimiser l’utilisation des média. Dans un entretien à l’occasion du salon e-marketing Hervé Malinge PDG du spécialiste français de la DMP Makazi donne sa définition et explique les bénéfices d’une DMP.

La DMP est peut-être en train de devenir LA solution big data du marketing. Les progrès sont réels et intègrent  les dernières évolutions

  • Les technologies associées au Big Data apportent à la DMP la capacité de collecter en temps réel les données qui le nécessitent quelques soient leurs natures (structurées ou non structurées)
  • Les systèmes d’autoapprentissages (machine learning) améliorent les moteurs de recommandation nécessaires à une personnalisation pertinente
  • Les offres de DMP sont souvent offertes dans le Cloud en mode SaaS et sont ainsi accessibles à des entreprises de tailles moyennes.
  • Les interfaces  avec les outils marketing pour activer les campagnes et les interactions s’enrichissent au fil du temps au gré de partenariats entre les fournisseurs et des demandes clients.

L’adoption des solutions de DMP augmente en France et les utilisateurs commencent à témoigner. Lors du salon e-marketing des sociétés comme Ysance, Makazi et Oracle faisaient part de leurs expériences. Si les objectifs sont globalement les mêmes, restent à examiner l’ouverture et la richesse de ses plateformes et leur adéquation à l’environnement de l’entreprise et ses évolutions.

formule gagnante du numérique: Plateformes et données

L’économie numérique est désormais incontournable. Malheureusement la France accuse déjà un certain retard dû à des réglementations sectorielles trop rigides et à une structure de financement peu adaptée selon une note du Conseil d’Analyse Economique (CAE) sur l’économie numérique. Pour appréhender l’enjeu du numérique il convient de comprendre sur quels mécanismes se sont créées les nouvelles sociétés numériques et quels en sont les impacts sur l’emploi. Deux points traités dans la note du CAE qui a été exposée, le 9 novembre par l’économiste Anne Perrot, lors de la présentation du projet de loi « nouvelles opportunités économiques » (NOE) par le ministre de l’économie Emmanuel Macron.

CAE

Airbnb aurait généré 2,5 milliards d’euros en France sur un an. C’est à l’occasion de son évènement « Airbnb Open », qui se tenait à Paris du 12 au 14 novembre, que la plateforme de réservation a révélé ce chiffre ainsi que la création de 13 000 créations d’emplois liés aux revenus des hôtes et aux dépenses des utilisateurs de la plateforme (lire l’article ). Si ces chiffres sont avérés cela pourrait rassurer ceux qui s’inquiètent de l’arrivée de ces nouveaux modèles d’affaires et de leur impact sur l’économie et l’emploi.  Raison de plus de s’intéresser à la note du CAE.

Le succès du numérique : Plateformes d’intermédiation et données. Les sociétés numériques emblématiques ont cru de manière fulgurante. Les auteurs de la note du CAE expliquent les rendements croissants de ces nouvelles sociétés par l’utilisation d’immenses plateformes d’intermédiation et par une exploitation poussée des données avec des algorithmes sophistiqués et des systèmes de machine learning. Les sociétés numériques qui se sont imposées avec succès peuvent ainsi opérer sur une très grande échelle et instaurer une relation de confiance entre les offreurs de services et les clients. Dans le même temps elles n’ont de cesse d’améliorer leurs performances, leurs prix et leurs services grâce à l’analyse des données. Un modèle qui déclenche un effet boule de neige : une amélioration permanente des services attirant des clients de plus en plus nombreux qui contribuent à leur tour à faire connaitre ces services. C’est ce que la note du CAE appelle l’effet réseau, un effet démultiplié comparé aux entreprises traditionnelles.

Le numérique entre consolidation et concurrence. Avec le numérique il ne suffit pas d’avoir une idée géniale. Le modèle économique devient d’autant plus efficace que les entreprises atteignent de grandes tailles. Celles qui dominent le marché ont réalisé une croissance exponentielle et entrainé la consolidation du marché à leur avantage. Mais dans le numérique rien n’est acquis et la note du CAE constate que « le monopole d’une entreprise est moins durable dans l’économie numérique ». La concurrence est particulièrement intense. Les grandes réussites créent des émules qui rêvent de devenir les Google ou les Criteo de demain. Les grandes sociétés du numérique sont condamnées à innover en permanence. En créant cette relation directe entre offreurs et clients elles ont créé une dépendance à l’utilisateur. La confiance et l’exigence sont au cœur du modèle économique. Pour retenir un utilisateur habitué à comparer et à tester les offres sur internet il n’y pas d’autre issue que d’offrir en permanence la meilleure expérience utilisateur possible.

L’économie numérique c’est également l’économie de la donnée. Les sociétés numériques savent mieux que quiconque la valeur des données. Elles sont passées maitre dans l’utilisation du Big Data pour connaitre parfaitement les comportements et les préférences des utilisateurs. Elles ciblent ainsi mieux leurs utilisateurs et peuvent leur proposer des offres parfaitement adaptées et personnalisées. La note du CAE rappelle que « au-delà des services qu’elles offrent, les plateformes créent aussi de la richesse en permettant la collecte d’une masse considérable de données qui peuvent être valorisées sur différents marchés. ». Ces entreprises sont de devenues véritables professionnels du traitement des données massives et en tirent parti pour se diversifier sur d’autres marchés.

 L’économie numérique déplace les emplois. Les révolutions industrielles et technologiques chamboulent le monde de l’emploi. Les innovations technologiques créent de nouveaux emplois et nécessitent de nouvelles compétences mais elles contribuent également à la destruction d’emplois traditionnels. Le numérique permet l’apparition rapide de nouveaux modèles d’affaire qui remettent en question l’ordre établi de l’emploi. Il est donc naturel de constater une légitime inquiétude face à ce que les auteurs de la note appellent  « la disparition tendancielle d’un certain nombre de professions » et qu’ils classifient de la façon suivante :

  • L’automatisation : certaines tâches particulièrement celles «  routinières  » se prêtent naturellement à l’automatisation
  • L’apprentissage: avec le développement de l’intelligence artificielle, en particulier des algorithmes d’apprentissage, l’automatisation commence à s’étendre à des professions plus qualifiées fondées sur la maîtrise de grandes bases de connaissances (avocat, docteur)
  • Le report sur l’utilisateur final: exemple avec le e-comerce qui court-circuite le vendeur.
  • Le report sur la multitude: exemple wikipedia . Ce sont les internautes qui jouent le rôle de rédacteurs bénévoles de l’encyclopédie en ligne.
  • La concurrence des amateurs : exemple AirBnB

Les emplois du numérique ne se limitent pas à des emplois spécialisés comme les data-scientists mais le modèle privilégie les fonctions assurant des interactions humaines au détriment des tâches routinières. La note du CAE prévoit une polarisation de l’emploi avec des postes à forte compétence et bien rémunérés et d’autre part des emplois peu qualifiés mais non routiniers faiblement rémunérés

La note du conseil d’analyse économique a été rédigée par Nicolas Colin, Augustin Landier, Pierre Mohnen et Anne Perrot. Dans ce billet je me suis volontairement intéressé qu’à l’aspect analyse de l’économie numérique . La note recommande de créer un droit à l’expérimentation, de développer les systèmes de notation par les clients et de généraliser le statut d’auto-entrepreneur. Je vous laisse découvrir les préconisations  proposées pour réussir sa transformation numérique et produire des sociétés numérique efficaces. lire la note complète du CAE en PDF

 

Intelligence collective et Open Data : des solutions pour la COP21

Le changement climatique est un sujet trop sérieux pour le confier uniquement aux spécialistes. Si le monde moderne a contribué au dérèglement climatique, il doit pouvoir nous aider à trouver des solutions. Avec la 21ème conférence des Nations Unies sur le climat (COP 21) organisée en décembre prochain, voici l’occasion rêvée de montrer que la démocratie participative permet d’imaginer des solutions innovantes. Pour mobiliser cette intelligence collective, une démarche d’open innovation (Climate Change Challenge), a été lancée

C3 intro

Des données climatiques, géographiques et énergétiques disponibles en Open Data. L’intelligence collective c’est bien mais, comme le cerveau, elle est efficace si elle dispose de suffisamment d’informations. L’ouverture des données est une des actions-clefs des politiques publiques en matière d’économie numérique. La donnée est devenue la nouvelle matière première de notre monde moderne que des solutions de Big Data et de machine learning s’emploient à transformer en produits, services et nouveaux business models. Les données publiques constituent à elles seules un fort potentiel économique qui justifie l’effort gouvernemental pour les rendre « ouvertes ». L’Etalab dirigé par Henri Verdier a été créé pour faciliter l’accès et le partage à ces données publiques (Open Data) . Depuis sa création, Etalab a permis l’accès à plus de 355 000 informations publiques gratuites et réutilisables mises en ligne sur le portail national data.gouv.fr . Tout citoyen, association ou entreprise peut ainsi utiliser des données en allant sur ce portail. L’ouverture des données publiques encourage la transparence démocratique bien sûr mais permet aussi de développer de nouveaux services au quotidien ou d’essayer de trouver des solutions à des grands problèmes de notre temps comme le changement climatique.

Le Climat Change Challenge C3: Minimiser l’impact du changement climatique.  Avec la publication des plans de réduction des émissions de gaz à effet de serre de 145 pays nous devrions constater une élévation de température d’environ 3°C à la fin du siècle. Pour arriver à l’objectif des 2°C les pays doivent encore faire des efforts. Les démarches comme le Climat Change Challenge C3 sont donc les bienvenues. Cette démarche, appelée également C3, est le fruit de l’association de la Mêlée (Toulouse) avec C3 démarcheses partenaires Météo France, l’IGN, le CNES et Etalab. Le C3 s’inspire des modèles « hackathon » et des « datacamp » et favorise le dialogue et la collaboration pour définir des actions de sensibilisation et créer des solutions innovantes. C’est également l’opportunité d’expérimenter de nouvelles stratégies de mise à disposition de données. Pour le challenge C3 les données sont disponibles sur la plateforme data.gouv.fr .Les participants aux C3 ont pour finalité de mieux comprendre le Changement Climatique, s’y adapter et lutter contre ses impacts. Huit axes de réflexions sont proposés :

  • Pédagogie/sensibilisation
  • Aménagement du territoire
  • Transition énergétique
  • Gestion des ressources
  • Impact sur l’économie
  • Santé
  • Accès à la connaissance et à l’information
  • Biodiversité

Les 3 meilleurs projets présentés à la COP 21.  Commencé en mai 2015 plusieurs évènements se sont déjà tenus à Paris, Toulouse, Lyon, Nantes. Le C3 rentre à présent dans sa dernière phase avec l’Innovation Jam. Les 4 villes sont impliquées simultanément du 6 au 9 novembre pour concevoir des solutions innovantes au défi climatique. Les 3 meilleurs projets, désignés par un jury composé d’experts, de mentors, de professionnels et de citoyens, seront présentés à la 21 ème conférences des Nations Unies sur les changements climatiques COP21.

Présente au Web Summit de Dublin, la start up Lyonnaise Tilkee augmente l’efficacité des propositions commerciales

Cette semaine le Web Summit de Dublin est l’évènement à ne pas manquer pour les start-up. Dix sept start-up représenteront la France sur le French Tech Pavilion officiel du salon. Coup de projecteur sur Tilkee, une start up Lyonnaise créée fin 2012, spécialisée dans les outils de suivi des propositions commerciales et d’optimisation de la relance client. Rencontre avec Philippe Bruiant, Directeur Commercial, qui m’a présenté le produit démonstration à l’appui.

Tilkee Philippe V1

Augmenter la productivité d’une force de vente tout le monde en rêve. Cette jeune start up accompagnée par l’accélérateur Axeleo a déjà bien commencé. En septembre 2014 elle a annoncé avoir bouclé une levée de fonds de 500.000 euros et elle rencontre déjà un succès certain auprès des entreprises. Rien d’étonnant car elle répond a un besoin récurent partagé par toutes les entreprises : augmenter la productivité des forces de ventes. Dans le cycle d’une vente la proposition commerciale est une étape cruciale qui conduira ou non à réaliser la vente. Travailler à la qualité de cette proposition sur le fond et sur la forme est indispensable mais malheureusement cela ne suffit pas. L’envoi de la proposition doit déclencher un véritable processus de suivi dont pourra dépendre en partie le succès d’une vente. C’est ce qu’a bien compris la société Tilkee qui entend améliorer le suivi des propositions commerciales et optimiser les relances tout en simplifiant la vie des clients

Commencer par simplifier la vie des clients. Avec la prolifération des mails, la restriction des tailles de message dans certaines entreprises et les filtres qui vous classent arbitrairement des mails dans la boîte de Spams, on n’est pas toujours certain qu’une proposition commerciale ait été reçue, ouverte et lue. Pour contourner ces écueils Tilkee génère un lien, à la manière d’un Dropbox, qui informe l’émetteur des que le mail a été ouvert.. En cliquant sur le lien le client accède à un outil convivial de consultation de l’ensemble des documents inclus dans la proposition commerciale. Une manière de valoriser la proposition commerciale en en simplifiant la lecture. Le destinataire de la proposition peut également partager facilement le document avec un collègue en transférant le lien. Le collègue bénéficie alors du même confort de consultation.

Enclencher le suivi commercial dès l’envoi de la proposition. Plus d’un tiers des relances sont inutiles. Elles tombent au mauvais moment ou ne sont pas en phase avec l’attente du client. Tilkee apporte des informations essentielles pour connaitre la vie de la proposition commerciale chez le client. Dès que celui-ci a cliqué sur le lien envoyé par mail, l’émetteur (le commercial) reçoit une notification. Cette notification fournit les principales statistiques de lectures, un conseil d’actions à entreprendre et un accès aux statistiques détaillées. A la manière d’un Google Analytic, le commercial dispose d’un tableau de bord, véritable outil de pilotage de ses propositions. Il sait précisément ce que le client a lu et combien de temps il a passé sur la proposition commerciale. Les relances deviennent plus efficaces. Grace au tableau de bord et aux notifications, le commercial sait ou en est sa proposition et peut relancer son client au meilleur moment de manière appropriée et argumentée.

 Le principe est aussi simple qu’efficace et le logiciel peut être utilisé de manière autonome ou en mode intégré avec des plateformes de CRM comme Sales forces et des messageries comme Gmail et Outlook.

Faire du mass mailing avec Tilkee, c’est possible. Les fonctions de tracking offertes par le produit permettent de l’utiliser dans d’autres domaines tels que le marketing. Les campagnes de mailing sont réalisées sans réellement savoir si les plaquettes ou les présentations commerciales insérées sont lues ou non. En annonçant l’intégration avec Mailchimp (leader sur le marché d’outil de mailing), on peut enfin savoir si les documents joints à la campagne sont lus et comment ils sont lus. On peut ainsi mesurer l’efficacité de la campagne et la pertinence des documents. On s’aperçoit ainsi que souvent 80% des personnes ne vont pas au bout des documents. Ce pose alors la question de réduire la taille du document ou de revoir la structure et le contenu.

Rien de mieux qu’une démonstration pour voir l’efficacité du produit. Souhaitons à Tilkee de nombreux visiteurs sur le French Tech Pavilion au Web Summit de Dublin

 

L’univers du Luxe n’échappe pas au phénomène du Big Data.

Pour prendre en main l’avenir du Luxe, Louis Vuitton fait appel aux technologies du Big Data et n’hésite pas à organiser un Hackathon du Luxe pour rechercher rapidement de l’innovation. Preuve que les technologies de big data et de machine learning peuvent s’appliquer à tous les secteurs d’activité

L’émotion du luxe ne s’oppose plus au rationnel de l’analytique. Le commerce du luxe cultive l’attractivité de la marque et l’expérience émotionnelle attachée au produit. Parler de technique de marché de masse dans ce contexte peut sembler incongru. Dans le domaine du luxe l’émotion prime sur l’analyse rationnelle. De là à penser que les technologies de big data sont inutiles et inefficace il n’y a qu’un pas à franchir. Pourtant si les enseignes de Luxe cherchent à maintenir une relation personnelle haut de gamme avec un groupe réduit de clients fidèles et choyés, dans le même temps elles développent souvent une approche de vente qui s’apparente à du « mass market ».

On a l’habitude de dire que le monde du Luxe ne subit pas la crise, c’est oublier qu’il est soumis aussi à la concurrence et aux changements de comportements des nouvelles générations. Réfléchir au potentiel extraordinaire que représente le big data n’est donc pas du …luxe.  Big Data et Luxe sont deux univers totalement différents avec des cultures diamétralement opposées. L’émotion et l’imaginaire du Luxe se heurtent à l’analyse et la rationalité du Big Data.

Un hackathon sert à faire bouger des lignes rapidement. Pour créer la dynamique et du liant il faut savoir chercher de l’aide à l’extérieur. C’est ce qu’a  fait Louis Vuitton en lançant le premier Hackathon du Luxe durant 48h ce week end du  25 au 27 septembre. Le défi est ambitieux puisqu‘il s’agit ni plus ni moins que de changer l’avenir de luxe : « Unlock the Future of Luxury » .

Un hackathon est un événement de plus en plus souvent utilisé, et mis en scène, par les grandes entreprises pour faire bouger les lignes sur des nouveaux sujets. Le terme est né de la fusion des mots « hack » et  « marathon ». Il consiste à rassembler des développeurs, souvent lors d’un weekend, pour travailler sans interruption sur un projet et produire un prototype d’application. La durée courte du Hackathon est délibérée pour mettre une pression positive et aller à l’essentiel en maintenant la concentration des développeurs.

Des analyses prédictives sur les tendances, les ventes et l’évolution de la marque. Pour l’exercice Louis Vuitton fournit des données internes et externes et demande aux participants d’utiliser leurs compétences en intelligence artificielle et en machine learning pour réaliser des analyses prédictives sur les tendances, les ventes et l’évolution de la marque :

  • Croiser les données commerciales et sociales pour anticiper les ventes.
  • Suivre les prescripteurs et les activités des concurrents pour anticiper les tendances.
  • Connaître la vision de la marque et de ses produits par les différentes parties prenantes et définir son évolution.

Les participants n’auront peut-être pas eu le temps de goûter à la beauté des lieux. Dommage car le Louis Vuitton atelierHackaton se déroulait dans les ateliers de Louis Vuitton à Asnières-sur-Seine. A noter que dans l’agenda les organisateurs avaient glissé le 26 septembre un cours de gym à 10 h et un challenge Twitter à 17 h. Il ne faudrait pas que les développeurs négligent leur santé…. Les réalisations étaient présentées devant un jury à l’issue des 48 h  et les vainqueurs pourront gagner un voyage à San Francisco et d’autres récompenses.

Pour plus d’information aller sur le site Unlock the future of Luxury