Les jeux Olympiques : une véritable entreprise digitale

 

Si certaines de nos entreprises françaises sont encore frileuses pour aller dans le cloud, l’exemple des jeux olympiques peut sans doute les rassurer. Les JO requièrent des exigences extrêmes et une visibilité énorme qui vont bien au-delà de la durée de la compétition. Le cloud ainsi que le Big Data participent à leur manière à la transformation digitale des jeux Olympiques.

Atos GAme

Yan Noblot Directeur des opérations chez Atos nous fait partager sa passion des jeux. Si les jeux Olympiques font l’objet d’une longue préparation de la part des athlètes, il en va de même pour l’organisation et la couverture de chaque JO qui fait appel à toute l’innovation technologique pour être prêt à enchanter, le jour des compétitions, les spectateurs du monde entier. J’avais très brièvement abordé le sujet dans mon précédent billet et j’ai eu la chance de pouvoir discuter un long moment avec Yan Noblot, Directeur des opérations dans la division Major events & Olympics de Atos , qui m’a fait partager sa passion pour le sujet. Lire la suite

Canopy : « Le cloud est un des leviers de la transformation numérique »

Canopy atos cloudPhilippe Llorens, directeur général de Canopy la filiale cloud d’ATOS, m’a reçu pendant EMC world à Las Vegas pour m’expliquer comment il comptait réaliser ses objectifs ambitieux dans le cloud.

tucci become Digital

L’époque n’est plus à l’attentisme, le numérique est un véritable projet de transformation. Lire la suite

Eurocloud veut faire de Paris la capitale du Cloud

La Capitale française peut compter sur le dynamisme de ses startups pour profiter de l’ère du numérique. Elle devrait bénéficier également de l’impulsion qu’Eurocloud souhaite apporter dans le cloud en organisant la Cloud Week du 6 au 10 juillet à Paris

 Cloudweek Paris

Donner à Paris et à l’Ile de France le statut de 1ère place du Cloud en Europe. En annonçant la première Cloud Week Paris du 6 au 10 juillet, L’ambition du président d’EuroCloudCloud week part assoc France Pierre-José Billotte est clairement affichée : « Faire de Paris et de l’Ile de France, la capitale et la région leaders du Cloud en Europe ». Pour y arriver, Eurocloud France a des atouts et en particulier ses nombreux adhérents qui font partie du réseau de 1500 entreprises actrices du cloud et membres d’EuroCloud (EuroCloud France en est la branche française) réparties dans 31 pays. La liste des adhérents en France peut être consultée ici . L’évènement sera placé sous le haut patronage de Mme Axelle Lemaire,Secrétaire d’Etat chargée du Numérique, et bénéficie du support de partenaires institutionnels et associatifs (CDRT, le CIGREF, Cloud Confidence, Forum Atena, l’Ecole d’Ingénieurs ISEP et Transition Numérique ) et de nombreux sponsors. On peut noter bien évidemment le soutien de la mairie de Paris, de la région Île de France, du ministère de l’économie et du CNN.

La vision du Cloud dans 10 ans . Dans tout projet il n’y a pas de succès durable sans vision. C’’est le thème choisi pour la journée d’ouverture le 6 juillet et qui permettra aux participants de prendre un peu de hauteur avant de rentrer dans le concret les jours suivants. Une journée de prospective qui sera éclairée par le point de vue de 8 visionnaires (4 français et 4 étrangers) sous une forme dynamique. Ils utiliseront le style des fameuses présentations de « TED » en exposant en 10 minutes, sans powerpoint, leur vision du Cloud. Axelle Lemaire clôturera cette première journée.

Favoriser les rendez-vous d’affaires. 4000 visiteurs (français et internationaux) sont attendus et Eurocloud France souhaite faire de cet évènement un lieu privilégié pour les rendez-vous d’affaires tout au long de la semaine. Les sujets s’y prêtent puisqu’ils abordent de nombreuses facettes du Cloud :

  • Innovation,
  • Recherche et dernières tendances technologiques,
  • Formation
  • Financement des start-ups
  • Nouveaux business models et nouveaux usages
  • Développement des achats publics de services Cloud
  • Soutien des acteurs de l’informatique pour leur migration vers le Cloud
  • Souveraineté, sécurité, confiance
  • Politique françaises et européennes en faveur du Cloud
  • Ouvertures vers les marchés européens
  • Etats du marché et prospectives

Clôture de l’appel à candidature pour les trophées du Cloud Computing le 15 mai 2015. Il faut saluer et encourager ceux qui se distinguent par la qualité de leurs offrs et leur innovation.  Depuis 2007, EuroCloud France décerne chaque année les trophées du Cloud. Cette année ce seront 6 catégories qui seront récompensées et les heureux élus seront éligibles aux trophées EuroCloud Europe

  • le meilleur service cloud pour les marchés horizontaux,
  • le meilleur service cloud pour les marchés verticaux,
  • le meilleur service cloud infrastructure,
  • la meilleure start up cloud,
  • le meilleur cas client et
  • la meilleure solution de migration vers le cloud.

On sent décidemment un dynamisme numérique en France. Profitons en pour saluer l’implication d’Axelle Lemaire présente partout où l’on parle de numérique et de transformation et qui communique à chaque fois sa passion et son enthousiasme.

 

 

 

 

Un CRM Big Data dans le Cloud avec Salesforce

 Salesforces fait un pas de plus dans le Big Data.en annonçant le 5 mars Salesforce Marketing Cloud Predictive Decisions qui sera disponible en mai 215. Une approche de « CRM Big Data » dans le Cloud qui peut simplifier la tâche des équipes marketing

Salesforce illustrationRendre le CRM Big Data accessible. Si certaines entreprises sont rebutées par la technicité et la complexité des plateformes de Big Data les solutions dans le cloud peuvent sans doute les inciter à profiter des avantages du Big Data sans en craindre les écueils et la complexité. Sans aucun doute Salesforce est le grand leader du CRM mais surtout il montre par cette annonce qu’il est possible, pour ceux qui le souhaitent, de profiter des avantages du CRM et du Big Data sans pour autant disposer en interne de ressources techniques spécifiques.    Sales force n’utilise pas le terme DMP (Data Management Plateform) mais la solution en présente certains aspects. Des intégrateurs comme Micropole et Ysance ont déjà à leur catalogue des offres de types DMP dans le cloud qui facilite la mise en œuvre de ces solutions.  N’oublions pas néanmoins qu’on ne peut pas s’affranchir d’analyser et de recenser les sources des données qui vont alimenter ces plateformes et de déterminer les flux de données sortants pour savoir comment les exploiter et à quels fins.

Salesforce veut mettre la « science des données » dans les mains des directions marketing.    Les entreprises doivent interagir avec leurs clients de manière personnalisées et en temps réel pendant un parcours d’achat de plus en plus « cross channel ». La solution « Predictive Decisions » de Salesforce affiche cette ambition. Le marketing devrait pouvoir s’appuyer sur la science des données pour analyser l’engagement du client, lui faire des recommandations de manière proactive et ainsi augmenter le taux de conversion. La solution donne la possibilité de concevoir des programmes intelligents allant au-delà de l’engagement contextuel pour faire du marketing prédictif en utilisant des algorithmes sophistiqués. Le marketing devrait ainsi disposer d’une plateforme unique combinant le CRM et les données marketing avec des informations contextuelles. Il pourra élaborer des tableaux de bord à partir d’informations provenant d’interactions, de navigations mais également d’autres applications de Salesforce. Sales force avec cette annonce a souligné quelques innovations qui demandent encore à être détaillées.

  • « collect beacon » avec les mises à jour en temps réel de contenus et de comportements utilisateurs directement dans la plateforme pour permettre des décisions prédictives.
  • Workflow et automatisation. Les données de comportements des clients sont chargées automatiquement dans la plateforme marketing Cloud en temps réel
  • Décisions prédictives natives. Anticiper quel contenu obtiendra le plus fort taux de conversion. Faire en sorte que chaque message soit personnalisé à l’individu et son contexte.

Le Cloud s’impose de plus en plus en plus comme un facilitateur de technologies. C’est en particulier le cas pour le Big Data. Pendant le salon du Big Data Paris on pouvait noter que de nombreuses sociétés s’associent pour offrir des solutions de big data dans le cloud et en accélérer ainsi l’adoption.

La startup française Tastehit utilise machine learning et big data pour personnaliser en temps réel les sites commerçants

Convertir une visite en achat est devenu l’obsession des sites de e-commerce. Personnaliser le site en temps réel pour chaque visiteur, et devancer ses souhaits, pourrait être la solution.

tastehit-configuration-graphic V2

L’achat sur internet est passé dans les mœurs. Toutes les enseignes petites ou grandes se sont mises au commerce en ligne et dans leur sillage une multitude de sites sans représentation physique se crée régulièrement. Les frontières ont sauté par la même occasion et s’implanter dans un pays ne nécessite plus forcément des implantations physiques lourdes en investissement. La simplicité du e-commerce s’accompagne ainsi d’une concurrence exacerbée. Dans ce paysage concurrentiel, chaque site commerçant doit tout d’abord se faire connaitre pour attirer du trafic visiteurs et ensuite tenter de convertir le visiteur en consommateur avant qu’il n’aille voir ailleurs.

97% des internautes quittent une e-boutique sans y faire d’achat. C’est ce que montrent certaines études et les internautes visitent en moyenne 5 fois un site avant d’acheter. Des techniques de « retargeting » ont été mises en place pour lutter contre la volatilité des visiteurs. Le principe est simple : suivre  l’internaute pendant son parcours d’achat et tenter de le faire revenir sur un site commerçant par un ciblage précis de publicités personnalisées sur les différents sites visités. Des sociétés comme Criteo ont fait leur succès dans ce domaine en s’appuyant sur des solutions de big data puissantes pour négocier les espaces publicitaires en temps réel (RTB Real Time Bidding) et placer les messages publicitaires appropriés.

Devancer les attentes de l’internaute pour augmenter les taux de conversion. Depuis longtemps on sait qu’il est moins coûteux de garder un client que d’en gagner de nouveaux. C’est ce que les banques et les opérateurs télécom appellent le « churn management ». Il en va un peu de même avec les visiteurs sur les sites e-commerce. Comment les garder plus longtemps sur un site, et les convaincre d’acheter, plutôt que s’épuiser à les faire revenir ? Quelques sociétés se positionnent sur ce créneau et une startup française nommée Tastehit a peut-être trouvé la solution en reprenant la base de la vente : écouter le client.

Ecouter le client c’est analyser son comportement et ses attitudes . Quand le visiteur exprime précisément son attente, le problème se résume à du « search ». Bien souvent l’internaute ne sait pas précisément ce qu’il cherche et sa demande est vague (je cherche un cadeau pour quelqu’un, je cherche des habits qui correspondent à mon look, « un film bien » à regarder, etc…). En utilisant un algorithme d’autoapprentissage (machine learning), développé par ses soins, Tastehit apprend à connaitre les goûts et les souhaits du visiteur et personnalise le site de e-commerce en temps réel. L’analyse comportementale du visiteur est corrélée en temps réel avec une base de connaissance de l’ensemble des visiteurs. Les offres les plus pertinentes avec la probabilité d’achat la plus forte seront alors affichées sur la page visitée par  l’internaute. Pour le visiteur, Tastehit est un véritable outil de découverte d’autant plus important que l’écran est petit. L’usage d’un mobile pour consulter un site de e-commerce devenant prédominant,  la personnalisation du site pour le m-commerce est déterminante.

La simplicité du cloud pour faire du big data. Dans notre univers technologique tout devient possible mais nécessite souvent des compétences et un solide budget.  Tastehit se distingue là encore puisque la solution n’impose aucune modification du site marchand. Le simple ajout d’une ligne de code JavaScript (Tag) permet d’installer TasteHit et activer son tastehit-analytics V2utilisation en mode Saas (Software as a Service) dans le cloud. Un tableau de bord d’analyse est mis à disposition pour que le marchand puisse suivre les performances et les résultats de la personnalisation. Le marchant peut également y configurer certains aspects des recommandations (mettre en avant ou ne pas montrer certains produits, ou catégories, par exemple).

A noter que la solution est téléchargeable gratuitement, ne crée aucune dépendance technique et n’a pas d’impact sur le temps de chargement des pages. Tous les sites de e-commerce peuvent avec cette solution augmenter l’expérience client sans frais et sans risque.

Les acteurs du Web et du Cloud challengent la suprématie des leaders de l’IT

Le cloud et l’open source remettent en cause le leadership des grands acteurs de l’IT. Ceux-ci font face à de nouvelles formes de concurrence, ils doivent repenser leurs modèles économiques, démontrer leur proposition de valeur et rechercher de nouvelles sources de croissance.

blog statue

Les acteurs du Web deviennent constructeurs et éditeurs .

Facebook s’attaque cette fois ci aux réseau en annonçant un projet Open source pour développer ses propres équipements réseaux. C’est une nouvelle pierre dans le jardin des constructeurs. Réseaux, serveurs et stockage ne sont plus des domaines réservés. Les grands acteurs du Web comme Google, Facebook ou bien encore Amazon possèdent de gigantesques data centers. L’activité de ces entreprises hors norme repose en grande partie sur la performance de ces data centers dont ils cherchent à maitriser les coûts et la conception.

Google et Yahoo ont créé Hadoop pour améliorer leurs moteurs de recherche et gérer leurs « big data ». Ils ont voulu s’affranchir des contraintes techniques et financières des éditeurs de bases de données relationnelles. Une méthode qui se reproduit de plus en plus fréquemment. On recherche des composants matériels (serveurs, stockage..) entrée de gamme et l’intelligence est déportée dans du logiciel qui est ensuite mis à disposition de communautés opens source. Hadoop par exemple fait l’objets de nombreuses distributions dont les plus connues sont Hortonworks, Cloudera et MapR

Rackspace, associé à la NASA, a produit son propre operating system pour le Cloud qui a donné lieu à OpenStack.

La menace plane sur les éditeurs de logiciel et les constructeurs IT ……

Les besoins d’équipements des grands acteurs du web échappent progressivement aux fournisseurs IT. Les acteurs du Web et les grands opérateurs de Cloud préfèrent de plus en plus souvent investissements IT développer leurs propres équipements et logiciels. Ce sont des sources de profits considérables qui disparaissent des revenus des constructeurs et éditeurs. De clients, les acteurs du web et du cloud deviennent des concurrents en de nombreuses occasions.

Les produits matériels banalisés et le logiciel libre commencent à séduire également  les entreprises à la recherche d’économies. Linux a montré la voie en son temps.  Logiciel libre ne signifie pas pour autant gratuité, ce sont de nouveaux modèles économiques avec des souscriptions. Les utilisateurs doivent veiller au choix de la distribution du logiciel libre choisi, à la vivacité des communautés open source et disposer souvent en interne de ressources compétentes.

Pour lutter contre la « commoditisation » les constructeurs de l’IT doivent avoir une proposition de valeur réelle et tangible:  Ce mouvement impose aux constructeurs de construire une proposition de valeur pour leurs équipements qui soit lisible et réelle. Elle peut porter sur des fonctionnalités techniques différentiantes et/ou sur des gains financiers d’exploitation tangibles.

L’enjeu est de taille : résister pour préserver ces marges aussi longtemps que possible ou adopter le mouvement et le légitimer, accélérant ainsi la chute des marges…. Il faut donc rechercher de nouveaux marchés de rupture ou la valeur est encore à créer et en parallèle alléger les structures d’organisations pour être plus agile et moins coûteux.

Le Cloud crée une nouvelle forme de compétition. Le Cloud gagne du terrain et se mouvement est irréversible. Progressivement les moyens informatiques se déplacent du client final vers les fournisseurs de Cloud. Insidieusement le SaaS a produit ses effets. De nombreux logiciels sont dorénavant dans le cloud et exploitent des infrastructures hébergées par des fournisseurs de Cloud.

Amazon avait trouvé dans le cloud le moyen de rentabiliser ses propres infrastructures informatiques montrant ainsi une nouvelle forme de compétition. Depuis il s’est imposé comme le leader du Cloud et capte une grande partie des investissements informatiques. Le marché du Cloud est à présent établi et les fournisseurs sont pléthore.

Les investissements se déplacent vers ses fournisseurs de Cloud. Les constructeurs et éditeurs essayent de s’adapter à cette nouvelle forme de compétition de différentes manières :

  • Vendre leurs solutions aux fournisseurs de Cloud en se rappelant que les plus gros cherchent à développer leurs propres solutions
  • Bâtir des partenariats avec des fournisseurs de Cloud à base de programmes et de certification (ex Sunguard availability services , cloud market place IBM)
  • Proposer des solutions en mode cloud hébergées dans les data centers du constructeur ou de l’éditeur ( ex Meraki et Webex de Cisco)
  • Devenir un fournisseur de Cloud à part entière ( ex SoftLayer d’IBM , Azure de Microsoft , le cloud public de HP)

Avec comme contrainte supplémentaire pour les éditeurs et les constructeurs de potentiellement rentrer en compétition avec leur réseau de partenaires.

La vie d’un leader n’est décidemment pas de tout repos. Le rythme des évolutions technologiques, la pression économique et l’émergence de nouveaux modèles économiques redistribuent les cartes en permanence. Ils doivent se battent à présent sur plusieurs fronts et avoir à l’œil les startups qui deviendront les leaders de demain.

Informations complémentaires:

DevOps expliqué simplement par un opérateur de Cloud

Le mouvement DevOps recouvre des méthodes, des logiciels et une culture. Pour comprendre simplement ce que c’est, rien ne vaut les explications d’un utilisateur.

Les applications, vitrines de l’entreprise. Démocratisées par de petites icones sur nos smartphones, les applications font l’objet de toutes les attentions des entreprises. Mais proposer une nouvelle application rapidement n’est pas suffisant, il faut pouvoir la faire évoluer et lui apporter de nouvelles fonctionnalités afin qu’elle soit toujours en phase avec le marché. C’est vrai pour les applications grand public mais c’est également vrai pour les applications sur lesquelles reposent toutes les fonctions de l’entreprise.

Des entreprises agiles si les applications le permettent. L’agilité d’une entreprise dépend en partie de l’agilité de ses applications et elle doit faire face à un dilemme. D’une part assurer un service de qualité qu’on obtient avec de la stabilité et d’autre part innover en apportant de nouvelles fonctionnalités sources potentielles d’instabilité logicielle. Ce dilemme on le retrouve entre les équipes de développement et les équipes de production qui ont toutes les deux, et pour de bonnes raisons, des objectifs différents voire contradictoires. C’est  pour gommer ce dilemme qu’est né en 2009 le mouvement DevOps (contraction de Developpement et Operation).

DevOps expliqué par un utilisateur :  Pour comprendre à quoi sert DevOps j’ai eu le plaisir de m’entretenir avec un utilisateur, Yannick Foeillet d’OutScale, pour qu’il me fasse part de son retour d’expérience en tant que fournisseur d’infrastructure Cloud et en tant qu’éditeur du logiciel d’orchestration Tina.  (Lire l’article DevOps, le lien entre développeurs et utilisateurs)

Dans cette vidéo d’environ 8 minutes, Yannick explique comment DevOps permet de faciliter laculture_DevOps_perso1b communication entre les 3 services concernés : Le développement du logiciel (factory), l’organisme de contrôle qualité (Intégration continue) et la production. Le tout dans une optique de déploiement continu pour réduire le temps de mise en production de nouvelles fonctionnalités.

Yannick évoque également la notion « d’infrastructure as a code » que l’on pourrait traduire par le pilotage de l’infrastructure avec du code. Une méthode utilisée à la fois pour déployer une infrastructure avant d’y installer une application mais également pour préparer de manière industrialisée les déploiements d’infrastructures sur plusieurs régions (France, US, Asie).

Pour terminer Yannick nous dresse un panorama des principaux logiciels qu’il utilise pour DevOps en expliquant leur rôle. (voir aussi l’infographie à droite)

 

 

 

La relation client sublimée par le big data.

 

L’expérience Client est plus que jamais une préoccupation des entreprises. Les solutions de Big Data, associées aux technologies de machines Learning et de Cloud, ouvrent d’intéressantes perspectives.

2-Life-of-Pix-free-stock-photos-hands-desk-swatch-Damian-zaleski

On ne parle plus que de l’expérience client, autrement dit on cherche à créer des émotions et des sentiments lors de l’utilisation d’un produit ou d’un service. Avec l’expérience client on est souvent dans le domaine de l’irrationnel car environ 85% de nos actions sont irrationnelles. Nos émotions, nos valeurs, nos expériences influencent très largement notre acte d’achat. Comment dès lors anticiper les attentes des clients ?

Les outils de CRM (Customer Relationship Management) analytiques se limitent encore trop souvent à analyser des faits précis comme les produits achetés ou les montants dépensés pour en déduire des préférences possibles en les corrélant à des segmentations basées sur des critères relativement figés (age, sexe, lieu, profession etc..). Dans un contexte économique difficile où les modèles économiques se renouvellent, une relation individualisée et augmentée avec le client devient essentielle.

Interagir avec le client et devancer ses désirs  , dans un environnement de plus en plus omni canal, seront les enjeux du CRM d’aujourd’hui. Les consommateurs attendront des marques une expérience unique et personnalisée.

Ce qui paraissait encore impossible il y a quelques années devient progressivement accessible à toutes les entreprises quel que soit leur taille. Le Big Data est passé par là avec un écosystème qui s’élargit pour produire des solutions adaptées à chaque domaine. Certains se posent encore des questions sur l’usage du big data, pourtant nous utilisons tous le big data. Chaque fois que nous faisons des recherchent sur internet, des solutions de type big data brassent des quantités gigantesques de données pour nous donner instantanément des réponses de plus en plus pertinentes.

Compléter le CRM avec les informations des réseaux sociaux : En utilisant les réseaux sociaux nous donnons à ces sociétés (Facebook, Twitter, Linkedin, Instagram etc…) accès à nos données personnelles qui cumulées constituent de gigantesque bases d’informations que ces acteurs du Net monétisent. Grace aux échanges conversationnels, les réseaux recèlent une mine d’informations sur l’attitude des personnes.

L’attitude concerne les raisons qui peuvent motiver un acte (un achat par exemple) alors que le comportement se déduit en général à partir de ce que le client a acheté. Des outils sont désormais disponibles pour extraire ces données non structurées des réseaux sociaux. Dans le domaine du Big Data les premiers exemples viennent des géants de l’internet et se démocratisent ensuite. eBay avait par exemple indexé plus de 40 millions de blogs et de forums dans le cadre d’un programme décisionnel relatif aux media sociaux. On passe ainsi d’un CRM comportemental à un CRM attitudinal.

Les progrès du machine learning : Encore un nouveau terme, de plus en plus associé au big data. Le machine learning utilisent des types d’algorithmes qui présentent l’avantage de ne pas reposer sur des règles prédéfinis dont on connait le résultat à l’avance. Le machine Learning,comme son nom l’indique, regroupe les formes de programmes qui apprennent en permanence et s’enrichissent de l’expérience de chaque utilisateur (ou client), de processus ou de machines.

Combiner quantités massives d’informations (le big data) et algorithmes d’apprentissage (machine learning) permet de trouver des solutions à des problèmes inenvisageables auparavant. La pertinence des recherches ou des recommandations dépendent de cette association big data – machine learning et de la qualité des algorithmes et des données. C’est ainsi l’on peut réellement prédire le comportement des clients et proposer des offres qui devanceront leurs désirs

Des solutions big data as a service dans le cloud : Souvent le Big data apparait complexe et il peut vraiment l’être. Deux approches sont possibles.

  • Au sein de l’entreprise : La taille de l’entreprise, la nature du projet (un cas d’usage ou un contexte particulier) et des compétences disponibles peuvent justifier le développement d’une solution « on premise ». Certains commencent à penser « stratégie » en construisant un réservoir de donnée (data lake ou data hub) fédérant les données de l’entreprise et accessibles par l’ensemble des directions métiers. Les solutions hadoop constituent généralement dans ce cas-là la colonne vertébrale de l’architecture.
  • Dans le cloud : On choisit une solution correspondant à son(ou ses) cas d’usages sans même se poser la question de savoir si c’est ou non du big data. On est là dans une approche de type Software as a Service. On utilise un logiciel dans le cloud qui exploite une plateforme de big data avec éventuellement du machine learning. Grandes entreprises ou entreprises de taille moyenne, c’est un moyen rapide de profiter des avancées technologiques.

Dans le débat d’orientation sur la stratégie numérique, Axelle Lemaire a mentionné l’économie de la donnée. Nous y sommes avec le Big Data et le machine Learning. (Lire le billet Une République numérique pour la France)