Le consommateur en quête de reconnaissance ….vocale et visuelle. #IA

Smartphones en poche, nous sommes devenus impatients, exigeants voire paresseux. Tout est à portée de main. Les recherches sur le web sont devenues des réflexes. Rapides et efficaces pourquoi s’en priver. Mais pourquoi faire encore l’effort de taper des mots clés sur un clavier ridiculement petit quand on sait qu’on tape en moyenne 40 mots par minute alors qu’on peut en prononcer 150 oralement dans le même temps. Et puis bien souvent nos mains sont déjà occupées à bricoler, cuisiner, conduire …L’intelligence artificielle arrive à point nommé pour simplifier l’expérience utilisateur par de nouveaux modes de recherche. Car le point fort des systèmes « autoapprenant » de machine learning sont leurs aptitudes à reconnaitre du son, de la voix et à présent des objets et du texte dans des images.

Marketeurs, intéressez-vous rapidement à la recherche vocale et visuelle. Il n’est pas question de devenir datascientist ou codeur mais d’analyser ces tendances et d’en mesurer les conséquences sur la relation client. En 2020 les interfaces vocales vont devenir un outil central dans la relation client. 50% des interactions se feront vocalement et majoritairement à partir des mobiles.  La montée en puissance des assistants vocaux est significative. D’abord présents sur nos ordinateurs portables et nos smartphones (Google assistant, Siri, Cortana ..), ils se livrent une guerre sur le terrain des enceintes intelligentes avec en tête Amazon Echo et s’invitent à présent dans tous les équipements. Le logiciel d’intelligence artificielle d’Amazon (Alexa) équipe près de 20.000 objets de 3.500 marques. Tous les constructeurs automobiles font des accords pour pouvoir équiper leurs véhicules d’assistants vocaux. Récemment Google a signé un partenariat avec le groupe Renault Nissan Mitsubishi qui fera de Google Assistant la principale interface d’interaction entre le conducteur et son véhicule. Les interfaces vocales vont modifier les secteurs et les usages de consommation et les marques risquent de passer totalement inaperçues. Avec les recherches vocales, plus question d’afficher les premiers résultats. Il faut être en haut de la liste en « position zéro ».  Les équipes marketing vont devoir rapidement adapter leur stratégie de SEO (Search Engine Optimization) pour se rapprocher autant que possible des questions formulées en langage naturelle par les clients.

La reconnaissance visuelle pour fluidifier les achats et capter les achats d’impulsion. L’intelligence artificielle est aujourd’hui suffisamment puissante pour identifier des objets dans une photo. Une simple photo se transforme en une mine d’or pour le marketing et des applications de plus en plus nombreuses s’approprient cette fonction pour simplifier l’expérience du consommateur.  Vous avez un coup de cœur pour un objet mais vous ne connaissez ni son nom, ni sa marque et encore moins son prix. Qu’à cela ne tienne prenez une photo, la reconnaissance visuelle fera le reste. Vous avez sans doute vu l’accord passé entre Amazon et Snapchat. Vous photographiez un objet qui vous plait, Snapchat analyse l’image, l’envoie à Amazon qui met en œuvre de puissants algorithmes et vous propose un produit identique ou similaire avec une vignette contenant les caractéristiques. Vous n’avez plus qu’à commander. Simple comme bonjour. Finies les lourdes navigations dans les gros catalogues produits qui lassent le consommateur et contredisent la simplicité du digital.  Dans l’immensité du Web le mode de recherche doit se réinventer et cela passe sans doute par l’intelligence artificielle. Pinterest et Instagram ont lancé leurs fonctionnalités de recherches visuelles. eBay a déjà dévoilé deux outils de recherche visuelle (eBay Image Search etFind it on eBay) en octobre 2017. Amazon dispose d’Amazon visual search. Quant à Google, son produit Google Lens est disponible en France depuis mai 2018 et vous permet en pointant votre smartphone sur un objet, une plante ou un animal d’obtenir toutes sortes d’informations. Une espèce d’encyclopédie interactive quasiment relié à notre cerveau qui jouerait le rôle de béquille de culture générale.

Les équipes marketing ont intérêt à se mettre dans les starting blocks pour ne pas laisser le champ libre aux géants du numérique. Développement ou partenariat peu importe il faut déjà penser à développer une stratégie de recherche vocale et visuelle. La technologie est au point et progresse constamment. La Redoute s’y est mis des 2014 et propose de rechercher des produits dans son catalogue vocalement ou par reconnaissance de photo.

 

 

 

 

 

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Hôtellerie et restaurateurs à la reconquête des données clients.

L’hôtellerie et la restauration seront-ils les grands perdants du digital ? Les agences de réservation en ligne et les comparateurs de prix les ont dépossédées de leurs données clients. Tout n’est pas perdu pour autant mais il est urgent d’agir. En lançant le premier salon français Food Hotel Tech, Karen Serfaty compte bien sensibiliser le marché et contribuer à créer un écosystème adapté. Karen, que j’ai rencontrée, m’a expliqué pourquoi il était crucial d’agir rapidement.

Les agence de réservations en ligne ont pris le pouvoir. Sur le marché des réservations en ligne, un acteur comme Booking.com règne en roi. Plus de 80% des réservations en ligne passent par lui. Il est incontournable sur Internet et les hôtelleries doivent bon gré malgré composer avec pour assurer le remplissage de leurs chambres. Au passage ils paient un large tribut qui diminue leurs marges d’environ 30%. Mais comment faire autrement. Impossible de ne pas figurer sur ces plateformes de réservations sans se condamner à perdre des clients. La France est la 1ère destination touristique avec ses 85 millions de visiteurs enregistrés l’an dernier pourtant la croissance n’est plus au rendez-vous. Dans le secteur hôtelier, elle ralentit et ne progresse plus que de 2,1%… Dans la restauration, c’est même pire : le chiffre d’affaire du secteur a baissé d’environ 4,5% l’an dernier ! Comment s’explique ce contraste ? Les hôteliers et les restaurateurs doivent se mettre à l’heure de la révolution digitale pour concurrencer les nouveaux acteurs du numérique comme AirBnB. Les plateformes de réservation n’ont pas de limite à l’image d’AirBnB qui évolue progressivement vers une plateforme de voyage et a annoncé récemment vouloir proposer de la réservation de restaurants.

Celui qui détient les données clients règne en maitre.  La présence sur Internet n’est plus une option. Faute de l’avoir anticipé l’hôtellerie a laissé la porte ouverte aux  Booking.com et autres Expedia qui s’y sont engouffrés en offrant au passage un éventail de services qui simplifie la recherche et le choix pour les usagers. Plus grave que la perte de marge, l’hôtellerie a perdu le lien inestimable avec le client : ses données.  Booking.com a compris depuis longtemps comme tous les acteurs du Net que celui qui détient les données client possède un pouvoir considérable en termes de marketing. Il se garde bien de communiquer ses précieuses données aux hôteliers qui ne possèdent péniblement que 25% des adresses email !!! Comment valoriser ses services, en promouvoir des nouveaux, cibler ses clients, personnaliser et contextualiser les messages sans une parfaite connaissance client ? Les acteurs du net sont experts dans l’analyse des données et du marketing digital. Ils maitrisent parfaitement le big data et le machine Learning.  Des géants de l’hôtellerie, comme Accor avec ses 36.000 hôtels dans le monde, pensaient être à l’abri.  Le groupe Accor a compris tardivement la menace et a développé en 2014 un plan « Leading Digital Hospitality » sur cinq ans. Il est urgent de se réapproprier la données clients et de développer de nouveaux services. L’un ne va pas sans l’autre.

Le numérique s’est invité également à la table de la restauration.   Pour l’instant des sociétés comme Deliveroo, Foodora et UberEats jouent la carte du gentil partenaire qui augmente le chiffre d’affaire des restaurants en livrant les plats à domicile. Ce serait une erreur de les confondre avec de simples livreurs. Eux aussi captent les données et les analysent méticuleusement. Ce ne sont pas de simples intermédiaires, ils recommandent les restaurants et les plats en fonction des goûts et des habitudes des clients et proposent de vrais services. On commence aussi à voir des tentatives de créer des tables chez l’habitant. Une tendance qui demande à trouver son public mais qui sait….. Les comportements changent. Le bouche à oreille continue à exister certes mais il prend de plus en plus souvent la forme de recommandations sur internet ou d’applications spécialisées. Les nouvelles générations y ont recours quasi systématiquement.

S’approprier le numérique est la meilleure défense. Les start-up du digital ont déstabilisé le marché de l’hôtellerie et de la restauration mais le numérique peut devenir une opportunité à condition de se retrousser les manches rapidement. La voie est ouverte à toutes les formes d’innovations et les start-up peuvent être vues comme de véritables créateurs de valeur pour les hôteliers et les restaurateurs. Pour Karen Serfaty, « prendre le bon virage
technologique sera déterminant pour faire face à une concurrence accrue dans les marchés de l’hôtellerie et de la restauration, les piliers du secteur touristique ». Pour aider hôteliers et restaurateurs à inverser cette courbe, Karen Serfaty a décidé de lancer Food Hôtel Tech, un événement rassemblant experts, entreprises innovantes et poids lourds des deux secteurs. « Le but du salon est de faciliter les rencontres entre tous ces acteurs pour permettre aux établissements de reconquérir leurs clients perdus », explique-t-elle. « Mais aussi attirer de nouvelles populations grâce à la création de nouveaux services ! » Traitement optimisé des données, dématérialisation des commandes, parcours client simplifié : les professionnels pourront trouver dans les allées du salon l’innovation idéale pour accélérer leur activité rapidement. Et conserver une longueur d’avance sur les trublions du digital.

C’est à ma connaissance le premier salon BtoB dédié aux innovations Tech et Digital dans l’hôtellerie et la restauration. Bonne nouvelle pour les lecteurs du blog vous pouvez vous obtenir un badge gracieusement pour le salon « Food Hôtel Tech » en utilisant le code FHTMAG lors de l’enregistrement sur le site. Première édition du salon les 28 et 29 novembre 2017 à Paris

 

 

 

 

Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »

 

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Amazon voit son avenir avec de l’intelligence artificielle

L’intelligence artificielle suscite de nombreux débats. Elle est déjà largement utilisée et les GAFA comptent dessus pour améliorer l’expérience client et offrir de nouveaux services tout particulièrement avec la montée en puissance des objets connectés. L’exemple d’Amazon illustre parfaitement l’enjeu lié à la maitrise de l’intelligence artificielle pour s’imposer dans une économie façonnée par le numérique.

alexa-blog

Le machine learning au cœur des moteurs de recommandations . Depuis sa création en 1994 Amazon a su tirer parti du développement d’Internet dans les années 2000 pour développer un modèle particulièrement performant de commerce en ligne.  Régulièrement Amazon adopte de nouvelles technologies pour améliorer l’expérience client et approfondir sa connaissance du client. Son moteur de recommandation génère de 30 à 40 % de son chiffre d’affaire en e-commerce. Pour obtenir un tel résultat Amazon fait appel à des technologies de Machine Learning (des systèmes qui apprennent par eux mêmes avec l’expérience) qui lui permettent, grâce à une personnalisation poussée des recommandations, d’augmenter la valeur et de réduire les coûts. Pour continuer à perfectionner son moteur de recommandation et les techniques de reconnaissance du langage, Amazon mise sur la collaboration des développeurs de l’open source. Il a donc mis son logiciel de machine Learning DSSTNE (Deep Scalable Sparse Tensor Network Engine) en open source disponible sur GitHub sous license open source Apache 2.0 . Ces technologies de Machine Learning sont complexes et requièrent généralement des compétences spécialisées et des architectures informatiques puissantes. Pourtant, quelque soit la taille de leurs entreprises, les développeurs peuvent accéder aux mêmes technologies de machine learning que celles utilisées par les spécialistes de la donnée d’Amazon. Le « Service Amazon Machine Learning » est accessible dans le cloud AWS (Amazon Web Service) qui simplifie l’usage de ces technologies et les rend accessibles à des développeurs sans qu’ils aient besoin de maitriser des algorithmes complexes.

L’achat en magasin fluidifié par le deep learning. Après le e-commerce, Amazon veut s’imposer également sur le marché des magasins physiques ou les acteurs sont nombreux et bien installés. Une stratégie qui confirme que le magasin physique est loin d’être mort, une étude récente indique même que 98% de la génération Z font leur course en magasin . Pour réussir son pari Amazon mise la encore sur l’emploi des nouvelles technologies pour révolutionner les magasins de la grande distribution alimentaire. Amazon Go propose une nouvelle approche de l’achat en magasin qui supprime  le paiement sur place, et par conséquent les files d’attentes lors du passage en caisse, grâce à la mise en œuvre de capteurs, de système de reconnaissance d’images et bien sûr d’une bonne dose d’intelligence artificielle avec du deep Learning (une variante plus poussée du machine Learning). Par la même occasion Amazon continue d’engranger un grand nombre d’informations sur les habitudes d’achat des consommateurs qui viendront alimenter son moteur de recommandation. Un cercle vertueux ou expérience utilisateur et connaissance client vont de pair.

Piloter les objets connectés et les applications par commande vocale. Amazon a vite compris que les objets connectés représenteraient à l’avenir un enjeu considérable. On retrouve là encore l’utilisation de l’intelligence artificielle avec le lancement en 2014 d’Alexa un assistant personnel intelligent répondant à des commandes vocales via l’enceinte Echo. Plutôt que de proposer une solution fermée, Amazon a préféré jouer l’ouverture en permettant d’accéder gratuitement à « Alexa Voice services ». Une manière d’accélérer l’adoption et la diffusion de sa technologie. De nombreux constructeurs souhaitant créer une interaction vocale entre leurs équipements et les utilisateurs peuvent ainsi tirer facilement parti de la technologie d’Alexa. Amazon a marqué les esprits avec Alexa lors du CES 2017. Alexa pourrait nous faire oublier l’existence même des applications et abandonner nos multiples télécommandes qu’on finit par égarer. Tout piloter par simple instruction vocale, voici la promesse alléchante d’Amazon. ia-et-iotAccenture affirme d’ailleurs dans une étude que l’intelligence artificielle sera le nouvel interface utilisateur. La technologie Alexa est déjà présente dans un réfrigérateur LG, des aspirateurs Neato, une machine à laver Whirlpool ou bien encore dans un smartphone Huawei. L’adoption d’Alexa par Huawei dont les smartphones fonctionnent sous Android démontre la volonté d’Amazon de s’ouvrir à un maximum d’utilisateurs en concurrençant directement Apple avec Siri. Un univers connecté commence à se profiler, les objets de nos domiciles ne sont pas la seule cible d’Alexa, nos voitures pourront elles aussi embarquer cette technologie pour dialoguer avec un habitat intelligent. Ford et Volkswagen travaillent déjà avec Amazon. Assis confortablement à bord de son véhicule on pourra, sans lâcher son volant, tout aussi bien rechercher des informations sur Internet que piloter les objets connectés de son domicile ou la porte de son garage.

La commande vocale et la reconnaissance du langage naturel seront certainement les grands enjeux des objets connectés. Amazon n’est pas le seul à s’intéresser à ce sujet, Google 5google Now), Apple (Siri) et Microsoft (Cortana) travaillent également d’arrache pied à coup de développement et d’acquisition.

Lire également :

 

 

 

 

 

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :

Avec l’intelligence artificielle l’homme se lance un défi à lui même

L’affrontement entre AlphaGo et le champion mondial du jeu de go a mis en lumière les technologies d’intelligence artificielle et tout particulièrement le Deep Learning. La victoire de la machine sur l’homme semble étonner. Pourtant il y a longtemps que l’homme construit des machines qui lui servent à décupler ses capacités physiques et intellectuelles et personne ne s’étonne qu’on ne puisse pas courir plus vite qu’une voiture ou calculer plus vite qu’une calculatrice.

IA le match

L’intelligence artificielle est déjà partout. La médiatisation du deep learning autour de cette compétition de jeu de go ne doit pas nous faire oublier que ces systèmes d’auto apprentissage (machine learning), dont le deep learning est un des aspects les plus poussés, sont déjà très présents dans notre quotidien. Ces derniers temps on a eu tendance à se focaliser sur les robots intelligents qui permettent de matérialiser plus facilement nos craintes et qui nous rappellent bon nombre de films qui en leur temps n’étaient encore que de la science-fiction. Le summum de ces robots prend une forme humaine et apprend à imiter les sentiments jusqu’à donner l’impression de ressentir de l’empathie. Mais il ne faudrait pas que le côté anthropomorphique nous fasse oublier que l’intelligence artificielle s’est déjà installée dans notre vie.

L’intelligence artificielle est avant tout du code informatique et des algorithmes. Ils sont d’autant plus efficaces qu’ils peuvent se nourrir de quantité de données importantes et apprendre par eux même. Cédric Villani, lauréat de la Médaille Fields et brillant mathématicien français, pense d’ailleurs que pour encore longtemps plus il y aura d’intelligence artificielle et plus il y aura besoin de mathématiciens car dans un contexte d’intelligence artificielle les données doivent être modélisées pour être exploitées. L’intelligence artificielle n’est pas nouvelle en soi et le film « Imitation Game » nous a rappelé que dans les années 40 Alan Turing s’y intéressait déjà. Il pensait qu’avec les évolutions technologiques la machine serait un jour capable d’imiter l’intelligence humaine. Les progrès accomplis par les ordinateurs et le stockage ont permis de rendre possible techniquement et financièrement des calculs qui auraient été inenvisageables auparavant. Mais ce n’est qu’au début des années 2010 que le machine learning avec sa capacité d’apprendre par lui même est rentré dans une phase quasi industrielle quand les Géants du numérique s’en sont réellement emparés.

L’intelligence artificielle pour reconstruire la relation client. Concrètement aujourd’hui nous activons des fonctions de machine learning dès que nous effectuons une recherche sur Google ou que nous ouvrons une page Facebook ou Linkedin. Ces réseaux sociaux utilisent généralement le machine learning pour nous proposer le contenu le plus adapté à notre profile et à nos goûts. Chaque fois notre environnement est personnalisé dans son apparence, dans ses suggestions et dans les bannières qui apparaissent sur notre écran. Ces systèmes apprennent de nos comportements  (nos recherches, nos partages, nos likes, nos achats etc..) et agissent en conséquence. L’informatisation a quelque peu déshumanisé les relations entre l’entreprise et le consommateur. On voit bien qu’on cherche aujourd’hui à compenser ce phénomène par un service hyper personnalisé grâce à des moteurs de recommandations basés sur du machine learning. Le but : recréer une nouvelle forme de relation client ou le manque de relation humaine est censé être compensé par un service plus rapide et plus adapté à l’attente du client. Cela commence par des lettres d’information, des bannières, des sites web, des offres promotionnelles personnalisés mais ce ne sont que les premières étapes. Le spécialiste du e-commerce Amazon devrait 30% de ses ventes à l’efficacité de ses algorithmes de recommandations.

Une expérience utilisateur en langage naturel. L’enjeu est bien de créer les conditions d’une conversation écrite ou verbale la plus naturelle possible. Les technologies NLP (Natural Processing Language) ont de beaux jours devant elles.  La reconnaissance de texte, de la voix, de l’image et de la vidéo va prendre de plus en plus d’importance pour rendre l’interaction avec l’utilisateur , et donc l’expérience utilisateur, les plus parfaites possibles. Dans ces domaines de la reconnaissance le machine learning est incontournable pour atteindre de bons résultats. Les « assistants personnels » et les « conciergeries virtuelles » préfigurent cette nouvelle phase. Tous les acteurs du numérique s’y mettent et procèdent à des acquisitions pour bruler les étapes. En octobre 2015 Apple rachète les sociétés VocalIQ  et Perceptio tous deux spécialistes du machine learning. Le premier dans la reconnaissance vocale, le deuxième dans la reconnaissance de photos. En 2014 Google rachète DeepMind qui comme on le sait a mis au point Alphago. Facebook a créé son centre de recherche d’intelligence artificielle FAIR (Facebook Artificial Intelligence Research) avec un centre à Paris annoncé en juin 2015. Quant au géant chinois Baidu il a également son Institut de Deep Learning.

La course aux « assistants personnels numériques ». Chacun le sien. Google avec Google Now, Microsfot avec Cortana, Apple avec Siri, Amazon avec Alexa et Echo et Facebook avec M. Certains sont plus « intelligents » que d’autres mais tous sont appelés à évoluer et à s’améliorer grâce à l’intelligence artificielle . Le leader chinois du search Baidu voudrait faire du téléphone mobile, avec l’aide du deep learning, un véritable assistant personnel qui comprend l’utilisateur et lui fournit des informations utiles et pertinentes. Il faut dire qu’avec l’explosion du téléphone mobile, le deep learning devient particulièrement intéressant pour traiter les photos. Chacune contient des données pertinentes. En décryptant les images on comprend mieux les centres d’intérêts des utilisateurs. Au-delà des « assistants numériques » se profilent toute une kyrielle possible de conseillers virtuels dans tous les secteurs. Dans l‘hôtellerie IBM collabore avec la chaine d’hôtels Hilton pour tester un concierge robot utilisant la technologie watson pour assister le personnel de l’hôtel. Certaines banques commencent à utiliser des robots logiciels (robo-advisors) comme conseillers financiers. Ces conseillers virtuels analysent le profil de l’investisseur et lui propose D es produits financiers correspondant à ses objectifs. On peut s’attendre au développement de ses conseillers virtuels (financiers, juridiques, médicaux)  qui prendront peu à peu de l’autonomie et acquerront l’usage de la parole. Facebook devrait également officialiser en avril son « Bots Store ». Une offre qui donnera la possibilité aux utilisateurs de Messenger de chatter avec des robots logiciels (bots)  conçus par des marques ou des services.

Le Machine Learning se démocratise. N’est pas Google qui veut. Est-ce pour autant que l’intelligence artificielle est réservée aux entreprises avec de gros moyens et de nombreux experts du domaine ? Pas vraiment à en croire les nombreuses offres de machine learning (Amazon Web Services,  Microsoft Azure, SalesForce , IBM et de nombreuses startup..) qui s’appuient sur le cloud pour adresser les entreprises de toutes tailles. HPE s’y est mis à son tour en annonçant le 11 mars  Haven On Demand pour fournir de l’apprentissage machine sous forme de service dans le cloud Microsoft Azure. Tout dernièrement Mastercard a intégré la technologie Watson d’IBM pour offrir des services d’intelligence artificielle aux petits commerçants.

Du téléphone mobile aux voitures autonomes. Avec les objets intelligents, les véhicules intelligents et les villes intelligents nous pouvons nous projeter dans  un monde futur ou nous nous adresserons à notre environnement par la voix voire par la pensée. De la science-fiction sans doute pas car des expériences ont déjà démontré que l’on pouvait commander des chaines de télévision par les ondes du cerveau. Beaucoup de recherche reste encore à faire mais les progrès sont rapides comme dans le cas des voitures autonomes par exemple. Un des problèmes à résoudre concerne la sécurité des piétons. Pour éviter les piétons il faut identifier rapidement l’obstacle et agir tout aussi rapidement. Des systèmes de détection de piétons à base de vidéo sont en cours d’expérimentation et les progrès sont rapides.  Il faut réussir à exécuter toutes les opérations rapidement. En 2015 Google expérimentait des systèmes de computer vision et de deep learning et avait réussi à identifier un piéton en 0,25 sec . Pour que le système soit utilisable dans la vie réelle il faut que la detection s’effectue en 0,07 sec.

La compétition se déplace sur le terrain de l’intelligence artificielle et de la réalité virtuelle. Quasiment tous les secteurs qui s’intéressent aux big data sont concernés par le machines Learning  que ce soit pour l’analyse de sentiments (e-réputation), la détection de fraude, la maintenance préventive, l’analyse de risques bancaires, la reconnaissance du langage, d’image ou de vidéo et bien d’autres encore.  La beauté des innovations technologiques c’est qu’elles s’associent pour créer de nouvelles expériences utilisateurs. L’autre sujet du moment concerne la réalité virtuelle et curieusement des sociétés comme Facebook  qui s’intéressent à l’intelligence artificielle s’intéressent également à la réalité virtuelle. L’avenir nous réserve encore bien des surprises. Par le biais  de l’intelligence artificielle l’homme se lance un défi à lui même.

Pour ceux qui veulent approfondir le fonctionnement d’Alphago de DeepMind je vous conseille la lecture du billet : Google DeepMind’s AlphaGo: How it works

formule gagnante du numérique: Plateformes et données

L’économie numérique est désormais incontournable. Malheureusement la France accuse déjà un certain retard dû à des réglementations sectorielles trop rigides et à une structure de financement peu adaptée selon une note du Conseil d’Analyse Economique (CAE) sur l’économie numérique. Pour appréhender l’enjeu du numérique il convient de comprendre sur quels mécanismes se sont créées les nouvelles sociétés numériques et quels en sont les impacts sur l’emploi. Deux points traités dans la note du CAE qui a été exposée, le 9 novembre par l’économiste Anne Perrot, lors de la présentation du projet de loi « nouvelles opportunités économiques » (NOE) par le ministre de l’économie Emmanuel Macron.

CAE

Airbnb aurait généré 2,5 milliards d’euros en France sur un an. C’est à l’occasion de son évènement « Airbnb Open », qui se tenait à Paris du 12 au 14 novembre, que la plateforme de réservation a révélé ce chiffre ainsi que la création de 13 000 créations d’emplois liés aux revenus des hôtes et aux dépenses des utilisateurs de la plateforme (lire l’article ). Si ces chiffres sont avérés cela pourrait rassurer ceux qui s’inquiètent de l’arrivée de ces nouveaux modèles d’affaires et de leur impact sur l’économie et l’emploi.  Raison de plus de s’intéresser à la note du CAE.

Le succès du numérique : Plateformes d’intermédiation et données. Les sociétés numériques emblématiques ont cru de manière fulgurante. Les auteurs de la note du CAE expliquent les rendements croissants de ces nouvelles sociétés par l’utilisation d’immenses plateformes d’intermédiation et par une exploitation poussée des données avec des algorithmes sophistiqués et des systèmes de machine learning. Les sociétés numériques qui se sont imposées avec succès peuvent ainsi opérer sur une très grande échelle et instaurer une relation de confiance entre les offreurs de services et les clients. Dans le même temps elles n’ont de cesse d’améliorer leurs performances, leurs prix et leurs services grâce à l’analyse des données. Un modèle qui déclenche un effet boule de neige : une amélioration permanente des services attirant des clients de plus en plus nombreux qui contribuent à leur tour à faire connaitre ces services. C’est ce que la note du CAE appelle l’effet réseau, un effet démultiplié comparé aux entreprises traditionnelles.

Le numérique entre consolidation et concurrence. Avec le numérique il ne suffit pas d’avoir une idée géniale. Le modèle économique devient d’autant plus efficace que les entreprises atteignent de grandes tailles. Celles qui dominent le marché ont réalisé une croissance exponentielle et entrainé la consolidation du marché à leur avantage. Mais dans le numérique rien n’est acquis et la note du CAE constate que « le monopole d’une entreprise est moins durable dans l’économie numérique ». La concurrence est particulièrement intense. Les grandes réussites créent des émules qui rêvent de devenir les Google ou les Criteo de demain. Les grandes sociétés du numérique sont condamnées à innover en permanence. En créant cette relation directe entre offreurs et clients elles ont créé une dépendance à l’utilisateur. La confiance et l’exigence sont au cœur du modèle économique. Pour retenir un utilisateur habitué à comparer et à tester les offres sur internet il n’y pas d’autre issue que d’offrir en permanence la meilleure expérience utilisateur possible.

L’économie numérique c’est également l’économie de la donnée. Les sociétés numériques savent mieux que quiconque la valeur des données. Elles sont passées maitre dans l’utilisation du Big Data pour connaitre parfaitement les comportements et les préférences des utilisateurs. Elles ciblent ainsi mieux leurs utilisateurs et peuvent leur proposer des offres parfaitement adaptées et personnalisées. La note du CAE rappelle que « au-delà des services qu’elles offrent, les plateformes créent aussi de la richesse en permettant la collecte d’une masse considérable de données qui peuvent être valorisées sur différents marchés. ». Ces entreprises sont de devenues véritables professionnels du traitement des données massives et en tirent parti pour se diversifier sur d’autres marchés.

 L’économie numérique déplace les emplois. Les révolutions industrielles et technologiques chamboulent le monde de l’emploi. Les innovations technologiques créent de nouveaux emplois et nécessitent de nouvelles compétences mais elles contribuent également à la destruction d’emplois traditionnels. Le numérique permet l’apparition rapide de nouveaux modèles d’affaire qui remettent en question l’ordre établi de l’emploi. Il est donc naturel de constater une légitime inquiétude face à ce que les auteurs de la note appellent  « la disparition tendancielle d’un certain nombre de professions » et qu’ils classifient de la façon suivante :

  • L’automatisation : certaines tâches particulièrement celles «  routinières  » se prêtent naturellement à l’automatisation
  • L’apprentissage: avec le développement de l’intelligence artificielle, en particulier des algorithmes d’apprentissage, l’automatisation commence à s’étendre à des professions plus qualifiées fondées sur la maîtrise de grandes bases de connaissances (avocat, docteur)
  • Le report sur l’utilisateur final: exemple avec le e-comerce qui court-circuite le vendeur.
  • Le report sur la multitude: exemple wikipedia . Ce sont les internautes qui jouent le rôle de rédacteurs bénévoles de l’encyclopédie en ligne.
  • La concurrence des amateurs : exemple AirBnB

Les emplois du numérique ne se limitent pas à des emplois spécialisés comme les data-scientists mais le modèle privilégie les fonctions assurant des interactions humaines au détriment des tâches routinières. La note du CAE prévoit une polarisation de l’emploi avec des postes à forte compétence et bien rémunérés et d’autre part des emplois peu qualifiés mais non routiniers faiblement rémunérés

La note du conseil d’analyse économique a été rédigée par Nicolas Colin, Augustin Landier, Pierre Mohnen et Anne Perrot. Dans ce billet je me suis volontairement intéressé qu’à l’aspect analyse de l’économie numérique . La note recommande de créer un droit à l’expérimentation, de développer les systèmes de notation par les clients et de généraliser le statut d’auto-entrepreneur. Je vous laisse découvrir les préconisations  proposées pour réussir sa transformation numérique et produire des sociétés numérique efficaces. lire la note complète du CAE en PDF

 

Les plateformes de supervision deviennent à leur tour «data driven» et intègrent le machine learning

L’intelligence artificielle ne cesse d’étendre ses domaines d’applications. Dernier en date la supervision des moyens informatiques par les fournisseurs de services managés (MSP). Spécialiste de la supervision, LOGICnow a consacré 18 mois de développement pour intégrer le machine learning au produit LOGICcards qui exploite les données de millions d’équipements supervisés dans une intelligence collective.

supervision

Le numérique crée une dépendance avec les technologies et les systèmes informatiques. La mutation des entreprises vers le numérique entraine dans son sillon une multitude de changements qui affectent de manière tangible la société et l’économie. Le numérique se nourrit de la donnée qui devient le vecteur de la transformation et l’élément fondateur des nouveaux services et des nouveaux modèles d’affaires. Dans notre société moderne qui se veut axée sur les services, la gestion des moyens informatiques s’avère de plus en plus complexe et couteuse. Nombreux sont ceux qui poussent la logique jusqu’au bout en considérant l’informatique elle-même comme un service qu’ils confient à des fournisseurs de cloud et de services managés MSP (Managed Services Provider). Un moyen efficace de gagner en agilité et de retrouver le temps pour innover.

Une intelligence collective pour surveiller les centres informatiques. Les entreprises, en devenant numériques, augmentent leur niveau d’exigences vis-à-vis de leurs fournisseurs de services managés. Ces MSP ont depuis longtemps adopté des solutions qui leur permettent de surveiller en permanence le bon fonctionnement des équipements et des logiciels pour anticiper un dysfonctionnement et réagir en conséquence. Une nouvelle étape vient d’être franchie par la société LOGICnow en intégrant de l’intelligence artificielle dans ces solutions de supervision. Les plateformes de supervision deviennent à leur tour « data driven » (pilotées à partir des données). Avec 12.000 clients MSP utilisant ses solutions de supervision, LOGICnow dispose d’une large communauté d’utilisateurs et de milliards d’évènements provenant de millions d’équipements supervisés. De quoi constituer une « intelligence collective » partagée au travers d’une architecture dans le cloud. C’est ce qui a été concrétisé par l’offre LOGICcards fruit de 18 mois de développement et de 10 millions de dollars d’investissement.

De l’analyse descriptive à l’analyse prescriptive. Les outils de supervision traditionnels génèrent des analyses descriptives qui expliquent ce qui est déjà arrivé. La nouvelle étape consiste à réaliser des analyses prédictives qui prévoient ce qui pourrait arriver. En utilisant pour la première fois le machine learning dans ce type de solutions, LOGICcards va bien au-delà du tableau de bord opérationnel. Le produit propose des informations pertinentes tirant partie de cette intelligence collective et les personnalise à l’environnement et au contexte de chaque MSP. De descriptive, l’analyse devient prédictive puis prescriptive en proposant des actions en fonction d’un événement qui a été anticipé. Le machine learning agit à différents niveaux :

  • Prévisions : Il détermine ce qui est susceptible d’arriver
  • Comportements : Il analyse les événements et tient compte du comportement des utilisateurs pour améliorer ses recommandations au fil du temps
  • Prescription : Il recommande des actions pour optimiser le fonctionnement ou anticiper un dysfonctionnement

L’utilisation du machine learning apporte aux MSP une meilleure connaissance en temps réel deLogiccards schema l’environnement technique, du contexte commercial et du comportement de l’utilisateur. Le MSP peut donc non seulement améliorer la qualité du service offert mais permettre également adapter son offre et ses propositions commerciales en fonction de chaque client et de chaque contexte. Une manière d’introduire la notion « d’expérience utilisateur » si chère au marketing.

Le 5 novembre la solution LOGICnow sera présentée à Paris La Defense dans le cadre de la réunion utilisateurs MAXfocus 2015 organisé avec Aubelio et j’aurai le plaisir d’intervenir sur le thème « Big Data et Intelligence artificielle » (voir le programme)