Après le virage du cloud Adobe se dirige vers le machine learning

L’experience client était le maitre mot d’Adobe durant le summit qui se tenait à Londres du 9 au 11 mai 2017. Adobe continue sa transformation avec brio en unifiant ses offres par le bais du cloud et en étendant son expertise du contenu aux données et au machine learning.  Une approche complète et cohérente qui devrait aider à faire passer de nombreuses entreprises à l’ère du numérique.

« Préserver le status quo n’est pas une stratégie ». C’est ce qu’explique le CEO, Shantanu Narayen, à l’occasion de l’Adobe Summit. Plutôt que de se satisfaire de ses résultats il faut savoir se transformer avant que cela ne devienne une urgence. C’est ce qu’a fait Adobe en prenant le virage du cloud de manière volontariste. Toutes ses offres sont aujourd’hui dans le cloud mais la transformation d’Adobe a également concerné tous les pans de l’entreprise :  process, organisation, développement etc.. La stratégie de transformation ne s’arrête pas là pour autant et Adobe a entrepris d’étendre son focus du contenu aux data et aux machine learning. C’est seulement de cette façon qu’il est possible de proposer une « Experience client » digne de ce nom. Pour Adobe l’expérience est le facteur de différentiation par excellence plus que le produit lui-même. L’objectif est bien de fournir aux entreprises tout ce dont elles ont besoin pour déployer une expérience cohérente et personnalisée qui va plaire aux clients quelques soient ses attentes sur tous ces équipements et sur tous les points de contacts avec une marque.

Unifier les données et les contenus pour une meilleure experience. Pour que l’Experience client puisse être complète et aboutie, Adobe a récemment lancé Adobe Experience Cloud, un ensemble complet de services pour créer et diffuser des expériences client d’exception. Composé d’Adobe Marketing Cloud, d’Adobe Advertising Cloud et d’Adobe Analytics Cloud, Adobe Experience Cloud s’intègre avec Adobe Creative Cloud et Adobe Document Cloud. Ce n’est pas un simple regroupement marketing des offres. Il s’agit là d’une intégration complète qui bénéficie de l’unification du contenu et des données grâce à une architecture Cloud commune (Adobe Cloud Platform) sur laquelle repose tous les composants d’Adobe Experience Cloud. Adobe Cloud Platform propose également des APIs (Adobe I/O) , un modèle de données standard (Adobe XDM) et un framework d’intelligence artificielle (Adobe Sensei annoncé en novembre 2016)).

Le machine learning devient stratégique pour Adobe. Il ne suffit plus de faire de l’analyse, elle doit être suivie d’actions en temps réel. Pour le faire il faut être capable de collecter et de traiter d’importants volumes de données avant de les traduire en profils clients uniques. Ce rôle revient à Adobe Analytics Cloud, une sorte d’intelligence client, qui combine Adobe

Audience Manager et Adobe Analytics et permet une intégration unique des données d’audience de tous les clouds Adobe. Durant le summit de Londres, Adobe a annoncé le 9 mai 2017 Virtual Analyst, un datascientiste virtuel augmenté par Adobe Sensei qui va analyser en continu les données et utiliser le machine learning et des algorithmes prédictifs pour déclencher des alertes personnalisées et envoyer des informations sur les anomalies qui perturbent l’activité. Cette détection d’anomalie et l’analyse de contribution va permettre aux clients qui utilisent Analytics cloud d’automatiser les workflows de sciences de données les plus courants dans le but d’identifier les causes de comportements inhabituels de leurs données.

S’ouvrir pour enrichir l’experience. Adobe Analytics a pu s’intégrer avec d’autres sources de données grâce à un partenariat avec Microsoft Power BI. Pour aller plus loin Adobe propose à présent des packs de contenus pour Power BI :

  • Traffic Analysis pour analyser rapidement les tendances du trafic digital
  • Mobile App Analysis pour explorer les interactions avec les utilisateurs d’applications mobiles et leurs performances.

Pour offrir une experience de qualité on retiendra 4 conseils formulés pendant l’Adobe Summit :

connaître son client et le respecter, parler d’une seule voie sur l’ensemble des canaux de communication, rendre la technologie transparente et enfin surprendre agréablement l’utilisateur à chaque fois.

 

Efficacité énergétique: Le Groupe PSA choisit ENGIE pour mettre du big data dans son usine du futur

Le Groupe PSA fait le choix de la solution blue.e pilot by ENGIE dans le cadre de son projet d’usine du futur pour soutenir sa démarche d’efficacité énergétique.

Le secteur industriel représente 40% des émissions de CO2 dans le monde. Réduire la consommation énergétique d’un site industriel est un enjeu aussi bien économique que sociétal. En France, 25% de l’énergie finale consommée résulte des activités industrielles. Au niveau mondial, le secteur industriel représente un tiers de la consommation d’énergie et presque 40% des émissions de CO2 selon l’ADEME. Gérer plusieurs sites industriels et s’assurer que les objectifs de performance en KWh d’énergie sont respectés est particulièrement difficile. Les moyens humains sont souvent limités et les données utiles proviennent de sources multiples éclatées sur plusieurs usines. Face à une variabilité de la performance il n’est pas aisé de  faire la part des choses au vu des multiples interactions entre le système de production et le système énergétique.

Réduire la facture énergétique d’au moins 5%. Le Groupe PSA compte sur le Big Data pour améliorer l’efficacité de l’usine du futur et lance cette année un projet pilote  sur le site industriel de Poissy en Ile de France. Ce pilote devra faire la preuve de l’appropriation de la solution par les utilisateurs et permettre de mesurer les gains quantitatifs et qualitatifs attendus. Ce projet utilisera la plateforme digitale d’efficacité énergétique blu.e pilot de ENGIE présentée comme une plateforme logicielle d’aide à la maîtrise énergétique de l’industrie du futur. Les équipes d’exploitation, au cœur de la démarche, pourront analyser leur propre performance et identifier grâce au big data les points de fonctionnement ayant produit de meilleurs résultats. L’objectif, selon Patrice Peslier, Directeur de la performance industrielle de Groupe PSA, est d’économiser au moins 5 % de la facture énergétique.

Collecter et analyser de multiples sources de données disséminées sur un site industriel. En se connectant à la plateforme blu.e pilot les usines consacrent l’essentiel de leurs efforts à reproduire leurs meilleurs résultats de façon stable. Toutes les variables provenant de tous les systèmes d’information du site (énergie, production, qualité, etc…) sont collectées et analysées en temps réel dans une base globale de données. L’étude des facteurs influents et des installations donnera au Groupe PSA les clés pour identifier et appliquer de meilleures pratiques opératoires et mettre en œuvre un suivi automne des indicateurs de Performance Energétique (IPE). La plateforme blue.e pilot est interopérable avec toutes les sources de données et systèmes d’informations industriels du marché, le Groupe PSA pourra ainsi utiliser à toutes les informations jugées utiles à l’optimisation de l’efficacité énergétique depuis la relève et l’historisation des données pour les traiter et les mettre en forme dans des interfaces métier.

Pendant toute la durée du contrat Blu.e met à disposition du  Groupe PSA une équipe projet pluridisciplinaire dédiée capable d’appréhender toutes les dimensions techniques, énergétiques ou managériales. Pour le Groupe PSA les enjeux de 2017 porteront sur la maîtrise du déploiement technique de la solution, l’appropriation de tous les usages par les utilisateurs métier , la rentabilité et l’accompagnement à la conduite du changement.

Les développeurs au cœur de l’innovation des entreprises

Avec la frénésie du numérique, l’innovation est devenue plus que jamais un impératif pour les entreprises qui veulent continuer à progresser, voire survivre. L’économie numérique est tout aussi bien l’économie de la donnée que de l’application. Les applications de plus en plus nombreuses rythment la vie et l’activité de l’entreprise. L’innovation est directement liée à la capacité des entreprises à concevoir rapidement de nouvelles applications. De quoi justifier largement la tenue du salon DEVOXX lors duquel j’ai rencontré Michel Lara, architecte chez IBM, avec lequel j’ai pu m’entretenir.

Codeur : métier d’avenir. On a connu la vague d’externalisation des développements d’applications en Inde dans le but de faire baisser les coûts. On pourrait bien assister dorénavant à une relocalisation en France. Le code a le vent en poupe et est désormais synonyme d’innovation non seulement pour les startups mais également pour les grandes entreprises. Les méthodes ont évoluées et sont devenues agiles, les approches DevOps prônent l’intégration continue et le design thinking rapproche le développeur de l’utilisateur. L’expérience utilisateur tant recherchée aujourd’hui repose sur un niveau d’empathie qui impose une proximité physique et culturelle.  Le développeur n’est plus enfermé dans sa tour d’ivoire et collabore d’avantage avec les équipes métiers et de manière plus fréquente. Le développement se veut collaboratif. C’est à la fois le caractère stratégique du développement et cet aspect collaboratif qui expliquent en grande partie  cet engouement pour le métier de développeur en France. Le développement s’est démocratisé, il est devenu plus accessible et plus ludique et la médiatisation de jeunes développeurs ayant revendu une fortune leurs applications suscitent des vocations. Le métier de codeur semble prometteur en termes d’emplois en France dans les années à venir.

Le cloud à la rescousse des développeurs. Les applications sont plus nombreuses et d’ici quelque années l’économie numérique reposera sur près de 1000 milliards d’applications. Les applications sont les nouveaux services de l’entreprise qui doit être capable d’en produire rapidement en nombre et de les faire évoluer fréquemment dans le temps. La notion de micro services et d’APIs (Application Programming Interface) se généralise et permet de simplifier et d’accélérer le processus du développement. Il ne s’agit plus de concevoir une application comme un bloc monolithique mais comme un ensemble de micro services interconnectés. Avec sa plateforme d’innovation Bluemix, IBM a très largement œuvré dans ce sens en proposant de nombreux services dans le cloud à destination des développeurs (blockchain, IoT, cognitif etc..). Les développeurs peuvent appeler ces services grâce à des APIs et s’éviter ainsi des développements lourds et couteux pour des technologies complexes comme la blochain ou le machine learning. Ils peuvent ainsi se consacrer au développement de services métiers. Le cloud a grandement simplifié la vie des développeurs qui désormais ont accès aussi bien à des ressources applicatives que matérielles. IBM n’oublie pas les startups et a annoncé en février l’espace Scale Zone destiné à accompagner des startups confirmées dans le cadre de promotion de 11 startups pendant six mois autour d’une thématique spécifique (IOT pour la première promotion). Ces startups sont hébergées dans les locaux d’IBM à proximité des solutions métiers. L’objectif est d’aider ces startups dans leur phase d’industrialisation en leur donnant accès aux ressources de développement de Bluemix et à l’écosystème IBM.

Blockchain le futur eldorado des développeurs. Ce sont plus de 400 projets blockchain qui sont en court chez IBM au nouveau mondial et qui se justifient généralement autour de trois points : la productivité, la traçabilité et la sécurité. Après avoir mis à disposition des développeurs des services Bluemix avec du code prêt à l’emploi, des APIs et de nombreuses documentations IBM a annoncé en mars le support d’hyperledger fabric (l’initiative de la fondation Linux à laquelle participe IBM) sur les infrastructures IBM. Par la même occasion IBM a levé un frein à l’industrialisation de la Blockchain en étant capable de supporter 15.000 transactions par seconde. La blockchain intéresse de nombreux domaines : traçabilité alimentaire, traçabilité logistique, authentification de contrats ou de diplômes. Les exemples ne manquent pas et tout récemment Natixis, IBM et Trafigura ont mis au point la première solution blockchain (sur la plateforme Bluemix) applicable aux transactions de financement du commerce de pétrole brut aux Etats-Unis (lire le communiqué de presse). La durée du cycle de trésorerie et les frais de gestion de la transaction s’en trouvent considérablement réduits et les transactions offrent une plus grande transparence réduisant de facto les risques de fraude.

Par ailleurs IBM a annoncé le 20 mars 2017 un nouveau service de conteneurs sur Bluemix. Les développeurs pourront ainsi concevoir et gérer des applications plus sécurisées. Ce service s’appuie sur Kubernetes, le système d’orchestration de conteneurs open source utilisant Docker.

lire également: Blockchain : nouvelle gouvernance de la confiance pour une nouvelle économie

 

La France peut- elle encore jouer un rôle dans l’intelligence artificielle

Depuis 2011, date à laquelle des chercheurs canadiens ont démontré la faisabilité du deep Learning, les géants du web se sont lancés dans la course à l’intelligence artificielle. Les américains (GAFA) aussi bien que les chinois (BATX) ont investi dans ces technologies, embauché les meilleurs talents et fait l’acquisition des start-up prometteuses dans le domaine. Ce domaine d’avenir ne doit pas rester l’apanage de ces géants et la France tente de reprendre pied sur ce marché en capitalisant sur ses atouts.

L’IA incontournable pour l’avenir.  L’intelligence artificielle fait partie de ces technologies qui vont profondément modifier notre société. Les géants du web ne s’y trompent pas, ils y voient une formidable opportunité de développer de nouveaux marchés en apportant une valeur extrêmement différentiante. La transversalité de l’intelligence artificielle leur permettra de continuer à progresser sur des secteurs qui n’étaient pas leur cible d’origine. On le voit avec l’exemple dans le secteur de l’automobile avec le développement des voitures autonomes. Cela modifie non seulement l’industrie proprement dite mais impactera les infrastructures routières, les services de transport et nos modes de vies. Ces entreprises du numérique ont pris de l’avance et ont l’avantage de disposer de plateformes qui collectent énormément de données. Ces données leur permettent d’accélérer l’apprentissage de leur intelligence artificielle  à vitesse grand V. Comme on dit « un algorithme avec beaucoup de donnée est plus précis qu’un bon algorithme avec peu de données ». Dans leur cas ils ont les deux…

L’IA déjà présente dans notre quotidien. Ne croyons pas que l’intelligence artificielle concerne uniquement des projets futuristes. L’intelligence artificielle est déjà très présente dans notre quotidien. La majorité des moteurs de recommandation, les  systèmes de reconnaissance d’images et de videos (computervision) ou le traitement en langage naturel (NLP) s’appuient déjà sur des technologies de machine learning ou de deep learning. En 2016 déjà 38 % des entreprises utilisaient l’intelligence artificielle et elles seront 62% en 2018 selon « narrative Science survey ». Les investissements suivent et vont progresser de 300% entre 2016 et 2017 (Forrester Research).  Avec un marché qui pesait 8 milliards $ en 2016 et qui devrait atteindre 47 milliards $ en 2020 selon IDC on comprend que de nombreux acteurs soient intéressés.

Garder la maitrise technologique. Si l’usage de l’intelligence artificielle se démocratise grâce à de nombreux modules dans le cloud à destination des développeurs on peut s’inquiéter néanmoins de la prépondérance des américains et des chinois sur ce marché qui accentuera la dépendance de toutes les industries vis-à-vis d’eux. Aux Etats-Unis, l’administration Obama a lancé un plan intitulé « Preparing for the future of artificial intelligence » et a publié son rapport «Artificial Intelligence, Automation, and the Economy ». En France nous disposons de nombreux atouts. On compte environ 3000 chercheurs qui travaillent dans le domaine de l’intelligence artificielle et près de 200 start-up développant ou exploitant de l’intelligence artificielle. Pourtant on manque de leaders et surtout d’organisation.

Un plan d’intelligence artificielle pour la France. C’est en partie pour y pallier qu’en janvier 2017 Thiery Mandon et Axelle Lemaire ont lancé le Plan France IA. Espérons que ce plan perdurera après les élections présidentielles car  l’IA constitue une formidable opportunité pour innover et créer les entreprises de demain. Sans minimiser les risques sur l’emploi et l’éthique, l’intelligence artificielle constitue des opportunités de progrès et d’amélioration des conditions de vie du plus grand nombre. Avec ce plan France IA,  l’objectif est de mobiliser tous les membres de la communauté IA et de fédérer les nombreuses initiatives émergentes en France pour définir une stratégie nationale concertée et mettre en avant le potentiel de la France dans ce domaine clé. En quelques sorte reproduire la Frenchtech mais avec un focus sur l’intelligence artificielle. Pendant deux mois après l’annonce de France IA, chercheurs, entreprises, start-up et acteurs institutionnels  se sont réunis pour contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle pour l’avenir.(voir les groupes de travail). D’après le calendrier  les travaux finiront le 14 mars  et les groupes remettront leurs recommandations ou propositions d’actions au comité de pilotage. Un rapport France IA sera remis aux ministres le 21 mars.

A suivre donc pour voir la concrétisation de ce plan « France IA »

Lire également :

 

Numérique et assureurs : un rôle de conseil renforcé

Le monde de l’assurance n’a pas échappé à la vague numérique. Certaines tâches vont peu à peu s’automatiser et les offres commencent à prendre en compte les nouveaux usages et les nouveaux risques liés au numérique. Dans ce contexte l’assureur est plus que jamais un conseiller. Karine Lazimi Chouraqui Agent Général à Paris 8ème, explique avec passion pourquoi le numérique renforce le rôle de l’assureur et  la relation humaine.

 Avec l’automatisation l’assureur peut se consacrer à son métier de conseil. Karine a compris très tôt les nouveaux enjeux de l’assurance dans un monde digital. photo-karine-lazimi-chouraquiElle bénéficie d’une forte culture numérique acquise au sein d’Allianz France. Son parcours parle pour elle. En charge de l’innovation, des réseaux sociaux, de la ereputation, elle a très vite compris que les usages changeaient et qu’avec le numérique de nouveaux risques apparaissaient. Elle voit dans le numérique une opportunité de valoriser encore d’avantage le rôle de conseil de l’assureur. Loin de réduire sa mission, l’automatisation va contribuer à décharger l’assureur des tâches qui ne requièrent pas de valeur ajoutée. Beaucoup de choses se font déjà de manière automatisée dans l’asset management et dans la gestion des profils à risques.

Repenser responsabilités et protection juridique à l’aune du numérique. L’économie numérique est liée à une exploitation optimisée d’une multitude de données au travers d’applications de plus en plus nombreuses. Cela ouvre d’énormes possibilités mais expose les entreprises à des risques nouveaux ou amplifiés par le développement du numérique.

  • Les cyberattaques concernent tout le monde. La presse s’en fait régulièrement l’écho. Les cyberattaques se multiplient et les préjudices peuvent avoir des conséquences dramatiques. Avec le développement du Big data et de l’intelligence artificielle, toute action délictueuse sur les données fait peser un risque qui ira croissant sur l’activité de l’entreprise et sur sa responsabilité.
  • La réputation de l’entreprise est devenue un sujet sensible. Avec le développement des réseaux sociaux la réputation d’une entreprise peut rapidement être mise à mal et nécessite de réagir rapidement. Ne pas être sur les réseaux sociaux ne dispense pas les entreprises de se soucier de leur ereputation. La ereputation ne se limite pas un problème de communication, la protection juridique dans ce domaine est souvent nécessaire et doit être adaptée au risque
  • L’économie de partage redéfinit les responsabilités.  L’économie numérique a donné naissance à de nouveaux modèles d’affaires basés sur des plateformes technologiques mettant en relation des particuliers pour transporter des biens à l’exemple du covoiturage. Cela pose le problème du partage de responsabilités. Tout récemment Karine a développé une offre en inclusion pour son client PostTrip pour tenir compte de ces enjeux de responsabilités. PostTrip propose de trouver des voyageurs de confiance pour transporter des objets à moindres coûts. Après discussion avec la startup pour comprendre son modèle et ses enjeux, un contrat a été construit pour assurer le transporteur pour tout objet dont la valeur ne dépasse pas 500 €.  Il est important, en tant que particulier, quand on utilise ces plateformes de connaitre les conditions générales pour savoir si sa responsabilité peut être engagée.
  • Le coworking est un partage de ressources et de responsabilités. Le mode de travail évolue avec le numérique. On souhaite plus de flexibilité que ce soit pour lancer son entreprise ou s’implanter dans une autre ville ou un autre pays. Le coworking répond à cette nouvelle demande. Les services offerts peuvent être limités à de l’espace ou enrichis par de multiples services. Les entrepreneurs ne sont pas toujours conscients de la répartition des responsabilités qui varient selon les offres.

La confiance est au centre de la relation assureur- assuré. Dans ce contexte en pleine effervescence Karine place la confiance comme la valeur primordiale de l’assureur. Le mot conseil est trop souvent galvaudé. L’arrivée du numérique doit renforcer cette valeur essentielle. Il n’y a pas de bonne assurance si on ne comprend pas le métier de l’entreprise et les risques associés. C’est un dialogue qui doit s’instaurer entre l’agent général et son client d’autant plus pour des petites et moyennes entreprises qui ne bénéficient pas d’une organisation conséquente pour analyser les risques et les conséquences juridiques.

Vous pouvez également suivre Karine sur Twitter @karinelazimi , sur LinkedIn et très bientôt sur son blog.

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Le digital workspace recentré sur les usages

Une entreprise qui se  prétend numérique se doit d’offrir à ses employés un espace de travail numérique. Les temps ont changé, ce n’est plus l’équipement qui dicte sa loi . Les solutions évoluent dans ce sens pour placer l’utilisateur au centre de la solution. Ce n’est plus l’utilisateur qui doit se plier aux contraintes des équipements utilisés pour travailler mais la solution qui doit s’adapter aux nouveaux usages tout en assurant une sécurité à toute épreuve.

digital-worspace

L’application moteur et vitrine de l’économie. L’économie moderne s’est transformée en une économie des applications. Leur nombre croit à une vitesse vertigineuse, les applications sont à la fois le moteur et la vitrine des entreprises et sont indissociables de la création d’un nouveau business model ou de la mise sur le marché d’un nouveau produit ou d’un nouveau service. Autrefois réservées à l’automatisation des grandes fonctions de l’entreprise les applications ont franchi les portes des datacenters avec internet et se sont ensuite largement digital-workspace-figuresdémocratisées avec l’arrivée de l’Iphone en 2009. L’écran tactile, l’intelligence du smartphone et les « Apps Store » ont fait rentrer l’Application dans le langage commun et dans le domaine grand public. Leur simplicité d’utilisation les a rendus indissociables des nouveaux usages et à induit de nouveaux comportements accentués par l’autonomie apportée par la mobilité. Cela touche le comportement des consommateurs mais également la manière de travailler dans un espace de travail devenu numérique. Une étude récente de VMware a montré que 48% des entreprises qui avaient mis en place des initiatives de « digital workspace » constatent une fourniture plus rapide de nouveaux flux de revenus.

La simplicité des applications professionnelles influence l’environnement de travail : La grande simplicité d’utilisation de ces applications dans la vie de tous les jours à rendu l’utilisateur et le consommateur plus exigeants. Les entreprises ont dû s’adapter à différents niveaux.

  • Vis-à-vis des clients et des consommateurs : Les applications existantes ont été modifiées pour fonctionner sur les mobiles. Les nouvelles applications sont nativement conçues pour offrir une expérience utilisateur adaptée à la mobilité
  • Vis-à-vis des employés : Les entreprises ont enfin compris qu’elles devaient proposer un espace de travail aussi simple et aussi riche que l’environnement personnelle/familiale

Doit-on encore choisir entre agilité et sécurité.  L’espace de travail devient réellement numérique quand il s’affranchit de l’équipement (PC, portable, tablette, mobile) et du lieu de travail tout en assurant une continuité dans la manière de travailler. On veut pouvoir passer digital-workspace-secud’un équipement à un autre sans interruption avec une complète fluidité et accéder simplement à un grand nombre d’applications d’entreprises et publiques.  Les limites mêmes entre espace de travail et espace personnel deviennent floues. La qualité et la richesse de l’environnement de travail numérique sont synonymes de performance et d’attractivité de l’entreprise (recrutement de nouveau talent, attente des millenials….) . L’entreprise moderne demande de l’agilité pour s’adapter à un contexte qui évolue de plus en plus rapidement. La grande majorité des entreprises ont pris conscience de la nécessité de proposer une espace de travail numérique à leurs employés mais sont freinés dans la mise en œuvre par la crainte de perdre le contrôle et d’ouvrir des brèches dans la sécurité.

Libérer l’utilisateur tout en veillant à la sécurité. Pendant longtemps les entreprises ont privilégié une approche centrée sur l’équipement (« device centric ») contraignante pour les utilisateurs mais rassurante en termes de sécurité. (Restriction des équipements autorisés, digital-workspace-securitelimitation des applications permises etc…). L’actualité récurrente sur les fuites de données pourrait accentuer une politique sécuritaire coercitive qui irait à l’encontre de l’agilité et de la productivité. Pour offrir une espace de travail numérique qui apporte la même simplicité que ce que l’on connait à titre personnel mais qui respecte le niveau de sécurité exigée par l’entreprise il faut avoir une démarche centrée sur l’utilisation (« user centric ») et dont tient compte les dispositifs de sécurité. A présent l’initiative revient à l’utilisateur et  le système de sécurité doit s’adapter à ses postures et l’informer des actions prises pour respecter les règles de sécurité en vigueur dans l’entreprise. Dans son billet intitulé  « Espace de travail numérique : utilisateurs libérés et RSSI rassurés » , Stéphane Padique , consultant chez VMware, explique une approche intéressante pour prendre en compte les attentes des utilisateurs sans transiger sur la sécurité.

 Dans un contexte d’espace de travail numérique la  sécurité va au-delà d’un seul produit. C’est avant tout une démarche et un écosystème dont l’usage d’API facilite la collaboration dans la complémentarité des fonctions de sécurité. Un espace de travail numérique digne de ce nom ne pourra pas perdurer si les contraintes imposées par la sécurité vont à l’encontre des usages des utilisateurs. Les solutions qui apparaissent sur le marché semblent pouvoir concilier les deux objectifs a priori antagonistes.