HPE accélère sa stratégie « as a service » durant HPE Discover Virtual Experience

Pour raison de COVID-19 l’évènement annuel HPE Discover s’est transformé en une expérience virtuelle mondiale. Pas question pour autant de faire un évènement à minima. Pendant plusieurs jours ce sont près d’une centaine d’orateurs qui se sont succédé et 150 sessions de démonstrations ont été proposées. Un véritable défi pour créer cette expérience virtuelle dans un délai très court court mais un pari gagnant à l’arrivée. L’occasion de démontrer que la stratégie de services cloud de GreenLake contribue à la résilience et à l’agilité des entreprises. Deux caractéristiques tout aussi utiles pour affronter une crise que pour innover en temps normal

HPE Discover Virtual Experience a tiré les leçons de la pandémie. Cela a donné un éclairage tout particulier à la Keynote d’Antonio Neri le PDG de HPE. La crise sanitaire et les effets du confinement auront souligné le rôle du numérique dans le monde moderne et accéléré l’adoption des nouveaux usages. L’entreprise du futur a ainsi pris quelques années d’avance sur le calendrier. Le recours systématique au télétravail, l’utilisation généralisée des systèmes de visioconférences, les téléconsultations médicales ont mis les infrastructures informatiques sous pression. Il ne suffit plus de maintenir opérationnelle l’informatique, il s’agit de supporter des nouveaux modes d’organisation et des nouveaux modèles de fonctionnement de l’entreprise en temps de crise. Plus que jamais l’entreprise doit être résiliente et agile et cela impose de s’affranchir de toutes les contraintes de l’IT traditionnelle en ayant recours à des services à la demande (as a services) riches en fonctionnalités et activables simplement et rapidement. Le cloud public aurait pu répondre à cette attente si ce n’est que dans une économie moderne axée sur la donnée il faut être capable de couvrir toutes les données où qu’elles soient. Après 10 ans d’existence des clouds publics 70% des applications sont encore hors du cloud public selon IDC et la majorité des données leur échappe encore. Les fournisseurs de cloud publics ont bien pris conscience de ce besoin d’hybridation en développant pour la plupart d’entre eux des solutions permettant d’étendre leurs plateformes cloud aux data centers de leurs clients. Mais cela sera loin d’être suffisant car d’après le Gartner en 2023 plus de la moitié des données seront créées en dehors des DC et des clouds publics, à la périphérie des réseaux dans ce que l’on appelle le « Edge »

Résilience et Agilité : une approche globale « as a service » du edge jusqu’au Cloud. L’objectif de HPE est clair : offrir des services cloud pour toutes les données et les applications quel que soit l’emplacement où elles résident : Cloud, datacenter ou edge. En 2022 toutes les offres HPE seront proposées sous forme « as a service ». Cette stratégie de « plateforme Edge to Cloud as a service » est essentielle pour apporter la résilience et l’agilité capitales en temps de crise mais tout aussi importantes pour innover en temps normal. Aujourd’hui les entreprises doivent encore composer avec des modèles opérationnels divergents, à savoir le cloud et le « on premise ». Maintenir ces modèles en parallèle coûte cher, réduit l’agilité et nuit à la résilience. Cette « plateforme Edge to cloud », construite autour de HPE GreenLake Cloud Services et des logiciels spécifiques, fournit un même modèle opérationnel offrant une gouvernance et une visibilité pour l’ensemble des données et des applications de l’entreprises. Les annonces d’une nouvelle génération de services cloud dans HPE GreenLake montrent que la stratégie « everything as a service » prend forme rapidement.

 

Accélérer la transformation numérique avec la nouvelle génération HPE GreenLake Cloud Services. Nous entrons dans une nouvelle phase du marché du cloud. Les clients ont besoin d’innover et de moderniser leurs applications et leurs workloads y compris ceux qui se trouvent dans le « Edge » ou en « on premise ». Les nouveaux services cloud GreenLake devraient leur faciliter le travail. Tous ces services sont accessibles via un catalogue libre-service sur HPE GreenLake Central et leur utilisation est grandement simplifiée par du «point and clik » qui permet de sélectionner rapidement et simplement le service avec les caractéristiques désirées. Les « cloud services pour l’intelligent edge » démontrent que Aruba a pris place logiquement dans cette stratégie de services. Les nouveaux services de connectivité managés d’Aruba sont à présent disponibles avec HPE GreenLake. Cette offre complète de « Network as a Service » offre l’agilité du cloud au niveau du Edge avec Aruba ESP (Edge Services Platform). Aruba ESP, annoncé en juin, est une plateforme Cloud native basée sur l’intelligence artificielle qui permet d’anticiper et de corriger les problèmes sur le Edge avant qu’ils n’aient d’impact sur l’activité.

Parmi les annonces majeures de HPE Discover Virtual Experience il faut également citer la création de la marque Ezmeral qui recouvre l’ensemble des logiciels HPE. Une bonne manière de se rendre compte de la logique et de la cohérence de la stratégie d’acquisitions de HPE avec tout particulièrement les rachats de BlueData et de MAPR. Une stratégie qui permet de couvrir tous les aspects nécessaires pour accroitre l’agilité et l’efficacité des entreprises, extraire la valeur des données et favoriser l’innovation. HPE se positionne ainsi face à d’autres solutions telles que VMware Tanzu et RedHat OpenShift.

 

La crise sanitaire conduira-t-elle à un « tracking » généralisé de la population

Face à la pandémie du Covid-19 chaque pays élabore sa propre stratégie. La situation est inédite et de nombreuses questions restent en suspens. On reste stupéfait devant l’ampleur des décès en Italie et de leur progression inquiétante en Espagne.  On s’interroge sur les mesures les plus efficaces et on envie le succès de la Corée Sud dans sa lutte contre la propagation du virus. Le confinement quasi général est aujourd’hui notre seule parade contre le virus et il est trop tard pour le remettre en cause. Pour l’éviter, comme les sud-coréens, il aurait sans doute fallu renoncer à la protection de notre vie privée. Pas sûr que nos sociétés occidentales y soient prêtes

Aussi nombreux soient ils les tests quotidiens représentent un faible pourcentage de la population. Nul doute que la Corée du Sud était mieux préparée que les européens. En 2015 la Corée du Sud avait fait l’amère expérience du MERS (Coronavirus du syndrome respiratoire du Moyen Orient) et tiré des enseignements qui leur servent aujourd’hui. Dans la crise sanitaire du Covid-19 la stratégie de la Corée du Sud repose sur des tests généralisés avec environ 15.000 tests effectués par jour. Un chiffre important comparé à celui de la France mais qui reste toutefois bien dérisoire rapporté à une population de près de 52 millions d’habitants : seul 0,03% peuvent être testés chaque jour. On est loin d’un dépistage massif rassurant qui suffirait à autoriser un confinement limité. Les moyens de dépistage restent limités et il faut donc procéder à une investigation rigoureuse digne d’une enquête policière pour être en mesure de tester en priorité toute personne suspecte. La tâche s’avère d’autant plus difficile que de nombreuses personnes infectées par le Covid-19 ne présentent aucun symptôme et n’éprouvent pas le besoin de se faire dépister spontanément. Pour cibler les tests afin de maximiser leur efficacité la Corée du Sud s’est appuyée sur l’analyse des données personnelles des personnes infectées.

Cibler les tests par l’analyse des données personnelles. La Corée du Sud a mis en place un dispositif de suivi des citoyens (« tracking ») qui détermine rétrospectivement les déplacements d’un patient contaminé afin d’identifier nommément toutes les personnes avec lesquelles il a pu être en contact. Des « enquêteurs sanitaires » se livrent à une véritable enquête policière et scrutent les données personnelles : achats par cartes bancaires, géolocalisation par smartphone et images de vidéo surveillance. Autant de données qui relèvent de la vie privée mais qui ne semblent pas choquer outre mesure les sud-coréens. A l’aide de toutes ses données ils sont à même d’établir un itinéraire précis avec tous les lieux visités, les transports utilisés et procéder à une recherche des contacts potentiels. Chaque personne identifiée comme ayant eu un contact avec un patient infecté se voit imposer un test. Si le test est positif ce dernier est confiné à son tour. Ces mêmes données sont comparées avec celles d’autres patients pour repérer des foyers potentiels et intensifier les tests sur ces zones. C’est grâce à cette approche rigoureuse des tests que la Corée du Sud peut s’autoriser un confinement ciblé, limité aux coréens testés positifs. Procéder à des tests, aussi nombreux soient ils, sans les accompagner d’une recherche exhaustive des contacts reviendrait à laisser circuler librement de nombreuses personnes infectées asymptomatiques. Plus l’épidémie avance et plus la tâche est ardue. Récemment la Corée du Sud a annoncé un nouveau système de suivi des mouvements des personnes infectées qui s’appuie sur un « smart city data hub program ». Fin janvier une investigation épidémiologique sur un patient confirmé nécessitait plus d’une journée. Avec ce nouveau système, il suffira de 10 minutes pour reconstituer l’itinéraire d’un cas infecté et déclencher la recherche de ses contacts.

La France est-elle prête pour un « tracking sanitaire ». Dans le cadre de la crise sanitaire, le suivi des déplacements des citoyens via l’analyse des données de leur smartphone fait des adeptes. Après quelques pays asiatiques et Israël, la Russie a annoncé vouloir s’y mettre à son tour pour concentrer le confinement sur les personnes infectées. Par ailleurs Moscou utilise son réseau de caméras de surveillance pour identifier, via la reconnaissance faciale, ceux qui enfreindrait le confinement. En France, l’utilisation des données de géolocalisation des smartphones est également à l’étude. Annoncé le 24 mars, Le Gouvernement a mis en place le Comité analyse, recherche et expertise (CARE) composé de douze chercheurs et médecins et présidé par le Professeur Barré-Sinoussi. Ce comité de scientifiques aura également pour mission de conseiller l’exécutif sur l’opportunité d’identifier, à l’aide de dispositifs de tracking rétrospectifs, les personnes ayant côtoyé des individus contaminés. Il s’agirait non pas de pister les français mais de surveiller l’évolution de la pandémie respectant ainsi l’anonymat des personnes. Lors d’une intervention à l’Assemblée nationale le 24 mars, le ministre de la Santé, Olivier Véran, s’est dit opposé au « tracking » des citoyens par le biais de leurs smartphones. La porte-parole du gouvernement français a toutefois indiqué le 25 mars que si la question du « tracking » se posait de manière précise elle devrait faire l’objet d’un débat. Ce suivi, à partir des données des téléphones portables, pourrait avoir encore toute son utilité dans la perspective de contrôler la sortie du confinement à condition d’avoir tranché auparavant la question des données personnelles. Par ailleurs les solutions de tests semblent évoluer. Beaucoup de laboratoires travaillent sur d’autres formes de testsautomatisés autre que le fameux PCR (Polymerase Chain Reaction). L’Espagne, durement touchée par le Covid-19, prévoit de son côté de multiplier par quatre les tests et de les automatiser pour passer à 80.000 tests par jour en ayant recours à des robots et à l’intelligence artificielle.

C’est l’ensemble de ces mesures de tests associées à la recherche des contacts de personnes contaminées qui permet de réduire le confinement aux seules personnes infectées. Il parait difficile d’appliquer de telles méthodes en France, il suffit de voir les débats suscités à juste titre par l’utilisation de la reconnaissance faciale. Serait-t-il possible de mettre de côté, en temps de crise sanitaire, nos principes de protection de la vie privée pour envisager d’employer ces méthodes lors de la sortie du confinement ? A supposé qu’on l’accepte il faudrait que toutes les infrastructures technologiques y soient préparées.

 

Coronavirus : Cygne noir et masque de canard

Bercés par la douce illusion d’une technologie toute puissante, nous nous pensions à l’abri du Coronavirus. Ne sommes-nous pas devenus capables de tout prévoir par le miracle de l’intelligence artificielle ? Les principes de précaution portés au pinacle ne nous préservent ils pas de tous les maux ?  On se rassure en pensant égoïstement que les épidémies, la mortalité infantile, la famine ou bien encore les guerres se cantonnent aux pays qui ne se sont pas encore modernisés suffisamment. On évacue nos craintes en frissonnant devant des séries qui mettent en scène des actes terroristes ou des pandémies en sachant que le héros interviendra toujours à temps pour nous préserver du pire. Les séries dystopiques nous aident à conjurer le sort en projetant le drame dans un futur suffisamment éloigné pour nous épargner.

Le coronavirus est le « Cygne noir » du 21 ème siècle. Une alerte brutale qui nous appelle à l’humilité.  L’analyse des risques est devenue monnaie courante pour les banques et les assurances. Les économistes et les scientifiques modélisent les données et s’appuient sur les statistiques et les probabilités non pas pour éviter les catastrophes mais pour en limiter les risques financiers. Le monde réel n’est pas totalement prévisible. En 2007 Nassim Nicholas Taleb reprenait à son compte l’expression « cygne noir » dans son livre éponyme « Le cygne noir : la puissance de l’imprévisible ». Il expliquait la difficulté de prédire l’incertain sur la base des données du passé et avait anticipé la crise économique de 2008 alors que personne n’y croyait.  Selon sa théorie, le cygne noir désigne un évènement fortement improbable mais qui provoquera d’énormes conséquences. Mais après coup on cherchera à le rationaliser en expliquant qu’il était pourtant prévisible.  Le cygne noir n’est peut-être finalement que le déni de l’incertitude, une sorte de bais cognitif qui vise à nous rassurer. Pourtant selon Taleb « L’avenir est un pur hasard : on perd son temps à le prédire ». Jusqu’en 1697, date à laquelle des explorateurs allemands découvrirent en Australie des cygnes noirs, tout le monde était persuadé que seuls les cygnes blancs existaient. Une certitude si forte qu’elle avait forgé dès l’antiquité l’expression « Cygne noir » pour désigner l’impossibilité de l’existence d’une chose.  De nos jours le terme s’applique à une impossibilité théorisée qui peut ensuite être réfutée.

Les avis contradictoires d’experts augmentent l’incertitude. Les crises sanitaires sont à la même enseigne que les crises économiques. En 2015, lors d’un « Ted Talk » prémonitoire, Bill Gates tirait les leçons d’Ebola et nous prévenait que nous n’étions pas prêts pour la prochaine épidémie dont la description ressemblait étrangement au Coronavirus Covid 19. Pourquoi ne l’avons-nous pas écouté ? Il est facile a posteriori de dire qu’on avait raison mais il est toujours possible de trouver des avis contradictoires venant d’experts plus éclairés les uns que les autres. Difficile de donner des leçons. On le voit avec la singularité numérique. Certains cerveaux brillants nous prédisent une Intelligence artificielle équivalente à l’intelligence humaine autour des années 2015 quand d’autres chercheurs tout aussi respectables nous disent qu’il est possible que cela n’arrive jamais. Même chose pour le dérèglement climatique avec les tenants d’une vision catastrophique qui nous annoncent une fin du monde prochaine. Le catastrophisme systématique est certainement contreproductif et les experts autoproclamés nuisent à la qualité des débats. Le Coronavirus nous met devant des choix difficiles qui ne peuvent pas être tranchés par les seuls experts. Ce sont des choix de société qui nous impliquent tous avec leurs avantages et leurs contraintes. Prévoir le pire c’est porter le risque de la critique quand tout se passe bien. Être trop confiant c’est être démuni en cas de crise majeur. Nous devrons tous tirer les enseignements de cette crise qui montre que si les états ont leur responsabilité les citoyens ont également la leur par leur comportement et le respect des mesures.

N’oublions pas que se préparer au pire à un coût. Sommes-nous prêts à le payer ? Aujourd’hui sans doute mais quand le calme sera revenu et que le pire sera derrière nous peut être pas.

 

 

La Culture adopte le numérique de manière spectaculaire

Les réseaux sans fils ont ouvert la voie à la mobilité et à la géolocalisation. Les applications mobiles de nos smartphones permettent aux entreprises d’interagir en permanence avec leurs clients et leurs employés. Réalité augmentée et réalité virtuelle associées à l’intelligence artificielle exploitent ces infrastructures de réseau pour enrichir les expériences proposées aux clients et aux employées. Des grands magasins aux stades connectés, tous les secteurs rivalisent d’imagination pour imaginer de nouvelles expériences. La culture ne fait pas exception et adopte le numérique de façon spectaculaire comme le montre l’Opéra avec HPE .

La culture sublimée par la technologie.  On ne compte plus les initiatives au travers le monde qui s’approprient le digital pour nous faire découvrir la culture sous un nouveau jour. Le digital s’invite dans le processus créatif. Les spectateurs et les visiteurs ne sont plus des contemplateurs, ils vivent des expériences culturelles et interagissent avec les œuvres et leurs créateurs. Un profond mouvement de modernisation traverse le monde de l’art et de la culture. Il y avait urgence car le numérique à bouleverser les habitudes. Les jeux vidéo et le cinéma créent des mondes imaginaires plus vrais que nature. Le spectateur est devenu consommateur. La culture devait se moderniser pour capter l’attention d’un public sollicité par tous ces divertissements numériques. Les nouvelles propositions culturelles surprennent et étonnent nos sens. Elles adoptent les codes du numérique pour séduire, inventer de nouvelles formes artistiques et démocratiser la culture.

Salvatore Dali revit grâce à l’intelligence artificielle. Après avoir utilisé la réalité augmentée pour enrichir la découverte des œuvres monumentales de Dali (Masterworks), le musée Dali de Floride a franchi un cap en ayant recours à l’intelligence artificielle pour faire revivre Salvatore Dali dans le cadre de l’exposition « Dali Live ».  L’artiste s’affiche grandeur nature sur des écrans interactifs, dialogue avec les visiteurs et va même jusqu’à se prêter au jeu des selfies.  Bientôt ce seront les personnages figurant dans les œuvres qui prendront vie. Des vidéos de la Joconde tournant la tête, bougeant les yeux et ouvrant la bouche de manière naturelle sont déjà disponibles sur internet. L’interaction avec les œuvres devient encore plus incroyable quand la technologie se joue de nos sens et nous transporte au cœur des œuvres. C’est un voyage dans le passé et dans l’espace rendu possible par la réalité virtuelle et les solutions immersives. La cité de l’art et de l’architecture nous invite ainsi à nous téléporter, équipés d’un sac à dos et d’un casque de réalité virtuelle, dans la pyramide de Kheops en taille réelle pour l’explorer pendant 25 minutes.

L’Opéra national de Paris met en scène la technologie. En scène ou en coulisse la technologie est désormais omniprésente à l’Opéra National de Paris. La technologie intervient dans le processus créatif, favorise la transmission de la culture et ouvre l’art à un public plus large et diversifié. Un partenariat a été signé entre HPE et l’Opéra National de Paris pour équiper tous les espaces publics de l’Opéra d’une solution Wifi de nouvelle génération afin de proposer une expérience amplifiée avec des contenus interactifs et ludiques sur site et à l’extérieur des théâtres. Grace à ces infrastructures de réseau sans fil, l’Opera propose des spectacles novateurs sur Internet. La « 3 ème scène » est un lieu virtuel que les artistes peuvent s’accaparer pour créer des œuvres originales s’inspirant de celles de l’Opéra. Le film « Le Fantôme » par exemple s’approprie le mythe du fantôme de l’Opéra en lui apportant une touche de modernité avec un ton décalé qui mêle l’univers de la banlieue et celui de l’Opéra. Une manière d’ouvrir la culture sur d’autres horizons et d’atteindre là encore de nouveaux publics.  L’Opéra propose aux nouvelles générations nées avec le digital (les « digital natives ») des spectacles « Trans media » qui adoptent les codes et les technologies des jeux vidéo. Peter Pan est la première création de ce type. Les chanteurs, dotés de bracelets connectés, interagissent avec des décors virtuels qui évoluent sans cesse. Les spectateur, grâce à une application téléchargée sur leur smartphone, deviennent partie intégrante du spectacle. En fonction des scènes ils reçoivent sur leurs téléphones portables des effets sonores et lumineux et sont invités à participer à un jeu vidéo collectif lors de deux scènes. 

La qualité d’expérience d’un visiteur de musée, d’un patient de l’hôpital ou d’un consommateur d’un magasin dépend des performances des réseaux sans fil tel que celui mis en œuvre à l’Opéra par HPE Aruba.  C’est sans doute ce lien fort entre expérience client et réseau sans fil qui explique la position d’Aruba comme leader dans le cadran magique du Gartner. Alain Carpentier Directeur des ventes internationales Aruba nous en dira plus lors de son intervention à HPE Discover More qui se tiendra le 26 novembre à la Seine Musicale de Boulogne Billancourt. #HPEDiscoverMore #Paris

 

 

 

 

 

 

 

 

Des RH plus impliquées dans la transformation grâce au Design Thinking

Comment appliquer la transformation numérique à des processus internes et RH ? En changeant de posture et en pensant expérience collaborateur ! J’ai demandé l’avis de Corine Sempé qui conduit des missions en transformation RH et gestion du changement. Suite à un parcours professionnel centré sur la relation client elle a décidé d’engager son action sur la relation et l’expérience collaborateur. A ce titre elle intervient dans les entreprises avec une approche portant sur les impacts internes et la valeur. Elle utilise notamment l’intelligence collective et le design thinking pour impliquer les parties prenantes autour de sujets RH.

Les RH ne sont-elles pas suffisamment impliquées dans la transformation des entreprises ?

Les enjeux de transformation sont de plus en plus complexes à aborder avec des problématiques souvent transverses et des silos qui apparaissent comme des freins. Si la contribution des RH est de préparer le futur et de concilier le temps court (action) et le temps plus long (transformation des processus), alors les RH ont un rôle pivot majeur. Cette conviction, je la partage avec nombre de RH et pour ma part, je la mets en pratique notamment avec l’acculturation au numérique et à l’intelligence collective.

Pour accompagner les transformations de leurs organisations, les Ressources Humaines doivent elles-mêmes se réinventer et se transformer ?

Les RH sont au cœur de nombreuses problématiques sur lesquelles elles sont redevables à l’organisation sans néanmoins toujours disposer de forts leviers d’action. Elles sont par ailleurs souvent déconsidérées dans leur action du fait d’un positionnement ambiguë et d’avoir été trop longtemps cantonnées à des rôles purement administratifs. Au final, si les RH veulent être au cœur de la transformation des organisations, elles doivent commencer à se transformer elles-mêmes

C’est un véritable changement de posture en quelque sorte ?

Oui en effet, toute transformation nécessite d’engager les collaborateurs à se remettre en question tout en étant force de proposition. C’est un peu cornélien, source de stress voire contreproductif. Les RH peuvent jouer ce rôle de liant pour favoriser l’engagement attendu des diverses parties prenantes. Le succès d’une transformation vient du fait que chaque solution est à la fois bien dimensionnée au contexte et enjeux et surtout qu’elle sera adoptée. Il ne s’agit donc pas de déployer une décision top-down mais de coconstruire la meilleure ou tout au moins la moins pire des solutions. C’est donc du sur-mesure sur un terrain qui est mouvant. Ainsi au niveau des RH, c’est un véritable changement de posture qui est attendu et qui n’est ni celui du manager ni celui du consultant. C’est un rôle de facilitateur qui va, de par sa neutralité, permettre de favoriser l’émergence de solutions par les parties prenantes elles-mêmes. Pour ce faire, il existe plusieurs approches et le Design Thinking en est une qui permet de faire collaborer les équipes dans un cadre cohérent, compréhensible et surtout productif.

Le Design Thinking en entreprise n’est pas très nouveau néanmoins ?

C’est vrai mais à ce jour le Design Thinking est plutôt utilisé dans le cadre de création de nouveaux produits ou de services car il favorise une meilleure prise en compte des besoins des demandeurs (ou clients). Cette méthode est relativement peu utilisée au niveau des modes de fonctionnements internes alors que la notion de client interne est tout aussi importante que celle de clients externes tout comme l’ont montré plusieurs auteurs comme Vineet Nayar* pour ne citer que le plus emblématique. Il est ainsi très efficient d’appliquer les principes du Design Thinking aux problématiques RH car c’est une méthode transverse qui permet d’écouter et d’impliquer toutes les parties prenantes.

L’attention aux parties prenantes est donc la clef de voute des processus RH ?
Effectivement la constitution des groupes de travail est tout aussi importante que l’intention que l’on veut donner à l’atelier. Le risque le plus courant est – sous prétexte de vouloir faire du tout collaboratif – de constituer des groupes principalement d’opérationnels sans y inclure les fonctions support. Ce manque de pluralité des visions prive le groupe d’autres points de vue et d’une pensée plus en mode ‘hélicoptère’.

En quoi le Design Thinking est-il si pertinent ?
Dans une économie de marché basée sur la performance et l’adaptation continue aux usages des clients, la contribution des collaborateurs est essentielle pour permettre ce mouvement continu d’adaptation.
En cherchant à comprendre la vraie problématique client/utilisateur, en identifiant des solutions, en testant et itérant, le Design Thinking se révèle très efficace en termes de résultats opérationnels et permet aussi un alignement et engagement des équipes. Mais toute la beauté du Design Thinking réside aussi dans son (apparente) simplicité. Beaucoup moins complexe que le Lean par exemple, cette méthode devient vite un « langage commun » pour les collaborateurs à l’image des « stand up meeting », « kanban » ou autres outils issus de l’agile. Ainsi, plus les collaborateurs s’approprient l’outil plus ils deviennent efficients et exigeants envers les outputs, plus les résultats sont pertinents. Évidemment leDesign Thinking ne fait pas tout, c’est une méthode. D’où l’importance du rôle du facilitateur et de l’engagement des collaborateurs.

Il est utile de rappeler les grands principes du Design Thinking.
Le postulat de départ est simple : premièrement, il faut identifier la problématique avec l’usager/utilisateur et deuxièmement tout un chacun dispose d’une partie de la solution. Dès lors, il s’agit de favoriser cet alignement sur la problématique à résoudre et de libérer l’expression de chaque point de vue.
L’approche méthodologique du Design Thinking alterne donc des phases d’ouverture et de fermeture de manière à aboutir à des choix et des décisions opérationnelles construites en groupe sur le temps de l’atelier. On parle alors de réflexion en double diamant : Découvrir > Définir > Développer > Livrer

Le Design Thinking remet le l’humain au centre de la transformation ?
Dans un contexte où il faut concilier agilité business et engagement des collaborateurs pour renforcer l’efficacité opérationnelle des organisations, utiliser les outils d’intelligence collective est plus que jamais essentiel. Mais cela suppose déjà un changement de posture des RH pour qu’elles se positionnent comme un vrai pivot, qu’elles repensent leurs approches et osent le collaboratif.
Evidement on ne se décrète pas facilitateur en intelligence collective mais on peut déjà commencer avec un outil comme le Design Thinking qui offre un cadre à la fois rassurant et efficace pour initier des processus de co-construction.
Outre le fait de trouver des solutions aux problèmes posés, le changement de posture des participants induit par la force d’entrainement du collectif est véritablement extraordinaire. C’est à se demander parfois si nous n’avons pas tout simplement oublié comment travailler ensemble. Le Design Thinking a donc aussi cette vertu immatérielle, celle de réenchanter le travail en commun pour s’engager sur une solution partagée (prototype).

*Vineet Nayar ‘Les employés d’abord les clients ensuite’ Inspiration Article Harvard Business Review : Les RH adoptent les méthodes agiles – HBR

corinesempe@konov.fr

Intelligence artificielle : Du jeu de poker à la stratégie militaire.

Les tournois de jeux opposant l’homme à l’intelligence artificielle ont tous tourné à l’avantage de la machine. Chaque victoire marque l’évolution de l’IA. Développé par Carnegie Mellon University sur des ordinateurs HPE, le programme Libratus a vaincu en 2017 des joueurs de poker et ouvert des perspectives sur d’autres applications.

Le Deep Leaning a dû attendre son heure. En 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Les principes mathématiques étaient posés mais la puissance des ordinateurs est restée longtemps trop limitée pour exploiter le deep learning et surtout on manquait de données nécessaires à l’apprentissage des machines. Il faudra attendre les années 2010 pour que le deep learning refasse vraiment parler de lui. La technologie a évolué, les coûts ont baissé et internet a donné accès à de gigantesques volumes de données. En 2012 Lors de la Compétition ImageNet de Reconnaissance Visuelle à Grande Échelle (ILSVRC), l’équipe de Geoffrey Hinton (l’un des lauréats du prix Turing 2019) réussit à reconnaitre des images avec un taux d’erreur de 16% alors qu’auparavant on n’atteignait que 25%. Depuis le taux d’erreur n’a eu de cesse de s’améliorer. En 2016 il était de 5,7% et aujourd’hui il est inférieur aux taux d’erreur d’un être humain.

Du jeu de dames au Poker : l’évolution de l’IA et des ordinateurs. Les tournois opposant la machine à l’humain dans des jeux de stratégies ont marqué les étapes de l’intelligence artificielle. En 1994 l’université d’Alberta rencontra le champion Tinsley avec un ordinateur nommé Chinook. Quelques années plus tard en 1997, c’est au tour d’IBM avec Deep Blue de s’attaquer au jeu d’échec plus complexe avec ces 10 puissance 47 combinaisons qui se conclut par la défaite du célèbre Gary Kasparov. L’IA de l’époque basée sur des ordinateurs mémorisant les règles et des quantités de parties déjà jouées avait fait des prouesses mais pas suffisamment pour s’attaquer au jeu de Go bien plus complexe avec ces 10 puissance 171 combinaisons. Il faudra attendre 2016, le recours au deep learning et à de puissants ordinateurs pour que la machine Alpha Go vienne à bout du champion du monde de Go Lee Sedol. La victoire a marqué les esprits et pour ceux que cela intéresse un documentaire sur Netflix revient sur l’histoire de ce succès technologique. Plus surprenant encore en 2017, l’IA avec le programme « Libratus » l’emporte contre quatre champions du monde du Poker.

Du poker aux stratégies militaires. Le programme Libratus a été développé par Carnegie Mellon University. Pour le tournoi de poker ce programme fonctionnait sur un super ordinateur nommé Bridges construit par le constructeur informatique HPE. J’ai eu l’occasion d’assister à plusieurs conférences de Dr. Eng Lim Goh – Vice-Président CTO chez HPE qui expliquait la difficulté de l’aventure. Le poker est un jeu complexe avec 10 puissance 160 combinaisons mais qui se distingue des autres jeux. Les jeux d’échecs et de Go sont des jeux ou chaque joueur dispose de la totalité des informations toutes les pièces étant visibles sur le plateau. En ce qui concerne le poker c’est totalement différent puisque les cartes en main sont cachées. Difficulté supplémentaire le bluff est autorisé ce qui rend la tâche particulièrement difficile pour une machine. Les stratégies appliquées pour le jeu de Go ne s’appliquent donc pas et Libratus a dû élaborer une stratégie basée sur des données incomplètes en utilisant le concept de théorie des jeux « Nash Equilibrium ». Ce type d’approche peut trouver des applications au-delà des jeux. Un des chercheurs qui participait au projet Libratus,Tuomas Sandholm, a créé en 2018 la start-up Strategy Robot pour adapter ces technologies de jeux au domaine militaire pour par exemple explorer différentes stratégies militaires. Dans une guerre l’adversaire n’utilise pas forcément les même règles et l’IA pourrait se révéler une aide utile dans la prise de décision.

La donnée au cœur de l’IA. Que les informations soient complètes ou incomplètes, les données jouent un rôle capital dans le fonctionnement d’une IA. Une voiture autonome totalement sûre nécessitera 1 milliard de kilomètres de données de conduite, et chaque kilomètre génère 15 gigaoctets. Pour le Vice President de HPE, les données constituent un avantage compétitif pour les entreprises et il les incite à commencer à collecter le plus tôt possible les données pour préparer l’avenir. Face aux GAFA qui ne cessent d’accumuler des données il suggère aux entreprises d’un même domaine d’activité de partager leur données quitte à créer des consortiums.

Le Dr. Eng Lim Goh interviendra le 26 novembre à la Seine Musicale à Boulogne Billancourt dans le cadre du HPE Discover More. C’est un orateur passionné et inspirant qui pourra évoquer Libratus mais aussi ses travaux avec la NASA. Une occasion à ne pas rater. #HPEDiscoverMore #Paris

IBM #ThinkParis2019 : Imaginer le monde de demain au travers du prisme technologique

L’hégémonie des GAFA et des BATX (l’équivalent chinois) inquiète. On s’interroge sur la possibilité de bâtir des acteurs européens capables de rivaliser avec les plateformes de ces géants du numérique. A l’occasion de l’événement IBM Paris Think 2019 Nicolas Sekkaki, Président d’IBM France a livré quelques pistes intéressantes avec des plateformes Business et des plateformes technologiques. Tout est encore possible…

Le monde des « Business Plateforms ». Dans une économie moderne axée sur la donnée on oublie que 80% des données ne sont pas accessibles par des moteurs de recherches car elles sont détenues par les entreprises. Il y a donc là un énorme potentiel pour créer de nouvelles plateformes avec des services bien différents de ceux proposés par les GAFA. Cela suppose néanmoins que les entreprises collaborent entre elles au-delà de leurs différences et de leur compétition pour fédérer des services communs à un domaine. C’est loin d’être impossible comme l’a expliqué Nicolas Sekkaki. Dans les transports maritimes IBM a créé le consortium « Tradelens » avec le transporteur Maersk qui a été ouvert ensuite à d’autres acteurs comme MSC et CMA-CGM. Le monde des transports était encore très peu digitalisé et une importante documentation papier accompagnait chaque container. La blockchain (Hyperledger) a été utilisée pour dématérialiser l’ensemble des documents et des processus via des smart contracts. Même approche dans le monde de l’alimentation avec une plateforme de traçabilité alimentaire à base de la blockchain: « IBM Food Trust ». Cette « business platform » permet d’assurer la traçabilité alimentaire, de mesurer l’efficacité de chaque maillon et de valoriser les filières.  Un autre type plateforme tout aussi intéressante concerne les compétences. Certaines organisations comme l’AP-HP ont regardé des cas d’usage pouvant aider le personnel à mieux utiliser la technologie au quotidien dans leurs métiers. On voit apparaitre des plateformes de compétences (ou factory cognitive) qui regroupent des compétences multidisciplinaires et imaginent comment des technologies telles que l’intelligence artificielle pourraient assister le personnel médical et le soulager de certaines taches fastidieuses. On assiste dans la radiologie à une explosion de l’imagerie médicale alors que l’on manque de radiologues. L’IA s’avère dans ce cas là d’une aide considérable pour raccourcir le temps d’analyse des radios.

Les plateformes technologiques axées sur l’open source. Un énorme virage a été pris par IBM avec l’acquisition de RedHat : celui de l’Open Source.  Si RedHat garde son autonomie, IBM entend bien être son premier partenaire. Nicolas Sekkaki considère que 80% du patrimoine des entreprises ne se prête pas au cloud de manière simple du fait de leur conception monolithique. La solution viendra sans doute des technologies de containers et on peut estimer d’après Agnieszka Bruyere d’IBM que la majorité des systèmes d’information sera containerisée d’ici 2025. C’est aussi le moyen d’assurer la portabilité des applications et de supprimer leur adhérence à un cloud particulier. La technologie Openshift de RedHat jouera un rôle crucial pour containeriser les applications et de les orchestrer avec Kubernetes. On aura ainsi l’assurance qu’une application containerisée pourra être utilisée sur n’importe quelle plateforme dans n’importe quel cloud. Nicolas Sekkaki estime que la containerisation aura plus d’impact que la virtualisation sur les dix dernières années. Ce virage vers l’Open Source est aussi l’occasion d’une importante transformation au sein d’IBM et une refonte des services. L’Open Source est un vecteur d’innovation du fait de sa large communauté. Les bonnes idées émergent et l’adoption par le plus grand nombre établit des standards de fait.

L’humain a été un sujet récurrent pendant Think 2019 au travers de l’entreprise « augmentée » Pour Barbara Lavernos de L’Oreal la transformation numérique doit résonner avec une libération des individus et nécessite de les impliquer à tous les niveaux. Nicolas Sekkeki a rappelé le lancement en septembre du projet P-Tech en France qui reproduit l’initiative née en 2011 aux Etats Unis, grace à Barak Obama et IBM, pour préparer les jeunes des filières professionnelles aux métiers de demain.

 

Optimiser l’expérience client imposera de nouveaux modèles de données (étude Adobe)

Il est relativement peu fréquent de demander aux professionnels de l’IT leur perception sur l’expérience client. C’est tout l’intérêt du rapport Tendances digitales 2019 d’Econsultancy/ Adobe qui apporte un éclairage sur la nécessaire collaboration entre professionnels de l’IT et les directions métiers pour faire entrer l’expérience client dans une nouvelle phase. L’occasion également de mieux comprendre les dernières annonces d’Adobe.

 

L’expérience client doit se rationaliser pour progresser.Depuis une dizaine d’année, l’expérience client est devenue le leitmotiv des entreprises qui font tout pour surprendre et dépasser les attentes des clients à grand renfort de technologies. Cette expérience client s’est souvent construite sur un assemblage disparate de solutions réparties entre différents départements de l’entreprise sans impliquer nécessairement les directions informatiques.  Cela explique sans doute pourquoi seuls 45% des professionnels de l’IT estiment que leur entreprise est mature ou très mature dans le domaine de l’expérience client. Les solutions échangent entre elles des données de plus en plus nombreuses. Avec le rôle grandissant des technologies l’expérience client ne peut pas faire l’impasse d’une réflexion sur l’infrastructure de données pour en optimiser l’exploitation et assurer une protection des données efficace en étant conforme au règlement européen RGPD. Les directions métiers concernées ont donc tout intérêt à collaborer étroitement avec les directions informatiques. Le rapport met en évidence que pour 46% des professionnels de l’IT l’optimisation de l’expérience client et la protection des données sera une priorité pour leur entreprise cette année.

L’expérience client ne peut se réduire à une course aux technologies. Selon le rapport les professionnels de l’informatique estiment que leur travail, dans l’année qui vient, consistera principalement à déployer des expériences client optimisées et à préserver la sécurité des données de l’entreprise et des clients. La technologie est devenue indissociable de l’expérience client. Elle en fait un sujet technique et complexe qui pâtit souvent d’une absence de vision commune en matière de transformation digitale. Les professionnels de l’informatique ont dû développer une vision stratégique globale en adéquation avec celle de l’entreprise. La question des budgets se pose d’autant plus que les professionnels de l’IT divergent sur la méthode employée pour améliorer l’expérience client. Un quart d’entre eux a recours aux nouvelles technologies alors qu’une proportion sensiblement identique (22%) privilégie l’optimisation des infrastructures existantes (la collecte et l’unification des données restent une préoccupation importante pour 19% des participants). Sans prendre parti pour l’une ou l’autre des approches, l’idéal étant sans doute une combinaison des deux, le rapport note néanmoins une tendance à se précipiter sur les technologies avant de mettre à profit les ressources existantes.

 Décrypter le rapport à la lumière des dernières annonces Adobe. La stratégie d’Adobe consiste à faciliter la collaboration entre l’IT et les autres fonctions. Cela passe par une architecture des données adaptée aux ambitions de l’expérience client. Plutôt que d’échanger des données entre de multiples applications mieux vaut disposer d’une sorte de « lac de données » (datalake) ou chaque application impliquée dans l’expérience client y puise les données nécessaires. En septembre 2018 Adobe, SAP et Microsoft Adobe se sont associés pour créer Open Data Initiative. Grâce à cette alliance, les clients pourront combiner des données provenant de différentes sources en utilisant un seul modèle de données pour créer un profil client en temps réel.  Depuis Adobe a annoncé, en mars 2019, « l’Experience Customer Platform » qui concrétise les principes de l’Open Data Initiative. Cette Plateforme collecte et traite des données en temps réel – des dizaines de millions d’événements par seconde – provenant de sources multiples et les organise en Experience Data Models (XDM). Les entreprises peuvent également importer leurs propres données provenant de solutions d’ERP, de CRM et d’autres sources. Les services d’IA d’Adobe Sensei apportent la couche d’intelligence nécessaire pour associer données et contenu, permettant aux marques de diffuser systématiquement le bon message, au bon moment et sur le bon canal.

L’expérience client bénéficiera d’autant plus facilement des nouvelles technologies telles que l’IA et l’IoT (objets connectés) qu’elle disposera d’une architecture de données unifiées.

 

 

Sesame-IT la Start-up de cybersécurité qui cible les opérateurs d’importance vitale OIV

Vivatech qui vient de s’achever nous a offert une véritable immersion dans le numérique. L’avenir s’annonce comme un foisonnement de technologies qui font émerger d’incroyables usages. Le monde de demain sera indéniablement numérique. Ce festival d’innovations ne doit pas nous faire oublier que notre société devient par la même occasion de plus en plus vulnérable aux cyberattaques. On n’hésite plus à parler de cyberguerre qui pourrait paralyser tout ou partie d’un pays en ciblant les organismes critiques. Rencontre sur le stand de HPE France à Vivatech d’Audrey Gayno-Amédro CEO et co-fondatrice de Sesame-it .

Protéger les entreprises vitales pour le pays. L’état a recensé près de 250 opérateurs d’importance vitale (OIV), dans le domaine privé et public (banques, transports, santé, télécoms, énergie, alimentation). Leur activité est jugée indispensable au bon fonctionnement et à la survie de la nation. La liste est classée secret défense pour d’évidentes raisons de sécurité. Ces OIV ont l’obligation de se protéger en se conformant à la Loi de Programmation Militaire (LPM) et en s’équipant de dispositifs certifiés. L’ANSSI supervise la mise en application de l’article 22 de la LPM par les OIV et certifie les solutions de détection (sonde souveraine) qui pourront être utilisées. Depuis le 4 avril deux sondes ont déjà été qualifiées et la sonde de Sesame-IT est en cours de validation. Les OIV ont désormais deux ans devant eux pour installer des sondes de détection chez eux. En cas de manquement les dirigeants pourront être poursuivis pénalement.

Sesame-IT un pure player de la cybersécurité. Cette jeune entreprise fait partie du programme start-up HPE 2019 et bénéfice ainsi du soutien de l’entreprise pour l’aider dans son développement. Sesame-IT a été fondée en 2017 par deux experts en sécurité et en réseaux rompus aux techniques d’analyse et d’extraction de données dans les réseaux à très forts débits. Les fondateurs sont fortement sensibilisés aux conséquences des cyber-attaques dirigées contre les OIV. Ils ont entrepris de développer une solution ‘haute fiabilité’, à la fois pour répondre aux besoins de la Loi de Programmation Militaire, mais aussi pour continuer de participer à la protection de la souveraineté de notre pays.  Cette sonde souveraine a été conçue pour ne permettre aucun accès ni au réseau qu’elle surveille, ni aux informations sensibles qu’elle embarque. C’est sa seconde raison d’être, après la fiabilité de détection des menaces et infiltrations. La sonde souveraine s’installe sur le réseau, derrière les nouvelles générations de Firewall, les IPS et les passerelles web sécurisées.

Piéger les pirates avec des leurres sur le principe de « deception ». Plus évolué que les fameux pots de miel (honeypots) destinés à attirer les pirates, Sesame-IT utilise les principes de « deception » qui consiste à créer une perception erronée de la surface d’attaque. Dans le cas des OIV, Sesame-IT propose de créer des réseaux factices pour leurrer les pirates et les détourner des véritables réseaux. Les cyberrisques sont ainsi diminués et la sécurité augmentée. Des algorithmes de machine learning sont utilisés pour suggérer des réseaux factices et les faire évoluer. L’attaque peut ainsi être observée de manière détaillée tout en protégeant le réseau réel. La solution embarque également de nombreux mécanismes pointus de durcissement (exécution des processes, OS, configurations, containerisation, chiffrement, contrôles d’accès à plusieurs niveaux…). La solution Sesame-IT détecte les menaces sur signature, mais aussi les signaux faibles, et permet de créer des règles en fonction des découvertes de nouveaux ‘exploits’ (exploitation d’une faille dans le code) et de recommandations envoyées par les autorités.

En tant que start-up innovante visant ce marché regulé des OIV, le projet de Sesame-IT bénéficie du soutien de l’ANSSI dans la perspective de l’obtention d’une qualification au titre de la LPM.

 

 

 

 

 

 

 

 

 

.

 

 

Le coût des attaques et les réglementations stimulent la cybersecurité

Certains se rappelleront sans doute le film Wargames qui mettait en scène un jeune pirate informatique  qui accédait à un supercalculateurdes forces armées américaines. En 1983, date de sortie du film, l’histoire faisait figure de science-fiction. Aujourd’hui les cyberattaques font régulièrement parlées d’elles et leurs effets sont de plus en plus inquiétants pour l’économie, la sécurité et la démocratie et incitent à renforcer les mesures de cybersecurité.

Les dépenses en sécurité n’ont jamais été aussi élevées. Le cabinet Gartner les estime à 124 milliards de dollars pour 2019 au niveau mondial. La prise de conscience est réelle. Elle a muri progressivement depuis la cyberattaque contre l’Estonie en 2007 pour éclater sans doute en 2017 avec les ransomwares Wannacry et NotPetya. La leçon a été violente et immédiate. Les entreprises ont compris que les menaces pouvaient se propager extrêmement rapidement (en moins d’une heure pour NotPetya), s’étendaient au-delà des frontières (150 pays concernés par Wannacry) et touchaient tous types d’organisations et d’entreprises. On a surtout pu mesurer à cette occasion l’ampleur des dégâts en termes financiers. Pour Wannacry et NotPetya les estimations sont de l’ordre de 14 à 18 milliards de dollars sans compter les effets sur l’image des entreprises. Saint Gobain a reconnu avoir subi 220 millions de pertes avec Wannacry et l’armateur de containeurs maritimes Maersk les estime à 300 millions de dollars dus à NotPetya. En 2019 on a assisté avec « Locker Goga » à des approches beaucoup plus ciblées comme l’ont constaté à leur dépends Altran et Norsk Hydro. Cette dernière entreprise a constaté dès la première semaine des dégâts d’environ 40 millions de dollars. Ces montants font l’effet d’un électrochoc qui ne peut qu’inciter à investir dans la cybersécurité. Une étude Accenture a révélé qu’en France le cout des attaques avait progressé de 27,4% en un an et de 72% en 5 ans.

Les sources des attaques sont majoritairement à l’extérieur des frontières. La lutte contre les pirates informatiques est d’autant plus complexe que l’on a souvent affaire à des organisations structurées et compétentes qui lancent leurs attaques à partir l’étranger.  Une grande partie des attaques de phishing (hameçonnage) proviennent par exemple du Nigeria. Bien qu’il soit toujours difficile d’affirmer catégoriquement l’origine des attaques on soupçonne la Chine et la Russie (source Carbon Black) d’en être les responsables les plus importants.  A l’approche des élections européennes on s’inquiète des activités des groupes APT 28 et Sandworm Team (source Fire Eye) proches de la Russie. Ces deux groupes ciblent des organisations gouvernementales et des organismes de presse avec des méthodes de « spear phishing » (harponnage) pour extraire des données en vue de nuire à des candidats ou à des partis politiques.

La réglementation s’organise et s’harmonise au niveau européen.L’arsenal réglementaire s’est étoffé ces dernières années pour renforcer la confiance dans le numérique et s’adapter à la typologie des entreprises, organisations et institutions. Les opérateurs d’importance vitales (OIV), dont l’activité touche à la sécurité nationale, doivent respecter les règles fixées par certains articles de la loi de programmation militaire (LPM). Les Opérateurs de services essentiels (OSE) concernent d’avantage l’économie du pays et disposent depuis mai 2018 de la directive européenne NIS fortement inspirée de la LPM. Le même mois était publié le règlement européen RGPD qui porte sur la protection des données personnelles et oblige les entreprises à notifier toute violation de données, auprès des autorités de contrôles et des personnes concernées, au maximum 72h après avoir découvert la violation. Auparavant cette notification avait lieu en moyenne 49 jours après la découverte. Un progrès en termes d’information mais l’attaque a pu avoir eu lieu bien avant sans que personne ne s’en soit rendu compte. Pour compléter le paysage réglementaire on peut citer également le règlement européen eIDAS qui traite de l’identification électronique et des services de confiance.

La cybersécurité va au-delà de la, protection des données et des actifs d’une entreprise. Il s’agit d’instaurer la confiance. Les solutions de cybersecurité mises en place sont encore trop souvent un empilement de produits. La nature des menaces et leurs sophistications nécessitent non seulement d’investir mais également de reconsidérer les méthodes.