La Culture adopte le numérique de manière spectaculaire

Les réseaux sans fils ont ouvert la voie à la mobilité et à la géolocalisation. Les applications mobiles de nos smartphones permettent aux entreprises d’interagir en permanence avec leurs clients et leurs employés. Réalité augmentée et réalité virtuelle associées à l’intelligence artificielle exploitent ces infrastructures de réseau pour enrichir les expériences proposées aux clients et aux employées. Des grands magasins aux stades connectés, tous les secteurs rivalisent d’imagination pour imaginer de nouvelles expériences. La culture ne fait pas exception et adopte le numérique de façon spectaculaire comme le montre l’Opéra avec HPE .

La culture sublimée par la technologie.  On ne compte plus les initiatives au travers le monde qui s’approprient le digital pour nous faire découvrir la culture sous un nouveau jour. Le digital s’invite dans le processus créatif. Les spectateurs et les visiteurs ne sont plus des contemplateurs, ils vivent des expériences culturelles et interagissent avec les œuvres et leurs créateurs. Un profond mouvement de modernisation traverse le monde de l’art et de la culture. Il y avait urgence car le numérique à bouleverser les habitudes. Les jeux vidéo et le cinéma créent des mondes imaginaires plus vrais que nature. Le spectateur est devenu consommateur. La culture devait se moderniser pour capter l’attention d’un public sollicité par tous ces divertissements numériques. Les nouvelles propositions culturelles surprennent et étonnent nos sens. Elles adoptent les codes du numérique pour séduire, inventer de nouvelles formes artistiques et démocratiser la culture.

Salvatore Dali revit grâce à l’intelligence artificielle. Après avoir utilisé la réalité augmentée pour enrichir la découverte des œuvres monumentales de Dali (Masterworks), le musée Dali de Floride a franchi un cap en ayant recours à l’intelligence artificielle pour faire revivre Salvatore Dali dans le cadre de l’exposition « Dali Live ».  L’artiste s’affiche grandeur nature sur des écrans interactifs, dialogue avec les visiteurs et va même jusqu’à se prêter au jeu des selfies.  Bientôt ce seront les personnages figurant dans les œuvres qui prendront vie. Des vidéos de la Joconde tournant la tête, bougeant les yeux et ouvrant la bouche de manière naturelle sont déjà disponibles sur internet. L’interaction avec les œuvres devient encore plus incroyable quand la technologie se joue de nos sens et nous transporte au cœur des œuvres. C’est un voyage dans le passé et dans l’espace rendu possible par la réalité virtuelle et les solutions immersives. La cité de l’art et de l’architecture nous invite ainsi à nous téléporter, équipés d’un sac à dos et d’un casque de réalité virtuelle, dans la pyramide de Kheops en taille réelle pour l’explorer pendant 25 minutes.

L’Opéra national de Paris met en scène la technologie. En scène ou en coulisse la technologie est désormais omniprésente à l’Opéra National de Paris. La technologie intervient dans le processus créatif, favorise la transmission de la culture et ouvre l’art à un public plus large et diversifié. Un partenariat a été signé entre HPE et l’Opéra National de Paris pour équiper tous les espaces publics de l’Opéra d’une solution Wifi de nouvelle génération afin de proposer une expérience amplifiée avec des contenus interactifs et ludiques sur site et à l’extérieur des théâtres. Grace à ces infrastructures de réseau sans fil, l’Opera propose des spectacles novateurs sur Internet. La « 3 ème scène » est un lieu virtuel que les artistes peuvent s’accaparer pour créer des œuvres originales s’inspirant de celles de l’Opéra. Le film « Le Fantôme » par exemple s’approprie le mythe du fantôme de l’Opéra en lui apportant une touche de modernité avec un ton décalé qui mêle l’univers de la banlieue et celui de l’Opéra. Une manière d’ouvrir la culture sur d’autres horizons et d’atteindre là encore de nouveaux publics.  L’Opéra propose aux nouvelles générations nées avec le digital (les « digital natives ») des spectacles « Trans media » qui adoptent les codes et les technologies des jeux vidéo. Peter Pan est la première création de ce type. Les chanteurs, dotés de bracelets connectés, interagissent avec des décors virtuels qui évoluent sans cesse. Les spectateur, grâce à une application téléchargée sur leur smartphone, deviennent partie intégrante du spectacle. En fonction des scènes ils reçoivent sur leurs téléphones portables des effets sonores et lumineux et sont invités à participer à un jeu vidéo collectif lors de deux scènes. 

La qualité d’expérience d’un visiteur de musée, d’un patient de l’hôpital ou d’un consommateur d’un magasin dépend des performances des réseaux sans fil tel que celui mis en œuvre à l’Opéra par HPE Aruba.  C’est sans doute ce lien fort entre expérience client et réseau sans fil qui explique la position d’Aruba comme leader dans le cadran magique du Gartner. Alain Carpentier Directeur des ventes internationales Aruba nous en dira plus lors de son intervention à HPE Discover More qui se tiendra le 26 novembre à la Seine Musicale de Boulogne Billancourt. #HPEDiscoverMore #Paris

 

 

 

 

 

 

 

 

Des RH plus impliquées dans la transformation grâce au Design Thinking

Comment appliquer la transformation numérique à des processus internes et RH ? En changeant de posture et en pensant expérience collaborateur ! J’ai demandé l’avis de Corine Sempé qui conduit des missions en transformation RH et gestion du changement. Suite à un parcours professionnel centré sur la relation client elle a décidé d’engager son action sur la relation et l’expérience collaborateur. A ce titre elle intervient dans les entreprises avec une approche portant sur les impacts internes et la valeur. Elle utilise notamment l’intelligence collective et le design thinking pour impliquer les parties prenantes autour de sujets RH.

Les RH ne sont-elles pas suffisamment impliquées dans la transformation des entreprises ?

Les enjeux de transformation sont de plus en plus complexes à aborder avec des problématiques souvent transverses et des silos qui apparaissent comme des freins. Si la contribution des RH est de préparer le futur et de concilier le temps court (action) et le temps plus long (transformation des processus), alors les RH ont un rôle pivot majeur. Cette conviction, je la partage avec nombre de RH et pour ma part, je la mets en pratique notamment avec l’acculturation au numérique et à l’intelligence collective.

Pour accompagner les transformations de leurs organisations, les Ressources Humaines doivent elles-mêmes se réinventer et se transformer ?

Les RH sont au cœur de nombreuses problématiques sur lesquelles elles sont redevables à l’organisation sans néanmoins toujours disposer de forts leviers d’action. Elles sont par ailleurs souvent déconsidérées dans leur action du fait d’un positionnement ambiguë et d’avoir été trop longtemps cantonnées à des rôles purement administratifs. Au final, si les RH veulent être au cœur de la transformation des organisations, elles doivent commencer à se transformer elles-mêmes

C’est un véritable changement de posture en quelque sorte ?

Oui en effet, toute transformation nécessite d’engager les collaborateurs à se remettre en question tout en étant force de proposition. C’est un peu cornélien, source de stress voire contreproductif. Les RH peuvent jouer ce rôle de liant pour favoriser l’engagement attendu des diverses parties prenantes. Le succès d’une transformation vient du fait que chaque solution est à la fois bien dimensionnée au contexte et enjeux et surtout qu’elle sera adoptée. Il ne s’agit donc pas de déployer une décision top-down mais de coconstruire la meilleure ou tout au moins la moins pire des solutions. C’est donc du sur-mesure sur un terrain qui est mouvant. Ainsi au niveau des RH, c’est un véritable changement de posture qui est attendu et qui n’est ni celui du manager ni celui du consultant. C’est un rôle de facilitateur qui va, de par sa neutralité, permettre de favoriser l’émergence de solutions par les parties prenantes elles-mêmes. Pour ce faire, il existe plusieurs approches et le Design Thinking en est une qui permet de faire collaborer les équipes dans un cadre cohérent, compréhensible et surtout productif.

Le Design Thinking en entreprise n’est pas très nouveau néanmoins ?

C’est vrai mais à ce jour le Design Thinking est plutôt utilisé dans le cadre de création de nouveaux produits ou de services car il favorise une meilleure prise en compte des besoins des demandeurs (ou clients). Cette méthode est relativement peu utilisée au niveau des modes de fonctionnements internes alors que la notion de client interne est tout aussi importante que celle de clients externes tout comme l’ont montré plusieurs auteurs comme Vineet Nayar* pour ne citer que le plus emblématique. Il est ainsi très efficient d’appliquer les principes du Design Thinking aux problématiques RH car c’est une méthode transverse qui permet d’écouter et d’impliquer toutes les parties prenantes.

L’attention aux parties prenantes est donc la clef de voute des processus RH ?
Effectivement la constitution des groupes de travail est tout aussi importante que l’intention que l’on veut donner à l’atelier. Le risque le plus courant est – sous prétexte de vouloir faire du tout collaboratif – de constituer des groupes principalement d’opérationnels sans y inclure les fonctions support. Ce manque de pluralité des visions prive le groupe d’autres points de vue et d’une pensée plus en mode ‘hélicoptère’.

En quoi le Design Thinking est-il si pertinent ?
Dans une économie de marché basée sur la performance et l’adaptation continue aux usages des clients, la contribution des collaborateurs est essentielle pour permettre ce mouvement continu d’adaptation.
En cherchant à comprendre la vraie problématique client/utilisateur, en identifiant des solutions, en testant et itérant, le Design Thinking se révèle très efficace en termes de résultats opérationnels et permet aussi un alignement et engagement des équipes. Mais toute la beauté du Design Thinking réside aussi dans son (apparente) simplicité. Beaucoup moins complexe que le Lean par exemple, cette méthode devient vite un « langage commun » pour les collaborateurs à l’image des « stand up meeting », « kanban » ou autres outils issus de l’agile. Ainsi, plus les collaborateurs s’approprient l’outil plus ils deviennent efficients et exigeants envers les outputs, plus les résultats sont pertinents. Évidemment leDesign Thinking ne fait pas tout, c’est une méthode. D’où l’importance du rôle du facilitateur et de l’engagement des collaborateurs.

Il est utile de rappeler les grands principes du Design Thinking.
Le postulat de départ est simple : premièrement, il faut identifier la problématique avec l’usager/utilisateur et deuxièmement tout un chacun dispose d’une partie de la solution. Dès lors, il s’agit de favoriser cet alignement sur la problématique à résoudre et de libérer l’expression de chaque point de vue.
L’approche méthodologique du Design Thinking alterne donc des phases d’ouverture et de fermeture de manière à aboutir à des choix et des décisions opérationnelles construites en groupe sur le temps de l’atelier. On parle alors de réflexion en double diamant : Découvrir > Définir > Développer > Livrer

Le Design Thinking remet le l’humain au centre de la transformation ?
Dans un contexte où il faut concilier agilité business et engagement des collaborateurs pour renforcer l’efficacité opérationnelle des organisations, utiliser les outils d’intelligence collective est plus que jamais essentiel. Mais cela suppose déjà un changement de posture des RH pour qu’elles se positionnent comme un vrai pivot, qu’elles repensent leurs approches et osent le collaboratif.
Evidement on ne se décrète pas facilitateur en intelligence collective mais on peut déjà commencer avec un outil comme le Design Thinking qui offre un cadre à la fois rassurant et efficace pour initier des processus de co-construction.
Outre le fait de trouver des solutions aux problèmes posés, le changement de posture des participants induit par la force d’entrainement du collectif est véritablement extraordinaire. C’est à se demander parfois si nous n’avons pas tout simplement oublié comment travailler ensemble. Le Design Thinking a donc aussi cette vertu immatérielle, celle de réenchanter le travail en commun pour s’engager sur une solution partagée (prototype).

*Vineet Nayar ‘Les employés d’abord les clients ensuite’ Inspiration Article Harvard Business Review : Les RH adoptent les méthodes agiles – HBR

corinesempe@konov.fr

Intelligence artificielle : Du jeu de poker à la stratégie militaire.

Les tournois de jeux opposant l’homme à l’intelligence artificielle ont tous tourné à l’avantage de la machine. Chaque victoire marque l’évolution de l’IA. Développé par Carnegie Mellon University sur des ordinateurs HPE, le programme Libratus a vaincu en 2017 des joueurs de poker et ouvert des perspectives sur d’autres applications.

Le Deep Leaning a dû attendre son heure. En 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Les principes mathématiques étaient posés mais la puissance des ordinateurs est restée longtemps trop limitée pour exploiter le deep learning et surtout on manquait de données nécessaires à l’apprentissage des machines. Il faudra attendre les années 2010 pour que le deep learning refasse vraiment parler de lui. La technologie a évolué, les coûts ont baissé et internet a donné accès à de gigantesques volumes de données. En 2012 Lors de la Compétition ImageNet de Reconnaissance Visuelle à Grande Échelle (ILSVRC), l’équipe de Geoffrey Hinton (l’un des lauréats du prix Turing 2019) réussit à reconnaitre des images avec un taux d’erreur de 16% alors qu’auparavant on n’atteignait que 25%. Depuis le taux d’erreur n’a eu de cesse de s’améliorer. En 2016 il était de 5,7% et aujourd’hui il est inférieur aux taux d’erreur d’un être humain.

Du jeu de dames au Poker : l’évolution de l’IA et des ordinateurs. Les tournois opposant la machine à l’humain dans des jeux de stratégies ont marqué les étapes de l’intelligence artificielle. En 1994 l’université d’Alberta rencontra le champion Tinsley avec un ordinateur nommé Chinook. Quelques années plus tard en 1997, c’est au tour d’IBM avec Deep Blue de s’attaquer au jeu d’échec plus complexe avec ces 10 puissance 47 combinaisons qui se conclut par la défaite du célèbre Gary Kasparov. L’IA de l’époque basée sur des ordinateurs mémorisant les règles et des quantités de parties déjà jouées avait fait des prouesses mais pas suffisamment pour s’attaquer au jeu de Go bien plus complexe avec ces 10 puissance 171 combinaisons. Il faudra attendre 2016, le recours au deep learning et à de puissants ordinateurs pour que la machine Alpha Go vienne à bout du champion du monde de Go Lee Sedol. La victoire a marqué les esprits et pour ceux que cela intéresse un documentaire sur Netflix revient sur l’histoire de ce succès technologique. Plus surprenant encore en 2017, l’IA avec le programme « Libratus » l’emporte contre quatre champions du monde du Poker.

Du poker aux stratégies militaires. Le programme Libratus a été développé par Carnegie Mellon University. Pour le tournoi de poker ce programme fonctionnait sur un super ordinateur nommé Bridges construit par le constructeur informatique HPE. J’ai eu l’occasion d’assister à plusieurs conférences de Dr. Eng Lim Goh – Vice-Président CTO chez HPE qui expliquait la difficulté de l’aventure. Le poker est un jeu complexe avec 10 puissance 160 combinaisons mais qui se distingue des autres jeux. Les jeux d’échecs et de Go sont des jeux ou chaque joueur dispose de la totalité des informations toutes les pièces étant visibles sur le plateau. En ce qui concerne le poker c’est totalement différent puisque les cartes en main sont cachées. Difficulté supplémentaire le bluff est autorisé ce qui rend la tâche particulièrement difficile pour une machine. Les stratégies appliquées pour le jeu de Go ne s’appliquent donc pas et Libratus a dû élaborer une stratégie basée sur des données incomplètes en utilisant le concept de théorie des jeux « Nash Equilibrium ». Ce type d’approche peut trouver des applications au-delà des jeux. Un des chercheurs qui participait au projet Libratus,Tuomas Sandholm, a créé en 2018 la start-up Strategy Robot pour adapter ces technologies de jeux au domaine militaire pour par exemple explorer différentes stratégies militaires. Dans une guerre l’adversaire n’utilise pas forcément les même règles et l’IA pourrait se révéler une aide utile dans la prise de décision.

La donnée au cœur de l’IA. Que les informations soient complètes ou incomplètes, les données jouent un rôle capital dans le fonctionnement d’une IA. Une voiture autonome totalement sûre nécessitera 1 milliard de kilomètres de données de conduite, et chaque kilomètre génère 15 gigaoctets. Pour le Vice President de HPE, les données constituent un avantage compétitif pour les entreprises et il les incite à commencer à collecter le plus tôt possible les données pour préparer l’avenir. Face aux GAFA qui ne cessent d’accumuler des données il suggère aux entreprises d’un même domaine d’activité de partager leur données quitte à créer des consortiums.

Le Dr. Eng Lim Goh interviendra le 26 novembre à la Seine Musicale à Boulogne Billancourt dans le cadre du HPE Discover More. C’est un orateur passionné et inspirant qui pourra évoquer Libratus mais aussi ses travaux avec la NASA. Une occasion à ne pas rater. #HPEDiscoverMore #Paris

IBM #ThinkParis2019 : Imaginer le monde de demain au travers du prisme technologique

L’hégémonie des GAFA et des BATX (l’équivalent chinois) inquiète. On s’interroge sur la possibilité de bâtir des acteurs européens capables de rivaliser avec les plateformes de ces géants du numérique. A l’occasion de l’événement IBM Paris Think 2019 Nicolas Sekkaki, Président d’IBM France a livré quelques pistes intéressantes avec des plateformes Business et des plateformes technologiques. Tout est encore possible…

Le monde des « Business Plateforms ». Dans une économie moderne axée sur la donnée on oublie que 80% des données ne sont pas accessibles par des moteurs de recherches car elles sont détenues par les entreprises. Il y a donc là un énorme potentiel pour créer de nouvelles plateformes avec des services bien différents de ceux proposés par les GAFA. Cela suppose néanmoins que les entreprises collaborent entre elles au-delà de leurs différences et de leur compétition pour fédérer des services communs à un domaine. C’est loin d’être impossible comme l’a expliqué Nicolas Sekkaki. Dans les transports maritimes IBM a créé le consortium « Tradelens » avec le transporteur Maersk qui a été ouvert ensuite à d’autres acteurs comme MSC et CMA-CGM. Le monde des transports était encore très peu digitalisé et une importante documentation papier accompagnait chaque container. La blockchain (Hyperledger) a été utilisée pour dématérialiser l’ensemble des documents et des processus via des smart contracts. Même approche dans le monde de l’alimentation avec une plateforme de traçabilité alimentaire à base de la blockchain: « IBM Food Trust ». Cette « business platform » permet d’assurer la traçabilité alimentaire, de mesurer l’efficacité de chaque maillon et de valoriser les filières.  Un autre type plateforme tout aussi intéressante concerne les compétences. Certaines organisations comme l’AP-HP ont regardé des cas d’usage pouvant aider le personnel à mieux utiliser la technologie au quotidien dans leurs métiers. On voit apparaitre des plateformes de compétences (ou factory cognitive) qui regroupent des compétences multidisciplinaires et imaginent comment des technologies telles que l’intelligence artificielle pourraient assister le personnel médical et le soulager de certaines taches fastidieuses. On assiste dans la radiologie à une explosion de l’imagerie médicale alors que l’on manque de radiologues. L’IA s’avère dans ce cas là d’une aide considérable pour raccourcir le temps d’analyse des radios.

Les plateformes technologiques axées sur l’open source. Un énorme virage a été pris par IBM avec l’acquisition de RedHat : celui de l’Open Source.  Si RedHat garde son autonomie, IBM entend bien être son premier partenaire. Nicolas Sekkaki considère que 80% du patrimoine des entreprises ne se prête pas au cloud de manière simple du fait de leur conception monolithique. La solution viendra sans doute des technologies de containers et on peut estimer d’après Agnieszka Bruyere d’IBM que la majorité des systèmes d’information sera containerisée d’ici 2025. C’est aussi le moyen d’assurer la portabilité des applications et de supprimer leur adhérence à un cloud particulier. La technologie Openshift de RedHat jouera un rôle crucial pour containeriser les applications et de les orchestrer avec Kubernetes. On aura ainsi l’assurance qu’une application containerisée pourra être utilisée sur n’importe quelle plateforme dans n’importe quel cloud. Nicolas Sekkaki estime que la containerisation aura plus d’impact que la virtualisation sur les dix dernières années. Ce virage vers l’Open Source est aussi l’occasion d’une importante transformation au sein d’IBM et une refonte des services. L’Open Source est un vecteur d’innovation du fait de sa large communauté. Les bonnes idées émergent et l’adoption par le plus grand nombre établit des standards de fait.

L’humain a été un sujet récurrent pendant Think 2019 au travers de l’entreprise « augmentée » Pour Barbara Lavernos de L’Oreal la transformation numérique doit résonner avec une libération des individus et nécessite de les impliquer à tous les niveaux. Nicolas Sekkeki a rappelé le lancement en septembre du projet P-Tech en France qui reproduit l’initiative née en 2011 aux Etats Unis, grace à Barak Obama et IBM, pour préparer les jeunes des filières professionnelles aux métiers de demain.

 

Optimiser l’expérience client imposera de nouveaux modèles de données (étude Adobe)

Il est relativement peu fréquent de demander aux professionnels de l’IT leur perception sur l’expérience client. C’est tout l’intérêt du rapport Tendances digitales 2019 d’Econsultancy/ Adobe qui apporte un éclairage sur la nécessaire collaboration entre professionnels de l’IT et les directions métiers pour faire entrer l’expérience client dans une nouvelle phase. L’occasion également de mieux comprendre les dernières annonces d’Adobe.

 

L’expérience client doit se rationaliser pour progresser.Depuis une dizaine d’année, l’expérience client est devenue le leitmotiv des entreprises qui font tout pour surprendre et dépasser les attentes des clients à grand renfort de technologies. Cette expérience client s’est souvent construite sur un assemblage disparate de solutions réparties entre différents départements de l’entreprise sans impliquer nécessairement les directions informatiques.  Cela explique sans doute pourquoi seuls 45% des professionnels de l’IT estiment que leur entreprise est mature ou très mature dans le domaine de l’expérience client. Les solutions échangent entre elles des données de plus en plus nombreuses. Avec le rôle grandissant des technologies l’expérience client ne peut pas faire l’impasse d’une réflexion sur l’infrastructure de données pour en optimiser l’exploitation et assurer une protection des données efficace en étant conforme au règlement européen RGPD. Les directions métiers concernées ont donc tout intérêt à collaborer étroitement avec les directions informatiques. Le rapport met en évidence que pour 46% des professionnels de l’IT l’optimisation de l’expérience client et la protection des données sera une priorité pour leur entreprise cette année.

L’expérience client ne peut se réduire à une course aux technologies. Selon le rapport les professionnels de l’informatique estiment que leur travail, dans l’année qui vient, consistera principalement à déployer des expériences client optimisées et à préserver la sécurité des données de l’entreprise et des clients. La technologie est devenue indissociable de l’expérience client. Elle en fait un sujet technique et complexe qui pâtit souvent d’une absence de vision commune en matière de transformation digitale. Les professionnels de l’informatique ont dû développer une vision stratégique globale en adéquation avec celle de l’entreprise. La question des budgets se pose d’autant plus que les professionnels de l’IT divergent sur la méthode employée pour améliorer l’expérience client. Un quart d’entre eux a recours aux nouvelles technologies alors qu’une proportion sensiblement identique (22%) privilégie l’optimisation des infrastructures existantes (la collecte et l’unification des données restent une préoccupation importante pour 19% des participants). Sans prendre parti pour l’une ou l’autre des approches, l’idéal étant sans doute une combinaison des deux, le rapport note néanmoins une tendance à se précipiter sur les technologies avant de mettre à profit les ressources existantes.

 Décrypter le rapport à la lumière des dernières annonces Adobe. La stratégie d’Adobe consiste à faciliter la collaboration entre l’IT et les autres fonctions. Cela passe par une architecture des données adaptée aux ambitions de l’expérience client. Plutôt que d’échanger des données entre de multiples applications mieux vaut disposer d’une sorte de « lac de données » (datalake) ou chaque application impliquée dans l’expérience client y puise les données nécessaires. En septembre 2018 Adobe, SAP et Microsoft Adobe se sont associés pour créer Open Data Initiative. Grâce à cette alliance, les clients pourront combiner des données provenant de différentes sources en utilisant un seul modèle de données pour créer un profil client en temps réel.  Depuis Adobe a annoncé, en mars 2019, « l’Experience Customer Platform » qui concrétise les principes de l’Open Data Initiative. Cette Plateforme collecte et traite des données en temps réel – des dizaines de millions d’événements par seconde – provenant de sources multiples et les organise en Experience Data Models (XDM). Les entreprises peuvent également importer leurs propres données provenant de solutions d’ERP, de CRM et d’autres sources. Les services d’IA d’Adobe Sensei apportent la couche d’intelligence nécessaire pour associer données et contenu, permettant aux marques de diffuser systématiquement le bon message, au bon moment et sur le bon canal.

L’expérience client bénéficiera d’autant plus facilement des nouvelles technologies telles que l’IA et l’IoT (objets connectés) qu’elle disposera d’une architecture de données unifiées.

 

 

Sesame-IT la Start-up de cybersécurité qui cible les opérateurs d’importance vitale OIV

Vivatech qui vient de s’achever nous a offert une véritable immersion dans le numérique. L’avenir s’annonce comme un foisonnement de technologies qui font émerger d’incroyables usages. Le monde de demain sera indéniablement numérique. Ce festival d’innovations ne doit pas nous faire oublier que notre société devient par la même occasion de plus en plus vulnérable aux cyberattaques. On n’hésite plus à parler de cyberguerre qui pourrait paralyser tout ou partie d’un pays en ciblant les organismes critiques. Rencontre sur le stand de HPE France à Vivatech d’Audrey Gayno-Amédro CEO et co-fondatrice de Sesame-it .

Protéger les entreprises vitales pour le pays. L’état a recensé près de 250 opérateurs d’importance vitale (OIV), dans le domaine privé et public (banques, transports, santé, télécoms, énergie, alimentation). Leur activité est jugée indispensable au bon fonctionnement et à la survie de la nation. La liste est classée secret défense pour d’évidentes raisons de sécurité. Ces OIV ont l’obligation de se protéger en se conformant à la Loi de Programmation Militaire (LPM) et en s’équipant de dispositifs certifiés. L’ANSSI supervise la mise en application de l’article 22 de la LPM par les OIV et certifie les solutions de détection (sonde souveraine) qui pourront être utilisées. Depuis le 4 avril deux sondes ont déjà été qualifiées et la sonde de Sesame-IT est en cours de validation. Les OIV ont désormais deux ans devant eux pour installer des sondes de détection chez eux. En cas de manquement les dirigeants pourront être poursuivis pénalement.

Sesame-IT un pure player de la cybersécurité. Cette jeune entreprise fait partie du programme start-up HPE 2019 et bénéfice ainsi du soutien de l’entreprise pour l’aider dans son développement. Sesame-IT a été fondée en 2017 par deux experts en sécurité et en réseaux rompus aux techniques d’analyse et d’extraction de données dans les réseaux à très forts débits. Les fondateurs sont fortement sensibilisés aux conséquences des cyber-attaques dirigées contre les OIV. Ils ont entrepris de développer une solution ‘haute fiabilité’, à la fois pour répondre aux besoins de la Loi de Programmation Militaire, mais aussi pour continuer de participer à la protection de la souveraineté de notre pays.  Cette sonde souveraine a été conçue pour ne permettre aucun accès ni au réseau qu’elle surveille, ni aux informations sensibles qu’elle embarque. C’est sa seconde raison d’être, après la fiabilité de détection des menaces et infiltrations. La sonde souveraine s’installe sur le réseau, derrière les nouvelles générations de Firewall, les IPS et les passerelles web sécurisées.

Piéger les pirates avec des leurres sur le principe de « deception ». Plus évolué que les fameux pots de miel (honeypots) destinés à attirer les pirates, Sesame-IT utilise les principes de « deception » qui consiste à créer une perception erronée de la surface d’attaque. Dans le cas des OIV, Sesame-IT propose de créer des réseaux factices pour leurrer les pirates et les détourner des véritables réseaux. Les cyberrisques sont ainsi diminués et la sécurité augmentée. Des algorithmes de machine learning sont utilisés pour suggérer des réseaux factices et les faire évoluer. L’attaque peut ainsi être observée de manière détaillée tout en protégeant le réseau réel. La solution embarque également de nombreux mécanismes pointus de durcissement (exécution des processes, OS, configurations, containerisation, chiffrement, contrôles d’accès à plusieurs niveaux…). La solution Sesame-IT détecte les menaces sur signature, mais aussi les signaux faibles, et permet de créer des règles en fonction des découvertes de nouveaux ‘exploits’ (exploitation d’une faille dans le code) et de recommandations envoyées par les autorités.

En tant que start-up innovante visant ce marché regulé des OIV, le projet de Sesame-IT bénéficie du soutien de l’ANSSI dans la perspective de l’obtention d’une qualification au titre de la LPM.

 

 

 

 

 

 

 

 

 

.

 

 

Le coût des attaques et les réglementations stimulent la cybersecurité

Certains se rappelleront sans doute le film Wargames qui mettait en scène un jeune pirate informatique  qui accédait à un supercalculateurdes forces armées américaines. En 1983, date de sortie du film, l’histoire faisait figure de science-fiction. Aujourd’hui les cyberattaques font régulièrement parlées d’elles et leurs effets sont de plus en plus inquiétants pour l’économie, la sécurité et la démocratie et incitent à renforcer les mesures de cybersecurité.

Les dépenses en sécurité n’ont jamais été aussi élevées. Le cabinet Gartner les estime à 124 milliards de dollars pour 2019 au niveau mondial. La prise de conscience est réelle. Elle a muri progressivement depuis la cyberattaque contre l’Estonie en 2007 pour éclater sans doute en 2017 avec les ransomwares Wannacry et NotPetya. La leçon a été violente et immédiate. Les entreprises ont compris que les menaces pouvaient se propager extrêmement rapidement (en moins d’une heure pour NotPetya), s’étendaient au-delà des frontières (150 pays concernés par Wannacry) et touchaient tous types d’organisations et d’entreprises. On a surtout pu mesurer à cette occasion l’ampleur des dégâts en termes financiers. Pour Wannacry et NotPetya les estimations sont de l’ordre de 14 à 18 milliards de dollars sans compter les effets sur l’image des entreprises. Saint Gobain a reconnu avoir subi 220 millions de pertes avec Wannacry et l’armateur de containeurs maritimes Maersk les estime à 300 millions de dollars dus à NotPetya. En 2019 on a assisté avec « Locker Goga » à des approches beaucoup plus ciblées comme l’ont constaté à leur dépends Altran et Norsk Hydro. Cette dernière entreprise a constaté dès la première semaine des dégâts d’environ 40 millions de dollars. Ces montants font l’effet d’un électrochoc qui ne peut qu’inciter à investir dans la cybersécurité. Une étude Accenture a révélé qu’en France le cout des attaques avait progressé de 27,4% en un an et de 72% en 5 ans.

Les sources des attaques sont majoritairement à l’extérieur des frontières. La lutte contre les pirates informatiques est d’autant plus complexe que l’on a souvent affaire à des organisations structurées et compétentes qui lancent leurs attaques à partir l’étranger.  Une grande partie des attaques de phishing (hameçonnage) proviennent par exemple du Nigeria. Bien qu’il soit toujours difficile d’affirmer catégoriquement l’origine des attaques on soupçonne la Chine et la Russie (source Carbon Black) d’en être les responsables les plus importants.  A l’approche des élections européennes on s’inquiète des activités des groupes APT 28 et Sandworm Team (source Fire Eye) proches de la Russie. Ces deux groupes ciblent des organisations gouvernementales et des organismes de presse avec des méthodes de « spear phishing » (harponnage) pour extraire des données en vue de nuire à des candidats ou à des partis politiques.

La réglementation s’organise et s’harmonise au niveau européen.L’arsenal réglementaire s’est étoffé ces dernières années pour renforcer la confiance dans le numérique et s’adapter à la typologie des entreprises, organisations et institutions. Les opérateurs d’importance vitales (OIV), dont l’activité touche à la sécurité nationale, doivent respecter les règles fixées par certains articles de la loi de programmation militaire (LPM). Les Opérateurs de services essentiels (OSE) concernent d’avantage l’économie du pays et disposent depuis mai 2018 de la directive européenne NIS fortement inspirée de la LPM. Le même mois était publié le règlement européen RGPD qui porte sur la protection des données personnelles et oblige les entreprises à notifier toute violation de données, auprès des autorités de contrôles et des personnes concernées, au maximum 72h après avoir découvert la violation. Auparavant cette notification avait lieu en moyenne 49 jours après la découverte. Un progrès en termes d’information mais l’attaque a pu avoir eu lieu bien avant sans que personne ne s’en soit rendu compte. Pour compléter le paysage réglementaire on peut citer également le règlement européen eIDAS qui traite de l’identification électronique et des services de confiance.

La cybersécurité va au-delà de la, protection des données et des actifs d’une entreprise. Il s’agit d’instaurer la confiance. Les solutions de cybersecurité mises en place sont encore trop souvent un empilement de produits. La nature des menaces et leurs sophistications nécessitent non seulement d’investir mais également de reconsidérer les méthodes.