La crise sanitaire conduira-t-elle à un « tracking » généralisé de la population

Face à la pandémie du Covid-19 chaque pays élabore sa propre stratégie. La situation est inédite et de nombreuses questions restent en suspens. On reste stupéfait devant l’ampleur des décès en Italie et de leur progression inquiétante en Espagne.  On s’interroge sur les mesures les plus efficaces et on envie le succès de la Corée Sud dans sa lutte contre la propagation du virus. Le confinement quasi général est aujourd’hui notre seule parade contre le virus et il est trop tard pour le remettre en cause. Pour l’éviter, comme les sud-coréens, il aurait sans doute fallu renoncer à la protection de notre vie privée. Pas sûr que nos sociétés occidentales y soient prêtes

Aussi nombreux soient ils les tests quotidiens représentent un faible pourcentage de la population. Nul doute que la Corée du Sud était mieux préparée que les européens. En 2015 la Corée du Sud avait fait l’amère expérience du MERS (Coronavirus du syndrome respiratoire du Moyen Orient) et tiré des enseignements qui leur servent aujourd’hui. Dans la crise sanitaire du Covid-19 la stratégie de la Corée du Sud repose sur des tests généralisés avec environ 15.000 tests effectués par jour. Un chiffre important comparé à celui de la France mais qui reste toutefois bien dérisoire rapporté à une population de près de 52 millions d’habitants : seul 0,03% peuvent être testés chaque jour. On est loin d’un dépistage massif rassurant qui suffirait à autoriser un confinement limité. Les moyens de dépistage restent limités et il faut donc procéder à une investigation rigoureuse digne d’une enquête policière pour être en mesure de tester en priorité toute personne suspecte. La tâche s’avère d’autant plus difficile que de nombreuses personnes infectées par le Covid-19 ne présentent aucun symptôme et n’éprouvent pas le besoin de se faire dépister spontanément. Pour cibler les tests afin de maximiser leur efficacité la Corée du Sud s’est appuyée sur l’analyse des données personnelles des personnes infectées.

Cibler les tests par l’analyse des données personnelles. La Corée du Sud a mis en place un dispositif de suivi des citoyens (« tracking ») qui détermine rétrospectivement les déplacements d’un patient contaminé afin d’identifier nommément toutes les personnes avec lesquelles il a pu être en contact. Des « enquêteurs sanitaires » se livrent à une véritable enquête policière et scrutent les données personnelles : achats par cartes bancaires, géolocalisation par smartphone et images de vidéo surveillance. Autant de données qui relèvent de la vie privée mais qui ne semblent pas choquer outre mesure les sud-coréens. A l’aide de toutes ses données ils sont à même d’établir un itinéraire précis avec tous les lieux visités, les transports utilisés et procéder à une recherche des contacts potentiels. Chaque personne identifiée comme ayant eu un contact avec un patient infecté se voit imposer un test. Si le test est positif ce dernier est confiné à son tour. Ces mêmes données sont comparées avec celles d’autres patients pour repérer des foyers potentiels et intensifier les tests sur ces zones. C’est grâce à cette approche rigoureuse des tests que la Corée du Sud peut s’autoriser un confinement ciblé, limité aux coréens testés positifs. Procéder à des tests, aussi nombreux soient ils, sans les accompagner d’une recherche exhaustive des contacts reviendrait à laisser circuler librement de nombreuses personnes infectées asymptomatiques. Plus l’épidémie avance et plus la tâche est ardue. Récemment la Corée du Sud a annoncé un nouveau système de suivi des mouvements des personnes infectées qui s’appuie sur un « smart city data hub program ». Fin janvier une investigation épidémiologique sur un patient confirmé nécessitait plus d’une journée. Avec ce nouveau système, il suffira de 10 minutes pour reconstituer l’itinéraire d’un cas infecté et déclencher la recherche de ses contacts.

La France est-elle prête pour un « tracking sanitaire ». Dans le cadre de la crise sanitaire, le suivi des déplacements des citoyens via l’analyse des données de leur smartphone fait des adeptes. Après quelques pays asiatiques et Israël, la Russie a annoncé vouloir s’y mettre à son tour pour concentrer le confinement sur les personnes infectées. Par ailleurs Moscou utilise son réseau de caméras de surveillance pour identifier, via la reconnaissance faciale, ceux qui enfreindrait le confinement. En France, l’utilisation des données de géolocalisation des smartphones est également à l’étude. Annoncé le 24 mars, Le Gouvernement a mis en place le Comité analyse, recherche et expertise (CARE) composé de douze chercheurs et médecins et présidé par le Professeur Barré-Sinoussi. Ce comité de scientifiques aura également pour mission de conseiller l’exécutif sur l’opportunité d’identifier, à l’aide de dispositifs de tracking rétrospectifs, les personnes ayant côtoyé des individus contaminés. Il s’agirait non pas de pister les français mais de surveiller l’évolution de la pandémie respectant ainsi l’anonymat des personnes. Lors d’une intervention à l’Assemblée nationale le 24 mars, le ministre de la Santé, Olivier Véran, s’est dit opposé au « tracking » des citoyens par le biais de leurs smartphones. La porte-parole du gouvernement français a toutefois indiqué le 25 mars que si la question du « tracking » se posait de manière précise elle devrait faire l’objet d’un débat. Ce suivi, à partir des données des téléphones portables, pourrait avoir encore toute son utilité dans la perspective de contrôler la sortie du confinement à condition d’avoir tranché auparavant la question des données personnelles. Par ailleurs les solutions de tests semblent évoluer. Beaucoup de laboratoires travaillent sur d’autres formes de testsautomatisés autre que le fameux PCR (Polymerase Chain Reaction). L’Espagne, durement touchée par le Covid-19, prévoit de son côté de multiplier par quatre les tests et de les automatiser pour passer à 80.000 tests par jour en ayant recours à des robots et à l’intelligence artificielle.

C’est l’ensemble de ces mesures de tests associées à la recherche des contacts de personnes contaminées qui permet de réduire le confinement aux seules personnes infectées. Il parait difficile d’appliquer de telles méthodes en France, il suffit de voir les débats suscités à juste titre par l’utilisation de la reconnaissance faciale. Serait-t-il possible de mettre de côté, en temps de crise sanitaire, nos principes de protection de la vie privée pour envisager d’employer ces méthodes lors de la sortie du confinement ? A supposé qu’on l’accepte il faudrait que toutes les infrastructures technologiques y soient préparées.

 

Coronavirus : Cygne noir et masque de canard

Bercés par la douce illusion d’une technologie toute puissante, nous nous pensions à l’abri du Coronavirus. Ne sommes-nous pas devenus capables de tout prévoir par le miracle de l’intelligence artificielle ? Les principes de précaution portés au pinacle ne nous préservent ils pas de tous les maux ?  On se rassure en pensant égoïstement que les épidémies, la mortalité infantile, la famine ou bien encore les guerres se cantonnent aux pays qui ne se sont pas encore modernisés suffisamment. On évacue nos craintes en frissonnant devant des séries qui mettent en scène des actes terroristes ou des pandémies en sachant que le héros interviendra toujours à temps pour nous préserver du pire. Les séries dystopiques nous aident à conjurer le sort en projetant le drame dans un futur suffisamment éloigné pour nous épargner.

Le coronavirus est le « Cygne noir » du 21 ème siècle. Une alerte brutale qui nous appelle à l’humilité.  L’analyse des risques est devenue monnaie courante pour les banques et les assurances. Les économistes et les scientifiques modélisent les données et s’appuient sur les statistiques et les probabilités non pas pour éviter les catastrophes mais pour en limiter les risques financiers. Le monde réel n’est pas totalement prévisible. En 2007 Nassim Nicholas Taleb reprenait à son compte l’expression « cygne noir » dans son livre éponyme « Le cygne noir : la puissance de l’imprévisible ». Il expliquait la difficulté de prédire l’incertain sur la base des données du passé et avait anticipé la crise économique de 2008 alors que personne n’y croyait.  Selon sa théorie, le cygne noir désigne un évènement fortement improbable mais qui provoquera d’énormes conséquences. Mais après coup on cherchera à le rationaliser en expliquant qu’il était pourtant prévisible.  Le cygne noir n’est peut-être finalement que le déni de l’incertitude, une sorte de bais cognitif qui vise à nous rassurer. Pourtant selon Taleb « L’avenir est un pur hasard : on perd son temps à le prédire ». Jusqu’en 1697, date à laquelle des explorateurs allemands découvrirent en Australie des cygnes noirs, tout le monde était persuadé que seuls les cygnes blancs existaient. Une certitude si forte qu’elle avait forgé dès l’antiquité l’expression « Cygne noir » pour désigner l’impossibilité de l’existence d’une chose.  De nos jours le terme s’applique à une impossibilité théorisée qui peut ensuite être réfutée.

Les avis contradictoires d’experts augmentent l’incertitude. Les crises sanitaires sont à la même enseigne que les crises économiques. En 2015, lors d’un « Ted Talk » prémonitoire, Bill Gates tirait les leçons d’Ebola et nous prévenait que nous n’étions pas prêts pour la prochaine épidémie dont la description ressemblait étrangement au Coronavirus Covid 19. Pourquoi ne l’avons-nous pas écouté ? Il est facile a posteriori de dire qu’on avait raison mais il est toujours possible de trouver des avis contradictoires venant d’experts plus éclairés les uns que les autres. Difficile de donner des leçons. On le voit avec la singularité numérique. Certains cerveaux brillants nous prédisent une Intelligence artificielle équivalente à l’intelligence humaine autour des années 2015 quand d’autres chercheurs tout aussi respectables nous disent qu’il est possible que cela n’arrive jamais. Même chose pour le dérèglement climatique avec les tenants d’une vision catastrophique qui nous annoncent une fin du monde prochaine. Le catastrophisme systématique est certainement contreproductif et les experts autoproclamés nuisent à la qualité des débats. Le Coronavirus nous met devant des choix difficiles qui ne peuvent pas être tranchés par les seuls experts. Ce sont des choix de société qui nous impliquent tous avec leurs avantages et leurs contraintes. Prévoir le pire c’est porter le risque de la critique quand tout se passe bien. Être trop confiant c’est être démuni en cas de crise majeur. Nous devrons tous tirer les enseignements de cette crise qui montre que si les états ont leur responsabilité les citoyens ont également la leur par leur comportement et le respect des mesures.

N’oublions pas que se préparer au pire à un coût. Sommes-nous prêts à le payer ? Aujourd’hui sans doute mais quand le calme sera revenu et que le pire sera derrière nous peut être pas.

 

 

Des RH plus impliquées dans la transformation grâce au Design Thinking

Comment appliquer la transformation numérique à des processus internes et RH ? En changeant de posture et en pensant expérience collaborateur ! J’ai demandé l’avis de Corine Sempé qui conduit des missions en transformation RH et gestion du changement. Suite à un parcours professionnel centré sur la relation client elle a décidé d’engager son action sur la relation et l’expérience collaborateur. A ce titre elle intervient dans les entreprises avec une approche portant sur les impacts internes et la valeur. Elle utilise notamment l’intelligence collective et le design thinking pour impliquer les parties prenantes autour de sujets RH.

Les RH ne sont-elles pas suffisamment impliquées dans la transformation des entreprises ?

Les enjeux de transformation sont de plus en plus complexes à aborder avec des problématiques souvent transverses et des silos qui apparaissent comme des freins. Si la contribution des RH est de préparer le futur et de concilier le temps court (action) et le temps plus long (transformation des processus), alors les RH ont un rôle pivot majeur. Cette conviction, je la partage avec nombre de RH et pour ma part, je la mets en pratique notamment avec l’acculturation au numérique et à l’intelligence collective.

Pour accompagner les transformations de leurs organisations, les Ressources Humaines doivent elles-mêmes se réinventer et se transformer ?

Les RH sont au cœur de nombreuses problématiques sur lesquelles elles sont redevables à l’organisation sans néanmoins toujours disposer de forts leviers d’action. Elles sont par ailleurs souvent déconsidérées dans leur action du fait d’un positionnement ambiguë et d’avoir été trop longtemps cantonnées à des rôles purement administratifs. Au final, si les RH veulent être au cœur de la transformation des organisations, elles doivent commencer à se transformer elles-mêmes

C’est un véritable changement de posture en quelque sorte ?

Oui en effet, toute transformation nécessite d’engager les collaborateurs à se remettre en question tout en étant force de proposition. C’est un peu cornélien, source de stress voire contreproductif. Les RH peuvent jouer ce rôle de liant pour favoriser l’engagement attendu des diverses parties prenantes. Le succès d’une transformation vient du fait que chaque solution est à la fois bien dimensionnée au contexte et enjeux et surtout qu’elle sera adoptée. Il ne s’agit donc pas de déployer une décision top-down mais de coconstruire la meilleure ou tout au moins la moins pire des solutions. C’est donc du sur-mesure sur un terrain qui est mouvant. Ainsi au niveau des RH, c’est un véritable changement de posture qui est attendu et qui n’est ni celui du manager ni celui du consultant. C’est un rôle de facilitateur qui va, de par sa neutralité, permettre de favoriser l’émergence de solutions par les parties prenantes elles-mêmes. Pour ce faire, il existe plusieurs approches et le Design Thinking en est une qui permet de faire collaborer les équipes dans un cadre cohérent, compréhensible et surtout productif.

Le Design Thinking en entreprise n’est pas très nouveau néanmoins ?

C’est vrai mais à ce jour le Design Thinking est plutôt utilisé dans le cadre de création de nouveaux produits ou de services car il favorise une meilleure prise en compte des besoins des demandeurs (ou clients). Cette méthode est relativement peu utilisée au niveau des modes de fonctionnements internes alors que la notion de client interne est tout aussi importante que celle de clients externes tout comme l’ont montré plusieurs auteurs comme Vineet Nayar* pour ne citer que le plus emblématique. Il est ainsi très efficient d’appliquer les principes du Design Thinking aux problématiques RH car c’est une méthode transverse qui permet d’écouter et d’impliquer toutes les parties prenantes.

L’attention aux parties prenantes est donc la clef de voute des processus RH ?
Effectivement la constitution des groupes de travail est tout aussi importante que l’intention que l’on veut donner à l’atelier. Le risque le plus courant est – sous prétexte de vouloir faire du tout collaboratif – de constituer des groupes principalement d’opérationnels sans y inclure les fonctions support. Ce manque de pluralité des visions prive le groupe d’autres points de vue et d’une pensée plus en mode ‘hélicoptère’.

En quoi le Design Thinking est-il si pertinent ?
Dans une économie de marché basée sur la performance et l’adaptation continue aux usages des clients, la contribution des collaborateurs est essentielle pour permettre ce mouvement continu d’adaptation.
En cherchant à comprendre la vraie problématique client/utilisateur, en identifiant des solutions, en testant et itérant, le Design Thinking se révèle très efficace en termes de résultats opérationnels et permet aussi un alignement et engagement des équipes. Mais toute la beauté du Design Thinking réside aussi dans son (apparente) simplicité. Beaucoup moins complexe que le Lean par exemple, cette méthode devient vite un « langage commun » pour les collaborateurs à l’image des « stand up meeting », « kanban » ou autres outils issus de l’agile. Ainsi, plus les collaborateurs s’approprient l’outil plus ils deviennent efficients et exigeants envers les outputs, plus les résultats sont pertinents. Évidemment leDesign Thinking ne fait pas tout, c’est une méthode. D’où l’importance du rôle du facilitateur et de l’engagement des collaborateurs.

Il est utile de rappeler les grands principes du Design Thinking.
Le postulat de départ est simple : premièrement, il faut identifier la problématique avec l’usager/utilisateur et deuxièmement tout un chacun dispose d’une partie de la solution. Dès lors, il s’agit de favoriser cet alignement sur la problématique à résoudre et de libérer l’expression de chaque point de vue.
L’approche méthodologique du Design Thinking alterne donc des phases d’ouverture et de fermeture de manière à aboutir à des choix et des décisions opérationnelles construites en groupe sur le temps de l’atelier. On parle alors de réflexion en double diamant : Découvrir > Définir > Développer > Livrer

Le Design Thinking remet le l’humain au centre de la transformation ?
Dans un contexte où il faut concilier agilité business et engagement des collaborateurs pour renforcer l’efficacité opérationnelle des organisations, utiliser les outils d’intelligence collective est plus que jamais essentiel. Mais cela suppose déjà un changement de posture des RH pour qu’elles se positionnent comme un vrai pivot, qu’elles repensent leurs approches et osent le collaboratif.
Evidement on ne se décrète pas facilitateur en intelligence collective mais on peut déjà commencer avec un outil comme le Design Thinking qui offre un cadre à la fois rassurant et efficace pour initier des processus de co-construction.
Outre le fait de trouver des solutions aux problèmes posés, le changement de posture des participants induit par la force d’entrainement du collectif est véritablement extraordinaire. C’est à se demander parfois si nous n’avons pas tout simplement oublié comment travailler ensemble. Le Design Thinking a donc aussi cette vertu immatérielle, celle de réenchanter le travail en commun pour s’engager sur une solution partagée (prototype).

*Vineet Nayar ‘Les employés d’abord les clients ensuite’ Inspiration Article Harvard Business Review : Les RH adoptent les méthodes agiles – HBR

corinesempe@konov.fr

Optimiser l’expérience client imposera de nouveaux modèles de données (étude Adobe)

Il est relativement peu fréquent de demander aux professionnels de l’IT leur perception sur l’expérience client. C’est tout l’intérêt du rapport Tendances digitales 2019 d’Econsultancy/ Adobe qui apporte un éclairage sur la nécessaire collaboration entre professionnels de l’IT et les directions métiers pour faire entrer l’expérience client dans une nouvelle phase. L’occasion également de mieux comprendre les dernières annonces d’Adobe.

 

L’expérience client doit se rationaliser pour progresser.Depuis une dizaine d’année, l’expérience client est devenue le leitmotiv des entreprises qui font tout pour surprendre et dépasser les attentes des clients à grand renfort de technologies. Cette expérience client s’est souvent construite sur un assemblage disparate de solutions réparties entre différents départements de l’entreprise sans impliquer nécessairement les directions informatiques.  Cela explique sans doute pourquoi seuls 45% des professionnels de l’IT estiment que leur entreprise est mature ou très mature dans le domaine de l’expérience client. Les solutions échangent entre elles des données de plus en plus nombreuses. Avec le rôle grandissant des technologies l’expérience client ne peut pas faire l’impasse d’une réflexion sur l’infrastructure de données pour en optimiser l’exploitation et assurer une protection des données efficace en étant conforme au règlement européen RGPD. Les directions métiers concernées ont donc tout intérêt à collaborer étroitement avec les directions informatiques. Le rapport met en évidence que pour 46% des professionnels de l’IT l’optimisation de l’expérience client et la protection des données sera une priorité pour leur entreprise cette année.

L’expérience client ne peut se réduire à une course aux technologies. Selon le rapport les professionnels de l’informatique estiment que leur travail, dans l’année qui vient, consistera principalement à déployer des expériences client optimisées et à préserver la sécurité des données de l’entreprise et des clients. La technologie est devenue indissociable de l’expérience client. Elle en fait un sujet technique et complexe qui pâtit souvent d’une absence de vision commune en matière de transformation digitale. Les professionnels de l’informatique ont dû développer une vision stratégique globale en adéquation avec celle de l’entreprise. La question des budgets se pose d’autant plus que les professionnels de l’IT divergent sur la méthode employée pour améliorer l’expérience client. Un quart d’entre eux a recours aux nouvelles technologies alors qu’une proportion sensiblement identique (22%) privilégie l’optimisation des infrastructures existantes (la collecte et l’unification des données restent une préoccupation importante pour 19% des participants). Sans prendre parti pour l’une ou l’autre des approches, l’idéal étant sans doute une combinaison des deux, le rapport note néanmoins une tendance à se précipiter sur les technologies avant de mettre à profit les ressources existantes.

 Décrypter le rapport à la lumière des dernières annonces Adobe. La stratégie d’Adobe consiste à faciliter la collaboration entre l’IT et les autres fonctions. Cela passe par une architecture des données adaptée aux ambitions de l’expérience client. Plutôt que d’échanger des données entre de multiples applications mieux vaut disposer d’une sorte de « lac de données » (datalake) ou chaque application impliquée dans l’expérience client y puise les données nécessaires. En septembre 2018 Adobe, SAP et Microsoft Adobe se sont associés pour créer Open Data Initiative. Grâce à cette alliance, les clients pourront combiner des données provenant de différentes sources en utilisant un seul modèle de données pour créer un profil client en temps réel.  Depuis Adobe a annoncé, en mars 2019, « l’Experience Customer Platform » qui concrétise les principes de l’Open Data Initiative. Cette Plateforme collecte et traite des données en temps réel – des dizaines de millions d’événements par seconde – provenant de sources multiples et les organise en Experience Data Models (XDM). Les entreprises peuvent également importer leurs propres données provenant de solutions d’ERP, de CRM et d’autres sources. Les services d’IA d’Adobe Sensei apportent la couche d’intelligence nécessaire pour associer données et contenu, permettant aux marques de diffuser systématiquement le bon message, au bon moment et sur le bon canal.

L’expérience client bénéficiera d’autant plus facilement des nouvelles technologies telles que l’IA et l’IoT (objets connectés) qu’elle disposera d’une architecture de données unifiées.

 

 

Sesame-IT la Start-up de cybersécurité qui cible les opérateurs d’importance vitale OIV

Vivatech qui vient de s’achever nous a offert une véritable immersion dans le numérique. L’avenir s’annonce comme un foisonnement de technologies qui font émerger d’incroyables usages. Le monde de demain sera indéniablement numérique. Ce festival d’innovations ne doit pas nous faire oublier que notre société devient par la même occasion de plus en plus vulnérable aux cyberattaques. On n’hésite plus à parler de cyberguerre qui pourrait paralyser tout ou partie d’un pays en ciblant les organismes critiques. Rencontre sur le stand de HPE France à Vivatech d’Audrey Gayno-Amédro CEO et co-fondatrice de Sesame-it .

Protéger les entreprises vitales pour le pays. L’état a recensé près de 250 opérateurs d’importance vitale (OIV), dans le domaine privé et public (banques, transports, santé, télécoms, énergie, alimentation). Leur activité est jugée indispensable au bon fonctionnement et à la survie de la nation. La liste est classée secret défense pour d’évidentes raisons de sécurité. Ces OIV ont l’obligation de se protéger en se conformant à la Loi de Programmation Militaire (LPM) et en s’équipant de dispositifs certifiés. L’ANSSI supervise la mise en application de l’article 22 de la LPM par les OIV et certifie les solutions de détection (sonde souveraine) qui pourront être utilisées. Depuis le 4 avril deux sondes ont déjà été qualifiées et la sonde de Sesame-IT est en cours de validation. Les OIV ont désormais deux ans devant eux pour installer des sondes de détection chez eux. En cas de manquement les dirigeants pourront être poursuivis pénalement.

Sesame-IT un pure player de la cybersécurité. Cette jeune entreprise fait partie du programme start-up HPE 2019 et bénéfice ainsi du soutien de l’entreprise pour l’aider dans son développement. Sesame-IT a été fondée en 2017 par deux experts en sécurité et en réseaux rompus aux techniques d’analyse et d’extraction de données dans les réseaux à très forts débits. Les fondateurs sont fortement sensibilisés aux conséquences des cyber-attaques dirigées contre les OIV. Ils ont entrepris de développer une solution ‘haute fiabilité’, à la fois pour répondre aux besoins de la Loi de Programmation Militaire, mais aussi pour continuer de participer à la protection de la souveraineté de notre pays.  Cette sonde souveraine a été conçue pour ne permettre aucun accès ni au réseau qu’elle surveille, ni aux informations sensibles qu’elle embarque. C’est sa seconde raison d’être, après la fiabilité de détection des menaces et infiltrations. La sonde souveraine s’installe sur le réseau, derrière les nouvelles générations de Firewall, les IPS et les passerelles web sécurisées.

Piéger les pirates avec des leurres sur le principe de « deception ». Plus évolué que les fameux pots de miel (honeypots) destinés à attirer les pirates, Sesame-IT utilise les principes de « deception » qui consiste à créer une perception erronée de la surface d’attaque. Dans le cas des OIV, Sesame-IT propose de créer des réseaux factices pour leurrer les pirates et les détourner des véritables réseaux. Les cyberrisques sont ainsi diminués et la sécurité augmentée. Des algorithmes de machine learning sont utilisés pour suggérer des réseaux factices et les faire évoluer. L’attaque peut ainsi être observée de manière détaillée tout en protégeant le réseau réel. La solution embarque également de nombreux mécanismes pointus de durcissement (exécution des processes, OS, configurations, containerisation, chiffrement, contrôles d’accès à plusieurs niveaux…). La solution Sesame-IT détecte les menaces sur signature, mais aussi les signaux faibles, et permet de créer des règles en fonction des découvertes de nouveaux ‘exploits’ (exploitation d’une faille dans le code) et de recommandations envoyées par les autorités.

En tant que start-up innovante visant ce marché regulé des OIV, le projet de Sesame-IT bénéficie du soutien de l’ANSSI dans la perspective de l’obtention d’une qualification au titre de la LPM.

 

 

 

 

 

 

 

 

 

.

 

 

Google veut redorer l’image de l’intelligence artificielle

Le scandale de Cambridge Analytica a jeté un coup de projecteur sur Facebook et la manière dont il considérait la protection des données personnelles. Amazon est sous le feu des critiques pour avoir mis à disposition de la police son système de reconnaissance faciale qui compte tenu de ses biais pourrait discriminer des personnes de couleurs. Sous la pression de plus 4000 de ses employés Google a renoncé à collaborer avec l’armée américaine au projet Maven. Progressivement les GAFAM et les grandes entreprises technologiques prennent conscience que le développement technologique ne pourra pas se prolonger sereinement sans instaurer une « confiance numérique vertueuse». On assiste ainsi à un mouvement pour s’assurer que le développement de l’IA se fera en respectant certaines valeurs. Dans ce billet nous analysons quelques initiatives de Google dans ce domaine.

Contribuer à une IA éthique.Le 7 juin 2018 le CEO de Google, Sundar Pichai a publié un billet sur le blog de son entreprise intitulé : « AI at Google: our principles ». Il y reconnait que la puissance de technologies comme l’intelligence artificielle est telle qu’elle pose nécessairement des questions sur son utilisation. La manière dont sera développée l’IA aura un impact significatif et durable sur notre société pour les années à venir. Les entreprises qui sont en tête des développements de l’IA comme Google ont donc des responsabilités importantes qu’elles doivent assumer. C’est ce qu’a voulu faire Sundar Pichai en définissant 7 principes qui doivent guider la recherche et le développement aussi bien que les décisions stratégiques. Google s’est ainsi engagé dans un certain nombre d’initiatives qui démontre que l’intelligence artificielle peut contribuer à améliorer notre vie et notre environnement. En voici quelques exemples.

Améliorer la précision des diagnostics médicaux. Les images des yeux peuvent détenir d’importantes informations sur notre santé. En utilisant des algorithmes de deep learning entrainés sur des données de 284.335 patients Google a pu prédire les facteurs de risques cardiovasculaires à partir d’image de rétines. L’algorithme était capable de distinguer des rétines de fumeurs et de non-fumeurs. Cela démontre qu’il est possible de poser des diagnostics médicaux précis en analysant des rétines avec de l’intelligence artificielle en particulier pour la rétinopathie diabétique qui est responsable de nombreux cas de cécité.

 Anticiper les inondations et les tremblements de terres. Google est persuadé que le machine learning détient le pouvoir d’améliorer les prévisions des inondations et d’aider les centaines de millions de personnes affectés par ces catastrophes chaque année. En janvier 2019 Google a hébergé dans ses locaux de Tel Aviv des experts en hydrologie et en machine learning pour réfléchir à l’amélioration des prévisions des inondations en mettant en commun des bases de données et en utilisant des outils modernes de statistiques et de machine learning. Concernant les tremblements de terre Google a commencé par bâtir une base de données contenant les informations de plus de 118 tremblements de terre dans le monde. Il a ensuite réuni des experts pour comprendre comment le deep learning pourrait prédire où se produiront les répliques de secousses sismiques. Un document intitulé “Deep learning of aftershock patterns following large earthquakes“ a été publié le 20 aout 2018. Les prévisions basées sur le machine learning pourront à termes améliorer le déploiement des services d’urgence et les plans d’évacuation sur les zones à risques de tremblement de terre.

Aider à la préservation des baleines. Dans le cadre du programme AI for Social Good et en partenariat avec le Pacific Islands Fisheries Science Center du  National Oceanic and Atmospheric Administration (NOAA), Google a développé des algorithmes pour identifier les appels des baleines à bosses à partir de 15 ans d’enregistrements sous-marins effectués sur plusieurs sites du Pacifique. Les résultats de cette recherche fournissent des informations nouvelles et importantes sur la présence de la baleine à bosse, la saisonnalité, le comportement quotidien des appels et la structure de la population. Ces informations permettent de suivre précisément l’évolution de la population de ces baleines et d’aider à leur préservation.

L’épineuse question des « fake news ». La polémique sur le rôle des réseaux sociaux dans les élections américaines a enflé. La question était de comprendre qui se cachait derrière l’achat de publicités politiques pouvant causer une fraude massive. A l’occasion des élections de mi-mandat Google a lancé de nouvelles règles pour les publicités politiques. Près de 143.000 publicités ont été vérifiées et pour que la transparence soit totale Google a lancé un nouveau « political and transparency report ». Des outils similaires seront utilisés pour les élections européennes de mai 2019.

J’aurais pu encore citer les efforts pour lutter contre la déforestation illégales ou encore les améliorations apportées aux outils de traduction pour réduire les biais sexistes. N’oublions pas que l’intelligence artificielle a réellement pris son essor il y a moins de 10 ans. Comme toute technologie elle est perfectible. De nombreux efforts sont encore à faire pour s’affranchir des biais cognitifs et sur l’explicabilité des algorithmes. Google comme Amazon, Microsoft, IBM et d’autres encore planchent sur le sujet.

 

 

 

 

Le numérique augmente la vulnérabilité des entreprises

Les cyberattaques se sont élevées au 5 cinquième rang des risques qui menacent les entreprises. Bien que les pertes financières soient rarement communiquées, Zurich Insurance estime leur coût pour les entreprises à environ 8.000 milliards de dollars sur les cinq prochaines années. Selon certains experts 92% des entreprises auraient eu à subir au moins une cyberattaque en 2017. Les fameuses attaquent Wannacry puis NotPeyta ont démontré que les effets pouvaient toucher toutes les entreprises et tous les organismes. Plus nombreuses et plus sophistiquées les cyberattaques surfent sur les nouveaux usages du numérique et exploitent toutes les vulnérabilités.

Le progrès numérique s’accompagne d’une plus grande vulnérabilité.Le numérique est partout : dans un hôpital, dans la ville intelligente, dans les véhicules connectés, dans nos logements…. Avec le développement de l’internet des objets, chaque objet peut devenir une menace. Les pirates les détournent pour lancer des attaques massives et saturer les serveurs informatiques des entreprises. Selon les experts de Check Point un million d’objets connectés auraient déjà été infectés dans le but de faire tomber une partie des serveurs internet américains dans les prochains mois (lire l’article de Capital). La mobilité est devenue incontournable mais oblige les responsables de la sécurité à repenser leurs méthodes. On ne sécurise plus un ordinateur de bureau fourni par l’entreprise mais on doit gérer la connexion de smartphones, de tablettes et d’ordinateurs portables qui appartiennent bien souvent à l’utilisateur (BYOD), à un client ou à un invité. Ils contiennent aussi bien des applications professionnelles que privées. Il faudra prendre en compte également les applications à base d’intelligence artificielle. On s’émerveille des prouesses réalisées par l’intelligence artificielle mais comment garantir qu’elle ne sera pas détournée lors de sa phase d’apprentissage ou en phase d’exploitation (inférence).

Des attaques plus discrètes et plus efficaces.Le contexte du numérique est particulièrement complexe et mouvant. Aucune solution ne garantit d’être protégé à 100 %. British Airway a subi récemment des vols de données et dernièrement Marriott a découvert une faille dans sa base de données de réservationsde sa succursale Starwood. L’apparition de nouvelles menaces rend les solutions traditionnelles moins efficaces. Les antivirus et les pare-feu ne sont efficaces que pour des menaces connues avec des signatures répertoriées. Malheureusement les pirates sont ingénieux. Aux techniques de Phishing, DDoS, Ramsonware viennent se rajouter le cryptojacking pour utiliser frauduleusement des ressources informatiques ou bien encore le fileless (attaque sans fichier). La réglementation comme la RGPD impose aux entreprises de signaler les vols de données 72 h après la notification initiale mais de plus en plus d’attaques sont difficilement détectables. Certaines prennent la forme de « credential stuffing » et pillent discrètement les données personnelles le plus longtemps possible à partir d’informations d’identification préalablement dérobées.

Nouveaux défis à la sécurité : le Cloud et les nouvelles applications. La vulnérabilité de notre économie moderne aux cyberattaques est un problème rendu encore plus complexe par le recours au cloud et par les nouvelles méthodes de développement d’applications. Les applications modernes se répartissent de plus en plus souvent dans des clouds hybrides et des multicloud qui font appel à des fournisseurs différents. Comment avoir la visibilité d’une application sur l’ensemble ? Comment disposer d’une sécurité consistante et homogène sur la totalité des clouds ? On a vu apparaitre les applications dites « cloud natives ». Contrairement aux applications traditionnelles assez monolithiques, les nouvelles applications utilisent des microservices et des containers. Elles sont plus faciles à faire évoluer mais elles nécessitent de nombreux composants qui augmentent d’autant la surface d’attaque. Signe des temps modernes, pour innover les applications changent régulièrement, on les met à jour et on y ajoute de nouvelles fonctions. Elles sont dans des modes de développement et d’intégrations continus. Pour assurer la fluidité entre le développement et la production les entreprises adoptent des approches DevOps. Certains aimeraient que la sécurité soit intégrée dans une approche « SecDevOps ».

IA et sécurité by design au secours de la cybersécurité. Les dépenses pour la sécurité sont conséquentes mais l’efficacité ne suit pas pour autant. Il ne suffit pas d’empiler les produits. Les solutions de protection doivent s’accompagner de mesures de remédiation exhaustives (isolation, segmentation ..). Face aux menaces très sophistiquées (APT Adanced Persistent Threat) réputées indétectables de nouvelles approches sont nécessaires. Impossible d’avoir une solution prête pour chaque menace. On doit se concentrer sur les valeurs à protéger (les données et les applications) et sur tous les comportements suspects. L’intelligence artificielle aura sans doute un rôle grandissant dans le domaine de la sécurité grâce à sa capacité à reconnaitre rapidement des patterns suspectes dans des volumes de données importants. Des domaines comme les « User and Entity Behavior Analytics » UEBA devraient en tirer avantage. La « sécurité by design » devrait être imposée. Les dernières générations de puces informatiquescommencent à intégrer ce principe. On ne peut que souhaiter que ce principe soit généralisé aux objets connectés en attendant ce sera au réseau d’être lui-même « sécurisé by design » pour compenser.