Des RH plus impliquées dans la transformation grâce au Design Thinking

Comment appliquer la transformation numérique à des processus internes et RH ? En changeant de posture et en pensant expérience collaborateur ! J’ai demandé l’avis de Corine Sempé qui conduit des missions en transformation RH et gestion du changement. Suite à un parcours professionnel centré sur la relation client elle a décidé d’engager son action sur la relation et l’expérience collaborateur. A ce titre elle intervient dans les entreprises avec une approche portant sur les impacts internes et la valeur. Elle utilise notamment l’intelligence collective et le design thinking pour impliquer les parties prenantes autour de sujets RH.

Les RH ne sont-elles pas suffisamment impliquées dans la transformation des entreprises ?

Les enjeux de transformation sont de plus en plus complexes à aborder avec des problématiques souvent transverses et des silos qui apparaissent comme des freins. Si la contribution des RH est de préparer le futur et de concilier le temps court (action) et le temps plus long (transformation des processus), alors les RH ont un rôle pivot majeur. Cette conviction, je la partage avec nombre de RH et pour ma part, je la mets en pratique notamment avec l’acculturation au numérique et à l’intelligence collective.

Pour accompagner les transformations de leurs organisations, les Ressources Humaines doivent elles-mêmes se réinventer et se transformer ?

Les RH sont au cœur de nombreuses problématiques sur lesquelles elles sont redevables à l’organisation sans néanmoins toujours disposer de forts leviers d’action. Elles sont par ailleurs souvent déconsidérées dans leur action du fait d’un positionnement ambiguë et d’avoir été trop longtemps cantonnées à des rôles purement administratifs. Au final, si les RH veulent être au cœur de la transformation des organisations, elles doivent commencer à se transformer elles-mêmes

C’est un véritable changement de posture en quelque sorte ?

Oui en effet, toute transformation nécessite d’engager les collaborateurs à se remettre en question tout en étant force de proposition. C’est un peu cornélien, source de stress voire contreproductif. Les RH peuvent jouer ce rôle de liant pour favoriser l’engagement attendu des diverses parties prenantes. Le succès d’une transformation vient du fait que chaque solution est à la fois bien dimensionnée au contexte et enjeux et surtout qu’elle sera adoptée. Il ne s’agit donc pas de déployer une décision top-down mais de coconstruire la meilleure ou tout au moins la moins pire des solutions. C’est donc du sur-mesure sur un terrain qui est mouvant. Ainsi au niveau des RH, c’est un véritable changement de posture qui est attendu et qui n’est ni celui du manager ni celui du consultant. C’est un rôle de facilitateur qui va, de par sa neutralité, permettre de favoriser l’émergence de solutions par les parties prenantes elles-mêmes. Pour ce faire, il existe plusieurs approches et le Design Thinking en est une qui permet de faire collaborer les équipes dans un cadre cohérent, compréhensible et surtout productif.

Le Design Thinking en entreprise n’est pas très nouveau néanmoins ?

C’est vrai mais à ce jour le Design Thinking est plutôt utilisé dans le cadre de création de nouveaux produits ou de services car il favorise une meilleure prise en compte des besoins des demandeurs (ou clients). Cette méthode est relativement peu utilisée au niveau des modes de fonctionnements internes alors que la notion de client interne est tout aussi importante que celle de clients externes tout comme l’ont montré plusieurs auteurs comme Vineet Nayar* pour ne citer que le plus emblématique. Il est ainsi très efficient d’appliquer les principes du Design Thinking aux problématiques RH car c’est une méthode transverse qui permet d’écouter et d’impliquer toutes les parties prenantes.

L’attention aux parties prenantes est donc la clef de voute des processus RH ?
Effectivement la constitution des groupes de travail est tout aussi importante que l’intention que l’on veut donner à l’atelier. Le risque le plus courant est – sous prétexte de vouloir faire du tout collaboratif – de constituer des groupes principalement d’opérationnels sans y inclure les fonctions support. Ce manque de pluralité des visions prive le groupe d’autres points de vue et d’une pensée plus en mode ‘hélicoptère’.

En quoi le Design Thinking est-il si pertinent ?
Dans une économie de marché basée sur la performance et l’adaptation continue aux usages des clients, la contribution des collaborateurs est essentielle pour permettre ce mouvement continu d’adaptation.
En cherchant à comprendre la vraie problématique client/utilisateur, en identifiant des solutions, en testant et itérant, le Design Thinking se révèle très efficace en termes de résultats opérationnels et permet aussi un alignement et engagement des équipes. Mais toute la beauté du Design Thinking réside aussi dans son (apparente) simplicité. Beaucoup moins complexe que le Lean par exemple, cette méthode devient vite un « langage commun » pour les collaborateurs à l’image des « stand up meeting », « kanban » ou autres outils issus de l’agile. Ainsi, plus les collaborateurs s’approprient l’outil plus ils deviennent efficients et exigeants envers les outputs, plus les résultats sont pertinents. Évidemment leDesign Thinking ne fait pas tout, c’est une méthode. D’où l’importance du rôle du facilitateur et de l’engagement des collaborateurs.

Il est utile de rappeler les grands principes du Design Thinking.
Le postulat de départ est simple : premièrement, il faut identifier la problématique avec l’usager/utilisateur et deuxièmement tout un chacun dispose d’une partie de la solution. Dès lors, il s’agit de favoriser cet alignement sur la problématique à résoudre et de libérer l’expression de chaque point de vue.
L’approche méthodologique du Design Thinking alterne donc des phases d’ouverture et de fermeture de manière à aboutir à des choix et des décisions opérationnelles construites en groupe sur le temps de l’atelier. On parle alors de réflexion en double diamant : Découvrir > Définir > Développer > Livrer

Le Design Thinking remet le l’humain au centre de la transformation ?
Dans un contexte où il faut concilier agilité business et engagement des collaborateurs pour renforcer l’efficacité opérationnelle des organisations, utiliser les outils d’intelligence collective est plus que jamais essentiel. Mais cela suppose déjà un changement de posture des RH pour qu’elles se positionnent comme un vrai pivot, qu’elles repensent leurs approches et osent le collaboratif.
Evidement on ne se décrète pas facilitateur en intelligence collective mais on peut déjà commencer avec un outil comme le Design Thinking qui offre un cadre à la fois rassurant et efficace pour initier des processus de co-construction.
Outre le fait de trouver des solutions aux problèmes posés, le changement de posture des participants induit par la force d’entrainement du collectif est véritablement extraordinaire. C’est à se demander parfois si nous n’avons pas tout simplement oublié comment travailler ensemble. Le Design Thinking a donc aussi cette vertu immatérielle, celle de réenchanter le travail en commun pour s’engager sur une solution partagée (prototype).

*Vineet Nayar ‘Les employés d’abord les clients ensuite’ Inspiration Article Harvard Business Review : Les RH adoptent les méthodes agiles – HBR

corinesempe@konov.fr

Optimiser l’expérience client imposera de nouveaux modèles de données (étude Adobe)

Il est relativement peu fréquent de demander aux professionnels de l’IT leur perception sur l’expérience client. C’est tout l’intérêt du rapport Tendances digitales 2019 d’Econsultancy/ Adobe qui apporte un éclairage sur la nécessaire collaboration entre professionnels de l’IT et les directions métiers pour faire entrer l’expérience client dans une nouvelle phase. L’occasion également de mieux comprendre les dernières annonces d’Adobe.

 

L’expérience client doit se rationaliser pour progresser.Depuis une dizaine d’année, l’expérience client est devenue le leitmotiv des entreprises qui font tout pour surprendre et dépasser les attentes des clients à grand renfort de technologies. Cette expérience client s’est souvent construite sur un assemblage disparate de solutions réparties entre différents départements de l’entreprise sans impliquer nécessairement les directions informatiques.  Cela explique sans doute pourquoi seuls 45% des professionnels de l’IT estiment que leur entreprise est mature ou très mature dans le domaine de l’expérience client. Les solutions échangent entre elles des données de plus en plus nombreuses. Avec le rôle grandissant des technologies l’expérience client ne peut pas faire l’impasse d’une réflexion sur l’infrastructure de données pour en optimiser l’exploitation et assurer une protection des données efficace en étant conforme au règlement européen RGPD. Les directions métiers concernées ont donc tout intérêt à collaborer étroitement avec les directions informatiques. Le rapport met en évidence que pour 46% des professionnels de l’IT l’optimisation de l’expérience client et la protection des données sera une priorité pour leur entreprise cette année.

L’expérience client ne peut se réduire à une course aux technologies. Selon le rapport les professionnels de l’informatique estiment que leur travail, dans l’année qui vient, consistera principalement à déployer des expériences client optimisées et à préserver la sécurité des données de l’entreprise et des clients. La technologie est devenue indissociable de l’expérience client. Elle en fait un sujet technique et complexe qui pâtit souvent d’une absence de vision commune en matière de transformation digitale. Les professionnels de l’informatique ont dû développer une vision stratégique globale en adéquation avec celle de l’entreprise. La question des budgets se pose d’autant plus que les professionnels de l’IT divergent sur la méthode employée pour améliorer l’expérience client. Un quart d’entre eux a recours aux nouvelles technologies alors qu’une proportion sensiblement identique (22%) privilégie l’optimisation des infrastructures existantes (la collecte et l’unification des données restent une préoccupation importante pour 19% des participants). Sans prendre parti pour l’une ou l’autre des approches, l’idéal étant sans doute une combinaison des deux, le rapport note néanmoins une tendance à se précipiter sur les technologies avant de mettre à profit les ressources existantes.

 Décrypter le rapport à la lumière des dernières annonces Adobe. La stratégie d’Adobe consiste à faciliter la collaboration entre l’IT et les autres fonctions. Cela passe par une architecture des données adaptée aux ambitions de l’expérience client. Plutôt que d’échanger des données entre de multiples applications mieux vaut disposer d’une sorte de « lac de données » (datalake) ou chaque application impliquée dans l’expérience client y puise les données nécessaires. En septembre 2018 Adobe, SAP et Microsoft Adobe se sont associés pour créer Open Data Initiative. Grâce à cette alliance, les clients pourront combiner des données provenant de différentes sources en utilisant un seul modèle de données pour créer un profil client en temps réel.  Depuis Adobe a annoncé, en mars 2019, « l’Experience Customer Platform » qui concrétise les principes de l’Open Data Initiative. Cette Plateforme collecte et traite des données en temps réel – des dizaines de millions d’événements par seconde – provenant de sources multiples et les organise en Experience Data Models (XDM). Les entreprises peuvent également importer leurs propres données provenant de solutions d’ERP, de CRM et d’autres sources. Les services d’IA d’Adobe Sensei apportent la couche d’intelligence nécessaire pour associer données et contenu, permettant aux marques de diffuser systématiquement le bon message, au bon moment et sur le bon canal.

L’expérience client bénéficiera d’autant plus facilement des nouvelles technologies telles que l’IA et l’IoT (objets connectés) qu’elle disposera d’une architecture de données unifiées.

 

 

Sesame-IT la Start-up de cybersécurité qui cible les opérateurs d’importance vitale OIV

Vivatech qui vient de s’achever nous a offert une véritable immersion dans le numérique. L’avenir s’annonce comme un foisonnement de technologies qui font émerger d’incroyables usages. Le monde de demain sera indéniablement numérique. Ce festival d’innovations ne doit pas nous faire oublier que notre société devient par la même occasion de plus en plus vulnérable aux cyberattaques. On n’hésite plus à parler de cyberguerre qui pourrait paralyser tout ou partie d’un pays en ciblant les organismes critiques. Rencontre sur le stand de HPE France à Vivatech d’Audrey Gayno-Amédro CEO et co-fondatrice de Sesame-it .

Protéger les entreprises vitales pour le pays. L’état a recensé près de 250 opérateurs d’importance vitale (OIV), dans le domaine privé et public (banques, transports, santé, télécoms, énergie, alimentation). Leur activité est jugée indispensable au bon fonctionnement et à la survie de la nation. La liste est classée secret défense pour d’évidentes raisons de sécurité. Ces OIV ont l’obligation de se protéger en se conformant à la Loi de Programmation Militaire (LPM) et en s’équipant de dispositifs certifiés. L’ANSSI supervise la mise en application de l’article 22 de la LPM par les OIV et certifie les solutions de détection (sonde souveraine) qui pourront être utilisées. Depuis le 4 avril deux sondes ont déjà été qualifiées et la sonde de Sesame-IT est en cours de validation. Les OIV ont désormais deux ans devant eux pour installer des sondes de détection chez eux. En cas de manquement les dirigeants pourront être poursuivis pénalement.

Sesame-IT un pure player de la cybersécurité. Cette jeune entreprise fait partie du programme start-up HPE 2019 et bénéfice ainsi du soutien de l’entreprise pour l’aider dans son développement. Sesame-IT a été fondée en 2017 par deux experts en sécurité et en réseaux rompus aux techniques d’analyse et d’extraction de données dans les réseaux à très forts débits. Les fondateurs sont fortement sensibilisés aux conséquences des cyber-attaques dirigées contre les OIV. Ils ont entrepris de développer une solution ‘haute fiabilité’, à la fois pour répondre aux besoins de la Loi de Programmation Militaire, mais aussi pour continuer de participer à la protection de la souveraineté de notre pays.  Cette sonde souveraine a été conçue pour ne permettre aucun accès ni au réseau qu’elle surveille, ni aux informations sensibles qu’elle embarque. C’est sa seconde raison d’être, après la fiabilité de détection des menaces et infiltrations. La sonde souveraine s’installe sur le réseau, derrière les nouvelles générations de Firewall, les IPS et les passerelles web sécurisées.

Piéger les pirates avec des leurres sur le principe de « deception ». Plus évolué que les fameux pots de miel (honeypots) destinés à attirer les pirates, Sesame-IT utilise les principes de « deception » qui consiste à créer une perception erronée de la surface d’attaque. Dans le cas des OIV, Sesame-IT propose de créer des réseaux factices pour leurrer les pirates et les détourner des véritables réseaux. Les cyberrisques sont ainsi diminués et la sécurité augmentée. Des algorithmes de machine learning sont utilisés pour suggérer des réseaux factices et les faire évoluer. L’attaque peut ainsi être observée de manière détaillée tout en protégeant le réseau réel. La solution embarque également de nombreux mécanismes pointus de durcissement (exécution des processes, OS, configurations, containerisation, chiffrement, contrôles d’accès à plusieurs niveaux…). La solution Sesame-IT détecte les menaces sur signature, mais aussi les signaux faibles, et permet de créer des règles en fonction des découvertes de nouveaux ‘exploits’ (exploitation d’une faille dans le code) et de recommandations envoyées par les autorités.

En tant que start-up innovante visant ce marché regulé des OIV, le projet de Sesame-IT bénéficie du soutien de l’ANSSI dans la perspective de l’obtention d’une qualification au titre de la LPM.

 

 

 

 

 

 

 

 

 

.

 

 

Google veut redorer l’image de l’intelligence artificielle

Le scandale de Cambridge Analytica a jeté un coup de projecteur sur Facebook et la manière dont il considérait la protection des données personnelles. Amazon est sous le feu des critiques pour avoir mis à disposition de la police son système de reconnaissance faciale qui compte tenu de ses biais pourrait discriminer des personnes de couleurs. Sous la pression de plus 4000 de ses employés Google a renoncé à collaborer avec l’armée américaine au projet Maven. Progressivement les GAFAM et les grandes entreprises technologiques prennent conscience que le développement technologique ne pourra pas se prolonger sereinement sans instaurer une « confiance numérique vertueuse». On assiste ainsi à un mouvement pour s’assurer que le développement de l’IA se fera en respectant certaines valeurs. Dans ce billet nous analysons quelques initiatives de Google dans ce domaine.

Contribuer à une IA éthique.Le 7 juin 2018 le CEO de Google, Sundar Pichai a publié un billet sur le blog de son entreprise intitulé : « AI at Google: our principles ». Il y reconnait que la puissance de technologies comme l’intelligence artificielle est telle qu’elle pose nécessairement des questions sur son utilisation. La manière dont sera développée l’IA aura un impact significatif et durable sur notre société pour les années à venir. Les entreprises qui sont en tête des développements de l’IA comme Google ont donc des responsabilités importantes qu’elles doivent assumer. C’est ce qu’a voulu faire Sundar Pichai en définissant 7 principes qui doivent guider la recherche et le développement aussi bien que les décisions stratégiques. Google s’est ainsi engagé dans un certain nombre d’initiatives qui démontre que l’intelligence artificielle peut contribuer à améliorer notre vie et notre environnement. En voici quelques exemples.

Améliorer la précision des diagnostics médicaux. Les images des yeux peuvent détenir d’importantes informations sur notre santé. En utilisant des algorithmes de deep learning entrainés sur des données de 284.335 patients Google a pu prédire les facteurs de risques cardiovasculaires à partir d’image de rétines. L’algorithme était capable de distinguer des rétines de fumeurs et de non-fumeurs. Cela démontre qu’il est possible de poser des diagnostics médicaux précis en analysant des rétines avec de l’intelligence artificielle en particulier pour la rétinopathie diabétique qui est responsable de nombreux cas de cécité.

 Anticiper les inondations et les tremblements de terres. Google est persuadé que le machine learning détient le pouvoir d’améliorer les prévisions des inondations et d’aider les centaines de millions de personnes affectés par ces catastrophes chaque année. En janvier 2019 Google a hébergé dans ses locaux de Tel Aviv des experts en hydrologie et en machine learning pour réfléchir à l’amélioration des prévisions des inondations en mettant en commun des bases de données et en utilisant des outils modernes de statistiques et de machine learning. Concernant les tremblements de terre Google a commencé par bâtir une base de données contenant les informations de plus de 118 tremblements de terre dans le monde. Il a ensuite réuni des experts pour comprendre comment le deep learning pourrait prédire où se produiront les répliques de secousses sismiques. Un document intitulé “Deep learning of aftershock patterns following large earthquakes“ a été publié le 20 aout 2018. Les prévisions basées sur le machine learning pourront à termes améliorer le déploiement des services d’urgence et les plans d’évacuation sur les zones à risques de tremblement de terre.

Aider à la préservation des baleines. Dans le cadre du programme AI for Social Good et en partenariat avec le Pacific Islands Fisheries Science Center du  National Oceanic and Atmospheric Administration (NOAA), Google a développé des algorithmes pour identifier les appels des baleines à bosses à partir de 15 ans d’enregistrements sous-marins effectués sur plusieurs sites du Pacifique. Les résultats de cette recherche fournissent des informations nouvelles et importantes sur la présence de la baleine à bosse, la saisonnalité, le comportement quotidien des appels et la structure de la population. Ces informations permettent de suivre précisément l’évolution de la population de ces baleines et d’aider à leur préservation.

L’épineuse question des « fake news ». La polémique sur le rôle des réseaux sociaux dans les élections américaines a enflé. La question était de comprendre qui se cachait derrière l’achat de publicités politiques pouvant causer une fraude massive. A l’occasion des élections de mi-mandat Google a lancé de nouvelles règles pour les publicités politiques. Près de 143.000 publicités ont été vérifiées et pour que la transparence soit totale Google a lancé un nouveau « political and transparency report ». Des outils similaires seront utilisés pour les élections européennes de mai 2019.

J’aurais pu encore citer les efforts pour lutter contre la déforestation illégales ou encore les améliorations apportées aux outils de traduction pour réduire les biais sexistes. N’oublions pas que l’intelligence artificielle a réellement pris son essor il y a moins de 10 ans. Comme toute technologie elle est perfectible. De nombreux efforts sont encore à faire pour s’affranchir des biais cognitifs et sur l’explicabilité des algorithmes. Google comme Amazon, Microsoft, IBM et d’autres encore planchent sur le sujet.

 

 

 

 

Le numérique augmente la vulnérabilité des entreprises

Les cyberattaques se sont élevées au 5 cinquième rang des risques qui menacent les entreprises. Bien que les pertes financières soient rarement communiquées, Zurich Insurance estime leur coût pour les entreprises à environ 8.000 milliards de dollars sur les cinq prochaines années. Selon certains experts 92% des entreprises auraient eu à subir au moins une cyberattaque en 2017. Les fameuses attaquent Wannacry puis NotPeyta ont démontré que les effets pouvaient toucher toutes les entreprises et tous les organismes. Plus nombreuses et plus sophistiquées les cyberattaques surfent sur les nouveaux usages du numérique et exploitent toutes les vulnérabilités.

Le progrès numérique s’accompagne d’une plus grande vulnérabilité.Le numérique est partout : dans un hôpital, dans la ville intelligente, dans les véhicules connectés, dans nos logements…. Avec le développement de l’internet des objets, chaque objet peut devenir une menace. Les pirates les détournent pour lancer des attaques massives et saturer les serveurs informatiques des entreprises. Selon les experts de Check Point un million d’objets connectés auraient déjà été infectés dans le but de faire tomber une partie des serveurs internet américains dans les prochains mois (lire l’article de Capital). La mobilité est devenue incontournable mais oblige les responsables de la sécurité à repenser leurs méthodes. On ne sécurise plus un ordinateur de bureau fourni par l’entreprise mais on doit gérer la connexion de smartphones, de tablettes et d’ordinateurs portables qui appartiennent bien souvent à l’utilisateur (BYOD), à un client ou à un invité. Ils contiennent aussi bien des applications professionnelles que privées. Il faudra prendre en compte également les applications à base d’intelligence artificielle. On s’émerveille des prouesses réalisées par l’intelligence artificielle mais comment garantir qu’elle ne sera pas détournée lors de sa phase d’apprentissage ou en phase d’exploitation (inférence).

Des attaques plus discrètes et plus efficaces.Le contexte du numérique est particulièrement complexe et mouvant. Aucune solution ne garantit d’être protégé à 100 %. British Airway a subi récemment des vols de données et dernièrement Marriott a découvert une faille dans sa base de données de réservationsde sa succursale Starwood. L’apparition de nouvelles menaces rend les solutions traditionnelles moins efficaces. Les antivirus et les pare-feu ne sont efficaces que pour des menaces connues avec des signatures répertoriées. Malheureusement les pirates sont ingénieux. Aux techniques de Phishing, DDoS, Ramsonware viennent se rajouter le cryptojacking pour utiliser frauduleusement des ressources informatiques ou bien encore le fileless (attaque sans fichier). La réglementation comme la RGPD impose aux entreprises de signaler les vols de données 72 h après la notification initiale mais de plus en plus d’attaques sont difficilement détectables. Certaines prennent la forme de « credential stuffing » et pillent discrètement les données personnelles le plus longtemps possible à partir d’informations d’identification préalablement dérobées.

Nouveaux défis à la sécurité : le Cloud et les nouvelles applications. La vulnérabilité de notre économie moderne aux cyberattaques est un problème rendu encore plus complexe par le recours au cloud et par les nouvelles méthodes de développement d’applications. Les applications modernes se répartissent de plus en plus souvent dans des clouds hybrides et des multicloud qui font appel à des fournisseurs différents. Comment avoir la visibilité d’une application sur l’ensemble ? Comment disposer d’une sécurité consistante et homogène sur la totalité des clouds ? On a vu apparaitre les applications dites « cloud natives ». Contrairement aux applications traditionnelles assez monolithiques, les nouvelles applications utilisent des microservices et des containers. Elles sont plus faciles à faire évoluer mais elles nécessitent de nombreux composants qui augmentent d’autant la surface d’attaque. Signe des temps modernes, pour innover les applications changent régulièrement, on les met à jour et on y ajoute de nouvelles fonctions. Elles sont dans des modes de développement et d’intégrations continus. Pour assurer la fluidité entre le développement et la production les entreprises adoptent des approches DevOps. Certains aimeraient que la sécurité soit intégrée dans une approche « SecDevOps ».

IA et sécurité by design au secours de la cybersécurité. Les dépenses pour la sécurité sont conséquentes mais l’efficacité ne suit pas pour autant. Il ne suffit pas d’empiler les produits. Les solutions de protection doivent s’accompagner de mesures de remédiation exhaustives (isolation, segmentation ..). Face aux menaces très sophistiquées (APT Adanced Persistent Threat) réputées indétectables de nouvelles approches sont nécessaires. Impossible d’avoir une solution prête pour chaque menace. On doit se concentrer sur les valeurs à protéger (les données et les applications) et sur tous les comportements suspects. L’intelligence artificielle aura sans doute un rôle grandissant dans le domaine de la sécurité grâce à sa capacité à reconnaitre rapidement des patterns suspectes dans des volumes de données importants. Des domaines comme les « User and Entity Behavior Analytics » UEBA devraient en tirer avantage. La « sécurité by design » devrait être imposée. Les dernières générations de puces informatiquescommencent à intégrer ce principe. On ne peut que souhaiter que ce principe soit généralisé aux objets connectés en attendant ce sera au réseau d’être lui-même « sécurisé by design » pour compenser.

Heureusement pour nous l’intelligence artificielle n’est pas qu’une technologie.

Serons-nous un jour confrontés à une intelligence artificielle si évoluée que nous aurions du mal à la distinguer d’un être humain comme dans le film Ex Machina sorti en 2015 ? Paradoxalement à l’heure de l’intelligence artificielle faire des prévisions sur ce sujet reste un grand défi. Déjà en 1950 Alan Turing pensait qu’une machine serait capable de réussir son test éponyme en 2000. Ce n’est toujours pas le cas !! En 2005 Ray Kurzweil dans son livre « The singularity is near » situe le point de singularité en 2045. Depuis 2012 les progrès sont si rapides dans le domaine du deep learning que l’on peut comprendre les interrogations sur l’avenir de nos emplois mais cela ne doit pas devenir une obsession paralysante qui masquerait les aspects positifs de ces évolutions.

l’IA n’est pas une technologie mais une science dont le champ d’application évolue rapidement en fonction des avancées technologiques. Pour se convaincre que l’IA n’est pas qu’une technologie il faut se rappeler que le mot algorithme tire son origine du nom du mathématicien Al-Kwarizmi qui vivait au 9 ème siècle a Bagdad et n’avait donc aucun moyen informatique a sa disposition. L’économie moderne est devenue une économie numérique dont la matière première est la donnée. Au rythme où nous produisons les données il n’est humainement plus possible de les traiter avec des moyens conventionnels. Tous les professionnels que ce soient des médecins, des chercheurs, des avocats, des ingénieurs, des marketeurs sont confrontés à cette « infobésité ». Cette profusion d’informations est source de connaissance approfondie et de progrès mais encore faut-il pouvoir l’exploiter de manière rapide pour produire des effets positifs à l’échelle humaine. Les progrès sont tels en deep learning que les taux d’erreur dans la reconnaissance d’image sont inférieurs a ceux des être humains. Détecter les tumeurs ou anticiper les effets d’un traitement anticancéreux avec précision sont devenus possibles. Cette année la Food Drug Administration a d’ailleurs validé l’usage d’une IA pour détecter la rétinopathie diabétique responsable de cécité. Aujourd’hui on ne remet plus en cause l’utilisation de l’informatique dans le monde moderne. Il est inenvisageable de s’en passer pour gérer le trafic aérien ou ferroviaire, calculer notre comptabilité ou commander sur internet. La technologie a déjà « amplifié » les compétences des professionnels et les médecins savent « numériser » le corps humain. Nous rentrons logiquement dans la phase suivante consistant à exploiter d’avantage les données à notre disposition et l’IA sera incontournable. On pourra difficilement faire l’impasse de l’intelligence artificielle pour gérer les smartcities quand on sait que plus de la moitié de la population humaine vit déjà en ville et que cela va s’accentuer dans les années à venir.
Devons-nous devenir des experts de l’intelligence artificielle ? Tous les jeunes séduits par l’IA sont promis à un bel avenir mais tout le monde n’a pas l’appétence pour les mathématiques, le code ou pour la technologie. L’informatique n’a pas fait de nous des informaticiens par contre il est évident que tout le monde dans sa vie professionnelle ou privée utilise des outils ou des applications qui reposent sur des moyens informatiques. Heureusement pour nous, nous ne sommes pas obligés de connaitre les dessous de l’informatique pour envoyer un email ou consulter notre banque sur internet. Il est cependant essentiel de se former constamment aux nouveaux outils liés à notre emploi et de comprendre comment ils vont faire évoluer notre fonction dans l’entreprise. Fini le cloisonnement fonctionnel, collaborer sera un impératif grandissant. De plus en plus d’éditeurs comme Salesforce ou Adobe intègrent de l’intelligence artificielle dans leurs offres. On doit aussi être en veille constante pour guetter l’arrivée des nouveaux métiers qui n’ont pas encore été imaginés. Car c’est sur cela que notre esprit bute. On identifie assez bien les emplois qui seront impactés par l’arrivée de l’IA même si on peine à préciser dans quelle mesure. Par contre il est extrêmement difficile de se projeter dans le futur et de concevoir,et encore plus de nommer, les futurs emplois engendrés directement ou indirectement par l’intelligence artificielle. Les étudiants qui rentraient dans les écoles de commerce au début des années 2010 ont eu la surprise de découvrir en arrivant en entreprise quantité de nouveaux métiers dans le marketing dont ils n’avaient pas entendu parler durant leurs études. C’est un véritable défi que doivent relever les écoles et les universités pour adapter leurs cursus à un environnement professionnel en constante évolution.

adobe

L’experience digitale et l’intelligence artificielle. La technologie peut faire peur et il est nécessaire de la démystifier pour éviter qu’elle ne nous paralyse. C’est un des objectifs de l’entretien que j’aurai avec David Deraedt lors de l’Adobe Symposium qui se tient à Paris le 13 novembre 2018. Nous nous concentrerons sur « l’expérience digital » pour analyser comment les équipes marketing peuvent faire face eux enjeux de la personnalisation et de l’interaction quasi permanente grâce à l’intelligence artificielle. Le marketing numérique a créé de nombreuses nouvelles fonctions au sein des équipes marketing, l’intelligence artificielle va poursuivre dans la même voie et ouvrir un incroyable champ des possibles.

lire également :

l’intelligence artificielle , une imitatrice de génie

L’intelligence artificielle, une imitatrice de génie

A en croire certains analystes la vie ne serait qu’une combinaison d’algorithmes. Partant de ce principe et confiant dans une technologie sans limite on imagine donc que l’intelligence artificielle (IA) dépassera un jour (qu’on appelle singularité technologique) les capacités humaines. Si cela est vrai reste à préciser à quel horizon car même si l’IA progresse de plus en plus rapidement, elle encore loin d’égaler la sophistication d’un cerveau humain. Il n’en demeure pas moins que sans verser dans le catastrophisme il est important d’anticiper les changements que l’IA nous prépare.

robot-3490522_1920-002-e1539450275897.jpg
L’IA moins intelligente que l’homme mais plus rapide. L’IA compense son manque « d’intelligence » par d’importantes puissances de traitements informatiques. Si l’IA a décollé au début des années 2010 alors qu’elle existe depuis les années 50 cela est du aux progrès réalisés en termes de moyens informatiques et à l’abondance de données. Sans faire ombrage aux compétences et à la qualité des chercheurs et des développeurs, l’apprentissage des machines est rudimentaire comparé à l’efficacité du cerveau. Un enfant est capable de nommer un objet après qu’on lui ait répéter quelques fois son nom alors qu’une IA aura besoin de voir plusieurs millions d’images associées à des labels (étiquettes en mode supervisé) pour reconnaitre un objet. En 2012 Google Brain avait réussi à découvrir le concept de chat (en mode non supervisé) après qu’on lui ait fait analyser 10 millions de captures d’écran de vidéo de chats en utilisant de puissants ordinateurs. L’IA réduit l’échelle de temps de l’apprentissage. Si Alpha GO a réussi à battre le champion du monde de GO en 2016, ce n’est pas qu’il était plus brillant que le champion Lee Sedol mais parce que sa puissance de traitement lui a permis d’apprendre en peu de temps ce qui avait pris des années à Lee Sedol. La machine apprend grâce aux données qu’on lui injecte. On est encore loin des capacités d’un être humain qui explore son environnement, expérimente et s’adapte. On y travaille bien sûr et c’est tout le sens des travaux sur l’apprentissage par renforcement « reinforcement Learning ». L’IA utilise dans ce cas-là les données à la volée pour se créer sa propre expérience. Inutile de dire que c’est bien plus complexe.

L’homme : un « rôle model » pour l’IA. On avance mais il faut rester humble et s’abstenir de toute prévision aventureuse même si on ne peut qu’être surpris par les progrès réalisés ces dernières années. On a tendance à vouloir poser sur l’IA un regard anthropomorphique influencé par des dizaines de films de sciences fiction. Certains veulent doter l’IA d’empathie. On est là plus dans l’imitation que dans le ressenti ou l’émotion. Qu’en est il de l’intuition, de l’imagination, de la créativité ? Des algorithmes eux aussi ? Le cerveau humain est un sujet d’étude pour l’homme avec les neurosciences qui tentent de comprendre les mécanismes d’apprentissage de notre cerveau. Ce qui fait l’originalité de l’homme c’est souvent une pointe d’imperfection qui se transforme en différentiation et le hasard vient souvent au secours de son inventivité. On cite de plus en plus de cas de créations réalisées par une IA. Une peinture, de la musique, des articles de presses …. Mais dans tous les cas l’IA a trouvé son inspiration dans les données. Elle créée « à la manière de ». Ce qui rend la création unique c’est d’abord l’envie de créer. L’envie est-elle un algorithme qui rentre dans les cordes de l’IA ? La créativité est une étrange alchimie de la culture, des influences, de l’éducation et du vécu : tout ce qui forme notre personnalité, notre sensibilité, notre humanité. L’IA pourra peut-être un jour s’approcher de cette « humanité » mais pour encore longtemps l’IA se contentera de créer à « la manière de ». Une raison de plus de s’inquiéter des biais introduits lors du développement d’une IA par ses concepteurs.

jobs blog

Pour collaborer avec l’IA nous allons devoir adapter nos compétences. L’IA comme beaucoup de technologies qui l’ont précédée va permettre d’explorer de nouvelles pistes et d’amplifier le potentiel humain. Voyons-la davantage comme un outil fantastique qui augmente nos capacités que comme un rival qui va limiter notre champ d’action. Pas question pour autant d’être naïf. L’IA va affecter nos métiers et les entreprises comme l’avait fait l’informatique en son temps mais à un rythme accéléré. C’est justement sur ces qualités humaines de création et d’innovation que nous devons capitaliser pour nous distinguer de l’IA et collaborer avec elle. Une récente étude du forum économique international (« future of jobs 2018 ») nous rassure en expliquant que l’IA devrait créer plus d’emplois qu’il n’en détruira mais elle insiste sur le fait que nous rentrons dans une zone d’instabilité des compétences à laquelle nous devons nous préparer. Parmi les 10 compétences qui seront recherchées en 2022, d’après cette étude, on trouve en tête : pensée analytique et innovation, capacité d’apprendre et créativité, originalité, esprit d’initiative. Autant de qualités qui continueront pour longtemps encore à nous distinguer des machines aussi intelligentes soient elles. Apparemment les écoles de commerces et d’ingénieurs ( Le design thinking » essaime dans l’enseignement supérieur ) sont sensibles à ce changement de profile des compétences et commencent à intégrer le design thinking dans leur cursus.