IBM #ThinkParis2019 : Imaginer le monde de demain au travers du prisme technologique

L’hégémonie des GAFA et des BATX (l’équivalent chinois) inquiète. On s’interroge sur la possibilité de bâtir des acteurs européens capables de rivaliser avec les plateformes de ces géants du numérique. A l’occasion de l’événement IBM Paris Think 2019 Nicolas Sekkaki, Président d’IBM France a livré quelques pistes intéressantes avec des plateformes Business et des plateformes technologiques. Tout est encore possible…

Le monde des « Business Plateforms ». Dans une économie moderne axée sur la donnée on oublie que 80% des données ne sont pas accessibles par des moteurs de recherches car elles sont détenues par les entreprises. Il y a donc là un énorme potentiel pour créer de nouvelles plateformes avec des services bien différents de ceux proposés par les GAFA. Cela suppose néanmoins que les entreprises collaborent entre elles au-delà de leurs différences et de leur compétition pour fédérer des services communs à un domaine. C’est loin d’être impossible comme l’a expliqué Nicolas Sekkaki. Dans les transports maritimes IBM a créé le consortium « Tradelens » avec le transporteur Maersk qui a été ouvert ensuite à d’autres acteurs comme MSC et CMA-CGM. Le monde des transports était encore très peu digitalisé et une importante documentation papier accompagnait chaque container. La blockchain (Hyperledger) a été utilisée pour dématérialiser l’ensemble des documents et des processus via des smart contracts. Même approche dans le monde de l’alimentation avec une plateforme de traçabilité alimentaire à base de la blockchain: « IBM Food Trust ». Cette « business platform » permet d’assurer la traçabilité alimentaire, de mesurer l’efficacité de chaque maillon et de valoriser les filières.  Un autre type plateforme tout aussi intéressante concerne les compétences. Certaines organisations comme l’AP-HP ont regardé des cas d’usage pouvant aider le personnel à mieux utiliser la technologie au quotidien dans leurs métiers. On voit apparaitre des plateformes de compétences (ou factory cognitive) qui regroupent des compétences multidisciplinaires et imaginent comment des technologies telles que l’intelligence artificielle pourraient assister le personnel médical et le soulager de certaines taches fastidieuses. On assiste dans la radiologie à une explosion de l’imagerie médicale alors que l’on manque de radiologues. L’IA s’avère dans ce cas là d’une aide considérable pour raccourcir le temps d’analyse des radios.

Les plateformes technologiques axées sur l’open source. Un énorme virage a été pris par IBM avec l’acquisition de RedHat : celui de l’Open Source.  Si RedHat garde son autonomie, IBM entend bien être son premier partenaire. Nicolas Sekkaki considère que 80% du patrimoine des entreprises ne se prête pas au cloud de manière simple du fait de leur conception monolithique. La solution viendra sans doute des technologies de containers et on peut estimer d’après Agnieszka Bruyere d’IBM que la majorité des systèmes d’information sera containerisée d’ici 2025. C’est aussi le moyen d’assurer la portabilité des applications et de supprimer leur adhérence à un cloud particulier. La technologie Openshift de RedHat jouera un rôle crucial pour containeriser les applications et de les orchestrer avec Kubernetes. On aura ainsi l’assurance qu’une application containerisée pourra être utilisée sur n’importe quelle plateforme dans n’importe quel cloud. Nicolas Sekkaki estime que la containerisation aura plus d’impact que la virtualisation sur les dix dernières années. Ce virage vers l’Open Source est aussi l’occasion d’une importante transformation au sein d’IBM et une refonte des services. L’Open Source est un vecteur d’innovation du fait de sa large communauté. Les bonnes idées émergent et l’adoption par le plus grand nombre établit des standards de fait.

L’humain a été un sujet récurrent pendant Think 2019 au travers de l’entreprise « augmentée » Pour Barbara Lavernos de L’Oreal la transformation numérique doit résonner avec une libération des individus et nécessite de les impliquer à tous les niveaux. Nicolas Sekkeki a rappelé le lancement en septembre du projet P-Tech en France qui reproduit l’initiative née en 2011 aux Etats Unis, grace à Barak Obama et IBM, pour préparer les jeunes des filières professionnelles aux métiers de demain.

 

Les solutions de sécurité sont-elles bien adaptées au cloud.

Les entreprises ont compris, dans leur grande majorité, l’opportunité que représentait le cloud pour innover rapidement et à coûts maîtrisés dans une économie numérique qui ne laisse aucune place à l’immobilisme. Cette adoption grandissante du cloud, qui prend généralement la forme de cloud hybride et qui tend à devenir multi-cloud, impose de reconsidérer les stratégies de sécurité pour ne pas subir de graves déconvenues.

La sécurité doit être efficace sans être contraignante.  La sécurité du cloud est confrontée à un environnement particulièrement changeant de par la nature même du cloud et de par le nombre et la sophistication des menaces auquel il doit faire face. Il n’y a pas encore si longtemps toutes les entreprises imposaient des mesures extrêmement strictes à leurs employés pour garantir un maximum de sécurité. L’ordinateur portable était fourni par l’entreprise qui contraignait son utilisation à un usage purement professionnel. Elle imposait l’utilisation de logiciels dument validés avec des versions rarement récentes. Il était assez simple d’appliquer des solutions de sécurité périmétriques qui considéraient que tout ce qui résidait dans ce périmètre était sûr et les accès pouvaient en être aisément contrôlés. Ce monde rassurant est en voie disparition. La sécurité ne peut être contraignante au point d’imposer un style de vie, ou un mode de travail, qui soit à des années lumières de ce qu’offre la technologie aujourd’hui. Les utilisateurs sont devenus nomades et varient les modes de connexion à des applications dans le cloud au gré des usages n’hésitant pas à emprunter à l’occasion des wifi gratuits non sécurisés pour transmettent des données personnelles et professionnelles. Pour gagner en agilité, les entreprises ont tourné le dos aux applications monolithiques et développent les nouvelles applications nativement pour le cloud. Elles utilisent des microservices pour assurer un développement et une intégration continue qui ne nécessitent aucune interruption de service. Les applications peuvent ainsi s’adapter en permanence au besoin du marché mais en revanche leur évolution constante oblige à s’interroger sur leur niveau de vulnérabilité. Le rapport SOSS (State of Software Security ) de Veracode montre que le nombre d’applications vulnérables reste élevé et que les composants open source représente un risque significatif pour l’entreprise. Le recours aux APIs se révèle d’une grande aide pour faciliter l’intégration entre logiciels et applications à condition que ces APIs soient elles-mêmes sécurisées. Les déboires d’Intel en 2018 avec les failles de sécurité  Spectre et Meltdownpuis Foreshadow ont montré que les puces équipant les serveurs informatiques n’était pas à l’abri des menaces. Dans un tel contexte assurer une sécurité à toute épreuve tient de la gageure et les solutions périmétriques ne peuvent se suffire à elle-même.

Il est illusoire de prétendre être en mesure de se prémunir contre toutes les attaques.De par sa vocation le cloud est un environnement hautement connecté qui offre une surface d’attaque importante. Les menaces sont de plus en plus en plus nombreuses et les vecteurs d’attaques s’attachent à exploiter toutes les failles possibles. De nombreux exemples récents de vols de données ont montré que l’entreprise s’aperçoit trop tard qu’elle a été victime d’une attaque. Une étude de Ponemon Institutemenée pour IBM Security a chiffré le coût d’une violation de données à environ 3,86 millions $ par entreprise et par an. Si on ne peut bloquer toutes les attaques il faut éviter leur propagation et en limiter les effets en se concentrant sur la protection des données et des applications. Cela passe par des solutions de chiffrement pour stocker les données et les transférer. Le mot de passe reste d’une efficacité extrêmement limitée s’il ne s’accompagne pas d’autres facteurs d’authentification (un jeton ou une carte à puce, des données biométriques). Pas suffisant malgré tout puisque un outil de test d’intrusion (Modlishka)publié par un chercheur en sécurité a réussi à contourner des protections à double facteurs !! Pour rationaliser les processus et réduire les erreurs humaines l’automatisation est incontournable. Intégrer la sécurité dans les approches DevOps (DevSecOps) peut être salutaire. D’après le rapport SOSS les entreprises utilisant activement des approches DevSecOps corrigent les failles 11,5 fois plus rapidement que les autres en raison de l’analyse accrue du code lors de la fourniture en continue de versions de logiciels. Comme il est impossible de connaitre immédiatement la nature de toutes les nouvelles menaces les solutions de sécurité doivent être capables de déceler toute variation par rapport à un comportement dit normal d’un utilisateur, d’un équipement ou d’une application.

La sécurité confrontée au cloud hybride et au multi cloud. Sécuriser un cloud est déjà un vaste programme. Les solutions se composent de différents produits qui doivent collaborer efficacement pour couvrir tous les aspects de la sécurité. La tâche n’est déjà pas si simple mais elle se complique encore des lors qu’il s’agit de protéger un cloud hybride ou un multi-cloud. Il n’est pas question de mettre en cause les moyens de sécurité des fournisseurs de cloud publics. Des sociétés comme AWS utilisent le machine learning pour détecter automatiquement les menaces (Amazon GuardDuty) ou classifier les données en fonction de leur valeur (Amazon Macies). Google dispose de tout un arsenal documenté dans des livres blancspour assurer l’authentification multi facteurs, le chiffrement des données et l’intrusion des données. Azure et IBM ont des approches similaires. Le problème tient davantage dans la juxtaposition de clouds provenant de fournisseurs différents utilisant des infrastructures, matérielles et logicielles, et des outils de sécurité qui leur sont propres. Dans un environnement aussi complexe il faut s’assurer que l’entreprise garde la visibilité sur l’ensemble des clouds utilisés et sur la localisation de ses données. Malgré le nombre d’acteurs impliqués l’entreprise doit malgré tout veiller à la cohérence et à la consistance des politiques la sécurité sur l’ensemble. Le partage des responsabilités est aussi un sujet qui doit être abordé  tout particulièrement pour être entre conformité avec la RGPD.

Les dépenses en matière de sécurité ne cessent d’augmenter selon le Gartner (101 milliards en 2017, 114 en 2018 et 124 prévus en 2019 mais l’efficacité n’est pas garantie pour autant. A l’ère du cloud il ne suffit plus d’empiler les solutions, il faut être capable de se remettre en cause et utiliser de nouvelles approches qui à leur tour atteindront leurs limites car la sécurité est une course sans fin.

 

 

Après le virage du cloud Adobe se dirige vers le machine learning

L’experience client était le maitre mot d’Adobe durant le summit qui se tenait à Londres du 9 au 11 mai 2017. Adobe continue sa transformation avec brio en unifiant ses offres par le bais du cloud et en étendant son expertise du contenu aux données et au machine learning.  Une approche complète et cohérente qui devrait aider à faire passer de nombreuses entreprises à l’ère du numérique.

« Préserver le status quo n’est pas une stratégie ». C’est ce qu’explique le CEO, Shantanu Narayen, à l’occasion de l’Adobe Summit. Plutôt que de se satisfaire de ses résultats il faut savoir se transformer avant que cela ne devienne une urgence. C’est ce qu’a fait Adobe en prenant le virage du cloud de manière volontariste. Toutes ses offres sont aujourd’hui dans le cloud mais la transformation d’Adobe a également concerné tous les pans de l’entreprise :  process, organisation, développement etc.. La stratégie de transformation ne s’arrête pas là pour autant et Adobe a entrepris d’étendre son focus du contenu aux data et aux machine learning. C’est seulement de cette façon qu’il est possible de proposer une « Experience client » digne de ce nom. Pour Adobe l’expérience est le facteur de différentiation par excellence plus que le produit lui-même. L’objectif est bien de fournir aux entreprises tout ce dont elles ont besoin pour déployer une expérience cohérente et personnalisée qui va plaire aux clients quelques soient ses attentes sur tous ces équipements et sur tous les points de contacts avec une marque.

Unifier les données et les contenus pour une meilleure experience. Pour que l’Experience client puisse être complète et aboutie, Adobe a récemment lancé Adobe Experience Cloud, un ensemble complet de services pour créer et diffuser des expériences client d’exception. Composé d’Adobe Marketing Cloud, d’Adobe Advertising Cloud et d’Adobe Analytics Cloud, Adobe Experience Cloud s’intègre avec Adobe Creative Cloud et Adobe Document Cloud. Ce n’est pas un simple regroupement marketing des offres. Il s’agit là d’une intégration complète qui bénéficie de l’unification du contenu et des données grâce à une architecture Cloud commune (Adobe Cloud Platform) sur laquelle repose tous les composants d’Adobe Experience Cloud. Adobe Cloud Platform propose également des APIs (Adobe I/O) , un modèle de données standard (Adobe XDM) et un framework d’intelligence artificielle (Adobe Sensei annoncé en novembre 2016)).

Le machine learning devient stratégique pour Adobe. Il ne suffit plus de faire de l’analyse, elle doit être suivie d’actions en temps réel. Pour le faire il faut être capable de collecter et de traiter d’importants volumes de données avant de les traduire en profils clients uniques. Ce rôle revient à Adobe Analytics Cloud, une sorte d’intelligence client, qui combine Adobe

Audience Manager et Adobe Analytics et permet une intégration unique des données d’audience de tous les clouds Adobe. Durant le summit de Londres, Adobe a annoncé le 9 mai 2017 Virtual Analyst, un datascientiste virtuel augmenté par Adobe Sensei qui va analyser en continu les données et utiliser le machine learning et des algorithmes prédictifs pour déclencher des alertes personnalisées et envoyer des informations sur les anomalies qui perturbent l’activité. Cette détection d’anomalie et l’analyse de contribution va permettre aux clients qui utilisent Analytics cloud d’automatiser les workflows de sciences de données les plus courants dans le but d’identifier les causes de comportements inhabituels de leurs données.

S’ouvrir pour enrichir l’experience. Adobe Analytics a pu s’intégrer avec d’autres sources de données grâce à un partenariat avec Microsoft Power BI. Pour aller plus loin Adobe propose à présent des packs de contenus pour Power BI :

  • Traffic Analysis pour analyser rapidement les tendances du trafic digital
  • Mobile App Analysis pour explorer les interactions avec les utilisateurs d’applications mobiles et leurs performances.

Pour offrir une experience de qualité on retiendra 4 conseils formulés pendant l’Adobe Summit :

connaître son client et le respecter, parler d’une seule voie sur l’ensemble des canaux de communication, rendre la technologie transparente et enfin surprendre agréablement l’utilisateur à chaque fois.

 

Les développeurs au cœur de l’innovation des entreprises

Avec la frénésie du numérique, l’innovation est devenue plus que jamais un impératif pour les entreprises qui veulent continuer à progresser, voire survivre. L’économie numérique est tout aussi bien l’économie de la donnée que de l’application. Les applications de plus en plus nombreuses rythment la vie et l’activité de l’entreprise. L’innovation est directement liée à la capacité des entreprises à concevoir rapidement de nouvelles applications. De quoi justifier largement la tenue du salon DEVOXX lors duquel j’ai rencontré Michel Lara, architecte chez IBM, avec lequel j’ai pu m’entretenir.

Codeur : métier d’avenir. On a connu la vague d’externalisation des développements d’applications en Inde dans le but de faire baisser les coûts. On pourrait bien assister dorénavant à une relocalisation en France. Le code a le vent en poupe et est désormais synonyme d’innovation non seulement pour les startups mais également pour les grandes entreprises. Les méthodes ont évoluées et sont devenues agiles, les approches DevOps prônent l’intégration continue et le design thinking rapproche le développeur de l’utilisateur. L’expérience utilisateur tant recherchée aujourd’hui repose sur un niveau d’empathie qui impose une proximité physique et culturelle.  Le développeur n’est plus enfermé dans sa tour d’ivoire et collabore d’avantage avec les équipes métiers et de manière plus fréquente. Le développement se veut collaboratif. C’est à la fois le caractère stratégique du développement et cet aspect collaboratif qui expliquent en grande partie  cet engouement pour le métier de développeur en France. Le développement s’est démocratisé, il est devenu plus accessible et plus ludique et la médiatisation de jeunes développeurs ayant revendu une fortune leurs applications suscitent des vocations. Le métier de codeur semble prometteur en termes d’emplois en France dans les années à venir.

Le cloud à la rescousse des développeurs. Les applications sont plus nombreuses et d’ici quelque années l’économie numérique reposera sur près de 1000 milliards d’applications. Les applications sont les nouveaux services de l’entreprise qui doit être capable d’en produire rapidement en nombre et de les faire évoluer fréquemment dans le temps. La notion de micro services et d’APIs (Application Programming Interface) se généralise et permet de simplifier et d’accélérer le processus du développement. Il ne s’agit plus de concevoir une application comme un bloc monolithique mais comme un ensemble de micro services interconnectés. Avec sa plateforme d’innovation Bluemix, IBM a très largement œuvré dans ce sens en proposant de nombreux services dans le cloud à destination des développeurs (blockchain, IoT, cognitif etc..). Les développeurs peuvent appeler ces services grâce à des APIs et s’éviter ainsi des développements lourds et couteux pour des technologies complexes comme la blochain ou le machine learning. Ils peuvent ainsi se consacrer au développement de services métiers. Le cloud a grandement simplifié la vie des développeurs qui désormais ont accès aussi bien à des ressources applicatives que matérielles. IBM n’oublie pas les startups et a annoncé en février l’espace Scale Zone destiné à accompagner des startups confirmées dans le cadre de promotion de 11 startups pendant six mois autour d’une thématique spécifique (IOT pour la première promotion). Ces startups sont hébergées dans les locaux d’IBM à proximité des solutions métiers. L’objectif est d’aider ces startups dans leur phase d’industrialisation en leur donnant accès aux ressources de développement de Bluemix et à l’écosystème IBM.

Blockchain le futur eldorado des développeurs. Ce sont plus de 400 projets blockchain qui sont en court chez IBM au nouveau mondial et qui se justifient généralement autour de trois points : la productivité, la traçabilité et la sécurité. Après avoir mis à disposition des développeurs des services Bluemix avec du code prêt à l’emploi, des APIs et de nombreuses documentations IBM a annoncé en mars le support d’hyperledger fabric (l’initiative de la fondation Linux à laquelle participe IBM) sur les infrastructures IBM. Par la même occasion IBM a levé un frein à l’industrialisation de la Blockchain en étant capable de supporter 15.000 transactions par seconde. La blockchain intéresse de nombreux domaines : traçabilité alimentaire, traçabilité logistique, authentification de contrats ou de diplômes. Les exemples ne manquent pas et tout récemment Natixis, IBM et Trafigura ont mis au point la première solution blockchain (sur la plateforme Bluemix) applicable aux transactions de financement du commerce de pétrole brut aux Etats-Unis (lire le communiqué de presse). La durée du cycle de trésorerie et les frais de gestion de la transaction s’en trouvent considérablement réduits et les transactions offrent une plus grande transparence réduisant de facto les risques de fraude.

Par ailleurs IBM a annoncé le 20 mars 2017 un nouveau service de conteneurs sur Bluemix. Les développeurs pourront ainsi concevoir et gérer des applications plus sécurisées. Ce service s’appuie sur Kubernetes, le système d’orchestration de conteneurs open source utilisant Docker.

lire également: Blockchain : nouvelle gouvernance de la confiance pour une nouvelle économie

 

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.