L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :

Les objets connectés sont l’avenir du 21 ème siècle

Avec le numérique on n’arrête plus de faire la révolution, la prochaine annoncée est celle des objets connectés (IoT) . Elle porte en soi la concrétisation de toutes les promesses du numérique et bénéficie des innovations apportées par le cloud, le big data et l’intelligence artificielle. La richesse des objets connectés c’est la multitude d’objets qui collaborent et communiquent pour transformer le monde en données et le rendre « intelligent ».

Aujourd’hui un très faible pourcentage d’objets sont connectés, sans doute environ 2%, mais en 2020 selon IDC ce seront 15 % qui seront connectés représentant plus de 20 milliards d’objets pour Gartner. La mission première de tous ces objets est de collecter et de transmettre des informations, grâce à des capteurs multiples et variés, qui après exploitation vont ajouter des fonctionnalités à cet objet et offrir de nouveaux services pour une expérience utilisateur augmentée. Avec cette prolifération d’objets connectés l’univers numérique touchera à l’apothéose : à terme quasiment tout deviendra source de données. Dernièrement Le MIT Media Lab et Microsoft Research ont même été imaginer un tatouage éphémère qui pousserait la notion d’objet connectable encore plus loin. En 2020 on estime que les objets connectés compteront pour 27% de toutes les données (source IDC).

Les objets connectés apportent une réponse aux enjeux du 21 ème siècle. Le déploiement des objets connectés trouve son utilité dans tous les secteurs d’activité. Plus qu’utile l’objet connecté va s’avérer incontournable pour faire face aux enjeux du 21 ème siècle. Il faut considérer chaque objet connecté comme un élément d’un système plus vaste (l’habitat, le bâtiment la voiture, le magasin, l’aéroport, l’usine, la ville etc ..) et œuvrant pour l’amélioration de tous les secteurs d’activité (agriculture connectée, santé connectée etc…). Tout le monde s’intéresse au marché IoT y compris les géants du web comme Google qui a déposé fin juillet un brevet de salle de bain connectée pour prévenir les maladie en mesurant l’évolution des systèmes cardiovasculaires, nerveux, endocriniens et musculaire de ses utilisateurs. Face à la démographie galopante qui nous promet 9,6 milliards d’habitants sur terre en 2050 (dont plus de la moitié vit  en zone urbaine depuis 2008) le rôle des objets connectés est essentiel. Un rôle d’autant plus important que nos ressources s’épuisent.  Le mercredi 22 août 2016, l’humanité avait déjà épuisé son crédit annuel de ressources naturelles. Les effets sont inquiétants quand on sait qu’en 2030 la demande en eau sera supérieure de 40% à l’offre mondiale. Les objets connectés ne sont pas le remède miracle mais surement une partie de la solution. L’agriculture a déjà entamé la révolution des objets connectés pour optimiser les rendements. Avec 54% de la population mondiale qui vit aujourd’hui dans les zones urbaines et qui devrait passer à 66% en 2050 les villes n’ont pas d’autre choix que de devenir intelligentes pour réguler le trafic automobile, la consommation électrique, la fourniture d’eau et lutter contre la pollution. En 2030 tous les foyers français devraient être équipés de compteurs d’eau intelligents qui pourraient faire baisser la consommation d’environ 15% grâce à un suivi personnalisé. ( lire En 2030, notre eau sera intelligente et connectée)

L’utilisation des objets connectés s’appuient sur les piliers de la transformation numérique. Les objets connectés ne fonctionnent qu’en exploitant les technologies fondamentales du numériques et bien sur les réseaux. Les mobiles et smartphones pour fournir les applications exploitant les données de bon nombre d’objets. Le big data pour collecter, stocker et traiter la multitude de données, l’intelligence artificielle pour créer des systèmes agissant de façon autonome et le cloud pour héberger de manière économique les ressources informatiques qui sous-tendent le fonctionnement des objets connectés. Pour accompagner ce formidable développement les questions ne manquent pas à commencer par la sécurité. Le sujet n’est pas nouveau dans notre monde désormais numérique mais le nombre et la distribution d’objets interconnectés couplés à la puissance de l’intelligence artificielle amplifient les risques et complexifient la sécurité. On a déjà en tête le piratage de voiture et tout récemment un article faisait froid dans le dos en évoquant le possible piratage d’un cerveau humain à partir d’implants (lire Brainjacking: Hacking brain implants). Scénarii catastrophes qui nous sensibilisent encore d’avantage à la cyber sécurité thème majeur de notre siècle. N’oublions pas d’évoquer le sujet de la protection des données personnelles. Tous ces objets vont envahir notre quotidien et enregister bon nombre de nos activités  posant ainsi la question de la limite de l’utilisation de ces données. Une raison de s’intéresser à la toute dernière réglementation européenne dans ce domaine la General Data Protection Regulation GDPR.

Comme toute révolution technologique des metiers disparaissent et d’autres se créent. Le bilan est positif ou négatif selon les analystes qu’on interroge mais face aux enjeux de notre planète il parait désormais difficile de s’en passer.  Reste à repenser nos modèles économique et sociétaux pour que la transition se fasse le plus harmonieusement possible

Rencontre avec Anthony Cirot Directeur Cloud chez IBM France

L’abondance d’innovations technologiques a créé de nouveaux usages et amené des modèles d’affaires en rupture avec le passé. Dans ce monde en profonde mutation les entreprises n’ont d’autres choix que d’innover rapidement pour maintenir leur positon et continuer à se développer. Le numérique impose une accélération souvent insoutenable pour beaucoup. Dans ce contexte le cloud devient le moteur de l’innovation en facilitant bien entendu l’accès aux ressources informatiques mais surtout en offrant un véritable environnement d’innovation. Rencontre avec Anthony Cirot Directeur du Cloud IBM France à quelques jours de la Cloudweek 2016 à Paris.

Anthony Cirot

Le cloud incontournable pour les développeurs. Le tournoi de Roland-Garros en est un excellent exemple. L’évènement a beau se dérouler sur une courte période il faut néanmoins disposer de ressources puissantes pour développer les applications et fournir en temps réel les statistiques des joueurs qui s’afficheront sur nos écrans. Pour y arriver IBM s’est appuyé sur son offre d’Infrastructure as a service (IaaS) Softlayer et sa plateforme d’innovation Bluemix. Les données du tournoi étaient collectées sur place en temps réel dans un petit data center. Ce dernier formait un cloud hybride avec le cloud Softlayer, lui-même réparti sur quatre plaques géographiques pour assurer une totale résilience. Les développeurs mobilisés pour le tournoi pouvaient faire appel à des services cognitifs dans le cloud et effectuer toutes les opérations sur les applications en temps réel dans l’esprit DevOps.

Bluemix une plateforme pour l’innovation. Anthony Cirot préfère définir Bluemix comme une plateforme d’innovation numérique plutôt que par l’acronyme PaaS (Platform as a Service) qu’il juge réducteur. Avec 140 services Bluemix, il est vrai que l’offre est riche et les développeurs peuvent utiliser une combinaison des technologies informatiques open source les plus en vue pour optimiser leurs applications.

Bluemix innovation V1

Au-delà d’une large palette de langages de programmation, de très nombreux domaines son couverts. Cela va de DevOps aux outils cognitifs Waston en passant par la mobilité, le big data ou bien encore l’IoT. On trouve également un service Blockchain en beta. Un client peut étendre les fonctionnalités de ces applications en faisant le choix parmi des services IBM, de tiers et de communauté. Cette plateforme d’innovation se présente sous la forme d’un cloud privé installé chez le client, d’un cloud privé externe ou bien encore d’un cloud public. Bluemix peut compter sur les 25 datacenters d’IBM Softlayer pour répondre à toutes les attentes des clients où qu’ils soient. Pour dynamiser encore l’innovation, IBM dispose aussi de « Bluemix garages » dans différents pays y compris la France à Nice. Ce concept de « garage » propose des services de conseils et développement d’application sur Bluemix avec l’ADN d’une startup. Ces Bluemix garage offrent la possibilité, à des entreprises de toutes tailles, de concevoir et de créer des applications attractives via « le Design Thinking » d’IBM, le démarrage rapide et l’implémentation agile incluant notamment la mise en place de chaînes DevOps pour améliorer la qualité. Les entreprises peuvent ainsi accélérer toutes les phases du cycle de vie de conception, de développement et de distribution des applications.

IBM franchit une nouvelle étape avec des services de vidéo dans le cloud. Le marché et les attentes évoluent rapidement au gré de l’adoption des nouveaux usages comme en IBM Rolland garrostémoignent les acquisitions d’IBM totalement intégrées dans sa stratégie Cloud. Après l’achat de Softlayer en 2013 pour construire l’offre IaaS, IBM a entamé un processus d’acquisitions pour adapter et enrichir son offre. En janvier 2014 c’était Aspera pour accélérer le transfert massif et sécurisé de fichiers sur de longues distances. En novembre 2015 Cleversafe apportait le stockage objet au cloud IBM. Avec le développement de la vidéo, qui devrait représenter près de 80% du trafic internet en 2020, on ne s’étonnera pas de voir IBM s’emparer du sujet. En décembre 2015 IBM faisait l’acquisition de la société Clearleap pour offrir aux entreprises des services de vidéo à la demande en mode Software as a services SaaS. Peu de temps après, en janvier 2016, c’est au tour de la société Ustream d’intégrer l’offre Cloud d’IBM pour proposer du vidéo streaming pour diffuser aussi bien la séance plénière d’une entreprise n direct qu’un concert musical. L’arrivée de ce type de solutions vidéo dans le cloud aura sans doute un impact sur la chaîne de valeur et sur l’écosystème de la vidéo.

IBM collabore avec VMware dans le cloud. (lire l’annonce) IBM et VMware ont conçu une architecture qui permettra aux clients de provisionner automatiquement dans le cloud IBM Softlayer des environnements VMware SDDC (Software Defined DataCenter) composés de VMware vSphere, NSX et Virtual SAN.IBM vmare Une collaboration qui a du sens quand on sait que près de 100% des clients Fortune 1000 utilisent des technologies VMware. Les clients VMware pourront étendre facilement leurs workloads existants depuis leur datacenter vers le Cloud. De son côté VMware a étendu les fonctions de ses outils d’administration vRealize Automation et vCenter pour déployer et gérer des environnements dans les cloud IBM de la même manière que s’ils étaient dans le datacenter du client.

Les services dans le cloud ne cessent de s’enrichir. Le vieux débat sur le prix d’une VM dans le cloud semble dépassé. L’enjeu se situe d’avantage sur la rapidité et la qualité du développement d’applications qui permettront aux entreprises d’innover et de progresser.

 

Le stockage se prépare aux grandes marées digitales

L’univers digitale est en pleine expansion et n’est pas prêt de s’arrêter. La vague des objets connectés et le développement continu des réseaux sociaux vont encore amplifier le phénomène. Dans cette profusion de données dans laquelle nous allons baigner beaucoup y voit une source de dynamisme économique présentant la donnée comme le nouvel or noir de l’économie numérique. Il va pourtant falloir déborder d’imagination pour collecter toutes ces données et les stocker pour les analyser en temps réel pour certaines et plus tard pour d’autres.

Cloud storage market

Une marée de données créée par les internautes et les objets connectées. Le domaine du stockage d’information se remet en cause et doit faire preuve d’innovation pour être capable de prendre en compte ces volumes considérables de données. Les technologies progressent  continuellement et offrent un rapport coût performance sans cesse amélioré. Mais ce n’est pas suffisant. Aujourd’hui environ 3,2 milliards de personnes sont connectées à Internet et l’ONU souhaite que 1,5 milliards de personnes supplémentaires puissent avoir accès à Internet en 2020. On estime qu’une personne connectée génère 1,7 Megaoctets par seconde le calcul est vite fait. Vient se rajouter les données qui seront créées par les 50 milliards d’objets connectées (source Cisco). On assiste à une véritable accélération, certains avaient déjà estimé qu’en 2013 il suffisait d’environ 10 mn pour créer ce qui prenait deux jours en 2010 … Explorons donc quelques initiatives non exhaustives pour stocker cette nouvelle richesse infinie.

Le stockage cognitif pour être sélectif dans le choix des données à stocker. Toutes les données n’ont pas la même valeur. Certaines sont abondamment dupliquées, d’autres sont peu fiables  et d’autres n’ont de valeur qu’à un instant précis. Les constructeurs de stockage ont développé des fonctionnalités de déduplication pour être sûr de ne stocker qu’une fois les données. Les spécialistes de la gestion de données proposent des solutions logicielles pour effectuer un nettoyage de données afin de  supprimer les données peu fiables ou redondantes. IBM pourrait aller plus loin grâce à un projet de stockage cognitif qui distinguerait automatiquement les données à forte valeur de celles qui ne présentent qu’un faible intérêt. On pourrait dès lors  savoir lesquelles stocker prioritairement et sur quels types de supports. En d’autres termes on apprend à l’ordinateur à se souvenir des choses importantes et à oublier le reste comme le fait le cerveau. On rentre ainsi dans le domaine de l’infonomics, une discipline émergente qui considère l’information comme faisant partie du capital de l’entreprise et devant être gérée en tant que telle pour apporter de la valeur au business de l’entreprise. Pour l’instant ce projet est à l’état de recherche et il faudra certainement attendre quelques années pour voir un produit commercialisé.

L’ADN comme alternative au stockage magnétique. L’imagination humaine étant sans limite des chercheurs d’Harvard ont réussi à stocker de l’information sur de l’ADN synthétisé. Là encore pas de produit commercialisable mais quand même. Un rapport présenté cette année aStockage ADN montré que l’on pouvait stocker 1 Exaoctets de données sur 1mm3 d’ADN. Chacune des bases nucléotidiques (TGAC) représente une valeur binaire. Le film « le voyage dans la lune » réalisé par Georges Melies en 1902 a pu ainsi être copié un million de fois en utilisant cette technique. En plus de son incroyable capacité de stockage, stocker des données sous la forme de molécules d’ADN offre l’avantage d’une très grande conservation qui peut aller jusqu’à plusieurs siècles en théorie. Une technologie sans doute intéressante dans le futur pour de l’archivage très longue durée.

Repousser les limites technologiques. Certains supports magnétiques ont la vie dure. C’est le cas de la bande magnétique. Plusieurs fois annoncée en fin de vie, la bande magnétique ne cesse d’évoluer pour atteindre de très hautes capacités à de faibles coûts. A ces début en 1952 la bande contenait seulement 2 megaoctets de données. En 2015 IBM et Fujifilm ont annoncé avoir réussi à stocker 220 Teraoctets de données sur une bande (environ 88 fois la capacité de la technologie LTO 6)  Une petite prouesse technologie quand on sait que cela représente 123 milliards de bits par inch carré et qu’il a fallu réussir a positionner la tête de lecture avec une précision de quelques nanomètres.   Google utilise lui-même des librairies automatisées de bandes magnétiques. C’est grâce à ces bandes que Google avait réussi à restaurer des boites Gmail en 2011. Certains utilisateurs de Gmail avaient eu la mauvaise surprise de voir leur boite de messagerie vide suite à un bug logiciel qui avait effacé les copies sur disques. Heureusement une sauvegarde existait sur des bandes magnétiques. A ce jour ce seraient plus de 500 exaoctets de données qui résideraient sur des systèmes de stockage sur bandes.

Stocker les données sous forme d’objets. Traditionnellement les systèmes informatiques stockaient les données sous forme de fichiers et de blocs. Un stockage qui se prêtait bien aux applications traditionnelles basées sur des bases de données relationnelles pour des données dites structurées. En 2020, 70% à 80% des données seront des données non structurées stockage objet gartner(document, email, video, image, son etc..). Il faut donc être capable de proposer des systèmes de stockage optimisés pour les données non structurées, peu coûteux, capable d’évoluer « à l’infini » évolutif et simple d’accès (via http). C’est le principe du stockage objet. La donnée est stockée comme un objet contenant le fichier ainsi que des métadonnées souples que l’on peut enrichir. Les données sont accessibles très facilement via http et chaque donnée possède un identifiant unique. Les applications peuvent également exploiter simplement les données stockées sous ce format grâce à des interfaces de programmation (API REST). Tous les grands constructeurs de systèmes de stockage (voir l’analyse du Gartner dans StorageNewsletter) proposent ce type de solutions sur site (on premise) pour les nouvelles applications dites cloud natives et les fournisseurs de stockage cloud ont adopté cette technologie.

Utiliser le cloud pour stocker l’information. Pour faire face à cette marée de données sans se laisser déborder par la gestion des coûts et la complexité des infrastructures,  les entreprises se tournent de plus en plus vers du stockage dans le cloud. Une manière d’étendre le stockage des Datacenters des entreprises en souplesse dans en environnement hybride combinant cloud privé et cloud public. A en croire l’étude de MarketandMarket le marché du Public cloud storage servicesstockage dans le cloud va croitre de 28,2% par an entre 2015 (18,87 miliards $) et 2020 (65,41 milliards $). Les données des applications critiques resteront dans le datacenter pour des raisons de sécurité ou de réglementation mais pour d’autre comme les sauvegardes ou  la partie web des applications n tiers le cloud offre une solution élégante. Il faut pour cela que l’application ne fasse pas de distinguo entre le stockage résidant dans le Datacenter (ou le cloud privé) et celui localisé dans un cloud public. Pour les nouvelles applications pas de souci elles ont été conçues en général pour le cloud. Pour les applications traditionnelles il faut utiliser une passerelle cloud (Cloud gateway). C’est un équipement physique et virtuel installé dans le datacenter et connecté au stockage objet du fournisseur de cloud. C’est un moyen efficace d’introduire une solution de stockage cloud hybride sans d’importantes modifications d’une application.

Le marché du stockage en ébullition. Les évolutions du stockage ne s’arrêtent pas là, je n’ai pas traité dans ce billet la technologie flash qui devrait s’imposer en 2016 ni de l’hyperconvergence qui ne cesse de croitre. Je renvoie pour cela aux précédents billets :