Après le virage du cloud Adobe se dirige vers le machine learning

L’experience client était le maitre mot d’Adobe durant le summit qui se tenait à Londres du 9 au 11 mai 2017. Adobe continue sa transformation avec brio en unifiant ses offres par le bais du cloud et en étendant son expertise du contenu aux données et au machine learning.  Une approche complète et cohérente qui devrait aider à faire passer de nombreuses entreprises à l’ère du numérique.

« Préserver le status quo n’est pas une stratégie ». C’est ce qu’explique le CEO, Shantanu Narayen, à l’occasion de l’Adobe Summit. Plutôt que de se satisfaire de ses résultats il faut savoir se transformer avant que cela ne devienne une urgence. C’est ce qu’a fait Adobe en prenant le virage du cloud de manière volontariste. Toutes ses offres sont aujourd’hui dans le cloud mais la transformation d’Adobe a également concerné tous les pans de l’entreprise :  process, organisation, développement etc.. La stratégie de transformation ne s’arrête pas là pour autant et Adobe a entrepris d’étendre son focus du contenu aux data et aux machine learning. C’est seulement de cette façon qu’il est possible de proposer une « Experience client » digne de ce nom. Pour Adobe l’expérience est le facteur de différentiation par excellence plus que le produit lui-même. L’objectif est bien de fournir aux entreprises tout ce dont elles ont besoin pour déployer une expérience cohérente et personnalisée qui va plaire aux clients quelques soient ses attentes sur tous ces équipements et sur tous les points de contacts avec une marque.

Unifier les données et les contenus pour une meilleure experience. Pour que l’Experience client puisse être complète et aboutie, Adobe a récemment lancé Adobe Experience Cloud, un ensemble complet de services pour créer et diffuser des expériences client d’exception. Composé d’Adobe Marketing Cloud, d’Adobe Advertising Cloud et d’Adobe Analytics Cloud, Adobe Experience Cloud s’intègre avec Adobe Creative Cloud et Adobe Document Cloud. Ce n’est pas un simple regroupement marketing des offres. Il s’agit là d’une intégration complète qui bénéficie de l’unification du contenu et des données grâce à une architecture Cloud commune (Adobe Cloud Platform) sur laquelle repose tous les composants d’Adobe Experience Cloud. Adobe Cloud Platform propose également des APIs (Adobe I/O) , un modèle de données standard (Adobe XDM) et un framework d’intelligence artificielle (Adobe Sensei annoncé en novembre 2016)).

Le machine learning devient stratégique pour Adobe. Il ne suffit plus de faire de l’analyse, elle doit être suivie d’actions en temps réel. Pour le faire il faut être capable de collecter et de traiter d’importants volumes de données avant de les traduire en profils clients uniques. Ce rôle revient à Adobe Analytics Cloud, une sorte d’intelligence client, qui combine Adobe

Audience Manager et Adobe Analytics et permet une intégration unique des données d’audience de tous les clouds Adobe. Durant le summit de Londres, Adobe a annoncé le 9 mai 2017 Virtual Analyst, un datascientiste virtuel augmenté par Adobe Sensei qui va analyser en continu les données et utiliser le machine learning et des algorithmes prédictifs pour déclencher des alertes personnalisées et envoyer des informations sur les anomalies qui perturbent l’activité. Cette détection d’anomalie et l’analyse de contribution va permettre aux clients qui utilisent Analytics cloud d’automatiser les workflows de sciences de données les plus courants dans le but d’identifier les causes de comportements inhabituels de leurs données.

S’ouvrir pour enrichir l’experience. Adobe Analytics a pu s’intégrer avec d’autres sources de données grâce à un partenariat avec Microsoft Power BI. Pour aller plus loin Adobe propose à présent des packs de contenus pour Power BI :

  • Traffic Analysis pour analyser rapidement les tendances du trafic digital
  • Mobile App Analysis pour explorer les interactions avec les utilisateurs d’applications mobiles et leurs performances.

Pour offrir une experience de qualité on retiendra 4 conseils formulés pendant l’Adobe Summit :

connaître son client et le respecter, parler d’une seule voie sur l’ensemble des canaux de communication, rendre la technologie transparente et enfin surprendre agréablement l’utilisateur à chaque fois.

 

Les développeurs au cœur de l’innovation des entreprises

Avec la frénésie du numérique, l’innovation est devenue plus que jamais un impératif pour les entreprises qui veulent continuer à progresser, voire survivre. L’économie numérique est tout aussi bien l’économie de la donnée que de l’application. Les applications de plus en plus nombreuses rythment la vie et l’activité de l’entreprise. L’innovation est directement liée à la capacité des entreprises à concevoir rapidement de nouvelles applications. De quoi justifier largement la tenue du salon DEVOXX lors duquel j’ai rencontré Michel Lara, architecte chez IBM, avec lequel j’ai pu m’entretenir.

Codeur : métier d’avenir. On a connu la vague d’externalisation des développements d’applications en Inde dans le but de faire baisser les coûts. On pourrait bien assister dorénavant à une relocalisation en France. Le code a le vent en poupe et est désormais synonyme d’innovation non seulement pour les startups mais également pour les grandes entreprises. Les méthodes ont évoluées et sont devenues agiles, les approches DevOps prônent l’intégration continue et le design thinking rapproche le développeur de l’utilisateur. L’expérience utilisateur tant recherchée aujourd’hui repose sur un niveau d’empathie qui impose une proximité physique et culturelle.  Le développeur n’est plus enfermé dans sa tour d’ivoire et collabore d’avantage avec les équipes métiers et de manière plus fréquente. Le développement se veut collaboratif. C’est à la fois le caractère stratégique du développement et cet aspect collaboratif qui expliquent en grande partie  cet engouement pour le métier de développeur en France. Le développement s’est démocratisé, il est devenu plus accessible et plus ludique et la médiatisation de jeunes développeurs ayant revendu une fortune leurs applications suscitent des vocations. Le métier de codeur semble prometteur en termes d’emplois en France dans les années à venir.

Le cloud à la rescousse des développeurs. Les applications sont plus nombreuses et d’ici quelque années l’économie numérique reposera sur près de 1000 milliards d’applications. Les applications sont les nouveaux services de l’entreprise qui doit être capable d’en produire rapidement en nombre et de les faire évoluer fréquemment dans le temps. La notion de micro services et d’APIs (Application Programming Interface) se généralise et permet de simplifier et d’accélérer le processus du développement. Il ne s’agit plus de concevoir une application comme un bloc monolithique mais comme un ensemble de micro services interconnectés. Avec sa plateforme d’innovation Bluemix, IBM a très largement œuvré dans ce sens en proposant de nombreux services dans le cloud à destination des développeurs (blockchain, IoT, cognitif etc..). Les développeurs peuvent appeler ces services grâce à des APIs et s’éviter ainsi des développements lourds et couteux pour des technologies complexes comme la blochain ou le machine learning. Ils peuvent ainsi se consacrer au développement de services métiers. Le cloud a grandement simplifié la vie des développeurs qui désormais ont accès aussi bien à des ressources applicatives que matérielles. IBM n’oublie pas les startups et a annoncé en février l’espace Scale Zone destiné à accompagner des startups confirmées dans le cadre de promotion de 11 startups pendant six mois autour d’une thématique spécifique (IOT pour la première promotion). Ces startups sont hébergées dans les locaux d’IBM à proximité des solutions métiers. L’objectif est d’aider ces startups dans leur phase d’industrialisation en leur donnant accès aux ressources de développement de Bluemix et à l’écosystème IBM.

Blockchain le futur eldorado des développeurs. Ce sont plus de 400 projets blockchain qui sont en court chez IBM au nouveau mondial et qui se justifient généralement autour de trois points : la productivité, la traçabilité et la sécurité. Après avoir mis à disposition des développeurs des services Bluemix avec du code prêt à l’emploi, des APIs et de nombreuses documentations IBM a annoncé en mars le support d’hyperledger fabric (l’initiative de la fondation Linux à laquelle participe IBM) sur les infrastructures IBM. Par la même occasion IBM a levé un frein à l’industrialisation de la Blockchain en étant capable de supporter 15.000 transactions par seconde. La blockchain intéresse de nombreux domaines : traçabilité alimentaire, traçabilité logistique, authentification de contrats ou de diplômes. Les exemples ne manquent pas et tout récemment Natixis, IBM et Trafigura ont mis au point la première solution blockchain (sur la plateforme Bluemix) applicable aux transactions de financement du commerce de pétrole brut aux Etats-Unis (lire le communiqué de presse). La durée du cycle de trésorerie et les frais de gestion de la transaction s’en trouvent considérablement réduits et les transactions offrent une plus grande transparence réduisant de facto les risques de fraude.

Par ailleurs IBM a annoncé le 20 mars 2017 un nouveau service de conteneurs sur Bluemix. Les développeurs pourront ainsi concevoir et gérer des applications plus sécurisées. Ce service s’appuie sur Kubernetes, le système d’orchestration de conteneurs open source utilisant Docker.

lire également: Blockchain : nouvelle gouvernance de la confiance pour une nouvelle économie

 

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :

Les objets connectés sont l’avenir du 21 ème siècle

Avec le numérique on n’arrête plus de faire la révolution, la prochaine annoncée est celle des objets connectés (IoT) . Elle porte en soi la concrétisation de toutes les promesses du numérique et bénéficie des innovations apportées par le cloud, le big data et l’intelligence artificielle. La richesse des objets connectés c’est la multitude d’objets qui collaborent et communiquent pour transformer le monde en données et le rendre « intelligent ».

Aujourd’hui un très faible pourcentage d’objets sont connectés, sans doute environ 2%, mais en 2020 selon IDC ce seront 15 % qui seront connectés représentant plus de 20 milliards d’objets pour Gartner. La mission première de tous ces objets est de collecter et de transmettre des informations, grâce à des capteurs multiples et variés, qui après exploitation vont ajouter des fonctionnalités à cet objet et offrir de nouveaux services pour une expérience utilisateur augmentée. Avec cette prolifération d’objets connectés l’univers numérique touchera à l’apothéose : à terme quasiment tout deviendra source de données. Dernièrement Le MIT Media Lab et Microsoft Research ont même été imaginer un tatouage éphémère qui pousserait la notion d’objet connectable encore plus loin. En 2020 on estime que les objets connectés compteront pour 27% de toutes les données (source IDC).

Les objets connectés apportent une réponse aux enjeux du 21 ème siècle. Le déploiement des objets connectés trouve son utilité dans tous les secteurs d’activité. Plus qu’utile l’objet connecté va s’avérer incontournable pour faire face aux enjeux du 21 ème siècle. Il faut considérer chaque objet connecté comme un élément d’un système plus vaste (l’habitat, le bâtiment la voiture, le magasin, l’aéroport, l’usine, la ville etc ..) et œuvrant pour l’amélioration de tous les secteurs d’activité (agriculture connectée, santé connectée etc…). Tout le monde s’intéresse au marché IoT y compris les géants du web comme Google qui a déposé fin juillet un brevet de salle de bain connectée pour prévenir les maladie en mesurant l’évolution des systèmes cardiovasculaires, nerveux, endocriniens et musculaire de ses utilisateurs. Face à la démographie galopante qui nous promet 9,6 milliards d’habitants sur terre en 2050 (dont plus de la moitié vit  en zone urbaine depuis 2008) le rôle des objets connectés est essentiel. Un rôle d’autant plus important que nos ressources s’épuisent.  Le mercredi 22 août 2016, l’humanité avait déjà épuisé son crédit annuel de ressources naturelles. Les effets sont inquiétants quand on sait qu’en 2030 la demande en eau sera supérieure de 40% à l’offre mondiale. Les objets connectés ne sont pas le remède miracle mais surement une partie de la solution. L’agriculture a déjà entamé la révolution des objets connectés pour optimiser les rendements. Avec 54% de la population mondiale qui vit aujourd’hui dans les zones urbaines et qui devrait passer à 66% en 2050 les villes n’ont pas d’autre choix que de devenir intelligentes pour réguler le trafic automobile, la consommation électrique, la fourniture d’eau et lutter contre la pollution. En 2030 tous les foyers français devraient être équipés de compteurs d’eau intelligents qui pourraient faire baisser la consommation d’environ 15% grâce à un suivi personnalisé. ( lire En 2030, notre eau sera intelligente et connectée)

L’utilisation des objets connectés s’appuient sur les piliers de la transformation numérique. Les objets connectés ne fonctionnent qu’en exploitant les technologies fondamentales du numériques et bien sur les réseaux. Les mobiles et smartphones pour fournir les applications exploitant les données de bon nombre d’objets. Le big data pour collecter, stocker et traiter la multitude de données, l’intelligence artificielle pour créer des systèmes agissant de façon autonome et le cloud pour héberger de manière économique les ressources informatiques qui sous-tendent le fonctionnement des objets connectés. Pour accompagner ce formidable développement les questions ne manquent pas à commencer par la sécurité. Le sujet n’est pas nouveau dans notre monde désormais numérique mais le nombre et la distribution d’objets interconnectés couplés à la puissance de l’intelligence artificielle amplifient les risques et complexifient la sécurité. On a déjà en tête le piratage de voiture et tout récemment un article faisait froid dans le dos en évoquant le possible piratage d’un cerveau humain à partir d’implants (lire Brainjacking: Hacking brain implants). Scénarii catastrophes qui nous sensibilisent encore d’avantage à la cyber sécurité thème majeur de notre siècle. N’oublions pas d’évoquer le sujet de la protection des données personnelles. Tous ces objets vont envahir notre quotidien et enregister bon nombre de nos activités  posant ainsi la question de la limite de l’utilisation de ces données. Une raison de s’intéresser à la toute dernière réglementation européenne dans ce domaine la General Data Protection Regulation GDPR.

Comme toute révolution technologique des metiers disparaissent et d’autres se créent. Le bilan est positif ou négatif selon les analystes qu’on interroge mais face aux enjeux de notre planète il parait désormais difficile de s’en passer.  Reste à repenser nos modèles économique et sociétaux pour que la transition se fasse le plus harmonieusement possible