La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.

Des infrastructures IT autonomes grâce à l’intelligence artificielle. Entretien avec Alain Andreoli HPE

HPE Discover se tenait à Madrid fin novembre. Au détour des allées de la « Transformation Zone », rencontre avec Alain Andreoli, Senior Vice President et General Manager de l’hybrid IT chez HPE.  Il nous livre spontanément ses impressions et nous résume les annonces importantes. Voici la transcription de cet échange réalisé avec la complicité de Christophe Fontaine de HPE.

Meg Whitman passe le flambeau à Antonio Neri. C’était une journée un peu particulière pour nous car c’était celle ou Meg Whitman annonçait à nos clients européens son départ, et ou Antonio Neri était présenté comme notre nouveau CEO. C’était donc un peu émotionnel pour nous et pour nos clients. Par hasard j‘intervenais sur scène juste après Meg et Antonio pour rentrer dans le détail de nos activités et pour moi aussi c’était un peu émotionnel. C’est une passation de pouvoir qui se fait en douceur qui est en continuité au niveau de la stratégie. Nous avons beaucoup travaillé ces deux dernières années sur la stratégie hybrid IT et « Edge to core to cloud ». Nous sommes à présent ravis d’être en phase d’exécution et d’avoir Antonio pour piloter cette stratégie pour les années à venir. Je pense que c’était un grand changement pour HPE mais qui se passe dans la douceur et nous sommes maintenant complètement organisés, structurés pour délivrer la promesse de notre vision de l’hybrid IT simplifiée.

La stratégie multicloud se décline dans les services et les logiciels. Au niveau des services (PointNext) nous voulons simplifier la consommation des ressources en environnement multi-cloud. Nous avons annoncé GreenLake qui étend le modèle de consommation Flexcapacity à des solutions de types Big data et sauvegardes. L’acquisition de CTN (Cloud Technology Partner) nous permet de disposer d’’expertises de conseil pour aider nos clients à passer de « on premise » à des environnements multi-cloud. En ce qui concerne le logiciel, nous avons fait une annonce importante avec OneSphere (anciennement projet Newstack). Les clients disposent d’une interface unique (one panel glass) pour utiliser leurs données et gérer leurs infrastructures là où elles se trouvent. OneSphere fournit aussi des fonctions de facturation et permet de connaitre les couts que ce soit on premise ou dans le cloud. Le suivi des coût est une réelle préoccupation avec le cloud public. Les gens disent ce n’est pas cher, qu’on ne paye que ce que l’on consomme. Le problème, c’est qu’en général on ne sait pas vraiment ce que l’on consomme et ce que l’on va consommer. Très vite on se retrouve avec des gens dans tous les sens qui consomment du cloud public et on ne sait pas à l’avance anticiper les coûts et prévoir son budget.

Avec l’intelligence artificielle, les infrastructures deviennent progressivement autonomes. Pour l’infrastructure, nous avons comme d’habitude annoncé toute sorte de nouveautés comme Superdome Flex qui est la super machine pour faire de l’in Memory Database (de 1 à 48 Teraoctets, modulaire de 4 à 32 cœurs etc…).  Nous avons également annoncé le retour de AMD dans le datacenter avec le serveur DL 385 et il y en aura d’autres qui vont suivre. Parmi les faits marquants nous avons annoncé que nous allions rendre toute notre infrastructure intelligente et autonome. On va ainsi permettre de créer des datacenters autonomes qui vont s’autogérer eux-mêmes. On utilise pour cela le logiciel Infosight, une technologie d’intelligence artificielle obtenue grâce au rachat de Nimble Storage. Cette technologie de machine learning va d’abord être portée sur tout notre stockage. Nous venons de l’annoncer sur les baies 3 PAR, ensuite viendra Simplivity, les serveurs et le réseau. Sans oublier les infrastructure Edge impliquées dans l’IoT. L’infrastructure va devenir extrêmement facile à maintenir. Les clients appelleront directement le support de maintenance de niveau 3 quand il leur arrivera d’avoir un problème technique. L’impact est incroyable puisque, et c’est pour cela qu’on a fait l’acquisition de Nimble, 86% des problèmes potentiels sont résolus avant que le client soit impacté. Les niveaux 1 et niveaux deux sont automatisés et quand le client rentre en contact avec quelqu’un de HPE, c’est l’expert de niveau trois qui a déjà à l’écran tout l’historique et toutes les informations nécessaires. Il peut ainsi comparer ce qui s’est passé avec des situations similaires chez d’autres clients et trouver les solutions mises en place. C’est un autre monde en termes de gestion de datacenter.

Toujours un plaisir de rencontrer un français dans les hautes sphères des sociétés américaines de l’IT. Merci à Alain Andreoli pour sa disponibilité.

Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »

 

L’innovation n’est pas qu’une question de technologies

Innover exige de sortir du cadre et certaines sociétés de conseil développent de nouvelles approches en y associant des méthodes de design. On voit ainsi arriver des profils de « consultants designers » qui accompagnent les entreprises dans leur transformation. C’est le cas de Tiphaine Lorant et Pauline Audinet, toutes deux consultantes chez weave, qui m’ont éclairé sur la nature de leur métier.

Subir la transformation numérique nuit à son efficacité. Pour survivre à la vague du numérique, les entreprises n’ont pas d’autres choix que d’innover. La transformation numérique est devenue synonyme d’innovation mais elle est trop souvent abordée sous l’angle technologique. Les nouvelles technologies ont indéniablement ouvert la voie à de nouveaux usages et de nouveaux modèles d’affaire mais la transformation numérique va bien au-delà de l’adoption de technologies. Elle modifie considérablement les méthodes de travail, les domaines de responsabilité et le périmètre de certaines professions. Une approche imposée de manière hiérarchique risque fort de se heurter à des résistances et aboutir à une transformation appliquée à reculons de manière incomplète et dans un timing qui s’éternise.

Donner du sens à la transformation pour faciliter l’adhésion. Pour qu’une transformation aboutisse correctement, il faut que tous les membres d’une organisation y trouvent un sens et se l’approprient voire l’incarnent. Rien de mieux pour s’approprier un projet que d’en être le co-concepteur. Pourtant il n’est pas souvent facile de remettre en question les méthodes de travail, l’organisation, les outils sans paraitre négatif voire transgressif. C’est là que des consultants comme Thiphaine et Pauline interviennent. Elles sont consultantes et maitrisent les méthodes de design. A l’heure du numérique on observe une hybridation du conseil et du design que weave désigne sous le nom de « IIF » pour Integrated Innovation Framework . Elle repose sur les 3 P du triptyque People, Place et Process.

Chacun possède une partie de la solution. L’approche IIF s’adapte à de nombreux contextes clients. Par exemple dans une grande institution financière il s’agissait de réfléchir sur la simplification des systèmes d’informations. Sujet d’actualité pour toutes les entreprises aujourd’hui. Les consultants designers comme Tiphaine et Pauline jouent le rôle de facilitateur de la co-construction des projets de transformation. Elles réunissent des personnes de profiles et de responsabilités différentes pour travailler à la conception de solutions concrètes. Il ne s’agit pas d’apprendre aux participants leurs métiers mais de les aider à réfléchir sur leurs contraintes et d’extérioriser les problèmes pour faire émerger des solutions. Sortir du cadre, laisser libre cours à ses idées, échanger sans appréhension est loin d’être aussi naturel qu’il n’y parait. L’expérience d’innovation ne doit pas se contenter d’être enrichissante, elle doit être suivie d’une validation pour s’assurer que les résultats de cette expérience peuvent être opérationnels. Dans un exemple comme celui-ci, des architectes IT ou des experts de la gouvernance IT viennent compléter l’équipe weave pour veiller à une parfaite efficacité.

Un espace pour favoriser l’innovation : Nous avons tous fait l’expérience d’une réunion ou d’un séminaire dont le déroulement avait pâti du lieu choisi. Les entreprises le ressentent et d’ailleurs elles choisissent d’aller au vert pour se sortir de la routine quand cela est nécessaire. L’espace influence l’innovation et son rôle est déterminant dans l’expérience que l’on veut vivre.  weave en a bien conscience à tel point qu’il a créé en mai 2017 « la Friche ». Un espace de 1300 m2 dans Paris conçu pour évoluer entre technologie et nature, disruption et confort. D’entrée de jeu le ton est donné, on accède dans une allée végétale « La Gallery ».

Le « GreenLive » est une sorte d’amphithéâtre cosy où les clients vont élargir leur horizon de réflexions et aborder des sujets sous d’autres points de vue.  Des intervenants weave et des personnalités extérieures sont chargés de provoquer le changement par des présentations décalées. Même impression de détente dans l’espace Bivouac propice au brainstorming. Il s’agit de donner corps à des idées et d’en sélectionner quelques-unes qui feront l’objet d’un prototypage dans l’espace « Garage »

Des méthodes empruntées au développement. L’innovation doit être stimulée et guidée. Plus que la recherche de créativité, on cherche à matérialiser des idées qui ne demandent qu’un coup de pouce pour émerger de nos esprits. On utilise pour y arriver des méthodes de conception de solutions telles que la pensée agile, le lean UX et le design thinking. Elles ne sont pas appliquées de manière systématique et peuvent être combinées ou adaptées en fonction du contexte et du but recherché. L ’agilité sera plutôt axée sur l’idéation et/ou le coaching de groupe, le Lean UX sur l’efficacité et le design thinking pour sortir du cadre et matérialiser des idées en suivant trois phases : inspiration, idéation et prototypage. Ces méthodes s’appliquent aussi bien pour le développement d’un produit que pour l’élaboration d’un organigramme, une prise de décision, une orientation stratégique ou un nouveau business model.

Se transformer commence par un changement d’état d’esprit. Les méthodes de design ne sont que des outils pour faciliter le processus et apporter de la rigueur dans la démarche. Ce sont néanmoins des atouts indéniables pour réussir sa transformation et nous pouvons compter sur les consultants designer pour déplacer nos barrières mentales.

HPE France se réinvente aux cotés de Picasso primitif

Ce n’est sans doute pas anodin si HPE France avait choisi l’exposition Picasso Primitif pour présenter sa stratégie. Picasso a réinventé à sa manière la vision du monde. Une forme d’innovation artistique qui bouleverse les codes et les règles. HPE se réinvente à son tour et le fait rapidement pour innover dans les infrastructures qui supporteront la croissance du cloud et de l’IoT.


Le monde va trop vite pour nous adapter : il faut se réinventer. Dans un monde en plein bouleversement, il est plus question de réinventer que de s’adapter à en croire Bruno Marion futuriste et spécialiste de la théorie du chaos. Selon lui le monde est devenu chaotique pour 3 raisons. Le nombre d’êtres humains : la population mondiale est passée de 1 milliards à 7,4 milliards en 150 ans. La connexion des individus : la moitié des habitants de la planète sera connectée à internet en 2017. Et surtout la vitesse des changements !! Il a fallu des milliers d’années pour que l’homme se sédentarise en passant de l’ère de la chasse et de la cueillette (nomade) à celui de l’agriculture (sédentaire). L’industrie et le commerce sont apparus 250 ans après l’agriculture et l’élevage. Des périodes de transition suffisamment longues à l’échelle humaine pour que l’on puisse s’adapter. La période actuelle est riche en innovations technologiques qui se succèdent rapidement. Les périodes de transition se réalisent en quelques dizaines d’années. Le cycle de transformation du monde moderne est à l’échelle d’une vie. Dans ces conditions il devient de plus en plus difficile de s’adapter. Loin de tomber dans le pessimisme B. Marion  voit dans ce chaos la possibilité de l’émergence d’un système plus complexe reposant sur un nouvel équilibre.

Cloud et IoT poursuivent la digitalisation de du monde moderne. Sans aller aussi loin dans la théorie du chaos, Gille Thiebaut, Directeur General de HPE France, voit : « un lien entre Picasso et HPE : les deux ont bouleversé leurs domaines, des précurseurs en la matière« . En termes de bouleversements il constate que la cloudification continue sa progression en devenant de plus en plus hybride et pense que l’internet des objets va accentuer la digitalisation du monde avec pour conséquence une profusion accrue des données. Une voiture autonome par exemple produira 4 Téraoctets de données par jour. L’usage de systèmes connectés va obliger à mettre en place des solutions de traitement de type Edge Computing. Il faut s’y préparer car 40% des données générées par l’IoT devront, selon G.Thiebaut, être traitées au plus près des systèmes connectés. Amener l’intelligence là où elle sera le plus efficace c’est ce que compte faire HPE avec l’approche « Intelligent Edge ».

Une stratégie qui allie innovations et acquisitions. Les acteurs de l’IT tels que HPE opèrent de profonds changements pour être plus agiles, plus pertinents et apporter plus de valeur à leur clients. Depuis la création au premier semestre 2016, HPE a progressé à grand pas avec la cession de certaines activités (la division services cédée à DXC Technology, la division logiciel vendue à Micro Focus) et surtout la réalisation de 5 acquisitions en 9 mois  (SGI, Simplivity, Cloud Cruiser, Niara et Nimble Storage)  alignées avec le cœur de métier de l’entreprise. L’innovation continue comme j’avais eu l’occasion de l’expliquer lors du lancement de Synergy (lire le billet). Pour accompagner les clients dans leur transformation avec plus de valeur ajoutée, la stratégie HPE est recentrée autour de 3 axes qui se complètent : Le cloud hybride (infrastructure, pilotage), l’Intelligent Edge (IoT, mobilité, sécurité) et les services regroupés récemment sous le nom de HPE Pointnext.

Intelligent Edge : Adapter le traitement de données à l’évolution des usages.  Visiblement le sujet passionne G.Thiebaut qui explique avec force détails comment les solutions Intelligent Edge vont renforcer l’expérience digitale dans trois domaines.

  • L’espace de travail digital : Avec l’offre Aruba, HPE met en œuvre des solutions de sécurité et de géolocalisation qui étendent les possibilités de l’espace de travail. Un bâtiment de bureaux partagés pourra par exemple proposer un service d’impression à proximité de la personne et trouver une salle de réunion disponible et la réserver en se servant d’informations en temps réel.
  • Les espaces intelligents. Les solutions de mobilité enrichissent la relation avec les clients ou qu’ils se trouvent. L’aéroport de Rio rénové à l’occasion des jeux Olympiques illustre ce qui peut être fait dans ce domaine. Les passagers s’orientent dans l’aéroport, le trafic des passagers à l’intérieur de l‘aéroport est analysé et amélioré et des offres commerciales personnalisées peuvent être envoyées en tenant compte des profils des passagers.
  • Les objets connectés: Tous les domaines sectoriels peuvent bénéficier de l’internet des objets. Gilles Thiebaut a donné l’exemple de l’agriculture et tout particulièrement celui de palmeraies en Malaisie qui ont été équipées de nombreux capteurs fournissant toutes sortes de mesures. Avec l’aide de la société Immarsat, spécialiste des télécommunications satellitaires, HPE a capturé ces données transmises par satellite sur une plateforme HPE. Ces données ont ensuite été encapsulées et mises à disposition d’application pour suivre l’exploitation des palmeraies et en améliorer le rendement.

 Les usages du numériques sont devenus une réalité et modifient notre quotiden privé et professionnel. Cela peut perturber mais c’est irrésistible alors souhaitons donc, avec l’aide des constructeurs et des entreprises, que du « chaos » cher à B.Marion émerge une société meilleure

Windows 10 une approche inscrite dans la modernité.

Le numérique a bouleversé les rythmes et les usages. L’utilisateur comme l’entreprise sont devenus mobiles. Les entreprises ont dû adapter leurs applications pour tenir compte de l’appareil utilisé par leurs employés ou leurs clients pour accéder aux applications. Avec la simplicité des smartphones et des tablettes, les applications prolifèrent et deviennent à elles seuls un secteur économique. Elles doivent évoluer en permanence pour offrir de nouveaux services et de nouvelles fonctionnalités au risque de devenir rapidement dépassées par l’arrivée d’une start up débordante d’idées. Une aubaine pour les utilisateurs mais un cauchemar pour les entreprises qui doivent gérer les parcs applicatifs.

Le cauchemar des utilisateurs  touche peut être à sa fin avec Windows 10.

  • Finis les changements de version. Microsoft met en œuvre les principes du continuous delivery si chers à DevOps. Dorénavant les améliorations ou les ajouts de fonctionnalités se feront sans changement de version.
  • Un système d’exploitation multi devices. Pour la première fois un système d’exploitation (OS) va être identique quel que soit l’appareil utilisé. PC, tablette, smartphone et sans doute dans un avenir proche des objets connecté seront tous doté du même OS. De quoi simplifier grandement la tâche des développeurs qui pourront passer plus de temps au développement, à la qualité et aux évolutions de leurs applications.
  • La voie ouverte aux applications modernes. Microsoft les « Modern Applications » car elles n’ont plus besoin de s’inquiéter de l’appareil qui utilisera l’application à partir du moment où elles auront été développées pour Windows 10. Mobile ou fixe, Smartphone ou tablette peu importe, les problèmes de portabilité ne seront plus qu’un vieux souvenir pour les développeurs.
  • Premier OS BYOD. Microsoft a tenu compte de cette tendance à ne plus différencier l’usage personnel de l’usage professionnel. Windows 10 offre donc la possibilité  de pouvoir lié un compte entreprise à un compte personnel.

Windows 10 n’est pas qu’une nouvelle version. (lire l’article de Stephane Padique « Quand Windows 10 apporte sa pierre à l’édifice : Simplicité pour les utilisateurs, Sécurité pour les entreprises”) C’est en soi l’entrée dans un monde numérique résolument tourné vers la mobilité et les applications. Windows 10 devrait rapidement devenir incontournable pour les entreprises tant les intérêts sont flagrants. Tout aussi séduisant que soit la promesse de Windows 10 il faut quand même que les entreprises se préparent pour profiter des avantages de Windows 10. Se contenter d’exploiter les applications actuelles sous Windows 10 ne peut qu’être une étape transitoire avant de développer toutes les nouvelles applications sous Windows 10.  Pour s’y préparer il faut se poser quelques questions sur les outils dont on dispose pour gérer le par et déployer les applications.

  • Gestion du parc. La grande majorité des entreprises utilise Windows 7 et les outils qui vont avec. Il n’est cependant pas recommandé d’utiliser ces outils avec Windows 10 qui a été conçu comme un OS de device mobile et par conséquent devra être géré avec des outils de MDM ou d’EMM. La gestion des anciennes et des nouvelles applications imposera la cohabitation de deux outillages distincts (Active Directory pour les anciennes, In Tune pour les nouvelles)
  • Déploiement des applications. Windows 10 se distingue des OS précédent dans la manière de mettre à disposition les applications. Là encore il faudra utiliser deux types d’outils, SCCM pour les anciennes applications et In Tune pour les nouvelles.
  • Impact du cloud sur la confidentialité. Windows 10 est le premier OS conçu pour s’intégrer à un environnement cloud à tel point qu’à la connexion il demande de faire le choix entre une Active Directory ou une directory Azure. Un atout et une souplesse qui peuvent cependant inquiéter certaines entreprises désireuses de maitriser leurs identités.

 Des promesses alléchantes qui devront être tenues pour ne pas décevoir les utilisateurs.

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.