L’intelligence artificielle, une imitatrice de génie

A en croire certains analystes la vie ne serait qu’une combinaison d’algorithmes. Partant de ce principe et confiant dans une technologie sans limite on imagine donc que l’intelligence artificielle (IA) dépassera un jour (qu’on appelle singularité technologique) les capacités humaines. Si cela est vrai reste à préciser à quel horizon car même si l’IA progresse de plus en plus rapidement, elle encore loin d’égaler la sophistication d’un cerveau humain. Il n’en demeure pas moins que sans verser dans le catastrophisme il est important d’anticiper les changements que l’IA nous prépare.

robot-3490522_1920-002-e1539450275897.jpg
L’IA moins intelligente que l’homme mais plus rapide. L’IA compense son manque « d’intelligence » par d’importantes puissances de traitements informatiques. Si l’IA a décollé au début des années 2010 alors qu’elle existe depuis les années 50 cela est du aux progrès réalisés en termes de moyens informatiques et à l’abondance de données. Sans faire ombrage aux compétences et à la qualité des chercheurs et des développeurs, l’apprentissage des machines est rudimentaire comparé à l’efficacité du cerveau. Un enfant est capable de nommer un objet après qu’on lui ait répéter quelques fois son nom alors qu’une IA aura besoin de voir plusieurs millions d’images associées à des labels (étiquettes en mode supervisé) pour reconnaitre un objet. En 2012 Google Brain avait réussi à découvrir le concept de chat (en mode non supervisé) après qu’on lui ait fait analyser 10 millions de captures d’écran de vidéo de chats en utilisant de puissants ordinateurs. L’IA réduit l’échelle de temps de l’apprentissage. Si Alpha GO a réussi à battre le champion du monde de GO en 2016, ce n’est pas qu’il était plus brillant que le champion Lee Sedol mais parce que sa puissance de traitement lui a permis d’apprendre en peu de temps ce qui avait pris des années à Lee Sedol. La machine apprend grâce aux données qu’on lui injecte. On est encore loin des capacités d’un être humain qui explore son environnement, expérimente et s’adapte. On y travaille bien sûr et c’est tout le sens des travaux sur l’apprentissage par renforcement « reinforcement Learning ». L’IA utilise dans ce cas-là les données à la volée pour se créer sa propre expérience. Inutile de dire que c’est bien plus complexe.

L’homme : un « rôle model » pour l’IA. On avance mais il faut rester humble et s’abstenir de toute prévision aventureuse même si on ne peut qu’être surpris par les progrès réalisés ces dernières années. On a tendance à vouloir poser sur l’IA un regard anthropomorphique influencé par des dizaines de films de sciences fiction. Certains veulent doter l’IA d’empathie. On est là plus dans l’imitation que dans le ressenti ou l’émotion. Qu’en est il de l’intuition, de l’imagination, de la créativité ? Des algorithmes eux aussi ? Le cerveau humain est un sujet d’étude pour l’homme avec les neurosciences qui tentent de comprendre les mécanismes d’apprentissage de notre cerveau. Ce qui fait l’originalité de l’homme c’est souvent une pointe d’imperfection qui se transforme en différentiation et le hasard vient souvent au secours de son inventivité. On cite de plus en plus de cas de créations réalisées par une IA. Une peinture, de la musique, des articles de presses …. Mais dans tous les cas l’IA a trouvé son inspiration dans les données. Elle créée « à la manière de ». Ce qui rend la création unique c’est d’abord l’envie de créer. L’envie est-elle un algorithme qui rentre dans les cordes de l’IA ? La créativité est une étrange alchimie de la culture, des influences, de l’éducation et du vécu : tout ce qui forme notre personnalité, notre sensibilité, notre humanité. L’IA pourra peut-être un jour s’approcher de cette « humanité » mais pour encore longtemps l’IA se contentera de créer à « la manière de ». Une raison de plus de s’inquiéter des biais introduits lors du développement d’une IA par ses concepteurs.

jobs blog

Pour collaborer avec l’IA nous allons devoir adapter nos compétences. L’IA comme beaucoup de technologies qui l’ont précédée va permettre d’explorer de nouvelles pistes et d’amplifier le potentiel humain. Voyons-la davantage comme un outil fantastique qui augmente nos capacités que comme un rival qui va limiter notre champ d’action. Pas question pour autant d’être naïf. L’IA va affecter nos métiers et les entreprises comme l’avait fait l’informatique en son temps mais à un rythme accéléré. C’est justement sur ces qualités humaines de création et d’innovation que nous devons capitaliser pour nous distinguer de l’IA et collaborer avec elle. Une récente étude du forum économique international (« future of jobs 2018 ») nous rassure en expliquant que l’IA devrait créer plus d’emplois qu’il n’en détruira mais elle insiste sur le fait que nous rentrons dans une zone d’instabilité des compétences à laquelle nous devons nous préparer. Parmi les 10 compétences qui seront recherchées en 2022, d’après cette étude, on trouve en tête : pensée analytique et innovation, capacité d’apprendre et créativité, originalité, esprit d’initiative. Autant de qualités qui continueront pour longtemps encore à nous distinguer des machines aussi intelligentes soient elles. Apparemment les écoles de commerces et d’ingénieurs ( Le design thinking » essaime dans l’enseignement supérieur ) sont sensibles à ce changement de profile des compétences et commencent à intégrer le design thinking dans leur cursus.

Le consommateur en quête de reconnaissance ….vocale et visuelle. #IA

Smartphones en poche, nous sommes devenus impatients, exigeants voire paresseux. Tout est à portée de main. Les recherches sur le web sont devenues des réflexes. Rapides et efficaces pourquoi s’en priver. Mais pourquoi faire encore l’effort de taper des mots clés sur un clavier ridiculement petit quand on sait qu’on tape en moyenne 40 mots par minute alors qu’on peut en prononcer 150 oralement dans le même temps. Et puis bien souvent nos mains sont déjà occupées à bricoler, cuisiner, conduire …L’intelligence artificielle arrive à point nommé pour simplifier l’expérience utilisateur par de nouveaux modes de recherche. Car le point fort des systèmes « autoapprenant » de machine learning sont leurs aptitudes à reconnaitre du son, de la voix et à présent des objets et du texte dans des images.

Marketeurs, intéressez-vous rapidement à la recherche vocale et visuelle. Il n’est pas question de devenir datascientist ou codeur mais d’analyser ces tendances et d’en mesurer les conséquences sur la relation client. En 2020 les interfaces vocales vont devenir un outil central dans la relation client. 50% des interactions se feront vocalement et majoritairement à partir des mobiles.  La montée en puissance des assistants vocaux est significative. D’abord présents sur nos ordinateurs portables et nos smartphones (Google assistant, Siri, Cortana ..), ils se livrent une guerre sur le terrain des enceintes intelligentes avec en tête Amazon Echo et s’invitent à présent dans tous les équipements. Le logiciel d’intelligence artificielle d’Amazon (Alexa) équipe près de 20.000 objets de 3.500 marques. Tous les constructeurs automobiles font des accords pour pouvoir équiper leurs véhicules d’assistants vocaux. Récemment Google a signé un partenariat avec le groupe Renault Nissan Mitsubishi qui fera de Google Assistant la principale interface d’interaction entre le conducteur et son véhicule. Les interfaces vocales vont modifier les secteurs et les usages de consommation et les marques risquent de passer totalement inaperçues. Avec les recherches vocales, plus question d’afficher les premiers résultats. Il faut être en haut de la liste en « position zéro ».  Les équipes marketing vont devoir rapidement adapter leur stratégie de SEO (Search Engine Optimization) pour se rapprocher autant que possible des questions formulées en langage naturelle par les clients.

La reconnaissance visuelle pour fluidifier les achats et capter les achats d’impulsion. L’intelligence artificielle est aujourd’hui suffisamment puissante pour identifier des objets dans une photo. Une simple photo se transforme en une mine d’or pour le marketing et des applications de plus en plus nombreuses s’approprient cette fonction pour simplifier l’expérience du consommateur.  Vous avez un coup de cœur pour un objet mais vous ne connaissez ni son nom, ni sa marque et encore moins son prix. Qu’à cela ne tienne prenez une photo, la reconnaissance visuelle fera le reste. Vous avez sans doute vu l’accord passé entre Amazon et Snapchat. Vous photographiez un objet qui vous plait, Snapchat analyse l’image, l’envoie à Amazon qui met en œuvre de puissants algorithmes et vous propose un produit identique ou similaire avec une vignette contenant les caractéristiques. Vous n’avez plus qu’à commander. Simple comme bonjour. Finies les lourdes navigations dans les gros catalogues produits qui lassent le consommateur et contredisent la simplicité du digital.  Dans l’immensité du Web le mode de recherche doit se réinventer et cela passe sans doute par l’intelligence artificielle. Pinterest et Instagram ont lancé leurs fonctionnalités de recherches visuelles. eBay a déjà dévoilé deux outils de recherche visuelle (eBay Image Search etFind it on eBay) en octobre 2017. Amazon dispose d’Amazon visual search. Quant à Google, son produit Google Lens est disponible en France depuis mai 2018 et vous permet en pointant votre smartphone sur un objet, une plante ou un animal d’obtenir toutes sortes d’informations. Une espèce d’encyclopédie interactive quasiment relié à notre cerveau qui jouerait le rôle de béquille de culture générale.

Les équipes marketing ont intérêt à se mettre dans les starting blocks pour ne pas laisser le champ libre aux géants du numérique. Développement ou partenariat peu importe il faut déjà penser à développer une stratégie de recherche vocale et visuelle. La technologie est au point et progresse constamment. La Redoute s’y est mis des 2014 et propose de rechercher des produits dans son catalogue vocalement ou par reconnaissance de photo.

 

 

 

 

 

La nouvelle Vice présidente Cloud présente la stratégie d’IBM

   Agnieszka Bruyère a été nommée récemment au poste de Vice-Présidente Cloud Chez IBM. Elle maitrise déjà parfaitement le sujet. En compagnie de Ouafaa El Moumouhi, Directrice Watson et Cloud Platform, Agnieska Bruère a rappelé la stratégie Cloud d’IBM. Le cloud se rapproche du business mais doit dans le même temps veiller à simplifier l’utilisation des infrastructures dans un cloud devenu hybride et multi clouds.

Le cloud devient un vecteur d’accélération business. Progressivement le Cloud s’est imposé aux entreprises. En France depuis deux ans l’adoption s’est accélérée de façon notoire. Au début du cloud on y voyait un moyen simple et économique d’accéder à des ressources informatiques à la demande sous forme de services. Aujourd’hui le cloud devient un catalyseur d’innovation et un pilier incontournable de la transformation numérique. On s’intéresse d’avantage aux usages et aux métiers de l’IT qu’aux infrastructures à proprement parlé. Le rythme effréné d’apparition des nouvelles technologies qui sous-tendent les nouveaux usages et bousculent les modèles d‘affaires traditionnels mettent les entreprises sous pression. Il leur faut gagner en agilité pour être en mesure d’innover. L’agilité n’est plus seulement dans l’infrastructure IT mais surtout dans le développement des applications qui vont transcrire les nouveaux usages en code. Pour rester dans la course dans une économie numérique, les entreprises doivent s’intéresser au big data, à l’internet des objets (IoT), à la blockchain, à l’intelligence artificielle … Autant de tendances technologiques qui requièrent des compétences nouvelles et d’importants investissements.  Impossible pour une entreprise de faire face seule à autant de défis technologiques. Dans un tel contexte le cloud s’est doté d’un nombre considérable de nouveaux services. Dans le cloud IBM on compte plus de 170 services liés aux infrastructures et surtout à ces nouvelles technologies. Ces services vont en accélérer l’adoption et faciliter la vie des développeurs, que ces derniers travaillent avec des serveurs physiques ( bare metal), des machines virtuelles, des containers ou en environnement « serverless ».  Rien que pour l’intelligence artificielle on peut trouver un nombre important de services « Watson » autour du traitement en langage naturel, de la reconnaissance visuelle et du machine learning. Pour que ces services puissent s’intégrer parfaitement avec les applications des entreprises, IBM a soigné tout particulièrement la gestion des APIs.

Le cloud hybride ne doit pas s’accompagner d’une nouvelle complexité.La rivalité entre cloud privé et cloud public a fait long feu. Les clients ont tranché, le cloud est hybride. Selon IDC 80% des entreprises utiliseront du cloud hybride et combineront cloud privé, cloud public et des infrastructures traditionnelles résidant sur le site de l’entreprise (on premise). Dans un tel contexte le risque est grand de reproduire la complexité que l’on a connue avec les silos de l’informatique du passé. Du côté applications, la modernisation est en place pour les adapter aux exigences des nouveaux usages. L’échelle de temps a changé. Il faut pouvoir mettre rapidement sur le marché de nouvelles applications et être capable de les faire évoluer régulièrement sans impact sur la production et le service.  Les nouvelles applications, qu’on appelle également « Cloud Native Application », sont conçues autour de microservices qui apportent une plus grande agilité durant leur cycle de vie. La containerisation des applications accompagne l’utilisation des microservices et en facilitent la gestion. La stratégie Cloud d’IBM reflète cette hybridation et la containerisation. Les entreprises doivent être libérées de toute complexité pour pouvoir se concentrer sur le développement des nouveaux usages. Pour cela il faut pouvoir disposer d’une architecture unique quel que soit le cloud. IBM a donc fait le choix de Kubernetes pour constituer le socle commun au cloud privé et au cloud public. A ce socle, IBM a également rassemblé un ensemble de logiciels Open Source pour fournir une gestion complète des containeurs. La plateforme Istio permet par exemple de gérer un réseau de microservices. Istio s’éxécute dans IBM Cloud Kubernetes Service et donne la possibilité de : surveiller le trafic réseau, équilibrer la charge entre microservices, renforcer les politiques de sécurité etc….Les équipements matériels perdent de leur importance au profit du logiciel. Le Cloud privé d’IBM est avant tout du logiciel qui va pouvoir s’installer sur n’importe quelle plateforme matérielle.

La mission du cloud s’est élargie. Les services proposés se rapprochent du business et des usages. Le cloud monte en valeur mais doit veiller constamment à ce que les infrastructures sous-jacentes soient alignées avec les nouveaux besoins applicatifs et adaptées aux environnements hybrides.

Adobe Summit : L’expérience client prime sur le produit

Plus de 5000 personnes étaient réunies pour l’Adobe Summit 2018 à Londres. Après avoir réussi son évolution dans le cloud, Adobe adopte l’intelligence artificielle avec Adobe Sensei.  Omniprésente dans les offres Adobe, L’intelligence artificielle a pour objectif de permettre aux entreprises de construire des expériences clients de qualité à grande échelle.

« Making Experience your business ». Adobe a annoncé clairement la couleur.  Les termes « Experience utilisateur » ont envahi les discours marketing sans toujours se concrétiser dans les faits. Pourtant l’enjeu est crucial pour les entreprises car désormais dans l’esprit des consommateurs la qualité de l’expérience a pris le pas sur le produit lui-même. Une étude Forrester, présentée par Brad Rencher ( Adobe executive vice president and general manager of Experience Cloud) illustre parfaitement l’enjeu économique pour les entreprises. Les innovations technologiques ont ouvert d’immenses possibilités mais ne se suffisent pas à elles seules. Le CEO d’Adobe Shantanu Narayen a rappelé qu’aussi excitantes que soient les technologies pour réussir il faut se concentrer sur le « design » de l’expérience.  L’empathie avec le consommateur doit bien sur guider les développements mais construire une expérience réussie nécessite de repenser l’architecture de l’entreprise autour de la donnée et de l’intelligence artificielle.

L’omniprésence de l’intelligence artificielle dans l’offre Adobe. Concrètement pour Adobe cela consiste en une intégration complète entre Adobe Cloud Plateform et Adobe Sensei, le framework de machine learning. Désormais toutes les fonctions des produits Adobe peuvent faire appel à des fonctions d’intelligence artificielle sans que l’utilisateur en ait nécessairement conscience si ce n’est en constatant la puissance des outils. L’intelligence artificielle est omniprésente et c’est logique. Automatiser les campagnes marketing, optimiser les parcours clients, construire des publicités et adapter automatiquement leur format au support, analyser en temps réel les impacts et les performances d’une image ou d’une campagne. Les exemples ne manquent pas. Le marketing d’aujourd’hui fonctionne en temps réel et utilise massivement les vidéos et les images. Être capable de distinguer dans ces images des formes et des objets pour les taguer ou les modifier en temps réel devient impossible sans l’intelligence artificielle.

Déployer l’expérience à l’échelle d’une entreprise. Le digital a multiplié les canaux par lesquels on peut interagir avec les clients et les données sur les consommateurs prolifèrent. On ne peut espérer offrir une expérience utilisateur de qualité sans avoir au préalable créer un profil unifié du client.  C’est un véritable enjeu pour les entreprises qui disposent d’une multitude de systèmes qui génèrent leurs propres données. Ces données n’ont d’intérêt que si on est capable de les consolider et de les transformer en informations utiles et exploitables pour déclencher des actions. Pour y arriver  l’entreprise doit disposer d’une infrastructure technologique capable de gérer et de donner du sens aux données et aux contenus.

C’est l’objectif de « l’experience system of records », présenté par Brad Rencher, qui propose de concevoir, de mesurer et d’optimiser une expérience client omnicanal qui fournit une hyperpersonnalisation et qui apprend toujours d’avantage avec les interactions clients.

En quelques années Adobe a accompli une véritable révolution. Adobe s’affiche désormais comme un acteur complet de la transformation digitale comme ont pu en témoigner des entreprises comme Virgin Atlantic, Shell, HSBC ou Nissan.  Bon nombre d’entreprises ont souligné que la difficulté ne consistait pas seulement à fournir une expérience de qualité mais qu’il fallait pouvoir le faire à l’échelle de toute l’entreprise sur tous les canaux et vis à vis de tous les clients. « L’experience at scale » est inenvisageable sans l’intelligence artificielle.  De la même manière qu’il est impossible d’imaginer un aéroport fonctionnant sans informatique, l’expérience utilisateur de demain sera impossible sans IA.  Adobe Sensei unifie l’Intelligence Artificielle pour libérer la créativité, analyser les contenus et fournir une expérience incomparable. Pour faciliter l’utilisation de l’IA et l’intégration des offres Adobe avec des produits partenaires, Adobe a annoncé un « Data Science workspace » ainsi que des services Adobe Sensei pour les développeurs. Les data scientists ont ainsi la possibilité des créer des services intelligents en exploitant Adobe Sensei via des APIs (Application Programming Interfaces). Ces services peuvent fonctionner avec d’autres services Adobe tels qu’Adobe Target et Adobe Analytics Cloud pour automatiser la personnalisation et le ciblage d’expériences digitales dans le web, sur ordinateurs portable ou avec des applications mobiles.

Pour continuer dans le sens de la collaboration et de l’adoption des technologies Adobe a également annoncé le programme« Experience League ».On y trouve un certain nombre d’outils et de documentation, la mise en place d’une communauté et l’accès à des experts.

 

 

 

Les applications poussent les infrastructures IT à innover

L’univers numérique nous donne l’illusion d’un monde immatériel.  Pourtant il n’existe que grâce à la mise en place de lourdes infrastructures informatiques. Pour qu’elles ne viennent pas pénaliser l’agilité des entreprises tout l’enjeu consiste à les faire oublier. Les initiatives se multiplient pour rendre ces infrastructures transparentes et performantes

L’agilité impose le développement continu d’application. Depuis la vague du numérique, les entreprises ont pris conscience de l’arrivée de nouveaux acteurs disruptifs. Elles n’ont pas d’autres choix que d’innover et d’offrir de nouveaux services. Même si le mot agilité est quelque peu galvaudé voire usé, c’est néanmoins une réalité. Le vocabulaire a changé, le client reste au centre des attentions mais on veut aller plus loin que la seule satisfaction client et on recherche l’expérience utilisateur. Une expérience qui précède, prolonge et améliore l’utilisation d’un produit ou d’un service. Dans ce contexte on a changé d’échelle de temps. Le développement d’application est devenu une course de vitesse. On produit d’avantage d’applications, certaines sont même éphémères. L’urgence est de les mettre en service rapidement pour se différentier de la concurrence. Plus le temps d’attendre l’application rêvée avec toutes les fonctions possibles, validées par de multiples tests.  L’agilité consiste à faire du développement continu.  On livre une première version en sachant que l’on pourra rajouter des fonctions, la modifier, la corriger en permanence sans incidence sur le service.

Toutes les ressources IT nécessaires doivent s’aligner de manière fluide. Les architectures applicatives s‘en trouvent modifiées. Elles ont recours à des microservices et sont largement distribuées. Fini la simplicité des architectures monolithiques. Débit et latence deviennent des enjeux au sein de ces architectures d’autant plus que le volume de données ne cesse d’augmenter et que l’essor de l’intelligence artificielle vient amplifier le phénomène. Plus les systèmes de machine learning et de deep learning disposent de données d’apprentissage, plus ils sont performants. Toutes les initiatives (Serverless) et les beaux acronymes (DevOps, SDN, SDDC, IAC  etc..) que l’on voit fleurir visent à aligner les infrastructures sur les besoins applicatifs. C’est souvent traité de manière technique et complexe mais derrière ce jargon c’est bien la compétitivité de l’entreprise qui est concernée.  Les approches DevOps sont stratégiques de ce point de vue et devraient être considérées comme telles par les directions générales.  Les entreprises doivent pouvoir évoluer très vite et impose d’automatiser.

Toutes les pièces du puzzle se mettent en place. La virtualisation a permis de faire abstraction du matériel et de mieux utiliser les équipements. Mais surtout elle permet de traiter ces équipements comme du logiciel. La finalité du Software Defined et de l’Infrastructure as a code (IAC) ont le même objectif : que l’application puisse considérer les équipements comme du logiciel. La voie vers l’automatisation est ouverte et, tout au long du cycle de vie des applications, les infrastructures IT peuvent évoluer de manière fluide.  Tout est mis en œuvre pour faire oublier la lourdeur des équipements matériels. On a à peine fini d’adopter l’infrastructure as a service (IaaS) dans le cloud qu’arrive le serverless. Contrairement à ce que l’on pourrait croire il n’est pas ici question de se passer de serveurs mais d’en déléguer l’entière responsabilité au fournisseur de cloud. L’entreprise n’a plus à s’occuper des infrastructures, elle se consacre à l’application. L’infrastructure est prise totalement en charge par le fournisseur de cloud. Ce sont des services de type AWS Lambda par Amazon .

Les exigences vis à vis de l’infrastructures sont de plus en plus fortes. Avec la fin annoncée de la loi de Moore (la puissance des processeurs doublait tous les 18 mois) et pour faire face aux enjeux de l’intelligence artificielle on a emprunté les technologies GPU aux mondes des jeux vidéo. La problématique des temps d’accès aux données n’a jamais été autant d’actualité. Les performances du stockage IT se sont grandement améliorées mais il y a toujours plus de données à traiter. D’après une étude Data Age entre 2016 et 2025 la quantité de donnée sera multipliée par 10, donc pas question de baisser les bras. On cherche à distribuer les accès, on augmente le débit d’entrées sorties et on fait la chasse à la latence. Tous les analystes et les constructeurs avaient prédit que la courbe des coûts entre disques durs et flash se rejoindrait en 2016. Depuis le flash se généralise et sa croissance est proche des 40% par an. Les évolutions continuent avec toujours en point de mire la réduction de la latence. Jusqu’en 2014 le stockage flash utilisait des bus SAS et SATA qui avaient été conçus pour les disques magnétiques. Le protocole NVMe (Non Volatil Memory express) a permis d’améliorer les performances des SSD en réduisant la latence. Ces gains de latence ont été étendus à l’ensemble du réseau du datacenter. NVMe over Fabric a levé les contraintes du bus PCI express en termes de latence et du nombre d’équipements connectés. On peut ainsi facilement mettre en œuvre des mécanismes de communication de mémoire en mémoire (RDMA over Converged Ethernet ROCE) pour économiser les temps des processeurs et optimiser les performances.  Tous les analystes mettent l’accent sur le rôle de NVMe qui va se généraliser et qui sera essentiel pour le Storage Class Memory. Le SCM est une nouvelle catégorie de stockage persistent qui réduira encore le gap de performances entre les mémoires RAM et les SSD NAND (avec 3D Xpoint de Intel ou memristor HPE, ou PCM). En 2020 plus de 50% des serveurs seront équipés de NVMe et environ 40% des baies full flash

Le stockage se tourne résolument vers Ethernet.  Depuis l’arrivée du SAN avec le Fiber Channel le panorama a bien changé en faveur d’ethernet. Ethernet supporte les pertes de paquets et offre des connexions jusqu’à 100 Gb/s là où le fiber channel stagne à 32 Gb/s. Idem concernant les modes de stockage. Ethernet supporte les blocs, les fichiers, les objets alors que le fiber channel se limite toujours au mode bloc. Chaque fois qu’un frein à la performance est supprimé on provoque un nouveau goulet d’étranglement à un autre endroit. Le flash parvient facilement à saturer les liens réseaux 10Gb/sec. En 2020, 57% des liens Ethernet seront supérieurs à 10 Gb/sec. Pour continuer sur l’aspect réseau il faut également mentionner l’Open Ethernet qui est une approche intéressante pour répondre au problème de scalabilité des réseaux. On peut entamer une approche NetDevOps (le DevOps appliqué au réseau) ou Network as a code comme certains l’appellent pour aller vers l’automatisation du réseau. La couche d’abstraction réalisée par Open Ethernet dissocie le logiciel du matériel. Le réseau est considéré comme du code et on peut utiliser les logiciels habituels pour l’automatisation.  Les adeptes des commandes en lignes (CLI) devront s’y résoudre, l’automatisation est incontournable pour répondre aux besoins de scalabilité et d’évolution et le CLI se limitera au troubleshooting et au debugging.

Derrière ces innovations se pose la question de la maitrise des infrastructures. En confiant une responsabilité de plus en plus grande aux fournisseurs de cloud, les DSI risquent d’augmenter leur dépendance. C’est sans doute ce qui explique en partie l’engouement pour le cloud hybride qui permet de garder le contrôle des ressources IT et les compétences associées.

Maddy keynote 2018, La cité du futur: L’objectif n’est pas la technologie mais le bien-être des citadins.

Grand succès pour cette édition 2018 de Maddy Keynote. Des interventions dynamiques ouvrant sur les multiples aspects de la cité du futur. Il ne s’agit pas d’une course à la technologie mais bien de mettre la technologie au service du bien être des citadins. Un message commun à l’ensemble des intervenants.

La cité du futur est une formidable opportunité. Elle va mettre à contribution un large écosystème. On associe naturellement « cité du futur » et « ville intelligente » car les technologies y joueront un rôle déterminant. Impliquée dans le lancement de la Frenchtech, Fleur Pellerin (aujourd’hui présidente de Korelia Capital) a ouvert la journée Maddy Keynote en rappelant qu’Il y a encore des places à prendre dans la smartcity pour de l’innovation « made in France ». Inutile de laisser les GAFA et les BATX rafler la mise une nouvelle fois. Indéniablement les technologies du numérique participeront à l’élaboration des zone urbaines de demain qui hébergeront en 2050 près de 70% des 9 milliards d’habitants de la planète. Cela ne pourra pas se faire sans la technologie mais il est impératif de prendre conscience des profonds changements qui doivent s’opérer dans l’organisation des villes et dans les comportements des citadins.  Il ne s’agit pas de moderniser les villes mais bien de les réinventer.

La mobilité est au cœur des villes du futur. La densité de population et leur surface posent nécessairement la question des transports. Il est intéressant de noter que le terme transport à évoluer vers la notion de mobilité, signe que l’on se préoccupera dorénavant d’avantage du service apporté (mobilité) que de la fonction (transport). Marie Claude Dupuis, directrice de la stratégie et du développement à la RATP, fixe les objectifs. La technologie doit être au service du bien-être et du bien vivre ensemble en faisant en sorte que la ville de demain soit saine, silencieuse, sobre, fluide et solidaire. Dans un contexte bouleversé par un cycle d’innovation technologique qui ne cesse de s’accélérer, le défi consiste à imaginer la mobilité de demain dans la ville et entre les villes. Le pari est particulièrement difficile quand on sait que le futur TGV prévu vers 2022 devra durer jusqu’en 2050 et qu’il faut déjà se projeter à cet horizon pour imaginer quelle pourrait être l’expérience des passagers. Pour Rachel Picard, directrice générale de voyages SNCF, il faut acquérir plus d’agilité et d’ouverture, travailler avec des startups.  Oser devient un levier de l’innovation qui nécessite d’accepter de changer des modèles qui ont pourtant fait le succès de la SNCF.

Une mobilité plus respectueuse de l’environnement. Les exemples des grandes métropoles chinoises avec leurs encombrements et la pollution nous alertent déjà. L’automobile représente un véritable enjeu en terme énergétique car on en comptera bientôt 1,8 milliards dans le monde. On peut se réjouir de voir se développer les voitures électriques mais ne nous leurrons pas. Elles ne comptent que pour 0,3% des véhicules et en 2040 elles atteindront à peine un tiers du parc automobile. On part de loin et Philippe Montanteme, SVP Strategy Marketing Research chez Total, rappelle qu’aujourd’hui 60% de la production pétrolière est utilisée pour la mobilité. La transition ne va pas se faire brutalement et plusieurs solutions se combineront pour lutter contre la pollution et les gaz à effet de serre. Il faudra d’une part gagner en efficacité et d’autre part entamer la transition énergétique en associant plusieurs types d’énergie (Electricité, Gaz, hydrogène). C’est également une affaire de comportements pour optimiser l’usage des voitures en les partageant avec le covoiturage par exemple.

Evitons que la technologie accroisse la fracture sociale. Audrey Pulvar, présidente de la fondation pour la nature et l’homme a enfoncé le clou. 700 villes se sont engagées au côté de Paris pour atteindre 100% d’énergie renouvelable en 2050. Cela parait lointain mais la marche est haute. Au-delà des technologies il est impératif de repenser l’organisation de la ville et les déplacements avec une mobilité multiple et combinée. On ne peut pas construire de villes du futur sans tenir compte du contexte global de la planète. La pollution ne s’arrête pas aux frontières d’un pays. 10 % des pays les plus riches produisent 50% des gaz à effet de serre. La ville du futur doit donc être solidaire et responsable. Jean Philippe Ruggieri, Directeur General délégué de Nexity, va dans le même sens. Beaucoup de projets de logements font rêver mais ils restent inabordables pour la majorité de la population. En Ile de France, ces logements innovants ne concernent que des ménages avec un revenu supérieur à 5.000€ par mois alors que le revenu médian d’un ménage en IdF est de 1.900€. La ville du futur n’est pas une utopie ni un concours théorique. Elle doit être proposer à chacun des logements abordables, utiles et désirables.

Reste à espérer que ces messages humanistes de la part de toutes ces entreprises ne restent pas lettre morte une fois confrontés aux réalités industrielles et aux logiques de profit.

La bataille de l’intelligence artificielle se déplace sur le terrain des équipements.

Créer un être en tout point semblable à l’être humain est sans doute le grand fantasme des temps modernes. L’homme se rêve en demi dieu et joue les apprentis sorciers en s’attaquant à ce qui est le propre de l’homme : son intelligence. Pour innover les chercheurs puisent sans cesse dans les incroyables exemples que nous offre la nature et le bio mimétisme s’en inspire sans jamais l’égaler. Imiter le cerveau humain est un défi particulièrement ambitieux et sensible par sa complexité et par le fait que cela touche à l’immatériel, à la pensée et à ce qui fait l’humanité d’un individu. L’intelligence artificielle est devenue l’objet de tous les débats excitants et effrayants à la fois.

Le deep learning décolle grâce aux données et aux processeurs graphiques. Le sujet n’est pas nouveau, déjà en 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Le modèle se compose d’algorithmes interconnectés à la manière des neurones d’un cerveau humain. Il aura fallu attendre 2011 pour que l’on puisse réaliser des modèles neuronaux multicouches (deep learning) répondant à des usages opérationnels. A la même époque on avait compris que pour être efficaces ces algorithmes devaient disposer d’importantes bases de données d’apprentissage. En mars 2016 la machine AlphaGo a réussi à battre Lee Sedol, le champion de Go, parce qu’elle avait pu réaliser son apprentissage à partir de 30 millions de configurations provenant de 160.000 parties jouées par de véritables joueurs. Si le décollage du deep learning a eu lieu c’est aussi parce que l’on a emprunté aux jeux vidéo les processeurs graphiques (GPU) particulièrement adaptés à des réseaux neuronaux. Ces composants sont largement répandus dans le monde des jeux en 3D et habitués à gérer des traitements parallèles pour donner aux jeux un réalisme saisissant avec une parfaite fluidité. C’est ainsi que NVIDIA, le spécialiste des cartes GPU a vu ses revenus doubler en 3 ans, coupant par la même occasion l’herbe sous le pied d’Intel le leader incontesté des processeurs traditionnels.

L’intelligence artificielle aura toujours besoin de plus de puissance. Depuis 2011 les GAFA et les BATX multiplient les initiatives pour prendre la tête de la compétition et mettre de leur côté tous les atouts pour cueillir les fruits de l’IA et tout particulièrement du deep learning. Progressivement l’IA va se glisser dans la majorité des applications. Pour faciliter son adoption des grands acteurs du Cloud et de l’IA, comme Google, Amazon, IBM et d’autres encore, proposent déjà des modules d’Intelligence artificielle accessibles dans le cloud par d’autres applications au travers d’APIs (Application Programming Interface). Mais la guerre de l’intelligence artificielle se joue tout autant du côté des équipements matériels. Avec ses processeurs graphiques (GPU), NVIDIA a gagné le premier round mais le combat n’est pas fini pour autant. Il existe d’autres technologies et Intel n’a pas dit son dernier mot. Certains fabricants développent leur propre ASIC (Application-Specific Integrated Circuit), des composants électroniques conçus spécifiquement pour un type d’application, à l’image de Google qui teste de son côté dans ses centres informatiques son Tensor Processor Unit (TPU), un ASIC dédié au machine learning. D’autres s’intéressent aux FPGA (Field-Programmable Gate Arrays), qui bien que n’étant pas une nouveauté en soi présentent l’intérêt d’être extrêmement puissants et de pouvoir être programmés spécifiquement pour un modèle d’IA particulier. Intel n’est pas en reste et compte bien prendre sa part du gâteau de l’IA avec les processeurs Intel Nervana spécifiques pour l’intelligence artificielle et issus de l’acquisition de la société éponyme en 2016 et d’une collaboration étroite avec Facebook.

On voit que le potentiel développement du marché de l’intelligence artificielle aiguise l’appétit d’un large écosystème qui se complète pour adresser tous les aspects de l’usage à l’infrastructure. Reste néanmoins que les acteurs européens font encore cruellement défaut.