L’innovation n’est pas qu’une question de technologies

Innover exige de sortir du cadre et certaines sociétés de conseil développent de nouvelles approches en y associant des méthodes de design. On voit ainsi arriver des profils de « consultants designers » qui accompagnent les entreprises dans leur transformation. C’est le cas de Tiphaine Lorant et Pauline Audinet, toutes deux consultantes chez weave, qui m’ont éclairé sur la nature de leur métier.

Subir la transformation numérique nuit à son efficacité. Pour survivre à la vague du numérique, les entreprises n’ont pas d’autres choix que d’innover. La transformation numérique est devenue synonyme d’innovation mais elle est trop souvent abordée sous l’angle technologique. Les nouvelles technologies ont indéniablement ouvert la voie à de nouveaux usages et de nouveaux modèles d’affaire mais la transformation numérique va bien au-delà de l’adoption de technologies. Elle modifie considérablement les méthodes de travail, les domaines de responsabilité et le périmètre de certaines professions. Une approche imposée de manière hiérarchique risque fort de se heurter à des résistances et aboutir à une transformation appliquée à reculons de manière incomplète et dans un timing qui s’éternise.

Donner du sens à la transformation pour faciliter l’adhésion. Pour qu’une transformation aboutisse correctement, il faut que tous les membres d’une organisation y trouvent un sens et se l’approprient voire l’incarnent. Rien de mieux pour s’approprier un projet que d’en être le co-concepteur. Pourtant il n’est pas souvent facile de remettre en question les méthodes de travail, l’organisation, les outils sans paraitre négatif voire transgressif. C’est là que des consultants comme Thiphaine et Pauline interviennent. Elles sont consultantes et maitrisent les méthodes de design. A l’heure du numérique on observe une hybridation du conseil et du design que weave désigne sous le nom de « IIF » pour Integrated Innovation Framework . Elle repose sur les 3 P du triptyque People, Place et Process.

Chacun possède une partie de la solution. L’approche IIF s’adapte à de nombreux contextes clients. Par exemple dans une grande institution financière il s’agissait de réfléchir sur la simplification des systèmes d’informations. Sujet d’actualité pour toutes les entreprises aujourd’hui. Les consultants designers comme Tiphaine et Pauline jouent le rôle de facilitateur de la co-construction des projets de transformation. Elles réunissent des personnes de profiles et de responsabilités différentes pour travailler à la conception de solutions concrètes. Il ne s’agit pas d’apprendre aux participants leurs métiers mais de les aider à réfléchir sur leurs contraintes et d’extérioriser les problèmes pour faire émerger des solutions. Sortir du cadre, laisser libre cours à ses idées, échanger sans appréhension est loin d’être aussi naturel qu’il n’y parait. L’expérience d’innovation ne doit pas se contenter d’être enrichissante, elle doit être suivie d’une validation pour s’assurer que les résultats de cette expérience peuvent être opérationnels. Dans un exemple comme celui-ci, des architectes IT ou des experts de la gouvernance IT viennent compléter l’équipe weave pour veiller à une parfaite efficacité.

Un espace pour favoriser l’innovation : Nous avons tous fait l’expérience d’une réunion ou d’un séminaire dont le déroulement avait pâti du lieu choisi. Les entreprises le ressentent et d’ailleurs elles choisissent d’aller au vert pour se sortir de la routine quand cela est nécessaire. L’espace influence l’innovation et son rôle est déterminant dans l’expérience que l’on veut vivre.  weave en a bien conscience à tel point qu’il a créé en mai 2017 « la Friche ». Un espace de 1300 m2 dans Paris conçu pour évoluer entre technologie et nature, disruption et confort. D’entrée de jeu le ton est donné, on accède dans une allée végétale « La Gallery ».

Le « GreenLive » est une sorte d’amphithéâtre cosy où les clients vont élargir leur horizon de réflexions et aborder des sujets sous d’autres points de vue.  Des intervenants weave et des personnalités extérieures sont chargés de provoquer le changement par des présentations décalées. Même impression de détente dans l’espace Bivouac propice au brainstorming. Il s’agit de donner corps à des idées et d’en sélectionner quelques-unes qui feront l’objet d’un prototypage dans l’espace « Garage »

Des méthodes empruntées au développement. L’innovation doit être stimulée et guidée. Plus que la recherche de créativité, on cherche à matérialiser des idées qui ne demandent qu’un coup de pouce pour émerger de nos esprits. On utilise pour y arriver des méthodes de conception de solutions telles que la pensée agile, le lean UX et le design thinking. Elles ne sont pas appliquées de manière systématique et peuvent être combinées ou adaptées en fonction du contexte et du but recherché. L ’agilité sera plutôt axé sur l’idéation et/ou le coaching de groupe, le Lean UX sur l’efficacité et le design thinking pour sortir du cadre et matérialiser des idées en suivant trois phases : inspiration, idéation et prototypage. Ces méthodes s’appliquent aussi bien pour le développement d’un produit que pour l’élaboration d’un organigramme, une prise de décision, une orientation stratégique ou un nouveau business model.

Se transformer commence par un changement d’état d’esprit. Les méthodes de design ne sont que des outils pour faciliter le processus et apporter de la rigueur dans la démarche. Ce sont néanmoins des atouts indéniables pour réussir sa transformation et nous pouvons compter sur les consultants designer pour déplacer nos barrières mentales.

Après le virage du cloud Adobe se dirige vers le machine learning

L’experience client était le maitre mot d’Adobe durant le summit qui se tenait à Londres du 9 au 11 mai 2017. Adobe continue sa transformation avec brio en unifiant ses offres par le bais du cloud et en étendant son expertise du contenu aux données et au machine learning.  Une approche complète et cohérente qui devrait aider à faire passer de nombreuses entreprises à l’ère du numérique.

« Préserver le status quo n’est pas une stratégie ». C’est ce qu’explique le CEO, Shantanu Narayen, à l’occasion de l’Adobe Summit. Plutôt que de se satisfaire de ses résultats il faut savoir se transformer avant que cela ne devienne une urgence. C’est ce qu’a fait Adobe en prenant le virage du cloud de manière volontariste. Toutes ses offres sont aujourd’hui dans le cloud mais la transformation d’Adobe a également concerné tous les pans de l’entreprise :  process, organisation, développement etc.. La stratégie de transformation ne s’arrête pas là pour autant et Adobe a entrepris d’étendre son focus du contenu aux data et aux machine learning. C’est seulement de cette façon qu’il est possible de proposer une « Experience client » digne de ce nom. Pour Adobe l’expérience est le facteur de différentiation par excellence plus que le produit lui-même. L’objectif est bien de fournir aux entreprises tout ce dont elles ont besoin pour déployer une expérience cohérente et personnalisée qui va plaire aux clients quelques soient ses attentes sur tous ces équipements et sur tous les points de contacts avec une marque.

Unifier les données et les contenus pour une meilleure experience. Pour que l’Experience client puisse être complète et aboutie, Adobe a récemment lancé Adobe Experience Cloud, un ensemble complet de services pour créer et diffuser des expériences client d’exception. Composé d’Adobe Marketing Cloud, d’Adobe Advertising Cloud et d’Adobe Analytics Cloud, Adobe Experience Cloud s’intègre avec Adobe Creative Cloud et Adobe Document Cloud. Ce n’est pas un simple regroupement marketing des offres. Il s’agit là d’une intégration complète qui bénéficie de l’unification du contenu et des données grâce à une architecture Cloud commune (Adobe Cloud Platform) sur laquelle repose tous les composants d’Adobe Experience Cloud. Adobe Cloud Platform propose également des APIs (Adobe I/O) , un modèle de données standard (Adobe XDM) et un framework d’intelligence artificielle (Adobe Sensei annoncé en novembre 2016)).

Le machine learning devient stratégique pour Adobe. Il ne suffit plus de faire de l’analyse, elle doit être suivie d’actions en temps réel. Pour le faire il faut être capable de collecter et de traiter d’importants volumes de données avant de les traduire en profils clients uniques. Ce rôle revient à Adobe Analytics Cloud, une sorte d’intelligence client, qui combine Adobe

Audience Manager et Adobe Analytics et permet une intégration unique des données d’audience de tous les clouds Adobe. Durant le summit de Londres, Adobe a annoncé le 9 mai 2017 Virtual Analyst, un datascientiste virtuel augmenté par Adobe Sensei qui va analyser en continu les données et utiliser le machine learning et des algorithmes prédictifs pour déclencher des alertes personnalisées et envoyer des informations sur les anomalies qui perturbent l’activité. Cette détection d’anomalie et l’analyse de contribution va permettre aux clients qui utilisent Analytics cloud d’automatiser les workflows de sciences de données les plus courants dans le but d’identifier les causes de comportements inhabituels de leurs données.

S’ouvrir pour enrichir l’experience. Adobe Analytics a pu s’intégrer avec d’autres sources de données grâce à un partenariat avec Microsoft Power BI. Pour aller plus loin Adobe propose à présent des packs de contenus pour Power BI :

  • Traffic Analysis pour analyser rapidement les tendances du trafic digital
  • Mobile App Analysis pour explorer les interactions avec les utilisateurs d’applications mobiles et leurs performances.

Pour offrir une experience de qualité on retiendra 4 conseils formulés pendant l’Adobe Summit :

connaître son client et le respecter, parler d’une seule voie sur l’ensemble des canaux de communication, rendre la technologie transparente et enfin surprendre agréablement l’utilisateur à chaque fois.

 

HPE France se réinvente aux cotés de Picasso primitif

Ce n’est sans doute pas anodin si HPE France avait choisi l’exposition Picasso Primitif pour présenter sa stratégie. Picasso a réinventé à sa manière la vision du monde. Une forme d’innovation artistique qui bouleverse les codes et les règles. HPE se réinvente à son tour et le fait rapidement pour innover dans les infrastructures qui supporteront la croissance du cloud et de l’IoT.


Le monde va trop vite pour nous adapter : il faut se réinventer. Dans un monde en plein bouleversement, il est plus question de réinventer que de s’adapter à en croire Bruno Marion futuriste et spécialiste de la théorie du chaos. Selon lui le monde est devenu chaotique pour 3 raisons. Le nombre d’êtres humains : la population mondiale est passée de 1 milliards à 7,4 milliards en 150 ans. La connexion des individus : la moitié des habitants de la planète sera connectée à internet en 2017. Et surtout la vitesse des changements !! Il a fallu des milliers d’années pour que l’homme se sédentarise en passant de l’ère de la chasse et de la cueillette (nomade) à celui de l’agriculture (sédentaire). L’industrie et le commerce sont apparus 250 ans après l’agriculture et l’élevage. Des périodes de transition suffisamment longues à l’échelle humaine pour que l’on puisse s’adapter. La période actuelle est riche en innovations technologiques qui se succèdent rapidement. Les périodes de transition se réalisent en quelques dizaines d’années. Le cycle de transformation du monde moderne est à l’échelle d’une vie. Dans ces conditions il devient de plus en plus difficile de s’adapter. Loin de tomber dans le pessimisme B. Marion  voit dans ce chaos la possibilité de l’émergence d’un système plus complexe reposant sur un nouvel équilibre.

Cloud et IoT poursuivent la digitalisation de du monde moderne. Sans aller aussi loin dans la théorie du chaos, Gille Thiebaut, Directeur General de HPE France, voit : « un lien entre Picasso et HPE : les deux ont bouleversé leurs domaines, des précurseurs en la matière« . En termes de bouleversements il constate que la cloudification continue sa progression en devenant de plus en plus hybride et pense que l’internet des objets va accentuer la digitalisation du monde avec pour conséquence une profusion accrue des données. Une voiture autonome par exemple produira 4 Téraoctets de données par jour. L’usage de systèmes connectés va obliger à mettre en place des solutions de traitement de type Edge Computing. Il faut s’y préparer car 40% des données générées par l’IoT devront, selon G.Thiebaut, être traitées au plus près des systèmes connectés. Amener l’intelligence là où elle sera le plus efficace c’est ce que compte faire HPE avec l’approche « Intelligent Edge ».

Une stratégie qui allie innovations et acquisitions. Les acteurs de l’IT tels que HPE opèrent de profonds changements pour être plus agiles, plus pertinents et apporter plus de valeur à leur clients. Depuis la création au premier semestre 2016, HPE a progressé à grand pas avec la cession de certaines activités (la division services cédée à DXC Technology, la division logiciel vendue à Micro Focus) et surtout la réalisation de 5 acquisitions en 9 mois  (SGI, Simplivity, Cloud Cruiser, Niara et Nimble Storage)  alignées avec le cœur de métier de l’entreprise. L’innovation continue comme j’avais eu l’occasion de l’expliquer lors du lancement de Synergy (lire le billet). Pour accompagner les clients dans leur transformation avec plus de valeur ajoutée, la stratégie HPE est recentrée autour de 3 axes qui se complètent : Le cloud hybride (infrastructure, pilotage), l’Intelligent Edge (IoT, mobilité, sécurité) et les services regroupés récemment sous le nom de HPE Pointnext.

Intelligent Edge : Adapter le traitement de données à l’évolution des usages.  Visiblement le sujet passionne G.Thiebaut qui explique avec force détails comment les solutions Intelligent Edge vont renforcer l’expérience digitale dans trois domaines.

  • L’espace de travail digital : Avec l’offre Aruba, HPE met en œuvre des solutions de sécurité et de géolocalisation qui étendent les possibilités de l’espace de travail. Un bâtiment de bureaux partagés pourra par exemple proposer un service d’impression à proximité de la personne et trouver une salle de réunion disponible et la réserver en se servant d’informations en temps réel.
  • Les espaces intelligents. Les solutions de mobilité enrichissent la relation avec les clients ou qu’ils se trouvent. L’aéroport de Rio rénové à l’occasion des jeux Olympiques illustre ce qui peut être fait dans ce domaine. Les passagers s’orientent dans l’aéroport, le trafic des passagers à l’intérieur de l‘aéroport est analysé et amélioré et des offres commerciales personnalisées peuvent être envoyées en tenant compte des profils des passagers.
  • Les objets connectés: Tous les domaines sectoriels peuvent bénéficier de l’internet des objets. Gilles Thiebaut a donné l’exemple de l’agriculture et tout particulièrement celui de palmeraies en Malaisie qui ont été équipées de nombreux capteurs fournissant toutes sortes de mesures. Avec l’aide de la société Immarsat, spécialiste des télécommunications satellitaires, HPE a capturé ces données transmises par satellite sur une plateforme HPE. Ces données ont ensuite été encapsulées et mises à disposition d’application pour suivre l’exploitation des palmeraies et en améliorer le rendement.

 Les usages du numériques sont devenus une réalité et modifient notre quotiden privé et professionnel. Cela peut perturber mais c’est irrésistible alors souhaitons donc, avec l’aide des constructeurs et des entreprises, que du « chaos » cher à B.Marion émerge une société meilleure

Windows 10 une approche inscrite dans la modernité.

Le numérique a bouleversé les rythmes et les usages. L’utilisateur comme l’entreprise sont devenus mobiles. Les entreprises ont dû adapter leurs applications pour tenir compte de l’appareil utilisé par leurs employés ou leurs clients pour accéder aux applications. Avec la simplicité des smartphones et des tablettes, les applications prolifèrent et deviennent à elles seuls un secteur économique. Elles doivent évoluer en permanence pour offrir de nouveaux services et de nouvelles fonctionnalités au risque de devenir rapidement dépassées par l’arrivée d’une start up débordante d’idées. Une aubaine pour les utilisateurs mais un cauchemar pour les entreprises qui doivent gérer les parcs applicatifs.

Le cauchemar des utilisateurs  touche peut être à sa fin avec Windows 10.

  • Finis les changements de version. Microsoft met en œuvre les principes du continuous delivery si chers à DevOps. Dorénavant les améliorations ou les ajouts de fonctionnalités se feront sans changement de version.
  • Un système d’exploitation multi devices. Pour la première fois un système d’exploitation (OS) va être identique quel que soit l’appareil utilisé. PC, tablette, smartphone et sans doute dans un avenir proche des objets connecté seront tous doté du même OS. De quoi simplifier grandement la tâche des développeurs qui pourront passer plus de temps au développement, à la qualité et aux évolutions de leurs applications.
  • La voie ouverte aux applications modernes. Microsoft les « Modern Applications » car elles n’ont plus besoin de s’inquiéter de l’appareil qui utilisera l’application à partir du moment où elles auront été développées pour Windows 10. Mobile ou fixe, Smartphone ou tablette peu importe, les problèmes de portabilité ne seront plus qu’un vieux souvenir pour les développeurs.
  • Premier OS BYOD. Microsoft a tenu compte de cette tendance à ne plus différencier l’usage personnel de l’usage professionnel. Windows 10 offre donc la possibilité  de pouvoir lié un compte entreprise à un compte personnel.

Windows 10 n’est pas qu’une nouvelle version. (lire l’article de Stephane Padique « Quand Windows 10 apporte sa pierre à l’édifice : Simplicité pour les utilisateurs, Sécurité pour les entreprises”) C’est en soi l’entrée dans un monde numérique résolument tourné vers la mobilité et les applications. Windows 10 devrait rapidement devenir incontournable pour les entreprises tant les intérêts sont flagrants. Tout aussi séduisant que soit la promesse de Windows 10 il faut quand même que les entreprises se préparent pour profiter des avantages de Windows 10. Se contenter d’exploiter les applications actuelles sous Windows 10 ne peut qu’être une étape transitoire avant de développer toutes les nouvelles applications sous Windows 10.  Pour s’y préparer il faut se poser quelques questions sur les outils dont on dispose pour gérer le par et déployer les applications.

  • Gestion du parc. La grande majorité des entreprises utilise Windows 7 et les outils qui vont avec. Il n’est cependant pas recommandé d’utiliser ces outils avec Windows 10 qui a été conçu comme un OS de device mobile et par conséquent devra être géré avec des outils de MDM ou d’EMM. La gestion des anciennes et des nouvelles applications imposera la cohabitation de deux outillages distincts (Active Directory pour les anciennes, In Tune pour les nouvelles)
  • Déploiement des applications. Windows 10 se distingue des OS précédent dans la manière de mettre à disposition les applications. Là encore il faudra utiliser deux types d’outils, SCCM pour les anciennes applications et In Tune pour les nouvelles.
  • Impact du cloud sur la confidentialité. Windows 10 est le premier OS conçu pour s’intégrer à un environnement cloud à tel point qu’à la connexion il demande de faire le choix entre une Active Directory ou une directory Azure. Un atout et une souplesse qui peuvent cependant inquiéter certaines entreprises désireuses de maitriser leurs identités.

 Des promesses alléchantes qui devront être tenues pour ne pas décevoir les utilisateurs.

Efficacité énergétique: Le Groupe PSA choisit ENGIE pour mettre du big data dans son usine du futur

Le Groupe PSA fait le choix de la solution blue.e pilot by ENGIE dans le cadre de son projet d’usine du futur pour soutenir sa démarche d’efficacité énergétique.

Le secteur industriel représente 40% des émissions de CO2 dans le monde. Réduire la consommation énergétique d’un site industriel est un enjeu aussi bien économique que sociétal. En France, 25% de l’énergie finale consommée résulte des activités industrielles. Au niveau mondial, le secteur industriel représente un tiers de la consommation d’énergie et presque 40% des émissions de CO2 selon l’ADEME. Gérer plusieurs sites industriels et s’assurer que les objectifs de performance en KWh d’énergie sont respectés est particulièrement difficile. Les moyens humains sont souvent limités et les données utiles proviennent de sources multiples éclatées sur plusieurs usines. Face à une variabilité de la performance il n’est pas aisé de  faire la part des choses au vu des multiples interactions entre le système de production et le système énergétique.

Réduire la facture énergétique d’au moins 5%. Le Groupe PSA compte sur le Big Data pour améliorer l’efficacité de l’usine du futur et lance cette année un projet pilote  sur le site industriel de Poissy en Ile de France. Ce pilote devra faire la preuve de l’appropriation de la solution par les utilisateurs et permettre de mesurer les gains quantitatifs et qualitatifs attendus. Ce projet utilisera la plateforme digitale d’efficacité énergétique blu.e pilot de ENGIE présentée comme une plateforme logicielle d’aide à la maîtrise énergétique de l’industrie du futur. Les équipes d’exploitation, au cœur de la démarche, pourront analyser leur propre performance et identifier grâce au big data les points de fonctionnement ayant produit de meilleurs résultats. L’objectif, selon Patrice Peslier, Directeur de la performance industrielle de Groupe PSA, est d’économiser au moins 5 % de la facture énergétique.

Collecter et analyser de multiples sources de données disséminées sur un site industriel. En se connectant à la plateforme blu.e pilot les usines consacrent l’essentiel de leurs efforts à reproduire leurs meilleurs résultats de façon stable. Toutes les variables provenant de tous les systèmes d’information du site (énergie, production, qualité, etc…) sont collectées et analysées en temps réel dans une base globale de données. L’étude des facteurs influents et des installations donnera au Groupe PSA les clés pour identifier et appliquer de meilleures pratiques opératoires et mettre en œuvre un suivi automne des indicateurs de Performance Energétique (IPE). La plateforme blue.e pilot est interopérable avec toutes les sources de données et systèmes d’informations industriels du marché, le Groupe PSA pourra ainsi utiliser à toutes les informations jugées utiles à l’optimisation de l’efficacité énergétique depuis la relève et l’historisation des données pour les traiter et les mettre en forme dans des interfaces métier.

Pendant toute la durée du contrat Blu.e met à disposition du  Groupe PSA une équipe projet pluridisciplinaire dédiée capable d’appréhender toutes les dimensions techniques, énergétiques ou managériales. Pour le Groupe PSA les enjeux de 2017 porteront sur la maîtrise du déploiement technique de la solution, l’appropriation de tous les usages par les utilisateurs métier , la rentabilité et l’accompagnement à la conduite du changement.

Les développeurs au cœur de l’innovation des entreprises

Avec la frénésie du numérique, l’innovation est devenue plus que jamais un impératif pour les entreprises qui veulent continuer à progresser, voire survivre. L’économie numérique est tout aussi bien l’économie de la donnée que de l’application. Les applications de plus en plus nombreuses rythment la vie et l’activité de l’entreprise. L’innovation est directement liée à la capacité des entreprises à concevoir rapidement de nouvelles applications. De quoi justifier largement la tenue du salon DEVOXX lors duquel j’ai rencontré Michel Lara, architecte chez IBM, avec lequel j’ai pu m’entretenir.

Codeur : métier d’avenir. On a connu la vague d’externalisation des développements d’applications en Inde dans le but de faire baisser les coûts. On pourrait bien assister dorénavant à une relocalisation en France. Le code a le vent en poupe et est désormais synonyme d’innovation non seulement pour les startups mais également pour les grandes entreprises. Les méthodes ont évoluées et sont devenues agiles, les approches DevOps prônent l’intégration continue et le design thinking rapproche le développeur de l’utilisateur. L’expérience utilisateur tant recherchée aujourd’hui repose sur un niveau d’empathie qui impose une proximité physique et culturelle.  Le développeur n’est plus enfermé dans sa tour d’ivoire et collabore d’avantage avec les équipes métiers et de manière plus fréquente. Le développement se veut collaboratif. C’est à la fois le caractère stratégique du développement et cet aspect collaboratif qui expliquent en grande partie  cet engouement pour le métier de développeur en France. Le développement s’est démocratisé, il est devenu plus accessible et plus ludique et la médiatisation de jeunes développeurs ayant revendu une fortune leurs applications suscitent des vocations. Le métier de codeur semble prometteur en termes d’emplois en France dans les années à venir.

Le cloud à la rescousse des développeurs. Les applications sont plus nombreuses et d’ici quelque années l’économie numérique reposera sur près de 1000 milliards d’applications. Les applications sont les nouveaux services de l’entreprise qui doit être capable d’en produire rapidement en nombre et de les faire évoluer fréquemment dans le temps. La notion de micro services et d’APIs (Application Programming Interface) se généralise et permet de simplifier et d’accélérer le processus du développement. Il ne s’agit plus de concevoir une application comme un bloc monolithique mais comme un ensemble de micro services interconnectés. Avec sa plateforme d’innovation Bluemix, IBM a très largement œuvré dans ce sens en proposant de nombreux services dans le cloud à destination des développeurs (blockchain, IoT, cognitif etc..). Les développeurs peuvent appeler ces services grâce à des APIs et s’éviter ainsi des développements lourds et couteux pour des technologies complexes comme la blochain ou le machine learning. Ils peuvent ainsi se consacrer au développement de services métiers. Le cloud a grandement simplifié la vie des développeurs qui désormais ont accès aussi bien à des ressources applicatives que matérielles. IBM n’oublie pas les startups et a annoncé en février l’espace Scale Zone destiné à accompagner des startups confirmées dans le cadre de promotion de 11 startups pendant six mois autour d’une thématique spécifique (IOT pour la première promotion). Ces startups sont hébergées dans les locaux d’IBM à proximité des solutions métiers. L’objectif est d’aider ces startups dans leur phase d’industrialisation en leur donnant accès aux ressources de développement de Bluemix et à l’écosystème IBM.

Blockchain le futur eldorado des développeurs. Ce sont plus de 400 projets blockchain qui sont en court chez IBM au nouveau mondial et qui se justifient généralement autour de trois points : la productivité, la traçabilité et la sécurité. Après avoir mis à disposition des développeurs des services Bluemix avec du code prêt à l’emploi, des APIs et de nombreuses documentations IBM a annoncé en mars le support d’hyperledger fabric (l’initiative de la fondation Linux à laquelle participe IBM) sur les infrastructures IBM. Par la même occasion IBM a levé un frein à l’industrialisation de la Blockchain en étant capable de supporter 15.000 transactions par seconde. La blockchain intéresse de nombreux domaines : traçabilité alimentaire, traçabilité logistique, authentification de contrats ou de diplômes. Les exemples ne manquent pas et tout récemment Natixis, IBM et Trafigura ont mis au point la première solution blockchain (sur la plateforme Bluemix) applicable aux transactions de financement du commerce de pétrole brut aux Etats-Unis (lire le communiqué de presse). La durée du cycle de trésorerie et les frais de gestion de la transaction s’en trouvent considérablement réduits et les transactions offrent une plus grande transparence réduisant de facto les risques de fraude.

Par ailleurs IBM a annoncé le 20 mars 2017 un nouveau service de conteneurs sur Bluemix. Les développeurs pourront ainsi concevoir et gérer des applications plus sécurisées. Ce service s’appuie sur Kubernetes, le système d’orchestration de conteneurs open source utilisant Docker.

lire également: Blockchain : nouvelle gouvernance de la confiance pour une nouvelle économie

 

La France peut- elle encore jouer un rôle dans l’intelligence artificielle

Depuis 2011, date à laquelle des chercheurs canadiens ont démontré la faisabilité du deep Learning, les géants du web se sont lancés dans la course à l’intelligence artificielle. Les américains (GAFA) aussi bien que les chinois (BATX) ont investi dans ces technologies, embauché les meilleurs talents et fait l’acquisition des start-up prometteuses dans le domaine. Ce domaine d’avenir ne doit pas rester l’apanage de ces géants et la France tente de reprendre pied sur ce marché en capitalisant sur ses atouts.

L’IA incontournable pour l’avenir.  L’intelligence artificielle fait partie de ces technologies qui vont profondément modifier notre société. Les géants du web ne s’y trompent pas, ils y voient une formidable opportunité de développer de nouveaux marchés en apportant une valeur extrêmement différentiante. La transversalité de l’intelligence artificielle leur permettra de continuer à progresser sur des secteurs qui n’étaient pas leur cible d’origine. On le voit avec l’exemple dans le secteur de l’automobile avec le développement des voitures autonomes. Cela modifie non seulement l’industrie proprement dite mais impactera les infrastructures routières, les services de transport et nos modes de vies. Ces entreprises du numérique ont pris de l’avance et ont l’avantage de disposer de plateformes qui collectent énormément de données. Ces données leur permettent d’accélérer l’apprentissage de leur intelligence artificielle  à vitesse grand V. Comme on dit « un algorithme avec beaucoup de donnée est plus précis qu’un bon algorithme avec peu de données ». Dans leur cas ils ont les deux…

L’IA déjà présente dans notre quotidien. Ne croyons pas que l’intelligence artificielle concerne uniquement des projets futuristes. L’intelligence artificielle est déjà très présente dans notre quotidien. La majorité des moteurs de recommandation, les  systèmes de reconnaissance d’images et de videos (computervision) ou le traitement en langage naturel (NLP) s’appuient déjà sur des technologies de machine learning ou de deep learning. En 2016 déjà 38 % des entreprises utilisaient l’intelligence artificielle et elles seront 62% en 2018 selon « narrative Science survey ». Les investissements suivent et vont progresser de 300% entre 2016 et 2017 (Forrester Research).  Avec un marché qui pesait 8 milliards $ en 2016 et qui devrait atteindre 47 milliards $ en 2020 selon IDC on comprend que de nombreux acteurs soient intéressés.

Garder la maitrise technologique. Si l’usage de l’intelligence artificielle se démocratise grâce à de nombreux modules dans le cloud à destination des développeurs on peut s’inquiéter néanmoins de la prépondérance des américains et des chinois sur ce marché qui accentuera la dépendance de toutes les industries vis-à-vis d’eux. Aux Etats-Unis, l’administration Obama a lancé un plan intitulé « Preparing for the future of artificial intelligence » et a publié son rapport «Artificial Intelligence, Automation, and the Economy ». En France nous disposons de nombreux atouts. On compte environ 3000 chercheurs qui travaillent dans le domaine de l’intelligence artificielle et près de 200 start-up développant ou exploitant de l’intelligence artificielle. Pourtant on manque de leaders et surtout d’organisation.

Un plan d’intelligence artificielle pour la France. C’est en partie pour y pallier qu’en janvier 2017 Thiery Mandon et Axelle Lemaire ont lancé le Plan France IA. Espérons que ce plan perdurera après les élections présidentielles car  l’IA constitue une formidable opportunité pour innover et créer les entreprises de demain. Sans minimiser les risques sur l’emploi et l’éthique, l’intelligence artificielle constitue des opportunités de progrès et d’amélioration des conditions de vie du plus grand nombre. Avec ce plan France IA,  l’objectif est de mobiliser tous les membres de la communauté IA et de fédérer les nombreuses initiatives émergentes en France pour définir une stratégie nationale concertée et mettre en avant le potentiel de la France dans ce domaine clé. En quelques sorte reproduire la Frenchtech mais avec un focus sur l’intelligence artificielle. Pendant deux mois après l’annonce de France IA, chercheurs, entreprises, start-up et acteurs institutionnels  se sont réunis pour contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle pour l’avenir.(voir les groupes de travail). D’après le calendrier  les travaux finiront le 14 mars  et les groupes remettront leurs recommandations ou propositions d’actions au comité de pilotage. Un rapport France IA sera remis aux ministres le 21 mars.

A suivre donc pour voir la concrétisation de ce plan « France IA »

Lire également :