La France peut- elle encore jouer un rôle dans l’intelligence artificielle

Depuis 2011, date à laquelle des chercheurs canadiens ont démontré la faisabilité du deep Learning, les géants du web se sont lancés dans la course à l’intelligence artificielle. Les américains (GAFA) aussi bien que les chinois (BATX) ont investi dans ces technologies, embauché les meilleurs talents et fait l’acquisition des start-up prometteuses dans le domaine. Ce domaine d’avenir ne doit pas rester l’apanage de ces géants et la France tente de reprendre pied sur ce marché en capitalisant sur ses atouts.

L’IA incontournable pour l’avenir.  L’intelligence artificielle fait partie de ces technologies qui vont profondément modifier notre société. Les géants du web ne s’y trompent pas, ils y voient une formidable opportunité de développer de nouveaux marchés en apportant une valeur extrêmement différentiante. La transversalité de l’intelligence artificielle leur permettra de continuer à progresser sur des secteurs qui n’étaient pas leur cible d’origine. On le voit avec l’exemple dans le secteur de l’automobile avec le développement des voitures autonomes. Cela modifie non seulement l’industrie proprement dite mais impactera les infrastructures routières, les services de transport et nos modes de vies. Ces entreprises du numérique ont pris de l’avance et ont l’avantage de disposer de plateformes qui collectent énormément de données. Ces données leur permettent d’accélérer l’apprentissage de leur intelligence artificielle  à vitesse grand V. Comme on dit « un algorithme avec beaucoup de donnée est plus précis qu’un bon algorithme avec peu de données ». Dans leur cas ils ont les deux…

L’IA déjà présente dans notre quotidien. Ne croyons pas que l’intelligence artificielle concerne uniquement des projets futuristes. L’intelligence artificielle est déjà très présente dans notre quotidien. La majorité des moteurs de recommandation, les  systèmes de reconnaissance d’images et de videos (computervision) ou le traitement en langage naturel (NLP) s’appuient déjà sur des technologies de machine learning ou de deep learning. En 2016 déjà 38 % des entreprises utilisaient l’intelligence artificielle et elles seront 62% en 2018 selon « narrative Science survey ». Les investissements suivent et vont progresser de 300% entre 2016 et 2017 (Forrester Research).  Avec un marché qui pesait 8 milliards $ en 2016 et qui devrait atteindre 47 milliards $ en 2020 selon IDC on comprend que de nombreux acteurs soient intéressés.

Garder la maitrise technologique. Si l’usage de l’intelligence artificielle se démocratise grâce à de nombreux modules dans le cloud à destination des développeurs on peut s’inquiéter néanmoins de la prépondérance des américains et des chinois sur ce marché qui accentuera la dépendance de toutes les industries vis-à-vis d’eux. Aux Etats-Unis, l’administration Obama a lancé un plan intitulé « Preparing for the future of artificial intelligence » et a publié son rapport «Artificial Intelligence, Automation, and the Economy ». En France nous disposons de nombreux atouts. On compte environ 3000 chercheurs qui travaillent dans le domaine de l’intelligence artificielle et près de 200 start-up développant ou exploitant de l’intelligence artificielle. Pourtant on manque de leaders et surtout d’organisation.

Un plan d’intelligence artificielle pour la France. C’est en partie pour y pallier qu’en janvier 2017 Thiery Mandon et Axelle Lemaire ont lancé le Plan France IA. Espérons que ce plan perdurera après les élections présidentielles car  l’IA constitue une formidable opportunité pour innover et créer les entreprises de demain. Sans minimiser les risques sur l’emploi et l’éthique, l’intelligence artificielle constitue des opportunités de progrès et d’amélioration des conditions de vie du plus grand nombre. Avec ce plan France IA,  l’objectif est de mobiliser tous les membres de la communauté IA et de fédérer les nombreuses initiatives émergentes en France pour définir une stratégie nationale concertée et mettre en avant le potentiel de la France dans ce domaine clé. En quelques sorte reproduire la Frenchtech mais avec un focus sur l’intelligence artificielle. Pendant deux mois après l’annonce de France IA, chercheurs, entreprises, start-up et acteurs institutionnels  se sont réunis pour contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle pour l’avenir.(voir les groupes de travail). D’après le calendrier  les travaux finiront le 14 mars  et les groupes remettront leurs recommandations ou propositions d’actions au comité de pilotage. Un rapport France IA sera remis aux ministres le 21 mars.

A suivre donc pour voir la concrétisation de ce plan « France IA »

Lire également :

 

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Amazon voit son avenir avec de l’intelligence artificielle

L’intelligence artificielle suscite de nombreux débats. Elle est déjà largement utilisée et les GAFA comptent dessus pour améliorer l’expérience client et offrir de nouveaux services tout particulièrement avec la montée en puissance des objets connectés. L’exemple d’Amazon illustre parfaitement l’enjeu lié à la maitrise de l’intelligence artificielle pour s’imposer dans une économie façonnée par le numérique.

alexa-blog

Le machine learning au cœur des moteurs de recommandations . Depuis sa création en 1994 Amazon a su tirer parti du développement d’Internet dans les années 2000 pour développer un modèle particulièrement performant de commerce en ligne.  Régulièrement Amazon adopte de nouvelles technologies pour améliorer l’expérience client et approfondir sa connaissance du client. Son moteur de recommandation génère de 30 à 40 % de son chiffre d’affaire en e-commerce. Pour obtenir un tel résultat Amazon fait appel à des technologies de Machine Learning (des systèmes qui apprennent par eux mêmes avec l’expérience) qui lui permettent, grâce à une personnalisation poussée des recommandations, d’augmenter la valeur et de réduire les coûts. Pour continuer à perfectionner son moteur de recommandation et les techniques de reconnaissance du langage, Amazon mise sur la collaboration des développeurs de l’open source. Il a donc mis son logiciel de machine Learning DSSTNE (Deep Scalable Sparse Tensor Network Engine) en open source disponible sur GitHub sous license open source Apache 2.0 . Ces technologies de Machine Learning sont complexes et requièrent généralement des compétences spécialisées et des architectures informatiques puissantes. Pourtant, quelque soit la taille de leurs entreprises, les développeurs peuvent accéder aux mêmes technologies de machine learning que celles utilisées par les spécialistes de la donnée d’Amazon. Le « Service Amazon Machine Learning » est accessible dans le cloud AWS (Amazon Web Service) qui simplifie l’usage de ces technologies et les rend accessibles à des développeurs sans qu’ils aient besoin de maitriser des algorithmes complexes.

L’achat en magasin fluidifié par le deep learning. Après le e-commerce, Amazon veut s’imposer également sur le marché des magasins physiques ou les acteurs sont nombreux et bien installés. Une stratégie qui confirme que le magasin physique est loin d’être mort, une étude récente indique même que 98% de la génération Z font leur course en magasin . Pour réussir son pari Amazon mise la encore sur l’emploi des nouvelles technologies pour révolutionner les magasins de la grande distribution alimentaire. Amazon Go propose une nouvelle approche de l’achat en magasin qui supprime  le paiement sur place, et par conséquent les files d’attentes lors du passage en caisse, grâce à la mise en œuvre de capteurs, de système de reconnaissance d’images et bien sûr d’une bonne dose d’intelligence artificielle avec du deep Learning (une variante plus poussée du machine Learning). Par la même occasion Amazon continue d’engranger un grand nombre d’informations sur les habitudes d’achat des consommateurs qui viendront alimenter son moteur de recommandation. Un cercle vertueux ou expérience utilisateur et connaissance client vont de pair.

Piloter les objets connectés et les applications par commande vocale. Amazon a vite compris que les objets connectés représenteraient à l’avenir un enjeu considérable. On retrouve là encore l’utilisation de l’intelligence artificielle avec le lancement en 2014 d’Alexa un assistant personnel intelligent répondant à des commandes vocales via l’enceinte Echo. Plutôt que de proposer une solution fermée, Amazon a préféré jouer l’ouverture en permettant d’accéder gratuitement à « Alexa Voice services ». Une manière d’accélérer l’adoption et la diffusion de sa technologie. De nombreux constructeurs souhaitant créer une interaction vocale entre leurs équipements et les utilisateurs peuvent ainsi tirer facilement parti de la technologie d’Alexa. Amazon a marqué les esprits avec Alexa lors du CES 2017. Alexa pourrait nous faire oublier l’existence même des applications et abandonner nos multiples télécommandes qu’on finit par égarer. Tout piloter par simple instruction vocale, voici la promesse alléchante d’Amazon. ia-et-iotAccenture affirme d’ailleurs dans une étude que l’intelligence artificielle sera le nouvel interface utilisateur. La technologie Alexa est déjà présente dans un réfrigérateur LG, des aspirateurs Neato, une machine à laver Whirlpool ou bien encore dans un smartphone Huawei. L’adoption d’Alexa par Huawei dont les smartphones fonctionnent sous Android démontre la volonté d’Amazon de s’ouvrir à un maximum d’utilisateurs en concurrençant directement Apple avec Siri. Un univers connecté commence à se profiler, les objets de nos domiciles ne sont pas la seule cible d’Alexa, nos voitures pourront elles aussi embarquer cette technologie pour dialoguer avec un habitat intelligent. Ford et Volkswagen travaillent déjà avec Amazon. Assis confortablement à bord de son véhicule on pourra, sans lâcher son volant, tout aussi bien rechercher des informations sur Internet que piloter les objets connectés de son domicile ou la porte de son garage.

La commande vocale et la reconnaissance du langage naturel seront certainement les grands enjeux des objets connectés. Amazon n’est pas le seul à s’intéresser à ce sujet, Google 5google Now), Apple (Siri) et Microsoft (Cortana) travaillent également d’arrache pied à coup de développement et d’acquisition.

Lire également :

 

 

 

 

 

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Les instituts de sondages opèrent leur mutation numérique.

En vue des échéances présidentielles de 2017, l’institut d’études de marché et d’opinions BVA met en place une plateforme digitales en partenariat avec Salesforce, Orange, Presse Régionale et la Fédération Nationale des Travaux Publics. BVA fait ainsi preuve d’innovation et souligne par là même l’importance croissante des réseaux sociaux dans ce qu’ils révèlent des tendances d’opinion. Ces gigantesques sources d’informations participent au big data et doivent être exploitées avec méthode pour en tirer un enseignement de qualité. L’expérience POP 2017 menée par BVA est à ce titre intéressante.

bva-pop-2017

Les citoyens acteurs du débat public grâce au web et aux réseaux sociaux. La campagne présidentielle américaine a apporté son lot de surprises et de rebondissements écornant au passage la qualité du débat démocratique.  Elle nous éclaire sur le risque de décalage qui peut exister entre une classe politique et l’opinion publique. Les citoyens sont de plus en plus nombreux à vouloir agir sur le débat public. Ils s’expriment sur les réseaux sociaux et signent des pétitions en ligne. Ce sont autant de signaux envoyés instantanément à nos politiques qui doivent apprendre  à les décoder et à les analyser pour comprendre et répondre aux attentes de leurs concitoyens. Jusqu’à aujourd’hui nos politiques s’appuyaient sur des enquêtes d’opinion traditionnelles mais le métier des études d’opinion se réinvente à l’aune de la transformation numérique de notre société.

Mesurer en temps réel l’impact de l’actualité sur l’opinion. L’institut de sondage BVA a profité de l’échéance électorale française de 2017 pour innover en matière d’étude de l’opinion.  En lançant la « Plateforme des Opinions Publiques » POP 2017, BVA propose de dresser un panorama à 360° des opinions des Français et de saisir en temps réel l’influence de l’actualité sur les mouvements d’opinion. Un exercice délicat qui requiert des outils et du métier car toute actualité, même brûlante, ne modifie pas forcément les intentions de vote. De la même manière, constater qu’une personnalité ou un sujet provoque des réactions  sur internet ne suffit pas. Il faut pouvoir identifier la cause de ces réactions en décelant, dès leur apparition, les signaux faibles qui peuvent en être à l’origine.  Ces signaux faibles sont des actualités qui passent souvent inaperçues alors qu’elles peuvent générer dans le temps des changements d’opinions. Pour identifier ces signaux faibles les réseaux sont une source incomparable.

POP 2017 : un laboratoire d’analyse des opinions politiques.   Pour réussir à mesurer l’impact de l’actualité et la cristallisation des intentions de vote autour de quelques thématiques, POP 2017, réalisé en partenariat avec Salesforce, la Presse Régionale, Orange et la Fédération Nationale des Travaux Publics, s’articule autour de trois volets :

  • L’écoute du Web et des réseaux sociaux: L’outil Social Studio de Salesforce recherche en permanence des mentions sur 18 personnalités politiques et 30 thématiques. Il analyse  plus d’un milliard de sources sur le web.
  • Une communauté de citoyens en ligne : En commentant et en réagissant à des sujets d’actualité, cette communauté aide à comprendre comment se forment et se structurent les opinions.
  • Des sondages: Plus de 30 sondages par mois sont réalisés auprès d’un échantillon représentatif de la population française pour mesurer l’impact des opinions sur les intentions de vote.

POP 2017 fournit l’ensemble de ces données en temps réel sur le site www.pop2017.fr

Une expérience dont les politiques devraient s’inspirer. Loin de tout abandonner au profit des seuls réseaux sociaux, l’originalité de POP 2017 repose sur le mix de ces 3 sources complémentaires d’analyse.  BVA dispose ainsi d’une vue d’ensemble sur les mouvements d’opinions qui tient compte de temporalités différentes. Si cette expérience contribue à faire évoluer le métier des sondeurs d’opinion, elle devrait inspirer également les politiques. L’expérience menée par POP 2017 démontre que réagir à une actualité ponctuelle, même importante, peut conduire à occulter les véritables attentes des Français. Le prisme de la surmédiatisation explique souvent le décalage ressenti entre l’opinion et la classe politique. Interpréter les signaux forts et les signaux faibles demande des outils et du doigté.

Ce laboratoire d’opinions est utilisé dans un contexte de campagne présidentielle mais son champ d’application peut s’étendre bien au-delà. Toutes les entreprises font appel à des études pour connaitre et comprendre leur marché, leurs clients et leurs utilisateurs afin d’améliorer leurs offres, leurs services et la relation client. L’exploitation des réseaux sociaux leur offre une source complémentaire d’informations à condition de savoir l’exploiter avec méthode.

 

 

 

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Dataviz : pilotage à vue de l’entreprise

Ce n’est pas une science nouvelle, depuis que l’informatique existe nous avons cherché à présenter les données d’une manière visuelle pour en simplifier la compréhension et l’interprétation. toucan-baptisteLa data visualisation donnait une forme concrète à la business intelligence. Avec l’arrivée des données massives (Big data) le terme data virtualisation a progressivement laissé la place à la « DataViz » une manière de montrer que cette discipline s’est adaptée à l’ère du numérique. Rencontre avec Baptiste Jourdan Directeur du business development chez Toucan Toco spécialiste de la dataviz

La Dataviz :  l’outil moderne de pilotage des entreprises. La DataViz est devenu en soi un moyen de communication tant en interne qu’en externe. Ce n’est pas nouveau, Confucius déjà en son temps se plaisait à dire qu’une image vaut mille mots” et de nos jours l’image prime souvent sur les mots. La data visualisation, c’est l’art de raconter des chiffres de manière créative et ludique, là où les tableaux Excel ont toucan-interactionatteint leurs limites. Dans notre économie moderne toutes les directions ont besoin de piloter leurs organisations le plus finement possible en s’appuyant sur des données nombreuses et riches et en produisant des tableaux de bords pertinents. Toucan Toco donne dans son blog l’exemple de 6 tableaux de bord pour les Ressources humaines. De ma rencontre avec Baptiste j’ai retenu quelques principes qui font de la dataviz un outil de communication moderne, efficace et intéractif.

Premier principe : la dataviz s’appuie sur les sciences cognitives. La dataviz est devenue un art qui allie l’esthétique à la psychologie et démocratise par la même occasion l’accès à la donnée. Elle reprend des concepts philosophiques de la théorie de Gelstalt selon laquelle l’être humain à tendance à organiser des éléments visuels dans des groupes qui l’aide à en distinguer les formes par des jeux de couleurs et des procédés visuels. Cette partie des sciences cognitives constitue l’ADN de Toucan Toco.

Deuxième principe : la dataviz n’est plus réservée à un cercle restreint d’happy few. Le rôle de la dataviz est de communiquer des chiffres ou des données toucan-dev-1brutes en les présentant sous forme d’objets visuels. C’est un formidable outil de communication qui facilite le partage et la compréhension de l’information. Son impact est tel que la dataviz se démocratise et de ce fait elle doit s’adapter à la typologie de chaque utilisateur en offrant des « data story telling » différents à partir de la même application.

Troisième principe : la dataviz donne vie aux données. Elle peut devenir à elle seule le cœur d’une présentation dynamique lors d’une réunion. Les données ne sont plus figées, elles prennent vie à l’écran et raconte une histoire plus ou moins détaillées en remontant dans le temps si nécessaire selon les interlocuteurs et leurs centres d’intérêt. L’utilisateur interagit avec la représentation des données en temps réel.  Les néophytes peuvent s’approprier les données car d’une certaine manière la dataviz permet au big data de parcourir le dernier kilomètre jusqu’à l’utilisateur final.

Quatrième principe : utiliser les multiples sources de données. Tout le monde n’a pas encore créé son fameux lac de données (data lake) qui hébergerait toutes les données de l’entreprise pour que l’on puisse y puiser facilement ce que l’on cherche. Toucan Toco a donc développer de nombreux connecteurs qui permettent d’aller chercher les données là où elles se trouvent.

Cinquième principe : l’expérience mobile sur tous les types d’operating system.

toucan-mobilite

Il ne suffit pas d’adapter les dataviz au profil de chaque utilisateur,  encore faut-il eque chacun y est accès en fonction de son usage et de son mode de connexion. On connait l’usage qui est fait des mobiles de nos jours, une dataviz digne de ce nom ne peut donc pas passer à côté d’une expérience mobile disponible sur tous les équipements. C’est ce qu’a fait Toucan Toco en offrant un accès économique à la dataviz à quelques soit l’équipement mobile utilisé

La dataviz : une autre manière de consommer les données. L’infobésité nous guette. Devant ce flux de données la paralysie nous guette. Moteur de recommandation, curation et dataviz sont autant de moyens de nous aider à lutter contre l’infobésité en contrôlant la manière dont nous absorbons l’information. Pas étonnant donc que la dataviz ait le vent en poupe dans de nombreuses entreprises. Toucan Toco est présent chez de nombreux clients français et réalise des dataviz grand public comme la météo de l’économie française et le baromètre des pages jaunes

De multiples usages