L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Amazon voit son avenir avec de l’intelligence artificielle

L’intelligence artificielle suscite de nombreux débats. Elle est déjà largement utilisée et les GAFA comptent dessus pour améliorer l’expérience client et offrir de nouveaux services tout particulièrement avec la montée en puissance des objets connectés. L’exemple d’Amazon illustre parfaitement l’enjeu lié à la maitrise de l’intelligence artificielle pour s’imposer dans une économie façonnée par le numérique.

alexa-blog

Le machine learning au cœur des moteurs de recommandations . Depuis sa création en 1994 Amazon a su tirer parti du développement d’Internet dans les années 2000 pour développer un modèle particulièrement performant de commerce en ligne.  Régulièrement Amazon adopte de nouvelles technologies pour améliorer l’expérience client et approfondir sa connaissance du client. Son moteur de recommandation génère de 30 à 40 % de son chiffre d’affaire en e-commerce. Pour obtenir un tel résultat Amazon fait appel à des technologies de Machine Learning (des systèmes qui apprennent par eux mêmes avec l’expérience) qui lui permettent, grâce à une personnalisation poussée des recommandations, d’augmenter la valeur et de réduire les coûts. Pour continuer à perfectionner son moteur de recommandation et les techniques de reconnaissance du langage, Amazon mise sur la collaboration des développeurs de l’open source. Il a donc mis son logiciel de machine Learning DSSTNE (Deep Scalable Sparse Tensor Network Engine) en open source disponible sur GitHub sous license open source Apache 2.0 . Ces technologies de Machine Learning sont complexes et requièrent généralement des compétences spécialisées et des architectures informatiques puissantes. Pourtant, quelque soit la taille de leurs entreprises, les développeurs peuvent accéder aux mêmes technologies de machine learning que celles utilisées par les spécialistes de la donnée d’Amazon. Le « Service Amazon Machine Learning » est accessible dans le cloud AWS (Amazon Web Service) qui simplifie l’usage de ces technologies et les rend accessibles à des développeurs sans qu’ils aient besoin de maitriser des algorithmes complexes.

L’achat en magasin fluidifié par le deep learning. Après le e-commerce, Amazon veut s’imposer également sur le marché des magasins physiques ou les acteurs sont nombreux et bien installés. Une stratégie qui confirme que le magasin physique est loin d’être mort, une étude récente indique même que 98% de la génération Z font leur course en magasin . Pour réussir son pari Amazon mise la encore sur l’emploi des nouvelles technologies pour révolutionner les magasins de la grande distribution alimentaire. Amazon Go propose une nouvelle approche de l’achat en magasin qui supprime  le paiement sur place, et par conséquent les files d’attentes lors du passage en caisse, grâce à la mise en œuvre de capteurs, de système de reconnaissance d’images et bien sûr d’une bonne dose d’intelligence artificielle avec du deep Learning (une variante plus poussée du machine Learning). Par la même occasion Amazon continue d’engranger un grand nombre d’informations sur les habitudes d’achat des consommateurs qui viendront alimenter son moteur de recommandation. Un cercle vertueux ou expérience utilisateur et connaissance client vont de pair.

Piloter les objets connectés et les applications par commande vocale. Amazon a vite compris que les objets connectés représenteraient à l’avenir un enjeu considérable. On retrouve là encore l’utilisation de l’intelligence artificielle avec le lancement en 2014 d’Alexa un assistant personnel intelligent répondant à des commandes vocales via l’enceinte Echo. Plutôt que de proposer une solution fermée, Amazon a préféré jouer l’ouverture en permettant d’accéder gratuitement à « Alexa Voice services ». Une manière d’accélérer l’adoption et la diffusion de sa technologie. De nombreux constructeurs souhaitant créer une interaction vocale entre leurs équipements et les utilisateurs peuvent ainsi tirer facilement parti de la technologie d’Alexa. Amazon a marqué les esprits avec Alexa lors du CES 2017. Alexa pourrait nous faire oublier l’existence même des applications et abandonner nos multiples télécommandes qu’on finit par égarer. Tout piloter par simple instruction vocale, voici la promesse alléchante d’Amazon. ia-et-iotAccenture affirme d’ailleurs dans une étude que l’intelligence artificielle sera le nouvel interface utilisateur. La technologie Alexa est déjà présente dans un réfrigérateur LG, des aspirateurs Neato, une machine à laver Whirlpool ou bien encore dans un smartphone Huawei. L’adoption d’Alexa par Huawei dont les smartphones fonctionnent sous Android démontre la volonté d’Amazon de s’ouvrir à un maximum d’utilisateurs en concurrençant directement Apple avec Siri. Un univers connecté commence à se profiler, les objets de nos domiciles ne sont pas la seule cible d’Alexa, nos voitures pourront elles aussi embarquer cette technologie pour dialoguer avec un habitat intelligent. Ford et Volkswagen travaillent déjà avec Amazon. Assis confortablement à bord de son véhicule on pourra, sans lâcher son volant, tout aussi bien rechercher des informations sur Internet que piloter les objets connectés de son domicile ou la porte de son garage.

La commande vocale et la reconnaissance du langage naturel seront certainement les grands enjeux des objets connectés. Amazon n’est pas le seul à s’intéresser à ce sujet, Google 5google Now), Apple (Siri) et Microsoft (Cortana) travaillent également d’arrache pied à coup de développement et d’acquisition.

Lire également :

 

 

 

 

 

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Les instituts de sondages opèrent leur mutation numérique.

En vue des échéances présidentielles de 2017, l’institut d’études de marché et d’opinions BVA met en place une plateforme digitales en partenariat avec Salesforce, Orange, Presse Régionale et la Fédération Nationale des Travaux Publics. BVA fait ainsi preuve d’innovation et souligne par là même l’importance croissante des réseaux sociaux dans ce qu’ils révèlent des tendances d’opinion. Ces gigantesques sources d’informations participent au big data et doivent être exploitées avec méthode pour en tirer un enseignement de qualité. L’expérience POP 2017 menée par BVA est à ce titre intéressante.

bva-pop-2017

Les citoyens acteurs du débat public grâce au web et aux réseaux sociaux. La campagne présidentielle américaine a apporté son lot de surprises et de rebondissements écornant au passage la qualité du débat démocratique.  Elle nous éclaire sur le risque de décalage qui peut exister entre une classe politique et l’opinion publique. Les citoyens sont de plus en plus nombreux à vouloir agir sur le débat public. Ils s’expriment sur les réseaux sociaux et signent des pétitions en ligne. Ce sont autant de signaux envoyés instantanément à nos politiques qui doivent apprendre  à les décoder et à les analyser pour comprendre et répondre aux attentes de leurs concitoyens. Jusqu’à aujourd’hui nos politiques s’appuyaient sur des enquêtes d’opinion traditionnelles mais le métier des études d’opinion se réinvente à l’aune de la transformation numérique de notre société.

Mesurer en temps réel l’impact de l’actualité sur l’opinion. L’institut de sondage BVA a profité de l’échéance électorale française de 2017 pour innover en matière d’étude de l’opinion.  En lançant la « Plateforme des Opinions Publiques » POP 2017, BVA propose de dresser un panorama à 360° des opinions des Français et de saisir en temps réel l’influence de l’actualité sur les mouvements d’opinion. Un exercice délicat qui requiert des outils et du métier car toute actualité, même brûlante, ne modifie pas forcément les intentions de vote. De la même manière, constater qu’une personnalité ou un sujet provoque des réactions  sur internet ne suffit pas. Il faut pouvoir identifier la cause de ces réactions en décelant, dès leur apparition, les signaux faibles qui peuvent en être à l’origine.  Ces signaux faibles sont des actualités qui passent souvent inaperçues alors qu’elles peuvent générer dans le temps des changements d’opinions. Pour identifier ces signaux faibles les réseaux sont une source incomparable.

POP 2017 : un laboratoire d’analyse des opinions politiques.   Pour réussir à mesurer l’impact de l’actualité et la cristallisation des intentions de vote autour de quelques thématiques, POP 2017, réalisé en partenariat avec Salesforce, la Presse Régionale, Orange et la Fédération Nationale des Travaux Publics, s’articule autour de trois volets :

  • L’écoute du Web et des réseaux sociaux: L’outil Social Studio de Salesforce recherche en permanence des mentions sur 18 personnalités politiques et 30 thématiques. Il analyse  plus d’un milliard de sources sur le web.
  • Une communauté de citoyens en ligne : En commentant et en réagissant à des sujets d’actualité, cette communauté aide à comprendre comment se forment et se structurent les opinions.
  • Des sondages: Plus de 30 sondages par mois sont réalisés auprès d’un échantillon représentatif de la population française pour mesurer l’impact des opinions sur les intentions de vote.

POP 2017 fournit l’ensemble de ces données en temps réel sur le site www.pop2017.fr

Une expérience dont les politiques devraient s’inspirer. Loin de tout abandonner au profit des seuls réseaux sociaux, l’originalité de POP 2017 repose sur le mix de ces 3 sources complémentaires d’analyse.  BVA dispose ainsi d’une vue d’ensemble sur les mouvements d’opinions qui tient compte de temporalités différentes. Si cette expérience contribue à faire évoluer le métier des sondeurs d’opinion, elle devrait inspirer également les politiques. L’expérience menée par POP 2017 démontre que réagir à une actualité ponctuelle, même importante, peut conduire à occulter les véritables attentes des Français. Le prisme de la surmédiatisation explique souvent le décalage ressenti entre l’opinion et la classe politique. Interpréter les signaux forts et les signaux faibles demande des outils et du doigté.

Ce laboratoire d’opinions est utilisé dans un contexte de campagne présidentielle mais son champ d’application peut s’étendre bien au-delà. Toutes les entreprises font appel à des études pour connaitre et comprendre leur marché, leurs clients et leurs utilisateurs afin d’améliorer leurs offres, leurs services et la relation client. L’exploitation des réseaux sociaux leur offre une source complémentaire d’informations à condition de savoir l’exploiter avec méthode.

 

 

 

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Dataviz : pilotage à vue de l’entreprise

Ce n’est pas une science nouvelle, depuis que l’informatique existe nous avons cherché à présenter les données d’une manière visuelle pour en simplifier la compréhension et l’interprétation. toucan-baptisteLa data visualisation donnait une forme concrète à la business intelligence. Avec l’arrivée des données massives (Big data) le terme data virtualisation a progressivement laissé la place à la « DataViz » une manière de montrer que cette discipline s’est adaptée à l’ère du numérique. Rencontre avec Baptiste Jourdan Directeur du business development chez Toucan Toco spécialiste de la dataviz

La Dataviz :  l’outil moderne de pilotage des entreprises. La DataViz est devenu en soi un moyen de communication tant en interne qu’en externe. Ce n’est pas nouveau, Confucius déjà en son temps se plaisait à dire qu’une image vaut mille mots” et de nos jours l’image prime souvent sur les mots. La data visualisation, c’est l’art de raconter des chiffres de manière créative et ludique, là où les tableaux Excel ont toucan-interactionatteint leurs limites. Dans notre économie moderne toutes les directions ont besoin de piloter leurs organisations le plus finement possible en s’appuyant sur des données nombreuses et riches et en produisant des tableaux de bords pertinents. Toucan Toco donne dans son blog l’exemple de 6 tableaux de bord pour les Ressources humaines. De ma rencontre avec Baptiste j’ai retenu quelques principes qui font de la dataviz un outil de communication moderne, efficace et intéractif.

Premier principe : la dataviz s’appuie sur les sciences cognitives. La dataviz est devenue un art qui allie l’esthétique à la psychologie et démocratise par la même occasion l’accès à la donnée. Elle reprend des concepts philosophiques de la théorie de Gelstalt selon laquelle l’être humain à tendance à organiser des éléments visuels dans des groupes qui l’aide à en distinguer les formes par des jeux de couleurs et des procédés visuels. Cette partie des sciences cognitives constitue l’ADN de Toucan Toco.

Deuxième principe : la dataviz n’est plus réservée à un cercle restreint d’happy few. Le rôle de la dataviz est de communiquer des chiffres ou des données toucan-dev-1brutes en les présentant sous forme d’objets visuels. C’est un formidable outil de communication qui facilite le partage et la compréhension de l’information. Son impact est tel que la dataviz se démocratise et de ce fait elle doit s’adapter à la typologie de chaque utilisateur en offrant des « data story telling » différents à partir de la même application.

Troisième principe : la dataviz donne vie aux données. Elle peut devenir à elle seule le cœur d’une présentation dynamique lors d’une réunion. Les données ne sont plus figées, elles prennent vie à l’écran et raconte une histoire plus ou moins détaillées en remontant dans le temps si nécessaire selon les interlocuteurs et leurs centres d’intérêt. L’utilisateur interagit avec la représentation des données en temps réel.  Les néophytes peuvent s’approprier les données car d’une certaine manière la dataviz permet au big data de parcourir le dernier kilomètre jusqu’à l’utilisateur final.

Quatrième principe : utiliser les multiples sources de données. Tout le monde n’a pas encore créé son fameux lac de données (data lake) qui hébergerait toutes les données de l’entreprise pour que l’on puisse y puiser facilement ce que l’on cherche. Toucan Toco a donc développer de nombreux connecteurs qui permettent d’aller chercher les données là où elles se trouvent.

Cinquième principe : l’expérience mobile sur tous les types d’operating system.

toucan-mobilite

Il ne suffit pas d’adapter les dataviz au profil de chaque utilisateur,  encore faut-il eque chacun y est accès en fonction de son usage et de son mode de connexion. On connait l’usage qui est fait des mobiles de nos jours, une dataviz digne de ce nom ne peut donc pas passer à côté d’une expérience mobile disponible sur tous les équipements. C’est ce qu’a fait Toucan Toco en offrant un accès économique à la dataviz à quelques soit l’équipement mobile utilisé

La dataviz : une autre manière de consommer les données. L’infobésité nous guette. Devant ce flux de données la paralysie nous guette. Moteur de recommandation, curation et dataviz sont autant de moyens de nous aider à lutter contre l’infobésité en contrôlant la manière dont nous absorbons l’information. Pas étonnant donc que la dataviz ait le vent en poupe dans de nombreuses entreprises. Toucan Toco est présent chez de nombreux clients français et réalise des dataviz grand public comme la météo de l’économie française et le baromètre des pages jaunes

De multiples usages

Les services d’intelligence artificielle accessibles à tous grâce au cloud

Google profite de son expérience dans le domaine de l’intelligence artificielle pour lancer des services de machines learning dans le cloud. Ce n’est pas le seul, d’autres grands acteurs le font également, mais l’exemple de Google Vision API illustre bien ce que les développeurs de tous types d’entreprises ont désormais à leur disposition

google-vison-api

Dans un monde numérique complexe, les machines doivent apprendre par elles-mêmes. Ce n’est désormais plus un secret, l’intelligence artificielle s’est immiscée dans tous les secteurs d’activité sans crier gare et son utilisation ne cessera de s’accentuer dans l’avenir. Elle fait partie intégrante de l’univers numérique et s’imposera comme une technologie incontournable au même titre que le cloud, le big data ou les objets connectés. Dans un monde numérique qui produit et analyse une quantité croissante de données pour prendre des décisions ou déclencher des actions, il devient impossible d’envisager tous les cas possibles avec des algorithmes classiques. Les vidéos et les images par exemple inondent notre quotidien. Identifier le contenu à l’intérieur de ces media montre bien l’ampleur de la tâche.  Les logiciels doivent donc apprendre par eux mêmes, c’est ce que l’on appelle le Machine Learning une discipline de l’intelligence artificielle.

Le machine learning est abondamment utilisé. Moteur de recherche, voiture sans chauffeur, reconnaissance vocale, système de recommandation de site e-commerce, filtre anti spam, reconnaissance d’écriture, reconnaissance faciale, toutes ces applications ont en commun d’utiliser le machine learning. On imagine que pour développer ces technologies il faut d’énormes ressources. Des compétences pointues tout d’abord pour élaborer ces algorithmes de machines learning, des quantités de données importantes pour faciliter l’apprentissage de la machine et enfin des moyens informatiques (serveurs, stockage et réseaux) performants pour exploiter les logiciels et les données. Le machine learning n’est-il pour autant réserver qu’aux grandes entreprises disposant de moyens humains et matériels conséquents ? Heureusement non, de nombreuses start-up se sont d’ailleurs engagées sur ce créneau avec peu de moyens grâce au Cloud.

Pour utiliser du machine learning il n’est pas nécessaire de tout redévelopper à partir de zéro. De nombreux systèmes de machine learning ont pu faire leur apprentissage sur des quantités de données suffisamment vastes pour pouvoir être appliqués largement à tous types de problèmes.  On pouvait donc imaginer des modèles de machine learning mis à la disposition de développeurs. Les grands acteurs du cloud comme Amazon, Microsoft, Google, IBM ont vu là une opportunité de faire croitre l’utilisation de leur Cloud en y intégrant des services de Machine Learning. Les grands fournisseurs de Cloud et d’infrastructures informatiques ont vu là une belle opportunité de croissance en offrant des services de machine learning dans le Cloud. Ils vont même jusqu’à prédire que la nouvelle génération du cloud intégrera cette notion d’intelligence artificielle dans ces services et dans ces infrastructures.

Google a acquis depuis de nombreuses années une expertise dans l’intelligence artificielle. Il utilise des technologies de reconnaissance de textes ou d’images dans ses propres produits. Google utilise la technologie  TensorFlow comme pièce maitresse de son intelligence artificielle. C’est cette technologie qui donne à Google Now ses capacités d’apprentissage et qui permet à Google Photos de classer nos photos après en avoir identifié le contenu. Tensorflow est par ailleurs disponible sous forme open-source en licence Apache 2.0 depuis fin 2015. Les développeurs peuvent ainsi l’utiliser et le modifier librement.

Avec Vision API Google veut élargir son empreinte dans le cloud. Google entend tirer parti de son expertise et de ses produits pour inciter les entreprises à utiliser davantage  ses services dans le cloud et réduire ainsi le gap en terme de parts de marché qui le séparent d’Amazon et de Microsoft. Avec son offre « Cloud Vision API »,  accessible dans Google Platform, Google donne la possibilité aux développeurs d’intégrer l’analyse d’image dans une application par le bais de cette interface API ( Application Programming Interface). Google encapsule des modèles puissants de machine learning dans une API REST facile à utiliser. Les cas d’usages sont multiples.

  • Classification d’images dans des milliers de catégories (lion, tour Eiffel, voilier etc..). Détection des objets ou des visages dans une image et lire des mots contenus dans une image.  Très utile également à l’heure actuelle pour ceux qui ont à gérer du contenu provenant de multiples sources.
  • Détection de contenus inappropriés : Vision API peut détecter différents types de contenus inappropriés « adultes » ou « violents ».
  • Détection de types d’objets. Grace aux techniques de machine Learning Vision API est capable de reconnaitre un type d’objet. Par exemple il saura dire si ce sont des fleurs, des voitures, des oiseaux, des montagnes etc… Constamment Vision API introduit de nouveaux concepts. On se souvient qu’en 2012 Google avait réussi à faire apprendre le concept de chat à une machine. Pour y arriver Google avait soumis à la machine 10 millions d’images de chats et utiliser un réseau neuronal de 16.000 processeurs.
  • Analyse de l’expression d’un visage dans une photo (joie, tristesse ou  colère). Sur le site Google on peut même charger l’une de ses photos pour tester la fonction

Google n’est pas le seul à vouloir profiter de la croissance de l’intelligence artificielle. Ses services de machine learning dans le cloud rentrent en compétition avec ceux de Microsoft Azure machine Learning, Amazon Machine Learning ,IBM (services Watson dans le cloud Bluemix) et plus récemment HPE avec Haven onDemand. Comme on le voit là encore le cloud est un élément facilitateur de la transformation numérique. Il participe à l’adoption et à la démocratisation de technologies complexes.

Lire également :