Hôtellerie et restaurateurs à la reconquête des données clients.

L’hôtellerie et la restauration seront-ils les grands perdants du digital ? Les agences de réservation en ligne et les comparateurs de prix les ont dépossédées de leurs données clients. Tout n’est pas perdu pour autant mais il est urgent d’agir. En lançant le premier salon français Food Hotel Tech, Karen Serfaty compte bien sensibiliser le marché et contribuer à créer un écosystème adapté. Karen, que j’ai rencontrée, m’a expliqué pourquoi il était crucial d’agir rapidement.

Les agence de réservations en ligne ont pris le pouvoir. Sur le marché des réservations en ligne, un acteur come Booking.com règne en roi. Plus de 80% des réservations en ligne passe par lui. Il est incontournable sur Internet et les hôtelleries doivent bon gré malgré composer avec pour assurer le remplissage de leurs chambres. Au passage ils paient un large tribu qui diminue leur marge d’environ 30%. Mais comment faire autrement. Impossible de ne pas figurer sur ces plateformes de réservations sans se condamner à perdre des clients. La France est la 1ère destination touristique avec ses 85 millions de visiteurs enregistrés l’an dernier pourtant la croissance n’est plus au rendez-vous. Dans le secteur hôtelier, elle ralentit et ne progressent plus que de 2,1%… Dans la restauration, c’est même pire : le chiffre d’affaires du secteur a baissé d’environ 4,5% l’an dernier ! Comment s’explique ce contraste ? Les hôteliers et les restaurateurs doivent se mettre à l’heure de la révolution digitale pour concurrencer les nouveaux acteurs du numérique comme AirBnB. Les plateformes de réservation n’ont pas de limite à l’image d’AirBnB qui évolue progressivement vers une plateforme de voyage et a annoncé récemment vouloir proposer de la réservation de restaurants.

Celui qui détient les données clients règne en maitre.  La présence sur Internet n’est plus une option. Faute de l’avoir anticipé l’hôtellerie a laissé la porte ouverte aux  Booking.com et autres Expedia qui s’y sont engouffrés en offrant au passage un éventail de services qui simplifie la recherche et le choix pour les usagers. Plus grave que la perte de marge, l’hôtellerie a perdu le lien inestimable avec le client : ses données.  Booking.com a compris depuis longtemps comme tous les acteurs du Net que celui qui détient les données client possède un pouvoir considérable en termes de marketing. Il se garde bien de communiquer ses précieuses données aux hôteliers qui ne possèdent péniblement que 25% des adresses email !!! Comment valoriser ses services, en promouvoir des nouveaux, cibler ses clients, personnaliser et contextualiser les messages sans une parfaite connaissance client ? Les acteurs du net sont experts dans l’analyse des données et du marketing digital. Ils maitrisent parfaitement le big data et le machine Learning.  Des géants de l’hôtellerie, comme Accor avec ses 36.000 hôtels dans le monde, pensaient être à l’abri.  Le groupe Accor a compris tardivement la menace et a développé en 2014 un plan « Leading Digital Hospitality » sur cinq ans. Il est urgent de se réapproprier la données clients et de développer de nouveaux services. L’un ne va pas sans l’autre.

Le numérique s’est invité également à la table de la restauration.   Pour l’instant des sociétés comme Deliveroo, Foodora et UberEats jouent la carte du gentil partenaire qui augmente le chiffre d’affaire des restaurants en livrant les plats à domicile. Ce serait une erreur de les confondre avec de simples livreurs. Eux aussi captent les données et les analysent méticuleusement. Ce ne sont pas de simples intermédiaires, ils recommandent les restaurants et les plats en fonction des goûts et des habitudes des clients et propose de vrais services. On commence aussi à voir des tentatives de créer des tables chez l’habitant. Une tendance qui demande à trouver son public mais qui sait….. Les comportements changent. Le bouche à oreille continue à exister certes mais il prend de plus en plus souvent la forme de recommandations sur internet ou d’applications spécialisées. Les nouvelles générations y ont recours quasi systématiquement.

S’approprier le numérique est la meilleure défense. Les start-up du digital ont déstabilisé le marché de l’hôtellerie et de la restauration mais le numérique peut devenir une opportunité à condition de se retrousser les manches rapidement. La voie est ouverte à toutes les formes d’innovations et les start-up peuvent être vue comme de véritables créateurs de valeur pour les hôteliers et les restaurateurs. Pour Karen Serfaty, « prendre le bon virage
technologique sera déterminant pour faire face à une concurrence accrue dans les marchés de l’hôtellerie et de la restauration, les piliers du secteur touristique ». Pour aider hôteliers et restaurateurs à inverser cette courbe, Karen Serfaty a décidé de lancer Food Hôtel Tech, un événement rassemblant experts, entreprises innovantes et poids lourds des deux secteurs. « Le but du salon est de faciliter les rencontres entre tous ces acteurs pour permettre aux établissements de reconquérir leurs clients perdus », explique-t-elle. « Mais aussi attirer de nouvelles populations grâce à la création de nouveaux services ! » Traitement optimisé des données, dématérialisation des commandes, parcours client simplifié : les professionnels pourront trouver dans les allées du salon l’innovation idéale pour accélérer leur activité rapidement. Et conserver une longueur d’avance sur les trublions du digital.

C’est à ma connaissance le premier salon BtoB dédié aux innovations Tech et Digital dans l’hôtellerie et la restauration. Bonne nouvelle pour les lecteurs du blog vous pouvez vous obtenir un badge gracieusement pour le salon « Food Hôtel Tech » en utilisant le code FHTMAG lors de l’enregistrement sur le site. Première édition du salon les 28 et 29 novembre 2017 à Paris

 

 

 

 

Efficacité énergétique: Le Groupe PSA choisit ENGIE pour mettre du big data dans son usine du futur

Le Groupe PSA fait le choix de la solution blue.e pilot by ENGIE dans le cadre de son projet d’usine du futur pour soutenir sa démarche d’efficacité énergétique.

Le secteur industriel représente 40% des émissions de CO2 dans le monde. Réduire la consommation énergétique d’un site industriel est un enjeu aussi bien économique que sociétal. En France, 25% de l’énergie finale consommée résulte des activités industrielles. Au niveau mondial, le secteur industriel représente un tiers de la consommation d’énergie et presque 40% des émissions de CO2 selon l’ADEME. Gérer plusieurs sites industriels et s’assurer que les objectifs de performance en KWh d’énergie sont respectés est particulièrement difficile. Les moyens humains sont souvent limités et les données utiles proviennent de sources multiples éclatées sur plusieurs usines. Face à une variabilité de la performance il n’est pas aisé de  faire la part des choses au vu des multiples interactions entre le système de production et le système énergétique.

Réduire la facture énergétique d’au moins 5%. Le Groupe PSA compte sur le Big Data pour améliorer l’efficacité de l’usine du futur et lance cette année un projet pilote  sur le site industriel de Poissy en Ile de France. Ce pilote devra faire la preuve de l’appropriation de la solution par les utilisateurs et permettre de mesurer les gains quantitatifs et qualitatifs attendus. Ce projet utilisera la plateforme digitale d’efficacité énergétique blu.e pilot de ENGIE présentée comme une plateforme logicielle d’aide à la maîtrise énergétique de l’industrie du futur. Les équipes d’exploitation, au cœur de la démarche, pourront analyser leur propre performance et identifier grâce au big data les points de fonctionnement ayant produit de meilleurs résultats. L’objectif, selon Patrice Peslier, Directeur de la performance industrielle de Groupe PSA, est d’économiser au moins 5 % de la facture énergétique.

Collecter et analyser de multiples sources de données disséminées sur un site industriel. En se connectant à la plateforme blu.e pilot les usines consacrent l’essentiel de leurs efforts à reproduire leurs meilleurs résultats de façon stable. Toutes les variables provenant de tous les systèmes d’information du site (énergie, production, qualité, etc…) sont collectées et analysées en temps réel dans une base globale de données. L’étude des facteurs influents et des installations donnera au Groupe PSA les clés pour identifier et appliquer de meilleures pratiques opératoires et mettre en œuvre un suivi automne des indicateurs de Performance Energétique (IPE). La plateforme blue.e pilot est interopérable avec toutes les sources de données et systèmes d’informations industriels du marché, le Groupe PSA pourra ainsi utiliser à toutes les informations jugées utiles à l’optimisation de l’efficacité énergétique depuis la relève et l’historisation des données pour les traiter et les mettre en forme dans des interfaces métier.

Pendant toute la durée du contrat Blu.e met à disposition du  Groupe PSA une équipe projet pluridisciplinaire dédiée capable d’appréhender toutes les dimensions techniques, énergétiques ou managériales. Pour le Groupe PSA les enjeux de 2017 porteront sur la maîtrise du déploiement technique de la solution, l’appropriation de tous les usages par les utilisateurs métier , la rentabilité et l’accompagnement à la conduite du changement.

La France peut- elle encore jouer un rôle dans l’intelligence artificielle

Depuis 2011, date à laquelle des chercheurs canadiens ont démontré la faisabilité du deep Learning, les géants du web se sont lancés dans la course à l’intelligence artificielle. Les américains (GAFA) aussi bien que les chinois (BATX) ont investi dans ces technologies, embauché les meilleurs talents et fait l’acquisition des start-up prometteuses dans le domaine. Ce domaine d’avenir ne doit pas rester l’apanage de ces géants et la France tente de reprendre pied sur ce marché en capitalisant sur ses atouts.

L’IA incontournable pour l’avenir.  L’intelligence artificielle fait partie de ces technologies qui vont profondément modifier notre société. Les géants du web ne s’y trompent pas, ils y voient une formidable opportunité de développer de nouveaux marchés en apportant une valeur extrêmement différentiante. La transversalité de l’intelligence artificielle leur permettra de continuer à progresser sur des secteurs qui n’étaient pas leur cible d’origine. On le voit avec l’exemple dans le secteur de l’automobile avec le développement des voitures autonomes. Cela modifie non seulement l’industrie proprement dite mais impactera les infrastructures routières, les services de transport et nos modes de vies. Ces entreprises du numérique ont pris de l’avance et ont l’avantage de disposer de plateformes qui collectent énormément de données. Ces données leur permettent d’accélérer l’apprentissage de leur intelligence artificielle  à vitesse grand V. Comme on dit « un algorithme avec beaucoup de donnée est plus précis qu’un bon algorithme avec peu de données ». Dans leur cas ils ont les deux…

L’IA déjà présente dans notre quotidien. Ne croyons pas que l’intelligence artificielle concerne uniquement des projets futuristes. L’intelligence artificielle est déjà très présente dans notre quotidien. La majorité des moteurs de recommandation, les  systèmes de reconnaissance d’images et de videos (computervision) ou le traitement en langage naturel (NLP) s’appuient déjà sur des technologies de machine learning ou de deep learning. En 2016 déjà 38 % des entreprises utilisaient l’intelligence artificielle et elles seront 62% en 2018 selon « narrative Science survey ». Les investissements suivent et vont progresser de 300% entre 2016 et 2017 (Forrester Research).  Avec un marché qui pesait 8 milliards $ en 2016 et qui devrait atteindre 47 milliards $ en 2020 selon IDC on comprend que de nombreux acteurs soient intéressés.

Garder la maitrise technologique. Si l’usage de l’intelligence artificielle se démocratise grâce à de nombreux modules dans le cloud à destination des développeurs on peut s’inquiéter néanmoins de la prépondérance des américains et des chinois sur ce marché qui accentuera la dépendance de toutes les industries vis-à-vis d’eux. Aux Etats-Unis, l’administration Obama a lancé un plan intitulé « Preparing for the future of artificial intelligence » et a publié son rapport «Artificial Intelligence, Automation, and the Economy ». En France nous disposons de nombreux atouts. On compte environ 3000 chercheurs qui travaillent dans le domaine de l’intelligence artificielle et près de 200 start-up développant ou exploitant de l’intelligence artificielle. Pourtant on manque de leaders et surtout d’organisation.

Un plan d’intelligence artificielle pour la France. C’est en partie pour y pallier qu’en janvier 2017 Thiery Mandon et Axelle Lemaire ont lancé le Plan France IA. Espérons que ce plan perdurera après les élections présidentielles car  l’IA constitue une formidable opportunité pour innover et créer les entreprises de demain. Sans minimiser les risques sur l’emploi et l’éthique, l’intelligence artificielle constitue des opportunités de progrès et d’amélioration des conditions de vie du plus grand nombre. Avec ce plan France IA,  l’objectif est de mobiliser tous les membres de la communauté IA et de fédérer les nombreuses initiatives émergentes en France pour définir une stratégie nationale concertée et mettre en avant le potentiel de la France dans ce domaine clé. En quelques sorte reproduire la Frenchtech mais avec un focus sur l’intelligence artificielle. Pendant deux mois après l’annonce de France IA, chercheurs, entreprises, start-up et acteurs institutionnels  se sont réunis pour contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle pour l’avenir.(voir les groupes de travail). D’après le calendrier  les travaux finiront le 14 mars  et les groupes remettront leurs recommandations ou propositions d’actions au comité de pilotage. Un rapport France IA sera remis aux ministres le 21 mars.

A suivre donc pour voir la concrétisation de ce plan « France IA »

Lire également :

 

L’Intelligence artificielle s’inscrit durablement dans la transformation numérique

De plus en plus souvent le thème de l’intelligence artificielle est évoqué non seulement dans la presse technique mais également dans la presse économique. Elle est en train de devenir un des axes de développement du numérique qui devrait considérablement modifier notre société.

intelligence-artificielle-free

L’intelligence artificielle libérée de ses freins. Le sujet n’est pourtant pas nouveau. Le film « imitation game » fait référence au fameux test de Turing qui date de 1950. A ce jour il semble qu’aucune machine n’ait réussi ce test en trompant la majorité des membres d’un jury assez longtemps avant qu’ils ne découvrent qu’ils dialoguent avec une machine.  Ce n’est que vers 2010 que l’intelligence artificielle s’installe durablement avec les notions de deep learning et de machine learning qui donnent la possibilité à des systèmes d’apprendre par eux même. Pourquoi tant de temps entre 1950 et 2010 ? Parce que l’intelligence artificielle pour être efficace doit disposer de gigantesques volumes de données, d’une importante puissance de calcul et bien sûr à des coûts acceptables.  Depuis 1959 la puissance des processeurs double tous les ans à coût constant suivant les principes de la loi de Moore. Avec l’âge de numérique le monde est devenu un monde de donnée. En février 2010 le journal The Economist soulignait cette tendance sous le titre éloquent « The data deluge ». Ces données massives appelées « Big Data » sont la matière première pour l’auto apprentissage de l’intelligence de ces systèmes.

L’intelligence artificielle est-elle encore réservée aux géants du web ? Aujourd’hui l’intelligence artificielle est déjà très présente dans notre quotidien. Les moteurs de recommandations des acteurs du web utilisent des systèmes de machine learning. Tous les systèmes de reconnaissance que ce soit du texte, de la voix, de l’image ou de la vidéo ne pourront pas se passer de l’intelligence artificielle. Une véritable course aux acquisitions dans ce domaines s‘est engagée. L’intelligence artificielle nécessite malgré tout des infrastructures techniques conséquentes et des compétences spécialisées que les GAFA s’arrachent. L’intelligence artificielle est-elle pour autant réservée aux seuls géants du web ? Plus vraiment, le cloud a contribué à démocratiser largement la technologie à l’image d’un IBM qui offre des modules d’intelligence artificielle (Watson) dans son cloud (Bluemix). Les développeurs d’entreprises de toute taille peuvent concevoir leurs applications et faire appel à ses modules spécialisés dans le cloud par l’intermédiaire d’API (Application Programming Interface).

L’intelligence artificielle incontournable pour répondre aux défis sociétaux et technologiques. Les progrès de l’intelligence artificielle inquiètent parfois. Pourtant on lui doit beaucoup d’avancées dans la recherche médicale. Le coût de séquençage du génome humain par exemple a chuté de 100.000 fois dans les 10 dernières années et le temps pour l’analyser a chuté de 13 ans à moins de 3 jours. Avec une population qui atteindra 9 milliards d’individus en 2050 et dont plus des deux tiers vivront en zone urbaine. Il n’y aura pas d’autres choix que d’apporter de l’intelligence à ses villes de plus en plus importantes pour gérer en temps réel toutes les ressources d’une ville (eau, électricité, trafic routier, sécurité etc..) à l’aide de capteurs dont les données seront exploitées, pour partie en temps réel, par de l’intelligence artificielle. La dépendance de notre société aux technologies crée également des risques que l’on perçoit bien avec les nombreuses tentatives de fraudes et les cyberattaques qui se multiplient.  Face au nombre et à la sophistication de ces attaques, les systèmes de machine Learning font leur apparition dans les solutions de sécurité et seront de plus en plus présente dans le futur.

L’intelligence est tout sauf un effet de mode. C’est un des piliers de la transformation numérique qui gagnera progressivement toutes les fonctions et services des entreprises.  Il faut l’inscrire ibm-9-marscomme un projet d’entreprise sur le long terme. Un projet qui a de nombreuses implications à la fois sur les infrastructures techniques, le fonctionnement, le mode de travail ou encore la nature des emplois. Pour aller plus loin sur le sujet vous pouvez participer à la matinale « Comment piloter votre stratégie numérique à l’aire du cognitif » organisée par IT for Business, IBM France et VMware France le 9 mars 2017 à Paris J’aurai le plaisir d’intervenir lors de cette session. Pour vous inscrire cliquez ICI.

Amazon voit son avenir avec de l’intelligence artificielle

L’intelligence artificielle suscite de nombreux débats. Elle est déjà largement utilisée et les GAFA comptent dessus pour améliorer l’expérience client et offrir de nouveaux services tout particulièrement avec la montée en puissance des objets connectés. L’exemple d’Amazon illustre parfaitement l’enjeu lié à la maitrise de l’intelligence artificielle pour s’imposer dans une économie façonnée par le numérique.

alexa-blog

Le machine learning au cœur des moteurs de recommandations . Depuis sa création en 1994 Amazon a su tirer parti du développement d’Internet dans les années 2000 pour développer un modèle particulièrement performant de commerce en ligne.  Régulièrement Amazon adopte de nouvelles technologies pour améliorer l’expérience client et approfondir sa connaissance du client. Son moteur de recommandation génère de 30 à 40 % de son chiffre d’affaire en e-commerce. Pour obtenir un tel résultat Amazon fait appel à des technologies de Machine Learning (des systèmes qui apprennent par eux mêmes avec l’expérience) qui lui permettent, grâce à une personnalisation poussée des recommandations, d’augmenter la valeur et de réduire les coûts. Pour continuer à perfectionner son moteur de recommandation et les techniques de reconnaissance du langage, Amazon mise sur la collaboration des développeurs de l’open source. Il a donc mis son logiciel de machine Learning DSSTNE (Deep Scalable Sparse Tensor Network Engine) en open source disponible sur GitHub sous license open source Apache 2.0 . Ces technologies de Machine Learning sont complexes et requièrent généralement des compétences spécialisées et des architectures informatiques puissantes. Pourtant, quelque soit la taille de leurs entreprises, les développeurs peuvent accéder aux mêmes technologies de machine learning que celles utilisées par les spécialistes de la donnée d’Amazon. Le « Service Amazon Machine Learning » est accessible dans le cloud AWS (Amazon Web Service) qui simplifie l’usage de ces technologies et les rend accessibles à des développeurs sans qu’ils aient besoin de maitriser des algorithmes complexes.

L’achat en magasin fluidifié par le deep learning. Après le e-commerce, Amazon veut s’imposer également sur le marché des magasins physiques ou les acteurs sont nombreux et bien installés. Une stratégie qui confirme que le magasin physique est loin d’être mort, une étude récente indique même que 98% de la génération Z font leur course en magasin . Pour réussir son pari Amazon mise la encore sur l’emploi des nouvelles technologies pour révolutionner les magasins de la grande distribution alimentaire. Amazon Go propose une nouvelle approche de l’achat en magasin qui supprime  le paiement sur place, et par conséquent les files d’attentes lors du passage en caisse, grâce à la mise en œuvre de capteurs, de système de reconnaissance d’images et bien sûr d’une bonne dose d’intelligence artificielle avec du deep Learning (une variante plus poussée du machine Learning). Par la même occasion Amazon continue d’engranger un grand nombre d’informations sur les habitudes d’achat des consommateurs qui viendront alimenter son moteur de recommandation. Un cercle vertueux ou expérience utilisateur et connaissance client vont de pair.

Piloter les objets connectés et les applications par commande vocale. Amazon a vite compris que les objets connectés représenteraient à l’avenir un enjeu considérable. On retrouve là encore l’utilisation de l’intelligence artificielle avec le lancement en 2014 d’Alexa un assistant personnel intelligent répondant à des commandes vocales via l’enceinte Echo. Plutôt que de proposer une solution fermée, Amazon a préféré jouer l’ouverture en permettant d’accéder gratuitement à « Alexa Voice services ». Une manière d’accélérer l’adoption et la diffusion de sa technologie. De nombreux constructeurs souhaitant créer une interaction vocale entre leurs équipements et les utilisateurs peuvent ainsi tirer facilement parti de la technologie d’Alexa. Amazon a marqué les esprits avec Alexa lors du CES 2017. Alexa pourrait nous faire oublier l’existence même des applications et abandonner nos multiples télécommandes qu’on finit par égarer. Tout piloter par simple instruction vocale, voici la promesse alléchante d’Amazon. ia-et-iotAccenture affirme d’ailleurs dans une étude que l’intelligence artificielle sera le nouvel interface utilisateur. La technologie Alexa est déjà présente dans un réfrigérateur LG, des aspirateurs Neato, une machine à laver Whirlpool ou bien encore dans un smartphone Huawei. L’adoption d’Alexa par Huawei dont les smartphones fonctionnent sous Android démontre la volonté d’Amazon de s’ouvrir à un maximum d’utilisateurs en concurrençant directement Apple avec Siri. Un univers connecté commence à se profiler, les objets de nos domiciles ne sont pas la seule cible d’Alexa, nos voitures pourront elles aussi embarquer cette technologie pour dialoguer avec un habitat intelligent. Ford et Volkswagen travaillent déjà avec Amazon. Assis confortablement à bord de son véhicule on pourra, sans lâcher son volant, tout aussi bien rechercher des informations sur Internet que piloter les objets connectés de son domicile ou la porte de son garage.

La commande vocale et la reconnaissance du langage naturel seront certainement les grands enjeux des objets connectés. Amazon n’est pas le seul à s’intéresser à ce sujet, Google 5google Now), Apple (Siri) et Microsoft (Cortana) travaillent également d’arrache pied à coup de développement et d’acquisition.

Lire également :

 

 

 

 

 

le numérique crée de nouveaux métiers et requière de nouvelles compétences

En rédigeant le billet « la maitrise des réseaux sociaux, une compétence requise au même titre que l’anglais », je n’imaginais pas un tel succès à l’échelle de mon blog. Ce billet qui n’avait aucune prétention a été très largement partagé, et continue à l’être, sur Twitter, LinkedIn et sur Facebook. Comment expliquer cet intérêt ? Sans faire une analyse pointue, j’ai le sentiment que c’est la relation sous-jacente entre les réseaux sociaux  et l’emploi qui a suscité cet intérêt.

emploi-numerique

L’emploi face aux technologies. Comment réagir. Au-delà des réseaux sociaux, c’est sans doute la  question de l‘évolution de l’emploi et des nouvelles compétences qui se pose dans le contexte  d’une économie numérique. L’accélération des innovations technologiques et la médiatisation qui est en faite, particulièrement autour de l’intelligence artificielle et de la robotisation,  font germer le doute sur le futur de nos emplois au détriment des opportunités pourtant réelles. Par le passé de nombreuses tâches ont été automatisées imposant aux employés de s’adapter, avec plus ou moins de facilité, à de nombreux outils informatiques. Maitriser les logiciels bureautiques est devenu quasiment incontournable et les solutions de travail collaboratif se généralisent. On demande même aux employés d’être les ambassadeurs de l’entreprise en relayant les messages marketing sur les réseaux sociaux. Le processus de transformation s’est parfois fait dans la douleur et certains avaient le sentiment que l’entreprise réalisait des économies sur leur dos avant de ressentir de réels bénéfices dans leur quotidien professionnel. Ne recommençons pas les mêmes erreurs. L’adoption des outils numériques n’est pas homogène pour tout le monde.

Les métiers sont connectés et requièrent de nouvelles compétences. Avec le numérique, l’impact sur l’emploi est devenu plus que jamais un sujet d’actualité. Le temps s’est accéléré et impose un rythme de changement plus fréquent et plus profond encore. Les employés sont face à différents choix selon le type d’emploi qu’ils occupent et la nature de l’entreprise qui les emploie. La santé est connectée, l’agriculture est connectée, l’usine est connectée… La banque utilise des conseillers robots, les RH vont sélectionner les meilleurs profils grâce au big data … Des métiers s’enrichissent avec le numérique, d’autres disparaissent et de nouveaux apparaissent. Dans ce contexte les choix sont réduits

  • S’adapter: Le job évolue et nécessite de se familiariser avec des outils et des applications spécifiques à sa fonction ou à son métier. L’espace de travail est devenu digital lui aussi  (digital workspace ou digital workplace). S’adapter est impératif sous peine d’être laissé sur le bord de la route.
  • Se reconvertir: Les emplois facilement automatisable sont menacés. La question est de savoir quand, pour anticiper et s’y préparer. Les nouvelles générations sont sans doute mieux préparées à ces changement de jobs mais rien n’est impossible à condition de surmonter ses appréhensions et de bien se faire accompagner dans une reconversion.
  • Postuler. De  nombreux jobs n’existaient pas il y a 10 ans. Le community manager est né avec les réseaux sociaux, le trafic manager avec le commerce en ligne et le datascientist avec le développement du big data. La diversité des emplois est bien plus grande que par le passé et bon nombre de jobs des prochaines années n’existe pas encore.
  • Créer. Internet et le cloud ont simplifié la création de l’entreprise. Pas besoin d’un énorme investissement pour monter son business avec une Appli bien innovante et rêver de créer le futur Google. Il faut juste avoir l’âme d’un entrepreneur et la bonne idée.

A chacun ses responsabilités. L’acculturation est essentielle. C’est d’abord une question d’état d’esprit pour que la crainte face place à l’enthousiasme. Facile à dire mais pas si simple selon le contexte, la fonction et l’entreprise. Les responsabilités sont partagées entre les fournisseurs, les entreprises et les politiques.

  • Faciliter l’adoption. Les fournisseurs et éditeurs  doivent penser expérience utilisateurs pour en faciliter l’apprentissage et faire appel au « design thinking » pour que l’utilisation soit simple et instinctive quelque soit la personne.
  • Créer le cadre de l’acculturation. C’est de la responsabilité de l’entreprise de fournir un environnement propice à la culture du numérique. Elle doit lever les freins et créer des passerelles pour faciliter les évolutions professionnelles et les reconversions.
  • Mettre la France à l’heure du numérique. C’est une course de vitesse pour que la France puisse donner naissance à de grands acteurs du numériques français qui puissent s’imposer face aux mastodontes américains ou chinois. Faire éclore les talents français et les garder, voilà un défi à relever.

Dans une note d’analyse, France stratégie indique que les gains de productivité sont le principal moteur de la croissance. Pour les atteindre la France doit investir davantage dans le numérique et renforcer son dynamisme entrepreneurial. pour cela la note préconise de :

  • Renforcer les compétences de la population active par une politique d’éducation ambitieuse
  • Promouvoir le dynamisme entrepreneurial via la simplification administrative et fiscale
  • Encourager la mobilité du travail

Le prix à payer, une remise en cause permanente, le souci de se tenir à jour. On peut espérer qu’avec le temps on oubliera le coté « tech ». Les améliorations en terme d’expérience utilisateur seront telles que l’adoption d’une nouvelle application se fera instantanément par l’utilisateur et qu’il ne sera plus nécessaire d’avoir un lexique pour discuter avec la hotline d’un fournisseur Internet.

Les instituts de sondages opèrent leur mutation numérique.

En vue des échéances présidentielles de 2017, l’institut d’études de marché et d’opinions BVA met en place une plateforme digitales en partenariat avec Salesforce, Orange, Presse Régionale et la Fédération Nationale des Travaux Publics. BVA fait ainsi preuve d’innovation et souligne par là même l’importance croissante des réseaux sociaux dans ce qu’ils révèlent des tendances d’opinion. Ces gigantesques sources d’informations participent au big data et doivent être exploitées avec méthode pour en tirer un enseignement de qualité. L’expérience POP 2017 menée par BVA est à ce titre intéressante.

bva-pop-2017

Les citoyens acteurs du débat public grâce au web et aux réseaux sociaux. La campagne présidentielle américaine a apporté son lot de surprises et de rebondissements écornant au passage la qualité du débat démocratique.  Elle nous éclaire sur le risque de décalage qui peut exister entre une classe politique et l’opinion publique. Les citoyens sont de plus en plus nombreux à vouloir agir sur le débat public. Ils s’expriment sur les réseaux sociaux et signent des pétitions en ligne. Ce sont autant de signaux envoyés instantanément à nos politiques qui doivent apprendre  à les décoder et à les analyser pour comprendre et répondre aux attentes de leurs concitoyens. Jusqu’à aujourd’hui nos politiques s’appuyaient sur des enquêtes d’opinion traditionnelles mais le métier des études d’opinion se réinvente à l’aune de la transformation numérique de notre société.

Mesurer en temps réel l’impact de l’actualité sur l’opinion. L’institut de sondage BVA a profité de l’échéance électorale française de 2017 pour innover en matière d’étude de l’opinion.  En lançant la « Plateforme des Opinions Publiques » POP 2017, BVA propose de dresser un panorama à 360° des opinions des Français et de saisir en temps réel l’influence de l’actualité sur les mouvements d’opinion. Un exercice délicat qui requiert des outils et du métier car toute actualité, même brûlante, ne modifie pas forcément les intentions de vote. De la même manière, constater qu’une personnalité ou un sujet provoque des réactions  sur internet ne suffit pas. Il faut pouvoir identifier la cause de ces réactions en décelant, dès leur apparition, les signaux faibles qui peuvent en être à l’origine.  Ces signaux faibles sont des actualités qui passent souvent inaperçues alors qu’elles peuvent générer dans le temps des changements d’opinions. Pour identifier ces signaux faibles les réseaux sont une source incomparable.

POP 2017 : un laboratoire d’analyse des opinions politiques.   Pour réussir à mesurer l’impact de l’actualité et la cristallisation des intentions de vote autour de quelques thématiques, POP 2017, réalisé en partenariat avec Salesforce, la Presse Régionale, Orange et la Fédération Nationale des Travaux Publics, s’articule autour de trois volets :

  • L’écoute du Web et des réseaux sociaux: L’outil Social Studio de Salesforce recherche en permanence des mentions sur 18 personnalités politiques et 30 thématiques. Il analyse  plus d’un milliard de sources sur le web.
  • Une communauté de citoyens en ligne : En commentant et en réagissant à des sujets d’actualité, cette communauté aide à comprendre comment se forment et se structurent les opinions.
  • Des sondages: Plus de 30 sondages par mois sont réalisés auprès d’un échantillon représentatif de la population française pour mesurer l’impact des opinions sur les intentions de vote.

POP 2017 fournit l’ensemble de ces données en temps réel sur le site www.pop2017.fr

Une expérience dont les politiques devraient s’inspirer. Loin de tout abandonner au profit des seuls réseaux sociaux, l’originalité de POP 2017 repose sur le mix de ces 3 sources complémentaires d’analyse.  BVA dispose ainsi d’une vue d’ensemble sur les mouvements d’opinions qui tient compte de temporalités différentes. Si cette expérience contribue à faire évoluer le métier des sondeurs d’opinion, elle devrait inspirer également les politiques. L’expérience menée par POP 2017 démontre que réagir à une actualité ponctuelle, même importante, peut conduire à occulter les véritables attentes des Français. Le prisme de la surmédiatisation explique souvent le décalage ressenti entre l’opinion et la classe politique. Interpréter les signaux forts et les signaux faibles demande des outils et du doigté.

Ce laboratoire d’opinions est utilisé dans un contexte de campagne présidentielle mais son champ d’application peut s’étendre bien au-delà. Toutes les entreprises font appel à des études pour connaitre et comprendre leur marché, leurs clients et leurs utilisateurs afin d’améliorer leurs offres, leurs services et la relation client. L’exploitation des réseaux sociaux leur offre une source complémentaire d’informations à condition de savoir l’exploiter avec méthode.