Avec la Chaire IoT, SPIE ICS et l’INSA Lyon mettent la technologie au service de l’humain.

Vision, passion, envie, compétence, partage sont sans doute les premiers mots qui viennent à l’esprit à l’issue de la journée d’inauguration de la chaire IoT qui se déroulait à l’INSA Lyon le 3 novembre 2016 devant un amphi plein. La technologie était bien sûr présente dans chaque intervention mais elle était replacée dans un contexte sociétal où l’humain est au centre des préoccupations. Le message était clair : les progrès technologiques doivent servir l’homme et améliorer sa qualité de vie.

vincent-karen-v1

L’ambition de la chaire va au-delà de l’aspect technologique. Avec l’Internet des objets (IoT) nous sommes à l’aube d’une nouvelle révolution digitale. Si cette révolution est portée par les innovations technologiques elle ne peut se réduire à cette seule dimension. « Préparer la société numérique relève pour partie de la science mais aussi de l’éthique et de l’appropriation des usagers » comme l’a fort justement souligné Eric Maurincomme, directeur de l’INSA Lyon. Le développement de L’IoT nous oblige à « mener également une réflexion de fond sur les enjeux sociétaux et en particulier sur les questions d’accessibilité sociétales » à compléter Vincent Magnon Directeur Général de SPIE ICS. Un point de vue partagé par Jean-Marie Gorce, Directeur de département TC et porteur de la chaire, qui rajoute que l’IoT doit prendre en compte « le respect de l’homme, l’équité, le développement durable et l’acceptabilité. Cette Chaire IoT se veut la synthèse des ambitions des deux partenaires. Celle de SPIE ICS qui souhaite « Simplifier l’expérience du numérique » et celle de l’INSA Lyon qui vise « Une recherche d’Excellence pour une société innovante et durable ». Pour être bénéfique la recherche scientifique doit être à même de comprendre les enjeux économiques sous-jacents. Cette chaire IoT offre l’opportunité de conjuguer des talents différents et complémentaires et démontre plus que jamais la richesse de la collaboration entre l’enseignement et l’entreprise.

La chaire IoT doit imaginer le monde de demain avec un écosystème pluridisciplinaire. La chaire constitue le socle du développement d’un réseau de partenaires académiques ou industriels pour identifier les domaines dans lesquels les technologies peuvent contribuer à répondre aux enjeux de société au bénéfice de l’humain. « L’innovation est une amphivaleur commune partagée par SPIE ICS et l’INSA Lyon » précise Karen Luzignan Directeur de département SPIE ICS et responsable du comité de pilotage de la chaire. « L’INSA Lyon va apporter une vision sur le long terme et SPIE ICS apportera la réalité opérationnelle ». La complémentarité s’étend aux écosystèmes, elle permettra de répondre au mieux aux problématiques des entreprises et fournira un cadre pour accéder aux bons consortiums innovants. La Chaire IoT va créer un environnement favorable à de nombreuses initiatives comme la co-création de solutions avec des clients ou la mise en place de partenariats pour accompagner des start-ups dans leur développement. La chaire IoT aboutit ainsi à des projets concrets avec des entreprises en profitant du laboratoire CITI de l’INSA Lyon (Centre of Innovation in Technologies and Integration of service).

Relever les défis technologiques de l’IoT. L’IoT est porteur de promesses. Fabrice Valois, professeur à l’INSA Lyon, n’hésite pas à parler « d’hommes connectés à la société numérique ». Tous les secteurs d’activité peuvent en bénéficier. Il s’agit pour la chaire d’explorer les domaines ou la recherche scientifique et la technologie peuvent apporter des réponses innovantes. La diversité des objets connectés, la variété de leurs usages, leur multitude et leur miniaturisation nécessitent par contre de résoudre de nouveaux problèmes techniques qui portent sur les objets eux même mais également sur les réseaux d’accès dédiés, la programmation, l’intégration et les données. Les systèmes embarqués par exemple doivent non seulement être fiables mais également consommer peu d’énergie et offrir une longue durée de vie. La connexion d’objets pose aussi la question des fuites de données personnelles à l’insu des individus. La protection de la vie privée fait partie des nombreux sujets traités au sein de la chaire IoT qui prône le « privacy by design » et travaille sur des dispositifs de capture de mobilité via Wi-Fi respectueux de la vie privée.

L’expertise et la jeunesse au cœur du projet de la chaire IoT. L’un des objectifs de la chaire est de développer une expertise pointue. Portée par le laboratoire CITI de l’INSA Lyon, la chaire associera étroitement les compétences du laboratoire autour du porteur de la chaire Jean etudiants-v1Marie Gorce secondé par le Dr Julien Ponge. Jean Marie Gorce a rappelé que « la chaire IoT avait également pour ambition de préparer les étudiants à cette rupture technologique liée à l’IoT ». Les jeunes sont au cœur du projet pour faire émerger des idées inspirantes et novatrices et les étudiants de l’INSA Lyon vont pouvoir communiquer et interagir avec la chaire IoT. De jeunes chercheurs vont également être recrutés pour renforcer l’équipe. De son côté SPIE ICS va renforcer, grâce à cette chaire, son expertise et son positionnement en tant qu’expert majeur dans les services numériques.

Il existe déjà en France plusieurs chaires travaillant sur l’IoT mais cette chaire se distingue par le fait qu’elle n’est portée par aucun constructeur ou éditeur. La dimension service est au cœur des objectifs de cette chaire qui entend faire passer « l’Internet des objets à l’Internet des services ». Avec cette chaire SPIE ICS est prêt à relever les défis du 21 ème siècle et à participer à la transformation sociétale. N’ayons pas peur d’être ambitieux car comme le rappelle Vincent Magnon en s’adressant à l’assistance « Vous avez l’occasion d’influencer et de créer le monde de demain. Rêvez ce monde améliorez le et anticipez, et bien sûr réfléchissez en jeunes adultes responsables »

 

La maitrise des réseaux sociaux : une compétence requise au même titre que l’anglais

Au cours de ces dernières semaines j’ai été amené à faire différentes interventions de sensibilisation ou d’initiation sur le rôle des réseaux sociaux pour les entreprises. Les employés sont de plus en plus impliqués dans la communication de l’entreprise, loin d’être une charge supplémentaire cela peut être un atout pour eux s’ils y sont préparés.

atelier-reseaux-sociaux-v1

Les employés deviennent des ambassadeurs des entreprises sur les réseaux sociaux. Au-delà de l’animation de leurs comptes sur les réseaux sociaux, de plus en plus d’entreprises cherchent à démultiplier leur communication en impliquant leurs employés. C’est ce que l’on appelle des programmes « ambassadeurs » ou « advocacy » en anglais. Cela consiste à demander aux employés de relayer l’information postée par leur entreprise (en général sur Linkedin et Twitter). Pour leur faciliter la tâche, des articles de presse ou des billets de blogs sont proposés aux employés sur un portail. L’employé n’a plus alors qu’à cliquer sur l’article qu’il veut diffuser sur les réseaux sociaux de son choix. Dans certaines entreprises les employés peuvent également proposer des articles à intégrer dans le portail.

La maitrise des réseaux sociaux deviendra une compétence comme une autre. Pour que ce type de programme soit réellement efficace, il faut que l’employé y trouve son compte. Même si la tâche est simplifiée par les portails d’ambassadeurs, l’employé peut juger qu’il a suffisamment de choses à faire pour ne pas avoir en plus à assurer une part du travail du marketing !! Inciter à participer à un programme d’ambassadeurs doit s’accompagner d’une sensibilisation sur les bénéfices des réseaux sociaux à titre personnel dans un contexte professionnel. Récemment lors d’animation d’ateliers à destination d’étudiants ingénieurs j’ai insisté sur le fait que la maitrise des réseaux sociaux deviendrait sans doute pour certains d’eux une compétence requise au même titre que l’anglais. L’évolution de l’usage de Linkedin et de Twitter en est le parfait exemple. Ce sont aujourd’hui de véritables outils de travail. Lors d’un séminaire un participant me demandait combien de temps je passais par jour sur les réseaux sociaux. A mon sens la question ne se pose pas en ces termes pour quelqu’un dont la fonction n’est pas d’être un community manager. La question est plutôt: « combien de temps je vais gagner en utilisant les réseaux sociaux ? ». La veille est un bon exemple. Une « liste Twitter » contenant quelques comptes presse bien choisis permet en un clin d’œil d’avoir sa revue de presse en temps réel. On peut ainsi créer différentes listes pour faire de la veille concurrentielle, de l’intelligence économique ou s’informer sur n’importe quel sujet.

Penser à gérer son identité numérique avant toute chose. Comme tout outil il faut apprendre à s’en servir et ceci est d’autant plus important qu’avec les réseaux sociaux on touche rapidement à son identité numérique. Il faut être conscient qu’en étant actif sur les réseaux sociaux on fait sciemment ou involontairement du « personal branding ». Nous devenons nous même notre propre produit à marketer. Nous devons gérer notre image et notre e-reputation. Cela mérite de prendre la peine de réfléchir à l’image que l’on veut renvoyer de nous-même. Rien n’est anodin. Les contacts linkedin, ou les abonnements sur Twitter, et les informations que nous « likons » ou que nous « partageons » renseignent sur nos centres d’intérêts et complètent notre profil et notre parcours professionnel. (Lire également Facebook en sait autant sur vous que votre conjoint). Rien d’effrayant à cela, bien au contraire cela doit enrichir notre identité numérique.

Le social selling nécessite de s’approprier les codes des réseaux sociaux. Ce sont toutes ses identités numériques qui se dessinent sur internet qui permettent de réaliser du « Social Selling » c’est-à-dire d’utiliser les réseaux sociaux au cours des étapes d’un processus de vente. On peut ainsi identifier des prospects, prendre contact , mettre en relation, diffuser de l’information choisie, se faire recommander par un tiers, apprendre à connaitre les centres d’intérêt de ses clients. Là encore attention de ne pas bruler les étapes. S’abonner à une personne sur twitter et le harceler pour qu’il vous suive afin de pouvoir lui envoyer une documentation commerciale ou lui proposer un rendez-vous sera souvent contre-productif. Il faut se familiariser avec les codes des réseaux sociaux et se souvenir que les réseaux sociaux reposent sur l’écoute et l’échange.

Certains se contentent d’une simple veille sur les réseaux sociaux par peur d’être « visibles » ou de ne pas savoir quoi dire. Il n’y a pas besoin de parler de soi, on peut partager ce qui nous parait utile et intéressant. Avec plus de confiance on peut y aller de son commentaire. C’est ainsi qu’on augmente sa visibilité de manière constructive tout en devenant plus pertinent grâce à une veille efficace. C’est également un moyen de montrer que la transformation numérique ne vous effraie pas et que vous êtes capable de vous accaparer ces outils pour les intégrer dans votre travail.

Lire également: 10 conseils pour prolonger la vie d’un Tweet.

Les instituts de sondages opèrent leur mutation numérique.

En vue des échéances présidentielles de 2017, l’institut d’études de marché et d’opinions BVA met en place une plateforme digitales en partenariat avec Salesforce, Orange, Presse Régionale et la Fédération Nationale des Travaux Publics. BVA fait ainsi preuve d’innovation et souligne par là même l’importance croissante des réseaux sociaux dans ce qu’ils révèlent des tendances d’opinion. Ces gigantesques sources d’informations participent au big data et doivent être exploitées avec méthode pour en tirer un enseignement de qualité. L’expérience POP 2017 menée par BVA est à ce titre intéressante.

bva-pop-2017

Les citoyens acteurs du débat public grâce au web et aux réseaux sociaux. La campagne présidentielle américaine a apporté son lot de surprises et de rebondissements écornant au passage la qualité du débat démocratique.  Elle nous éclaire sur le risque de décalage qui peut exister entre une classe politique et l’opinion publique. Les citoyens sont de plus en plus nombreux à vouloir agir sur le débat public. Ils s’expriment sur les réseaux sociaux et signent des pétitions en ligne. Ce sont autant de signaux envoyés instantanément à nos politiques qui doivent apprendre  à les décoder et à les analyser pour comprendre et répondre aux attentes de leurs concitoyens. Jusqu’à aujourd’hui nos politiques s’appuyaient sur des enquêtes d’opinion traditionnelles mais le métier des études d’opinion se réinvente à l’aune de la transformation numérique de notre société.

Mesurer en temps réel l’impact de l’actualité sur l’opinion. L’institut de sondage BVA a profité de l’échéance électorale française de 2017 pour innover en matière d’étude de l’opinion.  En lançant la « Plateforme des Opinions Publiques » POP 2017, BVA propose de dresser un panorama à 360° des opinions des Français et de saisir en temps réel l’influence de l’actualité sur les mouvements d’opinion. Un exercice délicat qui requiert des outils et du métier car toute actualité, même brûlante, ne modifie pas forcément les intentions de vote. De la même manière, constater qu’une personnalité ou un sujet provoque des réactions  sur internet ne suffit pas. Il faut pouvoir identifier la cause de ces réactions en décelant, dès leur apparition, les signaux faibles qui peuvent en être à l’origine.  Ces signaux faibles sont des actualités qui passent souvent inaperçues alors qu’elles peuvent générer dans le temps des changements d’opinions. Pour identifier ces signaux faibles les réseaux sont une source incomparable.

POP 2017 : un laboratoire d’analyse des opinions politiques.   Pour réussir à mesurer l’impact de l’actualité et la cristallisation des intentions de vote autour de quelques thématiques, POP 2017, réalisé en partenariat avec Salesforce, la Presse Régionale, Orange et la Fédération Nationale des Travaux Publics, s’articule autour de trois volets :

  • L’écoute du Web et des réseaux sociaux: L’outil Social Studio de Salesforce recherche en permanence des mentions sur 18 personnalités politiques et 30 thématiques. Il analyse  plus d’un milliard de sources sur le web.
  • Une communauté de citoyens en ligne : En commentant et en réagissant à des sujets d’actualité, cette communauté aide à comprendre comment se forment et se structurent les opinions.
  • Des sondages: Plus de 30 sondages par mois sont réalisés auprès d’un échantillon représentatif de la population française pour mesurer l’impact des opinions sur les intentions de vote.

POP 2017 fournit l’ensemble de ces données en temps réel sur le site www.pop2017.fr

Une expérience dont les politiques devraient s’inspirer. Loin de tout abandonner au profit des seuls réseaux sociaux, l’originalité de POP 2017 repose sur le mix de ces 3 sources complémentaires d’analyse.  BVA dispose ainsi d’une vue d’ensemble sur les mouvements d’opinions qui tient compte de temporalités différentes. Si cette expérience contribue à faire évoluer le métier des sondeurs d’opinion, elle devrait inspirer également les politiques. L’expérience menée par POP 2017 démontre que réagir à une actualité ponctuelle, même importante, peut conduire à occulter les véritables attentes des Français. Le prisme de la surmédiatisation explique souvent le décalage ressenti entre l’opinion et la classe politique. Interpréter les signaux forts et les signaux faibles demande des outils et du doigté.

Ce laboratoire d’opinions est utilisé dans un contexte de campagne présidentielle mais son champ d’application peut s’étendre bien au-delà. Toutes les entreprises font appel à des études pour connaitre et comprendre leur marché, leurs clients et leurs utilisateurs afin d’améliorer leurs offres, leurs services et la relation client. L’exploitation des réseaux sociaux leur offre une source complémentaire d’informations à condition de savoir l’exploiter avec méthode.

 

 

 

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.

Le PDG d’IBM France explique la stratégie d’IBM avant Business Connect

La succession de nouvelles technologiques qui a pavé l’ère du numérique ouvre  la voie à d’innombrables possibilités d’innovation. Si la transformation de l’entreprise repose sur l’adoption de ces technologies, la réussite est affaire de méthodes et de rapidité. « Il est plus important d’aller vite que de rechercher la perfection ». La recherche de la perfection est désormais un processus itératif qui fait partie intégrante des méthodes de développement comme DevOps. L’enjeu porte sur la réorganisation des entreprises et pour accompagner ses clients IBM exécute une stratégie autour de la technologie et de l’industrialisation. Avant l’évènement Business Connect du 18 octobre 2016 Nicolas Sekkaki PDG d’IBM France nous fait partager sa vision.

ibm-n-sekkaki

Le cloud et le cognitif piliers de la transformation numérique. Le cloud et le cognitif ne sont pas les seules technologies sur lesquelles travaille IBM mais ce sont sans doute celles qui constituent un socle essentiel pour  que d’autres technologies comme les objets connectées (IoT) ou la blockchain puissent exploiter pleinement leur potentiel. Le cloud d’ IBM dispose de moyens importants. L’offre d’infrastructures as a services Softlayer repose sur  46 centres dans le monde, dont un en France, et garantit ainsi la disponibilité et la performance quoi qu’il arrive. Avec Bluemix , c’est une plateforme d’innovation dans le cloud qu’IBM propose. C’est un moyen de démocratiser l’accès à des technologies complexes. On y trouve de nombreux modules à destination des développeurs d’applications (lire également Rencontre avec Anthony Cirot Directeur Cloud chez IBM France).  Il existe par exemple 32 modules rien que pour Watson, l’offre d’intelligence artificielle d’IBM. Watson est visiblement la technologie de l’avenir pour IBM qui n’a aucune envie de céder la place aux géants du web, eux aussi très actifs sur le sujet. Maitrisant le traitement de langage naturel et l’apprentissage automatique Watson concerne tous les secteurs d’activité mais son champ d’application ne s’arrête pas là. Aux Assises de la sécurité, Nicolas Sekkaki présentait  Watson dans un contexte de cybersécurité.  Le cognitif permet aux mécanismes de défense  d’évoluer grâce un système capable de comprendre et d’apprendre.En ce qui concerne les objets connectés (IoT) IBM continue à avancer ses pions. Ce mois-ci  IBM a annoncé un investissement de 200 millions de dollars, qui font partie d’une enveloppe globale de  3 milliards d’investissement décidé en mars 2015. Dans son siège mondial IoT à Munich, des laboratoires « cognitive IoT collaboratories » vont être créés pour développer des applications conjointement avec les clients. Une manière de démontrer qu’IBM place la technologie au centre de l’expérience client.

L’innovation doit être suivie par l’industrialisation. A l’évidence IBM ne veut pas se contenter d’être un fournisseur technologique. Pour partager son expérience et apporter son aide méthodologie à ses clients IBM a structuré son approche en 4 points

  1. Design thinking. Il s’agit là de se mettre à la place de l’utilisateur pour traduire un parcours client en informatique. Nicolas Sekkaki mentionne l’exemple d’Airbus. En se ibm-design-thinkingmettant à la place du chef d’escale IBM a permis d’aider Airbus à définir des offres de maintenances appropriées, de réaliser une maquette en 10 jours et de fournir une application 2 mois plus trard.
  2. Factories. A Lille IBM France dispose d’une « Factory » de 600 personnes travaillant avec des méthodes agiles et DevOps. Divisée en une factory de développement et une factory de production ce centre permet de livrer une première maquette 10 jours après l’expression des besoins par un client.
  3. Plateformes. Les entreprises doivent exploiter leur legacy (applications et systèmes existants) qui sont un réel patrimoine à condition de les ouvrir et de les sécuriser. Dans le même temps les nouvelles plateformes doivent permettre aux plus grand nombre d’introduire de l’innovation à un coût marginal en utilisant par exemple les possibilités du cloud. Ces plateformes utiliseront de plus en plus de données non structurées créées hors de l’entreprises comme par exemple avec les réseaux sociaux.
  4. Le capital  humain. De plus en plus d’entreprises travaillent avec des startups, elles leur apportent leur créativité et leur agilité. Ce mélange de compétences et de profil est enrichissant mais encore faut-il ensuite être capable de déployer dans une entreprise une solution développée par une startup. On doit définir une trajectoire entre le concept et la déclinaison concrète dans l’entreprise en en mesurant les impacts.

IBM continue à vouloir participer à la transformation de notre monde moderne de manière très concrète. C’est particulièrement le cas dans le domaine médical  avec Watson Oncology qui assiste les cancérologues dans leurs diagnostics grâce à l’apprentissage des données des patients.

La voiture connectée conduit inéluctablement au véhicule autonome

Le secteur automobile est en train de subir une complète révolution. Le partenariat sur la voiture connectée signé entre Renault -Nissan et Microsoft le 26 septembre 2016 est symptomatique de ce qui est en train de se passer. Comme beaucoup d’autres , l’industrie automobile subit l’effet du numérique et voit de nouveaux entrants investir son secteur. La voiture connectée est une étape de transformation du marché de l’ automobile qui conduit inéluctablement au véhicule autonome en bouleversant au passage l’ordre établi.

vehicules-autonomes-etapes-1

Le nombre de voitures connectées multiplié par 5 d’ici 2020. La première étape de la transformation de l’industrie automobile se joue avec la voiture connectée. Dans un rapport publié le 29 septembre 2016 Gartner estime que le marché des voitures connectées sera multiplié par 5 d’ici 2020 évoluant de 12,4 millions de véhicules en 2016 à 61 millions en 2020. coonected-car-gartnerAvec la voiture connectée c’est un nouveau modèle économique qui se met en place. Au-delà du suivi du fonctionnement du véhicule et de la maintenance préventive, voire prédictive, ce qui se profile ce sont des offres de services de plus en plus riches basées sur les possibilités offertes par le numérique. Tesla a montré l’exemple avec un  logiciel de bord mis à jour automatiquement. Sur ce principe, de nouvelles fonctionnalités peuvent être offertes gracieusement ou sous forme de licences payantes par simple modification en ligne du logiciel. Renault-Nissan espère d’ailleurs, grâce au partenariat avec Microsoft, être capable d’offrir une voiture qui pourra être une annexe connectée du bureau. Mais au-delà du véhicule connecté c’est tout un écosystème qui va devoir être repensé. La voiture connectée communique en mode bidirectionnelle.  La multiplication de capteurs de tous types lui permet de communiquer avec son environnement à condition que lui aussi soit capable de communiquer. L’intelligence du véhicule sera dopée à la data. Les routes et les villes vont devenir intelligentes et ainsi renforcer les capacités des véhicules connectés. Cela prendra certes du temps, il est plus facile de changer de voiture que de transformer des routes et des villes, mais la transformation est en marche.

En 2035 la moitié des revenus liés aux voitures autonomes proviendra des logiciels et services. Tout naturellement le véhicule connecté nous amène au véhicule autonome. Les capteurs et l’intelligence artificielle font de tels progrès que la route est grande ouverte pour les voitures sans chauffeur même si cela se fera par étape progressive. Les logiciels d’auto apprentissage (machine learning et deep learning) donneront la capacité aux véhicules connectés d’apprendre en communiquant avec d’autres véhicules ou avec l’environnement. De ce fait elles gagneront progressivement en autonomie.  AT Kearney a publié une étude intéressante l’année dernière qui explique bien les étapes de cette transformation et se projette en 2035 pour arriver à une conduite autonome avec des infrastructures routières intégrées mondialement. Le cabinet insiste sur la nécessaire pédagogie pour que les conducteurs acceptent de déléguer à une intelligence artificielle la responsabilité de la conduite.  En 2035 le marché des véhicules autonomes est estimé à 500 milliards d’euros par AT Kearney, soit 17 % du marché automobile. Ce qui est révélateur c’est que la moitié de ce marché proviendra des applications, des services et des systèmes de sécurité. C’est  là où justement la valeur est la plus forte et les constructeurs automobiles auront fort à faire pour tirer leur épingle du jeu face aux géants du numérique.

La sécurité sera une préoccupation grandissante. Au fur et à mesure que les véhicules gagneront en autonomie nous devrons pouvoir leur faire une totale confiance en leur confiant notre vie. Fiabilité des logiciels embarqués, qualité des codes et des algorithmes et pertinence des systèmes d’intelligence artificielle seront incontournables pour assurer le succès de ces nouveaux véhicules mais ils devront faire face également aux menaces de cybercriminalité. Les récentes attaques utilisant des objets connectés (voir mon billet précédent) ont encore démontré à quel point la vulnérabilité de systèmes connectés doit être prise au sérieux. Dans son un article intitulé « Voiture connectée : voici les hacks les plus fous des dernières années » le journal 01net nous rappelle quelques piratages de voitures connectée qui vont du déverrouillage à la prise de contrôle.

Le défi est lancé à l’industrie automobile comme à tous les autres secteurs. Il faut innover dans l’innovation, le numérique a cassé les barrières entre l’industrie. L’innovation est cross domaines à présent. Elle oblige à sortir de son domaine de compétence et d’excellence pour explorer des domaines totalement nouveaux. Elle ne s’arrête surtout pas à un domaine purement technique, l’innovation doit emprunter à d’autres disciplines, anticiper les usages et imaginer d’autres  modèles économiques.

#IoT: Les objets connectés détournés par les cybercriminels

Les objets connectés sont porteurs de belles promesses pour améliorer notre monde moderne (Les objets connectés sont l’avenir du 21 ème siècle). Ces promesses sont réalistes mais dans l’euphorie qui entoure les innovations portées par les objets connectés il faudrait voir à ne pas oublier les questions essentielles de sécurité. La récente attaque DDoS (déni de service) subie par l’hébergeur OVH nous alerte sur la sécurité des objets connectés.

cyber-iot

Les objets connectés utilisés comme arme par les cybercriminels. Le 20 septembre le journaliste Brian Krebbs a brusquement pris conscience du rôle que les objets connectés pouvaient jouer dans une attaque DDoS (Distributed Denial of Service ) contre son site hébergé chez un fournisseur externe. C’était ensuite au tour de l’hébergeur OVH de subir le même type d’attaque d’une ampleur sans précédent. Pour faire simple, les pirates utilisent des objets connectés infectés formant un « botnet » ( un réseau de machines utilisées à des fins malveillantes à l’insu de leurs propriétaires) pour créer une surcharge d’activité telle que le site ne réussit à la supporter et se bloque. Ce type d’attaque n’est pas nouveau en soit mais jusqu’à maintenant on infectait des serveurs en nombre pour provoquer cet afflux d’accès sur le site ciblé. Ce qui est nouveau aujourd’hui c’est l’utilisation ddos-ovhd’objets connectés pour le faire. Dans le cas d’OVH ce sont des caméras de vidéosurveillance qui ont été impliquées. D’autres attaques ont montré la vulnérabilité potentielle de véhicules connectés dont on pourrait prendre le contrôle à distance. Quand on sait que déjà dans le domaine industriel une multitude de capteurs sont utilisés pour contrôler et mesurer les équipements on a besoin d’être rassuré. Et ce ne sont pas les nouvelles séries américaines comme « CSI : Cyber » ou « Mr Robot » qui vont nous aider à mieux dormir.

Dès qu’un objet est connecté à Internet on doit s’inquiéter de la sécurité. Dans un billet daté du 23 septembre, quasiment simultanément avec l’attaque du site du journaliste, le spécialiste de la sécurité Symantec alertait sur les risques liés aux objets connectés. Ce n’est pas réellement le propriétaire de l’objet qui est visé, mais l’objet est utilisé à des fins d’attaques cybercriminelles. A partir du moment ou un équipement est connecté à Internet, la question de la sécurité se pose, quel que soit sa taille et son usage personnel ou professionnel. Les risques sont multiples. On pense bien sûr aux vols de données collectées, à la prise de contrôle de l’objet lui-même (camera, voiture connectée ..) mais également à la diffusion de logiciels malveillants en servant d’un objet connecté comme point d’entrée et aux attaques massives de type DDoS pour créer via de multiples objets infectés une activité massive sur un site qui va exploser sous a charge.

Les objets connectés doivent être « secured by design ». Notre société est tellement dépendante d’internet que la cyber sécurité est un sujet qui préoccupe, ou qui devrait préoccuper, toutes les entreprises. Ce domaine évolue constamment pour s’adapter aux cybercriminels. On cloisonne les environnements avec de la micro segmentation pour éviter que les logiciels malveillants puissent se propager et l’intelligence artificielle commence à entrer en jeu pour déceler les comportements suspects. Toutes les mesures que les entreprises prennent pour une meilleure protection vont dans le bon sens mais cela ne doit pas masquer la racine du problème lié aux objets connectés : leur faible niveau de sécurité. Les explications ne doivent pas servir d’excuses pour agir. Beaucoup d’objets connectés sont dotés d’operating systems et de processeurs aux capacités limités qui ne permettent pas d’intégrer des fonctions de sécurité très sophistiquées. Bien souvent il n’existe pas de mise à jour des microcodes ou bien les propriétaires des objets ne les activent pas. C’est ainsi qu’on se retrouve avec des objets infectés sans que personne ne s’en rende compte.

La sécurité des objets connectés doit être envisagée dès la conception, le manque de standard et l’écosystème important qui rentre en jeu ne facilitent certes pas la tâche mais raison de plus de s’y atteler sans tarder pour ne pas faire capoter cette nouvelle révolution industrielle qu’on annonce avec les objets connectés.