Le commerce sans caisse ne sera pas l’exclusivité d’Amazon Go

Du 19 au 21 septembre, Paris va accueillir une nouvelle fois la « Retail week ». Une belle occasion de prendre la mesure de la rapidité d’adoption des technologies digitales. C’est également un beau terrain d’observation pour les autres industries qui peuvent s’en inspirer pour adapter certains usages à leur propre métier. Les technologies à la base des innovations sont bien souvent les mêmes.

Les GAFA mènent la danse à l’image d’Amazon. Celui-ci est passé maitre dans la maitrise du Machine Learning (système auto apprenant) pour optimiser ses recommandations d’achat qui interviennent pour plus de 30% de son chiffre d’affaire. Cette maitrise de l’intelligence artificielle Amazon en a fait une autre démonstration il y a quelques mois avec le lancement d’Amazon Go. Un magasin physique dans lequel le passage aux caisses a été supprimé grâce à une solution à base de deep learning. Une telle prouesse technique est-elle à la portée d’autres acteurs du retail qui ne disposent pas des moyens informatiques d’un GAFA et d’importantes équipes de datascientistes ?  Il semblerait que oui à en juger par l’annonce faite le 21 aout 2017 par Standard Gognition qui a lancé sa propre solution se présentant comme une alternative à Amazon Go.

Magasin sans caisse : L’expérience consommateur simple et personnalisée. Dans une étude OpinionWay pour l’observatoire Havas Paris/ Paris Retail week réalisée en juillet 2017 il apparait que 74% des français supportent de moins en moins de faire la queue dans les magasins. (cliquer sur l’illustration pour voir la totalité de l’infographie). Voilà qui devrait les satisfaire. Le consommateur a juste besoin de télécharger l’application de Standard Cognition pour qu’il soit connu et identifiable par le magasin. Le magasin sait ainsi qui sont les consommateurs présents, à quels endroits ils se trouvent et ce qu’ils achètent.Le tout en temps réel. Le consommateur ne change pas ses habitudes, il circule dans les allées et met dans son panier les produits qu’il a choisi.  Les produits placés dans le panier sont automatiquement et instantanément détectés. A la fin des achats, pas de fil d’attente, les produits contenus dans le panier sont automatiquement facturés au consommateur à la sortie du magasin. La solution a prévu une option « guest » permettant à quelqu’un qui n’aurait pas l’application de fréquenter quand même le magasin. A la fin de ses achats le « guest » est dirigé vers un kiosque, les produits dans le panier sont détectés et le consommateur n’a plus qu’a valider le paiement par carte de crédit.

La technologie digitale en action. Un réseau de caméras, associé à des équipements de « Computer vision », suit le consommateur dans le magasin en temps réel et analyse le moindre de ses mouvements. L’identification des produits manipulés par le consommateur se fait grâce à l’utilisation d’un système de deep learning (apprentissage profond). Au préalable chaque produit a été présenté au système sous toutes ses facettes pour qu’il puisse ensuite le reconnaitre sans erreur. La vidéo de démonstration de Standard Cognition donne une idée précise du fonctionnement de ce type de système.

Avec ce type de système c’est peut-être aussi la fin des vols ? En effet qu’un produit soit dans le panier ou dans la poche d’une personne, le système le détecte de la même façon et  facture.

De la recommandation à la gestion des stocks. Aujourd’hui quasiment tous les consommateurs font leur course avec leur smartphone en poche. Dès lors qu’ils ont téléchargé l’application idoine on peut les géolocaliser via le wifi ou des balises beacon et leur envoyer des messages promotionnels en fonction du rayon devant lequel ils se trouvent. Quand on connait le contenu du panier physisque on dispose de nouvelles informations supplémentaires. On pourrait donc faire des recommandations produits de la même manière que les sites de e-commerce qui se basent sur le remplissage du panier « virtuel ». On peut imaginer exploiter ces même informations en les agrégeant pour assurer le suivi de l’approvisionnement des rayons. Pour aller plus loin dans la gestion des stocks on pourra rajouter des solutions d’analyse prédictive, telles que celle proposée par la PME lilloise Vekia qui utilise également le machine learning pour optimiser la gestion de stock et réduire ainsi les couts.

La transformation digitale du retail ne s’arrête pas aux exemples que je viens de donner et bien d’autres seront exposés lors du Paris Retail Week 2017. A chacun de juger si les innovations seront durables dans le temps et à quel moment il faudra les adopter pour garder un avantage compétitif.

A lire également le billet de Paul d’Alena « Retail : une industrie hyperconnectée »

 

Amazon voit son avenir avec de l’intelligence artificielle

L’intelligence artificielle suscite de nombreux débats. Elle est déjà largement utilisée et les GAFA comptent dessus pour améliorer l’expérience client et offrir de nouveaux services tout particulièrement avec la montée en puissance des objets connectés. L’exemple d’Amazon illustre parfaitement l’enjeu lié à la maitrise de l’intelligence artificielle pour s’imposer dans une économie façonnée par le numérique.

alexa-blog

Le machine learning au cœur des moteurs de recommandations . Depuis sa création en 1994 Amazon a su tirer parti du développement d’Internet dans les années 2000 pour développer un modèle particulièrement performant de commerce en ligne.  Régulièrement Amazon adopte de nouvelles technologies pour améliorer l’expérience client et approfondir sa connaissance du client. Son moteur de recommandation génère de 30 à 40 % de son chiffre d’affaire en e-commerce. Pour obtenir un tel résultat Amazon fait appel à des technologies de Machine Learning (des systèmes qui apprennent par eux mêmes avec l’expérience) qui lui permettent, grâce à une personnalisation poussée des recommandations, d’augmenter la valeur et de réduire les coûts. Pour continuer à perfectionner son moteur de recommandation et les techniques de reconnaissance du langage, Amazon mise sur la collaboration des développeurs de l’open source. Il a donc mis son logiciel de machine Learning DSSTNE (Deep Scalable Sparse Tensor Network Engine) en open source disponible sur GitHub sous license open source Apache 2.0 . Ces technologies de Machine Learning sont complexes et requièrent généralement des compétences spécialisées et des architectures informatiques puissantes. Pourtant, quelque soit la taille de leurs entreprises, les développeurs peuvent accéder aux mêmes technologies de machine learning que celles utilisées par les spécialistes de la donnée d’Amazon. Le « Service Amazon Machine Learning » est accessible dans le cloud AWS (Amazon Web Service) qui simplifie l’usage de ces technologies et les rend accessibles à des développeurs sans qu’ils aient besoin de maitriser des algorithmes complexes.

L’achat en magasin fluidifié par le deep learning. Après le e-commerce, Amazon veut s’imposer également sur le marché des magasins physiques ou les acteurs sont nombreux et bien installés. Une stratégie qui confirme que le magasin physique est loin d’être mort, une étude récente indique même que 98% de la génération Z font leur course en magasin . Pour réussir son pari Amazon mise la encore sur l’emploi des nouvelles technologies pour révolutionner les magasins de la grande distribution alimentaire. Amazon Go propose une nouvelle approche de l’achat en magasin qui supprime  le paiement sur place, et par conséquent les files d’attentes lors du passage en caisse, grâce à la mise en œuvre de capteurs, de système de reconnaissance d’images et bien sûr d’une bonne dose d’intelligence artificielle avec du deep Learning (une variante plus poussée du machine Learning). Par la même occasion Amazon continue d’engranger un grand nombre d’informations sur les habitudes d’achat des consommateurs qui viendront alimenter son moteur de recommandation. Un cercle vertueux ou expérience utilisateur et connaissance client vont de pair.

Piloter les objets connectés et les applications par commande vocale. Amazon a vite compris que les objets connectés représenteraient à l’avenir un enjeu considérable. On retrouve là encore l’utilisation de l’intelligence artificielle avec le lancement en 2014 d’Alexa un assistant personnel intelligent répondant à des commandes vocales via l’enceinte Echo. Plutôt que de proposer une solution fermée, Amazon a préféré jouer l’ouverture en permettant d’accéder gratuitement à « Alexa Voice services ». Une manière d’accélérer l’adoption et la diffusion de sa technologie. De nombreux constructeurs souhaitant créer une interaction vocale entre leurs équipements et les utilisateurs peuvent ainsi tirer facilement parti de la technologie d’Alexa. Amazon a marqué les esprits avec Alexa lors du CES 2017. Alexa pourrait nous faire oublier l’existence même des applications et abandonner nos multiples télécommandes qu’on finit par égarer. Tout piloter par simple instruction vocale, voici la promesse alléchante d’Amazon. ia-et-iotAccenture affirme d’ailleurs dans une étude que l’intelligence artificielle sera le nouvel interface utilisateur. La technologie Alexa est déjà présente dans un réfrigérateur LG, des aspirateurs Neato, une machine à laver Whirlpool ou bien encore dans un smartphone Huawei. L’adoption d’Alexa par Huawei dont les smartphones fonctionnent sous Android démontre la volonté d’Amazon de s’ouvrir à un maximum d’utilisateurs en concurrençant directement Apple avec Siri. Un univers connecté commence à se profiler, les objets de nos domiciles ne sont pas la seule cible d’Alexa, nos voitures pourront elles aussi embarquer cette technologie pour dialoguer avec un habitat intelligent. Ford et Volkswagen travaillent déjà avec Amazon. Assis confortablement à bord de son véhicule on pourra, sans lâcher son volant, tout aussi bien rechercher des informations sur Internet que piloter les objets connectés de son domicile ou la porte de son garage.

La commande vocale et la reconnaissance du langage naturel seront certainement les grands enjeux des objets connectés. Amazon n’est pas le seul à s’intéresser à ce sujet, Google 5google Now), Apple (Siri) et Microsoft (Cortana) travaillent également d’arrache pied à coup de développement et d’acquisition.

Lire également :

 

 

 

 

 

Avec l’intelligence artificielle l’homme se lance un défi à lui même

L’affrontement entre AlphaGo et le champion mondial du jeu de go a mis en lumière les technologies d’intelligence artificielle et tout particulièrement le Deep Learning. La victoire de la machine sur l’homme semble étonner. Pourtant il y a longtemps que l’homme construit des machines qui lui servent à décupler ses capacités physiques et intellectuelles et personne ne s’étonne qu’on ne puisse pas courir plus vite qu’une voiture ou calculer plus vite qu’une calculatrice.

IA le match

L’intelligence artificielle est déjà partout. La médiatisation du deep learning autour de cette compétition de jeu de go ne doit pas nous faire oublier que ces systèmes d’auto apprentissage (machine learning), dont le deep learning est un des aspects les plus poussés, sont déjà très présents dans notre quotidien. Ces derniers temps on a eu tendance à se focaliser sur les robots intelligents qui permettent de matérialiser plus facilement nos craintes et qui nous rappellent bon nombre de films qui en leur temps n’étaient encore que de la science-fiction. Le summum de ces robots prend une forme humaine et apprend à imiter les sentiments jusqu’à donner l’impression de ressentir de l’empathie. Mais il ne faudrait pas que le côté anthropomorphique nous fasse oublier que l’intelligence artificielle s’est déjà installée dans notre vie.

L’intelligence artificielle est avant tout du code informatique et des algorithmes. Ils sont d’autant plus efficaces qu’ils peuvent se nourrir de quantité de données importantes et apprendre par eux même. Cédric Villani, lauréat de la Médaille Fields et brillant mathématicien français, pense d’ailleurs que pour encore longtemps plus il y aura d’intelligence artificielle et plus il y aura besoin de mathématiciens car dans un contexte d’intelligence artificielle les données doivent être modélisées pour être exploitées. L’intelligence artificielle n’est pas nouvelle en soi et le film « Imitation Game » nous a rappelé que dans les années 40 Alan Turing s’y intéressait déjà. Il pensait qu’avec les évolutions technologiques la machine serait un jour capable d’imiter l’intelligence humaine. Les progrès accomplis par les ordinateurs et le stockage ont permis de rendre possible techniquement et financièrement des calculs qui auraient été inenvisageables auparavant. Mais ce n’est qu’au début des années 2010 que le machine learning avec sa capacité d’apprendre par lui même est rentré dans une phase quasi industrielle quand les Géants du numérique s’en sont réellement emparés.

L’intelligence artificielle pour reconstruire la relation client. Concrètement aujourd’hui nous activons des fonctions de machine learning dès que nous effectuons une recherche sur Google ou que nous ouvrons une page Facebook ou Linkedin. Ces réseaux sociaux utilisent généralement le machine learning pour nous proposer le contenu le plus adapté à notre profile et à nos goûts. Chaque fois notre environnement est personnalisé dans son apparence, dans ses suggestions et dans les bannières qui apparaissent sur notre écran. Ces systèmes apprennent de nos comportements  (nos recherches, nos partages, nos likes, nos achats etc..) et agissent en conséquence. L’informatisation a quelque peu déshumanisé les relations entre l’entreprise et le consommateur. On voit bien qu’on cherche aujourd’hui à compenser ce phénomène par un service hyper personnalisé grâce à des moteurs de recommandations basés sur du machine learning. Le but : recréer une nouvelle forme de relation client ou le manque de relation humaine est censé être compensé par un service plus rapide et plus adapté à l’attente du client. Cela commence par des lettres d’information, des bannières, des sites web, des offres promotionnelles personnalisés mais ce ne sont que les premières étapes. Le spécialiste du e-commerce Amazon devrait 30% de ses ventes à l’efficacité de ses algorithmes de recommandations.

Une expérience utilisateur en langage naturel. L’enjeu est bien de créer les conditions d’une conversation écrite ou verbale la plus naturelle possible. Les technologies NLP (Natural Processing Language) ont de beaux jours devant elles.  La reconnaissance de texte, de la voix, de l’image et de la vidéo va prendre de plus en plus d’importance pour rendre l’interaction avec l’utilisateur , et donc l’expérience utilisateur, les plus parfaites possibles. Dans ces domaines de la reconnaissance le machine learning est incontournable pour atteindre de bons résultats. Les « assistants personnels » et les « conciergeries virtuelles » préfigurent cette nouvelle phase. Tous les acteurs du numérique s’y mettent et procèdent à des acquisitions pour bruler les étapes. En octobre 2015 Apple rachète les sociétés VocalIQ  et Perceptio tous deux spécialistes du machine learning. Le premier dans la reconnaissance vocale, le deuxième dans la reconnaissance de photos. En 2014 Google rachète DeepMind qui comme on le sait a mis au point Alphago. Facebook a créé son centre de recherche d’intelligence artificielle FAIR (Facebook Artificial Intelligence Research) avec un centre à Paris annoncé en juin 2015. Quant au géant chinois Baidu il a également son Institut de Deep Learning.

La course aux « assistants personnels numériques ». Chacun le sien. Google avec Google Now, Microsfot avec Cortana, Apple avec Siri, Amazon avec Alexa et Echo et Facebook avec M. Certains sont plus « intelligents » que d’autres mais tous sont appelés à évoluer et à s’améliorer grâce à l’intelligence artificielle . Le leader chinois du search Baidu voudrait faire du téléphone mobile, avec l’aide du deep learning, un véritable assistant personnel qui comprend l’utilisateur et lui fournit des informations utiles et pertinentes. Il faut dire qu’avec l’explosion du téléphone mobile, le deep learning devient particulièrement intéressant pour traiter les photos. Chacune contient des données pertinentes. En décryptant les images on comprend mieux les centres d’intérêts des utilisateurs. Au-delà des « assistants numériques » se profilent toute une kyrielle possible de conseillers virtuels dans tous les secteurs. Dans l‘hôtellerie IBM collabore avec la chaine d’hôtels Hilton pour tester un concierge robot utilisant la technologie watson pour assister le personnel de l’hôtel. Certaines banques commencent à utiliser des robots logiciels (robo-advisors) comme conseillers financiers. Ces conseillers virtuels analysent le profil de l’investisseur et lui propose D es produits financiers correspondant à ses objectifs. On peut s’attendre au développement de ses conseillers virtuels (financiers, juridiques, médicaux)  qui prendront peu à peu de l’autonomie et acquerront l’usage de la parole. Facebook devrait également officialiser en avril son « Bots Store ». Une offre qui donnera la possibilité aux utilisateurs de Messenger de chatter avec des robots logiciels (bots)  conçus par des marques ou des services.

Le Machine Learning se démocratise. N’est pas Google qui veut. Est-ce pour autant que l’intelligence artificielle est réservée aux entreprises avec de gros moyens et de nombreux experts du domaine ? Pas vraiment à en croire les nombreuses offres de machine learning (Amazon Web Services,  Microsoft Azure, SalesForce , IBM et de nombreuses startup..) qui s’appuient sur le cloud pour adresser les entreprises de toutes tailles. HPE s’y est mis à son tour en annonçant le 11 mars  Haven On Demand pour fournir de l’apprentissage machine sous forme de service dans le cloud Microsoft Azure. Tout dernièrement Mastercard a intégré la technologie Watson d’IBM pour offrir des services d’intelligence artificielle aux petits commerçants.

Du téléphone mobile aux voitures autonomes. Avec les objets intelligents, les véhicules intelligents et les villes intelligents nous pouvons nous projeter dans  un monde futur ou nous nous adresserons à notre environnement par la voix voire par la pensée. De la science-fiction sans doute pas car des expériences ont déjà démontré que l’on pouvait commander des chaines de télévision par les ondes du cerveau. Beaucoup de recherche reste encore à faire mais les progrès sont rapides comme dans le cas des voitures autonomes par exemple. Un des problèmes à résoudre concerne la sécurité des piétons. Pour éviter les piétons il faut identifier rapidement l’obstacle et agir tout aussi rapidement. Des systèmes de détection de piétons à base de vidéo sont en cours d’expérimentation et les progrès sont rapides.  Il faut réussir à exécuter toutes les opérations rapidement. En 2015 Google expérimentait des systèmes de computer vision et de deep learning et avait réussi à identifier un piéton en 0,25 sec . Pour que le système soit utilisable dans la vie réelle il faut que la detection s’effectue en 0,07 sec.

La compétition se déplace sur le terrain de l’intelligence artificielle et de la réalité virtuelle. Quasiment tous les secteurs qui s’intéressent aux big data sont concernés par le machines Learning  que ce soit pour l’analyse de sentiments (e-réputation), la détection de fraude, la maintenance préventive, l’analyse de risques bancaires, la reconnaissance du langage, d’image ou de vidéo et bien d’autres encore.  La beauté des innovations technologiques c’est qu’elles s’associent pour créer de nouvelles expériences utilisateurs. L’autre sujet du moment concerne la réalité virtuelle et curieusement des sociétés comme Facebook  qui s’intéressent à l’intelligence artificielle s’intéressent également à la réalité virtuelle. L’avenir nous réserve encore bien des surprises. Par le biais  de l’intelligence artificielle l’homme se lance un défi à lui même.

Pour ceux qui veulent approfondir le fonctionnement d’Alphago de DeepMind je vous conseille la lecture du billet : Google DeepMind’s AlphaGo: How it works

Les algorithmes ont pris le contrôle de l’économie

Les données des entreprises se transforment en produits et services grâce aux algorithmes. Le développement et la maitrise de ces algorithmes vont devenir un enjeu économique majeur pour les entreprises qui veulent rentrer dans l’ère du numérique à l’exemple des GAFA qui accélèrent dans le domaine du machine learning par coup d’acquisition de start up.

algorithme

Comme le pétrole, la donnée doit être transformée pour rencontrer les usages. En 2010, le journal The Economist nous alertait sur le « Data Deluge » et mettait ainsi un coup de projecteur médiatique sur le Big Data. Une analogie bien choisie à l’époque montrant que la donnée était une ressource au même titre que l’eau. Pour la canaliser et la stocker dans un « lac de données » il fallait revoir les infrastructures informatiques. On a vu ainsi arriver les systèmes Hadoop et les bases de données No SQL .

Plus récemment l’analogie s’est portée sur l’or noir, une manière de signifier que les données étaient une ressource essentielle de la nouvelle économie. En comparant la donnée à l’or noir nous évoluons vers une étape très révélatrice. Nous quittons la phase du déluge, qui menaçait nos infrastructures, pour entrer dans la phase de transformation nécessaire à la création de valeur au travers de nouveaux produits et de nouveaux services. On a pris conscience que si la donnée constituait un capital pour les entreprises, sa valeur ne pouvait être révélée qu’après des étapes de transformation qui, pour une grande part, vont être réalisées par les fameux « algorithmes ».

L’économie devient algorithmique. Le directeur de recherche de Gartner, Peter Sondergaard,  n’hésite pas à parler «  d’une économie algorithmique qui permettra le prochain grand bond de l’évolution du machine to machine dans l’internet des objets » (lire l’article) . On peut aujourd’hui difficilement dissocier big data et intelligence artificielle. Les usages du Big data mettent en œuvre des systèmes de Machine Learning et de deep Learning manipulant des algorithmes de plus en plus complexes.

Rappelons que dans le Machine learning, le système apprend par lui-même (auto apprentissage) et permet ainsi de résoudre des problèmes ou il est impossible de prévoir tous les cas de figures à priori. Le deep learning est quant à lui une forme du machine learning plus complexe qui essaye de se comporter comme le cerveau humain avec un système de type neuronale.

Les GAFA s’agitent autour des startups de machine Learning. Les GAFA (Google, Apple, Facebook, Amazon) ont compris depuis longtemps que leur activité et leur succès dépendaient de leur capacité à traiter ces énormes quantités de données avec ces technologies de Machine learning et de deep learning.

Début octobre Apple a racheté la société « VocalIQ » , un spécialiste du machine learning pour la reconnaissance vocale. Cette acquisition permettra d’améliorer le fonctionnement de l’outil Siri pour le rendre encore plus « intelligent ». Quelques jours plus tard Apple jetait son dévolu sur la startup « Perceptio » elle aussi spécialisée dans le machine Learning mais dans le domaine des photographies. Une acquisition qui devrait faciliter et optimiser la classification des photos sur les smartphones. Facebook est lui aussi un grand utilisateur de Machine Learning et, quand en juin 2015 il lance “Moments”, il utilise là encore des algorithme de pour reconnaitre les visages de personnes sur différentes photos. En 2014 Google avait investi 500 millions de dollars pour la start up d’intelligence artificielle DeepMind basée en Angleterre. Cette semaine Google a investi au travers de sa filiale allemande dans DFKI (le centre de recherche allemand pour l’intelligence artificielle). Avec l’acquisition de ces startups, ce sont également de nouvelles compétences que l’on recherche : les datascientists.

La maitrise de ces algorithmes est critique pour les nouveaux modèles économiques. Cela nous montre à quel point la maitrise de ces algorithmes est critique pour les nouveaux modèles économiques et pour optimiser les processus existants. Ce ne sont pas que les GAFA qui sont concernés mais bien toutes les entreprises et tout particulièrement le e-business. Derrière le terme générique de Big Data c’est bien souvent des méthodes de machine learning que l’on trouve par exemple pour :

  • L’analyse prédictive du panier d’achat du consommateur
  • L’analyse de sentiments
  • La détection de fraude
  • L’analyse de risques bancaires
  • La reconnaissance du langage ou des visages

L’homme va t’il perdre le contrôle . Le machine learning fait appel à des algorithmes de plus en plus complexes mais ils permettent de s’adapter à des contextes ou les statistiques seuls ne suffiraient pas. Par là même il devient difficile pour un être humain de comprendre ce que fait la machine. Comment dans ce cas s’assurer que la prédiction est fiable ? Comment être sûr que la machine n’a pas trouvé, par un « sur apprentissage » (overfitting), une corrélation entre deux événements alors qu’il n’y avait aucun lien de cause à effet entre les deux ? Pour diminuer ce risque et être capable de mesurer la fiabilité d’un résultat, les domaines des statistiques et du machine learning se sont rapprochés ces dernières années.

Mais la crainte va au-delà de la fiabilité des algorithmes. La protection des données personnelles en est un exemple. L’application de partage de photos de Facebook « Moments », citée précédemment, n’est pas encore disponible en Europe. L’autorité européenne, en charge de la protection des données personnelles, a estimé que la technologie de reconnaissance faciale ne devait pas être activée par défaut sans l’accord explicite des utilisateurs concernés. L’omniprésence des algorithmes qui analysent nos comportements et guident nos choix crée une nouvelle forme de pouvoir exercé par des entreprises ou des gouvernements qui conçoivent ces algorithmes. Reste à savoir comment garantir l’éthique de ces algorithmes.

 

 

 

Google met sa maitrise du Big Data au service de la recherche pharmaceutique

Et si le big Data nous aidait à mieux vivre ? C’est en tout cas le sens des travaux effectués par Google sur la recherche pharmaceutique. Ne nous méprenons pas, Google n’entend pas remplacer les grands laboratoires pharmaceutiques mais cherche à explorer les possibilités d’accélérer les processus en utilisant les principes du Big Data.

 

google drug

Le deep learning appliqué à la recherche pharmaceutique. Habitué à manipuler des volumes gigantesques de données provenant de sources variées Google, associé au Pand Lab de l’université de Standford, a publié un document ( Large-Scale Machine Learning for Drug Discovery ) qui analyse comment des données provenant de sources variées pourraient permettre de déterminer avec une plus grande précision les composants chimiques pour réaliser les traitements appropriés à de nombreuses maladies. Pas de révélation médicale dans cette approche mais le test de modèles de traitement basés sur des techniques de machines learning et de deep learning. Le Deep Learning s’inspire de la neurobiologie pour constituer un réseau de neurones artificiels capable d’apprendre sur le modèle du cerveau humain. Lire la suite