Intelligence artificielle : Du jeu de poker à la stratégie militaire.

Les tournois de jeux opposant l’homme à l’intelligence artificielle ont tous tourné à l’avantage de la machine. Chaque victoire marque l’évolution de l’IA. Développé par Carnegie Mellon University sur des ordinateurs HPE, le programme Libratus a vaincu en 2017 des joueurs de poker et ouvert des perspectives sur d’autres applications.

Le Deep Leaning a dû attendre son heure. En 1943 le neurophysiologiste Warren McCulloch et le logicien Walter Pits s’étaient inspirés du cerveau humain en proposant une première approche mathématique exploitant un réseau de neurones. Les principes mathématiques étaient posés mais la puissance des ordinateurs est restée longtemps trop limitée pour exploiter le deep learning et surtout on manquait de données nécessaires à l’apprentissage des machines. Il faudra attendre les années 2010 pour que le deep learning refasse vraiment parler de lui. La technologie a évolué, les coûts ont baissé et internet a donné accès à de gigantesques volumes de données. En 2012 Lors de la Compétition ImageNet de Reconnaissance Visuelle à Grande Échelle (ILSVRC), l’équipe de Geoffrey Hinton (l’un des lauréats du prix Turing 2019) réussit à reconnaitre des images avec un taux d’erreur de 16% alors qu’auparavant on n’atteignait que 25%. Depuis le taux d’erreur n’a eu de cesse de s’améliorer. En 2016 il était de 5,7% et aujourd’hui il est inférieur aux taux d’erreur d’un être humain.

Du jeu de dames au Poker : l’évolution de l’IA et des ordinateurs. Les tournois opposant la machine à l’humain dans des jeux de stratégies ont marqué les étapes de l’intelligence artificielle. En 1994 l’université d’Alberta rencontra le champion Tinsley avec un ordinateur nommé Chinook. Quelques années plus tard en 1997, c’est au tour d’IBM avec Deep Blue de s’attaquer au jeu d’échec plus complexe avec ces 10 puissance 47 combinaisons qui se conclut par la défaite du célèbre Gary Kasparov. L’IA de l’époque basée sur des ordinateurs mémorisant les règles et des quantités de parties déjà jouées avait fait des prouesses mais pas suffisamment pour s’attaquer au jeu de Go bien plus complexe avec ces 10 puissance 171 combinaisons. Il faudra attendre 2016, le recours au deep learning et à de puissants ordinateurs pour que la machine Alpha Go vienne à bout du champion du monde de Go Lee Sedol. La victoire a marqué les esprits et pour ceux que cela intéresse un documentaire sur Netflix revient sur l’histoire de ce succès technologique. Plus surprenant encore en 2017, l’IA avec le programme « Libratus » l’emporte contre quatre champions du monde du Poker.

Du poker aux stratégies militaires. Le programme Libratus a été développé par Carnegie Mellon University. Pour le tournoi de poker ce programme fonctionnait sur un super ordinateur nommé Bridges construit par le constructeur informatique HPE. J’ai eu l’occasion d’assister à plusieurs conférences de Dr. Eng Lim Goh – Vice-Président CTO chez HPE qui expliquait la difficulté de l’aventure. Le poker est un jeu complexe avec 10 puissance 160 combinaisons mais qui se distingue des autres jeux. Les jeux d’échecs et de Go sont des jeux ou chaque joueur dispose de la totalité des informations toutes les pièces étant visibles sur le plateau. En ce qui concerne le poker c’est totalement différent puisque les cartes en main sont cachées. Difficulté supplémentaire le bluff est autorisé ce qui rend la tâche particulièrement difficile pour une machine. Les stratégies appliquées pour le jeu de Go ne s’appliquent donc pas et Libratus a dû élaborer une stratégie basée sur des données incomplètes en utilisant le concept de théorie des jeux « Nash Equilibrium ». Ce type d’approche peut trouver des applications au-delà des jeux. Un des chercheurs qui participait au projet Libratus,Tuomas Sandholm, a créé en 2018 la start-up Strategy Robot pour adapter ces technologies de jeux au domaine militaire pour par exemple explorer différentes stratégies militaires. Dans une guerre l’adversaire n’utilise pas forcément les même règles et l’IA pourrait se révéler une aide utile dans la prise de décision.

La donnée au cœur de l’IA. Que les informations soient complètes ou incomplètes, les données jouent un rôle capital dans le fonctionnement d’une IA. Une voiture autonome totalement sûre nécessitera 1 milliard de kilomètres de données de conduite, et chaque kilomètre génère 15 gigaoctets. Pour le Vice President de HPE, les données constituent un avantage compétitif pour les entreprises et il les incite à commencer à collecter le plus tôt possible les données pour préparer l’avenir. Face aux GAFA qui ne cessent d’accumuler des données il suggère aux entreprises d’un même domaine d’activité de partager leur données quitte à créer des consortiums.

Le Dr. Eng Lim Goh interviendra le 26 novembre à la Seine Musicale à Boulogne Billancourt dans le cadre du HPE Discover More. C’est un orateur passionné et inspirant qui pourra évoquer Libratus mais aussi ses travaux avec la NASA. Une occasion à ne pas rater. #HPEDiscoverMore #Paris

Avec HPE Synergy les applications prennent le contrôle des infrastructures.


C’est au Studio Gabriel ce 17 octobre 2016 que HPE France a décidé de marquer un grand coup en  lançant officiellement en France l’infrastructure composable HPE Synergy. Une petite révolution, dans la manière de concevoir et de gérer les infrastructures informatiques, qui s’imposait au vue d’une économie ou les applications n’ont plus le temps d’attendre. Peu à peu les applications prennent le contrôle des infrastructures et HPE Synergy leur en donne les moyens.
synergy-la-machine
L’économie des idées pour que les entreprises innovent. Plus que jamais nous avons besoin d’idées pour transformer notre économie. Les idées sont la genèse de cette innovation dont les entreprises ont tant besoin pour créer de la valeur. Pour que cette économie des idées puissent produire ses effets elle ne doit pas se heurter à des barrières. Dans notre monde numérique ces idées vont très souvent prendre la forme d’applications. En 2020 l’économie sera  alimentée par des milliards d’applications. Etre capable de créer ces applications rapidement et les faire évoluer tout au long de leur vie devient un impératif incontournable pour les entreprises si elles souhaitent maintenir leur position ou progresser. Ces entreprises doivent pouvoir compter sur des ressources informatiques adaptées  à ces nouvelles applications dites « cloud natives » tout en maintenant leurs applications historiques.  Longtemps figés dans des organisations en silos, les Datacenters ont peiné à répondre aux attentes des directions métiers impatientes de pouvoir lancer de nouvelles applications nécessaires à de nouvelles offres ou de nouveaux services. Ce temps semble aujourd’hui révolu. l’OCDE qui témoignait lors de cette soirée  a d’ailleurs abondé dans ce sens et compte sur l’offre Synergy pour préparer le futur et offrir aux développeurs ce dont ils ont besoins pour les nouvelles applications.
L’infrastructure composable fait écho aux approches DevOps. Après avoir amorcé le virage du software Defined et de l’hyper convergence qui améliorait déjà l’agilité des ressources informatiques, HPE veut visiblement aller plus loin encore et prendre de l’avance en lançant « HPE Synergy » une  infrastructure « composable ».  HPE Synergy est une des premières solutions qui met en œuvre de façon concrète les principes d’une infrastructure « composable ». L’application compose sa propre hpe-synergy-apiinfrastructure en fonction de ses besoins en puisant dans un pool de ressources granulaires. Un pas de plus vers l’infrastructure as a code ou c’est l’application qui pilote son infrastructure. Cette évolution dans les infrastructures fait écho aux approches DevOps pour le développement et la maintenance des applications. Une cohérence qui donne à l’agilité du datacenter tout son sens. Cette nouvelle offre est construite autour de trois grands principes :
• la fluidité des ressources pour augmenter l’agilité et éviter le gaspillage de ressources
• une Intelligence définie par logiciel (Software Defined Intelligence) qui accélère la mise en œuvre des applications
• Une API unifiée native dans HPE ONE View qui regroupe toutes les ressources sous une même interface.
 Composer l’infrastructure comme on l’entend. HPE Synergy se présente comme une « infrastructure composable ». Dans cette approche les composants physiques d’une synergy-mathieuinfrastructure (stockage, réseaux, serveurs) sont « désagrégés »  en éléments les plus granulaires possibles.  Une application peut alors puiser dans un pool de ressources et « composer » logiquement et dynamiquement sa propre infrastructure pour qu’elle réponde parfaitement à ses attentes. Cette granularité des ressources obtenue par la désagrégation apporte une fluidité plus grande dans l’allocation des ressources et évite les surallocations.
Lever les contraintes de l’hyperconvergence.  Les solutions d’hyperconvergence ont clairement apporté un renouveau dans la manière de gérer les ressources informatiques. Ce renouveau imposait néanmoins une contrainte : l’utilisation de la virtualisation. Une contrainte qui laisse de côté les applications « bare metal » (installées directement sur l’OS du serveur) et les applications de plus en plus nombreuses qui sont installées dans des « containers ». HPE Synergy n’entend laisser de côté aucune application et supporte aussi bien le bare metal, la virtualisation et les containers.
Accélérer la mise en services des applications. C’est un gage de compétitivité et de qualité, pourtant l’empilement de logiciels de gestion ne simplifie pas la tâche. En intégrant une « Software Defined Intelligence » dans le matériel, HPE Synergy offre une même interface pour composer les infrastructures et utilise des templates pour provisionner toutes les ressources avec leur bios, protocoles, drivers , OS etc…
Programmer l’infrastructure à l’aide d’une seule ligne de code. Grace à une API unifiée on dispose d’une seule interface pour découvrir l’infrastructure, l’inventorier, la synergy-dockerconfigurer, la provisionner et la mettre à jour. Une seule ligne de code est suffisante pour décrire et provisionner les ressources physiques, virtuelles ou conteneurisées telles que demandées par l’application. Cette interface entièrement programmable supporte déjà de nombreux outils (Microsoft SystemCenter, RedHat, VMware vCenter, Chef, Docker et OpenStack). Docker était d’ailleurs représenté lors de cet évènement pour expliquer la complémentarité entre les conteneurs et les infrastructures composables
   Les datacenters sont en train d’accomplir une profonde mutation pour s’adapter au monde moderne. Ils doivent réussir à concilier le maintien opérationnels des applications traditionnelles, qui continuent à structurer les grandes fonctions de l’entreprise, et le dynamisme des applications cloud natives qui vont créent l’innovation et soutiennent la croissance des entreprises. HPE Synergy veut les y aider.