DiscoverInformatique et sciences numériques (2015-2016) - Yann LeCun
Informatique et sciences numériques (2015-2016) - Yann LeCun
Claim Ownership

Informatique et sciences numériques (2015-2016) - Yann LeCun

Author: Collège de France

Subscribed: 160Played: 626
Share

Description

Yann LeCun est un chercheur en intelligence artificielle, apprentissage machine, vision artificielle et robotique, diplômé de l'École supérieure d'ingénieurs en électronique et électrotechnique (ESIEE) de Paris et de l'Université Pierre et Marie Curie. Il devient chercheur aux Bell Laboratories en 1988 et est nommé directeur de département aux laboratoires AT&T en 1996.

Il travaille depuis 30 ans sur « l'apprentissage automatique » (machine learning) et « l'apprentissage profond » (deep learning) : à savoir la capacité d'un ordinateur à reconnaître des représentations (images, textes, vidéos, sons) à force de les lui montrer de très nombreuses fois. Il a aussi contribué au développement de méthodes de compression d'image avec le format d'archivage DjVu.

Il a publié près de 200 articles 
et documents sur l'apprentissage automatique, les réseaux neuronaux et la reconnaissance d'images, domaines dans lesquels il est considéré comme l'un des pionniers. Yann LeCun est professeur à l'Université de New York et Directeur de Facebook AI Research (FAIR), 
le nouveau centre de recherche européen de Facebook basé à Paris et dédié à l'intelligence artificielle.

9 Episodes
Reverse
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielle
Yann LeCunInformatique et sciences numériquesChaire annuelle en partenariat avec l'InriaAnnée 2015-2016L'apprentissage profond : une révolution en intelligence artificielleLeçon inauguraleCe dernier cours de 2014-2015 introduit les méthodes implicites de manipulation de systèmes de transitions, à travers les méthodes de calcul booléen utilisées à la fois pour la vérification formelles et pour l'optimisation de circuits électroniques et de programmes qui peuvent se réduire au calcul booléen.Ces méthodes ont révolutionné le domaine en permettant des vérifications formelles de systèmes dont le calcul explicite des états et transitions est impossible, car la taille des formules manipulées par les méthodes implicites est largement indépendante de celle des systèmes qu'ils décrivent. Nous expliquons d'abord les codages booléens d'ensembles, de relations et de fonctions, et montrons comment calculer l'image directe et l'image inverse de sous-ensembles par des fonctions. Nous étudions ensuite les codages booléens d'automates déterministes et non-déterministes, ainsi que leurs implémentations en circuits électroniques. Nous rappelons le fait que le circuit canoniquement associé à un automate non-déterministe est lui déterministe comme tous les circuits combinatoirement acycliques, ce qui montre clairement que le qualificatif « non-déterminisme » est particulièrement mal choisi : en vérification booléenne comme en optimisation de circuits, il est inutile de déterminiser les automates, et c'est souvent nuisible à cause de l'explosion exponentielle que la déterminisation peut produire. Nous montrons comment la vérification formelle de propriétés de sûreté définies par des observateurs se réduit au calcul des états accessibles, et comment effectuer ce calcul de manière implicite. Nous introduisons la première structure fondamentale du calcul booléen, les Binary Decision Diagrams, développés par R. Bryant au milieu des années 1980 (et indépendamment par J-P. Billion chez Bull en France), et expliquons pourquoi ils permettent de faire les calculs nécessaires au passage à la grande échelle; nous mentionnons leurs limitations, qui sont inévitables car le calcul booléen est NP-complet. Les BDDs seront étudiés beaucoup plus en profondeur dans le cours 2015-2015.Pour terminer, nous montrons que le codage booléen permet de réaliser des optimisations très efficaces des circuits engendrés par les programmes Esterel. Nous insistons sur le fait que la structure du langage source et la façon d'y programmer les applications sont essentiels pour la qualité de l'optimisation finale : c'est grâce à l'interaction de la séquence, du parallélisme et de la préemption hiérarchique des comportements que les circuits engendrés par Esterel sont systématiquement meilleurs que ceux programmés et optimisés par les méthodes classiques, au moins en ce qui concerne leurs parties contrôle.