Chiffres-clé
Chiffres clefs
189 personnes travaillent au LJLL
86 permanents
80 chercheurs et enseignants-chercheurs permanents
6 ingénieurs, techniciens et personnels administratifs
103 personnels non permanents
74 doctorants
15 post-doc et ATER
14 émérites et collaborateurs bénévoles
Chiffres janvier 2022
Séminaire du LJLL - 19 11 2021 14h00 : D. Slepčev
Vendredi 19 novembre 2021 — 14h00
Exposé en mode hybride avec retransmission par Zoom en temps réel
Cet exposé aura lieu dans le cadre de la sixième édition des Leçons Jacques-Louis Lions, qui comprendront également un mini-cours intitulé
Variational problems and PDE on random structures :
analysis and applications to data science
les mardi 16, mercredi 17 et jeudi 18 novembre 2021 de 12h à 13h15, voir la page
https://www.ljll.math.upmc.fr/lecons-jacques-louis-lions-2021-dejan-slepcev
Attention, lieu exceptionnel !
L’exposé sera donné en personne dans l’Amphithéâtre Durand, bâtiment Esclangon (*),
niveau dalle Jussieu, première porte à gauche immédiatement après l’escalier étroit qui descend le long du mur vers les caves Esclangon,
dans le respect des consignes sanitaires (port du masque et distanciation).
L’exposé sera également retransmis en temps réel par Zoom.
(*) Le bâtiment Esclangon est situé à l’angle sud-est du Campus Jussieu : prendre à droite en entrant sur le campus par l’entrée principale, place Jussieu ; l’entrée du bâtiment se trouve après la tour 66
Dejan Slepčev (Université Carnegie Mellon, Pittsburgh)
Machine learning meets calculus of variations
Résumé
Modern data-acquisition technology produces a wealth of data about the world we live in. The goal of machine learning is to extract and interpret the information the data sets contain. This leads to a variety of learning tasks, many of which seek to optimize a functional, defined on the available random sample.
The functionals take as the input the available data samples, yet we seek to make conclusions about the true distribution of data. To compare the outcomes based on finite data and the ideal outcomes that one would have if full information is available, we study the asymptotic properties of the discrete optimization problems based on finite random samples. We will discuss how calculus of variations and partial differential equations provide tools to compare the discrete and continuum descriptions for many relevant problems. Furthermore, we will discuss how the insights from analysis can be used to guide the design of the functionals used in machine learning.