Aller au contenu  Aller au menu  Aller à la recherche

Bienvenue - Laboratoire Jacques-Louis Lions

Partenariats

CNRS

UPMC

UdP
Print this page |
Internships (10th and 11th grades high school students)
Job shadowing (Year 10, Year 11 students) See https://www.math.univ-paris-diderot.fr/diffusion/index

Key figures

Key figures

189 people work at LJLL

90 permanent staff

82 researchers and permanent lecturers

8 engineers, technicians and administrative staff

99 non-permanent staff

73 Phd students

14 Post-doc and ATER

12 emeritus scholars and external collaborators

 

Figures : March 2019

 

Séminaires de l’année 2019


PROGRAMME ET RESUMES DES SEMINAIRES DU MOIS DE JANVIER 2019


Cliquer ici pour la version pdf du programme de janvier 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés de janvier 2019Nouvelle fenêtre

  • 04 janvier 2019
    Relâche
    (Vacances de Noël)
  • 11 janvier 2019 — 14h00
    Thierry Coupez (Mines Paris Tech, Sophia-Antipolis)
    Adaptation anisotrope, frontières implicites et calculs multiphasiques
    (diaporama de l’exposé 12.7 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Puisque la qualité d’un calcul dépend directement du maillage que l’on utilise, l’idée de génération automatique et d’adaptation de maillage est apparue presque immédiatement avec le calcul scientifique. Pendant longtemps considéré comme un problème géométrique, il redevient un objet de l’analyse numérique dans le contexte d’adaptation puisque le maillage devient aussi une inconnue de l’approximation. On propose d’intégrer la contrainte géométrique dans une approche monolithique combinant immersion et adaptation de maillage anisotrope à partir d’une construction de champ de métriques dépassant l’erreur d’interpolation, optimisant l’approximation. Le maillage se réduit à un nombre de nœuds (un coût de calcul) du point de vue de l’utilisateur, l’erreur géométrique étant intégrée à l’erreur d’approximation. Les maillages sont obtenus par des modifications locales élémentaires en volume (sans besoin de maillage surfacique).
    On présentera quelques exemples en mécanique des fluides multiphasiques (liquide solide gaz), un aperçu du calcul de l’erreur d’approximation proposée et les extensions nécessaires apportées aux solveurs utilisés, ici des éléments finis stabilisés et des level set.
  • 18 janvier 2019 — 14h00
    Hoai-Minh Nguyen (Ecole Polytechnique Fédérale de Lausanne)
    Matériaux à indice négatif : propriétés et applications
    (diaporama de l’exposé 4.6 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Les matériaux à indice négatif sont des structures artificielles dont l’indice de réfraction a une valeur négative dans une gamme de fréquences. Ces matériaux ont été postulés et étudiés par Veselago en 1964, et leur existence a été confirmée expérimentalement par Shelby, Smith et Schultz en 2001. L’étude de ces matériaux a depuis beaucoup attiré l’attention de la communauté scientifique en raison de leurs applications potentielles, telles que la super-intensification et l’invisibilité, ainsi que des défis que pose la compréhension de leurs étranges propriétés. Mathématiquement, cette étude présente deux difficultés : d’une part les équations qui les décrivent ont des coefficients qui changent de signe, et l’ellipticité et la compacité disparaissent donc en général ; d’autre part la résonance localisée, c’est-à-dire le fait qu’il peut arriver que le champ explose dans une région et reste borné dans une autre quand le paramètre de régularisation tend vers zéro. Dans cet exposé, je discuterai quelques idées mathématiques utilisées pour comprendre les applications de la super-intensification et de l’invisibilité, ainsi que la stabilité de ces matériaux.
  • 25 janvier 2019 — 14h00
    Flaviana Iurlano (Sorbonne Université, Paris)
    Concentration et comportement effectif de l’endommagement brutal
    (diaporama correspondant à l’exposé 0.3 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Cet exposé concerne l’analyse asymptotique d’un modèle variationnel d’endommagement brutal (c’est-à-dire par morceaux), lorsque la zone endommagée se concentre sur un ensemble de mesure de Lebesgue zéro, et quand, en même temps, la rigidité du matériau endommagé devient arbitrairement petite. La concentration conduit à une énergie limite à croissance linéaire dont la partie singulière peut être facilement décrite ; par contre l’identification de la densité de volume nécessite une analyse plus subtile des propriétés de concentration des déplacements. Ce travail est le fruit d’une collaboration avec J.-F. Babadjian et F. Rindler.

PROGRAMME ET RESUMES DES SEMINAIRES DU MOIS DE FEVRIER 2019


Cliquer ici pour la version pdf du programme de février 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés de février 2019Nouvelle fenêtre

  • 01 février 2019 — 14h00
    Philippe Robert (Inria Paris)
    Modélisation des phénomènes aléatoires dans les processus de polymérisation
    (diaporama de l’exposé 0.9 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    L’agrégation des protéines est un phénomène biologique qui entraîne la formation spontanée de polymères amyloïdes liés à des maladies neuro-dégénératives. Du point de vue biologique, une caractéristique importante de ce processus est que l’instant de démarrage de la réaction de polymérisation présente une variabilité significative pour des expériences effectuées dans des conditions initiales identiques. Le problème général dans ce cadre est de proposer un modèle permettant d’expliquer l’ordre de grandeur de la variabilité observée dans les expériences. Après une introduction générale sur le contexte et sur certains modèles mathématiques utilisés dans la littérature, on présentera plusieurs modèles de complexité croissante. On discutera en particulier du phénomène de nucléation mentionné dans certains modèles de biophysique et des questions d’interaction d’échelles de temps.
    Cet exposé est issu de travaux communs avec Marie Doumic, Sarah Eugène, Wen Sun et Wei-Feng Xue.
  • 08 février 2019 — 14h00
    Chloé Audebert (Sorbonne Université, Paris)
    Modélisation mathématique de l’étude de la variabilité inter-individuelle des réponses immunitaires T CD8 chez la souris
    (diaporama de l’exposé 3 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Après une infection, le système immunitaire déclenche plusieurs réponses, notamment l’activation et l’expansion de cellules spécifiques T CD8 qui tuent et éliminent le pathogène. Un modèle mathématique d’équations différentielles ordinaires décrit la dynamique des cellules T CD8 après une infection. Afin d’inclure dans le modèle l’hétérogénéité inter-individuelle observée chez des souris, nous avons considéré une approche populationnelle basée sur la description de la variabilité inter-individuelle par des modèles statistiques non linéaires à effets mixtes. Nous avons estimé les paramètres des distributions de probabilité pour chacun des paramètres du modèle avec l’algorithme SAEM (stochastic approximation expectation-maximization) avec le logiciel Monolix.
  • 15 février 2019 — 14h00
    Patrick Ciarlet (Ecole Nationale Supérieure de Techniques Avancées, Palaiseau)
    Quelques résultats sur la résolution de problèmes avec des coefficients changeant de signe
    (diaporama de l’exposé 1.4 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Dans cet exposé nous résumons des travaux menés conjointement avec Anne-Sophie Bonnet-Ben Dhia, Lucas Chesnel, Camille Carvalho et Juan-Pablo Borthagaray sur la résolution d’équations aux dérivées partielles avec des coefficients réguliers par morceaux qui changent de signe sans passer par zéro.
    En électromagnétisme, la réponse effective de certains matériaux manufacturés est modélisée par des coefficients négatifs : on les appelle les « matériaux négatifs ». Si ces matériaux sont entourés par des matériaux « classiques », le problème global de transmission à résoudre met en jeu des coefficients discontinus qui changent de signe. A titre d’exemple, soit σ un paramètre constant par morceaux, strictement positif de valeur σ^+ dans une partie du domaine de calcul, et strictement négatif de valeur σ^- dans le reste du domaine. On considère le problème scalaire suivant : trouver u tel que div σ ∇u - ω^2 u = f avec une condition aux limites homogène où f est la donnée et où ω est la pulsation.
    Si l’on cherche une solution u de régularité H^1, on peut démontrer qu’il existe un intervalle critique tel que le problème satisfasse l’alternative de Fredholm (c’est-à-dire soit bien posé) si et seulement si le rapport σ^-/σ^+ n’appartient pas à cet intervalle critique. On peut également démontrer des résultats similaires pour le problème aux valeurs propres associé. Ces résultats sont obtenus à l’aide de l’approche dite de T-coercivité.
    Du point de vue numérique (discrétisation par éléments finis) et lorsque le rapport σ^-/σ^+ n’appartient pas à l’intervalle critique, la forme de l’interface séparant les deux matériaux doit être prise en considération. Il existe des règles simples de maillage qui permettent de retrouver les erreurs de convergence usuelles quelle que soit l’interface lorsque celle-ci est polygonale. Ces règles reposent sur des transformations géométriques élémentaires d’une région du domaine en l’autre.
    Enfin, lorsque le rapport σ^-/σ^+ appartient à l’intervalle critique, c’est-à-dire lorsque le problème n’est pas bien posé dans H^1, des solutions existent pour résoudre le problème dans un cadre fonctionnel différent.
  • 22 février 2019 — 14h00
    Juan José López Velázquez (Université de Bonn)
    On the growth of a particle coalescing in a Poisson distribution of obstacles
    (diaporama de l’exposé 1.5 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    A classical problem in mathematical physics is the derivation of kinetic equations taking as starting point the dynamics of its individual components. There are currently several rigorous results in this direction for particles whose dynamics is given by a Hamiltonian system. Another example of kinetic equation is the so-called Smoluchowski equation which describes the distribution of sizes of a system of particles which evolve according to some deterministic or stochastic dynamics and merge when they collide. In this talk I will discuss the rigorous derivation of the kinetic equation which describes the growth of a moving particle which coalesces with a set of scatterers. The well-posedness and the long time asymptotics of the resulting equation will be also discussed.

PROGRAMME ET RESUMES DES SEMINAIRES DU MOIS DE MARS 2019


Cliquer ici pour la version pdf du programme de mars 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés de mars 2019Nouvelle fenêtre

  • 01 mars 2019 — 14h00
    Sever Hirstoaga (Inria Paris)
    Approches numériques multi échelles pour des équations de type Vlasov
    (diaporama de l’exposé 1.9 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Cet exposé présente différentes stratégies pour approcher les solutions de problèmes de type Vlasov et Vlasov-Poisson qui font intervenir plusieurs échelles en temps.
    Dans la première partie, nous proposons deux méthodes pour traiter cette difficulté. La première est une méthode d’homogénéisation en temps, basée sur la notion de convergence à deux échelles. Dans cette direction nous obtenons à l’ordre 1 un modèle réduit à deux échelles approchant l’équation originelle de Vlasov. La deuxième méthode est un nouveau schéma en temps pour l’équation de départ. Basé sur un intégrateur exponentiel, le schéma résout la petite échelle tout en utilisant des pas de temps macroscopiques. Des cas-tests illustreront la précision de la méthode.
    Dans la deuxième partie, nous analysons la performance d’une implémentation « Particle-in-Cell » pour résoudre numériquement le système de Vlasov-Poisson. Ce problème se pose lors de l’utilisation de schémas de discrétisation explicites, avec des paramètres numériques résolvant la petite échelle, ce qui entraîne un coût de calcul important. Nous présenterons des structures de données spécifiques pour optimiser les accès mémoire et une approche de parallélisme implémenté pour utiliser des processeurs multi-cœurs.
  • 15 mars 2019 — 14h00
    Nastassia Pouradier Duteil (Sorbonne Université, Paris)
    Contrôle parcimonieux du modèle de Hegselmann-Krause : trous noirs et dispersion
    (diaporama de l’exposé 2.1 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Dans cet exposé nous nous intéressons aux modèles de « dynamique d’opinion » de type Hegselmann-Krause. Ces modèles décrivent au niveau microscopique l’évolution d’un groupe d’agents, et mettent en évidence des phénomènes d’auto-organisation : les interactions locales conduisent à l’organisation globale du groupe. Selon la nature des interactions, le groupe peut converger vers un consensus, ou vers l’agrégation en sous-groupes (« clusters »).
    Il existe de nombreux travaux élaborant des stratégies de contrôle de ces systèmes afin de les mener au consensus. Ici, nous abordons le problème opposé, et nous intéressons au contrôle visant à éviter tout effet de concentration. Nous remarquons que la variance du système ne caractérise pas l’agrégation, et introduisons donc une nouvelle fonctionnelle à maximiser, une entropie modifiée, qui est adaptée à la mesure des distances deux-à-deux. Puis nous élaborons des stratégies de contrôle « parcimonieuses » (c’est-à-dire agissant sur une petite fraction de la population) à la fois pour le modèle microscopique et pour l’équation cinétique décrivant l’évolution de la densité de la population. Nous donnons des conditions générales caractérisant la possibilité d’éviter l’agrégation en fonction de la donnée initiale et de la fonction d’interaction. Parmi les configurations possibles, nous mettons en évidence le « trou noir » (quand la convergence vers le consensus ne peut être évitée), la « zone de sécurité » (dans laquelle le contrôle peut maintenir le système loin de l’agrégation), la « zone d’attraction » (où le contrôle ne peut empêcher le rapprochement vers l’état d’agrégation) et la « prévention de l’effondrement » (où le contrôle parvient à éviter l’agrégation).
  • 22 mars 2019 — 14h00
    François Delarue (Université Nice Sophia-Antipolis)
    Solutions globales du problème de Stefan 1d avec surfusion
    (diaporama de l’exposé 1.6 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    L’exposé porte sur le problème de Stefan avec surfusion, qui décrit le phénomène de solidification d’un liquide surfondu, en dimension 1. Nous proposons une reformulation probabiliste permettant de définir les solutions globalement, malgré l’éventuelle explosion du taux de solidification. Nous décrivons le comportement de telles solutions et montrons en particulier que la solidification peut évoluer, localement, de trois façons : (1) de façon régulière, (2) de façon continue, mais seulement 1/2-Hölder aux voisinages de points singuliers, (3) de façon discontinue aux voisinages de points singuliers. Nous établissons également un résultat d’unicité pour ces solutions globales.
    Cet exposé présente les résultats d’un travail en commun avec Sergey Nadtochiy (Chicago) et Mykhaylo Shkolnikov (Princeton).

PROGRAMME ET RESUMES DES SEMINAIRES DU MOIS D’AVRIL 2019


Cliquer ici pour la version pdf du programme d’avril 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés d’avril 2019Nouvelle fenêtre

  • 05 avril 2019 — 14h00
    Yves Capdeboscq (Université Paris Diderot)
    Résolution aléatoire de problèmes hybrides
    (diaporama de l’exposé 2.8 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Dans cet exposé, basé sur un travail en collaboration avec Giovanni Alberti (Gênes), on montrera comment, en appliquant une méthode de projection associée en géométrie à H. Whitney et un principe de continuation unique pour les solutions des équations elliptiques du second ordre, on peut sélectionner un petit nombre de données aux limites de telle façon que l’espace vectoriel généré par les gradients des potentiels électriques correspondants soit de rang maximal partout dans le domaine. Ce résultat s’applique en particulier dans le cas où la conductivité est variable. Cela permet de généraliser les coordonnées dites thermiques au delà de la dimension deux. On discutera ensuite d’une application de ce résultat à la résolution, dans un cadre avec un peu d’aléatoire, de problèmes d’imagerie hybride tels que l’imagerie électro-acoustique.
  • 12 avril 2019 — 14h00
    Edward Saff (Université Vanderbilt)
    Discretizing manifolds with minimal energy
    (diaporama de l’exposé 2.8 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Minimal discrete energy problems arise in a variety of scientific contexts, such as crystallography, nanotechnology, information theory, and viral morphology, to name but a few. Our goal is to analyze the structure of configurations generated by optimal (and near optimal) N-point configurations that minimize the Riesz s-energy over a bounded surface in Euclidean space. The Riesz s-energy potential is simply given by 1/r^s, where r denotes the distance between pairs of points, and is a generalization of the familiar Coulomb potential. We show how such potentials and their minimizing point configurations are ideal for use in sampling surfaces (and even generating a "near perfect" poppy-seed bagel). Connections to the recent breakthrough results by H. Cohn et al. on best-packing and universal optimality in 8 and 24 dimensions will be discussed.
  • 19 avril 2019 — 14h00
    Aline Lefebvre (Ecole Polytechnique Palaiseau)
    Utilisation de la méthode rapide SCSD pour la simulation numérique de suspensions par éléments finis de frontière
    (diaporama de l’exposé 7.7 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Les suspensions formées de particules macroscopiques solides dans un fluide visqueux sont un bon modèle pour de nombreuses applications (retraitement des déchets, processus industriels, envasement, eaux usées, micro-nageurs, ...). D’un point de vue numérique, la simulation de tels systèmes revient à résoudre les équations de Stokes couplées au mouvement rigide des particules. Dans cet exposé, nous montrerons comment cela peut être effectué en utilisant une méthode d’intégrales de frontière.
    Dans de telles formulations, la discrétisation du problème mène à des systèmes linéaires pleins dont la taille croit comme le carré du nombre de particules. Pour résoudre cette difficulté, on montrera comment la méthode rapide SCSD (Sine Cardinal Sparse Decomposition) initialement développée par Matthieu Aussal et François Alouges pour l’acoustique peut être étendue au noyau de Stokes. On présentera également une méthode semi-analytique permettant de traiter les intégrales singulières apparaissant dans ce type de formulations.
    Nous validerons la méthode ainsi obtenue, du point de vue du temps de calcul et de la précision, sur différents cas tests analytiques et nous comparerons les résultats avec d’autres codes numériques. Nous présenterons par exemple des tests pour une particule ellipsoïdale en milieu infini ou confiné ou encore des tests à plusieurs particules.
  • 26 avril 2019
    Relâche (Vacances de Pâques)

PROGRAMME ET RESUMES DES SEMINAIRES DU MOIS DE MAI 2019


Cliquer ici pour la version pdf du programme de mai 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés de mai 2019Nouvelle fenêtre

  • 03 mai 2019
    Relâche (Vacances de Pâques)
  • 10 mai 2019 — 14h00
    Daniel Peterseim (Université d’Augsburg)
    Sparse compression of expected solution operators
    (diaporama de l’exposé 8.2 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    We show that the expected solution operator of a prototypical linear elliptic partial differential operator with random diffusion coefficient is well approximated by a computable sparse matrix. This result holds true without structural assumptions on the random coefficient such as stationarity, ergodicity or any characteristic length of correlation. The constructive proof is based on localized orthogonal multiresolution decompositions of the solution space for each realization of the random coefficient. The decompositions lead to a block-diagonal representation of the random operator with well-conditioned sparse blocks. Hence, an approximate inversion is achieved by a few steps of some standard iterative solver. The resulting approximate solution operator can be reinterpreted in terms of classical Haar wavelets without loss of sparsity. The expectation of the Haar representation can be computed without difficulty using appropriate sampling techniques. The overall construction leads to a computationally efficient method for the direct approximation of the expected solution operator which is relevant for stochastic homogenization and uncertainty quantification.
    This is joint work with Michael Feischl (Technische Universität Wien).
    Reference : https://arxiv.org/abs/1807.01741 Nouvelle fenêtre
  • 17 mai 2019 — 14h00
    Claire Chainais-Hillairet (Université de Lille)
    Comportement en temps long de schémas volumes finis pour des problèmes dissipatifs
    (diaporama de l’exposé 1 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Dans cet exposé, on s’intéressera au comportement en temps long d’une famille de schémas volumes finis à 2 points pour des équations de type Fokker-Planck avec des conditions aux limites de Dirichlet-Neumann générales.
  • 24 mai 2019 — 14h00
    John M. Ball (Université Heriot-Watt, Edimbourg)
    Les mathématiques des cristaux liquides
    (diaporama de l’exposé 16 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    L’exposé présentera des développements récents et des problèmes ouverts concernant la description mathématique des cristaux liquides et de leurs défauts par les théories de Oseen-Frank et de Landau-de Gennes.

    Exceptionnellement, cette séance du séminaire, qui s’inscrivait dans le cadre des Leçons Jacques-Louis Lions 2019, a eu lieu dans l’amphithéâtre 25 (entrée face à la tour 25, niveau dalle Jussieu).

    Les Leçons Jacques-Louis Lions 2019 comprenaient également un mini-cours
    Transformations de phase, compatibilité et microstructure
    qui a été donné par John M. Ball les lundi 20, mardi 21 et mercredi 22 mai de 11h30 à 13h00 dans la salle du séminaire du Laboratoire Jacques-Louis Lions (salle 15-16-3-09).

  • 31 mai 2019
    Relâche (Pont de l’Ascension)

PROGRAMME ET RESUMES DES SEMINAIRES DES MOIS DE JUIN ET JUILLET 2019


Cliquer ici pour la version pdf du programme des mois de juin et juillet 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés des mois de juin et juillet 2019Nouvelle fenêtre

  • 07 juin 2019 — 14h00
    David Lannes (Université de Bordeaux 1)
    Waves interacting with a partially immersed obstacle in the Boussinesq regime
    (diaporama de l’exposé 3.2 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    In this talk we shall present the derivation and mathematical analysis of a wave-structure interaction problem which can be reduced to a transmission problem for a Boussinesq system. Initial boundary value problems and transmission problems in dimension d = 1 for 2 × 2 hyperbolic systems are well understood. However, for many applications, and especially for the description of surface water waves, dispersive perturbations of hyperbolic systems must be considered. We consider here a configuration where the motion of the waves is governed by a Boussinesq system (a dispersive perturbation of the hyperbolic nonlinear shallow water equations) in the presence of a fixed partially immersed obstacle. We shall insist on the differences and similarities with respect to the standard hyperbolic case, and focus our attention on a new phenomenon, namely, the apparition of a dispersive boundary layer. In order to obtain existence and uniform bounds on the solutions over the relevant time scale, a control of this dispersive boundary layer and of the oscillations in time it generates is necessary. This analysis leads to a new notion of compatibility conditions that is shown to coincide with the standard hyperbolic compatibility conditions when the dispersive parameter is set to zero. These phenomena are likely to play a central role in the analysis of initial boundary value problems for dispersive perturbations of hyperbolic systems.
    This is joint work with D. Bresch and G. Métivier, see arXiv:1902.04837
  • 14 juin 2019 — 14h00
    Pierre-Alexandre Bliman (Sorbonne Université, Paris)
    Stratégies de contrôle pour la technique de l’insecte stérile
    (diaporama de l’exposé 5.6 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    La dissémination et l’établissement rapide de populations de moustiques du genre Aedes ont accru le risque d’épidémies de dengue, de chikungunya ou de zika dans le monde entier, y compris dans les zones tempérées de l’hémisphère Nord. La lutte contre ces maladies à transmission vectorielle est maintenant un problème de santé publique majeur. La lutte chimique a été la principale méthode utilisée pendant des décennies, mais le développement de résistances et la prise de conscience de l’impact des insecticides sur la biodiversité ont conduit à rechercher des alternatives, notamment par la lutte biologique. La « technique de l’insecte stérile » en fait partie.
    Nous proposons ici un modèle entomologique de population sexuée, afin de concevoir et d’étudier des stratégies d’élimination d’une population sauvage par dissémination de moustiques stériles mâles. On fournit des conditions suffisantes pour atteindre ce résultat par des lâchers impulsionnels et périodiques de valeur constante (« commande en boucle ouverte »). Lorsqu’une mesure de la taille de la population sauvage est disponible, nous proposons une méthode permettant de choisir l’amplitude des lâchers à partir de cette information (« commande en boucle fermée »). Enfin, une stratégie mixte est proposée, avec les avantages de chacune des précédentes : une valeur maximale réduite de l’amplitude des lâchers, avec une décroissance exponentielle. Démonstrations et simulations numériques seront présentées.
    Ce travail a été effectué en collaboration avec Yves Dumont (CIRAD, Montpellier, et University of Pretoria, Afrique du Sud), Olga Vasilieva (Universidad del Valle, Cali, Colombie) et Daiver Cardona-Salgado (Universidad Autonoma de Occidente, Cali, Colombie).
  • 21 juin 2019 — 14h00
    Pauline Tan (Sorbonne Université, Paris)
    Descentes proximales par blocs pour l’optimisation non lisse et non convexe
    (diaporama de l’exposé 1.9 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Avec l’exploitation toujours plus massive et extensive de données de nature diverse, la résolution de problèmes d’optimisation est devenue un sujet de recherche particulièrement actif ces dernières années, en particulier dans son volet non lisse et non convexe. Cet exposé est consacré à la présentation d’un algorithme récemment développé pour la résolution d’une classe de tels problèmes. Après une présentation du cadre théorique et des problématiques dans lesquels s’inscrit ce sujet de recherche, je présenterai l’algorithme en question ainsi que ses propriétés de convergence et des variantes permettant d’en améliorer les performances numériques. Je conclurai cette présentation avec des exemples d’applications en traitement d’images en grande dimension. Cet exposé est issu de travaux communs avec Mila Nikolova.
  • 28 juin 2019 — 14h00
    Jimmy Lamboley (Sorbonne Université, Paris)
    Contrainte de convexité et diagramme de Blaschke-Santalo
    (diaporama de l’exposé 1.2 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Dans la première partie de l’exposé, nous parlerons de la contrainte de convexité en calcul des variations et en optimisation de forme. La question est de minimiser une énergie dans une classe d’objets contraints à être convexes. Cette contrainte est assez particulière, entre autres elle « force » l’existence pour une très large classe d’énergies, mais l’analyse des solutions en devient difficile. Nous exposerons l’exemple historique de résistance minimale de Newton, qui se résume à la formulation suivante :
    minimiser l’intégrale sur D de 1/(1+|Du|^2) pour u fonction concave de D dans [0,M],
    et nous évoquerons des problèmes et des résultats plus récents obtenus en collaboration avec A. Novruzi et M. Pierre.
    Dans la seconde partie de l’exposé, nous parlerons d’estimation de la première valeur propre du Laplacien-Dirichlet d’un domaine convexe du plan à partir de sa géométrie, notamment de son aire et de son périmètre. Une analyse détaillée de cette question passe par la détermination du diagramme dit de Blaschke-Santalo, à savoir ici l’ensemble des points (x, y) de R^2 tels qu’il existe Omega ouvert convexe de R^2 avec lambda_1(Omega) = x, P(Omega) = y et |Omega| = 1, où les trois fonctionnelles lambda_1(Omega), P(Omega) et |Omega| désignent respectivement la première valeur propre du Laplacien-Dirichlet, le périmètre et l’aire du domaine Omega. Nous donnerons une description numérique et analytique de ce diagramme. Ce travail est en collaboration avec I. Ftouhi.
  • 05 juillet 2019 — 10h30
    Attention, horaire exceptionnel : 10h30 et non 14h00 !
    Luigi Ambrosio (Ecole Normale Supérieure de Pise)
    New estimates on the matching problem
    (diaporama de l’exposé 0.6 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    The matching problem consists in finding the optimal coupling between a random distribution of N points in a d-dimensional domain and another (possibly random) distribution. There is a large literature on the asymptotic behaviour as N tends to infinity of the expectation of the minimum cost, and the results depend on the dimension d and of the choice of the cost in this random optimal transport problem. In a recent work, Caracciolo, Lucibello, Parisi and Sicuro proposed an ansatz for the expansion in N of the expectation. I will illustrate how a combination of semigroup smoothing techniques and of Dacorogna-Moser interpolation provide first rigorous results for this ansatz.
    The talk will be based on joint works with Federico Glaudo, Federico Stra, Dario Trevisan.

PROGRAMME ET RESUMES DES SEMINAIRES DES MOIS DE SEPTEMBRE ET OCTOBRE 2019


Cliquer ici pour la version pdf du programme des mois de septembre et octobre 2019Nouvelle fenêtre

Cliquer ici pour la version pdf des résumés des exposés des mois de septembre et octobre 2019Nouvelle fenêtre

  • 20 septembre 2019 — 14h00
    Lawrence Craig Evans (Université de Californie, Berkeley)
    PDE and ODE methods for weak KAM theory
    Résumé : (masquer le résumé)
    I will review some nonlinear PDE methods useful in weak KAM theory, including a simple PDE interpretation of the Virial Theorem. I will also explain the formal connections with Riccati systems of ODE, and discuss some (small) recent progress on a conjecture concerning the effective Hamiltonian and distinguished solutions of the associated Riccati equation.
  • 27 septembre 2019 — 14h00
    Guillaume Delay (Sorbonne Université, Paris)
    La méthode HHO (Hybrid High Order) dans le cas d’une frontière immergée
    (diaporama de l’exposé 0,7 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    La méthode HHO (Hybrid High Order) a été introduite récemment pour approcher numériquement les solutions d’équations aux dérivées partielles. Les inconnues considérées sont des polynômes attachés aux cellules et aux faces du maillage. Les inconnues « cellules » peuvent être éliminées localement par une procédure de condensation statique, et le problème global ne fait donc intervenir que les inconnues « faces ». La méthode HHO permet des calculs efficaces avec une convergence d’ordre k+1 en norme d’énergie pour des polynômes « faces » d’ordre k, ainsi que l’utilisation de maillages contenant différents types de polygones ou polyèdres (caractère polyédrique de la méthode).
    Cette méthode a ensuite été adaptée à la résolution de problèmes elliptiques avec une interface « immergée », c’est-à-dire une interface qui n’est pas nécessairement adaptée aux noeuds du maillage. L’interface peut ainsi traverser le maillage de manière assez générale. La robustesse par rapport à la façon dont l’interface coupe les mailles est obtenue par une opération d’agglomération de mailles qui est facilement mise en oeuvre grâce au caractère polyédrique de la méthode HHO.
    Dans cet exposé, nous développerons une nouvelle version de la méthode HHO pour le problème elliptique avec interface immergée. Nous montrerons également comment adapter cette méthode au problème de Stokes pour lequel l’analyse de stabilité passe par une condition inf-sup. Nous donnerons des estimations d’erreur a priori ainsi que des résultats de simulations numériques.
    Ce travail est issu d’une collaboration avec E. Burman et A. Ern.
  • 04 octobre 2019 — 14h00
    Anne-Sophie Bonnet-Ben Dhia (Ecole Nationale Supérieure de Techniques Avancées, Palaiseau)
    De nouvelles idées pour la résolution des problèmes de diffraction, combinant décomposition de domaine, opérateurs intégraux et dilatation analytique
    (diaporama de l’exposé 6,6 Mo)Nouvelle fenêtre
    Résumé : (masquer le résumé)
    Il existe de nombreuses approches pour calculer la diffraction d’une onde par un obstacle borné dans un milieu infini homogène. On peut en particulier utiliser une méthode d’équations intégrales ou borner le domaine de calcul par des PMLs (Perfectly Matched Layers). Mais ces méthodes deviennent inefficaces, ou même inutilisables, lorsque le milieu environnant l’obstacle est complexe (hétérogène et/ou anisotrope), surtout si l’on s’intéresse à des modèles d’ondes vectoriels, c’est-à-dire à des ondes élastiques ou électromagnétiques. Ainsi par exemple, la méthode des PMLs fournit une solution erronée dans certains milieux élastiques stratifiés. Quant aux équations intégrales, elles nécessitent le calcul préalable du tenseur de Green dont le coût peut devenir prohibitif.
    Nous développons au sein de l’équipe POEMS (Propagation des Ondes, Etude Mathématique et Simulation) des solutions alternatives aux méthodes usuelles, avec l’ambition de réunir les avantages des équations intégrales et des PMLs. La première idée est d’exploiter des représentations analytiques par sous-domaine, mais ceci conduit à un système d’équations intégrales posées sur les frontières infinies des sous-domaines. La seconde idée consiste à utiliser la dilatation analytique (sous-jacente aux PMLs) pour borner ces frontières infinies.
    Pour le problème scalaire modèle, nous sommes capables de montrer que la formulation obtenue est de type Fredholm dans un espace L^2, et nous pouvons établir diverses estimations d’erreur. Dans des cas plus complexes, la méthode numérique fonctionne de façon très encourageante, mais il reste de nombreuses questions théoriques à examiner.
  • 11 octobre 2019 — 14h00
    Mohamed Masmoudi (Université Paul Sabatier, Toulouse)
    Réseaux neuronaux profonds et parcimonieux
    Résumé : (masquer le résumé)
    L’apprentissage profond constitue actuellement un édifice cohérent dont la clé de voûte est la redondance, qui permet en particulier d’éviter les minima locaux. Nous verrons que la redondance peut expliquer l’engouement pour la méthode du gradient, malgré sa convergence très lente. L’orientation des recherches actuelles vers les phénomènes discrets, tels que la classification ou le traitement du langage naturel, n’est pas étrangère à la redondance.
    Nous proposons des réseaux neuronaux parcimonieux, dont la structure complexe est déterminée d’une manière automatique par la méthode du gradient topologique. En cela nous sommes loin du courant dominant de l’apprentissage profond, qui repose sur une démarche essai-erreur pour trouver un réseau neuronal ayant une structure en couches.
    Notre proposition permet de réduire de plusieurs ordres de grandeurs la taille du réseau neuronal, et de réduire d’un facteur similaire la quantité de données, ainsi que toutes les autres ressources, y compris énergétiques, nécessaires à sa construction.
    Les réseaux neuronaux parcimonieux sont particulièrement efficaces pour le traitement de phénomènes continus et vont jusqu’à la prédiction, sur des temps longs, de phénomènes quasi-chaotiques. Dans ce contexte, tout défaut de parcimonie se traduit par une dégradation irrémédiable du modèle.
    Le réseau ainsi construit est à la fois précis et robuste et résiste à des attaques de type « DeepFool ».
    Nous illustrerons ces aspects par des exemples issus des applications industrielles.
  • 18 octobre 2019 — 14h00
    Paola Goatin (Inria Sophia Antipolis)
    Modèles macroscopiques non locaux pour le trafic routier
    Résumé : (masquer le résumé)
    Les systèmes de lois de conservation non locales sont utilisés pour modéliser de nombreux phénomènes physiques. Ainsi des termes intégraux en espace apparaissent, par exemple, dans des modèles d’écoulements granulaires, de sédimentation, de chaînes d’approvisionnement, et dans des applications biologiques telles que la dynamique des populations structurées.
    En particulier, des équations avec flux non local ont été récemment introduites dans la modélisation des flux de trafic pour prendre en compte la réaction des conducteurs ou des piétons à la densité d’agents voisins. Alors que les piétons sont susceptibles de réagir à la présence de personnes tout autour d’eux, les conducteurs adaptent principalement leur vitesse au trafic en aval, en accordant une importance majeure aux véhicules les plus proches. Je présenterai les avancées récentes dans ce domaine, incluant des modèles multi-populations et le traitement des jonctions dans un réseau routier.
  • 25 octobre 2019 — 14h00
    Vivien Mallet (Inria Paris)
    Méta-modélisation corrigée par l’observation, avec application à la pollution atmosphérique en ville
    Résumé : (masquer le résumé)
    De nombreux phénomènes environnementaux sont simulés par des modèles numériques statiques ou dynamiques très coûteux en temps de calcul. Les coûts de calcul sont sources de fortes restrictions et contraintes dans l’exploitation d’un modèle, par exemple pour la quantification de ses incertitudes ou l’assimilation de données.
    Une stratégie de plus en plus répandue consiste à approcher le modèle par un méta-modèle qui reproduit correctement le comportement du modèle, mais avec un coût de calcul extrêmement faible. Le modèle opère souvent en grande dimension, par exemple avec des dimensions entre 10^4 et 10^6 à la fois pour ses paramètres et pour l’état simulé. La méta-modélisation repose alors sur une première étape de réduction de dimension. Le modèle réduit est ensuite remplacé par un ou plusieurs émulateurs statistiques, par exemple construits par krigeage entre des points auxquels des simulations du modèle ont été effectuées.
    Un modèle environnemental est souvent sujet à de fortes incertitudes. Pour réduire ces incertitudes, on exploite des observations très partielles de l’état calculé par le modèle. Nous verrons comment ces observations peuvent permettre de corriger le méta-modèle. Le méta-modèle ainsi corrigé effectue des prévisions nettement meilleures que celles du modèle, avec un coût de calcul négligeable.
    L’approche sera illustrée par la simulation de la qualité de l’air à l’échelle urbaine.