Aller au contenu  Aller au menu  Aller à la recherche

Bienvenue - Laboratoire Jacques-Louis Lions

Postes Enseignants-Chercheurs :

Cliquer sur : Operation POSTES sur le site de la SMAINouvelle fenêtre

Cliquer sur : GALAXIENouvelle fenêtre

 

Cliquer sur : les postes ouverts au Laboratoire Jacques-Louis Lions en 2017

 

 » En savoir +

Chiffres-clé

Chiffres clefs

217 personnes travaillent au LJLL

83 personnels permanents

47 enseignants chercheurs

13 chercheurs CNRS

9 chercheurs INRIA

2 chercheurs CEREMA

12 ingénieurs, techniciens et personnels administratifs

134 personnels non permanents

85 doctorants

16 post-doc et ATER

5 chaires et délégations

12 émérites et collaborateurs bénévoles

16 visiteurs

 

Chiffres janvier 2014

 

GdT LRC Manon

Sauf indication contraire, le groupe de travail a lieu à Jussieu, couloir 15-16, 3e étage, salle 309, le mardi à 14h.

Depuis octobre 2015, les organisatrices du groupe de travail sont Maria Giovanna Rodio (CEA) et Nina Aguillon (LJLL).

Certains mardis à 11h a aussi lieu le groupe de travail ITER dont vous trouverez l’agenda là.

MANON a sa propre page.

Année 2017-2018


Jeudi 30 novembre 2017 Workshop neutronique Manu & Manon

Une dizaine d’exposé sur le thème de la neutronique sont prévus. Le matin, le workshop se tiendra en salle 15-16-101, et l’après midi en salle 15-16-309.

Année 2016-2017


Mardi 30 mai 2017 GdT MANON, séance incertitudes

Guillaume DAMBLIN (CEA Saclay, LGLS)
Quantification inverse des incertitudes en thermohydraulique. Application à un modèle de condensation aux Injections de Sécurité (IS).

La méthode CIRCE a été développée par le CEA pour quantifier les incertitudes des modèles physiques utilisés dans les codes de thermohydraulique. En s’inspirant des développements méthodologiques récents sur le thème de l’inversion probabiliste pour la quantification d’incertitude en simulation numérique, nous présentons plusieurs extensions à cette méthode : tout d’abord l’utilisation du cadre bayésien pour l’estimation du biais et de la variance des modèles ; ensuite la généralisation au cadre non linéaire permettant de surcroît de s’affranchir du calcul des dérivées du code pour lequel un effet utilisateur important avait été constaté dans CIRCE. Ces techniques sont mises en œuvre sur le modèle de condensation aux Injections de Sécurité (IS) du code CATHARE 2.

Andrea CORTESI (INRIA Bordeaux, CARDAMOM) A global adaptative framework for the construction of surrogate models in hypersonic flows applications

The need for robust predictive simulations in the analysis and design process requires to quantify how uncertainties associated with parameters of the physical model affect the values of some quantities of interest. For this reasons, Uncertainty Quantification (UQ) is acquiring an increasing importance for propagating uncertainties on physical parameters through complex numerical simulations.
UQ problems are made more difficult in the case of applications which involve expensive computer simulations, such as hypersonic entry flows, because the application of direct Monte Carlo techniques can not be afforded, and a limited amount of simulations is available to build a sufficiently accurate surrogate model of the quantities of interest. In this work, a global numerical framework for the construction of surrogate models is proposed, having in mind applications with expensive computer codes. The first step is the analysis of the input-output relation by means of global sensitivity indices and active subspace technique, in order to see if a simplified lower-dimensional input space can be found and exploited. Then, we introduce a technique which couples Universal Kriging with sparse Polynomial Dimensional Decomposition (PDD) to build a metamodel with improved accuracy. The polynomials selected by the adaptive PDD representation are used as a sparse basis to build an Universal Kriging surrogate model of the function of interest. A strategy to adaptively add a fixed number of new training points to an existing Experimental Design is also discussed. It is derived from anisotropic mesh adaptation, and it can be useful to refine the set of training points. The different components of this framework are tested and applied to forward and backward UQ problems related to hypersonic atmospheric entry flows.

Mardi 28 mars 2017 GdT MANON, séance calcul scientifique

Florian Blachère (Université Versailles Saint Quentin, IMOSE) Schémas numériques d’ordre élevé et préservant l’asymptotique pour l’hydrodynamique radiative

Le but de ce travail est de construire un schéma volumes finis explicite d’ordre élevé pour des systèmes de lois de conservation avec terme source qui peuvent dégénérer vers des équations de diffusion sous des conditions de compatibilités. Cette dégénérescence est observée en temps long et/ou lorsque le terme source devient prépondérant. Par exemple, ce comportement peut être observé sur le modèle d’Euler isentropique avec friction, ou sur le modèle M1 pour le transfert radiatif ou encore avec l’hydrodynamique radiative. On propose une théorie générale afin de développer un schéma d’ordre un préservant l’asymptotique (au sens de Jin) pour suivre la dégénérescence. On montre qu’il est stable et consistant sous une condition CFL hyperbolique classique dans le régime de transport comme proche de la diffusion pour tout maillage 2D non structuré. De plus, on justifie qu’il préserve aussi l’ensemble des états admissibles, ce qui est nécessaire pour conserver des solutions physiquement et mathématiquement valides. Cette construction se fait en utilisant le schéma non-linéaire de Droniou et Le Potier pour discrétiser l’équation de diffusion limite. Des résultats numériques sont présentés pour valider le schéma dans tous les régimes.

Elena Gaburro (Université de Trento) Well balanced Arbitrary-Lagrangian-Eulerian finite volume schemes on moving nonconforming meshes for nonconservative hyperbolic systems

In this talk we present a novel second order accurate well balanced Arbitrary-Lagrangian-Eulerian (ALE) finite volume scheme on moving nonconforming polygonal grids which avoid the typical mesh distortion caused by shear flows in Lagrangian-type methods.

In our new approach the nonconforming element interfaces are not defined apriori by the user, but they are automatically detected by the algorithm, if the tangential velocity difference across an element interface is sufficiently large. The new scheme then subdivides the neighbors into two groups, each of which has similar properties. Nodes far away from the shear discontinuity are moved with a standard node solver, while for those at the interface a new node is inserted in such a way that each group can move with its own velocity.

The final ALE finite volume scheme is based directly on a space-time conservation formulation of the governing PDE system, which completely avoids the need of an additional remapping stage, hence the new method is a so-called direct ALE scheme.
The main feature of the proposed algorithm is the capability of preserving many of the physical properties of the system. Indeed, in the case of Shallow water equations and Euler equations with gravity, besides being conservative for mass, momentum and total energy, also steady equilibria can be exactly maintained up to machine precision, thank to the introduction of expressly designed well balanced techniques. Perturbations around such equilibrium solutions are resolved with high accuracy and with minimal dissipation on moving contact discontinuities even for very long computational times.

A large set of different numerical tests has been carried out in order to check the accuracy and the robustness of the new method for both smooth and discontinuous problems, close and far away from the equilibrium.

Mathieu Girardin (CEA) Implicit Large Eddy Simulation using High-order Lagrange-Projection schemes

Les calculateurs actuels ne permettent la simulation numérique directe des écoulements turbulents que pour des nombres de Reynolds relativement modérés. D’autres approches moins coûteuses en puissance de calcul ont été développées pour étudier les écoulements où le nombre de Reynolds est trop grand pour la simulation numérique directe. La simulation des grandes échelles fait le choix de ne simuler que les plus grandes structures de l’écoulement en modélisant l’influence des plus petites (modèle de sous-maille). On s’intéresse ici à l’approche dite implicite où la diffusion numérique des schémas joue le rôle de modèle de sous-maille. On évalue l’éligibilité pour la simulation des grands échelles de schémas Lagrange-Projection d’ordre élevé à l’aide de résultats numériques 3D obtenus pour les cas-tests du vortex de Taylor-Green et de la décroissance de la turbulence homogène isotrope.

Mardi 21 février 2016 GdT MANON, séance thématiques en cours à MANON

14h. Katia Aït Ameur : Méthode de parallélisation en temps d’un code de thermohydraulique système pour la modélisation
globale d’un réacteur nucléaire

Dans l’industrie nucléaire, on appelle code système un logiciel dédié à l’analyse thermohydraulique du réacteur en entier. On s’intéresse ici au logiciel CATHARE (Code for Analysis THermalhydraulics during Accident and for Reactor safety Evaluation). Ce code, développé par le CEA, l’IRSN, EDF et AREVA, est destiné aux études de sûreté des REP mais également d’autres types de réacteurs nucléaires. Il est basé sur un modèle bifluide à 6équations et permet d’étudier des écoulements complexes en régime transitoire ou stationnaire. Le calcul est réalisé sur des systèmes composés principalement d’éléments 0D et 1D mais pouvant contenir des éléments 3D avec un maillage limité. De ce fait, le nombre de mailles pour une simulation donnée est faible en général. Par ailleurs, CATHARE est utilisé pour réaliser de très longs calculs allant jusqu’à 10^6 pas de temps. Dans le but d’obtenir des simulations en temps réel, une stratégie de parallélisation entre les différent séléments du système a été implémentée dans Cathare.
On propose ici une méthode de parallélisation suivant la direction temporelle, qui est complémentaire à la stratégie actuelle. Cette méthode est particulièrement délicate étant donné que le temps est séquentiel par nature. Malgré cela, plusieurs stratégies ont été proposées à ce sujet-là dans la littérature et nous nous sommes concentrés sur la méthode pararéelle car elle a donné de très bonnes performances dans
d’autres contextes.

14h40. Walid Kheriji : Parareal in time and full scalability

Among the methods to parallelize the solution of PDEs, the decomposition of the time domain stands still today only as a secondary choice.
This is due to intrinsic limitations in the optimal parallel efficiency that the existing methods can deliver. In this presentation, we address this obstruction in the framework of the parareal in time algorithm. The method is iterative and its efficiency limitations come from the repeated use of a high resolution solver at every parareal iteration. One possible strategy to improve performance is to compute inexact but cheaper realizations of this accurate solver which are built using information from previous steps.

pause

15h30. Teddy Pichard : On stationary states of two-phase flows model

This work focuses on homogenized two-phase flow models described by a system of hyperbolic PDEs with a source term defined as a discontinuous function of the unknown. Such a discontinuity lead to difficulties at the numerical level and naive approaches commonly create non-physical wave speeds
and oscillations.
In a first step, we focus on the existence and uniqueness of stationary states. Due to the discontinuity of the source S, Cauchy-Lipschitz theorem holds not here, and need to be generalized.
In a second step, we aim to construct well-balanced schemes preserving the stationary states and without non-physical numerical artefact.

16h10. Remi Sainct : Générateur aléatoire de signaux sismiques

On souhaite estimer la courbe de fragilité d’une ligne de tuyauterie au risque sismique, c’est-à-dire la probabilité de défaillance en fonction d’un niveau croissant d’excitation sismique. On dispose de quelques signaux sismiques réels, en nombre trop limité pour pouvoir mener une étude statistique.

On va donc utiliser un générateur aléatoire, de dimension petite, et dont les paramètres peuvent être estimés à partir d’un seul signal réel. Le modèle utilisé permet d’évaluer séparément les paramètres spectraux et les paramètres d’amplitude du signal. La base de données permet donc d’obtenir un ensemble de jeux de paramètres (un pour chaque signal réel).

On cherche ensuite à estimer la fonction de répartition de ces paramètres, par différentes méthodes : méthode à noyaux, copules. Lorsque l’on a un générateur correct, on peut alors tester la probabilité de défaillance de la structure pour différentes valeurs des paramètres, et chercher à trouver le ou les paramètres les plus pertinents.

LUNDI 5 décembre 2016 GdT MANON, séance turbulence

Pascal Bruel (Laboratoire de Mathématiques et de leurs Applications de Pau, EPC Inria Cagire)

Propagation de flammes turbulentes prémélangées en régime de
flammelette.

Nous rappellerons les caractéristiques de base des modèles de
combustion en écoulements turbulents de type « flammelette » associés à un terme de production moyenne de type polynomial. Appliquant alors la méthodologie classique KPP, nous préciserons les principaux résultats obtenus dans les différentes configurations de transport turbulent scalaire (gradient ou contre-gradient). La sélection d’une seule vitesse de propagation par la coupure du terme source moyen sera introduite comme un moyen de créer un cas de vérification pour des méthodes numériques adaptées aux écoulements de type Mach zéro à masse volumique variable. Un exemple d’emploi de ce cas test pour la méthode de compressibilité artificielle sera finalement présenté.

Guillaume Baralac (Laboratoire des Écoulements Géophysique et Industriels, ENSE3, Grenoble)

Le développement de simulations des grandes échelles (SGE) pour la prédiction d’écoulements turbulents plus complexes.

Les écoulements turbulents se caractérisent par le développement d’une très large gamme d’échelles du mouvement. La puissance des calculateurs actuels ne permet pas une simulation directe de toutes ces échelles. La simulation des grandes échelles (SGE) apparaît alors comme une alternative intéressante. Avec cette approche, seules les plus grandes échelles de l’écoulement sont explicitement calculées et l’influence des plus petites échelles est modélisée par un modèle sous-maille. Cela permet, avec un coût de calcul abordable, de décrire les instationnarités les plus influentes des écoulements contrairement aux approches statistiques (RANS) communément utilisées dans l’industrie.

Le séminaire abordera les nouveaux enjeux de la SGE qui doit désormais permettre la simulation d’écoulements plus complexes physiquement et géométriquement. Il s’agit alors de développer des modèles sous-mailles précis. Il s’agit aussi de pouvoir simuler des écoulements à proximité de parois complexes. Enfin, il s’agit également de pouvoir assurer la fiabilité des simulations entreprises par une démarche systématique de vérification et de validation (approche V&V).

TBA (TBA)

18 octobre 2016 reprise du GdT MANON, avec trois exposés de 45 minutes.

14h-14h50 : Odry Nans (Laboratoire d’Études Physiques, CEA Cadarache)

Méthode de Décomposition de Domaine avec parallélisme hybride et accélération non-linéaire pour la résolution de l’équation du transport

Les schémas de calcul déterministes permettent une modélisation à moindre coût du comportement de la population de neutrons en réacteur, mais sont traditionnellement construits sur des approximations (décomposition réseau/cœur, homogénéisation spatiale et énergétique…). La thèse propose de revenir sur une partie de ces sources d’erreur, de façon à rapprocher la méthode déterministe d’un schéma de référence. L’objectif est de profiter des architectures informatiques modernes (HPC) pour résoudre le problème neutronique à l’échelle du cœur 3D, tout en préservant l’opérateur de transport et une partie des hétérogénéités de la géométrie. L’ensemble de ce travail est réalisé au sein du solveur cœur Sn Minaret de la plateforme de calcul déterministe APOLLO3 pour des réacteurs à neutrons rapides. Dans cette optique, une méthode de décomposition de domaine en espace, est retenue. L’idée fondamentale consiste à décomposer un problème de grande dimension en sous-problèmes "indépendants" de taille réduite. La convergence vers la solution globale est assurée par échange de flux angulaires entre sous-domaines au cours d’un processus itératif. En favorisant un recours massif au parallélisme, les méthodes de décomposition de domaine contribuent à lever les contraintes en mémoire et temps de calcul. La mise en place d’un parallélisme hybride, couplant les technologies MPI et OpenMP, est en particulier propice au passage sur supercalculateur. Une méthode d’accélération de type Coarse Mesh Rebalance est ajoutée pour pallier à la pénalité de convergence constatée sur la méthode de décomposition de domaine. Le potentiel du nouveau schéma est finalement mis en évidence sur un coeur CFV 3D, construit de façon à préserver l’hétérogénéité des assemblages absorbants.

14h50-15h40 : Thi Hieu Luu (LJLL, UPMC Paris)

Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d’EDF

Dans cet exposé, nous présentons une nouvelle méthode pour évaluer (ou reconstruire) des fonctions multivariées à partir de certaines de ses valeurs précalculées. Cette nouvelle méthode, appelée la décomposition de Tucker, est basée sur une approximation de tenseurs de faible rang. L’approximation ainsi obtenue se présente comme une combinaison linéaire de produits tensoriels de fonctions de base d’une variable. La construction de ces fonctions est basée sur une technique dite de décomposition en valeurs singulières d’ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève).

Nous appliquons cette nouvelle méthode pour la reconstruction des sections efficaces dans le cadre du développement de la nouvelle chaîne de calcul de cœur d’EDF R&D. Ces sections sont des données physiques pouvant être vues comme des fonctions de plusieurs variables : nous présenterons des résultats où interviennent cinq paramètres physiques. Les résultats obtenus montrent que notre méthode satisfait les critères exigés : réduction du nombre de pré-calculs, réduction du nombre de données stockées, et amélioration de la précision par rapport au modèle multilinéaire actuellement utilisé à EDF.

16h-16h50 : Olivier Lafitte (LAGA, Université Paris 13)

Une solution analytique d’un modèle simplifié réaliste couplant la neutronique et la thermohydraulique

Dans cet exposé, nous présenterons la modélisation utilisée multiphysique (les systèmes d’équations correspondant à chaque physique), nous en donnerons la s solution théorique dans le cas de données physiques régies par des lois. Comme ces lois ne sont pas connues, nous proposons une méthode numérique simple et très rapide pour trouver une solution très précise du problème et nous donnons l’application numérique à des données réalistes issus de calculs faits au CEA/DEN/SERMA

Archives

Les archives des années précédentes seront bientôt de retour.
Archives 2015-2016