Quantification d'incertitude et calcul intensif

Journée thématique du GDR MASCOT NUM le 28 Mars 2013, organisée par Laurence Viry(MaiMoSiNE/CIMENT, MOISE, UJF) et Christophe Picard(LJK).

Objectifs

Cette journée s'organise autour des tendances du calcul intensif (High Performance Computing) et des opportunités qu'elles apportent dans le domaine de la quantification d'incertitudes pour des codes de simulation numérique complexes.

La croissance des moyens de calcul permet le développement de codes permettant la simulation numérique de phénomènes physiques de plus en plus complexes: le couplage de plusieurs modèles physiques et outils de simulations, ainsi que l'augmentation du nombre de paramètres d'entrées issus de la physique impliquées améliore l'approximation de la réalité physique. Il est donc nécessaire de définir des stratégies pertinentes afin de mesurer la variabilité des données produites en fonction de la variabilité des données en entrées de ces modèles tout en évitant l'exploration exhaustive de l'espace des entrées de dimension très élevé.

Localisation

Maison Jean Kuntzmann

110, rue de la chimie

Domaine Universitaire

38400 Saint Martin d'Hères

France

Intervenants

Inscription

Pour des raisons d'organisation (buffet), il est demandé de vous inscrire avant le 15mars, l'inscription est gratuite.

Liste des participants

Programme

08h30 - 09h30 Accueil
Chairman : L. Viry
09h - 9h45 F. Mangeant - Incertitudes et HPC: quels enjeux communs ?
Nous chercherons à travers la présentation de quelques enjeux applicatifs de déterminer des challenges d'intérêt commun entre les problèmes posés à la communauté incertitudes et les technologies HPC. slides_hpc_uq_fmangeant.pdf
9h45 - 10h30 L. Viry - Tendances en HPC
Dans cette présentation, nous commencerons par observer les principaux aspects de l'évolution des calculateurs parallèles suivant trois points de vue: l'architecture matériel, les paradigmes de programmation qui en découlent et le déploiement des applications sur ces architectures. Pour des raisons d'efficacité énergétique, d'encombrement, de complexité et d’efficacité informatique, la progression des architectures mono-coeurs a ralenti pour laisser la place aux architectures multi-coeurs, ce qui se traduit dans le domaine du HPC par l'utilisation de paradigmes de programmation hybride tel que MPI+OpenMP par exemple. Par ailleurs, des solutions d’accélérateurs matériels ont été étudiées et conjointement des efforts de compatibilité aux normes sur les flottants, sur les environnements de programmation et le support d’un marché grand public ont permis aux GPGPUs de s’imposer. Leurs architectures massivement parallèles offrent un paradigme nouveau pour les développeurs, les obligeant à retravailler en profondeur leurs applications. Les ressources mis à disposition des chercheurs ne cessent de croître, au niveau régional avec les mésocentres, au niveau national avec GENCI et les centres nationaux (IDRIS, CINES, TGCC) ou au niveau européen avec le projet PRACE, elles ont pour point commun d’être hybrides, c’est-à-dire de combiner fortement plusieurs technologies différentes, ce qui induit une complexité accrue de développement par les paradigmes mis en oeuvre et également par le déploiement.
10h30 - 11h00 Pause
11h00 - 12h00 J-L. Lamotte - Estimation d'arrondis, analyse de stabilité des grands codes de calcul numérique
L'Arithmétique Stochastique Discrète (ASD) est une méthode automatique d'analyse d'erreur d'arrondi fondée sur une approche probabiliste. L'ASD consiste à exécuter un programme plusieurs fois de manière synchrone en utilisant un mode d'arrondi aléatoire, ce qui permet d'estimer le nombre de chiffres significatifs exacts des résultats. La bibliothèque CADNA, qui implémente l'ASD, permet dans un code scientifique d'estimer la qualité numérique des résultats et de détecter les instabilités numériques générées pendant l'exécution. Afin que la bibliothèque CADNA puisse être utilisée dans un grand nombre de programmes, son développement tient compte des évolutions des compilateurs et des architectures. Outre la version séquentielle de CADNA qui peut être utilisée pour le contrôle d'erreur d'arrondi dans les codes en C ou en Fortran, des solutions existent pour la validation numérique de programmes parallèles. En effet, CADNA permet le contrôle d'erreur dans les programmes multiprocesseurs utilisant MPI et les programmes s'exécutant sur architecture hybride CPU-GPU. Différentes versions de CADNA tirent parti des architectures multicoeurs pour améliorer les performances de l'estimation d'erreur d'arrondi. roundofferrors.pdf
12h00 - 14h00 Buffet
Chairman : C. Picard
14h00 - 14h45 P. Marco Congedo - Quantification of Uncertainty in Numerical simulation
Optimization and design in the presence of uncertain operating conditions, material properties and manufacturing tolerances poses a tremendous challenge to the scientific computing community. In many industry-relevant situations the performance metrics depend in a complex, non-linear fashion on those factors and the construction of an accurate representation of this relationship is difficult. Probabilistic uncertainty quantification (UQ) approaches represent the inputs as random variables and seek to construct a statistical characterization of few quantities of interest. In this talk, we will illustrate some basic concepts related to UQ and the prediction of numerical simulations. Secondly, several methodologies to tackle this issue will be presented, most of all focused on stochastic spectral methods, that can provide considerable speed-up in computational time when compared to Monte Carlo (MC) simulation slides_m.p._congedo.pdf
14h45 - 15h30 R. Barate - Calcul Haute Performance avec OpenTURNS
OpenTURNS est un outil open-source développé par EDF, EADS et PhiMeca pour servir de support logiciel à une approche méthodologique du traitement des incertitudes qui sera brièvement présentée ici. Les études d'incertitudes nécessitent généralement de faire appel à un code de calcul un grand nombre de fois pour estimer de manière précise certains quantiles par exemple. L'intérêt du calcul haute performance (HPC) pour ce type d'études est indéniable car le fait d'utiliser un grand nombre de processeurs permet d'augmenter de plusieurs ordres de grandeur le nombre de calcul qu'on peut effectuer en un temps raisonnable. Nous présenterons l'intégration d'OpenTURNS avec la plate-forme SALOME qui facilite l'accès aux ressources HPC et permet de distribuer les calculs sur un grand nombre de processeurs. Nous présenterons enfin quelques applications concrètes issues d'études menées à EDF. openturns-hpc-2013-03-28.pdf
15h30 - 16h15 F. Gaudier Uranie - Plate-forme Incertitude Uranie: Fonctionnalités et Applications
La prise en compte des incertitudes qui affectent les sorties des codes de calcul est aujourd'hui un enjeu majeur pour tout ingénieur ou scientifique qui s'appuie sur la simulation numérique pour prédire le comportement d'un système complexe (environnemental, industriel, financier …). Si la problématique de la quantification et propagation des différentes sources d'incertitude dans un code de calcul n'est pas nouvelle, nous avons assisté, indiscutablement, ces dernières années à un nouvel essor d'intérêt, motivé également par l'amélioration des performances des moyens HPC, permettant la mise en oeuvre de calculs probabilistes dans de véritables études industrielles. Dans ce contexte, il est apparu important de se doter d'un socle de méthodes et outils génériques qui, bien qu'inspiré par les applications « métiers » puissent couvrir un large spectre de problèmes différents. Dans cet exposé, nous présenterons la plate-forme Uranie développée par le CEA/DEN permettant de réaliser des études de propagation d'incertitudes, d'analyse de sensibilités et de calibration pour les codes de calculs. Elle est basée sur le framework ROOT, développé au CERN pour l'analyse des données expérimentales pétaflopiques issues du détecteur de particules LHC. Uranie offre différentes interfaces (C++, Pyhton, XML) pour spécifier les tâches à réaliser. Elle offre également des “lanceurs” pour distribuer les calculs en batch via la bibliothèque MPI. Ces lanceurs permettent notamment aux ingénieurs CEA de bénéficier directement des ressources de calcul offertes par le CCRT (Centre Commun de Recherche et de Technologie). Nous présenterons également dans cet exposé des applications dans le domaine de l'énergie nucléaire. presuranie20130328hpc.pdf
16h15 - 16h30 Pause
16h30 - 17h10 C. Corre - Quelques applications de la quantification d'incertitude en CFD appliquée à l'énergie. - (LEGI)
La modélisation des écoulements introduit des sources d'incertitudes variées : conditions aux limites ou conditions initiales mal connues, fermetures thermodynamiques ou modèles de turbulence aux paramètres incertains. Les moyens de calcul actuels permettent de propager ces incertitudes en faisant notamment appel à des techniques non-intrusives qui substituent à un classique unique calcul déterministe un ensemble de simulations réalisées pour des jeux spécifiques des variables incertaines permettant d'estimer les premiers moments statistiques de quantités d'intérêt. L'exposé présentera quelques applications récentes de ces méthodes de propagation d'incertitude dans le contexte spécifique de la simulation d'écoulements en lien avec la production d'énergie : optimisation de la forme de profils pour des turbines utilisant des gaz denses d'équation d'état incertaine; impact des incertitudes d'entrées sur la prédiction de l'écoulement dans des turbines hydrauliques. Lorsque le nombre de paramètres incertains augmente, le coût des méthodes non-intrusives de propagation des incertitudes peut devenir excessivement élevé. Des travaux récents proposent de transformer les codes CFD déterministes en code stochastiques au prix de modifications d'ampleur modeste : de telles approches semi-intrusives peuvent permettre de mieux maîtriser le coût de prise en compte d'incertitudes multiples. Une application sera présentée dans le contexte de l'extraction d'énergie d'un écoulement par un profil animé d'un mouvement d'oscillation de caractéristiques incertaines. slides_c_corre.pdf
17h10 - Conclusion
CNRS