Ateliers "sujets de recherche"

Journée de discussions sur 2 thématiques de recherche

6 mai 2009, 9h30-17h00 Institut Henri Poincaré , Paris

Liste des participants


Problématique des données fonctionnelles dans l'exploration des codes de calcul

Organisateurs : Gérard Biau (Univ. Paris VI) et Bertrand Iooss (CEA)

Orateurs du matin (9h30 - 10h50) :

Les modèles dynamiques intégrant des processus bio-physiques jouent un rôle croissant en écologie, en agronomie et en environnement. La complexité de ces modèles rend indispensable la mesure et la prise en compte de leurs différentes sources d’incertitudes, lors de leur mise au point ainsi que lors de leur exploitation pour la prédiction et la préconisation. Elle se traduit en effet par un grand nombre de paramètres incertains par rapport aux données disponibles pour l’estimation. Nous présentons une méthode d’analyse de sensibilité qui prend en compte toute la dynamique du modèle et qui permet de hiérarchiser les paramètres selon leur influence globale. Nous supposerons dans un premier que tous les facteurs d’entrée sont discrétisés et dans un second temps nous modéliserons l’incertitude sur les paramètres à travers des variables aléatoires continues. Le modèle AZODYN (Jeuffroy MH, Recous S., 1999) servira comme un cas d’étude pour illustrer ces méthodes. Le modèle AZODYN simule l’indice de nutrition azotée du blé d’hiver et inclue 69 paramètres dont 15 paramètres incertains.

Les codes de calcul utilisés dans l’industrie nucléaire étant de plus en plus coûteux en temps CPU, il devient intéressant de les approximer par des (méta)modèles simplifiés. Cela facilite l’étude de leur comportement en guidant le choix d’un futur plan d’expérience par exemple. Nous nous intéressons au cas particulier d’un code à entrées scalaires et sorties fonctionnelles, dont la modélisation s’effectue en trois phases principales :
1) groupement des fonctions en sortie par similarités (prend en compte d’éventuelles discontinuités du code) ;
2) recherche d’une base adaptée pour chaque cluster de fonctions (évite la dimension infinie) ;
3) apprentissage statistique des relations entre entrées et coefficients de décomposition, et entre entrées et numéros de clusters.
Nous avons appliqué ce schéma à un jeu de 100 courbes en sortie du code de calcul Cathare, obtenant une bonne capacité de généralisation d’après un test de 10-fold cross-validation. Les étapes 1 et 2 doivent cependant être améliorées afin de mieux automatiser le métamodèle.

Dans cet exposé, nous nous intéressons au problème de quantification pour une variable aléatoire X à valeurs dans un espace de Banach séparable et réflexif, et à la question liée du clustering de n variables aléatoires indépendantes distribuées selon la loi de X. Quantification et clustering reposent sur la minimisation d'un critère faisant intervenir une notion de proximité : nous utilisons une classe de mesures de distorsion appelées divergences de Bregman (Bregman, 1967). Nous verrons que certaines conditions assurent l'existence d'un quantificateur optimal et d'un quantificateur empirique optimal, ainsi que la convergence de la distorsion. Nous insisterons sur les applications pratiques de cette méthode : une divergence de Bregman n'est pas forcément symétrique, ce qui convient à certains types de données ; plusieurs divergences prennent en argument des fonctions, et peuvent donc servir à classer des courbes.

Orateur lors de la table-ronde de l'après-midi :

A partir d’un code de calcul de la signature infrarouge d’un aéronef (SIR), nous avons mis au point une démarche statistique qui permet de prendre en compte les incertitudes sur les variables d'entrée, et d'estimer la dispersion de la SIR scalaire induite, afin d’aider au dimensionnement des capteurs optroniques futurs. Dans le cas scalaire, le critère de performance d’un capteur est très simple, il s’agit de la probabilité que l’éclairement du capteur produit par l’aéronef soit au dessous d’un seuil de détection. Nous souhaitons maintenant adapter notre méthode au cas de la SIR spectrale d’un aéronef faiblement résolu (image 7×7 pixels). Ceci pose plusieurs problèmes :
* comment réaliser une analyse de sensibilité du code avec une sortie vectorielle spatialement et spectralement ?
* comment décrire la dispersion de la SIR ?
* comment choisir de façon optimale un petit nombre de bandes (<10) pour une application donnée (détection, classification…) compte tenu de la dispersion de la SIR ?

Incertitudes et systèmes d'évolution

Organisateurs : Madalina Deaconu (INRIA) et Clémentine Prieur (Univ. Grenoble I)

Orateurs du matin (11h10 - 12h30):

Nous donnerons un modèle simple pour le transport et la diffusion d'un soluté dans un fluide qui s'écoule en régime stationnaire dans un milieu poreux. L'hétérogénéité et la connaissance limitée des caractéristiques géologiques nous amène à les modéliser par un champ aléatoire. Nous nous intéresserons donc à des méthodes numériques pour ce couplage de deux EDP avec coefficients aléatoires. Nous présenterons tout d'abord une première approche par une méthode de Monte Carlo dont l'analyse numérique fait l'objet d'un travail en cours. Puis nous rappellerons les principes généraux des méthodes spectrales stochastiques et leur intérêt. L'élaboration d'une méthode spectrale stochastique pour notre problème constitue en effet un des objectifs pour la suite de notre travail.

Les implications du climat à l'échelle régionale (< 30 km) sont non seulement environnementales mais aussi sociétales et économiques. La modélisation du climat régional est nécessaire pour évaluer et prévoir le climat, sa variabilité et ses extrêmes (tempêtes, précipitations intenses, vagues de chaleur ou de gèle) et leurs impacts (par exemple sur l'agriculture, l'aviation et la pollution atmosphérique). La modélisation des circulations atmosphériques aux échelles régionales est difficile à cause de la difficulté de la représentation des processus physiques complexes et non linéaires qui les contrôlent. Les méthodes de régionalisation du climat sont nombreuses (dynamique, statistique et stochastique), mais demandent toutes du forçage et nécessitent des ajustements de variables. Ce travail présente des méthodes de modélisation du climat régional méditerranéen et leurs incertitudes.

Les réseaux cinétiques des procédés de raffinage comptent couramment plusieurs milliers d'espèces et de réactions. Des techniques de regroupement permettent de réduire la complexité du système à un nombre limité de pseudo-composants, au détriment -souvent- de la représentation de l'acte chimique. Pour les futures charges des procédés, biomasse, bruts lourds, … le problème de la représentativité et de la simulation sera d'autant plus aigu. La cinétique stochastique permettrait de garder un niveau de détail élevé (au niveau de l'étape élémentaire) et de ne pas avoir à connaitre tout le réseau réactionnel à l'avance. L'oligomérisation des oléfines légères, bien que procédé “simple” présente une grande complexité réactionnelle et sert d'étalon à l'évaluation des techniques de cinétique stochastique. Les travaux effectués à l'IFP comparent, sur des réseaux réduits, l'algorithme classique avec plusieurs variantes.

Orateur lors de la table-ronde de l'après-midi :

Si l'aversion au risque est désormais une dimension que les décideurs ont conscience de devoir prendre en compte dans les dossiers d'investissement, l'aversion à l'ambiguïté est encore très souvent mal appréhendée. Dans le monde de l'énergie, les investissements - notamment dans les contrats d'approvisionnements - sont pourtant soumis à des aléas difficilement quantifiables tel que le risque géopolitique. La question d'une modélisation de l'incertitude au sens de Knight se pose donc naturellement dans ce contexte. Cet exposé présente quelques pistes de recherche récemment proposées pour traiter cette question.

CNRS