Clefs n°70 mars 2020
Clefs n°70 mars 2020
  • Prix facial : gratuit

  • Parution : n°70 de mars 2020

  • Périodicité : annuel

  • Editeur : CEA

  • Format : (230 x 280) mm

  • Nombre de pages : 52

  • Taille du fichier PDF : 7,8 Mo

  • Dans ce numéro : sacrées mathématiques !

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 20 - 21  |  Aller à la page   OK
Pages suivantes >
20 21
LES OUTILS QUANTIFICATION DES INCERTITUDES CONTRIBUTEURS (Direction de l’énergie nucléaire) Guillaume Damblin est chercheur au Service de thermohydraulique et de mécanique des fluides (Département de modélisation des systèmes et structures) du CEA. Amandine Marrel est chercheure au Service d’études des systèmes innovants (Département d’études des réacteurs) du CEA. Jean-Marc Martinez est chercheur au Service de thermohydraulique et de mécanique des fluides (Département de modélisation des systèmes et structures) du CEA. [1] A. Owen, Sobol’s indices and Shapley value, SIAM/ASA J. Uncertainty Quantification 2(1) (2014) [2] B. Broto, F. Bachoc, M. Depecker, J.-M. Martinez, Sensitivity indices for independent groups of variables, Mathematics and Computer in Simulation vol. (163), 2019 20 - Sacrées mathématiques ! Quantification des incertitudes en simulation numérique En simulation numérique, la prise en compte des incertitudes est essentielle pour interpréter, modéliser et prévoir des phénomènes physiques. La façon dont on les représente dans le modèle conceptuel (physique) puis dans le modèle opérationnel qui en est sa représentation numérique va influer sur les résultats des simulations numériques. Dans le modèle conceptuel, les incertitudes aléatoires représentent la variabilité naturelle de certains phénomènes (signaux sismiques, conditions météorologiques, composition de matériaux) et sont irréductibles car imposées. Les incertitudes épistémiques traduisent le manque de connaissance sur le système étudié ou sur les approximations faites lors de sa modélisation. Généralement liées à des quantités non directement mesurables, elles sont considérées comme réductibles à partir de connaissances supplémentaires (mesures expérimentales par exemple). Dans le modèle opérationnel, viennent s’ajouter les incertitudes numériques et les incertitudes statistiques dans le cas de calculs Monte Carlo. Propagation d’incertitudes Lorsque ces différentes sources d’incertitudes sont modélisées par la variable aléatoire X (multivariée dans le cas général) de loi FX, la propagation des incertitudes dans le modèle Y = G(X), vise à calculer la loi F Y de Y. Dans le cas général, F Y n’est pas calculable. En fonction de l’objectif de l’étude, on se limite à des résumés statistiques, appelés grandeurs d’intérêt, comme la moyenne E(Y), la variance V(Y), des probabilités de dépassement de seuil P(Y > seuil) ou certains quantiles y α définis par P(Y < y α) = α ∈ [0,1]. Un cas particulier est celui où le modèle G peut être approché par un développement du premier ordre autour de l’espérance deX. Dans ce cas, la moyenne et la variance de Y sont calculables exactement. De plus, lorsque la loi de X est gaussienne, la loi de Y l’est également. Les grandeurs d’intérêt sont alors parfaitement calculables. Cette méthodologie est largement utilisée en neutronique pour propager les incertitudes des données nucléaires. Analyse de sensibilité L’analyse de sensibilité vise à hiérarchiser les effets des incertitudes affectant les X sur l’incertitude de la sortie calculée Y. Dans le cas où le modèle est supposé linéaire et les composantes X i représentées par des variables aléatoires indépendantes, l’analyse de sensibilité fondée sur la décomposition de la variance est immédiate. Dans le cas général, lorsque le modèle est non linéaire, la décomposition de la variance peut dépendre des effets combinés entre les incertitudes. Et dès que le nombre des X i dépasse quelques unités, le calcul de la totalité de la décomposition devient très vite prohibitif. On se limite alors à l’indice de sensibilité du premier ordre S i et à l’indice de sensibilité totale STi, représentant la part relative de variance apportée respectivement par la seule composante X i et par toutes les contributions où intervient X i (seule et en interactions). La méthode de Sobol peut être utilisée pour estimer ces indices de sensibilité. Et dans le cas où les incertitudes sont corrélées, on peut utiliser la méthode de Shapley issue de la théorie des jeux [1]. Ces méthodes nécessitent un grand nombre de simulations et sont donc généralement utilisées via des métamodèles (voir cicontre) pour réduire les temps de calcul. A noter que dans le cas linéaire gaussien avec corrélation, les indices de Shapley se calculent facilement de façon explicite en fonction des paramètres du modèle [2]. Une autre piste consiste à évaluer l’impact de chaque paramètre incertain via des mesures de dépendance probabiliste, notamment avec le critère HSIC [3, 4] (Hilbert Schmidt Independence Criterion) qui s’est révélé particulièrement efficace dans de nombreuses applications industrielles et a fait l’objet de plusieurs travaux récents à la DEN. Ces mesures HSIC, qui généralisent la notion de covariance et qui nécessitent en pratique de l’ordre d’une centaine de simulations, peuvent être utilisées à des fins quantitatives pour hiérarchiser les entrées par ordre d’influence sur la sortie, ou qualitatives pour effectuer un criblage des entrées, en séparant les entrées significativement influentes sur Y de celles dont l’influence peut être considérée comme négligeable. Applicable à des variables de différentes natures (scalaires, vectorielles, catégorielles, ou encore fonctionnelles), l’estimation du HSIC peut être complétée par un test statistique d’indépendance offrant un cadre statistique rigoureux et objectif pour son interprétation. Les voix de la recherche - #70 - Clefs
PLAN DE n EXPÉRIENCES NUMÉRIQUES SIMULATION (Space Filling Design) Avec le code de calcul X 1 X 2 Calibration Bayésienne Le paradigme bayésien est adapté à la représentation des incertitudes épistémiques où la méconnaissance sur les paramètres et les modèles est représentée par des lois de probabilité. Une de ses applications est celle du recalage des simulations, notées Y sim, dans lesquelles certains paramètres physiques β sont incertains. Notons π(β) la densité de probabilité a priori sur β de nature épistémique et supposons qu’on dispose d’un ensemble de quantités expérimentales de référence Y exp tel que Y exp =Y sim (β)+∈. Dans cette équation, la variable aléatoire ∈ modélise l’écart entre les expériences et les simulations. Cette loi peut regrouper des imprécisions de mesure (de nature aléatoire), des biais de modèle (de nature épistémique), etc. Le théorème de Bayes combine alors dans un cadre unifié les deux types d’incertitudes, épistémique et aléatoire, afin d’actualiser l’incertitude de β par le calcul de sa loi a posteriori, qui est proportionnelle au produit de la vraisemblance L(Y exp │β) et de la loi a priori π(β)  : π(β│Y exp) ∝ L(Y exp │β)×π(β). Dans le cas linéaire gaussien la loi a posteriori se calcule facilement et pour les cas plus généraux on a recours aux méthodes de type Monte Carlo par Chaînes de Markov [5]. Métamodèles Dans le cas d’études demandant un très grand nombre de simulations, un modèle simplifié appelé métamodèle, et construit avec des méthodes d’apprentissage supervisé, peut se substituer au modèle opérationnel pour réduire les temps de calcul (Fig. 1). Parmi les différents types de métamodèles, ceux dits de krigeage par processus gaussiens [6] présentent l’intérêt de modéliser les erreurs prédictives. En supposant que les données soient des Yapp= e(X) réalisations d’un processus gaussien, on utilise les outils classiques de l’estimation sur des modèles linéaires et gaussiens pour calculer le prédicteur moyen et la variance de l’erreur prédictive associée. Le krigeage permet également de compléter la modélisation physique d’un modèle conceptuel par un modèle statistique inféré à partir des écarts entre les simulations et les expériences réelles, ou encore de détecter parmi un ensemble de simulations numériques celles contenant des erreurs [7]. Mais il se limite à la « faible dimension » et ne permet pas d’exploiter le Big Data. Dans ce cas, les méthodes fondées sur les réseaux de neurones sont plus adaptées. Les modèles de type MLP (Multi Layer Perceptron) à connections denses ou partielles (Convolutional Neural Network) peuvent être entraînés sur des bases d’exemples de très grande taille grâce notamment aux nouveaux outils et aux capacités actuelles de calcul. Cette approche a été récemment utilisée au CEA en CFD (Computational Fluid Dynamic) en inférant des modèles de turbulence par apprentissage de simulations « exactes » [8]. URANIE CODE DE CALCUL Y = G(X) QUANTIFICATION DES INCERTITUDES Approximation par apprentissage MACHINE LEARNING Construction d’un métamodèle Ces méthodes sont intégrées dans URANIE, un outil Open Source développé par le CEA avec le logiciel ROOT du Cern dont il tire des fonctionnalités de haut niveau notamment dans la gestion et la visualisation de données complexes. URANIE est conçu pour réaliser facilement des modélisations et propagations d’incertitudes, des analyses statistiques et de sensibilité, des explorations paramétriques, de l’apprentissage machine (réseaux de neurones, krigeage par processus gaussiens) et de l’optimisation (algorithmes génétiques). Des développements en cours portent sur l’intégration de fonctionnalités apprentissage machine issues de la bibliothèque Python TensorFlow. 3.5 25 1.5 0.5 0 a. 0. MÉTAMODÉLISATION Approximation de la sortie à partir des points AS LES OUTILS Fig. 1  : principe de l’approximation par métamodèle d’un code de calcul. La 1 re étape spécifie un plan d’expériences numériques par des techniques de type « Space Filling Design » afin d’homogénéiser la distribution des points dans l’espace des entrées (minimisation de la discrépance notamment en grande dimension). La 2 è étape effectue les simulations numériques qui peuvent être réalisées de façon parallèle. La 3 è étape est celle de la construction du métamodèle par apprentissage de la base des simulations réalisées. [3] M. De Lozzo and A. Marrel, New improvements in the use of dependence measures for sensitivity analysis and screening, Journal of Statistical Computation and Simulation, 86:3038-3058, 2016. [4] A. Gretton, O. Bousquet, A. Smola and B. Schölkopf, Measuring statistical dependence with Hilbert-Schmidt norms,Proceedings Algorithmic Learning Theory, 2005. [5] G. Damblin, P.Gaillard, Bayesian inference and non-linear extensions of the CIRCE method for quantifying the uncertainty of closure relationships integrated into thermal-hydraulic system codes, Nuclear Engineering and Design, vol. (359), 2020. [6]C.E. Rasmussen,C.K.I. Williams, Gaussian Processes for Machine Learning, the MIT Press, 2006 [7] F. Bachoc, G. Bois, J. Garnier, J.-M. Martinez, Calibration and Improved Prediction of Computer Model by Universal Kriging, Nuclear Science and Engineering, vol. (176), 2014 [8] Clefs CEA, « L’intelligence artificielle », novembre 2019 Clefs - #70 - Les voix de la recherche Sacrées mathématiques ! - 21



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :