Clefs n°70 mars 2020
Clefs n°70 mars 2020
  • Prix facial : gratuit

  • Parution : n°70 de mars 2020

  • Périodicité : annuel

  • Editeur : CEA

  • Format : (230 x 280) mm

  • Nombre de pages : 52

  • Taille du fichier PDF : 7,8 Mo

  • Dans ce numéro : sacrées mathématiques !

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 22 - 23  |  Aller à la page   OK
Pages suivantes >
22 23
LES OUTILS APPROCHE BAYÉSIENNE PAR ÉRIC BARAT ET THOMAS DAUTREMER (Direction de la recherche technologique) Éric Barat est ingénieur-chercheur au Laboratoire de modélisation et simulation de systèmes du CEA/List. Thomas Dautremer est ingénieur-chercheur au Laboratoire de modélisation et simulation de systèmes du CEA/List. Paradigme bayésien Il s’appuie principalement sur le théorème de Bayes. Issu des travaux du révérend Thomas Bayes (1702-1761) édités à titre posthume, ce théorème a ensuite été confirmé par le mathématicien français Pierre-Simon de Laplace (1749-1827). Filipovic, M. ; Barat, É. ; Dautremer, T. ; Comtat,C. and Stute, S. : PET reconstruction of the posterior image probability, including multimodal images - IEEE Transactions on Medical Imaging, 2018, 1-1 Naulet, Z. and Barat, É. : Bayesian nonparametric estimation for Quantum Homodyne Tomography - Electron. J. Statist., 2017, 11, 3595-3632 22 - Sacrées mathématiques ! Des modèles flexibles… à l’infini « Tous les modèles sont faux, mais certains sont utiles ». Appliquée au deep learning, cette assertion du mathématicien George Box montre qu’il peut rester opportun en termes d’interprétabilité de se restreindre à une famille de modèles caractérisée par un vecteur de paramètres de dimension finie. Vue 3D d’une reconstruction d’états cohérents en tomographie quantique. 0.1 0.0 -0.1 -0.2 -0.3 -4 Ainsi est-il fréquent d’adopter un modèle linéaire - éventuellement généralisé - reliant observations et grandeurs recherchées, comme de relâcher la contrainte de linéarité en analyse de données. Par exemple, dans le cadre de la classification non supervisée, on peut supposer que les données sont des réalisations indépendantes d’une distribution inconnue définie par un mélange fini de densités de probabilités paramétrées. Dans tous ces modèles, le nombre de paramètres est fixé avant toute observation, d’où leur qualification de paramétriques. Dans le cadre du paradigme bayésien, l’inférence repose sur l’établissement de la distribution a posteriori du jeu de paramètres, conditionnée par les données observées. Cette approche se distingue par le fait qu’elle caractérise l’ensemble des solutions possibles d’un problème. Ainsi, outre sa moyenne ou sa médiane, cette distribution a posteriori offre également un accès à l’incertitude d’estimation sous forme de variance ou d’intervalle. Mais il serait trompeur de perdre de vue la simplification du problème, induite par le choix d’un modèle particulier  : la restriction à une famille paramétrique, forcément réductrice par rapport à la complexité des données réelles, peut donner l’illusion de la précision -2 q 0 2 4 4 de la loi a posteriori. Par exemple, le nombre de classes considérées dans un mélange peut influencer les décisions prises à partir des lois postérieures. Afin d’y pallier, les scientifiques recourent fréquemment à la sélection de modèles. Une alternative radicale consiste à étendre la flexibilité du modèle en laissant sa complexité - et son nombre de paramètres - s’adapter directement aux données  : c’est l’approche dite non paramétrique. La formulation bayésienne d’un problème non paramétrique n’est pas triviale  : elle doit définir des distributions a priori et a posteriori sur un espace fixe et unique de paramètres dont la dimension est susceptible de varier en fonction des observations... La solution bayésienne non paramétrique à ce problème consiste alors à travailler sur des espaces de paramètres infini-dimensionnels, et d’en invoquer un sous-ensemble fini pour un échantillon observé. Typiquement, la taille de ce sous-ensemble va croître (sans limite) avec celle du jeu de données de manière à expliquer ce dernier de plus en plus précisément. Cette modélisation a notamment été utilisée pour la régularisation de problèmes inverses en imagerie médicale (tomographie d’émission de positrons) ou encore en physique quantique (tomographie quantique homodyne). 2 0 p -2 -4 Les voix de la recherche - #70 - Clefs
Transport de particules La voie de référence Des résultats dits de référence peuvent être obtenus en générant un grand nombre de géométries aléatoires décrivant le milieu traversé par les particules. Pour chaque réalisation géométrique, on résout l’équation du transport linéaire (Boltzmann), par exemple à l’aide du code de transport Monte-Carlo TRIPOLI-4 développé au CEA, et on calcule les grandeurs d’intérêt, tels que le flux de particules. Enfin, on détermine les moyennes statistiques des observables sur l’ensemble des réalisations. Cette voie, en principe exacte, nécessite un outil numérique de modélisation des géométries stochastiques et engendre un temps de calcul extrêmement élevé. En littérature, il existe différentes classes de géométries aléatoires adaptées aux applications liées au transport, telles que les inclusions stochastiques [2], dans lesquelles des objets sont placés dans un domaine selon une loi de probabilité donnée, ou les tessellations aléatoires [3, 4], dans lesquelles un domaine est partitionné en polyèdres en échantillonnant des hyperplans selon une loi donnée. Le CEA a récemment développé un logiciel pour la génération de différents modèles de géométries, en dimension d=1, 2 et 3 [5]. Les tessellations aléatoires Les géométries de Poisson représentent un exemple important de tessellations aléatoires [3, 4]  : on échantillonne un nombre d’hyperplans suivant une loi de Poisson dont l’intensité dépend de la dimension d et d’un paramètre qui correspond à la densité de la tessellation ; ensuite, chaque hyperplan est tiré aléatoirement de façon à garantir l’homogénéité spatiale de la tessellation et on calcule ses intersections avec les polyèdres composant la tessellation. Une droite arbitraire sera alors découpée par les polyèdres en segments (cordes) distribués exponentiellement. La longueur moyenne des cordes caractérise l’échelle du désordre de la géométrie (à comparer avec la taille typique des GÉOMÉTRIES ALÉATOIRES Fig. 1  : Gauche  : exemple de réalisation de tessellation aléatoire de Voronoï homogène. Droite  : exemple de réalisation de tessellation aléatoire de Voronoï non-homogène (gradient spatial). Des milieux désordonnés présentant des hétérogénéités multi-échelles se manifestent dans de nombreuses applications en physique (par exemple les mélanges eau-vapeur) et en biologie (comme les tissus cellulaires complexes) [1, 2]. Dans ce contexte, on est souvent amené à caractériser la propagation de particules dans ces structures, qu’on modélise à l’aide de la théorie du transport linéaire dans les milieux aléatoires [1]. À cette fin, il existe deux méthodes  : une voie de référence et une voie approchée. déplacements des particules dans le milieu modélisé) et est inversement proportionnelle à la densité de la tessellation. Les tessellations de Voronoï [3, 4] sont un modèle également très répandu. On tire aléatoirement des points (germes) d’un processus de Poisson homogène dans le domaine à partitionner. Pour chaque germe on construit ensuite les cellules de Voronoï, définies comme les régions des points de l’espace étant plus proches du germe considéré que de tout autre germe (Fig. 1). Des effets d’anisotropie et de non-homogénéité spatiale peuvent éventuellement être pris en compte. Une fois que les tessellations sont générées, on procède à l’étape dite du coloriage, dans laquelle on assigne à chaque polyèdre une composition matérielle, telle que l’eau ou le combustible, en respectant les proportions volumiques. Le coloriage induit potentiellement des chemins préférentiels pour les particules, qui peuvent être étudiés à l’aide de la théorie de la percolation. La voie approchée Une approche complémentaire consiste à prendre en compte le désordre sans modéliser explicitement la géométrie, en s’appuyant sur la théorie de l’homogénéisation  : on aboutit alors à des équations de Boltzmann « efficaces » mais approchées, telles que le modèle de Levermore-Pomraning [1], pour chaque matériau du mélange stochastique, avec des termes de couplage condensant les effets de la distribution des cordes. Il existe aussi un modèle stochastique équivalent qui peut être résolu par simulation Monte-Carlo (algorithme Chord Length Sampling [6]). Ces méthodes sont beaucoup moins coûteuses en temps de calcul mais leur périmètre de validité doit être établi à l’aide des solutions de référence ; en outre, elles ne permettent d’accéder qu’à la moyenne des grandeurs d’intérêt et non pas à leur distribution statistique. PAR ANDREA ZOIA ET COLINE LARMIER (Direction de l’énergie nucléaire) LES OUTILS Andrea Zoia est ingénieur-chercheur au Service d’études des réacteurs et de mathématiques appliquées (Direction des activités nucléaires de Saclay) du CEA. Coline Larmier est ingénieur-chercheur au Service d’études des réacteurs et de mathématiques appliquées (Direction des activités nucléaires de Saclay) du CEA. [1] G.C. Pomraning, Linear kinetic theory and particle transport in stochastic mixtures (World Scientific Publishing, 1991). [2] S. Torquato, Random heterogeneous materials : microstructure and macroscopic properties (Springer-Verlag, 2013). [3] R. E. Miles, Izv. Akad. Nauk. Arm. SSR Ser. Mat. 5, 263-285 (1970). [4]L. A. Santalò, Integral geometry and geometric probability (Addison-Wesley, 1976). [5]C. Larmier, F.-X. Hugot, F. Malvagi, A. Mazzolo, A. Zoia, J. Quant. Spectrosc. Radiat. Transfer 189, 133-148 (2017). [6] G. B. Zimmerman, M.L. Adams, Trans. Am. Nucl. Soc. 66, 287 (1991). Clefs - #70 - Les voix de la recherche Sacrées mathématiques ! - 23



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :