Clefs n°58 Automne 2009
Clefs n°58 Automne 2009
  • Prix facial : gratuit

  • Parution : n°58 de Automne 2009

  • Périodicité : annuel

  • Editeur : CEA

  • Format : (210 x 297) mm

  • Nombre de pages : 168

  • Taille du fichier PDF : 7,3 Mo

  • Dans ce numéro : dans les secrets de l'Univers.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 152 - 153  |  Aller à la page   OK
Pages suivantes >
152 153
152 Des outils pour sonder l’Univers A CLEFS CEA - N°58 - AUTOMNE 2009 insi, pour réussir pleinement les changements d’échelles résultant des avancées technologiques enregistrées dans le domaine du calcul de haute performance (le HPC pour High Performance Computing), les chercheurs en sciences fondamentales et appliquées doivent avoir accès à des ressources de calcul pouvant aller jusqu’au calculateur entier, au moins pendant des périodes limitées de temps. Il existe un moment propice pour une utilisation dite « grand challenge ». Il s’agit de la période de mise en production de la machine qui va de 3 à 6 mois après la réception du calculateur. Et pour cause, il s’agit d’un moment privilégié pendant lequel les équipes du centre de calcul (ingénieurs systèmes et spécialistes applicatifs) et les experts du constructeur informatique se retrouvent tous ensemble et mobilisés sur le site pour régler d’éventuels problèmes liés au démarrage de l’instrument. Les chercheurs peuvent alors bénéficier de cette étroite collaboration entre spécialistes pour optimiser leur logiciel de simulation et pour espérer franchir de nouvelles étapes dans la réalisation de simulations de très grande taille. Ainsi, les simulations de quelques milliers de processeurs qui relevaient, il y a peu de temps encore, du défi technique, sont-elles désormais très fréquentes. En astrophysique, les grands challenges visent une meilleure prise en compte des couplages d’échelles inhérents à la plupart des phénomènes physiques rencontrés, cela en augmentant la résolution spatiale Le code RAMSES permet l'étude des structures de l'Univers à grande échelle ainsi que la formation des galaxies. La plus grande simulation de la formation de ces structures a été réalisée dans le cadre du projet Horizon, soutenu par l'Agence nationale pour la recherche (ANR). CEA et/ou temporelle. La très grande quantité de mémoire disponible sur les supercalculateurs, associée à des techniques numériques novatrices, favorise l’accès à des résolutions spatiales de plus en plus importantes. L’objectif reste de s’approcher des échelles de dissipation dans les écoulements turbulents, de résoudre les cœurs protostellaires lors de la simulation d’un nuage moléculaire, ou encore de simuler finement les galaxies dans un contexte cosmologique. De cette dernière problématique naquit, en 2007, le code RAMSES, développé par le SAp, pour étudier la formation des grandes structures et des galaxies. Il s’agit d’un code s’inscrivant dans le cadre du projet Horizon visant à fédérer les activités de simulation numérique autour d’un projet ciblé sur l’étude de la formation des galaxies. Cette réflexion fut menée pendant la période de démarrage du calculateur Bull Platine, au Centre de calcul recherche et technologie (CCRT) du CEA, avec pour objectif la simulation de la formation d’une moitié de l’Univers observable. Pour la première fois dans l’histoire du calcul scientifique, il fut possible de décrire une galaxie comme la Voie lactée avec plus d’une centaine de particules tout en couvrant la moitié de l’Univers observable. Pour simuler un tel volume avec autant de détails, les acteurs du projet Horizon utilisèrent 6 144 processeurs Intel Itanium2 du calculateur Bull Platine pour activer le programme RAMSES à plein régime. Ce logiciel de simulation met en jeu une grille adaptative permettant d’atteindre une finesse spatiale inégalée. Avec près de 70 milliards de particules et plus de 140 milliards de mailles, ce grand challenge représente le record absolu pour un système à N corps modélisés par ordinateur. Cet exemple montre bien, qu’en matière de simulation, les avancées promises par les ordinateurs de grande puissance ne s’obtiennent qu’au prix d’une maîtrise de la complexité – celle concernant à la fois les modèles physiques, les méthodes et les algorithmes numériques, les méthodologies et les techniques de programmation et d’optimisation parallèles. De plus, la nécessité de contenir la consommation électrique a favorisé l’apparition d’un nouveau type de supercalculateurs capables de combiner un très grand nombre de processeurs généralistes avec des processeurs spécialisés (processeurs graphiques, reconfigurables, vectoriels…). Dès l’été 2009, la communauté scientifique française a pu accéder à ces supercalculateurs hybrides grâce à la machine BULL installée au CCRT. Avec plus de 2 100 processeurs Intel de nouvelle génération, associés à 48 serveurs graphiques Nvidia, c'est le premier supercalculateur de ce type implanté en Europe. > Pierre Leca et Christine Menaché Département des sciences de la simulation et de l’information (DSSI) Direction des applications militaires (DAM) CEA Centre DAM Ile-de-France > Édouard Audit Service d’astrophysique (SAp) Institut de recherche sur les lois fondamentales de l’Univers (Irfu) Direction des sciences de la matière (DSM) Unité mixte de recherche astrophysique interactions multi-échelles (CEA-Université Paris 7-CNRS) CEA Centre de Saclay (Orme des Merisiers)
Projet COAST La visualisation des simulations astrophysiques La simulation numérique des plasmas astrophysiques produit des données de taille et de complexité considérables. Pour les comprendre et les interpréter, les astrophysiciens doivent les visualiser avec des outils logiciels adaptés. À cette fin, le logiciel SDvision (Saclay Data Vizualisation), développé à l’Irfu, permet une visualisation interactive de simulations produites sur des ordinateurs massivement parallèles, utilisant des milliers de processeurs, produisant des données de taille pouvant dépasser le téraoctet (figure 1). La com plexité des simulations réside essentiellement dans la mise en œuvre du maillage de l’espace dont la résolution varie en fonction de différents critères physiques. La technique numérique du maillage à résolution adaptative (figure 2) concentre le temps de calcul, et la mémoire allouée, sur des zones accueillant des phénomènes signifiants comme la formation d’amas de galaxies. En revanche, dans les zones à plus faible densité, les calculs restent à des résolutions plus modestes. Pour visualiser et analyser de telles structures de données, les chercheurs ont dû recourir à des algorithmes spécifiques et relever un défi : celui de la gestion de la mémoire. Il leur a fallu, en outre, s’adapter à divers modes d’utilisation. La visualisation et l’analyse de telles structures de données représentent un véritable défi, qui a conduit au développement d’algorithmes spécifiques, notamment en termes de gestion de la mémoire. En outre, le logiciel SDvision est adapté à des modes d’utilisation divers, par exemple sur des plateformes de visuali sation locales bénéficiant de l’accélération matérielle des cartes graphiques modernes ou distantes sur des nœuds graphiques proposant d’importantes ressources (multicœurs, mémoire partagée élevée dépassant 100 Gigaoctets par nœud). Véritable instrument d’exploration des simulations, ce logiciel permet de naviguer interactivement et en immersion dans les données. Elles contribuent également à découvrir ou à étudier des structures astrophysiques à échelles multi ples : par exemple, la formation des grandes structures cosmologiques, des galaxies, turbulences du milieu interstellaire participant à la création des « cœurs protostellaires » où se forment les étoiles, dynamique des disques d’accrétion planétaires, magnétohydrodynamique de la zone convective solaire… Figure 2 Visualisation d’une simulation cosmologique. À gauche : le maillage à résolution adaptative employé dans la simulation, représenté à travers les mailles de résolutions les plus élevées. À droite : la distribution de la densité de matière calculée sur ce maillage. Figure 1. Le logiciel de visualisation interactive SDvision utilisé, ici, pour visualiser le champ magnétique obtenu dans une simulation de la zone convective solaire. Le logiciel est employé dans une salle de visualisation stéréoscopique installée au Service d’astrophysique (SAp/Irfu). Il s’agit d’une technique qui appréhende complètement la structuration des volumes simulés dans les trois dimensions. Ces développements, qui ont pour moteur principal la recherche fondamentale en astrophysique, devraient également bénéficier à d’autres domaines de la recherche et de la technologie utilisant la simulation numérique : par exemple, pour explorer des simulations du transport turbulent dans le plasma du futur réacteur expérimental ITER (pour International Thermonuclear Experimental Reactor) actuellement en construction sur le centre du CEA de Cadarache. Il s’agit d’une collaboration avec l’Institut de recherche sur la fusion magnétique (DSM). La montée en puissance des grands centres de calculs nationaux laisse prévoir l’obtention de simulations toujours plus massives et plus complexes mais aussi de nouveaux défis à relever en matière de visualisation des simulations destinées à l’astrophysique. > Daniel Pomarède et Bruno Thooris Service de l’électronique, des détecteurs et de l’informatique (Sedi) Institut de recherche sur les lois fondamentales de l’Univers (Irfu) Direction des sciences de la matière (DSM) CEA Centre de Saclay CLEFS CEA - N°58 - AUTOMNE 2009 153 projet COAST



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :


Clefs numéro 58 Automne 2009 Page 1Clefs numéro 58 Automne 2009 Page 2-3Clefs numéro 58 Automne 2009 Page 4-5Clefs numéro 58 Automne 2009 Page 6-7Clefs numéro 58 Automne 2009 Page 8-9Clefs numéro 58 Automne 2009 Page 10-11Clefs numéro 58 Automne 2009 Page 12-13Clefs numéro 58 Automne 2009 Page 14-15Clefs numéro 58 Automne 2009 Page 16-17Clefs numéro 58 Automne 2009 Page 18-19Clefs numéro 58 Automne 2009 Page 20-21Clefs numéro 58 Automne 2009 Page 22-23Clefs numéro 58 Automne 2009 Page 24-25Clefs numéro 58 Automne 2009 Page 26-27Clefs numéro 58 Automne 2009 Page 28-29Clefs numéro 58 Automne 2009 Page 30-31Clefs numéro 58 Automne 2009 Page 32-33Clefs numéro 58 Automne 2009 Page 34-35Clefs numéro 58 Automne 2009 Page 36-37Clefs numéro 58 Automne 2009 Page 38-39Clefs numéro 58 Automne 2009 Page 40-41Clefs numéro 58 Automne 2009 Page 42-43Clefs numéro 58 Automne 2009 Page 44-45Clefs numéro 58 Automne 2009 Page 46-47Clefs numéro 58 Automne 2009 Page 48-49Clefs numéro 58 Automne 2009 Page 50-51Clefs numéro 58 Automne 2009 Page 52-53Clefs numéro 58 Automne 2009 Page 54-55Clefs numéro 58 Automne 2009 Page 56-57Clefs numéro 58 Automne 2009 Page 58-59Clefs numéro 58 Automne 2009 Page 60-61Clefs numéro 58 Automne 2009 Page 62-63Clefs numéro 58 Automne 2009 Page 64-65Clefs numéro 58 Automne 2009 Page 66-67Clefs numéro 58 Automne 2009 Page 68-69Clefs numéro 58 Automne 2009 Page 70-71Clefs numéro 58 Automne 2009 Page 72-73Clefs numéro 58 Automne 2009 Page 74-75Clefs numéro 58 Automne 2009 Page 76-77Clefs numéro 58 Automne 2009 Page 78-79Clefs numéro 58 Automne 2009 Page 80-81Clefs numéro 58 Automne 2009 Page 82-83Clefs numéro 58 Automne 2009 Page 84-85Clefs numéro 58 Automne 2009 Page 86-87Clefs numéro 58 Automne 2009 Page 88-89Clefs numéro 58 Automne 2009 Page 90-91Clefs numéro 58 Automne 2009 Page 92-93Clefs numéro 58 Automne 2009 Page 94-95Clefs numéro 58 Automne 2009 Page 96-97Clefs numéro 58 Automne 2009 Page 98-99Clefs numéro 58 Automne 2009 Page 100-101Clefs numéro 58 Automne 2009 Page 102-103Clefs numéro 58 Automne 2009 Page 104-105Clefs numéro 58 Automne 2009 Page 106-107Clefs numéro 58 Automne 2009 Page 108-109Clefs numéro 58 Automne 2009 Page 110-111Clefs numéro 58 Automne 2009 Page 112-113Clefs numéro 58 Automne 2009 Page 114-115Clefs numéro 58 Automne 2009 Page 116-117Clefs numéro 58 Automne 2009 Page 118-119Clefs numéro 58 Automne 2009 Page 120-121Clefs numéro 58 Automne 2009 Page 122-123Clefs numéro 58 Automne 2009 Page 124-125Clefs numéro 58 Automne 2009 Page 126-127Clefs numéro 58 Automne 2009 Page 128-129Clefs numéro 58 Automne 2009 Page 130-131Clefs numéro 58 Automne 2009 Page 132-133Clefs numéro 58 Automne 2009 Page 134-135Clefs numéro 58 Automne 2009 Page 136-137Clefs numéro 58 Automne 2009 Page 138-139Clefs numéro 58 Automne 2009 Page 140-141Clefs numéro 58 Automne 2009 Page 142-143Clefs numéro 58 Automne 2009 Page 144-145Clefs numéro 58 Automne 2009 Page 146-147Clefs numéro 58 Automne 2009 Page 148-149Clefs numéro 58 Automne 2009 Page 150-151Clefs numéro 58 Automne 2009 Page 152-153Clefs numéro 58 Automne 2009 Page 154-155Clefs numéro 58 Automne 2009 Page 156-157Clefs numéro 58 Automne 2009 Page 158-159Clefs numéro 58 Automne 2009 Page 160-161Clefs numéro 58 Automne 2009 Page 162-163Clefs numéro 58 Automne 2009 Page 164-165Clefs numéro 58 Automne 2009 Page 166-167Clefs numéro 58 Automne 2009 Page 168