Machine Avide de Développements Numériques et Eprise de Simulations Sophistiquées
"One Step Beyond" computational limits!
Cette page expose un projet datant du début des années 2000s, que je conserve pour l'histoire montrant à quel point la technologie informatique a évolué depuis cette période où notre machine était l'une des plus avancées!!
Responsables du Projet: Patrick MICHEL et Yannick PONTY, chercheurs au CNRS à l'O.C.A.
Remerciements: Ce projet a pu se concrétiser grâce aux financements obtenus du programme Bonus-Qualité-Recherche 2001-2002 de l'O.C.A., du laboratoire UMR 6529 Cassini de l'O.C.A. et du Département SPI (Sciences Physiques de l'Ingénieur) du CNRS. Nous tenons à les remercier.
MADNESS
est une machine dédiée au calcul parallèle massif (ce type de machine parallèle consistant en un groupe de PCs reliés est communément appelé Beowulf). Elle est composée de:- 8 PCs esclaves bi-processeurs AMD Athlon (1.8 Ghz/processeur) reliés par un réseau Gigabyte pour permettre une communication rapide et efficace entre les processeurs se partageant un calcul.
- 1 PC master bi-processeur qui contrôle le bon fonctionnement des simulations et contient les disques durs sur lesquels s'inscrivent les résultats (ainsi, les autres PCs esclaves consacrent tout leur temps CPU au calcul).
- Fournie par la société Alineos
Deux librairies MPI sont disponibles pour compiler nos codes parallèles: LAM/MPI et MPICH.
P. Michel effectue des simulations massives de collisions entre corps solides (astéroïdes) avec un code N-corps parallèle qui peut calculer l'évolution gravitationnelle de plusieurs centaines de particules massives et traîter les collisions entre celles-ci. Certains résultats déjà obtenus ont fait l'objet de publications dans des journaux prestigieux tels que Nature et Science (cliquer ici pour plus d'information). A titre indicatif, pour une simulation mettant en jeu 200,000 particules, les performances du code peuvent atteindre jusqu'à 2 GigaFlops en utilisant 8 processeurs répartis sur 4 PCs bi-processeurs.
Y. Ponty effectue des simulations massives de magnéto-hydrodynamique (MHD) avec un code parallèle dans le but d'étudier l'effet dynamo.
Machine Actively Devoted to Numerical Experiments and Sophisticated Simulations
"One Step Beyond" computational limits!
Version Française - cliquer ici
Project Managers: Patrick MICHEL and Yannick PONTY, Researchers of CNRS at O.C.A.
Acknowledgements: This project has been made possible thanks to the funds obtained from the Bonus-Qualité-Recherche 2001-2002 Program of O.C.A., the laboratory UMR 6529 Cassini of O.C.A. and from the SPI Department (Sciences Physiques de l'Ingénieur) of CNRS. We are grateful to these different financial sources!
MADNESS is a machine totally devoted to massively parrellel computations (this kind of parallel machines consisting in a cluster of PCs linked through a fast network is usually called Beowulf). It is composed of:
- 8 PCs slaves, bi-processors AMD Athlon (1.8 Ghz/processor) linked through a Gigabyte network in order to achieve fast and efficient communications between the different processors sharing the computation.
- 1 PC master bi-processor which controls the computations and includes hard disks on which results are recorded during the runs (the other PCs slaves have thus their CPU time fully devoted to calculations).
- Supplied by the Society Alineos
Two MPI librairies can be used to compile our parallel codes: LAM/MPI et MPICH.
P. Michel develops massive simulations of collisions between solid bodies (asteroids) with a parallel N-body code called pkdgrav which is able to compute the gravitational evolutions of sereral hundreds of thousands to millions of massive particles and handles particle collisions. Important results have already been published in prestigious journals such as Nature and Science (click here for more information). As an indication, for a simulation with 200,000 particles, the performances of the code can reach up to 2 GigaFlops on 8 processors located on 4 PCs bi-processors.
Y. Ponty develops massive magneto-hydrodynamics simulations (MHD) with a parallel code in order to study the dynamo effect