Galaxienentwicklung im Computer
Redaktion
/ idw / Pressemitteilung der Universität Wien astronews.com
13. Februar 2012
Wissenschaftler der Universität Wien und des National Astronomy
Observatory of China in Peking versuchen im Rahmen eines
gemeinsamen Projektes die numerische Modellierung der Entwicklung von Galaxien zu optimieren. Dafür steht ihnen nicht nur der schnellste
Rechner Österreichs, sondern auch ein innovativer Cluster zur
Verfügung, der die Rechenleistung von Grafikkarten nutzt.
Numerisches Modell eines galaktischen Windes
einer Zwerggalaxie im ersten
Sternentstehungsausbruch. Zu sehen sind vier
Stadien im Laufe von 1 Milliarde Jahre (rot:
heißes Gas, grün: kühle Wolken, blau: Sterne).
Bild: L. Lui L., M. Petrov, P. Berzik, G.
Hensler, R. Spurzem |
Die Entwicklung und die Wechselwirkung von Galaxien mit ihrer Umgebung sind
Gegenstand eines Projekts, das vom Austauschprogramm für
Wissenschaftlich-Technische Zusammenarbeit des Österreichischen
Austauschdienstes und dem chinesischen Ministerium für Wissenschaft und
Technologie gefördert wird. Leiter des Forschungsvorhabens sind die
Astrophysiker Gerhard Hensler von der Universität Wien und Rainer Spurzem vom National Astronomy Observatory of China
(NAOC) der Chinesischen Akademie der Wissenschaften in Peking, der
außerdem auch an der Universität Heidelberg forscht. Darüber hinaus ist
Weipeng Lin, Professor am NAOC in Shanghai, ein weiteres Institut der
Akademie, Partner.
Im Rahmen des Kooperationsprojekts "High-Performance Computational
Astrophysics" soll die Entstehung und Entwicklung einer Zwerggalaxie mit
einem speziellen Verfahren, nämlich einem sogenannten "chemo-dynamischen
Mehr-Phasen smoothed particle hydrodynamic Code" (cdSPH), am Computer
simuliert werden. "Die einzige Möglichkeit Galaxien und ihre permanenten
Veränderungsprozesse zu beschreiben, ist die Simulation bzw.
Modellierung am Computer. Und diese wollen wir im Zuge der neuen
Kooperation mit China optimieren", erklärt Hensler.
Als Ausgangspunkt dienen dabei Beobachtungen von Galaxien. Diese versucht man dann am Computer "nachzubauen", um
die beobachtete Realität mit dem berechneten Modell zu vergleichen. Hierzu ist es
notwendig, die Komponenten der Galaxien, Gas, Sterne und auch Dunkle
Materie, so detailliert wie möglich zu beschreiben. Eine besondere
Schwierigkeit ist, dass man es
dabei mit einer Vielzahl von Größenordnungen und Zeitskalen zu tun hat: So
findet man Sterne im Bereich von ein Zehntel bis zu rund dem
Hundertfachen der Sonnenmasse und mit Lebensdauern von 10 Millionen
Jahren bis zu vielen Milliarden Jahren. Die "kurzlebigen" Sterne
explodieren als Supernovae und geben dabei über 90 Prozent ihrer Masse
wieder ins All ab.
Sterne wiederum entstehen aus einer kühlen Komponente des Gases, das den
Raum zwischen den Sternen ausfüllt. Dessen Dichte ist teils so gering,
dass sich nur ein Atom in einem Kubikmeter des Raumes befindet. Darüber
hinaus schwanken die Temperaturen dieses interstellaren Mediums von 10
Kelvin, also knapp oberhalb des absoluten Nullpunkts bei -273 Grad
Celsius, bis zu mehreren 10 Millionen Grad Celsius. Da eine Galaxie von
ihrer Umgebung beeinflusst wird, also mit anderen Galaxien wechselwirkt
oder extragalaktisches Gas einfängt, muss in numerischen Simulationen
eine Dimension von weit mehr als 100.000 Lichtjahren "überschaut"
werden, während sich die Sternentstehung in "kleinen" Gaswolken von oft
nur wenigen Lichtjahren Durchmessern abspielt.
"Galaxien sind unglaublich komplexe Systeme. Zuerst bereiten wir die
Galaxienbedingungen für den Computer vor. Dazu zerteilen wir sie in ihre
Komponenten, repräsentiert durch Millionen von Massenpaketen, dann geben
wir die sie beeinflussenden inneren und äußeren Kräfte und Prozesse ein,
wie etwa Gravitation, Abkühlung, Erwärmung oder Gaszusammensetzung und
die Wechselwirkungen zwischen ihnen, wie Sternentstehung und stellaren
Massenverlust. Anschließend werden die Bereiche oder Teilchen für einen
begrenzten Zeitschritt auf die Prozessoren des Computers verteilt,
entsprechend den Kräften und Prozessen durchgerechnet und danach mit
allen anderen wieder verbunden. Dadurch werden die globalen Einflüsse
der einzelnen Bereiche ermittelt, bevor alles wieder parallel auf die
Prozessoren verteilt wird. Der jeweilige Status des Modells ist während
des Rechenvorgangs jederzeit abrufbar. Am Schluss steht das fertige
Modell der Entwicklung einer Galaxie", beschreibt Hensler das
Vorgehen.
Hensler und seinen Mitarbeitern steht für diese umfangreichen
Berechnungen der Vienna Scientific Cluster (VSC), der
schnellste Rechner Österreichs, zur Verfügung. Der Supercomputer wurde
im Herbst 2009 von der Universität Wien, der Technischen Universität und
der Universität für Bodenkultur in Betrieb genommen, 2011 wurde die
Ausbaustufe VSC2 eröffnet. Doch damit nicht genug: "In den Grafikkarten
normaler PCs befinden sich allerdings auch bereits sehr leistungsfähige
Prozessoren, sogenannte Graphical Processing Units (GPU), die
zwar weniger 'intelligent' sind, beim Zusammenfassen zu einem Cluster
aber unschlagbar schnell", so Hensler. Ein weiterer Vorteil dieser auf
Grafikkarten beruhenden Supercomputer: Sie sind im Vergleich zu
"normalen" Parallelrechnern sehr günstig zu beschaffen.
In Peking wurde 2009 einer der schnellsten GPU-Cluster mit 171 GPUs
installiert, der 2011 für seine Leistung von 50 Teraflops (das sind
50.000 Milliarden Gleitkommaoperationen pro Sekunde) mit dem "PRACE
Award of the International Supercomputing Conference ISC11"
ausgezeichnet wurde. Zusätzlich haben die Wissenschaftler aus Peking
Zugriff auf das Mole-8.5-System des chinesischen Institute of
Process Engineering mit über 2.000 GPUs, die sogar eine Leistung im
Petaflop-Bereich erzielen.
|