Supercomputer: Physiker berechnen Nukleonenmasse

astronews.com Redaktion

Registriertes Mitglied
Einem Forscherteam ist es erstmalig gelungen, die Masse der wichtigsten Bausteine der Materie auf theoretischem Weg zu berechnen. Das wichtigste Hilfsmittel der Physiker war dabei der Supercomputer JUGENE am Forschungszentrum Jülich. Die umfangreichen Simulationen der Wissenschaftler bestätigen die Richtigkeit einer grundlegenden physikalischen Theorie, der Quantenchromodynamik. (8. Dezember 2008)

Weiterlesen...
 

Marc

Registriertes Mitglied
Massen berechnet?

In Computern kommt hinten immer nur das raus, was man vorne in Form von Programmzeilen reinsteckt.

Heutzutage verwechseln zu viele Wissenschaftler die physikalische experimentelle Realität mit ihren berechneten Realitäten.

Sie sind einfach verliebt in ihre mathematischen Epizyklen. Sie benutzen immer neuere, umfangreichere mathematische Epizyklen, um ihre alten mathematischen Epizyklen zu beweisen.

Warten wir erstmal ab, was der LHC denn irgendwann an neuem Wissen abliefert. Erst wenn hier Klarheit herrscht, kann man eventuell obige Berichte akzeptieren. Denn das Grundparadigma ist nur dann richtig, wenn das Higgs bewiesen wird und wenn es keine neuen unbekannten Teilchen gibt.

Aber gerade dies lässt sich schon heute anzweifeln. Denn es wurden Hinweise gefunden, dass es möglicherweise noch unbekannte Teilchen gibt, die offenbar eine stark erhöhte Anzahl Müonen produzieren. Dies einmal in Amerika, am Brookhavenbeschleuniger, und einmal bei der hochenergetischen Höhenstrahlung, bei der ebenfalls offensichtlich viel zu viele Müonen produziert werden.

Dies weisst eindeutig auf neue Teilchen hin, die aber nicht mehr mit dem Standardteilchenmodell kompatibel sind.

Also warten wir doch erstmal ab, bevor wir neue mathematische Epizyklen anbeten.

Gruss Marc
 
Zuletzt bearbeitet:

IceyJones

Registriertes Mitglied
ich finde dieses posting etwas zu pessimistisch!
die computer werden mit dem heute vorhandenen wissen (z.b. ART) in form modellen gefüttert, die sich auf beobachtungen stützen. ich erinnere hier z.b. an die millenium-simulation.

und die ergebnisse decken sich oft bestechend mit der realität. das tolle ist doch, dass da nix "schöngerechnet" wird....

und überhaupt scheinst du erstmal alles und jeden zu kritisieren. habe von dir noch nicht ein posting hier gesehen, dass nicht "querschiesst"....
 
Zuletzt bearbeitet:

Aragorn

Registriertes Mitglied
In Computern kommt hinten immer nur das raus, was man vorne in Form von Programmzeilen reinsteckt.
Das ist banal

Heutzutage verwechseln zu viele Wissenschaftler die physikalische experimentelle Realität mit ihren berechneten Realitäten.
[ ] du kennst die Wissenschaftsphilosophie
[x] du hast keine Ahnung und von Popper nie gehört

Sie sind einfach verliebt in ihre mathematischen Epizyklen. Sie benutzen immer neuere, umfangreichere mathematische Epizyklen, um ihre alten mathematischen Epizyklen zu beweisen.
Nicht alles was hinkt ist ein Vergleich. Die Epizykeltheorie sollte nur die "göttlich perfekten" Kreise retten. Erst als man sich dazu überwinden konnte, daß "Gott" unperfekt sein könnte und auch weniger symmetrische Ellipsenbahnen zulassen würde, konnte die Theorie der Bewegung der Himmelskörper beträchtlich vereinfacht werden.
In dem Artikel geht es aber eher darum, daß für die Gleichungen der QCD keine analytischen Lösungen existieren. Diese also numerisch gelöst werden müssen. Das eine hat mit dem anderen nichts zu tun.

Helmut
 
F

fspapst

Gast
Hallo Aragorn,

ist das orbitaler (obitischer) Spaß?
[ ] du kennst die Wissenschaftsphilosophie
[x] du hast keine Ahnung und von Popper nie gehört


Nun, die Rechenalgorythmen und die Eingaben haben, soweit das irgend möglich ist, mit der Protonenmasse nichts am Hut. Trotzdem hat die Rechnung bestechend genau zu der Protonenmasse geführt.
Das ist kein Beweis für die Richtigkeit der Theorie, wohl aber ein Beweis, das die Theorie auch auf Umwegen bestätigt werden kann.

Ich halte die Simulation für einen starken Hinnweis für die Richtigkeit der etablierten theorien.

Gruß
FS
 

Marc

Registriertes Mitglied
und überhaupt scheinst du erstmal alles und jeden zu kritisieren. habe von dir noch nicht ein posting hier gesehen, dass nicht "querschiesst"....

Wissenschaft kommt von Wissen schaffen. Wissen schaffen kann man nur, wenn man auch etwas in Frage stellt, vor allem sich selbst. Wenn nichts mehr in Frage gestellt wird, dann hat man es mit Dogmen zu tun, also mit religionsartigen Theorien.

Ich habe von Anfang an gelernt, "in Frage" zu stellen. Damals gab es noch keine Supercomputer, mit denen man in Billiarden von Rechenschritten die Genauigkeit von irgendwelchen Grössen annähert und dies als "Beweis" feiert.

Heutzutage wird einfach jedes "Modell" als Beweis gefeiert, siehe Klimamodelle, und doch kommt meist nur warme Luft dabei heraus.

Gruss Marc
 

Marc

Registriertes Mitglied
Popper?

[ ] du kennst die Wissenschaftsphilosophie
[x] du hast keine Ahnung und von Popper nie gehört


Nicht alles was hinkt ist ein Vergleich. Die Epizykeltheorie sollte nur die "göttlich perfekten" Kreise retten. Erst als man sich dazu überwinden konnte, daß "Gott" unperfekt sein könnte und auch weniger symmetrische Ellipsenbahnen zulassen würde, konnte die Theorie der Bewegung der Himmelskörper beträchtlich vereinfacht werden.
In dem Artikel geht es aber eher darum, daß für die Gleichungen der QCD keine analytischen Lösungen existieren. Diese also numerisch gelöst werden müssen. Das eine hat mit dem anderen nichts zu tun.

Helmut

Was genau soll dein Hinweis auf Popper denn bedeuten?

Sprichst du hier die Falsifizierbarkeit an oder was anderes?

Eine Theorie wird experimentiel überprüft und dadurch entweder wiederlegt oder vorläufig bestätigt, aber sie wird nicht durch Computerberechnungen bestätigt.

Wenn Computerberechnungen mit den Aussagen des benutzten Modells übereinstimmen, dann bestätigen diese Algorithmen nur die mathematischen Algorithmen des benutzten Modells, aber nicht die physikalische Realität.

Die QED und die QCD sind heute "so genau", dass man sie schon als Gottes Wort ansieht, also als absolut richtig. Und doch wird in beiden Theorien nur mit Supercomputern auf 12 Stellen genau gerechnet, mit Milliarden von Rechenschritten. Der Glaube an die Unfehlbarkeit der Algorithmen kann man klar mit der göttlichen Unfehlbarkeit bei der Epizyklentheorie vergleichen.

Nur ersetzen diese Berechnungen keine physikalischen Experimente.

Gruss Marc
 

Aragorn

Registriertes Mitglied
Sprichst du hier die Falsifizierbarkeit an oder was anderes?
Was anderes

Eine Theorie wird experimentiel überprüft und dadurch entweder wiederlegt oder vorläufig bestätigt, aber sie wird nicht durch Computerberechnungen bestätigt.
Doch, nur weniger als mit Vorhersagen.

Wenn Computerberechnungen mit den Aussagen des benutzten Modells übereinstimmen, dann bestätigen diese Algorithmen nur die mathematischen Algorithmen des benutzten Modells, aber nicht die physikalische Realität.
Falsch.

Die QED und die QCD sind heute "so genau", dass man sie schon als Gottes Wort ansieht, also als absolut richtig. Und doch wird in beiden Theorien nur mit Supercomputern auf 12 Stellen genau gerechnet, mit Milliarden von Rechenschritten. Der Glaube an die Unfehlbarkeit der Algorithmen kann man klar mit der göttlichen Unfehlbarkeit bei der Epizyklentheorie vergleichen.
Blödsinn.

Nur ersetzen diese Berechnungen keine physikalischen Experimente.
Die gab es dazu schon.

Helmut
 

mac

Registriertes Mitglied
Hallo Marc,

Eine Theorie wird experimentiel überprüft und dadurch entweder wiederlegt oder vorläufig bestätigt, aber sie wird nicht durch Computerberechnungen bestätigt.
gut, kloppen wir den Teil der Astrophysik und der Quantenphysik und was weiß ich noch, in die Tonne.



Wenn Computerberechnungen mit den Aussagen des benutzten Modells übereinstimmen, dann bestätigen diese Algorithmen nur die mathematischen Algorithmen des benutzten Modells, aber nicht die physikalische Realität.
Ich übersetze mal: Wenn die Berechnung der Planetenbahnen nach Newton zum selben Ergebnis führen, wie Kepplers Verfahren, dann bestätigt Newton Keppler aber nicht die physikalische Realität. Erst wenn man damit Neptun findet, hat man eine Bestätigung von der Qualität: Messung?

Nun hat man mit dieser Berechnung aber nicht das Ergebnis einer Theorie, sondern das Ergebnis einer Messung bestätigt. Die Protonenmasse. Also Neptun läßt sich damit auch finden. Gut, die war schon vorher bekannt. Macht aber nichts, auch mit dieser Theorie kommt man aufs Ergebnis der Naturbeobachtung Protonenmasse. Die Aussage war ja schon lange vorher da: Damit ist die Protonenmasse auch berechenbar. Nur das Rechnen war bis dato zu mühsam.


Die QED und die QCD sind heute "so genau", dass man sie schon als Gottes Wort ansieht, also als absolut richtig. Und doch wird in beiden Theorien nur mit Supercomputern auf 12 Stellen genau gerechnet, mit Milliarden von Rechenschritten. Der Glaube an die Unfehlbarkeit der Algorithmen kann man klar mit der göttlichen Unfehlbarkeit bei der Epizyklentheorie vergleichen.
steht das so in der Veröffentlichung, oder hat man sich da auch um Fehlerfortpflanzung und ähnlich profanes Zeug gekümmert?

Du setzt eine erstaunlich große Naivität als gegeben voraus, wenn Du solche Aussagen machst. Hast Du Dich davon auch schon mal narren lassen? Was glaubst Du, daß diese Erfahrung einzigartig ist? Das die alle, selbst nach 40 Jahren Computereinsatz. noch so unerfahren sind, wie vorher einige wenige?

Glaubst Du, daß mit einer solchen Bestätigung ein Anspruch auf absolute Wahrheit einher ging? Ich hatte den Eindruck beim Lesen nicht.


Nur ersetzen diese Berechnungen keine physikalischen Experimente.
das würde ich differenzierter sehen. In der Medizin z.B. bewahren solche Experiment-Ersatz-Handlungen ziemlich viele Tiere vor einem grausamen Schicksal. Auch echte Kernwaffentests bleiben uns seitdem erspart. Blech kann man damit tausend mal so schnell und mit viel dünnerem Material als vorher pressen. Wettervorhersage klappt damit auch wesentlich besser, als vor 40 Jahren. Wären da nur fortgepflanzte Fehler im Spiel, würde es nicht besser klappen als beim würfeln. In der Astrophysik ist das Objekt der Begierde unpraktisch weit weg und in der Elementarteilchenphysik aus der Sicht des Experimentators unpraktisch klein und dicht, da hilft so ein Rechenknecht über manchen Equipment- und Geldengpass schon mal hinweg und öffnet ganz nebenbei ein weiteres, ‚Fenster‘ in die Welt. Natürlich mit dem Risiko von Trugbildern. Davor bist Du aber auch beim herkömmlichen Experimentieren nicht ganz sicher.

Herzliche Grüße

MAC
 

Lumen

Registriertes Mitglied
etwa 80 Prozent dieser Masse ist dunkel und besteht aus bislang unbekannten Elementar

womit wir beim Äther wären!Ich bin zwar kein Wissenschaftler aber ich Wette drum das es am Ende heissen wird , die Dunkle Materie ist so gar nicht sondern sie ist das Medium in dem die Materie existiert die wir sehen.Na hoffentlich platzt dann diese Blase nicht!Denn dann wärs aus um uns!:cool::cool::D:D
 

ralfkannenberg

Registriertes Mitglied
womit wir beim Äther wären!Ich bin zwar kein Wissenschaftler aber ich Wette drum das es am Ende heissen wird , die Dunkle Materie ist so gar nicht sondern sie ist das Medium in dem die Materie existiert die wir sehen.Na hoffentlich platzt dann diese Blase nicht!Denn dann wärs aus um uns!:cool::cool::D:D
Hallo Lumen,

ich würde an Deiner Stelle von der Wette abraten.

Und bevor Du solche Prozentangaben wie in der Überschrift nennst, würde ich diese zuerst überprüfen: Man schätzt, dass die baryonische Masse rund 5% ausmacht; Neutrinomasse wohl deutlich weniger; die Dunkle Materie macht dann weitere 20% aus und die Dunkle Energie den Rest, also rund 75%.

Es ist durchaus wahrscheinlich, dass die Dunkle Materie aus neuen Elementarteilchen besteht, zum Beispiel dem leichtesten supersymmetrischen Partner, der aus den manchen Grand Unified Theories vorhergesagt wird; ob indes die Dunkle Energie auf ein oder mehrere Elementarteilchen zurückgeführt werden kann ist noch völlig offen !

Indes unterscheiden sich die Eigenschaften der Dunklen Materie und des Äther (welchen Äther meinst Du eigentlich genau - die Äther-Vorstellungen haben im Laufe der Zeit mehrfach geändert !) wesentlich.

Wenn Du den Ätherbegriff als "Vakuum" interpretierst, dann könnte man über die Vakuumenergie einen Bezug zur Dunklen Energie herzuleiten versuchen. Allerdings verstehe ich nicht ganz, warum man hier einen Ätherbegriff wiedereinführen möchte, denn der Begriff des "Vakuum" ist eigentlich gut genug und braucht meiner Einschätzung nach kein veraltetes und Missverständnisse verursachendes Synonym.


Freundliche Grüsse, Ralf
 

El Cattivo

Registriertes Mitglied
Eine Theorie wird experimentiel überprüft und dadurch entweder wiederlegt oder vorläufig bestätigt, aber sie wird nicht durch Computerberechnungen bestätigt.
Hallo Marc

Wie leitest du denn Vohersagen aus einer mathematische formulierten Theorie ab, wenn nicht durch rechnen?

mfg
 

Orbit

Registriertes Mitglied
Und bevor Du solche Prozentangaben wie in der Überschrift nennst, würde ich diese zuerst überprüfen: Man schätzt, dass die baryonische Masse rund 5% ausmacht; Neutrinomasse wohl deutlich weniger; die Dunkle Materie macht dann weitere 20% aus und die Dunkle Energie den Rest, also rund 75%.

Ralf
Und wo siehst Du nun ein Problem in Lumens Aussage?
20% von 25% = 80% :)
Orbit
 
Zuletzt bearbeitet:
F

fspapst

Gast
Ralf
Und wo siehst Du nun ein Problem in Lumens Aussage?
20% von 25% = 80%
Ich glaube Ralf sieht eher die Problematik, dass die DM mit den Äther gleichgesetzt wird.
Allerdings sollte der Äther gleichmäßig verteilt sein um als Träger für Licht zu fungieren.
Die DM scheint dagegen nicht gleichmäßig verteilt zu sein. :eek:

Damit kann wohl auch nicht DM als Äther verstanden werden.

Das die Äther-Thesen immer mal wieder verändert ans Tageslicht gezerrt werden, liegt an der experimentellen Widerlegung des Äthers. Da sind seinerzeit (und heute auch noch) viele Unbekannte als Voraussetzung angenommen worden. Damit wurde also nur ein kleiner Teil der Äther-Thesen widerlegt.
Viel wichtiger ist aber, was von den Äther-Befürwortern gerne missachtet wird, dass es Experimente gibt, die belegen, dass EM-Wellen unabhängig von irgendwelchen anderen Kräften, Massen, Feldern, DM oder Äther sich im Raum ausbreiten können. :)

Gruß
FS
 
F

fspapst

Gast
Gut möglich; aber was hat das mit dem zu tun, was ich eingewendet habe?
Dein Einwand (80%) war absolut richtig!

Sorry wenn ich dein Zitat so unkommentiert gelassen habe. Das impliziert natürlich irgendwas, was nicht beabsichtigt war. :eek:
Ich neige mich demütig vor dem Höllenhund der hier aus großer Höhe überwacht, welch deutschsprachiger Kontext-Müll hier auf der flachen Erde (?Scheibe?) zuweilen produziert wird. :D

Gruß an (in den) Orbit
FS
 

Bernhard

Registriertes Mitglied
steht das so in der Veröffentlichung, oder hat man sich da auch um Fehlerfortpflanzung und ähnlich profanes Zeug gekümmert?

Hallo MAC,

mir ist bekannt, dass man auf beschränkten Gebieten auch mit extrem hoher Genauigkeit rechnen kann, aber von Fehlerfortpflanzungen in Programmen mit finiten Elementen ist mir bisher nichts "untergekommen". Weißt du dazu mehr, bzw. wie man dieses Problem aktuell löst?
 

mac

Registriertes Mitglied
Hallo Bernhard,

mir ist bekannt, dass man auf beschränkten Gebieten auch mit extrem hoher Genauigkeit rechnen kann, aber von Fehlerfortpflanzungen in Programmen mit finiten Elementen ist mir bisher nichts "untergekommen". Weißt du dazu mehr, bzw. wie man dieses Problem aktuell löst?
meine Frage, besonders in diesem speziellen :rolleyes: Falle, bezog sich auf meine Erwartung, daß man in diesen ‚Kreisen‘ über das Stadium ‚gewünschte Taste auf dem Taschenrechner treffen‘ und angezeigtem Ergebnis erst dann vertrauen, wenn es mit biologischer Überschlagsrechnung ausreichend übereinstimmt, hinaus ist. Und eben die hier vorgetragene Unterstellung, daß es nur bis zum Taste Treffen reicht, diese Erwartung eben nicht erfüllte.

Ich kenne genau, nur meine eigenen Verfahren zur ‚Abwehr‘ von Fehlerfortpflanzungen und die sind mehr auf iterative Verfahren zur Kurvenanpassung gemünzt, also bekannte Meßwerte werden mit den Ergebnissen einer Funktion verglichen und die Parameter der Funktion werden angepaßt. Dabei kann man nur entweder völlig im Nirvana oder auch in irgend einem lokalen Minimum landen, oder das tatsächliche Minimum finden. Das sieht man aber spätestens, wenn man sich das Ergebnis graphisch anschaut.

Systematische Theorien zu speziell diesem Thema kenne ich nicht. (die wurden während meines Studiums, zumindest bei uns, noch gar nicht gelehrt). Das führte natürlich dazu, daß ich mir bei neuen Anforderungen ganz sorgfältig eigene Gedanken darüber mache, wo mögliche Fehlerquellen liegen könnten. Im Bereich der Rechenungenauigkeit auch mit entsprechend angelegten Vergleichstests. Hier im Forum mache ich das auch, aber da nix davon abhängt, nur (sozusagen) Postbegleitend, so daß ich bei neuen Ideen manchmal erst einige Posts später merke, daß ich einem Fehler aufgesessen bin. :D

UMa sprach das neulich mal an, daß es ganz spezielle Sprachen gibt, die mit wesentlich höherer Genauigkeit rechnen können. Ich selbst kenne dafür nur ein Do-it-your-self Verfahren, mit einer selbst gestrickten String-Algebra, das vor vielen Jahrzehnten, muß ich wohl inzwischen sagen, ich meine in der CT‘, für die Grundrechenarten beschrieben wurde und im Prinzip eine Genauigkeit der Zahlendarstellung zuließ, die der maximalen Stringlänge der Programmiersprache entsprach. Ich denke mal, daß man dieses Prinzip oder was Besseres auch schon vorher anständig ausgebaut hat(te), denn die Anforderungen dafür, gabs auch schon damals.

Vielleicht kann mir aber einer meiner älteren Söhne dazu was genaueres sagen, wenn ich sie das nächste mal sehe.

Herzliche Grüße

MAC
 
Oben