Chaostheorie 2.0 - deterministisch chaotische Systeme in der Physik

Bernhard

Registriertes Mitglied
Hallo antaris,

du kannst am Nachbarthema Grundlagenprobleme der Quantenmechanik sehen, dass das aktuell gut gesicherte Wissen über die physikalischen Vorgänge auf kleinen Längenskalen eigentlich bereits bei etwa 1e-10 m endet. Das ist ein Angström und entspricht etwa dem Atomradius eines Wasserstoffatoms. So gesehen sind Überlegungen zu physikalischen Vorgänge im Bereich der Plancklänge fast schon notwendigerweise äußerst spekulativ.

Das soll aber nicht heißen, dass man sich nicht allgemein für Chaostheorie und das Thema Selbstähnlichkeit interessieren darf. In der Informatik spielt Selbstähnlichkeit zB bei der Produktion von Kinofilmen, dh bei der Simulation natürlicher Vorgänge (Wolken, Feuer, Wälder, Bäume, Textilien, Oberflächenstrukturen, etc) zB mit cgi eine immer wichtigere Rolle.

Ich empfehle in diesem Zusammenhang deshalb eine gewisse Trennung zwischen Informatik und Physik. Nicht jeder Kinofilm ist eine Dokumentation ;).
 

antaris

Registriertes Mitglied
Hallo antaris,

du kannst am Nachbarthema Grundlagenprobleme der Quantenmechanik sehen, dass das aktuell gut gesicherte Wissen über die physikalischen Vorgänge auf kleinen Längenskalen eigentlich bereits bei etwa 1e-10 m endet. Das ist ein Angström und entspricht etwa dem Atomradius eines Wasserstoffatoms. So gesehen sind Überlegungen zu physikalischen Vorgänge im Bereich der Plancklänge fast schon notwendigerweise äußerst spekulativ.

Das soll aber nicht heißen, dass man sich nicht allgemein für Chaostheorie und das Thema Selbstähnlichkeit interessieren darf. In der Informatik spielt Selbstähnlichkeit zB bei der Produktion von Kinofilmen, dh bei der Simulation natürlicher Vorgänge (Wolken, Feuer, Wälder, Bäume, Textilien, Oberflächenstrukturen, etc) zB mit cgi eine immer wichtigere Rolle.

Ich empfehle in diesem Zusammenhang deshalb eine gewisse Trennung zwischen Informatik und Physik. Nicht jeder Kinofilm ist eine Dokumentation ;).
Hallo Berhard,

ja das glaube ich aber es geht mir ja nicht in erster Linie um physikalische Vorgänge, die sich auf der Planck-Skala abspielen.
Im Gegenteil, denn deine Aussage bestätigt nur was ich ausdrücken wollte.
Es geht um die reine Definition der Boxcounting Methode und das damit eben alle Körper/Strukturen zur Berechnung der fraktalen Dimension abgedeckt werden können. Man muss nicht auf die Planck-Länge zurückgreifen und kann ebenso auf größere Volumen zur Abdeckung zurückgreifen.
Wenn die Messprozesse auch nicht mittels Planck-Zeit definiert werden muss, so kann ebenso eine "längere" Zeitskala genutzt werden.
So genau wie möglich aber eben auch nur so genau wie nötig.:)

Laut Schleifenquantengravitation spielen sich dann aber schon noch Dinge auf der Planck.-Skala ab. Die Knoten und Fäden werden ja über die Planck-Lange definiert.

Wenn die Simulation aber eben genau auf deterministisches Chaos aufbaut und so eine "Welt" kreiert werden kann, die unserer ähnelt?
Hängt doch alles nur von der Auflösung (Genauigkeit), der Größe (Ausdehnung) und der dafür benötigten Rechenleitung ab.
Mittels Programmierung werden Axoime definiert, die in der gesamten Simulation vollkommen liberal und damit gleichwertig wirken.
Wo wäre die Quantenmechanik ohne Informatik. Um komplexe fraktale Dimensionen zu analysieren wird man da nicht herumkommen. (Siehe die praktischen Beispiele unten im PDF)
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Wo wäre die Quantenmechanik ohne Informatik.
Die Informatik liefert faszinierende Werkzeuge, die man für die Simulation physikalischer, dh natürlicher Vorgänge verwenden kann. Die grundlegenden Gesetze der Physik gibt aber immer die Natur selbst vor.

BTW: Die Grundlagen der Quantenmechanik wurden deshalb auch vor der modernen Informatik mit ihren ganzen Programmiersprachen entwickelt.
 

antaris

Registriertes Mitglied
Die Informatik liefert faszinierende Werkzeuge, die man für die Simulation physikalischer, dh natürlicher Vorgänge verwenden kann. Die grundlegenden Gesetze der Physik gibt aber immer die Natur selbst vor.
Vollkommene Zustimmung und desto besser wir die Gesetze der Natur kennen, je besser wird die Simulation.

BTW: Die Grundlagen der Quantenmechanik wurden deshalb auch vor der modernen Informatik mit ihren ganzen Programmiersprachen entwickelt.
Auch richtig, klar aber die Informatik erleichter heutzutage die Berechnungen, die ohne Informatik auf Papier durchgeführt wurden.
Zusätzlich können neue Analysamöglichkeiten vielleicht nur mittels Informatik durchgeführt werden? Vielleicht muss in einer Simulation jedes Teilchen iteriert und damit hoch dynamisch berechnet werden?
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Ich weis nicht wie gut die Quelle ist aber ist ein interessantes paper.

https://cdn.intechopen.com/pdfs/28155/InTech-Quantum_gravity_in_cantorian_space_time.pdf

2. Transfinite sets and quantum mechanics
Let us examine the basic concept of a line or more generally a curve. Classical geometry
used in classical mechanics and general relativity the fact that a line is a one-dimensional
object, while a point is zero-dimensional. Furthermore, it would seem at first sight that a line
consists of infinite number of points and that it is simply the path drawn by a zero-
dimensional point moving in the two or three-dimensional space. Classical geometry similar
to classical mechanics has made various tacit simplifications and ignored several subtle
topological facts [2].
If a line is one-dimensional and if it is made of infinite number of points then the sum of
infinitely many zeros should be equal to one. That is of course not true. On the other hand
we know that there is a curve called the Peano-Hilbert curve which is area filling and two-
dimensional [1, 7-20]. By contrast, we can construct a three dimensional cube known as the
Menger sponge which has a fractal dimension more than two and less than three..
 

antaris

Registriertes Mitglied
Ist nicht jede Berechnung eines physikalischen Prozesses eine Simulation einer ausgewählten Teilmenge der Naturgesetze?
Dabei spielt es keine Rolle ob per Hand oder Computer berechnet wird. Mathematik ist doch sozusagen die Programmiersprache der Physik.
 

antaris

Registriertes Mitglied
Das wäre so, wenn Physiker ausschließlich Computersimulationen schreiben würden. Ich glaube nicht, dass das exakt der Realität entspricht :ROFLMAO:

Das ist mir klar und ich denke du weist was ich meine.
Es geht ja überhaupt nicht um die Richtigkeit der Physik. Die QM funktioniert mit Stochastiken super aber kommt damit eben an gewisse Grenzen. Es geht viel mehr darum zu verstehen, warum es überhaupt diese Grenzen gibt.

Wozu aufwändige fraktale Dimension berechnen, wenn die bisherige Physik ausreichend genau aussagen trifft. Ein "über den Tellerrand blicken" ist ja nur in den offenen Fragen notwendig und antworten dazu müssen zwinged die bisherige etablierte Physik beinhalten. Ansonsten wäre es murks. Ich denke aber das ist eben mit den deterministisch chaotischen Systemen möglich.

Wie ich im PDF schon geschrieben hatte, geht es dabei mehr um die Strukturen der Materie, die ja durch die bekannte Physik in schier unendlichen Wechselwirkungen entstehen.
 

antaris

Registriertes Mitglied
du kannst am Nachbarthema Grundlagenprobleme der Quantenmechanik sehen, dass das aktuell gut gesicherte Wissen über die physikalischen Vorgänge auf kleinen Längenskalen eigentlich bereits bei etwa 1e-10 m endet. Das ist ein Angström und entspricht etwa dem Atomradius eines Wasserstoffatoms.

Wie erklärt sich dann eigentlich die durch HERA gemessene innere Struktur der Protonen, die ja endeutig kleiner als der Radius eines Wasserstoffatoms sind?
https://www.pro-physik.de/restricted-files/94251

Und wie die schwache WW, die ja nur auf Entfernungen ca. 1/500 eines Protonenradius untereinander wechselwirkt und eine Strtecke von 1/10 Protonenradius zurücklegt?
https://idw-online.de/de/news?print=1&id=699065

Für die Analyse wurden Daten des ATLAS-Experiments aus den Jahre 2015 und 2016 ausgewertet. Der ATLAS-Detektor zeichnet auf, was bei den Kollisionen zwischen den Protonen passiert, die im Teilchenbeschleuniger LHC mit annähernd Lichtgeschwindigkeit kreisen und schließlich zusammenstoßen. W- und Z-Teilchen entstehen, wenn ein Quark – Bestandteil der hochenergeti-schen Protonen – zufällig ein solches Botenteilchen aussendet. Wegen ihrer kurzen Lebensdauer können diese von den Quarks abgestrahlten Quanten des „Schwachen Lichts“ allerdings nur eine Strecke von 0,1 Femtometer zurücklegen, also ca. 1/10 eines Protonradius, dann wandeln sie sich in andere Teilchen um. Damit sie überhaupt miteinander wechselwirken können, müssen sich diese ultra-kurzen „Lichtschwerter“ zusätzlich auch noch näher kommen als 0,002 Femtometer (ca. 1/500 eines Protonradius). Die nun beobachteten Streuprozesse gehören zu den seltensten Ereignissen, die man bisher am LHC beobachten konnte: Man benötigt ungefähr 20 Billionen Proton-Kollisionen, bis solch eine Konstellation zufällig eintritt.
 

Bernhard

Registriertes Mitglied
du kannst am Nachbarthema Grundlagenprobleme der Quantenmechanik sehen, dass das aktuell gut gesicherte Wissen über die physikalischen Vorgänge auf kleinen Längenskalen eigentlich bereits bei etwa 1e-10 m endet.
Ich muss das scheinbar derart präzisieren, dass mit Wissen ein vollständiges Wissen gemeint ist, in dem Sinne, dass alle denkbaren Details so gut wie verstanden sind.

Demnach würde ich mal ganz "frech" behaupten, dass zB die Physik und Struktur von chemischen Bindungen mit der bestehenden Quantenmechanik im Prinzip (notfalls numerisch) immer im Rahmen dieser Anforderung erklärt werden kann.
 

antaris

Registriertes Mitglied
Ich muss das scheinbar derart präzisieren, dass mit Wissen ein vollständiges Wissen gemeint ist, in dem Sinne, dass alle denkbaren Details so gut wie verstanden sind.

Demnach würde ich mal ganz "frech" behaupten, dass zB die Physik und Struktur von chemischen Bindungen mit der bestehenden Quantenmechanik im Prinzip (notfalls numerisch) immer im Rahmen dieser Anforderung erklärt werden kann.

Ja das streite ich auch nicht ab aber es geht mir nicht wirklich um chemische Bindungen zwischen Atome/Moleküle. Die chaotischen Strukturen mit Längenskalen größer 1e-10 sind dem klassischen Chaos zuzuorden. Die Frage ist ja ob das klassische Chaos seinen Ursprung im kleinsten hat. Es geht darum die Struktur der Teilchen zu verstehen, siehe z.B. die gemessene Struktur des Protons im HERA Experiment.
 

Bernhard

Registriertes Mitglied
Es geht darum die Struktur der Teilchen zu verstehen, siehe z.B. die gemessene Struktur des Protons im HERA Experiment.
Du musst erstmal erklären, wie man im Rahmen deiner Ansätze zB das Spektrum des Wasserstoffatoms erklären kann. Wie wird die Schrödingergleichung hergeleitet?
 

Bernhard

Registriertes Mitglied
Es geht darum die Struktur der Teilchen zu verstehen, siehe z.B. die gemessene Struktur des Protons im HERA Experiment.
Warum liest du nicht einfach die zugehörigen Veröffentlichungen? Mich treibt aktuell auch eher die Frage um, inwieweit man überhaupt von "Teilchen" reden darf/kann.
 

antaris

Registriertes Mitglied
Du musst erstmal erklären, wie man im Rahmen deiner Ansätze zB das Spektrum des Wasserstoffatoms erklären kann. Wie wird die Schrödingergleichung hergeleitet?

Ich kann dir keine mathematische Herleitung nennen aber es gilt auch dort die bisherige Physik.
https://www.spektrum.de/lexikon/physik/wasserstoffspektrum/15429

Bei höherer spektraler Auflösung beobachtet man allerdings Strukturen in den Linien, die Feinstruktur und Hyperfeinstruktur der Spektrallinien. Sie werden durch die Wechselwirkung der inneren Drehimpulse des Atoms und durch relativistische und quantenelektrodynamische Effekte verursacht.

Wenn die Struktur der Protonen eine Selbstähnlichkeit aufweist und bei höherer Auflösung die Strukturen immer zahlreicher werden, so entstht die Feinstruktur und die Hyperfeinstruktur eben genau Aufgrund der gesamten Struktur des Wasserstoffatoms. Die Wechselwirkungen innerhalb des Wasserstoffatoms laufen chaotisch ab und daraus folgt eine geordnete Struktur, die wie im Hera Experiment beim Proton und auch im Atomspektrum des Wasserstoffatom gemessen werden können. Ordnung entsteht aus Chaos.
 

antaris

Registriertes Mitglied
Nicht ohne Grund spricht man in diesem Zusammenhang oftmals lieber von Quantenobjekten . Auch bei der De-Broglie-Bohm-Theorie wird neben den "Teilchen" ein nicht exakt gedeutetes Führungsfeld benötigt.
Ok, da muss ich erst in Ruhe nachlesen.

Quantenobjekt ist ja erstmal ganz grob gesagt die Bezeichnung für Teilchen mit Wellen/Teilchencharackter (bzw. mit Observablen die sich gegenseitig ausschließen).


Postulat 1:
Die Wellenfunktion löst die Schrödingergleichung

Postulat 2:
Die Wellenfunktion wird als skalares Feld definiert in der das Teilchen seine Bewegung nach der Bewegungsgleichung bzw. Führungsgleichung durchführt. Meinst du das skalare Feld der Wellenfunktion als das nicht exakt gedeutetes Führungsfeld?

Postulat 3:
Ein Einteilchensystem ist durch seine Anfangsbedingung t0 und q0 determiniert.
Da der Anfangszustand t0 und q0 aber unbekannt ist, wird über die Quantengleichgewichtsbedingung, die formal äquivalent zur bornschen Wahrscheinlichkeitsinterpretation ist, die Wahrscheinlichkeit angegeben wo sich das Teilchen zum Zeitpunkt t beim Ort q aufhält (unabhängig davon ob gemessen wird oder nicht).

Über die Kontinuitätsgleichung wird sichergestellt, dass das Quantengleichgewicht für alle Zustände gilt. Ausgehend vom Urknall müssen dann alle folgenden Zustände ebenso im Quantengleichgewicht befinden.
Das bedeutet aber, dass ein präparierter Zustand t0 und q0 nicht herzustellen geht. Da die Anfangsbedingungen im Wahrscheinlichkeitsbetrag des Quantengleichgewichts liegen (und somit die Unschärferelation nicht verletzt ist).

Die Wahrscheinlichkeit beruht also nur auf die Unwissenheiot von t0 und q0.
Insgesamt erstmal meiner Meinung sehr gut verträglich mit meiner Vorstellung.

https://www.uni-muenster.de/Physik.TP/archive/fileadmin/lehre/teilchen/ss11/Bohm.pdf
Der genaue Aufenthaltsort eines Teilchens ist
nicht bekannt (sondern es liegen lediglich Wahrscheinlichkeiten vor). Soll der exakte Ort des
Teilchens in Erfahrung gebracht werden muss also eine Ortsmessung durchgeführt werden. Diese
Messung stört die Wellenfunktion des Systems in unvorhersehbarer und unkontrollierbarer
Art und Weise. Der Impuls des Teilchens wird aber gerade durch die Bewegungsgleichung
(2) festgelegt, in die die Phase der Wellenfunktion einfließt. Da es aber unmöglich ist, sowohl
die Wellenfunktion als auch den Teilchenort gleichzeitig exakt zu kontrollieren, können auch
niemals Ort und Impuls eines Teilchens gleichzeitig scharf bestimmt werden, obwohl beide
Größen zu jeder Zeit scharf definiert sind. Auch wenn die Unschärfe zwischen Ort und Impuls
hier nur auf die Unkenntnis des Beobachters zurückgeführt wird, so handelt es sich doch um
eine prinzipielle Unkenntnis. Sie kann nicht durch präzisere Apparaturen oder geschicktere
Versuchsanordnungen überwunden werden.

Die de-Broglie-Bohm-Theorie ist in sich konsistent, ermöglicht im Gegensatz zur Kopenhagener
Deutung eine kontinuierliche Zeitentwicklung des Systems auch während des Messprozesses
(kein Quantenkollaps) und erlaubt eine deterministische Interpretation der nichtrelativistischen
Quantenmechanik. Dennoch fand die Theorie seit ihrer Veröffentlichung 1952 nur geringe
Zustimmung und konnte sich gegenüber anderen Interpretationen nicht durchsetzen. Größter
Segen und Fluch zugleich ist für die de-Broglie-Bohm-Theorie dabei, dass sie zwar alle Vorher-
sagen der Kopenhagener Deutung reproduziert, aber anderseits nicht zu neuen Vorhersagen
führt. Dies gilt, aufgrund des Quantengleichgewichtspostulats, per Definition. Insbesondere
ist es also unmöglich, die Theorien auf einer rein experimentellen Ebene voneinander zu
unterscheiden.
Die deterministisch chaotischen Systeme deuten aber schon in Richtung der De-Broglie-Brohm Theorie. Zumindest ist damit keine Stochastik wie in der Kopenhagener Deutung denkbar.


Geht die Fragestellung in Richtung deines Denkanstoßes auf quanten.de?
 
Zuletzt bearbeitet:
Oben