Ein Schwarzes Loch existiert nicht wirklich – nur eine unendliche Entstehung

Jakito

Registriertes Mitglied
Daryl Janzen, Physiker an der University of Saskatchewan, argumentiert, dass die Allgemeine Relativitätstheorie an keiner Stelle behauptet, dass ein Stern seine Horizongrenze in einer endlichen Gegenwart erreicht. Die Gleichungen beschreiben den Kollaps eindeutig, aber sie sagen gleichzeitig, dass externe Beobachter dieses Stadium niemals erreichen oder beobachten. Der Horizont liegt für sie immer in einem unendlichen zukünftigen Zustand.

Existence, relativity, and cosmology: reconciling foundational tensions in physics by Daryl Janzen (Dated: January 19, 2025)

Publication Citation​

Janzen, D. (2025). Existence, relativity, and cosmology: reconciling foundational tensions in physics. Zenodo. https://doi.org/10.5281/zenodo.14726766

Original Publication Date​

January 23, 2025

Peer-reviewed Publication DOI​

https://doi.org/10.5281/zenodo.14726765
I am grateful to Matt Strassler for an email discussion that helped frame the core arguments in this paper. I also thank ... for valuable discussions and feedback on earlier drafts. ChatGPT was consulted extensively throughout the preparation of this paper, providing assistance in refining arguments, structuring sections, and enhancing clarity. This collaboration highlights the growing role of generative AI in research and writing. ...
 

Jakito

Registriertes Mitglied
Ah, schau an, Daryl Janzen hat also doch eine "Internet-Präsenz," wo er seine Arbeit(en) vorstellt:
Oder auch nicht, die Seite scheint es ja erst seit Juni 2025 zu geben, und scheint sich mehr an Studenten als an Akademiker zu richten:
This is the learning content for an online course I designed in 2015 at the University of Saskatchewan, and have taught anywhere from one to three times per year ever since. The original overview videos show a much younger version of me, back when I was just new to teaching. The content was last updated in 2025.
 

aveneer

Registriertes Mitglied
Das ist für mich kalter Kaffee?
Es beschäftigt sich nicht, mit dem eigentlichen Problem. Gesucht wird eine Beschreibung, in dem das Problem nicht einmal mathematisch besteht.
 

Jakito

Registriertes Mitglied
Das ist für mich kalter Kaffee?
Bedeutet "?", dass Du Dir nicht sicher bist, ob es für Dich kalter Kaffee ist? (Danke für die Reaktion :))

Es beschäftigt sich nicht, mit dem eigentlichen Problem. Gesucht wird eine Beschreibung, in dem das Problem nicht einmal mathematisch besteht.
Die spannende Frage, ob es das eigentliche Problem löst. Denn wenn es das tut, dann besteht das Problem auch mathematisch nicht mehr.

In den Kommentaren des YouTube Videos wurde fleißig diskutiert, ob es das wirklich tut. Beispielhaft (ich bin faul...)
@markusweber1060 schrieb:
Mir fehlt noch ein Aspekt: Schwarze Löche können in ihrer Größe wachsen. Dass Objekte einen Ereignishorizont nie überqueren macht Sinn. Aber wie passt das mit verschieden großen schwarzen Löchern zusammen? Wenn schwarze Löcher wachsen können, dann fällt zwar Masse nicht nicht das schwarze Loch, aber stattdessen müsste der Ereignishorizon hineinfallende Objekte überqueren.

Was denkst du? Wenn ich deine Erklärung weiterführe, dann bewegen sich sowohl Materie, als auch Ereignishorizont aufeinander zu, wodurch Objekte letzten Endes doch verschluckt werden. Aus der Hüfte geschossen: Umso langwelliger das Licht eines Objektes (und ich vermute diese Energie wird auf das schwarze Loch übertragen), umso größer wird das schwarze Loch. Man kann es sich bildlich evtl. wie 2 Wassertropfen vorstellen. Die Grenzschicht hält beide davon ab sich zu verbinden und Wassertropfen können sich berühren ohne zu verschmelzen, bis zu einem gewissne Punkt, an dem diese dann doch verschmelzen.
 

antaris

Registriertes Mitglied
Es beschäftigt sich nicht, mit dem eigentlichen Problem. Gesucht wird eine Beschreibung, in dem das Problem nicht einmal mathematisch besteht.
Die spannende Frage, ob es das eigentliche Problem löst. Denn wenn es das tut, dann besteht das Problem auch mathematisch nicht mehr.
Ich mag den Aspekt der „unendlichen Entstehung“, also die Tatsache, dass in den üblichen Koordinaten eines fernen Beobachters die Oberfläche eines kollabierenden Sterns den Ereignishorizont nur asymptotisch erreicht.

Was ich aber nicht verstehe: Welches „eigentliche Problem“ soll damit genau verschwinden? Meinst du/ihr die Singularität im Inneren (geodätische Unvollständigkeit), das Informationsparadoxon oder „nur“ die anschauliche Schwierigkeit, dass der ferne Beobachter nie sieht, wie etwas den Horizont überquert?

In der klassischen ART ist ja relativ klar: Der Kollaps des Kerns läuft in endlicher Eigenzeit ab, und global entsteht eine BH-Region mit Ereignishorizont; nur in der Schwarzschild-Zeit eines fernen Beobachters geht die Bildung des Horizonts gegen t->∞. Dasselbe gilt dann für das Wachstum: Der Horizont kann in der globalen Raumzeitstruktur über die einfallende Materie „darüberwachsen“, auch wenn der ferne Beobachter nie den Moment des Überschreitens sieht.

Astrophysikalisch war ich – grob gesagt – immer von folgendem Bild ausgegangen: Beim Kernkollaps eines massereichen Sterns kollabiert der innere Teil, während die äußeren Schichten weitgehend als Supernova-Hülle/Nebel nach außen fliegen. Für das Gravitationsfeld außerhalb eines ausreichend großen Radius ist dann nur noch die Gesamtmasse relevant (Birkhoff), nicht im Detail, ob die verbleibende Materie schon komplett hinter dem EH ist oder in einer extrem stark rotverschobenen, dünnen Schale knapp darüber „feststeckt“. Beobachtbar unterscheidet sich das doch kaum. Ob dann nach dem Kollaps noch weiter Materie in das SL fällt, spielt doch keine Rolle -> wieder Birkhoffs Theorem oder was habe ich nicht verstanden?

Vor diesem Hintergrund sehe ich nicht, welches zusätzliche „Problem“ der Standard-Kollaps nach ART hier noch offen lässt, das durch die „unendliche Entstehung“ in Janzens Sinn neu gelöst würde, bis auf die Frage der Interpretation.
 

Jakito

Registriertes Mitglied
Vor diesem Hintergrund sehe ich nicht, welches zusätzliche „Problem“ der Standard-Kollaps nach ART hier noch offen lässt, das durch die „unendliche Entstehung“ in Janzens Sinn neu gelöst würde, bis auf die Frage der Interpretation.
Genau das ist der Punkt: Vermutlich wird von Janzen das echte Problem nicht gelöst. Aber genau diese Tatsache muss man dingfest machen, nicht sagen, es sei ohnehin nicht so wichtig, weil das Traumziel der TOE ohnehin nicht erreicht wird.
 

antaris

Registriertes Mitglied
das echte Problem
Was genau bzw. welches der vielen möglichen Probleme in diesem Zusammenhang meinst du, welches gelöst werden soll?

weil das Traumziel der TOE ohnehin nicht erreicht wird

Mit einer "ein für allemal" Lösung wird - für uns winzige physikalische Systeme in dem großen Ganzen - dieses Ziel wahrscheinlich wirklich niemals erreichbar sein...schon gar nicht, wenn die Komplexität der Natur "aus Furcht vor der Unmöglichkeit" so weit vereinfacht wird, dass letztlich gar keine TOE mehr formuliert werden kann. Ich bin mir "wieder" (relativ) sicher, dass dies die eigentliche Ursache für die fundamentalen offenen Fragen ist.
 
Zuletzt bearbeitet:

aveneer

Registriertes Mitglied
@Jakito
Das Fragezeichen bezog sich darauf, dass ich nichts erfahren habe, das ich nicht kenne. Oder doch?
Zumindest habe ich vor x Jahren schon darüber diskutiert, dass viele Probleme verschwinden, wenn das Universum endlich ist*. Auch C. Rovelli sagt, dass die Singularität nie abgeschlossen ist. Er sagt aber, dass irgendwann QM-Effekte ins Spiel kommen, die zu einem „Bounce/Rückprall” führen, wenn das SL verdampft.
*Wenn das Universum also endlich ist, zum Beispiel beim Big Rip, ... Dann erfahren (aus meiner Sicht) der Beobachter am EH und der ferne Beobachter im Vakuum eine Spaghettifizierung – das gleiche Bild und im Grunde „gleichzeitig”. "Alle Beobachter dasselbe Bild.
Doch was bringt es einem weiter? QM und ART sind getrennt. Es ist eine Diskussion um etwas, die mir nicht weiterhilft. Und wenn dann müsste man auch zeigen, dass das Universum endlich ist. Eine Lösung mit 50% Wahrscheinlichkeit ist keine Lösung.
 

antaris

Registriertes Mitglied
Für mich ist das eigentliche "falsche Grundmodell" hier nicht eine bestimmte Rechnung zum Gravitationskollaps, sondern die zugrunde liegende klassische Annahme! Man setzt eine glatte Raumzeit mit klassischer Metrik und lokal gültigen Einstein-Gleichungen als fundamental voraus und treibt dieses Kontinuumsmodell bis in Regime, in denen es eigentlich nur noch eine Effektivbeschreibung sein kann.

Aus genau dieser Grundannahme folgen dann nicht nur die bekannten Singularitätsprobleme, sondern auch der ganze Flickenteppich an Reparaturversuchen: Bounces, exotische Materie, spezielle QG-Effekte, die genau dort eingreifen, wo das Modell aus mathematischer Sicht kollabiert. Das erinnert mich stark an die Epizyklen – nicht, weil GR als Effektivtheorie "schlecht“ wäre, sondern weil man an einem zu hoch aufgehängten Beschreibungsniveau festhält und dort immer wieder neue Korrekturen einzieht.

Janzen zeigt keine Lösung auf aber er liegt dennoch ziemich richtig und ich habe es - die unendliche Entstehung - in meiner Geschichte fest eingeplant (nicht erst seit dem Beitrag von Jakito).
 

aveneer

Registriertes Mitglied
Janzen zeigt keine Lösung auf aber er liegt dennoch ziemich richtig..
Es ist nur eine Interpretation unter Voraussetzung, dass eine bestimmte Annahme richtig ist. Und liegt dann ziemlich richtig.
Man setzt eine glatte Raumzeit mit klassischer Metrik und lokal gültigen Einstein-Gleichungen als fundamental voraus
Man setzt es nicht voraus, sondern hat nichts anderes, das in sich geschlossen logisch ist. Es ist nur so, dass die ART keine Mikrozustände beschreibt, wie es hier am Übergang zur Quantentheorie der Fall sein müsste (Hawking-Strahlung, Unruh-Effekt, Entropie, holographisches Prinzip des Vakuums usw.). Was fehlt, ist ein Übergang von einer glatten Oberfläche zu einer glatten Oberfläche. Es wird weitergehen. Ich denke, dass die Informationserhaltung die Ausbildung eines EHs und damit einer Singularität unterbindet. Die Informationserhaltung bedingt die Geometrie – nicht umgekehrt. Information (auch im Sinne von dE) sagt, wie sich der Raum krümmen muss, damit sie nicht verloren geht. Die Geometrie zeigt uns, wie Information nicht verloren geht. Die Anzahl von Publikationen zu Entropie, ~ A/lp^2 usw. Bildschirme und Informationserhaltung... Jacobson/Verlinde etc. https://www.mdpi.com/1099-4300/27/8/859; https://www.mdpi.com/1099-4300/27/8/870
Was ich sagen möchte - es geht auch mit ART wenn sie sich die glatte Oberfläche mit der QM teilt.
 

antaris

Registriertes Mitglied
Es ist nur eine Interpretation unter Voraussetzung, dass eine bestimmte Annahme richtig ist. Und liegt dann ziemlich richtig.
Genau aber eine logische Folgerung unter korrekte Prämissen muss zwangsläufig ebenso korrekt interpretiert sein. Was die korrekten Prämissen sind, das ist die Frage, um die sich die philosophische Diskussion dreht.
Man setzt es nicht voraus, sondern hat nichts anderes...
Doch natürlich hat man anderes (causal set, causal dynamical triangulation, LQG, strings, simplicial complexe, ...).
das in sich geschlossen logisch ist
Du meinst den Formalismus? Das strete ich nicht ab aber auch die Theorie der simplizialen Netzwerke ist Formal in sich geschlossen. Welcher Physiker würde eine Theorie als etabliert akzeptieren, welche nicht formal in sich geschlossen ist?
Der Formalismus ist hier überhaupt nicht das Problem, sondern dessen Gültigkeitsbereich, der überdehnt wird.
Was fehlt, ist ein Übergang von einer glatten Oberfläche zu einer glatten Oberfläche.
Erklär mir das mal bitte im Zusammenhang der Hydrodynamik, wie du das bewerkstelligen willst.
Ich denke, dass die Informationserhaltung die Ausbildung eines EHs und damit einer Singularität unterbindet.
Informationen sind metaphysisch - in dem Sinne, dass sie keine Substanz, sondern eine Art Buchhaltung über physikalische Zustände ist, denn sie benötigen eine Interpretation. Physisch sind dagegen die energetischen Träger der Information.

Schwarze Löcher müssen in meinem Bild "zwangsläufig" entstehen (ich werde noch zeigen, was ich damit meine) und das ist dann auch nicht mystisch aber es entstehen dabei keine Singularitäten. Wir interpretieren lediglich die uns empirisch zugänglichen Informationen, sodass in unserer Vorstellung Singularitäen entstehen. Da die Summe aller empirisch zugänglichen Informationen nicht 100% aller möglichen Informationen sein kann (und nie wird), so kann jede darauf aufbauende Folgerungen oder Interpretation 100% nicht realistisch sein, in dem Sinne, dass es sich nicht um eine ontologische 1:1 Beschreibung der Natur handeln kann.

Die Physik beschreibt nicht die Natur wie ist, weil sie nicht will, sondern weil sie nicht anders kann, da die Informationen unvollständig sind bzw. umso unvollständiger werden, je weniger empirische Informationen verfügbar sind. Wir reden hier über Regime, die empirisch gar nicht zugänglich sind.

Wenn ich Popper richtig verstanden habe, dann ist das nicht mal ein Problem eine Hypothese aufzustellen, die in teilen nicht emprisch testbar ist. Jedenfalls solange sie in sich schlüssig/geschlossen und die empirisch gewonnenen Informationen widergibt bzw. schlüssig Re-Interpretiert. Das wäre zwar eine Hypothese für immer aber dafür keine vollkommene Spekulation.
Die Informationserhaltung bedingt die Geometrie – nicht umgekehrt. Information (auch im Sinne von dE) sagt, wie sich der Raum krümmen muss, damit sie nicht verloren geht.
Nein, es ist Energie bzw. dessen subtanzielle Träger, im Sinne der Relation von E=mc^2, die alles bestimmt und Informationen überträgt.
Jacobson und Verlinde verlagern das Problem einzig in die Entropie und dann kommst sowas wie "entropische Kraft" dabei raus. Entropie ist aber keine Kraft, sondern ein Maß über die Mikrozustände eines Systems bzw. über den Unterschied zwischen Systemen.
Ich bin da viel mehr bei Bianconi.
Was ich sagen möchte - es geht auch mit ART wenn sie sich die glatte Oberfläche mit der QM teilt.
Ja aber man muss halt Epizyklen dafür bauen, damit das eigentliche Problem - in meinen Augen einzig bzw. hauptsächlich die klassische Singularität - umschifft wird. Mein Ziel ist es dagegen die fehlenden Prozente des nicht empirisch zugänglichen Wissen zu modellieren, genau wie es bei diversen anderen Ansätzen auch gemacht wurde/wird. Sodass die Interpretation des Ganzen in unseren Köpfen eben keine Singularität mehr enthält, sondern an dessen Stelle etwas anderes, logisch nachvollziehbares tritt...
 
Zuletzt bearbeitet:

aveneer

Registriertes Mitglied
@antaris
Ich werde hier jetzt nicht meine private Sichtweise wiedergeben.
Aber was du hier schreibst, lässt sich nicht mehr nachvollziehen.
A)Information bewegt sich mit c
B)Und die physikalischen Gesetze sind unabhängig vom Ort.
Wenn du A und B akzeptierst bist du ART konform.
Es gibt Alternativen, doch diese sind nicht- in sich geschlossen - soviel ich weiß.
 

antaris

Registriertes Mitglied
A)Information bewegt sich mit c
B)Und die physikalischen Gesetze sind unabhängig vom Ort.
Wenn du A und B akzeptierst bist du ART konform.
Die ART ist aber nicht mit Singularitäten konform. Das ist außerhalb vom Gültigkeitsberech, sprich die ART gilt in diesem Regime nicht mehr. Sie kann also nicht fundamental sein.

Glattheit entsteht in der Natur immer, wenn strukturen immer grobkörniger betrachtet werden. Eben genau wie bei den Wassermolekülen und dem Wasser. Wir wissen, dass zwischen den Molekülen kein Wasser ist aber das coarse graining lässt aus unserer Sicht aus den diskreten Molekülen, die eigentlich aneinander stoßen, eine makroskopische Flüssigkeit entstehen, welche den Gesetzen der Hydrodynamik gehorcht. Das ist m.E. bei der Raumzeit nicht viel anders. Die Ursache der Glattheit ist, wie beim Wasser und den Wassermolekülen, in der Mikrostruktur der Raumzeit zu suchen.
 

TomS

Registriertes Mitglied
Für mich ist das eigentliche "falsche Grundmodell" hier nicht eine bestimmte Rechnung zum Gravitationskollaps, sondern die zugrunde liegende klassische Annahme! Man setzt eine glatte Raumzeit mit klassischer Metrik und lokal gültigen Einstein-Gleichungen als fundamental voraus und treibt dieses Kontinuumsmodell bis in Regime, in denen es eigentlich nur noch eine Effektivbeschreibung sein kann.
Stimmt.

Aus genau dieser Grundannahme folgen dann … auch der ganze Flickenteppich an Reparaturversuchen: Bounces … spezielle QG-Effekte, die genau dort eingreifen, wo das Modell aus mathematischer Sicht kollabiert. Das erinnert mich stark an die Epizyklen – nicht, weil GR als Effektivtheorie "schlecht“ wäre, sondern weil man an einem zu hoch aufgehängten Beschreibungsniveau festhält und dort immer wieder neue Korrekturen einzieht.
Zumindest in Theorien wie der LQG falsch.

Man hält genau nicht daran fest, man baut genau keine Epizyklen ein, sondern man erhält in der semiklassischen Näherung automatisch die ART plus Quantenkorrekturen, daraus dann Bounces etc. – ohne eine künstliche Zutat.
 

aveneer

Registriertes Mitglied
@antaris
im Gegensatz zum Wasser, kann das Volumen der Raumzeit sich ändern. Gut, dass geht auch in einer Badewanne, aber hier wäre das Modell nicht mehr geschlossen. Man benötigt mehr als die Raumzeit, welche ja nur das Wasser beschreibt. Das meine ich mit geschlossen. Man benötigt nur 2 Axiome und daraus folgt die Geometrie. Natürlich benötigt man mehr als ART um eine Singularität zu vermeiden, doch was ich meine ist, dass hierdurch die 2 Axiome nicht tangiert werden. Die QM steht nicht im Wiederspruch zur ART. Auch ein Symmetriebruch wie das Higgsfeld ist konform damit.
Ein EH hat lokal alle Eigenschaften eines Vakuums, das sich von einem lokalen Vakuum nicht unterscheiden würde. Ein Photon würde keinen Unterschied bemerken.
Entscheiden ist im Grunde nur, ob beim gravitativen Kollaps ein EH entsteht oder ein EH-artiger Zustand. Dazu gibt es Modelle "Timelike Thin-Shells" mit teilweise exotischen Annahmen. Doch vielleicht lässt sich die Thin-Shell auch aus der ART direkt ableiten. Als reine geometrische Struktur der ART. Als Antwort auf einen Zustand, der ansonsten in die falsche Richtung geht. Die Geometrie ist ja nur eine Antwort/eine Reaktion auf etwas, was wir Störung nennen. Die Störung ist QM und das glätten die ART (Geometrie/ die Geodäte/der EH) So folgt das Teilchen dann dem Pfad nicht mehr als Störung/Struktur (QM) sondern als Punktteilchen einem glatten Pfad dem selbst das Licht folgen kann, als wäre es ein EH-like Vakuum. Wobei die Felder der QM hier nur noch geometrisch in Erscheinung treten.
 

TomS

Registriertes Mitglied
Ich habe jetzt das im Eingangbeitrag zuletzt verlinkte Paper überflogen und mich dabei auf das Kapitel zu schwarzen Löcher konzentriert. Das ist für mich linguistisch-pseudophilosophisches Irrlichtern.

Der Autor verwechselt das Reden über Physik mit Physik.

Ersteres fällt Physikern tatsächlich oft schwer, den Autor eingeschlossen.

Letzteres fehlt leider vollständig. Allein die Tatsache, dass kein einziges Mal die Rolle von invarianten Größen bzgl. Diffeomorphismen diskutiert wird, zeigt die fehlende Substanz der Analyse. ADM, Observer Fields … Fehlanzeige.

Es die Rede von
… I am grateful to Matt Strassler … that helped frame the core arguments in this paper.
Kann mir jemand eines dieser Argumente nennen?

Das Paper spricht von
…necessity for clarity …
Ja.

Wer’s nicht einfach und klar sagen kann, der soll schweigen und weiterarbeiten, bis er’s klar sagen kann.
(Sir Karl Popper)

Pauli fällt mir auch noch ein …
 

antaris

Registriertes Mitglied
Zumindest in Theorien wie der LQG falsch.

Man hält genau nicht daran fest, man baut genau keine Epizyklen ein, sondern man erhält in der semiklassischen Näherung automatisch die ART plus Quantenkorrekturen, daraus dann Bounces etc. – ohne eine künstliche Zutat.
Na ja, nicht falsch aber vielleicht doch zu scharf formuliert, um alle Ansätze - insbesondere die LQG - in einen Topf zu werfen.

Ich zitiere dich aus dem Physikerboard:
TomS schrieb:
Diese ganzen Ansätze können leicht in die Irre führen; ich erkläre kurz warum, und zwar anhand eines minimalen Beispiels, das nicht zwingend eine physikalisch vernünftige Lösung haben muss, was gerade damit zusammenhängt, dass ansonsten oft implizit vorhandene Probleme vermieden werden:


bosonischer Hilbertraum

[latex]i, k = 1 \dots N[/latex]

[latex][a_i, a_k] = [a^\dagger_i, a^\dagger_k] = 0[/latex]

[latex][a_i, a^\dagger_k] = \delta_{ik}[/latex]

[latex]\mathcal{H} = \bigotimes_{i=1}^N \mathcal{H}_i [/latex]


reiner Zustand, sowie dessen Dichteoperator

[latex]\rho = |\psi\rangle \langle \psi|[/latex]


diskunkte Index-Mengen (wobei man dies teilweise verallgemeinern muss)

[latex]A, B \subset \{1 \ldots N \}[/latex]

[latex]A \cap B = \emptyset[/latex]


Reduzierte Dichteoperatoren, deren von-Neumann-Entropie sowie "mutual information"

[latex]\rho_A = \text{tr}_B \, \rho[/latex]

[latex]S_A = -\text{tr} \, \rho_A \, \ln \rho_A[/latex]

[latex]I_{A,B} = S_A + S_B - S_{A \cup B}[/latex]


Nun definieren wir eine Funktion

[latex]d_{A,B} = - \ln \left( I_\text{max}^{-1} \, I_{A,B} + \epsilon \right)[/latex]

In einem gewissen Grenzfall soll diese Funktion einen emergenten räumlichen Abstandsbegriff definieren.


Dafür benötigen wir gewisse Voraussetzungen, nämlich die Dreiecks-Ungleichung, Monotonie, die Verfeinerung und das Clustering

[latex]d_{A,B} \le d_{A, C} + d_{C, B}[/latex]

[latex]d_{A^\prime \subset A, B^\prime \subset B} \le d_{A, B}[/latex]

[latex]d_{A^\prime \subset A,B} \ge d_{A, B}[/latex]

[latex]d_{A \setminus A^\prime A^\prime} \ll d_{A, B}[/latex]

(Ich muss das nochmal im Detail prüfen)

Was bedeutet das? Stellen wir uns vor, wir sprechen über Punkte im Raum, und Abstände zwischen Punktmengen (!), nicht einzelnen Punkten. Dann ist klar, dass für zwei weit voneinander entfernte Punktmengen A, B jeweils zwei Teilmengen ebenfalls ähnlich weit voneinander entfernt sein sollen, und andere ähnliche Bedingungen ...


Der Punkt ist, dass für beliebige Zustände psi diese Eigenschaften im Allgemeinen nicht erfüllt sind. Nicht alle Zustände führen auf ein d, das man als Abstandsbegriff interpretieren kann, also nur ausgewählte Zustände liefern eine emergente Geometie.

Was jetzt bei den Tensor-Netzwerken / MERA passiert ist, dass diese heimlich eine Relation zwischen Punkten hineinschmuggeln, nämlich mittels der Graphen und deren Kanten, und damit gewissermaßen raumartige Beziehungen wie "lokal", "benachbart" o.ä. per Konstruktion vorgegeben sind.

Anstatt also eine Dynamik (über die wir ja noch gar nicht gesprochen haben) ihr Spiel spielen zu lassen und zu untersuchen, welche Zustände und Dynamiken die o.g. Voraussetzungen erfüllen, um überhaupt von einer emergenten Geometrie sprechen zu können, baut man letztere zumindest ansatzweise von Beginn an ein; man schummelt.

Man vergleiche das mit Wasser und Eis: die Existenz von Eis ist nicht in der Quantenmechanik eingebaut, es handelt sich um zwei verschiedene Phasen des selben Quantensystems, die aus der Dynamik (dem Hamilton-Operator) und weiteren Spezifika (Druck, Temperatur) folgen. Dahin muss man m.E. auch bei der emergenten Raumzeit. Ansätze, die das nicht beachten, wären vergleichbar damit, dass man zig Varianten der Quantenmechanik konstruiert (für Wasser, Eis, Wasserdampf ... Luft ... Eisen ...), wobei das doch nur einzelne Modelle innerhalb eines universellen quantenmechanischen Rahmens sind.


D.h. jetzt nicht, dass die Natur nicht so funktionieren könnte, aber es heißt, dass der Begriff "emergent" irreführend verwendet wird. Man ist damit viel näher an der LQG, in der derartige Graphen und Spin-Netzwerke als Lösungen der Constraints und letztlich aus dem Startpunkt einer klassischen Geometrie und deren Quantisierung explizit folgen, als man zugeben möchte.
Ich stimme dir also zu, dass LQG nicht einfach ein Epizyklen-Patch über der klassischen GR ist. Der fundamentale Zustandsraum sind Spin-Netzwerke auf Graphen; ART taucht semiklassisch wieder auf, und die Bounces etc. entstehen aus der Quantentheorie, nicht aus einer ad-hoc-Zutat.

Gleichzeitig ist der gesamte graphische Aufbau ja aus der kanonischen Quantisierung einer bereits geometrischen klassischen Theorie gewonnen. In diesem Sinn ist LQG (so wie du es im Physikerboard beschrieben hast) näher an den Tensor-Netzwerk-Ansätzen, als man vielleicht spontan zugibt: Ein bestimmter Graph-/Netzwerk-Charakter ist kinematisch gesetzt, und die Aufgabe ist eher, daraus den richtigen semiklassischen Grenzfall (GR + Korrekturen) zu rekonstruieren.

Mein persönlicher Versuch - dessen Idee ihren Ursprung genau in der Diskussion auf dem Physikerboard, insbesondere deinen Beitrag hatte - geht genau an dieser Stelle noch einen Schritt weiter weg, von der klassischen Intuition: Ich möchte den Graph nicht als "quantisierte Triangulation einer glatten Geometrie“ lesen, sondern als wirklich vorgelagerte, skaleninvariante Struktur (IDEAL-Graph), aus deren Selbstwechselwirkung erst ein REAL-Graph mit etwas wie Lokalität, Geometrie und "BH-artigen“ Kollapsregionen emergiert – ohne dass Nachbarschaft und Kontinuumslimit schon kinematisch eingebaut wären. Ob das wirklich funktionieren kann, steht auf einem anderen Blatt.


Wer sagt, dass das glatte Kontinuum nicht eine lokale Struktur von vielen ist, in einem eigentlich nicht-glatten Universum? Ich drehe den Pudels Kern sozusagen einfach um. Damit habe ich mich persönlich dann auch ein für allemal vom Multiversum und den Universen in schwarzen Löchern verabschiedet, denn das braucht man dann alles nicht.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Der Autor verwechselt das Reden über Physik mit Physik.
In #5 habe ich bereits geschrieben, dass Janzen's Ansatz für mich physikalisch nichts löst, sondern die Standard-GR-Bildung des EH nur interpretativ neu rahmt (unendliche Entstehung) aber das ist für mich mehr als genug:
Vor diesem Hintergrund sehe ich nicht, welches zusätzliche „Problem“ der Standard-Kollaps nach ART hier noch offen lässt, das durch die „unendliche Entstehung“ in Janzens Sinn neu gelöst würde, bis auf die Frage der Interpretation.
 
Oben