Der Sierpinski-Tetraeder

antaris

Registriertes Mitglied
Link zum script: https://github.com/antaris82/Sierpinski-Tetrahedron/blob/main/ST.py

  • Es wird im script ein freier fermionischen Grundzustand auf dem Level-4-Approximanten des Sierpinski-Tetraeders (ST) simuliert. Der Graph ist ein maßstäblich verkleinertes Stück eines unendlich verschachtelten p.c.f.-Fraktals mit strenger Analysis (Dirichletformen, Laplace, Spektrum). Das ist kein „Spielzeug“ im lockerem Sinn, sondern eine numerisch handliche, mathematisch kontrollierte Ur-Geometrie ohne (semi)klassischen Input. (Cambridge University Press & Assessment, JSTOR, arXiv)
  • Physikalisch wird vollständig nicht-klassisch gearbeitet: Zustand = Projektor auf die tiefsten Einteilchenmoden; Observablen sind Erwartungswerte und daraus abgeleitete Größen im Sinn der Thermal Interpretation (TI). Entanglement-Entropien S, Mutual Information II, Kreuzkorrelatoren
    svg.image
    und Schnittmetriken (Anzahl der Schnittkanten, minimaler Graphabstand, mittlere |C| im Kreuzblock) werden direkt aus der Korrelationsmatrix C berechnet (Peschel–Eisler-Methode). (arXiv)



Was das Script konkret macht​


  1. Ur-Graph aufbauen: ST-Approximant
    svg.image
    via Iterierten Kontraktionen; Knoten = Zellen-Ecken aller Skalen
    svg.image
    ; Kanten = Simplex-Kanten auf allen Skalen. Laplace L=D-A liefert das lokale Einteilchen-Hamiltonian. Für den 3D-ST ist Spektralstruktur/Laplacian dokumentiert. (Cambridge University Press & Assessment, JSTOR, arXiv)
  2. Zustand & Korrelationen: Diagonalisierung von H, Projektion auf die niedrigsten M Eigenmoden ⇒ Korrelationsmatrix
    svg.image
    . Aus Reduktionen
    svg.image
    folgen
    • svg.image
      ,
    • svg.image
      ,
    • Vertex-Belegungen diag 
      svg.image
    • svg.image
      = Mittel der Beträge im Kreuzblock
      svg.image
      . (arXiv)
  3. Regionen & Exklusivität: Drei disjunkte Mengen:
    • ROT: eine Level-4-Zelle,
    • GELB: ein Level-2-Subfraktal,
    • GRÜN: äußere Ecken (Level-0-Drahtgitter).

      Exklusive Zuweisung garantiert keine gemeinsamen Knoten; I>0 bleibt möglich, weil Kopplungen über Schnittkanten bestehen (Area-Law-Logik). (Physical Review Link Manager, arXiv)
  4. Schnittmetriken & Skalenanalyse:
    svg.image
    (BFS auf dem Graph),
    svg.image
    . Zusätzlich: Birth-Level-Partition (erstes Auftreten eines Knotens in der Hierarchie) ⇒
    svg.image
    als Coarse-Graining-Spuren. Die beobachtete Skalierung entspricht der bekannten Area-Law-Phänomenologie lokaler Gittermodelle. (Physical Review Link Manager)

Ausgaben: große PNG (3D-Ansicht mit allen Kennzahlen), GIF (Rotation), CSVs (Regionen/Paar-Metriken/Level-Entropien) und ein Liniendiagramm
svg.image
.




Was gezeigt wird – und was (noch) nicht​


Gezeigt:


  • Entanglement & MI entstehen ohne geometrische Überlappung der Mengen; sie korrelieren mit Schnittfläche (
    svg.image
    }) und Abstand (
    svg.image
    ). Das entspricht dem Bild lokaler Hamiltonians und Lieb-Robinson-Schranken (effektive „Lichtkegel“), die die Grundlage für Area-Laws bilden. (SpringerLink, projecteuclid.org, Physical Review Link Manager)

Nicht gezeigt:


  • Keine Bell-Tests (keine Mess-Settings/CHSH), keine Dynamik (nur Grundzustand), keine Wechselwirkungen und keine Raumzeit/Kosmologie im Modell selbst—diese Punkte sind Ausblick (s.u.).



Warum gerade der ST-Ur-Graph?​


  • Mathematisch streng & p.c.f.: Für ST-Fraktale existieren Dirichletformen, Laplace, Spektrum, Heat-Kernels—eine rigorose Bühne für Physik auf selbstähnlichen Geometrien. (Cambridge University Press & Assessment, JSTOR)
  • Fraktale Randdimension: „Flächenmaß“ ist nicht-integer; damit wird Entanglement-Skalierung direkt gegen ein fraktales Randmaß testbar—etwas, das glatte Gitter nicht leisten. (Physical Review Link Manager)
  • Hierarchie eingebaut: Die Birth-Level-Zerlegung liefert ein kanonisches Coarse-Graining (ohne frei designte RG-Moves). Das passt inhaltlich zur TI, in der Reduktion/Teilspur die zentrale operative Rolle spielt. (arXiv)

These (stark, aber präzise): Unter deterministischen, rein graph-basierten, p.c.f.-selbstähnlichen Setups mit voll entwickelter Analysis ist der ST-Ansatz derzeit einzigartig praktisch: Man kann sofort „Physik auf dem Graph“ betreiben (Spektren, Korrelationen, Entropien, Transport), ohne (semi)klassische Zusatzannahmen wie glatte Metrik oder Kontinuumsfeld. (Cambridge University Press & Assessment, JSTOR, arXiv)




Einordnung im „Landscape“​


Lattice-QFT: Kontinuumslimes & Symmetrien gut kontrollierbar, aber glatte Dimension; unser Modell ergänzt durch fraktales Randmaß und exakte Multiskalen-Geometrie. (vgl. Wilson-Lattice) (Physical Review Link Manager)


Tensor-Netze/MERA: Multiskalig und Area-Law-freundlich—doch Geometrie ist meist „algorithmisch“. ST ist die geometrische MERA-Analogie mit echter Einbettung; Entanglement misst reale Schnittflächen im Fraktal. (Physical Review Link Manager, arXiv)


Causal Sets/CDT/LQG: Raumzeit-Emergenz, aber technisch/stochastisch schwer. Der ST-Ansatz ist deterministisch und schnell simulierbar—als Vorhof, um Lokalität/Skalen und Transport sauber zu studieren, bevor man Lorentzstruktur einführt. (Physical Review Link Manager)


Topologische Ordnungen/Fractons: Nichttriviale Korrelationen und anomale Transporte; ST liefert die exakte fraktale Bühne für spätere Toric-Code/String-Net-Varianten. (Physical Review Link Manager)


Algebraische QFT (Operatornetze): Lokalitätsaxiome sind klar; auf Fraktalen selten „out-of-the-box“. Die ST-Hierarchie lädt ein, lokale Netze in der Graph-Metrik zu definieren und Nuclearität/Split ↔ Area-Law numerisch zu testen. (Hintergrund: Area-Law-Reviews) (Physical Review Link Manager)



 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied

Was sind die abgesicherten nächsten Schritte (Ausblick)​


  1. Dynamik & Lieb-Robinson auf ST: Quenches auf
    svg.image
    ; Wachstum von I
    svg.image
    vs.
    svg.image
    und
    svg.image
    ; Erwartung: effektive „Lichtkegel“. (SpringerLink, projecteuclid.org)
  2. GKSL (offene Systeme) auf dem Graph: Markov-Mastergleichungen (Lindblad/Gorini–Kossakowski–Sudarshan) direkt auf ST implementieren; Dämpfung von Kreuzblöcken
    svg.image
    vs. Skala messen. (SpringerLink, AIP Publishing)
  3. Relationale Zeit (Page–Wootters) als Interpretationsschicht: TI-kompatibel; Tests in einfachen Uhr-System-Partitionen auf ST. (Physical Review Link Manager)
  4. Transport/Diffusion/Heat-Kernels: Aufbauend auf der p.c.f.-Analysis: Wärme-Kernel-Skalen und Spektralzählung gegen Entanglement-Skalen vergleichen. (Cambridge University Press & Assessment, arXiv)



Andere „nicht-klassische“ Alternativen (kurz)​



Diese Alternativen sind wertvolle Vergleichs-/Erweiterungsrichtungen, aber keine erfüllt gleichzeitig: (i) deterministisch, (ii) echt geometrisch/fraktal mit strenger Analysis, (iii) sehr schnelle Numerik für Entanglement/Korrelationen ohne (semi)klassischen Input—genau das leistet der ST-Approximant. (Cambridge University Press & Assessment, JSTOR)




Fazit​


Das Script zeigt direkt: Wie Geometrie (Schnittkanten, Abstände, fraktale Ränder) Entanglement & MI strukturiert—rein graphbasiert, TI-kompatibel und ohne (semi)klassische Krücken. Es liefert damit ein präzises Labor für „Geometrie → Korrelation → Emergenz“ und eine robuste Startrampe in Richtung Dynamik (Lieb-Robinson), offene Systeme (GKSL) und—mit zusätzlicher Struktur—später topologische/wechselwirkende Physik. (arXiv, Physical Review Link Manager, SpringerLink)
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Dann erkläre doch mal mit eigenen Worten, wie die Brücke hin zu den Dichtematrizen schlägst.
Es geht erstmal rein darum, ob diese Brücke geschlagen werden kann.

Der Ursprung meiner Überlegung war, dass das gesamte Universum nur schwer fassbar ist. Es ist mit seiner gesamten Komplexität über rho definiert aber dennoch sehr abstrakt und irgendwie strukturlos -> nicht greifbar (so kommt es mir vor). Der ST-Graph ist unendlich, hat "eine äußerste Abgrenzung" und es ist möglich auf den Graph grundlegende Physik zu betreiben (siehe Kigami). Er kann unendlich viel Information speichern und m.E. als fundamentales mathematisches Objekt die Bühne für die emergierende Physik Realität darstellen.

Ich benutze den ST-Graph entsprechend nur als Mikro-Träger für Dynamik, nicht als Raumzeit. Auf jedem endlichen Approximanten gibt es eine Dirichlet-/Resistance-Form und daraus den Laplacian (alles gezeigt von Kigami et al.). Das ist ausreichend, um eine unitäre Gesamtdynamik zu formulieren (Liouville–von-Neumann, genau wie der Ausgangspunkt der TI, statisch reicht). Wenn man dann Teilbereiche ausspurt, entstehen ganz normal reduzierte Dichtematrizen, genau wie im euklidischen Fall.

Operativ ist das simpel: Der Generator erzeugt Gibbs/KMS-Zustände (der gesamte ST-Graph selbst ist zeitlos, im Gleichgewicht) und spurt man eine „Umwelt“ aus, bekommt man die physikalisch motivierte reduzierte Dichte des Subsystems. Der Approximanten-Level m steuert die Auflösung; mathematisch konvergieren Energieformen, Operatoren und Spektren sauber, d. h. Messwerte stabilisieren sich für m ⁣→ ⁣∞.

Ich habe das mit einem Level-4-ST-Graphen simuliert: Heatmaps der Dichtematrix und Observablen (Energie, Entropie, Purity) sowie einen Vergleich zum euklidischen Gitter. Ergebnis: Die Qualitäts-Trends (Coarse-Graining ⇒ Entropie↑, Purity↓, Energie↓) sind identisch, aber die spektralen Fingerabdrücke unterscheiden sich (ST: fraktale/ log-periodische Struktur, subdiffusive Skalen).
Die Dichtematrizen sind der Zustandsbegriff, der ST-Graph liefert nur die Mikro-Geometrie (Generator). Raumzeit/QFT müssen später emergieren—ich behaupte nicht, dass der ST die Raumzeit ist oder das diie Raumzeit und die QFT schon emergiert sind.


Ich kann den detaillierten Formalismus hinter dem script nachliefern (ist da).


Python code (auf Github): st_2_partial trace on ST-Graph.py

Dichtematrix des level 4 ST-Graph als Heatmap:
st_2_static_density_urgraph.gif






st_2_graph_and_coarsening.gif
st_2_density_approximant.gif

st_2_observables.gif
 

antaris

Registriertes Mitglied
Welches physikalische Problem wird gelöst?
Der Claim ist groß aber er folgt m.E. rein logisch. Der Formalismus ist vollständig nicht-klassisch und damit konstruktiv resistent gegen klassische Singularitäten und inkl. formaler Fassbarkeit derselben. Das heißt auf den nicht-klassischen ST-Graph kann auch in Regionen klassischer Singularitäten normale QFT betrieben werden (Dichtematrizen, TI). Das könnte über "Verzerrungen", also nicht-strikt selbstähnliche Fortsetzung des ST-Graphen, bei sehr tiefen levels funktionieren (ist skizziert).

Darüber hinaus bietet möglicherweise die Lieb-Robinson-Dynamik eine natürliche Konstruktion eines Lichtkegels, inkl. physikalische Zeit und damit Kausalität. Es gibt ganz viele Ansätze, die auf den ST-Graph oder nachgelagert als Emergenz vielversprechend scheinen.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Noch was zu den Dichtematrizen und dem ST-Graph.

link
Zusammenfassung:
Wir entwickeln und beweisen eine zweiseitige Emergenz- und Rekonstruktionstheorie
für Observablen F (−∆) auf dem Sierpiński–Tetraeder (ST). (A) Zustände aus Geometrie:
Aus (K, μ, E) und dem Generator −∆ konstruieren wir skalenkompatible reduzierte Dich-
tematrizen ρ (KMS/Gibbs, Dekohärenz) und zeigen Stabilität im Skalenlimit (Γ/Mosco ⇒
starke Resolvent–/ Semigruppenkonvergenz, subgauss’sche Heat–Kernel–Schranken, stetiges
DtN–Verhalten). (B) Geometrie aus Zuständen: Unter klaren Axiomen (R1)–(R4) rekonstru-
ieren wir E aus Antwort–/ Korrelationsdaten von Zustandsfamilien ρ via Dirichlet–to–Neu-
mann (DtN) und inverser Netzwerktheorie; Eindeutigkeit bis auf Randrenormierungen sowie
Stabilität gegen Messrauschen werden nachgewiesen. Die Kompositionen A ◦ R und R ◦ A
sind (im skalenadäquaten Sinn) identitätsnah und liefern eine operative Dualität/Selbst-
konsistenz (GR–Analogie: Zustände formen Geometrie, Geometrie evolviert Zustände). Auf
ST–Approximanten etablieren Lieb–Robinson–Schranken eine Quasi–Kausalität (emergen-
ter Lichtkegel/Zeitparameter), die wir für Messprotokolle verwenden. Im IR–Skalenlimit
erhalten wir eine lokale QFT auf einem effektiven Kontinuum. Neu ist eine präzise Singula-
ritäts–Resilienz: tiefe, skalenauflösende deterministische Verzerrungen des ST erzeugen in-
homogene, aber wohldefinierte Dirichletformen mit stabilen Heat–Kerneln; „Singularitäten“
erscheinen als spektrale/DtN–Anomalien und sind operational messbar. Sämtliche Aussagen
werden vollständig bewiesen; ausführliche Beweise und Konstruktionen stehen in §10.
 

antaris

Registriertes Mitglied
Wer weiß...je mehr ich mich mit mein Thema beschäftige, desto mehr unerwartetes zeigt sich. Ich glaube noch ein paar Tage zu benötigen aber dann habe ich einiges zusammen für ein wirklich ausführlichen PoC.

Vor ein paar Tagen habe ich das hier beim stöbern gefunden (wiki):

Fractal_tree.gif



Wirklich interessant, was so alles in soolch einem mathematischen Objekt steckt. Wusstest du, dass es in einem ST-Graphen immer mehrere kürzeste Wege gibt? Das Teil steckt voller Überraschungen und möglicherweise eine ganz neuartige Ontologie. Bisher musst ich nach wie vor auf nix klassisches zurückgreifen aber ja, da steckt massig Arbeit drin um überhaupt das Fundament so wenig angreifbar, wie möglich zu gestalten.

Na ja ich hoffe bis zum WE soweit fertig zu sein, sodass ein tragfähiges PoC steht.
Wobei. Das was "fertig" ist, habe ich schon im Github repo meiner gh-page. Ich habe die Tage, neben dem ST-Graph, Zeit mit der Seite verbracht. In jedem Ordner soll eine README.md liegen, welche auf der repo Seite auch angezeigt und gerendert wird (sowohl Text, als auch Latex). und in dem meisten liegt auch schon eine readme. Man kann über die page durch die Ordner navigieren und die Dateien frei runterladen. Dabei sind einige Python scripte mit Ergebnisse und den PDF's dazu. Im Ordner Sierpinski Tetraeder_PoC befinden sich die Dateien, die ich aktuell bearbeitet habe. Alles sortiert in einzelne "Aspekte" des Fundaments (große Buchstaben). Alles ist Dokumentiert.

link: https://antaris82.github.io
 
Zuletzt bearbeitet:

aveneer

Registriertes Mitglied
@antaris
Ich habe mich bisher nicht mit deinem Ansatz beschäftigt. Wir sind beide getrieben von einer "inneren Stimme" - :"So wie beschrieben kann es nicht sein". Ich hatte on-shell und dt-> 0. Du hast einen anderen "Trigger".
Ich habe für mich jedoch "Trigger"-Worte bei denen ich genauer schaue.
Z.b. hier Dichtematrix.
Wenn du meinen letzten Beitrag bewertest incl. der TC-Theorie, dann wirst du vielleicht- wegen der Bewertung diesem Ansatz kurz "vertrauen" schenken.
Wenn du dann, nach Ähnlichkeiten zu deinem Modell fragst, wird es womöglich eine in der Dichtematrix sehen. Denn hier liegt eine Verbindung zur Entropie. Bei dSmax liegt eine Minkowski-Raumzeit vor. Also SRT.
Ich beschreibe, warum dies on-shell erzeugt. Also das warum und das wie über "Ghost-Moden" - dein Ansatz scheint eine Art einer Übersetzung davon zu sein. Wie die Realität über deinen Prozess, aus dem "gezippten" Zustand emmergiert. Eine Alternative Beschreibung der konstruktiven Pfade von Feynman sehe ich hier bei dir.
 
Zuletzt bearbeitet:

aveneer

Registriertes Mitglied
Doch die etablierte Physik ist und bleibt genau so, wie sie ist. Nichts daran wird im Bild das ST-Graph auf irgendeiner Weise falsch. Das wäre auch fatal, denn man müsste andere Erklärungen für empirische Daten liefern.
Oh man - bei mir doch auch? Nichts ändert sich - außer der Perspektive. Keine neuen Feldgleichungen alles RT ( ART <-> JCT).

Die andere Perspektive?
Die Sektoren der Minkowski-Raumzeit (−,+,+,+) und (+,−,−,−) sind zunächst bei mir kausal getrennt. Trotz dieser Trennung haben Sie auch einen gemeinsamen Schnittpunkt. Dieser ist identisch mit der on-shell Bedingung.
Das bedeutet off-shell (t) -> on-shell < off-shell(s) bzw. on-shell ~ off-shell(s)/off-shell (t) ~ s/t ~ v ~ c
Es ändert sich nichts - aber die Anzahl der Paradoxien werden reduziert. Weniger Paradoxien = weniger Lücken - das Ockhamsmesser gilt auch hierfür.
Und na klar wenn ich MOND auch nur erwähne, dann springe ich nur auf ein Buzzword auf. Doch eine KI ist wirklich "dumm" - ich habe sie gefragt, ob ich Aussagen treffen kann, zur Falsifizierung. Und es kam ich habe eine Abweichung bei a≪a* - Die MOND darin, kann sie nicht erkennen. Wieso habe ich eine Abweichung trotz ART <-> JCT? Das ist für mich gerade spannend.
 

antaris

Registriertes Mitglied
Die andere Perspektive?
Bei einer emergenten Realität kann es nur eine Perspektive geben, aus der die Beschreibung vervollständigt werden kann, die Perspektive vom Fundament. Jeder Aspekt dieser emergenten Realität kann aber für sich mit einer effektiven Theorie beschrieben werden. Man koppelt, bis auf die zu untersuchenden Effekte, alles weitere aus und beschreibt, was empirisch gemessen werden kann. Dazu werden Axiome, Postulate und ad-hoc Annahmen benötigt, welche alles ausgekoppelte auffangen. Will man möglichst nur Axiome, so wenig Postulate wie möglich und gar keine ad-hoc Annahmen, dann darf nicht "alles weitere" ausgekoppelt oder klar benannnt werden, was, warum und wie ausgekoppelt wird...ansonsten bleibt es eine rein effektive Theorie, ohne Bezug zum Fundament des Universums. Es werden dann nur Symptome behandelt aber nicht die Krankheit selbst geheilt.
 

aveneer

Registriertes Mitglied
...nur eine Perspektive geben...
Es kann nur eine Perspektive geben? Ist das zwingend logisch? Es gibt formal immer mindestens zwei.

Wenn der emergente Zustand - nur dem „verwirklichten Teil“ der Realität einem "Grau" entspricht -dann wäre Weiß und Schwarz Teil der Realität – nicht zwingend der Wirklichkeit (im Sinne von verwirklicht oder Wirkung haben (dp) -h etc. ).
Der EH entspricht einer perfekten flachen Minkowski-Raumzeit - der zwei kausale Räume trennt. Das Photon (v=c) trennt in der Minkowski-Raumzeit ebenfalls in zwei Bereiche. Die Zeitartig bzw. Raumartig sind. Die Beliebigkeit der Darstellung (+,-,-,-) vs. (-,+,+,+) ist Konvention – doch nicht zwingend identisch im physikalischen Sinn.
Wenn man den EH durchquert, dann wird je nach Konvention, wie man mathematisch fällt, aus (+,-,-,-) -> (-,+,+,+) oder umgekehrt.
Es ist eine Drehung um 180°, innen/außen/ up/down. - Je nach dem wie man konvertiert.

Das SL besteht aus zwei Kausal getrennten Bereichen und dazwischen liegt der Bereich, der beide trennt. Das ist die Funktion eines EH - die Trennung von zwei in sich kausal geschlossener Räume. Doch dieser EH ist physikalisch nur eine Barriere (dSmax) – bei mir (und Hawking/Verlinde) eben ein Ort dSmax (-> ~ max. Dichte?). Die Partikellwelle ist Normalverteilt – doch bei mir eben nicht ganz, da sie Information mit sich trägt. Die Differenz der Information zwischen Partikelwelle und Normalverteilung ist ~dI~dE. Das bissichen dE in dSmax kann so in den EH eindringen.

Dein Ansatz ist für mich die Verwirklichung einer Partikellwelle „dSw I dSs“ -> wie die Information, das „dE“ als -> m/t ~ s/w=grau
sich im EH <–> Lichtkegel verwirklicht. Die Information frei gesetzt wird. Denn der EH ist auch Speicher der Information - on-shell = Information.

Deine Perspektive ist zwangsweise nur grau – das ist richtig. Die JCT mischt jedoch die Farben erst mal richtig.
 

antaris

Registriertes Mitglied
Ja eine Fundamentalbeschreibung und wahrscheinlich unendlich viele Effektivbeschreibungen.
Schau mal im Thread "Wie Trivialität und Komplexität gemeinsam Strukturen schaffen" in Beitrag 1. Ich habe an einem sehr einfachen und für jeden verständlichen Beispiel versucht zu zeigen, dass es trivialerweise möglich ist die Realität aus verschiedene effektiv-Perspektiven zu beschreiben.

Welcher von den 3 Layern ist am fundamentalsten und warum? Oder ist davon gar nichts fundamental? Wie stellen wir fest, was fundamental ist und was nicht?
 

aveneer

Registriertes Mitglied
Ja eine Fundamentalbeschreibung und wahrscheinlich unendlich viele Effektivbeschreibungen.
Schau mal im Thread "Wie Trivialität und Komplexität gemeinsam Strukturen schaffen" in Beitrag 1. Ich habe an einem sehr einfachen und für jeden verständlichen Beispiel versucht zu zeigen, dass es trivialerweise möglich ist die Realität aus verschiedene effektiv-Perspektiven zu beschreiben.

Welcher von den 3 Layern ist am fundamentalsten und warum? Oder ist davon gar nichts fundamental? Wie stellen wir fest, was fundamental ist und was nicht?
Effektivbeschreibungen führen konstruktiv leichter zu einer TOE - als auf Basis der ART allein auf eine TOE als nächstes zu hoffen. Nach einem Kenntnissprung-/gewinn, folgt Entropie. Ich denke, das wird immer so sein.

Wenn es zwei Realitäten gibt - die wir richtig beschreiben - dann liegt die Wirklichkeit +/- in der Mitte. Was soll da fundamentaler sein?
 

antaris

Registriertes Mitglied
Wenn es zwei Realitäten gibt
Es gibt nur eine einzige Realität aber die lässt sich effektiv (auf physikalische Effekte bezogen, die wir empirisch untersuchen können) auf die unterschiedlichste Weise beschreiben. Es gejht nicht darum diese unzähligen unterschiedlichen beschhreibungen zusammenzukleben. Dadurch erhält man keine Emergenz. Ein emergentes System ist insgesamt mehr, als die Summe seiner Teile. wenn ich also nur ein emergentes System untersuche, dann kann ich rein aus den Effekten des emergenten Systems nicht direkt auf die Ursachen dieser Emergenzen schließen. Es müssen erst die Ursachen gefunden werden, welche de Emergenzen überhaupt erst ermöglichen.

Das Problem ist, dass die Komplexität der emergenten Strukturen, wie z.B. Turbulenzen, aufgrund der Einfachheit effektiv beschrieben, hier Navier-Strokes, obwohl jedem eigentlich klar ist, dass zwischen z.B. den Wassermolekülen eines Strudels kein Wasser ist und somit keine klassischen Turbulenzen auftreten, die mit der Navier-Strokes-Gleichung beschrieben werden könnten. Genauso quantisiert auch keiner Wasser, da wir ja wissen, dass Wasser aus diskreten Wassermolekülen besteht und somit gar nicht quantisiert werden muss.
Sieh die Raumzeit als ein Fluid mit höchster Viskosität an und die Bahnen der Himmelskörper ziehen Kreise, ähnlich wie Treibgut in einer Strömung. Die ART ist, genau wie die Navier-Strokes-Gleichung, eine effektive Theorie der Dynamik einer "superfluiden Raumzeit"....aber das sind nur Effekte des fundamentaleren Kerns. Versuchen wir das "superfluid" und die "Raumzeit" zu beschreiben, so ist es möglich unzählige verschiedene Theorien zu entwickeln, die genau das beschreiben.

Ich versuche den Weg zu gehen den "Anfang" für eine emergente Realität zu finden, der rein gar nichts von dem enthält, was ich später beschreiben will. Damit beuge ich jeden logischen Zirkelschluss vor, der irgendwelchen Input in die Modellierung holt, den es noch gar nicht geben kann (weil es erst noch emergieren muss). Das bedeutet, dass ich z.B. keine invariante und maximale Geschwindigkeit postuliere oder ad-hoc setze, sondern ich schaue wie aus dem Fundament solch eine Geschwindigkeit hergeleitet werden kann. Wenn ich was finde, dann kann ich das weiter im Bezug zu Maxwell, Photonik und SRT untersuchen. Das habe ich z.B. in E1-E4 untersucht. Auf dem ST-Graph kann eine Geschwindigkeit definiert werden, welche die Eigenschaften der Lichtgeschwindigkeit c trägt.

In C1 wird gezeigt, wie sich eine Art emergente Dualität aus Dichtematrizen und der Geometrie des ST-Graphen ergibt, sodass sich beide gegenseitig bedingen/der wechselseitigen Ursache und Wirkung für die jeweilige Emergenz sind. Das ist mit ersten Simulationen belegt aber muss gründlich tiefer untersucht werden. Wenn sich das bestärken lässt, dann ist der ST-Graph kein Postulat mehr, sondern emergiert selbst, bedingt durch die Dichtematrizen und andersherum sind die Dichtematrizen keine Postulate mehr, da sie selber, bedingt durch den ST-Graph emergieren. Ich finde das ist ziemlich faszinierend...
 
Zuletzt bearbeitet:

aveneer

Registriertes Mitglied
Antaris deine Beschreibungen sind mir nicht völlig fremd. Zumindest sehe ich darin, wie ein graues Wesen seine Welt beschreiben würde, weil es weiß und schwarz nicht kennt. Und die ART - von der du dich ja auch nicht trennen willst - sagt, wir sind von weiß und schwarz getrennt, wie der EH von innen und außen. Angenommen wir leben in einem EH-artigen Umfeld - dann kannst du nicht fundamental sein, oder du musst die ART verlassen.
 

antaris

Registriertes Mitglied
Und die ART - von der du dich ja auch nicht trennen willst
Man kann sich nicht davon trennen. Sie muss rekonstruiert werden und emergent erscheinen (ohne Annahmen, nur mit hergeleiteten Input).

Angenommen wir leben in einem EH-artigen Umfeld
Ich habe gar nichts angenommen. Eher im Gegenteil habe ich mich von allen Annahmen soweit befreit, dass nur noch ganz wenige vorhanden sind. Von diesem Startpunkt aus versuche ich zu verstehen in welchen Umfeld wir leben, ohne irgendwas annehmen zu müssen. Egal welches Bild wir uns vorstellen. Es ist nur eines von unendlich vielen vorstellbaren. Wie wahrscheinlich ist es, sich aus unendlich vielen Bildern genau das eine richtige vorzustellen und damit 100% richtig zu liegen? Ich denke mit der Vorstellung funktioniiert das nicht (habe ich selber lange genug gedacht). Nein das einzige was hilft, ist alles hinter sich zu lassen und sich auf das wesentliche zu konzentrieren und einen Startpunkt zu wählen, der es ermöglicht eine stabile Bühne für die Realität zu stellen.
 
Oben