Diese ganzen Ansätze können leicht in die Irre führen; ich erkläre kurz warum, und zwar anhand eines minimalen Beispiels, das nicht zwingend eine physikalisch vernünftige Lösung haben muss, was gerade damit zusammenhängt, dass ansonsten oft implizit vorhandene Probleme vermieden werden:
bosonischer Hilbertraum
[latex]i, k = 1 \dots N[/latex]
[latex][a_i, a_k] = [a^\dagger_i, a^\dagger_k] = 0[/latex]
[latex][a_i, a^\dagger_k] = \delta_{ik}[/latex]
[latex]\mathcal{H} = \bigotimes_{i=1}^N \mathcal{H}_i [/latex]
reiner Zustand, sowie dessen Dichteoperator
[latex]\rho = |\psi\rangle \langle \psi|[/latex]
diskunkte Index-Mengen (wobei man dies teilweise verallgemeinern muss)
[latex]A, B \subset \{1 \ldots N \}[/latex]
[latex]A \cap B = \emptyset[/latex]
Reduzierte Dichteoperatoren, deren von-Neumann-Entropie sowie "mutual information"
[latex]\rho_A = \text{tr}_B \, \rho[/latex]
[latex]S_A = -\text{tr} \, \rho_A \, \ln \rho_A[/latex]
[latex]I_{A,B} = S_A + S_B - S_{A \cup B}[/latex]
Nun definieren wir eine Funktion
[latex]d_{A,B} = - \ln \left( I_\text{max}^{-1} \, I_{A,B} + \epsilon \right)[/latex]
In einem gewissen Grenzfall soll diese Funktion einen emergenten räumlichen Abstandsbegriff definieren.
Dafür benötigen wir gewisse Voraussetzungen, nämlich die Dreiecks-Ungleichung, Monotonie, die Verfeinerung und das Clustering
[latex]d_{A,B} \le d_{A, C} + d_{C, B}[/latex]
[latex]d_{A^\prime \subset A, B^\prime \subset B} \le d_{A, B}[/latex]
[latex]d_{A^\prime \subset A,B} \ge d_{A, B}[/latex]
[latex]d_{A \setminus A^\prime A^\prime} \ll d_{A, B}[/latex]
(Ich muss das nochmal im Detail prüfen)
Was bedeutet das? Stellen wir uns vor, wir sprechen über Punkte im Raum, und Abstände zwischen Punktmengen (!), nicht einzelnen Punkten. Dann ist klar, dass für zwei weit voneinander entfernte Punktmengen A, B jeweils zwei Teilmengen ebenfalls ähnlich weit voneinander entfernt sein sollen, und andere ähnliche Bedingungen ...
Der Punkt ist, dass für beliebige Zustände psi diese Eigenschaften im Allgemeinen nicht erfüllt sind. Nicht alle Zustände führen auf ein d, das man als Abstandsbegriff interpretieren kann, also nur ausgewählte Zustände liefern eine emergente Geometie.
Was jetzt bei den Tensor-Netzwerken / MERA passiert ist, dass diese heimlich eine Relation zwischen Punkten hineinschmuggeln, nämlich mittels der Graphen und deren Kanten, und damit gewissermaßen raumartige Beziehungen wie "lokal", "benachbart" o.ä. per Konstruktion vorgegeben sind.
Anstatt also eine Dynamik (über die wir ja noch gar nicht gesprochen haben) ihr Spiel spielen zu lassen und zu untersuchen, welche Zustände und Dynamiken die o.g. Voraussetzungen erfüllen, um überhaupt von einer emergenten Geometrie sprechen zu können, baut man letztere zumindest ansatzweise von Beginn an ein; man schummelt.
Man vergleiche das mit Wasser und Eis: die Existenz von Eis ist nicht in der Quantenmechanik eingebaut, es handelt sich um zwei verschiedene Phasen des selben Quantensystems, die aus der Dynamik (dem Hamilton-Operator) und weiteren Spezifika (Druck, Temperatur) folgen. Dahin muss man m.E. auch bei der emergenten Raumzeit. Ansätze, die das nicht beachten, wären vergleichbar damit, dass man zig Varianten der Quantenmechanik konstruiert (für Wasser, Eis, Wasserdampf ... Luft ... Eisen ...), wobei das doch nur einzelne Modelle innerhalb eines universellen quantenmechanischen Rahmens sind.
D.h. jetzt nicht, dass die Natur nicht so funktionieren könnte, aber es heißt, dass der Begriff "emergent" irreführend verwendet wird. Man ist damit viel näher an der LQG, in der derartige Graphen und Spin-Netzwerke als Lösungen der Constraints und letztlich aus dem Startpunkt einer klassischen Geometrie und deren Quantisierung explizit folgen, als man zugeben möchte.