warum und wie liefert die kosmische Inflation klassische Fluktuationen?

TomS

Registriertes Mitglied
In die Inflation werden heute diverse Erwartungen hineinprojiziert, die sie jedoch an vielen Stellen nicht zufriedenstellend erfüllen kann. Ein wesentlicher Punkt ist die Frage, wie aus den Quantenfluktuationen des Inflaton- sowie des Graviton-Feldes klassische Fluktuationen und demzufolge die heute beobachteten Strukturen entstehen können.

Diese Frage wird in vielen Darstellungen nicht angesprochen. Die implizite Annahme ist häufig, dass Form und Spektrum der klassischen Fluktuationen letztlich dem der Quantenfluktuationen entsprechen.

Um es klar zu sagen: letztlich weiß heute niemand, wie das funktionieren kann.

So viel zum Auftakt. Ich trage im folgenden, ein paar Artikel zusammen, in denen das Problem diskutiert wird; weder ist die Liste vollständig, noch habe ich das alles gelesen. Es soll zunächst auch nicht um eine Lösung gehen, sondern zunächst mal um das Verständnis, dass hier ein sehr tiefgehendes Problem vorliegt.


Als nächstes zeige ich anhand zweier einfacher Beispiele, wo genau der Hase im Pfeffer liegt.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
1. Einfaches Modell

Wir gehen aus von einer klassischen Raumzeit M⁴ und einem sphärisch symmetrischen Quantenzustand ψ. Letzterer zerfalle in zwei Teilchen. Ein Beispiel wäre das neutrale Pion und dessen Zerfall in zwei Photonen π° → 2γ, also

ψ(π°) → ψ(2γ)

Nun können die Photonen mit einem ebenfalls sphärisch symmetrischen Detektor wechselwirken. Daraus resultiert ein makroskopischer, sphärisch symmetrischen Quantenzustand (ohne Photonen, diese wurden absorbiert). Diesen Detektorzustand bezeichne ich als ρ.

Die Beobachtung besagt letztlich "Detektionen im Detektor-Array A und -A", also gegenüberliegend, weil der ursprüngliche Zustand symmetrisch war und die Zeitentwicklung impulserhaltend ist; welches A wissen wir nicht. Der Gesamt-Detektorzustand ist nach wie vor symmetrisch, wiederum weil der ursprüngliche Zustand symmetrisch war, daher auch alle Paare (A, -A) gleichberechtigt sind, und da die Zeitentwicklung unitär ist und die Symmetrie respektiert hat. Also

ρ ≃ dA ρ(A, -A)

Die Detektion bzw. deren Beobachtung bricht offensichtlich diese Symmetrie, wir sehen immer genau ein Paar (A, -A), keine Superposition; wir wissen jedoch vorher nicht, welches Paar, und die Quantenmechanik liefert uns nach heutigem Verständnis keinen diesbezüglichen Mechanismus *) Wie diese Brechung der Symmetrie vor sich geht, ist Gegenstand des Messproblems der Quantenmechanik, und das ist nach wie vor ungelöst **)

*) die Dekohärenz liefert uns ρ als inkohärente Mischung untereinander nicht mehr interferenzfähiger Komponenten ρ(A, -A) bzgl. der ausgezeichneten Basis der Detektor-Arrays, sie liefert uns eine extreme Unterdrückung von Komponenten ρ(A, B ≠ -A), d.h. eigtl. ρ = ∫dA dB ρ(A, B), jedoch keine Auszeichnung eines eindeutigen Paares (A, -A).
**) auch gemäß der Dekohärenz; die teilweise zu lesende Aussage, die Dekohärenz löse das Messproblem, ist falsch.




2. Übertragung auf die Inflation

Nehmen wir an, die Inflation liefere Quantenfluktuationen für Inflaton- und Gravitonfeld; im Zuge des Zerfalls des Inflatonfeldes resultiere ein makroskopischer Quantenzustand, der neben dem Graviton noch die bekannten andere Felder enthält, d.h. Photonen etc. An die Stelle der Detektorarrays tritt die Gesamtheit aller möglichen Moden φ der Felder. Ich schreibe das als

ρ ≃ dφ ρ(φ)

Unsere Beobachtungen der CMB besagen nun, dass deren Moden φcl im Wesentlichen den Moden der Quantenfluktuationen entsprechen, d.h.

φφcl

Wir beobachten in der CMB also einzelne klassische Moden, wobei jede davon das Relikt einer einzelnen Mode der Quantenfelder entspricht.

Dies bricht offensichtlich die Symmetrie, wir sehen immer genau eine klassische Mode, keine Superposition ... (s.o.)


Und das bedeutet, dass ohne eine Lösung des Messproblems der Quantenmechanik völlig offen ist, wie wir von einer Superposition quantenmechanischer Moden zur Beobachtung nicht-superponierter klassischer Moden gelangen.

Einfaches Beispiel: die Quadrupolmode (oder jede andere) in der CMB zeichnet bestimmte Richtungen aus; die quantenmechanischen Fluktuationen liefern jedoch eine kohärente Superposition aller Quadrupolmoden, in der keine Richtung ausgezeichnet ist.

Gegenargumente:
  1. warum kann die Inflation nicht bereits auf Quantenebene diese Auszeichnung vornehmen, also warum kann nicht bereits im Quantenzustand die Symmetrie gebrochen sein? weil dazu die Symmetriebrechung im Anfangszustand enthalten sein müsste, was die Inflation ja aber gerade vermeiden soll
  2. warum können wir keine Kollaps-Interpretation der Quantenmechanik anwenden, derzufolge die Beobachtung den symmetrischen Zustand kollabiert? weil die Entstehung der klassischen Fluktuationen gemäß der gängigen Theorie mit dem Ende der Inflation zusammenfällt, wir also die "Beobachtung" zum damaligen Zeitpunkt ansetzen müssten (oder glauben wir, dass unsere Beobachtungen hier und heute die Superposition kollabieren und die Galaxien erst dadurch entstehen?)
  3. warum liefert die Dekohärenz nicht die Auszeichnung der klassischen Fluktuationen? sie liefert die Auszeichnung bestimmter Formen d.h. eines bestimmten Spektrums (s.o.), jedoch aus diesem Gesamtspektrum nicht die Auszeichnung einer bestimmten Mode; Form und Intensität des Quadrupols können z.B. durch Inflation und Dekohärenz festgelegt sein, jedoch nicht die korrekte Ausrichtung des Quadrupols (siehe Fußnoten * und ** oben)
Auswege? letztlich alles, was das Messproblem lösen könnte; evtl. steckt auch noch was in den Artikeln.
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
welches A wissen wir nicht
Was soll das bedeuten? Es ist ja auch vollkommen egal, weil beide Photonen bis auf die Richtung gleich sind.

wir wissen jedoch vorher nicht, welches Paar,
Verstehe ich auch nicht, es gibt ja nur ein Paar? Und wieso ist es wichtig, dies "vorher" zu wissen?

Die Detektion bzw. deren Beobachtung bricht offensichtlich diese Symmetrie
Dass die Messung den Zusammenbruch der Wellenfunktion mit sich bringt, ist ja bekannt. Der Ort wird konkretisiert, der vorher auf die kugelförmige Wellenfront verteilt war.

Ich verstehe unter den Dichtefluktuationen als Folge der Quantenfluktuationen aber eher den Umstand, dass die QF nicht überall gleich sind.
Durch den Zerfall des Vakuum werden QF materialisiert also reell, aber eben nicht überall gleich.

Das Slow Rolling wird hingegen so modelliert, dass die QF zu unterschiedlichen Zeiten materialisieren, also an unterschiedlichen Orten unterschiedlich durch die laufende weitere Expansion verdünnt werden.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Erstens ist es nicht wichtig, dies vorher zu wissen, ich wollte lediglich klarstellen, dass es so ist.

Zweitens ist es keineswegs klar, dass die Messung zum Kollaps der Wellenfunktion führt. Im Gegenteil, viele Interpretationen der QM argumentieren ohne Kollaps.

Wichtig ist die Argumentation, dass aus einem homogenen Quantenzustand kein inhomogener klassischer Zustand entstehen kann. Da wir jedoch einen solchen beobachten, müssen die Fluktuationen
  • entweder bereits im Anfangszustand enthalten sein, was der Idee der Inflation widerspricht,
  • oder sie müssen aus einem homogenen Zustand entstehen, was den Gesetzen der Quantenmechanik widerspricht.

Schau doch nochmal die Analogie an:
  • für den Zerfall des Pions liefert die unitäre Zeitentwicklung einen exakt symmetrischen Detektorzustand
  • für den Zerfall des Inflatonfeldes liefert die unitäre Zeitentwicklung ebenfalls einen exakt symmetrischen Quantenzustand (der anderen Felder, sowie später inkl. der Photonen der CMB)
In beiden Fällen ist dies aber nicht das, was wir beobachten:
  • wir beobachten keine exakt symmetrische Superposition aller Paare (A, -A), sondern exakt ein Paar, nennen wir es (A, -A)cl
  • wir beobachten keine exakt symmetrische Superposition aller Moden φ sondern bestimmte klassische Moden φcl
Wir müssen also erklären, wie aus einem exakt symmetrischen, homogenen Quantenzustand ein nicht-symmetrischer, inhomogener klassischer Zustand resultiert; die unitäre Zeitentwicklung leistet das nicht; exakte Symmetrie führt auf exakte Symmetrie.

Also müssen wir irgendeiner Form auf eine Art Messprozess verweisen, in Folge dessen ein bestimmtes Paar (A, -A)cl bzw. bestimmte Moden φcl ausgewählt und später beobachtet werden. "Später" ist wichtig, den die gesamte Argumentation seit der Inflation ist ja rein klassisch; wir können also nicht annehmen, dass unsere jetzige Beobachtung die Wellenfunktion des Universums (wiederum jetzt) kollabiert, wir müssen davon ausgehen, dass dies bereits früher geschehen ist. Es gibt jedoch keinen ausgezeichneten Zeitpunkt in der Vergangenheit, zu dem man eine derartige Messung (mit Kollaps) überhaupt annehmen könnte. Alternativ argumentieren wir ohne Kollaps, gemäß Dekohärenz und rein unitärer Zeitentwicklung. Damit haben wir noch heute einen exakt symmetrischen Quantenzustand (was uns gemäß der Viele-Welten-Interpretation nicht stören muss, wir haben dann eben überabzählbar unendlich viele Universen).

Wir hatten das schon mal. Eine Aussage wie
this completes the argument: the initial quantum zero-point fluctuations in the field have been transcribed to a constant classical fluctuation that can eventually manifest itself as large-scale structure
ist falsch; sie enthält exakt diesen logischen Bruch.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Erstes Paper oben:

The previous analysis is remarkable: The universe starts in a homogeneous state and ends up with inhomogeneities that fit the experimental data. However, as we will argue in the following sections, this is not fully justifiable by “standard physics”. We should point out from the start that many authors do acknowledge the existence of a gap in our understanding ... and some do propose ways to deal with the issue in more detail ... There is also a large literature on issues of quantum mechanics in the context of cosmology in general ... The discussion that follows is addressed to those colleagues that are not fully aware of the problem, and to those that believe that there is no problem at all.
The first point that we want to make is that the above analysis can not be justified through standard quantum mechanical time evolution ... just note that as already stated above, the initial quantum state is symmetric (i.e., homogeneous) and the vacuum state ... is invariant under the action of the symmetry group of the background. Even though it can be written as a superposition of states which are isotropic ... the standard time evolution does not break this symmetry, thus it cannot explain the observed inhomogeneities.
A close inspection actually reveals that they are all missing some element: The process whereby a perfectly homogeneous and isotropic state (for the universe is homogeneous and isotropic and so is the vacuum quantum state that one assumes for the scalar field), transforms into an inhomogeneous and anisotropic state which is what is described by the density fluctuations. There is clearly no deterministic mechanism that can achieve this without the introduction of some external source of asymmetry. Barring such source, we need to recur to quantum mechanics. However even when doing so, one is only able to provide for what is required as part of the so called R process (measurement, collapse, etc.) but not during the U process (unitary evolution through a Schrödinger type equation). Thus if a measurement-like process is absent there can be no transition. The problem is then the absence of a sensible candidate for such process. This is because in the early universe which is homogeneous and isotropic one cannot select a canonical quantity that is the one that would be measured, and much less the measurement agent or mechanism. After all, that would require an effective division of the universe into system and a measuring device, and it is clear that physics, in this case, does not indicate such division along any lines we know off ... The main points of this article are, first to indicate that such aspect is missing ...

Letztlich ist das für jeden Physiker, der sich mit dem Messproblem der Quantenmechanik auskennt, offensichtlich. Wir haben das Problem schon Anfang der 90er am Institut diskutiert.

Der Witz ist, dass dies völlig unabhängig von den zig der Details des jeweils gewählten Inflationsmodell immer mit voller Schärfe zutrifft, d.h. dass ein prinzipielles Problem des inflationären Paradigmas an sich vorliegt.

Spannend, dass das vielen nicht bewusst zu sein scheint …
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
für den Zerfall des Pions liefert die unitäre Zeitentwicklung einen exakt symmetrischen Detektorzustand
Ja klar, und wenn die Detektoren nicht isotrop angeordnet sind, sondern es sich um (symmetrische) Punktdetektoren handelte, dann entsteht eine Inhomogenität.
Davon abgesehen liefern die Detektoren von Haus aus eine Inhomogenität, weil sie die Teilchen im Abstand r absorbieren. Im Innenraum ist aber nichts mehr. Auf großer Skala s ≫ r ändert sich dadurch zwar nichts, doch auf kleiner Skala s < r ergeben sich Inhomogenitäten.

oder sie müssen aus einem homogenen Zustand entstehen, was den Gesetzen der Quantenmechanik widerspricht.
Nein, das widerspricht der QM natürlich nicht. Allein die UR besagt, dass die Messung eines Teilchens nicht an einen bestimmten Ort gebunden ist. Ändert sich aber der Ort aller Teilchen, dann ändert sich auch die lokale Dichte.
Darüber hinaus ergibt es sich aus dem Zusammenbruch der Wellenfunktion. Das Teilchen kann nur an einem Ort der Kugelwelle gemessen werden, alle anderen Orte gehen leer aus.
Dies wird zwar statistisch durch die Wahrscheinlichkeit der Messungen weitestgehend ausgeglichen, aber eben nur statistisch. Nach dem Gesetz der großen Zahl nimmt zwar die prozentuale Abweichung ab, die absolute Abweichung wird aber beständig größer. Das symmetrische Partnerteilchen gleicht dies nur achssymmetrisch aus, keinesfalls räumlich.

the initial quantum state is symmetric (i.e., homogeneous)
Das möchte ich bezweifeln. Dies mag für eine Zelle rP⁴/c zutreffen, nicht aber für ein größeres Volumen. Jede Zelle mag andere QF enthalten. Das Vakuum muss nicht auf kleiner Skala homogen sein, sondern nur auf großer Skala gemessen s ≫ rP. Das ergibt sich allein schon daraus, dass die Wellenlänge der Störungen keinesfalls kleiner sein muss. λ > rP.

the standard time evolution does not break this symmetry
Die Symmetrie wird durch die Messung gebrochen. Die erste Messung findet statt, wenn das Vakuum zu reellen Teilchen zerfällt. Dies findet nicht überall gleichzeitig statt. Die Dichte der ersten Teilchen sinkt mit der Expansion, während weitere Teilchen im Raum entstehen, die dann dichter sind.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ja klar, und wenn die Detektoren nicht isotrop angeordnet sind, sondern es sich um (symmetrische) Punktdetektoren handelte, dann entsteht eine Inhomogenität.
Stimmt, aber anisotrope Detektoren sind für das Argument nicht wichtig; es geht ja nur um eine Analogie.

Davon abgesehen liefern die Detektoren von Haus aus eine Inhomogenität, weil sie die Teilchen im Abstand r absorbieren. Im Innenraum ist aber nichts mehr. Auf großer Skala s ≫ r ändert sich dadurch zwar nichts, doch auf kleiner Skala s < r ergeben sich Inhomogenitäten.
Stimmt auch, für das Argument reicht es aber aus, nur die als homogen angenommene Kugeloberfläche zu betrachten.

Die beiden Anmerkungen hätte ich oben noch machen sollen.

Nein, das widerspricht der QM natürlich nicht.
Doch, das tut es, und zwar ganz fundamental.

Wir betrachten eine Symmetrie, die beschriebene wird mittels Generatoren Q einer Lie-Gruppe.
Das System sei symmetrisch, d.h. der Hamilton-Operator H vertausche mit allen Generatoren.
Außerdem sei der vorliegende Zustand des Systems ebenfalls symmetrisch, d.h. ein Singulett bzgl. dieser Symmetrie.

png.latex


Dann gilt für die Zeitentwicklung des Systems

png.latex


Wenn also eine derartige Symmetrie vorliegt, dann respektiert auch die Zeitentwicklung diese Symmetrie.

Die Argumentation entspricht der quantenmechanischen Version des Noether-Theorems und geht auf Weyl zurück:
Weyl, Quantenmechanik und Gruppentheorie, 1927
Weyl, The theory of groups and quantum mechanics, 1950 (reprint of the 1931 English translation)

Wenn du diese Argumentation bezweifelst, dann bezweifelst du die Fundamente der Quantentheorie.

Allein die UR besagt, dass die Messung eines Teilchens nicht an einen bestimmten Ort gebunden ist. Ändert sich aber der Ort aller Teilchen, dann ändert sich auch die Dichte.
Vergiss Teilchen in diesem Kontext; es geht um Quantenfelder. Auch die Messung interessiert uns nicht, denn die Argumentation besagt ja, dass im Falle der Inflation gerade keine Messung im Sinne von Neumanns vorliegen kann. Die Unschärferelation ist ebenfalls irrelevant.

Darüber hinaus ergibt es sich aus dem Zusammenbruch der Wellenfunktion. Das Teilchen kann nur an einem Ort der Kugelwelle gemessen werden, alle anderen Orte gehen leer aus.
Wenn du mittels Messung und Kollaps argumentieren möchtest, dann ja. Für den Detektor ist das OK, aber im Kontext der Inflation kannst du das nicht.

the initial quantum state is symmetric (i.e., homogeneous)
Das möchte ich bezweifeln.
Wenn du das bezweifelst, dann läufst du in ein Problem, du musst nämlich ein Fine-Tuning vornehmen.

Du musst die heute beobachteten Fluktuationen der CMB präzise in der Zeit zurückentwickeln und daraus den exakten Anfangszustand berechnen, aus dem genau die beobachteten Fluktuationen entstanden sind. Aber gerade das will die Inflation vermeiden, sie möchte die Fluktuationen aus einen typischen Anfangszustand ohne Fine-Tuning ableiten (sie erreicht das auch teilweise, scheitert aber an diesem einen Punkt). D.h. wenn du so argumentierst, konterkarierst du diesbzgl. die gesamte Idee der Inflation.

the standard time evolution does not break this symmetry
Die Symmetrie wird durch die Messung gebrochen. Die erste Messung findet statt, wenn das Vakuum zu reellen Teilchen zerfällt.
Was charakterisiert deiner Meinung nach eine Messung? Inwiefern findet da irgend etwas statt, das nicht exakt der unitären Zeitentwicklung entspricht?

Derartiges zu diesem Zeitpunkt zu postulieren, wäre extrem künstlich, weil du exakt das postulierst, was du herausbekommen möchtest. Darüberhinaus ist die Idee der Aufteilung in "Messgerät" und "gemessenem System" im kosmologischen Kontext wohl nicht angemessen.
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
Stimmt, aber anisotrope Detektoren sind für das Argument nicht wichtig; es geht ja nur um eine Analogie.
Na, was soll das denn heißen?

Dein "Detektor" sind andere Teilchen. Diese SIND punktförmig und nicht etwa isotrop, sondern in höchstem Maße anisotrop.

Stimmt auch, für das Argument reicht es aber aus, nur die als homogen angenommene Kugeloberfläche zu betrachten.
Welches Argument nochmal? Mein Argument ist, DASS es Inhomogenitäten gibt, und das willst Du unter den Tisch kehren?

Die Argumentation entspricht der quantenmechanischen Version des Noether-Theorems
Dieses kannst Du im expandierenden Univesum sowieso vergessen, weil es keine Zeitsymmetrie gibt.
Deine Mathematik verstehe ich leider nicht.

Im übrigen bin ich mir nicht so ganz sicher, worüber wir eigentlich reden. Gemessene Teilchen haben ja mit QF gar nichts zu tun.
Wenn also eine derartige Symmetrie vorliegt, dann respektiert auch die Zeitentwicklung diese Symmetrie.
Wenn wir von einer Paarbildung ausgehen, die durch die Phasenänderung des Vakuum verursacht wurde, dann breiten sich diese Teilchen räumlich und zeitlich gleich aus.
Ich sprach aber von unterschiedlichen Paarbildungen an unterschiedlichen Orten zu unterschiedlichen Zeiten. Das hat doch überhaupt nichts mit Deiner Symmetrie zu tun.
Die Phasenänderung, wodurch auch immer sie verursacht wird, muss ja nicht überall zum gleichen zeitpunkt stattfinden, zumal es eine Gleichzeitigkeit für raumartige Ereignisse sowieso nicht gibt.
denn die Argumentation besagt ja, dass im Falle der Inflation gerade keine Messung im Sinne von Neumanns vorliegen kann
Falsch. Es geht dabei immer um die Phasenänderung und die Entstehung von reellen Teilchen. Ob dafür das Stichwort QF falsch ist, kann ich nicht beurteilen.

Du musst die heute beobachteten Fluktuationen der CMB präzise in der Zeit zurückentwickeln und daraus den exakten Anfangszustand berechnen, aus dem genau die beobachteten Fluktuationen entstanden sind. Aber gerade das will die Inflation vermeiden, sie möchte die Fluktuationen aus einen typischen Anfangszustand ohne Fine-Tuning ableiten
Nein, das stimmt so nicht. Die Inflation soll (wieso will) etwaige Inhomogenitäten aus der Zeit vorher nivellieren. In meinem Modell ohne vorherige reelle Enegie ist das zwar überflüssig.
Die Inhomogenitäten am Ende der Inflation bzw bei Slow Rolling sollen hingegen die Fluktuationen der CMB erklären. Aus der Größe der Inhomogenitäten kann man dann womöglich den zeitpunkt ihrer Entstehung während des Slow Rolling oder auch die Dauer und den Gradienten des Slow Rolling berechnen.
Das hat mit Finetuning überhaupt nichts zu tun.
 

Rainer

Registriertes Mitglied
Was charakterisiert deiner Meinung nach eine Messung? Inwiefern findet da irgend etwas statt, das nicht exakt der unitären Zeitentwicklung entspricht?
Jede WW zwischen zwei Teilchen ist eine Messung. Und das thermodynamische Gleichgewicht lebt von diesen Kollisionen, Annihilationen und Paarbildung.
Und das thermodynamische Gleichgewicht ist natürlich auch inhomogen auf sehr kleinen Skalen
s < λ° = (1/²2n·σ) freie Weglänge
und auf sehr großen Skalen
s > sB = (t·T·kB/(3π·λC·η)) Brownsche Reichweite
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Dein "Detektor" sind andere Teilchen. Diese SIND punktförmig und nicht etwa isotrop, sondern in höchstem Maße anisotrop.
Das ist in "1. einfaches Beispiel" ein Artefakt des Modells. In "2. Übertragung auf die Inflation" spielt das keine Rolle.

Welches Argument nochmal? Mein Argument ist, DASS es Inhomogenitäten gibt, und das willst Du unter den Tisch kehren?
Du hast kein Argument, dass es Inhomogenitäten gibt, lediglich, dass es welche geben muss, da andernfalls die Inflation nicht leistet, was sie leisten soll.

Dieses kannst Du im expandierenden Univesum sowieso vergessen, weil es keine Zeitsymmetrie gibt.
Das ist irrelevant, da ich überhaupt nicht mit Zeittranslationsinvarianz argumentiere. Die quantenmechanischen Generatoren wären z.B. insbesondere räumliche Translation und Rotation.

Deine Mathematik verstehe ich leider nicht.
Dann sollten wir da anfangen, sonst kommen wir nicht zum Punkt.

Die Argumentation ist ganz einfach: ausgehend von einem homogenen Anfangszustand können keine Inhomogenitäten erzeugt werden.

Im übrigen bin ich mir nicht so ganz sicher, worüber wir eigentlich reden. Gemessene Teilchen haben ja mit QF gar nichts zu tun.
Nochmal, "1. einfaches Beispiel" ist ein einfaches Beispiel. In "2. Übertragung auf die Inflation" ist von Teilchen, Detektion, Messung etc. nicht die Rede.

Ich sprach aber von unterschiedlichen Paarbildungen an unterschiedlichen Orten zu unterschiedlichen Zeiten. Das hat doch überhaupt nichts mit Deiner Symmetrie zu tun.
Es geht nicht um "meine" Symmetrie, sondern um die Symmetrie, die man gemeinhin als Ausgangspunkt für die Inflation annimmt (siehe Zitat unten). Es geht nur darum, dass der Bereich des heute sichtbaren Universums nicht entsprechend der heutigen Fluktuationen fine-getuned sein soll.

Was ist falsch? Dass im Falle der Inflation gerade keine Messung im Sinne von Neumanns vorliegen kann? Was soll daran falsch sein? Was wäre denn die Messung? Von welcher Observablen? Wann? Wo wäre der Schnitt zwischen klassischem Messgerät und gemessen System?

Du kannst doch nicht einerseits sagen, dass du die Mathematik nicht verstehst, dann aber behaupten, das sei falsch.

Es geht dabei immer um … die Entstehung von reellen Teilchen.
Das ist wohl im Ergebnis so. Es reicht aber nicht, dieses Ergebnis zu konstatieren, es muss aus den Annahmen abgeleitet werden, und das funktioniert nicht.

Nein, das stimmt so nicht. Die Inflation soll (wieso will) etwaige Inhomogenitäten aus der Zeit vorher nivellieren.
Aber doch auf einer völlig anderen Größenordnung.

Nochmal aus dem ersten und dritten verlinkten Paper:
For quantization, one needs to chose a vacuum state for the field and assume it represents the initial state at the onset of inflation. This state is required to be homogeneous (i.e. all n-point functions are invariant under translations and rotations in the spatial slice). After all, the point is to explain the emergence of the inhomogeneities, rather than merely to assume their presence at the onset of inflation and to study their evolution.
In fact, according to the inflationary paradigm, from a relatively wide initial set of possibilities marking the end of the mysterious quantum gravity era, the accelerated inflationary burst leads to a homogeneous and isotropic (H&I) Universe where the quantum fields are all characterized by the equally homogeneous and isotropic vacuum states (usually taken specifically to be the so- called Bunch-Davies vacuum). From these conditions, it is usually argued, in a rather unclear although strongly image-evoking manner, that the “quantum fluctuations” present in such a quantum state morph into the seeds of anisotropies and inhomogeneities that characterize our late Universe … In any case, it seems clear that from a situation corresponding to a H&I background, and quantum fields characterized by a H&I state, one cannot end up – in the absence of something else, which in other circumstances would be identified as a measurement, but which clearly cannot be invoked in the present setting – in a situation that is characterized, at any level, as containing actual inhomogeneities and anisotropies. It is clear that, in terms of the standard dynamics, such a transition cannot be accounted for by anything that relies just on the gravity/inflaton action, which is known to preserve such symmetries. Simply put, if the initial state is H&I and the Schrödinger evolution is tied to a Hamiltonian that preserves these symmetries, the resulting state cannot be anything but a H&I state.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Jede WW zwischen zwei Teilchen ist eine Messung.
Nein.

Das steht im Widerspruch zur orthodoxen Interpretation der QM nach von Neumann – letztlich der Standardinterpretation. Gemäß dieser entspricht eine Wechselwirkung einer unitären Zeitentwicklung, eine Messung dagegen einer nicht-unitären.

Auch andere non-collapse Interpretationen definieren Messung anders.

Die Argumentation bzgl der quantum-2-classical transition der Inflation ist aber in jeder dieser Interpretationen problematisch.
 

Rainer

Registriertes Mitglied
Nochmal aus dem ersten und dritten verlinkten Paper:
Das ist ja alles unbestritten. Die Inflation selbst schafft Homogenität.
Die Inhomogenität entsteht erst beim Phasenübergang durch die reellen Teilchen, also am Ende der Inflation bzw beim Slow Rolling, das sagte ich doch bereits.
(meist wird nur das Slow Rolling als Inflation bezeichnet, und alles was vorher passierte bleibt im Nebel)

Jede WW zwischen zwei Teilchen ist eine Messung.
Nein.
Ob Du es Messung nennst oder nicht, durch die (ausreichend intensive) WW zwischen zwei Teilchen werden diese lokalisiert. Zwei Photonen, die Paarbildung erzeugen, machen dies an einem konkreten Ort, damit ist die Suppe nicht mehr homogen. Das ergibt sich allein schon daraus, dass sich die Kugelwellen nur an einem Punkt berühren. Nur ein Frontalzusammenstoß mit gleichen Energien im Schwerpunktsystem führt zur Paarbildung.

Je früher die Inhomogenitäten entstehen, zu desto größeren Regionen werden sie und desto mehr werden sie durch die Thermodynamik verschliffen.
Je später sie entstehen, desto kleiner bleibt die Region im Abflauen der Inflation.

Aber doch auf einer völlig anderen Größenordnung.
Was willst Du denn damit sagen? Was hat denn die Größenordnung damit zu tun?
Die Inflation mit einer Expansion um exp(70) vergrößert zusammen mit der nachfolgenden Expansion bis heute eine Plancklänge auf ein Vielfaches des heute sichtbaren Universums. Am Ende der Inflation entstehen beim Phasenübergang neue Inhomogenitäten, die der DM als Keime dienen, um die Fluktuationen der CMB abzubilden.

Nach dem Phasenübergang müsste eine comoving Länge von 1000 Mpc eine Größe von ca 1e-6 m gehabt haben.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Das ist ja alles unbestritten. Die Inflation selbst schafft Homogenität.
Du verstehst das immer noch falsch.

Die mathematische Modelle der Inflation gehen üblicherweise vom Bunch-Davies-Vakuumzustand aus. Dieser Zustand enthält Quantenfluktuationen, ist jedoch räumlich homogen. Die unitäre Zeitentwicklung schafft diese Homogenität nicht, sie erhält sie.

Die Inhomogenität entsteht erst beim Phasenübergang durch die reellen Teilchen, also am Ende der Inflation …
Das ist die bekannte Idee, und genau diese Idee steht zur Diskussion, weil die Quantenfeldtheorie keinen Mechanismus beinhaltet, der aus einem homogenen quantenmechanischen Zustand einen inhomogenen klassischen Zustand erzeugt (ich nenne diese Aussage Q2C)

Ob Du es Messung nennst oder nicht, durch die (ausreichend intensive) WW zwischen zwei Teilchen werden diese lokalisiert.
Das folgt nicht aus der Quantenmechanik oder der Quantenfeldtheorie (Q2C).

Der einzige Mechanismus, der das leistet, ist das von Neumannsche Kollapspostulat. Dabei muss man aber exakt das postulieren, was man eigentlich erklären möchte.

Zwei Photonen, die Paarbildung erzeugen, machen dies an einem konkreten Ort, damit ist die Suppe nicht mehr homogen.
Das ist so ebenfalls nicht korrekt. Der Photonenzustand ist beliebig delokalisiert; und der Endzustand mit anderen Feldern (z.B. Elektron plus Positron) ebenfalls. Der Formalismus liefert Wahrscheinlichkeiten, keine Lokalisierung, keine Inhomogenitäten (Q2C).


Es tut mir leid, es bringt nichts, dass du diese Argumente wiederholst; man liest sie so immer wieder, sie enthalten jedoch einen logischen Fehler. Um genau diesen Fehler geht es. Du wirst ihn nur dann verstehen, wenn du die Mathematik der Quantenmechanik, die ich oben im 1. Beispiel kurz skizziert habe, verstehst – das Beispiel des Zerfalls des neutralen Pion in zwei Photonen, sowie deren Lokalisierung in einem kugelförmigen Detektor. Diese Lokalisierung folgt nicht aus der QM, und genausowenig die der Quantenfluktuationen im Zuge der Inflation. Mein Angebot wäre, genau dieses Problem (Q2C) zu diskutieren.

Die von mir zitierten Artikel sowie die darin zitierten Quellen stimmen übrigens allesamt bzgl. (Q2C) überein.

Auch Penrose schreibt dazu etwas in seinem Buch Road to Reality. Bei ihm steckt das Problem (Q2C) in dem irreversiblen R-Prozess.
How then is this FLRW-symmetric vast quantum superposition of irregular geometries supposed to give rise to something resembling one specific 'almost FLRW-symmetric' universe which is perturbed only in some very minor way that is consistent with observation? It should be clear to the reader that there is no way that this can happen entirely within the U-evolution of standard quantum mechanics, ... There must be something of the nature of an R-process taking place, ... The key is that irregularities arising from 'quantum fluctuations' cannot come about without some R-like action, whereby the the single initial quantum state somehow resolves itself into a probability mixture of different states.

Weinberg schreibt in seinem Buch Cosmology
These are quantum averages, not averages over an ensemble of classical field configurations. ... Just as in the measurement of a spin in the laboratory, some sort of decoherence must set in; the field configurations must become locked into one of an ensemble of classical configurations, ... It is not apparent just how this happens ...
Dies betrifft den ersten, technischen Teil, nämlich die Entstehung einer inkohärenten Überlagerung im Sinne eines klassischen Ensembles aus einer kohärenten quantenmechanischen Superposition. Beide sind in Summe jedoch immer noch homogen ist. Es löst also – wenn es denn funktioniert – einen Teil (Q2C.1)

Mukhanov schreibt in Physical Foundations of Cosmology
How do quantum fluctuations become classical? … [Q2C.1] Decoherence is a necessary condition for the emergence of classical inhomogeneities and can easily be justified for amplified cosmological perturbations. However, decoherence is not sufficient ... [Q2C.2] It can be shown that as a result of unitary evolution we obtain a state which is a superposition of many macroscopically different states, each corresponding to a particular realization of galaxy distribution. Many of these realizations have the same statistical properties. ... Therefore, to pick an observed macroscopic state from the superposition we have to appeal either to Bohr's reduction postulate or to Everett's many-worlds interpretation of quantum mechanics. The first possibility does not look convincing in the cosmological context.
Siehe dazu auch
Das Problem (Q2C.2) steckt in (29); (29) ist keine Schlussfolgerung – auch wenn diese Ansicht verbreitet ist – sondern eine logisch und physikalisch unbegründete Annahme.
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
Die unitäre Zeitentwicklung schafft diese Homogenität nicht, sie erhält sie.
Ja logisch. Du verstehst nicht, was damit gemeint ist.
Es sollen ja vorher bestehende Inhomogenitäten eines Nicht-Vakuum beseitigt werden.
Vakuum ist insoweit immer homogen.
In meinem Modell erübrigt sich diese Funktion.

weil die Quantenfeldtheorie keinen Mechanismus beinhaltet, der aus einem homogenen quantenmechanischen Zustand einen inhomogenen klassischen Zustand erzeugt
Es ist gar kein Mechanismus bekannt, der das Vakuum zu reellen Teilchen zerfallen lässt, oder ist diese Frage beim Higgs geklärt?

Der einzige Mechanismus, der das leistet, ist das von Neumannsche Kollapspostulat. Dabei muss man aber exakt das postulieren, was man eigentlich erklären möchte.
Am besten, man hält sich an die Beobachtungen. Ein Teilchen ist dort, wo es detektiert wird, wo es also mit einem anderen Teilchen wechselwirkt, wie zB bei der Paarbildung oder bei der Annihilation.

Der Formalismus liefert Wahrscheinlichkeiten, keine Lokalisierung, keine Inhomogenitäten
Ja, der Formalismus kann das nicht leisten. Das stört aber die Teilchen nicht, sie sind dann lokalisiert. Das nennt man den Zusammenbruch der Wellenfunktion. Dafür gibt es nur den Mechanismus der Wechselwirkung, die der Wahrscheinlichkeit der Wellenfunktion unterliegt.

Das ist so ebenfalls nicht korrekt. Der Photonenzustand ist beliebig delokalisiert; und der Endzustand mit anderen Feldern (z.B. Elektron plus Positron) ebenfalls.
Der Anfangszustand ist delokalisiert, konzentriert auf die gesamte Wellenfront ggf entsprechend einer Richtungscharakteristik. Der Endzustand ist jedoch genau lokalisiert. Man kann alles als Überlagerung interpretieren und spätestens wenn wir es heute beobachten, ergeben sich (nicht eindeutig berechenbar) die konkreten Orte jedes einzelnen Teilchens bis zurück zum Ende der Inflation, die den heute beobachteten Zustand erzeugt haben. Das ist die Viele Welten Theorie, bei der wir in einer zufälligen Variante leben.
Es tut mir leid, es bringt nichts,
Das scheint mir auch so. Nach dieser Ansicht finden am LHC also gar keine Kollisionen statt, weil die beteiligten Protonen homogen über das Universum verschmiert sind? Die Messgeräte geraten in einen Überlagerungszustand aus Anzeige und Negativanzeige. Die Ablesung ist rein zufällig, ein Überlagerungszustand der Wissenschaftler zwischen Ablese und Nichtablese? Die Fachartikel sind ein Überlagerungszustand aus geschrieben und nicht geschrieben. Erst wenn ich es in der Zeitlung lese, steht das Ergebnis (nur für mich) fest. Ich treffe die zufällige Auswahl, WAS ich dort lese. Und selbst das ist eine Illusion, weil ich selbst ein Überlagerungszustand aus gelesen und nicht gelesen bin. Dass es Sonne und Erde gibt, ist nur eine fiktive zufällige Auswahl von unzählbaren Überlagerungszuständen.

Das ist Philosophie und hat nichts mehr mit Physik zu tun. Physik ist, was beobachtet und gemessen wird (und die Interpretation der Gesetzmäßigkeiten).
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ja logisch. Du verstehst nicht, was damit gemeint ist.
Ich bin mir nicht so sicher, wer hier was nicht versteht ;)

Es sollen ja vorher bestehende Inhomogenitäten eines Nicht-Vakuum beseitigt werden.
Welches nicht-Vakuums? Kennst die die Berechnungen? Die gehen alle von diesem Bunch-Davies-Zustand (Hartle-Hawking-Instanton o.ä.) aus.

Und natürlich sollen da keine Fluktuationen beseitigt werden. Es wird einfach nur ein "natürlicher" Anfangszustand angesetzt (wobei man sich streiten kann, inwiefern der Bunch-Davies-Zustand tatsächlich natürlich ist, aber das ist hier noch nicht meine Frage)

In meinem Modell erübrigt sich diese Funktion.
Was genau wäre dein Modell?

Es ist gar kein Mechanismus bekannt, der das Vakuum zu reellen Teilchen zerfallen lässt ...
Das habe ich so nicht gesagt. Ich habe gesagt, dass die Quantenfeldtheorie keinen Mechanismus beinhaltet, der aus einem homogenen quantenmechanischen Zustand einen inhomogenen klassischen Zustand erzeugt.

Aber ja, zu Ende gedacht bedeutet es auch, dass es keinen Mechanismus gibt, bei dem aus einem homogenen Zustand ein Zustand mit lokalisierten (teilchenartigen) Anregungen entsteht. Das ist genau mein 1. Beispiel, letztlich das Messproblem der Quantenmechanik. Angewandt auf eine Messung im Labor kann man nach Bohr, Born, von Neumann et al. das Problem einigermaßen umschiffen. In der Kosmologie, zwingend angewandt auf den makroskopischen Quantenzustand des gesamten Universums, kann man das nicht.


Am besten, man hält sich an die Beobachtungen.
Aufgabe der theoretischen Physik ist es, Beobachtungen zu erklären bzw. die Ergebnisse vorauszusagen.
Ein Teilchen ist dort, wo es detektiert wird, wo es also mit einem anderen Teilchen wechselwirkt, wie zB bei der Paarbildung oder bei der Annihilation.
Leider ist nichts davon Gegenstand der Quantenfeldtheorie.

Das nennt man den Zusammenbruch der Wellenfunktion. Dafür gibt es nur den Mechanismus der Wechselwirkung, die der Wahrscheinlichkeit der Wellenfunktion unterliegt.
Es geht nicht um eine quantenmechanische Wechselwirkung, diese lokalisiert nichts, wie ich (nach Weyl, von Neumann u.v.a.m.) oben gezeigt habe. Es geht um eine Messung, nur in diesem Kontext ist das Kollaps-Postulat anwendbar.

Der Anfangszustand ist delokalisiert, konzentriert auf die gesamte Wellenfront ggf entsprechend einer Richtungscharakteristik. Der Endzustand ist jedoch genau lokalisiert.
Von welchem Zustand redest du? Der beobachtete Zustand ist natürlich lokalisiert, das ist unbestritten. Der mathematische Zustand ist nicht lokalisiert, das ist auch unbestritten. Da beides offensichtlich unverträglich ist, liegt ein Problem vor, das sogenannte Messproblem, das uns hier als Q2C wieder begegnet.

Man kann alles als Überlagerung interpretieren und spätestens wenn wir es heute beobachten, ergeben sich (nicht eindeutig berechenbar) die konkreten Orte jedes einzelnen Teilchens bis zurück zum Ende der Inflation, die den heute beobachteten Zustand erzeugt haben. Das ist die Viele Welten Theorie, bei der wir in einer zufälligen Variante leben.
Guter Punkt (y)

Das ist tatsächlich die einzige heute bekannte Lösung. Siehe auch
Therefore, to pick an observed macroscopic state from the superposition we have to appeal either to Bohr's reduction postulate or to Everett's many-worlds interpretation of quantum mechanics. The first possibility does not look convincing in the cosmological context.
Aber vielen Physikern erscheint beides unbefriedigend.

Physik ist, was beobachtet und gemessen wird (und die Interpretation der Gesetzmäßigkeiten).
Physik ist seit Newton insbesondere das Aufstellen von Gesetzmäßigkeiten und deren anschließende Überprüfung. Und ja, der hier diskutierten Stelle befinden wir uns bzgl. der Interpretationen offenbar in einer Sackgasse.


Wenn wir uns nun darauf geeinigt haben,
  • dass wir da einen offenen Punkt haben,
  • können wir diesen als nächstes präzise fassen:
die unitäre Dynamik liefert eine dekohärente Überlagerung untereinander nicht mehr interferenzfähiger Moden
ρ ≃ ∫dφ ρ(φ);
unsere Beobachtungen der CMB entsprechen jedoch einzelne Moden φcl;
die Identifizierung quantenmechanischer und klassischer Erwartungswerten
⟨ A(φ) ⟩ = Ā(φcl)
ist formal nicht gerechtfertigt​
  • und anschließend Lösungsvorsachläge diskutieren; diese beinhaltetet ganz handfeste Physik, initial conditions, vacuum states (Bunch-Davies, Hartle-Hawking instanton ...), decoherence, dynamical / gravity induced localization ...
 
Zuletzt bearbeitet:

Rainer

Registriertes Mitglied
Welches nicht-Vakuums?
Nun wirds lächerlich, das Horizontproblem hat überhaupt nichts mit Quantenfluktuationen und Vakuum zu tun.
wiki:
Das heute sichtbare Universum enthält überall im Wesentlichen ähnliche Strukturen. Andererseits besteht es aus Gebieten, die bei einer Standard-Expansion erst sehr spät kausal miteinander in Wechselwirkung treten konnten, da sie sich unmittelbar nach dem Urknall zunächst zu schnell voneinander entfernt haben. Die Tatsache, dass man dennoch eine hochgradige Homogenität des Universums und Isotropie der kosmischen Hintergrundstrahlung beobachtet, wird als Horizontproblem bezeichnet und ist im Rahmen einer Standard-Expansion nicht erklärbar. Bei Existenz einer inflationären Expansion dagegen hätten alle Bereiche des heute sichtbaren Universums vor dieser Inflation bereits vorübergehend in Wechselwirkung gestanden.

Kennst die die Berechnungen?
Da gibt es nichts zu berechnen, sondern es geht nur um Beseitigung von Inhomogenitäten.
Die einzige Berechnung lautet

R·T/(rP·TP) > ⁴(ρP/ρr)R/rP > ex > exp(60)

bzw wird üblich mit TGUT statt TP und ρGUT statt ρP gerechnet. Das hat gar nichts mit dem Vakuum zu tun.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Nun wirds lächerlich, das Horizontproblem hat überhaupt nichts mit Quantenfluktuationen und Vakuum zu tun.
Aber sicher hat es das.

Sorry, dass ich da insistiere, aber verstehst du die Zusammenhänge?

Was wiki dazu sagt ist nicht falsch, aber eben auch nicht vollständig.
Das heute sichtbare Universum enthält überall im Wesentlichen ähnliche Strukturen. Andererseits besteht es aus Gebieten, die bei einer Standard-Expansion erst sehr spät kausal miteinander in Wechselwirkung treten konnten, da sie sich unmittelbar nach dem Urknall zunächst zu schnell voneinander entfernt haben. Die Tatsache, dass man dennoch eine hochgradige Homogenität des Universums und Isotropie der kosmischen Hintergrundstrahlung beobachtet, wird als Horizontproblem bezeichnet und ist im Rahmen einer Standard-Expansion nicht erklärbar. Bei Existenz einer inflationären Expansion dagegen hätten alle Bereiche des heute sichtbaren Universums vor dieser Inflation bereits vorübergehend in Wechselwirkung gestanden.
Und genau diese inflationären Expansion (und damit implizit alle ihre Konsequenzen) berechnet man mittels der Zeitentwicklung eines quantenmechanischen Vakuumzustandes inklusive dessen Quantenfluktuationen. Die Dynamik des Skalenfaktors a(t) und die Dynamik der Moden hängen zusammen; ohne letztere erhältst du eine Idee, wie es denn vielleicht funktionieren könnte, aber keine präzisen Vorhersagen. Insbs. tragen Erwartungswerte der Quantenfluktuationen zum Energie-Impuls-Tensor bei, sie bestimmen zusammen mit dem Potential den Wert des w-Faktors, sie spielen somit eine wichtige Rolle bei der Zeitentwicklung des Skalenfaktors a(t). Dabei ist der betrachtete Quantenzustand weiterhin räumlich homogen, und wir reden immer noch von einem expandierenden euklidischen Raum.

Nur weil etwas nicht in der Wikipedia steht, ist es nicht irrelevant. Schau doch bitte mal in das verlinkte Buch oder einige der Artikel.

Da gibt es nichts zu berechnen,
Wir reden hier über ein zentrales Problem der Inflation, und da musst du eben die Berechnungen zumindest im Ansatz verstehen - oder mir glauben.

Das Horizontproblem wird mit der Inflation gelöst, und nicht die Homogenitäte des Vakuum oder QF.
Das Horizontproblem wird mit der Inflation gelöst, für die man im Rahmen der Quantenfeldtheorie die Zeitentwicklung eines homogenen Vakuumzustand (Bunch-Davies-Vakuum o.ä.) berechnet.

Aus letzterer folgt über das Horizontproblem hinaus das Spektrum der Quantenfluktuationen des Zustandes am Ende der Inflation; diese interpretiert man dann als klassische Fluktuationen, die sich in der CMB manifestieren. Damit erhält man die einzige essentielle und außerdem gut bestätigte Vorhersage der Inflation. Die klassische Interpretation ist jedoch ein wesentliches bisher ungelöstes Problem.

Mit anderen Worten, würde man auf diese nicht durch die Quantenmechanik zu rechtfertigende Interpretation verzichten, erhielte man zwar weiterhin eine Lösung für das Horizont- und das Flachheitsproblem, jedoch keine Vorhersage des Spektrums der CMB.


EDIT - Noch eine Ergänzung zu
Die mathematische Modelle der Inflation gehen üblicherweise vom Bunch-Davies-Vakuumzustand aus. Dieser Zustand enthält Quantenfluktuationen, ist jedoch räumlich homogen. Die unitäre Zeitentwicklung schafft diese Homogenität nicht, sie erhält sie.
Man kann auch untersuchen, wie sich inhomogenen Quantenzustände unter dieser Zeitentwicklung verhalten. Was ich bisher gelesen habe besagt ganz grob, dass derartige Inhomogenitäten extrem schnell in den (damit dynamisch eindeutig ausgezeichneten) homogenen Bunch-Davies-Vakuumzustand zerfallen; daher erscheint es gerechtfertigt, unmittelbar von diesem auszugehen. Das ist aber etwas ganz anderes als die üblicherweise diskutierte Glättung von Inhomogenitäten. Siehe z.B.
After all, inflation is the mechanism for smoothing the initial conditions away using accelerated expansion as the attractor dynamics. At the quantum level, the same phenomenon reoccurs: inflationary expansion induces large redshift factors in the expectation values of observable operators in generic initial states which rapidly diminish the effects of initial excitations. The quantum cosmic no-hair theorem picks the Bunch-Davies state as the vacuum, and evolution turns it into the attractor. The underlying physics of the quantum balding of an initial state is just decoupling, whereby the IR observables are insensitive to UV effects due to the large relative redshifts. Using the boundary action formalism to determine the magnitude of initial excitations due to their backreaction on the background, we found that the effects of initial excitations reduce to insignificant levels within O(10) e-folds. This occurs for both the scalar power spectrum and non-Gaussianities. If inflation involves O(10) e-folds preceding the last 60, the quantum effects of initial conditions are wiped out. Our results confirm that inflationary quasi–de Sitter expansion is indeed the mechanism which smooths out the Universe at both the classical and quantum levels ... Note that while it has been colloquially said that inflation prepares the Bunch-Davies state as the vacuum of fluctuations, the precise and general details were lacking in the literature. Our work fills that gap.
 
Zuletzt bearbeitet:
Oben