Grundlagenprobleme der Quantenmechanik

Bernhard

Registriertes Mitglied
Hast du dazu eine Referenz?
Ist nur so eine spontane Idee von mir.
Wie genau soll Eindeutigkeit erreicht werden?
Operatoren, wie zB Spin oder Drehimpuls haben ja im Allgemeinen mehrere Eigenwerte zusammen mit den zugehörigen Eigenfunktionen. Daneben gibt es aber auch Operatoren mit nur einem einzigen Eigenwert.
Einfaches Beispiel: Die Matrix $$\left ( {\begin{array}{cc}
1 & 0 \\
1 & 1 \\
\end{array} } \right)$$
hat zB nur den Eigenwert 1 mit dem zugehörigen Eigenvektor (0 1). Wird eine messbare quantenmechanische Größe durch so einen Operator (mit eindeutigem Eigenwert) dargestellt, gibt es theoretisch immer nur einen einzigen Messwert.

Werden die Observablen eines Quantensystems zusammen mit Messgerät immer durch solche Operatoren beschrieben, gibt es immer eindeutige Messwerte.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Na ja, so einfach kann es nicht sein.

Zunächst mal können die verschiedenen Messwerte bei aufeinanderfolgenden Messungen von (fast) identisch präparierten Systemen ja auftreten. D.h. der gesuchte Mechanismus kann nicht auf der Ebene der Operatoren angreifen, da dadurch ja gerade keine Unterscheidung erfolgen kann. Die Unterscheidung muss auf Ebene der einzelnen Zustände erfolgen.

Dann ist der Zusammenhang zwischen Operatoren und Messwerten ja sehr indirekt. Wir messen schlicht keinen Eigenwert, sondern wir beobachten eine räumlich lokalisierte Wechselwirkung. Im Stern-Gerlach-Experiment beobachten wir hier (dort) einen kleinen Fleck - und schließen daraus Spin up (Spin down). Von Neumanns Postulate erklären da rein gar nichts.

Letztlich wäre ein eindeutiger Fleck (bei mehreren Möglichkeiten) aus einem Zustand des Gesamtsystems zu gewinnen. Die Dekohärenz leistet dies nicht.
 

Bernhard

Registriertes Mitglied
Zunächst mal können die verschiedenen Messwerte bei aufeinanderfolgenden Messungen von (fast) identisch präparierten Systemen ja auftreten. D.h. der gesuchte Mechanismus kann nicht auf der Ebene der Operatoren angreifen, da dadurch ja gerade keine Unterscheidung erfolgen kann. Die Unterscheidung muss auf Ebene der einzelnen Zustände erfolgen.
In der Zeit zwischen den Messungen kann sich aber bereits Einiges ändern. Mich würde es zB gar nicht wundern, wenn die konkrete Richtung bei einer Spin-Messung von den umgebebenden Neutrinos mitentschieden wird.

EDIT: Details "auf" der Wellenfunktion möchte ich auch nicht ausschließen, die dann zB auch zu nichtlinearen Termen in der Schrödingergleichung führen. Aktuell stelle ich mir da kleine "Haken" an den Feldern vor, die dann mit einer gewissen Wahrscheinlichkeit eine Wechselwirkung zwischen zwei Feldern auslösen.

Dann ist der Zusammenhang zwischen Operatoren und Messwerten ja sehr indirekt. Wir messen schlicht keinen Eigenwert, sondern wir beobachten eine räumlich lokalisierte Wechselwirkung. Im Stern-Gerlach-Experiment beobachten wir hier (dort) einen kleinen Fleck - und schließen daraus Spin up (Spin down). Von Neumanns Postulate erklären da rein gar nichts.
Gut möglich, dass man mit Eigenwerten alleine manche Messungen nicht komplett beschreiben kann.

Siehe: http://quanten.de/forum/showpost.php5?p=100782&postcount=31
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
In der Zeit zwischen den Messungen kann sich aber bereits Einiges ändern. Mich würde es zB gar nicht wundern, wenn die konkrete Richtung bei einer Spin-Messung von den umgebebenden Neutrinos mitentschieden wird.
Ja, sehr gut möglich (wobei ich jetzt nicht gerade Neutrinos als essentiell ansehe, wohl aber Restgasmoleküle und thermische Photonen.

Gemäß der Dekohärenz ist die Verschränkung mit der Umgebung entscheidend für die Ausprägung einer dekohärenten Überlagerung jeweils klassischer Zweige. Es wäre natürlich denkbar - und einige Leute arbeiten wohl in diese Richtung - dass die Wechselwirkung mit der Umgebung zur Selektion genau eines klassischen Zweiges führt.

Betrachten wir die partielle Dichtematrix des Messgerätes nach Ausspuren der unbeobachteten Umgebung.

Gemäß der Dekohärenz resultiert

$$ \rho = \sum_a p_a \, \rho(x - x_a) $$

wobei a die Messergebnisse numeriert und die Zweigstruktur eine Lokalisierung des Zeigers je Komponente an einem entsprechenden Zeiger-Ort enthält.

In der Realität beobachten wir jedoch je Messung k genau eine Komponente

$$ \rho = \rho(x - x_{a_k}) + \ldots $$

(plus kleine Fluktuationen ...)

Die Wechselwirkung mit der Umgebung müsste also in einem Stern-Gerlach Experiment eine der beiden möglichen Komponenten verstärken und die jeweils andere dämpfen.

Mir ist weder klar, ob und wie das funktionieren kann, noch, ob es gewichtige Gegenargumente gibt.



Anmerkung - siehe auch oben: wir messen hier sicher nicht direkt den Spin; wir messen den Ort und folgern daraus, dass ein bestimmter Spin vorlag (s.o.)
 

TomS

Registriertes Mitglied
EDIT: Details "auf" der Wellenfunktion möchte ich auch nicht ausschließen, die dann zB auch zu nichtlinearen Termen in der Schrödingergleichung führen. Aktuell stelle ich mir da kleine "Haken" an den Feldern vor, die dann mit einer gewissen Wahrscheinlichkeit eine Wechselwirkung zwischen zwei Feldern auslösen.
Geht die Idee in die Richtung GRW?

Das halte für völlig obfuscous und in vain, da es letztlich alles, was QM und QFT ausmacht, alle Erkenntnisse ... wegwirft, um ein einziges isoliertes Problem ad hoc zu lösen. Darüberhinaus ist es klar, dass wir mit einem derartigen Ansatz - wenn wir ihn genügend tweaken - immer bestimmte Ergebnisse realisieren können, da wir unendlich viele Möglichkeiten zum Tweaken haben. Wenn überhaupt, dann müsste man zeigen können, dass ein derartiger Ansatz als Näherung aus einer fundamentaleren Theorie folgen kann, d.h. dass die QM nur eine lineare Näherung darstellt.
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Geht die Idee in die Richtung GRW?
Steht mMn erstmal nicht im Widerspruch dazu.

Das halte für völlig obfuscous und in vain, da es letztlich alles, was QM und QFT ausmacht, alle Erkenntnisse ... wegwirft, um ein einziges isoliertes Problem ad hoc zu lösen. Darüberhinaus ist es klar, dass wir mit einem derartigen Ansatz - wenn wir ihn genügend tweaken - immer bestimmte Ergebnisse realisieren können, da wir unendlich viele Möglichkeiten zum Tweaken haben. Wenn überhaupt, dann müsste man zeigen können, dass ein derartiger Ansatz als Näherung aus einer fundamentaleren Theorie folgen kann, d.h. dass die QM nur eine lineare Näherung darstellt.
Ich sammle gerne auch vage Ideen, damit man überhaupt mal eine grobe Vorstellung davon hat, über was man gerade nachdenkt. Eine Theorie würde ich daraus noch nicht entwickeln wollen.

Ich bin auch überhaupt kein Freund davon, mathematische Modelle zu entwerfen, in der Hoffnung, dass die dann irgendwann später einen experimentellen Befund wiedergeben. Im Gegenteil. Am Anfang muss ein experimenteller Befund vorliegen und der darf dann beschrieben werden.

Allerdings sind wir auch davon noch weit entfernt. Wir haben aktuell ja nur so etwas wie einen ästhetischen bzw semantischen Mangel im Formalismus der QM. Dem kann man ruhig mit etwas Brainstorming begegnen.
 

TomS

Registriertes Mitglied
Ich sammle gerne auch vage Ideen, damit man überhaupt mal eine grobe Vorstellung davon hat, über was man gerade nachdenkt. Eine Theorie würde ich daraus noch nicht entwickeln wollen.

Ich bin auch überhaupt kein Freund davon, mathematische Modelle zu entwerfen, in der Hoffnung, dass die dann irgendwann später einen experimentellen Befund wiedergeben. Im Gegenteil. Am Anfang muss ein experimenteller Befund vorliegen und der darf dann beschrieben werden.
Teilweise Zustimmung.

Die Quantenmechanik entstand in der von dir genannten Weise - sozusagen bottom-up.

Die ART Einsteins entstanden anders, eher top-down auf Basis sehr allgemeiner Prinzipien. Ausgehend rein von der Periheldrehung hättest du die Riemannsche Geometrie wohl nicht entwickelt.

Wie du ja richtig sagst, die experimentellen Befunde können wir in gewisser wenn auch für manche als unbefriedigend wahrgenommen Weise schon beschreiben. Was wir suchen ist eine alternative Beschreibung jedoch mit denselben Resultaten (ok, evtl. ergeben sich experimentelle Tests). Da wir mit der bottom-up Methode nicht mehr weiterkommen, benötigen wir m.E. eher ein übergeordnetes Prinzip als weiteres Klein-Klein-Gebastel. Die letzte Möglichkeit ist, dass wir überhaupt nichts grundlegend Neues benötigen sondern lediglich genmauere Methoden zur Lösung komplexer quantenmechanischer Probleme suchen.

Allerdings sind wir auch davon noch weit entfernt. Wir haben aktuell ja nur so etwas wie einen ästhetischen bzw semantischen Mangel im Formalismus der QM.
Na ja, nehmen wir an, es gäbe tatsächlich einem mathematische Methode, aus der eindeutige Messergebnisse im Rahmen der gewöhnlichen Quantenmechanik ohne irgendwelche Zutaten oder Modifikationen und ohne weitere Interpretation folgen würden. Dann würde ich in der Rückschau Interpretationen a la Kopenhagen oder Vielen Welten nicht als 'semantischen Mangel' sondern als einen der größten Irrwege der Wissenschaftsgeschichte bezeichnen (nicht die Tatsache, dass Kopenhagen existiert und funktioniert, sondern die Tatsache, dass man beharrlich daran festhält).
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ausblick auf mögliche Auswege ...

1. der Kollaps bzw. das von Neumannsche Projektionspostulat
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung
3. die Anerkennung der Realität der Superpositionen, d.h. die Viele-Welten-Interpretation
4. die bisher übersehene Option, dass es sich bei den o.g. Superpositionen lediglich um Artefakte unzureichender Näherungen handelt, und dass verbesserte mathematische Methoden tatsächlich die Existenz eines mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung aufzeigen
sowie eine kurze Bewertung:

1. der Kollaps bzw. das von Neumannsche Projektionspostulat - erscheint vielen heute völlig unbefriedigend
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung - erscheint vielen ad hoc; könnte sich aus 4 ergeben
3. die Anerkennung der Realität der Superpositionen, d.h. die Viele-Welten-Interpretation
- erscheint vielen heute völlig unbefriedigend
4. dass es sich bei den Superpositionen um Artefakte von Näherungen handelt, und dass verbesserte Methoden einen mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung liefern - Lösung im Rahmen der Quantenmechnaik, wäre ein großer Wurf
5. [oben nicht enthalten] Lösung im Rahmen fundamentalerer oder erweiterter Theorien, insbs. zur Quantengravitation, energetic causal sets, ER = EPR ... - es gibt durchaus Überlegungen in diese Richtung, z.B. seitens Smolin und Susskind
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
4. dass es sich bei den Superpositionen um Artefakte von Näherungen handelt, und dass verbesserte Methoden einen mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung liefern - Lösung im Rahmen der Quantenmechnaik, wäre ein großer Wurf

Für mich sind die Nicht-linearen Ansätze noch so neu, dass ich mich schon auch frage, ob man dann nicht gleich die unitäre Zeitentwicklung in Frage stellt. Das kann ja auch nur näherungsweise gültig sein.

Diese Skepsis ist naheliegend, weil eine lineare Bewegungsgleichung vom Konzept her notwendigerweise sofort zur Möglichkeit von Superpositionen führt.
 

TomS

Registriertes Mitglied
Für mich sind die Nicht-linearen Ansätze noch so neu, dass ich mich schon auch frage, ob man dann nicht gleich die unitäre Zeitentwicklung in Frage stellt.
Das wahrscheinlich eine größere Revolution als das Infragestellung der Konstanz der Lichtgeschwindigkeit.

Das kann ja auch nur näherungsweise gültig sein.
Ich denke, viele Ergebnisse der QM verflüchtigen sich vollständig, wenn man dieses Prinzip aufgibt.

Ich bin ja auch nicht vollständig dagegen, ich sehe nur keinen vernünftigen Grund. Solange es kein no-go Theorem gibt, das besagt, dass unter Beibehaltung der Unitarität eine vernünftige Lösung des Messproblems explizit unmöglich ist, würde ich daran nicht rütteln wollen. Ich mag keine ad hoc Ansätze, die ein Problem scheinbar lösen, andere Lösungen entwerten und dabei zig neue Fragen aufwerfen; das sind auch zumeist die Artikel, die es nicht über arxiv hinaus schaffen.

Diese Skepsis ist naheliegend, weil eine lineare Bewegungsgleichung vom Konzept her notwendigerweise sofort zur Möglichkeit von Superpositionen führt.
Ja, zumindest in der einfachen Version nach von Neumann und auch in der sehr detaillierten gemäß Dekohärenz.

Aber wir wissen ja, dass wir die unitäre Zeitentwicklung und diese Superpositionen für die Zeiträume zwischen den Messungen (was immer das jetzt genau sein mag) benötigen. Wir können die Superpositionen nicht vollständig ausschließen, wir kennen lediglich gewisse Spezialfälle (Messungen) in denen sie nicht zutreffend zu sein scheinen. Daher halte ich es für falsch, sie ad hoc "wegzupostulieren", und in der Hinsicht sind GRW auch nicht viel besser unterwegs als von Neumann. Ich hätte das Verschwinden der Superpositionen gerne als Konsequenz eines mathematischen Modells oder der Theorie, nicht als Input, Forderung o.ä. Die Dekohärenz zeigt, wie ein erster Schritt funktionieren kann. Und sie zeigt auch, wie dumm letztlich ein Kollapspostulat ist (man postuliert nun nicht mehr den einfachen Kollaps a la von Neumann sondern den Kollaps auf Zustände, die sich nach jahrzehntelanger Forschung und mühsamer Rechnerei ergeben; stell dir vor, Einstein hätte als weiteres Postulat der ART noch die Chandrasekar-Grenze eingeführt). Ich denke, wir sind mit unserem Latein noch nicht am Ende ...
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Da könnte man gleich nach Alternativen zum Konzept einer komplexen Wellenfunktion suchen.
Ich "spinne" das mal kurz weiter.

Was, wenn man sich von einem probabilistischen Ansatz generell distanziert und nicht mehr vom "Elektron", sondern nur noch von einem Elektronenfeld spricht? Diskussionen über den Ort oder den Impuls des Elektrons wären damit ganz offensichtlich unsinnig. Man hätte automatisch eine Dichte- und Impulsverteilung im Rahmen einer deterministischen Feldtheorie.

Vorteile:
Man hätte unmittelbar die lästigen Wahrscheinlichkeiten mit der zugehörigen Problematik der Deutung entfernt.

Schwierigkeiten:
a) Man müsste die (komplexe) Wellenfunktion in diesem Bild deuten, voraussichtlich als mehrkomponentiges Feld.
b) Man bräuchte zusätzlich auch eine deterministische Erklärung für die erfolgreiche Quantisierung von Feldern wie dem elektromagnetischen Feld.
 

Bernhard

Registriertes Mitglied
a) Man müsste die (komplexe) Wellenfunktion in diesem Bild deuten, voraussichtlich als mehrkomponentiges Feld.
Wobei vorest besser noch nichts an den Schrödinger- bzw. Dirac-Gleichungen zu ändern wäre, denn die liefern ja bekanntlich und aktuell nicht zu überbietende Ergebnisse zB bei der Vorhersage von Atomspektren.

Es bleibt damit erneut aber die Möglichkeit einer alternativen, bzw. präziseren Interpretation der Wellenfunktion(en).

So könnte man zB den Begriff "Aufenthaltswahrscheinlichkeit" wie zB bei der Wellenfunktion des Wasserstoffproblems in der Ortsraumdarstellung durch "Feldstärke" ersetzen und hätte damit eine weit verbreitete Form von Wahrscheinlichkeiten schon mal entfernt.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Wobei vorest besser noch nichts an den Schrödinger- bzw. Dirac-Gleichungen zu ändern wäre, denn die liefern ja bekanntlich und aktuell nicht zu überbietende Ergebnisse zB bei der Vorhersage von Atomspektren.

Es bleibt damit erneut aber die Möglichkeit einer alternativen, bzw. präziseren Interpretation der Wellenfunktion(en).

So könnte man zB den Begriff "Aufenthaltswahrscheinlichkeit" wie zB bei der Wellenfunktion des Wasserstoffproblems in der Ortsraumdarstellung durch "Feldstärke" ersetzen und hätte damit eine weit verbreitete Form von Wahrscheinlichkeiten schon mal entfernt.
Ich sehe nicht, dass damit viel gewonnen wäre.


Zum einen liegt weiterhin ein zumindest subjektiver Zufall vor. Natürlich nicht in jedem System beziehungsweise nicht bei jeder Beobachtung, zum Beispiel nicht im Falle der Berechnung der Spektren. Aber eben in anderen Fällen, wie beispielsweise der teilchenartigen Lokalisierung auf dem Schirm hinter einem Doppelspalt. Und zum anderen ändert das Vermeiden des Wahrscheinlichkeitsbegriffs als rein semantischer Trick nichts an der Tatsache, dass der Übergang von der deterministischen Schrödingergleichung zu einer stochastischen Interpretation einen logischen Bruch beinhaltet.

Anders gesagt - und zurück zum Maudlin-Trilemma: welches Problem wird durch diese andere Begrifflichkeit denn gelöst?
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Ich sehe nicht, dass damit viel gewonnen wäre.
Es geht um die Frage, ob man die Wahrscheinlichkeiten komplett weg interpretieren kann, im Sinne einer eigenen Interpretation.

Superpositionen von Zuständen, wären dann immer ein Zeichen für ein unvollständiges Modell, bzw. eine unvollständige Beschreibung eines Messvorganges.

Aber eben in anderen Fällen, wie beispielsweise der teilchenartigen Lokalisierung auf dem Schirm hinter einem Doppelspalt.
Das hatten wir oben schon auf eindeutige Fälle reduziert. Mit Hilfe einer Oberflächenstruktur auf dem Schirm kann man die verbleibenden gleichwertigen Fälle weiter unterscheiden und damit verbleibende Wahrscheinlichkeiten entfernen.

Bei Stern-Gerlach könnte man versuchen mit thermischen Photonen zu argumentieren. usw.
 

TomS

Registriertes Mitglied
Das hatten wir oben schon auf eindeutige Fälle reduziert. Mit Hilfe einer Oberflächenstruktur auf dem Schirm kann man die verbleibenden gleichwertigen Fälle weiter unterscheiden und damit verbleibende Wahrscheinlichkeiten entfernen.
Kennst du dazu ein konkretes Modell? Andernfalls bleibt das doch Spekulation.
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Kennst du dazu ein konkretes Modell? Andernfalls bleibt das doch Spekulation.
Für ein Weltbild braucht man Annahmen.

Anfänglich ist das dann unter Umständen nur eine Spekulation. Bewährt sich die Annahme, wird daraus eventuell ein brauchbares Weltbild, um es mal allgemein zu formulieren.

EDIT: Ziel dieses Weltbildes ist es, mit Hilfe eines geeigneten mathematischen Formalismus die Vergangenheit des Mikro- und prinzipiell dann auch des Makrokosmos möglichst vollständig beschreiben zu können und mit einer gewissen Genauigkeit ausgehend von einem Ist-Zustand auch gewisse Vorhersagen über die zu erwartende Entwicklung des Ist-Zustandes zu formulieren.

Alleine das ist ja schon ein relativ hoch gestecktes, aber doch hoffentlich lohnendes Ziel?
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Für ein Weltbild braucht man Annahmen.

Anfänglich ist das dann unter Umständen nur eine Spekulation. Bewährt sich die Annahme, wird daraus eventuell ein brauchbares Weltbild, um es mal allgemein zu formulieren.
Ich seh‘s in Teilen etwas anders.

Zunächst mal benötigt man Fakten sowie mathematische Modelle, die diese Fakten „erklären“.

Das Weltbild - ich nenne es immer philosophische Grundhaltung - befasst sich mit dem Konvergieren der Modelle zu einer Theorie sowie dem Anspruch an die Theorie und deren Erklärungskraft. Viele Physiker verwenden exakt die selben Modelle, jedoch ist der eine mit deren Erklärungskraft - Produktion später experimentell bestätigter Aussagen - zufrieden, während andere dieselben Aussagen als unvollständig ablehnen.

Bohr et al. haben keine vollständige Theorie, da sie den Messprozesses explizit ausklammert. Und sie haben auch kein geschlossenes Weltbild, wie man den teils wolkigen, teils widersprüchlichen Aussagen entnehmen kann. Moderne Varianten von Kopenhagen sind da besser, jedoch immer noch nicht vollständig bzgl. Messprozess, Anwendung auf Einzelsysteme etc. Dass man sich damit zufrieden gibt, liegt nun eher im Weltbild begründet. Man sieht einfach keine Notwendigkeit, die Erklärungslücke ist sozusagen kein Stachel im Fleisch. Das trifft in der Praxis auf die meisten Physiker zu.

Falls wir uns nicht damit zufrieden geben - wie im vorliegenden Fall - können wir sowohl die Modelle bzw. die Theorie (teilweise) in Frage stellen, als auch das philosophische Weltbild.

Einige unterwerfen sich eher der Theorie und versuchen, ein konsistentes Weltbild zu entwickeln (u.a. Everett et al.), andere arbeiten an neuen Modellen (Penrose, GRW … - von einer geschlossenen Theorie kann man da nicht sprechen). Wieder andere glauben, dass evtl. sowohl ein realistisches Weltbild als auch die Theorie gerettet werden kann, weil letztere noch unverstandene Mechanismen bereithält, die die Erklärungslücke schließen. Und eine kleine Gruppe denkt, dass die Quantenmechanik nicht die fundamentale Theorie sein kann.

Kannst du dich da irgendwo einsortieren?
 
Oben