Die Thermal Interpretation der Quantenmechanik

TomS

Registriertes Mitglied
Im Folgenden möchte ich einige zentrale Aspekte der Thermal Interpretation der Quantenmechanik vorstellen. Die Texte wurden aus der folgenden Veröffentlichung entnommen, maschinell übersetzt und lediglich sprachlich korrigiert. Aufgrund der umfangreichen Darstellung ist es bei weitem nicht möglich, auf sämtliche Aspekte einzugehen; weitere Beiträge werden bei Bedarf folgen.

Der Autor verweist auf vielfältige Quellen, die seine Ansicht stützen, präsentiert hier jedoch kein eigenes Material. Die Darstellung erscheint zunächst unvollständig. Allerdings ist dies auch der Tatsache geschuldet, dass die hier vorliegende Interpretation eher ein Forschungsprogramm darstellt: nicht alle Behauptungen sind belegt, insbs. nicht für sämtliche denkbare Systeme, stattdessen sind sämtliche Behauptungen tatsächlich wissenschaftlicher Natur da prinzipiell durch mathematische Methoden präzisierbar und belegbar oder widerlegbar.



http://arxiv.org/abs/1902.10782v2
Foundations of quantum physics
III. Measurement
Arnold Neumaier, Fakultät für Mathematik, Universität Wien


Überblick

Die thermische Interpretation
  • entwirft ein vollständig deterministisches Bild der Quantenphysik, in dem Gott nicht würfelt.
  • beinhaltet keinen expliziten Kollaps – letzterer tritt näherungsweise in nicht-isolierten Teilsystemen auf.
  • erlaubt die Ableitung der Bornschen Regel für Streuung sowie im Grenzfall idealer Messungen.
  • behauptet, dass die nicht modellierte Umgebung die Ergebnisse so stark beeinflusst, dass sie sämtliche Zufälligkeiten Quantenphysik verursacht.
  • erklärt die Besonderheiten der Kopenhagener Interpretation (mangelnder Realismus zwischen den Messungen) und der minimalstatistischen Interpretation (mangelnder Realismus für den Einzelfall) im mikroskopischen Bereich, in dem diese Interpretationen gelten.
Zentrale Behauptungen

Die thermische Interpretation zeichnet ein deterministisches Bild der Quantenphysik, in dem Gott nicht würfelt. Für uns Sterbliche erscheint hat dies lediglich den Anschein, da unser Auflösungsvermögen begrenzt ist und wir nur Zugang zu einem begrenzten Teil des Universums haben.

Die thermische Interpretation behauptet, dass ohne irgendeine Änderung im formalen Apparat der Quantenphysik – d.h. ohne die Eigenwert-Messwert-Verknüpfung, ohne Bornschen Regel und ohne von-Neumannsches Projektionspostulat – die deterministische Dynamik aller aus Quantenfeldern konstruierbaren und makroskopisch relevanten q-Erwartungswerte bereits sämtliche in der Praxis beobachteten stochastischen Eigenschaften hervorbringt.

Im Sinne der thermischen Interpretation verwandelt sich das Messproblem von einem philosophischen Rätsel in ein wissenschaftliches Problem im Bereich der statistischen Quantenmechanik, nämlich wie die Quantendynamik die Messwerte eines makroskopischen Systems (Instrument, Detektor) mit den Eigenschaften des Zustands eines gemessenen mikroskopischen Systems konsistent korreliert. Im Sinne der thermischen Interpretation wird das Messproblem zu einem präzisen Problem der statistischen Quantenmechanik.

Kopenhagener vs. Thermische Interpretation

Ein wesentliches Merkmal der Kopenhagener Deutung ist der so genannte Kollaps der Wellenfunktion im Zuge der Messung. Die Forderung nach dem Kollaps widerspricht der unitären, linearen und deterministischen Entwicklung reiner Zustände durch die Schrödinger-Gleichung und hängt von einem nicht weiter ausgeführten Begriff der Messung ab, der auf der klassischen Seite des Heisenberg-Schnitts liegt. Was mit dem Zustand geschieht, während das Experiment läuft jedoch noch nicht abgeschlossen ist, wird nicht spezifiziert. Dadurch wird macht die Kopenhagener Interpretation zu einer unvollständigen Beschreibung des zeitlichen Verhaltens des Zustands. Diese Unvollständigkeit ist ein Zeichen dafür, dass wir es tatsächlich mit einer coarse-grained, d.h. reduzierten Beschreibung zu tun haben. Gemäß der thermischen Interpretation resultiert der Kollaps aus dies Coarse-Graining, da dieses eine reduzierte Beschreibung in Form eines stückweise deterministischen stochastischen Prozesses (PDP) liefert. Die Ableitung eines PDP legt nahe, dass der Kollaps in einem einzelnen beobachteten System – in der modernen POVM-Version des entsprechenden von-Neumann-Postulats für die Quantendynamik – im Allgemeinen aus der unitären Dynamik eines größeren Systems ableitbar ist. In der thermischen Interpretation gibt es daher keinen expliziten Kollaps – letzterer tritt in nicht-isolierten Teilsystemen näherungsweise auf.

Darüber hinaus erlaubt die thermische Interpretation die Ableitung der Bornschen Regel für Streuung sowie im Grenzfall idealer Messungen. Ein Aspekt der Bornschen Regel gilt also: Wann immer eine Größe A exakt d.h. scharf gemessen wird, ist ihr Messwert ein Eigenwert von A. Aber für unscharfe – d.h. fast alle – Messungen lehnt die thermische Interpretation die Bornsche Regel als Axiom ab.

Messung

Nach der thermischen Interpretation sind die Eigenschaften des zu messenden Subsystems im Zustand des Subsystems (dem Dichteoperator) und seiner Dynamik (entsprechend der unitäre Zeitentwicklung des geschlossenen Gesamtsystems) kodiert. Der Zustand sowie das, was sich daraus ableiten lässt, sind die einzigen objektiven Eigenschaften des Systems. Im Gegensatz dazu misst ein Messgerät Eigenschaften eines anderen Subsystems. Der gemessene Wert – ein Zeigerstand, ein Signal, ein Zählerstand usw. – wird am Messgerät abgelesen und ist daher in erster Linie eine Eigenschaft des Messgeräts und nicht des gemessenen Subsystems. Aus den Eigenschaften des Messgeräts (dem Gerätezustand) kann man die Messergebnisse ermitteln. Messungen sind nur möglich, wenn die mikroskopischen Gesetze quantitative Beziehungen zwischen den Eigenschaften des gemessenen Subsystems (d. h. dem Zustand) und den vom Messgerät abgelesenen Werten (Eigenschaften des Detektorzustands) implizieren.

In der thermischen Interpretation wird ein einzelnes Detektorereignis (wie das Auftreten von Klicks, Blitzen oder Teilchenspuren) nicht als Messung einer Eigenschaft eines gemessenen mikroskopischen Subsystems betrachtet, sondern nur als eine Eigenschaft des makroskopischen Detektors, die mit der Art der einfallenden Felder korreliert. Dies ist ein wesentlicher Punkt, in dem sich die thermische Interpretation von der Tradition unterscheidet. In der Tat kann man aus einem einzigen Detektionsereignis nur sehr wenige Informationen über den Zustand eines mikroskopischen Systems ableiten. Umgekehrt kann man aus dem Zustand eines mikroskopischen Systems in der Regel nur Wahrscheinlichkeiten für einzelne Messwerte bzw. Detektorereignisse vorhersagen. Die historisch nicht hinterfragte Interpretation solcher Detektorereignisse als Messung einer Teilchenposition ist einer der Gründe dafür, dass die traditionellen Interpretationen keine befriedigende Lösung des Messproblems liefern. Die thermische Interpretation ist hier vorsichtiger und behandelt Detektorereignisse stattdessen als eine statistische Messung der Teilchenstrahlintensität.

Mikroskopischen Dynamik und Coarse-Graining

Die gesamte statistische Mechanik basiert auf dem Konzept des Coarse-Graining. Aufgrund der Vernachlässigung hochfrequenter Details führt das Coarse-Graining zu stochastischen Merkmalen, entweder in den Modellen selbst oder in der Beziehung zwischen Modellen und Realität. Deterministische coarse-grained Modelle sind in der Regel chaotisch, was eine weitere Quelle der Zufälligkeit darstellt. Ein coarse-grained Modell wird im Allgemeinen dadurch bestimmt, dass man einen Vektorraum R relevanter Größen auswählt, deren q-Erwartungswerte die Variablen des coarse-grained Modells sind. Wenn das coarse-grained Modell sinnvoll ist, kann man eine deterministische oder stochastische reduzierte Dynamik dieser Variablen allein beschreiben und alle anderen q- Erwartungswerte ignorieren, die in die deterministische Ehrenfest-Dynamik der detaillierten Beschreibung des Systems eingehen. Diese anderen Variablen werden somit zu verborgenen Variablen, die die stochastischen Elemente in der reduzierten stochastischen Beschreibung oder die Vorhersagefehler in der reduzierten deterministischen Beschreibung bestimmen würden. Die verborgenen Variablen beschreiben die nicht modellierte Umgebung, die mit der reduzierten Beschreibung verbunden ist.

Die thermische Interpretation behauptet, dass dies die Ergebnisse ausreichend beeinflusst, um alle Zufälligkeiten in der Quantenphysik zu verursachen, so dass es keine Notwendigkeit für eine intrinsische Wahrscheinlichkeit wie in traditionellen Interpretationen der Quantenmechanik gibt.

Bei der Photodetektion nimmt die Tradition die einzelnen Detektionsergebnisse zu ernst und interpretiert die zufälligen Zählereignisse dogmatisch als Signale einzelner ankommender Photonen, mit all den spukhaften Problemen, die mit dieser Auffassung verbunden sind. Bei der thermischen Interpretation hingegen handelt es sich um eine sehr unsichere Messung der Energiedichte.

Nun resultiert jedoch eine neue Problematik, die in den traditionellen Interpretationen fehlt: Es muss erklärt werden, warum bestimmte Detektoren, obwohl sie mit einer stationären Wechselwirkung gespeist werden, zufällige Einzelereignisse aufzeichnen! Warum erzeugt zum Beispiel ein Lichtstrahl geringer Intensität in einem Photodetektor ein diskretes Signal? Bei der thermischen Interpretation betrachten wir das einzelne Detektorereignis nicht als eine Eigenschaft des beobachteten Strahls, da nur die Statistik eines Ensembles von Detektorereignissen reproduzierbar ist und somit eine objektive Eigenschaft des Strahls darstellt. Aber warum diese diskreten Ereignisse überhaupt klar unterschieden werden können, bedarf einer Erklärung.
 

Bernhard

Registriertes Mitglied

Bernhard

Registriertes Mitglied
Mich interessiert jetzt natürlich stark, welche Details nun im Rahmen dieser Interpretation den Startpunkt einer Nebelspur in einer Nebelkammer festlegen.
 

TomS

Registriertes Mitglied
Mich interessiert jetzt natürlich stark, welche Details nun im Rahmen dieser Interpretation den Startpunkt einer Nebelspur in einer Nebelkammer festlegen.
Bingo!

Genau das ist ja der Punkt.

Nach Mott wissen wir, dass wir - ausgehend von einem Startpunkt - berechnen können, dass in der Konsequenz eine radiale Spur folgt. Wir wissen jedoch nicht, wo dieser Startpunkt liegt und wie er festgelegt wird - nach Bohr et al. ist das objektiv zufällig.

Neumaier nennt ja nun einige potentielle Mechanismen, wie - ausgehend von einer linearen und objektiv deterministischen Dynamik - eine nicht-lineare chaotische und daher stochastisch erscheinende Dynamik von Subsystemen entstehen könnte.

Das wäre eigentlich zu schön, um wahr zu sein.

Ich sehe zwei wesentliche Herausforderungen:
  1. der Vorteil, dass dies letztlich ein mathematisches Forschungsprojekt darstellt, bedeutet gleichzeitig, dass das Problem des Entstehens lokalisierter “teilchenartiger” Detektorereignisse für praktische alle Systeme gezeigt werden muss; dazu benötigt man letztlich einen generischen Ansatz; dieser hat Ähnlichkeiten mit der Dekohärenz, wobei diese insofern unzutreffend wäre, als schlussendlich immer nur genau einer der Zweige realisiert wird
  2. die Lokalisierung aufgrund des Coarse-Grainings muss gleichzeitig sicherstellt, dass keine Artefakte resultieren, die zu einer lokal-realistischen Dynamik führen und damit diversen Erkenntnissen zu Bell-artigen Experimenten widersprechen
Zum letzten Punkt: Man betrachtet ein Bell-artiges Experiment, zum Beispiel die Kombination von vier räumlich weit voneinander entfernten Detektoren D1 … D4, die an einem verschränkten Photonenpaar entsprechend der Polarisationen der Partner auf zwei mögliche, sich gegenseitig ausschließende Paare von Detektorereignissen (E1,E3) und (E2,E4) führen. Nun muss folgendes gelten:
  • sämtliche Effekte der Lokalisierung müssen die Kausalität respektieren, d.h. Propagation < Lichtgeschwindigkeit; das folgt aus der unitären Dynamik der Quantenelektrodynamik (und der Forderung, dass keine weiteren Elemente der Dynamik existieren)
  • der „Keim“ einer Lokalisierung kann nach Neumaier nur „an den Detektoren“ selbst sitzen, da wir anhand anderer Experimente zeigen können, dass „unterwegs“ weiterhin nicht lokalisierte interferenzfähige Zustände vorliegen; d.h. dass tatsächlich erst zwei der vier Detektoren die jeweiligen „Photonen lokalisieren“
  • ausgehend von einem derartigen „Keim“ zum Beispiel an D1 für E1 müsste das nicht-Auftreten von E2 bei D2 erklärt werden können; aber weder liegt dieses nicht-Auftreten von E2 innerhalb des Vorwärts-Lichtkegels von E1 (geeignete Geometrie vorausgesetzt) noch kann der Effekt des nicht-Auftretens von E2 unabhängig von E1 rein lokal bei D2 vorliegen
  • folgert man nun aus dem letzten Punkt, dass ein ähnlicher Mechanismus wie im Mott-Problem der Nebelkammer vorliegt, so gelangt man zu einem gemeinsamen Keim von E1 und nicht-E2, der beides in seinem Vorwärts-Lichtkegel enthält; damit folgt in der Konsequenz eine lokal-realistische Theorie, die anderen Erkenntnissen zu Bell-artigen Experimenten widerspricht
  • wie auch immer das Problem gelöst werden soll, es muss sichergestellt sein, dass ein coarse-grained Modell zur Lokalisierung keine Artefakte erzeugt, die im Widerspruch zu Bell stehen
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Um beim Thema zu bleiben, müsste man mal klären, was die TI konkret an neuen/speziellen Vorschlägen zum Messproblem bringt. Es gibt da diese q-Expectation (?) und ein Beispiel ohne konkrete Rechnung, dem Photoeffekt.

Ich habe heute einen Tag Urlaub :)
 

TomS

Registriertes Mitglied
Ich habe keine expliziten Modelle gesehen, die Neumaier durchgerechnet hätte. Er verweist dazu jedoch auf umfangreiche Literatur.
 

Bernhard

Registriertes Mitglied
Habe bei den Referenzen auch schon den "Niwenheuzen" gefunden. Das ist doch ein String-Guru?
 

TomS

Registriertes Mitglied
Habe bei den Referenzen auch schon den "Niwenheuzen" gefunden. Das ist doch ein String-Guru?
Der mit den Strings ist Peter van Nieuwenhuizen, der mit den Messungen ein Theo M. Nieuwenhuizen.

Nach kurzer Suche bin ich auf ein kurzes Paper gestoßen, von dem aus man sich rückwärts durch die Literatur wühlen müsste. Sehr interesant deswegenen, weil Neumaier im oben diskutierten Paper Nieuwenhuizen [1] zitiert im Sinne einer Stützung seiner (Neumaiers) Thesen, andererseits jedoch Nieuwenhuizen hier eine Position vertritt, die bzgl. des von mir genannten Problems (2) kritisch ist.

Ich habe heute einen Tag Urlaub :)
Also dann, nutze die Zeit 🙃
 

Bernhard

Registriertes Mitglied
Interessanter Satz, Seite 7 unten:
Thus part of Born’s rule holds: Whenever a quantity A is measured exactly, its value is an eigenvalue of A. But for inexact (i.e, almost all) measurements, the
thermal interpretation rejects Born’s rule as an axiom defining what counts as a measurement result.
Genau so kommt man zu Messergebnissen ohne Wahrscheinlichkeiten.
 

TomS

Registriertes Mitglied
Interessanter Satz, Seite 7 unten:

Genau so kommt man zu Messergebnissen ohne Wahrscheinlichkeiten.
Na ja, nur etwas abzulehnen, was praktisch seit einem Jahrhundert praktisch funktioniert, weil man es aus theoretischen Überlegungen nicht mag, löst ja noch kein Problem :sneaky:

Das ist doch der Punkt der TI: sie muss liefern.
 

Bernhard

Registriertes Mitglied
Na ja, nur etwas abzulehnen, was praktisch seit einem Jahrhundert praktisch funktioniert, weil man es aus theoretischen Überlegungen nicht mag, löst ja noch kein Problem :sneaky:
Ich habe so die Vermutung, dass AN die Sache pragmatisch angeht. Man hat einen Formalismus der für verschiedenen Fragen gute Antworten liefert (QM für Atomspektren usw.) aber in Teilen unverstanden ist (Messproblem). Man behält das was funktioniert und versucht das soweit zu verstehen und anzuwenden, bis der unverstandene Teil auch geklärt ist.

Das ist doch der Punkt der TI: sie muss liefern.
Muss man sehen, was da hoffentlich noch zu holen ist, ja.
 

TomS

Registriertes Mitglied
Ich habe so die Vermutung, dass AN die Sache pragmatisch angeht. Man hat einen Formalismus der für verschiedenen Fragen gute Antworten liefert (QM für Atomspektren usw.) aber in Teilen unverstanden ist (Messproblem). Man behält das was funktioniert und versucht das soweit zu verstehen und anzuwenden, bis der unverstandene Teil auch geklärt ist.
Ja, so ähnlich sehe ich das auch. Und das ist der wesentliche Punkt, warum ich den Ansatz für so interessant halte.

Leider hat es in der Quantenmechanik Tradition, Probleme wegzuschweigen oder wegzuinterpretieren. Da ist jeder Ansatz willkommen, der einfach mal versucht, an der Sache zu arbeiten.

Muss man sehen, was da hoffentlich noch zu holen ist, ja.
Wenn ich mir ansehe, wie lange es dauert, derartige Themen wirklich als Forschungsgebiet - ich rede noch nicht von einer Lösung - zu etablieren, und welchen geringen Stellenwert derartige Themen haben, dann ist das keine kurzfristige Angelegenheit.
 

Bernhard

Registriertes Mitglied
Ja, so ähnlich sehe ich das auch. Und das ist der wesentliche Punkt, warum ich den Ansatz für so interessant halte.
Geht mir genaus so.
Leider hat es in der Quantenmechanik Tradition, Probleme wegzuschweigen oder wegzuinterpretieren. Da ist jeder Ansatz willkommen, der einfach mal versucht, an der Sache zu arbeiten.
Aber zurück zur Nebelkammer: Interessanterweise würde ein Temperaturfeld die Frage nach dem Startpunkt der Spur wohl beantworten. Das ist zumindest ein Ansatz für die Suche nach einer Lösung. Mal sehen, ob die TI da liefern kann ....
Wenn ich mir ansehe, wie lange es dauert, derartige Themen wirklich als Forschungsgebiet - ich rede noch nicht von einer Lösung - zu etablieren, und welchen geringen Stellenwert derartige Themen haben, dann ist das keine kurzfristige Angelegenheit.
Der Forschungslandschaft hier in D geht es wie schon vor 20-30 Jahren insgesamt nicht übermäßig gut. Im Allgemeinen mieser Verdienst und relativ miese Arbeitsbedingungen. Man muss froh, sein, dass man neben der Arbeit privat nachdenken darf.
 

TomS

Registriertes Mitglied
Geht mir genaus so.

Aber zurück zur Nebelkammer: Interessanterweise würde ein Temperaturfeld die Frage nach dem Startpunkt der Spur wohl beantworten. Das ist zumindest ein Ansatz für die Suche nach einer Lösung. Mal sehen, ob die TI da liefern kann ....
Das müsstest du genauer erklären.

Der Forschungslandschaft hier in D geht es wie schon vor 20-30 Jahren insgesamt nicht übermäßig gut. Im Allgemeinen mieser Verdienst und relativ miese Arbeitsbedingungen. Man muss froh, sein, dass man neben der Arbeit privat nachdenken darf.
Das ist richtig, aber das meinte ich nicht.

Lies mal dieses Buch: https://www.amazon.com/What-Real-Unfinished-Meaning-Quantum/dp/0465096050
Recht ausgewogenes Review: https://www.amazon.com/gp/customer-...iewpnt?ie=UTF8&ASIN=0465096050#R3ER5MD13JH5FN
 

Bernhard

Registriertes Mitglied
Das müsstest du genauer erklären.
Ich gehe davon aus, dass das erste Nebeltröpfchen dort entsteht, wo man die größte Abkühlung aufgrund der Streuung des einfallenden Teilchens hat. Den Wirkungsquerschnitt für eine lokalisierte Wechselwirkung (Potential ist näherungsweise eine Delta-Funktion) kann man mit den Mitteln der QM ausrechnen, ähnlich wie WP: Rutherford-Streuung

Man müsste dann noch aus den physikalischen Werten (Impulse mit Betrag und Richtung) des quantenmechanischen Wellenfeldes der Nebelkammer (hatte ich im Nachbarthema kurz skizziert, symmetrisierete Wellenfunktion identischer Teilchen ohne Spin) eventuell zusammen mit dem Streuquerschnitt eine lokale Abkühlung berechnen. Wie das im Detail geht, müsste ich mir auch erst noch überlegen. Das ist keine triviale Aufgabe.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ich gehe davon aus, dass das erste Nebeltröpfchen dort entsteht, wo man die größte Abkühlung aufgrund der Streuung des einfallenden Teilchens hat.
Das wäre zu einfach gedacht.
  • Entweder führst du die einfallenden Teilchen durch eine Vakuumröhre in die Kammer, d.h. es gelangen nur die Kollisionsprodukte oder was auch immer in die Kammer. Dann greift dein Argument nicht.
  • Oder du betrachtest eine Reaktion außerhalb der Kammer und gehst bereits von einem lokalisierten Teilchen aus, das in die Kammer gelangt (so war der historische Aufbau). Dann hast du aber das Problem nicht gelöst sondern nur verschoben, denn du müsstest erklären, wie das Teilchen außerhalb der Kammer lokalisiert wird.
Den Wirkungsquerschnitt für eine lokalisierte Wechselwirkung (Potential ist näherungsweise eine Delta-Funktion) kann man mit den Mitteln der QM ausrechnen, ähnlich wie WP: Rutherford-Streuung
In modernen Detektoren kannst du dir eine ähnliche Frage stellen: der Detektor sei kugelförmig, die einzige Vorzugsrichtung ist die Strahlachse. Der Streuquerschnitt bei einer Elektron-Positron-Streuung ist abhängig vom Polarwinkel ϑ [0, 180°] bezogen auf die Strahlrichtung jedoch unabhängig vom Azimutwinkel φ [0, 360°] um die Strahlrichtung. Trotzdem beobachtest - egal welche Teilchenkollisionen - immer lokalisierte Photonen, die diese Symmetrie bzgl. φ brechen.

Wo findet die Symmetriebrechung und Lokalisierung statt?
  1. bereits (nahe) bei der Kollision durch Restgas und thermische Photonen?
  2. oder erst im Detektor selbst?
Wenn (2), z.B. für Photon 1 bei (ϑ1, φ1), warum dann für das Photon 2 bei (ϑ2, φ2) gegenüber der Position von Teilchen 1?

Wenn im Sinne von (2) diese Symmetriebrechung und Lokalisierung erst durch das Detektormaterial ausgelöst wird und der "Zustand" bis dahin "symmetrisch propagiert", dann kann die Symmetriebrechung nicht zwischen den beiden Detektorereignissen propagiert werden, da diese jeweils nicht im Vorwärtslichtkegel des anderen Detektorereignisses liegen.

Also muss zumindest die Symmetriebrechung bereits im Keim der Kollision angelegt sein, also (1). Eine Lokalisierung kann dort jedoch nicht stattfinden, da wir ja den Detektor durch ein anderes Gerät ersetzen können, z.B. eines für Röntgenbeugung. Dann können wir nachweisen, das keine vollständige Lokalisierung stattgefunden hat und die auslaufenden Photonen weiterhin interferenzfähig sind.

Wir müssen also ziemlich subtil zwischen dem Keim der Lokalisierung und der Lokalisierung selbst unterscheiden; der Keim der Lokalisierung darf die Interferenzfähigkeit nicht zerstören.

Wenn wir die Idee der Lokalisierung übertreiben, gelangen wir zu einem Bild, das Neumaier teilweise suggeriert, nämlich das der chaotischen Hydrodynamik. Aber klassische chaotische Hydrodynamik wird sicher die Bellschen Kriterien verletzen, d.h. sie ist lokal-realistisch, was wir durch andere Experimente ausschließen können. Wir dürfen also gerade nicht zu diesem an sich wünschenswerten Bild gelangen, da es zwar irgendwie eine Lösung des Lokalisierungsproblem suggeriert, jedoch andererseits lokal-realistische Artefakte einführt.

Wie gesagt, ich halte genau das für das zentrale Problem der thermal Interpretation - wie sie das eine tut, ohne das andere zu lassen.
 

Bernhard

Registriertes Mitglied
Das wäre zu einfach gedacht.
  • Entweder führst du die einfallenden Teilchen durch eine Vakuumröhre in die Kammer, d.h. es gelangen nur die Kollisionsprodukte oder was auch immer in die Kammer. Dann greift dein Argument nicht.
  • Oder du betrachtest eine Reaktion außerhalb der Kammer und gehst bereits von einem lokalisierten Teilchen aus, das in die Kammer gelangt (so war der historische Aufbau). Dann hast du aber das Problem nicht gelöst sondern nur verschoben, denn du müsstest erklären, wie das Teilchen außerhalb der Kammer lokalisiert wird.
Ich würde für den Anfang davon ausgehen, dass eine makroskopisch ausgedehnte, ebene Welle auf die makroskopische Kammer trifft. Wenn die Elektronen o.ä genug Energie haben, müssten die locker durch ein dünnes aber ausgedehntes Sichtfenster durchkommen, wie im Museum zu Schauzwecken.
 

Bernhard

Registriertes Mitglied
Wenn ich mir ansehe, wie lange es dauert, derartige Themen wirklich als Forschungsgebiet - ich rede noch nicht von einer Lösung - zu etablieren, und welchen geringen Stellenwert derartige Themen haben, dann ist das keine kurzfristige Angelegenheit.
Off topic: Motivation erwünscht ?:
Siehe zB: What does it take to solve the measurement problem? (J. Hance, S. Hossenfelder, arxiv.org)
2016 Patrusky Lecture: Steven Weinberg on What's the matter with quantum mechanics? (YouTube)
S. Weinberg erwähnt ab ca. 44:00 diese Gleichung: https://de.wikipedia.org/wiki/Lindblad-Gleichung
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Wie gesagt, ich halte genau das für das zentrale Problem der thermal Interpretation - wie sie das eine tut, ohne das andere zu lassen.
Abschnitt 2.5 des Links in #1 deute ich als Berücksichtigung eines naturgegebenen Zufalls, womit man dann automatisch eine Wahrscheinlichkeitsrechnung benötigt. Das wäre dann in etwa das Argument von S. Weinberg im im Clip von Beitrag #19 bei 44:00.

Als Alternative dazu sehe ich nur noch die Verwendung von zusätzlichen Variablen, wie von S. Hossenfelder dargestellt.

Die Analyse der Vorgänge in einer Nebelkammer lassen mich auch vermuten, dass man hier mit dem Formalismus der Quantenmechanik alleine nicht mehr weiter kommt.

Es ergibt sich damit tatsächlich das ernüchternde Fazit, dass wir aktuell nur eine notdürftige und ansatzweise Vorstellung davon haben, was auf atomarer Ebene in physikalischer Hinsicht wirklich passiert.
 
Oben