Grundlagenprobleme der Quantenmechanik

TomS

Registriertes Mitglied
Nach einer Diskussion mit Bernhard möchte ich hier einige offene Punkte zur Quantenmechanik ansprechen.


1. Notwendigkeit eines Kollapses (im weitesten Sinn)

Gemessen werde ein Quantensystem mit Eigenzuständen |a> an einem Makrosystem d.h. einem Messgerät. Letzteres sei so konstruiert, dass zu jedem möglichen Eigenwert bzw. Eigenzustand ein entsprechender Zeigerzustand existiere. Im Zuge einer Messung an einem Eigenzustand – wobei die Messung mittels der unitären und linearen Zeitentwicklung beschrieben werde – gehe das gekoppelte System aus Quantensystem plus Messgerät in einen Gesamtzustand

$$ |a\rangle \otimes |M_a\rangle $$

über. Aufgrund der linearen Zeitentwicklung gemäß der Schrödingergleichung folgt dann für die Messung an dem in einem Superpositionszustand präparierten Quantensystems ein entsprechender Superpositionszustand

$$ \sum_a \psi_a \, |a\rangle \otimes |M_a\rangle $$

für das gekoppelte System.

Dies entspricht offensichtlich nicht der Beobachtung, d.h. die Quantenmechanik erscheint in dieser Form zunächst schlicht falsch zu sein.

Von Neumann postuliert daher zusätzlich den statistischen Kollaps entsprechend der Bornschen Regel auf genau einen der makroskopischen Zeigerzustand. Dieser Kollaps ist offensichtlich nicht-unitär und nicht-linear, d.h. explizit unverträglich mit der linearen, unitären und deterministischen Schrödingergleichung.


2. Problematik der makroskopischen Zeigerzustände

Die Zeigerzustände werden dabei lediglich postuliert, es ist zunächst nicht klar, in wie weit sie überhaupt mit der Quantenmechanik verträglich sind. Darüberhinaus bleibt unklar, warum bestimmte Zeigerzustände realisiert sind, andere nicht. Betrachten wir das selbe Mikrosystem in einer anderen Basis

$$ |b\rangle = U_{ab} \, |a\rangle $$

so ist kein Mechanismus erkennbar, der aus den unendlich vielen möglichen Basen genau eine auszeichnet, in der die Messergebnisse in den Zeigerzuständen tatsächlich diagonal sind. Von Neumann muss also nicht nur die Existenz der Zeigerzustände postulieren, sondern auch eine ausgezeichnete Basis.

Diese letztgenannten Probleme werden mittels der sogenannten Dekohärenz gelöst, die durch Verschränkung mit den Umgebungsfreiheitsgraden (Gasmoleküle, Photonen …) zu einer Struktur

$$ \sum_a \psi_a \, |a\rangle \otimes |M_a\rangle \otimes |E_a\rangle $$

führt, wobei die resultierenden „Zweige“ bis auf notwendige Näherungen eindeutig und stabil sind. D.h. zum einen folgt für ein Messgerät eine eindeutige Basis, in der die zu messende Observable diagonal ist, zum anderen sind diese “Zweige” untereinander nicht mehr interferenzfähig und makroskopisch stabil. Die von von Neumann postulierte Struktur kann also auf Basis mikroskopischer Prozesse verstanden werden.

Die Dekohärenz führt jedoch wiederum nicht auf ein eindeutiges Messergebnis, sondern beinhaltet weiterhin Superpositionen. Sie bedarf daher nach wie vor einer entsprechenden Interpretation bzw. eines Kollapses (im weitesten Sinne).


3. Ein mikroskopisches Modell

Betrachten wir zuletzt die Registrierung eines einzelnen Photons nach einem Interferenzexperiment, z.B. einem Doppelspalt. Diese Registrierung erfolgt immer lokal, d.h. ausgehend von einer delokalisierten Welle findet eine Lokalisierung und Anregung genau eines Atoms statt. Diese Anregung können wir als Messung betrachten.

Der Hamiltonoperator für ein Photon und N Detektor-Atome laute (in einem stark vereinfachten Modell)

$$ H = \left( a^\dagger a + \sum_{k=1}^N d_k^\dagger d_k \right) + \sum_{k=1}^N \left(g_k \, d_k^\dagger a + \text{h.c.} \right) $$

Im Eingangszustand haben wir genau ein Photon und keine Anregung im Detektor:

$$ |\text{in}\rangle = |1; 0 \ldots\rangle $$

Nach Registrierung erhalten wir für den Detektorzustand in erster Ordnung

$$ |\text{detect}\rangle = H \, |\text{in}\rangle = \sum_{k=1}^N \left(g_k \, d_k^\dagger a + \text{h.c.} \right) \, |1; 0 \ldots\rangle = \sum_{k=1}^N g_k \, |0; 1_k \rangle $$

$$ |0; 1_k \rangle = |0; n_{i = k} = 1 \wedge n_{i \neq k} = 0 \rangle $$

d.h. dieser enthält kein Photon, dafür jedoch eine Superposition der angeregten Zustände je einzelnem Detektor-Atom. Die Kopplungskonstanten führen auf die Übergangswahrscheinlichkeiten in den entsprechenden Matrixelementen

$$ \langle 1_k |H|\text{in} \rangle = g_k $$

Wobei wir in der Realität jedoch exakt eine lokalisierte Anregung exakt eines Atoms beobachten, d.h.

$$ \langle 1_{k_0} |H|\text{in} \rangle = 1 \;\wedge\; \langle 1_{k \neq k_0} |H|\text{in} \rangle = 0 $$

D.h. auch dieses mikroskopische Modell bleibt bzgl. der Beobachtung unvollständig.


Anstatt nun weiterhin den überfrachteten Begriff „Kollaps“ zu verwenden, lässt sich das wesentliche offene Problem wie folgt beschreiben: Ausgehend von der Annahme, dass eine Messung quantenmechanisch modelliert werden kann, liefert der Formalismus eine Superposition von Messergebnissen, im Widerspruch zu unserer Beobachtung eindeutiger Messergebnisse; letztere werden häufig durch Detektorereignisse o.ä. angezeigt, wobei der Formalismus im Widerspruch zu unserer Beobachtung keine Lokalisierung von Einzelereignissen liefert.

Der quantenmechanische Formalismus basierend auf der Dynamik gemäß der Schrödingergleichung ist demnach unvollständig und bedarf einer Interpretation oder Ergänzung.


4. Ausblick auf mögliche Auswege und deren Bewertung:

1. der Kollaps bzw. das von Neumannsche Projektionspostulat
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung
3. die Anerkennung der Realität der Superpositionen, d.h. die Viele-Welten-Interpretation
4. die bisher übersehene Option, dass es sich bei den o.g. Superpositionen lediglich um Artefakte unzureichender Näherungen handelt, und dass verbesserte mathematische Methoden tatsächlich die Existenz eines mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung aufzeigen


 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
BTW: Am Wochenende musste ein Admin auf der WP einschreiten, weil ich die Legende dieses Bildes https://de.wikipedia.org/wiki/Quantenmechanik#/media/Datei:Tonomura_e.jpg editiert hatte. Der Edit war tatsächlich nicht besonders geglückt, aber deshalb gleich ausfallend zu werden (Benutzer Bleckneuhaus), finde ich bemerkenswert. Aber egal. Der Konflikt wurde gelöscht und damit geklärt.

Das Bild taugt auch für eine weitere Diskussion. Die Wellenfunktion eines einzelnen Elektrons wechselwirkt lokal mit dem Bildschirm. Daraufhin wird an einer lokalisierten Stelle eine gewisse Reaktion ausgelöst und ein "Punkt" im Bild erzeugt. Dieser Vorgang sollte ebenfalls mit den "unitären Mitteln" der QM diskutiert werden können. Der Kollaps der Wellenfunktion kürzt eine mögliche ausführliche Rechnung mit unitärem Hamitonoperator natürlich massiv ab.

Man benötigt in diesem Fall dann nicht zwingend Erzeugungs- und/oder Vernichtungsoperatoren, muss aber ebenfalls eine Lokalisierung der Wellenfunktion beschreiben.
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung
Muss man sich in diesem Fall nicht voher entscheiden, ob man prinzipiell Wahrscheinlichkeiten (auf mikroskopischer Ebene) zulassen will?

Falls ja, landet man doch AFAIK gleich wieder bei der bekannten QM?
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Das Bild taugt auch für eine weitere Diskussion.
Ja, danke.

Die Wellenfunktion eines einzelnen Elektrons wechselwirkt lokal mit dem Bildschirm.
Jein.

Der mathematische Formalismus enthält (in meinem Beispiel) N gleichberechtigte, jeweils lokale Wechselwirkungsterme.

Daraufhin wird an einer lokalisierten Stelle eine gewisse Reaktion ausgelöst und ein "Punkt" im Bild erzeugt.
Ja, wir beobachten ein lokales Detektor-Ereignis

Dieser Vorgang sollte ebenfalls mit den "unitären Mitteln" der QM diskutiert werden können.
Ja, sollte.

Es ist jedoch kein Mechanismus bekannt, der dies leistet. Meine Beispiele sind natürlich kein hieb- und stichfestes no-go-theorem, aber sie zeigen exemplarisch, dass der unitäre Formalismus der Quantenmechanik eben gerade nicht dazu in der Lage ist, zu zeigen, dass und warum ...
... an einer lokalisierten Stelle eine gewisse Reaktion ausgelöst und ein "Punkt" im Bild erzeugt [wird].

Der Kollaps der Wellenfunktion kürzt eine mögliche ausführliche Rechnung mit unitärem Hamitonoperator natürlich massiv ab.
Ich würde es etwas anders formulieren: der Kollaps postuliert schlicht das, was wir beobachten, und er ersetzt eine Lücke im Formalismus, denn wir können diese Beobachtung heute auf keine Weise berechnen.

Man benötigt in diesem Fall dann nicht zwingend Erzeugungs- und/oder Vernichtungsoperatoren ...
Die benötigt man tatsächlich nicht, sie sind lediglich extrem praktisch.
 

TomS

Registriertes Mitglied
Muss man sich in diesem Fall nicht voher entscheiden, ob man prinzipiell Wahrscheinlichkeiten (auf mikroskopischer Ebene) zulassen will?

Falls ja, landet man doch AFAIK gleich wieder bei der bekannten QM?
Ich bin da kein Experte.

Die Modifikationen sind jedenfalls erheblich und größtenteils ad hoc; kaum jemand glaubt, dass dabei was Sinnvolles rauskommt:

Objective-collapse theory - Wikipedia
Ghirardi–Rimini–Weber theory - Wikipedia
Continuous spontaneous localization model - Wikipedia
Penrose interpretation - Wikipedia
 

TomS

Registriertes Mitglied
1. der Kollaps bzw. das von Neumannsche Projektionspostulat
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung
3. die Anerkennung der Realität der Superpositionen, d.h. die Viele-Welten-Interpretation
4. die bisher übersehene Option, dass es sich bei den o.g. Superpositionen lediglich um Artefakte unzureichender Näherungen handelt, und dass verbesserte mathematische Methoden tatsächlich die Existenz eines mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung aufzeigen
1. ist natürlich aus vielerlei Gründen unbefriedigend
2. erscheint vielen hoffnungslos; evtl. existiert jedoch eine unterlagerte deterministische Theorie, aus der die QM als stochastische Näherung folgt
3. ist (auch angesichts der lückenhaften Alternativen) zumindest am weitesten entwickelt und scheint konsistent zu sein - obwohl die Konsequenzen eine Zumutung zu sein scheinen ...
4. wäre natürlich wünschenswert; ich kenne grobe Ansätze, die mich allerdings (noch) nicht überzeugen ...

Wie weiter?
 

Bernhard

Registriertes Mitglied
4. Ausblick auf mögliche Auswege und deren Bewertung:

1. der Kollaps bzw. das von Neumannsche Projektionspostulat
2. eine Modifikation der Quantenmechanik durch nicht-lineare Terme in der Zeitentwicklung
3. die Anerkennung der Realität der Superpositionen, d.h. die Viele-Welten-Interpretation
4. die bisher übersehene Option, dass es sich bei den o.g. Superpositionen lediglich um Artefakte unzureichender Näherungen handelt, und dass verbesserte mathematische Methoden tatsächlich die Existenz eines mit der unitären Dynamik vereinbaren Mechanismus zur Lokalisierung aufzeigen
Punkt 4 finde ich interessant.

Denkbar wären Zusatzregeln, wann eine Superposition von Zuständen überhaupt möglich/erlaubt ist.
 

Bernhard

Registriertes Mitglied
Die Modifikationen sind jedenfalls erheblich und größtenteils ad hoc; kaum jemand glaubt, dass dabei was Sinnvolles rauskommt:
Weiteres Beispiel: Ebenes Photonenfeld eines Photons geeigneter Energie trifft auf zwei Wasserstoffatome, deren Verbindungslinie senkrecht auf der Ausbreitungsrichtung des Photonenfeldes steht. (Strahl auf Schirm)

Lösung 1: Photon wird von Atom 1 absorbiert und regt dieses an.
Lösung 2: Photon wird von Atom 2 absorbiert und regt dieses an.

Aufgrund der Drehimpulserhaltung (Übergangsregel bei der Absorption) muss das Photon immer von genau einem Atom absorbiert werden. Die Lösung einer passenden Schrödingergleichung sollte existieren. Der Kollaps wird durch eine lokale Absorption ersetzt.

Eine Superposition beider Lösungen ist erlaubt, wenn man zulässt, dass jede Einzellösung nur mit einer gewissen Wahrscheinlichkeit realisiert wird.
 

Bernhard

Registriertes Mitglied
Ich auch.

Aber die Idee ist, vollständig ohne Zusatzregeln auszukommen ;-)
Siehe #8.

Kann man so nicht die Vorstellung eines Kollapses praktisch immer durch eine entsprechende Modellierung mit Hamiltonoperator und Wellenfunktionen präzisieren, vorausgesetzt man akzeptiert einen Zufall auf subatomarer Ebene?

Für schrödingers Katze bedeutet das, dass sie nach einer Zeit t mit der Wahrscheinlichkeit x noch am Leben ist und mit 1-x nicht.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Kann man so nicht die Vorstellung eines Kollapses praktisch immer durch eine entsprechende Modellierung mit Hamiltonoperator und Wellenfunktionen präzisieren, vorausgesetzt man akzeptiert einen Zufall auf subatomarer Ebene?
Wenn man den objektiven Zufall auf subatomarer Ebene akzeptiert, dann wird man nicht um eine Art Kollaps herumkommen. Die unitäre Zeitentwicklung U(t) = exp(-iHt) ist mit einer stochastischen Zeitentwicklung unverträglich, und die o.g. unitäre Zeitentwicklung liefert mach heutigem Kenntnisstand nur Superpositionen.

Ein Ausweg wäre jedoch, dass es sich eben nur um eine scheinbare Zufälligkeit wie im Falle des klassischen Chaos handelt, dass also bei exakter Kenntnis des Gesamtsystems immer ein eindeutiges Messergebnis ohne Superposition folgt, das jedoch nicht berechenbar ist, da natürlich die exakte Kenntnis nie erreichbar ist.

Das wäre natürlich absolut revolutionär - nichts desto trotz arbeiten wohl ein paar Leute in diese Richtung.
 

Bernhard

Registriertes Mitglied
Wenn man den objektiven Zufall auf subatomarer Ebene akzeptiert, dann wird man nicht um eine Art Kollaps herumkommen. Die unitäre Zeitentwicklung U(t) = exp(-iHt) ist mit einer stochastischen Zeitentwicklung unverträglich, und die o.g. unitäre Zeitentwicklung liefert mach heutigem Kenntnisstand nur Superpositionen.
Superpositionen sind für mich akzeptabel. Das Betragsquadrat der Koeffizienten ergibt dann wie üblich die zugehörigen Wahrscheinlichkeiten der verschiedenen physikalischen Entwicklungsmöglichkeiten eines Systems.

Ein Ausweg wäre jedoch, dass es sich eben nur um eine scheinbare Zufälligkeit wie im Falle des klassischen Chaos handelt, dass also bei exakter Kenntnis des Gesamtsystems immer ein eindeutiges Messergebnis ohne Superposition folgt, das jedoch nicht berechenbar ist, da natürlich die exakte Kenntnis nie erreichbar ist.

Das wäre natürlich absolut revolutionär - nichts desto trotz arbeiten wohl ein paar Leute in diese Richtung.
Z.B. S. Hossenfelder: https://en.wikipedia.org/wiki/Superdeterminism
 

TomS

Registriertes Mitglied
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Damit bliebe die Quantenmechanik unvollständig.
Wäre für mich an sich ok.

Ich denke, man müsste dann auch eher sagen, dass die Natur unvollständig, bzw. nicht streng deterministisch ist.

Das wäre auch "gut" für den freien Willen der Menschen. Wir sind dann mit einer gewissen Wahrscheinlichkeit auch keine "Vollautomaten", die beim Leben nur zuschauen.

Nee, ohne irgendwelche mystischen “Super”-Zusätze ;-)
Das "Super" ist im obigen Sinn gemeint. Die QM ist ja bekanntlich auch determinisitisch, aber halt "nur" im Sinne der Zeitentwicklung nach Schrödinger/Dirac.
 

TomS

Registriertes Mitglied
Ist alles ok.

Ich wollte lediglich darauf hinaus, dass ...

... ausgehend von der Annahme, dass eine Messung quantenmechanisch modelliert werden kann, liefert der Formalismus eine Superposition von Messergebnissen, im Widerspruch zu unserer Beobachtung eindeutiger Messergebnisse; letztere werden häufig durch Detektorereignisse o.ä. angezeigt, wobei der Formalismus im Widerspruch zu unserer Beobachtung keine Lokalisierung von Einzelereignissen liefert.

Der quantenmechanische Formalismus basierend auf der Dynamik gemäß der Schrödingergleichung ist demnach unvollständig und bedarf einer Interpretation oder Ergänzung.
Mehr als diese Konsequenz steht erst mal nicht im Raum.

Dazu gibt es dann natürlich völlig unterschiedliche Lösungsansätze.
 

Bernhard

Registriertes Mitglied
Es geht ja vielleicht auch darum, wie man die QM Laien näher bringen kann. Je besser man das kann, desto besser hat man die Grundlagen auch selber verstanden.

Diesbezüglich habe ich schon etwas über die Mächtigkeit des Begriffes der Wahrscheinlichkeit gelernt. Damit kann man (aus meiner Sicht) sehr gut die ungewohnte Vorstellung einer Superposition verständlicher machen.
 

TomS

Registriertes Mitglied
Es geht ja vielleicht auch darum, wie man die QM Laien näher bringen kann. Je besser man das kann, desto besser hat man die Grundlagen auch selber verstanden.
Und dazu gehört m.E., dass man sich über die zentralen Fragestellungen Klarheit verschafft und unklare pseudo-Erklärungen verwirft.

Ich habe zum Beispiel im Zuge unserer Diskussion aaO. erkannt, dass man den mystischen Kollaps durch eine recht präzise Fragestellung ersetzen kann: wenn ich einen “delokalisierten” Zustand habe, wie gelange ich dann zu einem lokalisierten Zustand im Detektor?

Man erkennt dann recht schnell, dass der Kollaps eben gerade nichts erklärt, und man dies deswegen auch nicht suggerieren sollte. Man muss auch nicht dort Halt zu machen, nur weil ein paar Physiker das vor knapp 100 Jahren für sich so entschieden haben, sondern kann gerade das zum Anlass nehmen, diese Erklärungslücke besser zu verstehen.
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Ich habe zum Beispiel im Zuge unserer Diskussion aaO. erkannt, dass man den mystischen Kollaps durch eine recht präzise Fragestellung ersetzen kann: wenn ich einen “delokalisierten” Zustand habe, wie gelange ich dann zu einem lokalisierten Zustand im Detektor?
Ich durfte in meiner Diplomarbeit ja tatsächlich deshalb ein Zweikörperproblem mit verschiedensten Methoden in einer Dimension berechnen.

Das eine Teilchen ist in einem unendlich hohen Potentialkasten eingesperrt, dessen eine Seite für ein zweites Teilchen durchlässig ist. Im Kasten wechselwirken die Teilchen über ein einfaches Potential in Form einer Delta-Funktion. Das Teilchen im Kasten wird mit einer gewissen Wahrscheinlichkeit angeregt und das äußere Teilchen wird mit verschiedenen Energien zurückgestreut. Man kann dann auch in einer Dimension die S-Matrix berechnen und erhält ein einfaches Modell eines Ein-Teilchen-Detektors. Das ganze war eine Arbeit an einem Lehrstuhl, wo sich der Inhaber auf die Grundlagen der QM spezialisiert hatte. G. Süßmann, ein Schüler von C.F. v. Weizsäcker.

Der Kollaps wurde während der gesamten Diplomarbeit und auch in den Seminaren nichtmal erwähnt :D .

Damals 1994 hatte ich die eigentliche Bedeutung dieser Arbeit zwar geahnt/gewusst, aber den großen Zusammenhang zu den Interpretationen der QM nicht gekannt. Nebenan hat sich D. Dürr mit der bohmschen Mechanik abgemüht und ist mittlerweile ja auch viel zu früh leider schon verstorben.

Vor ein zwei Jahren hatte ich mich dann noch über eine Meldung im www gewundert, dass man an den Schulen nur noch das Orbitalmodell für Atome lehren möchte und das bohrsche Atommodell gar nicht mehr vorkommen soll. Mittlerweile halte ich das für eine gute Idee, ganz im Sinne deiner Signatur :) .

So könnte man ganze Generationen von Schülern davor bewahren ein fehlerhaftes bis falsches Weltbild zu entwickeln.
 

TomS

Registriertes Mitglied
Das eine Teilchen ist in einem unendlich hohen Potentialkasten eingesperrt, dessen eine Seite für ein zweites Teilchen durchlässig ist. Im Kasten wechselwirken die Teilchen über ein einfaches Potential in Form einer Delta-Funktion. Das Teilchen im Kasten wird mit einer gewissen Wahrscheinlichkeit angeregt und das äußere Teilchen wird mit verschiedenen Energien zurückgestreut. Man kann dann auch in einer Dimension die S-Matrix berechnen und erhält ein einfaches Modell eines Ein-Teilchen-Detektors.
Kannst du mir das mal schicken?

Es bleibt aber bei einer Superposition, d.h. man erhält wieder keine Lokalisierung sondern nur eine Superposition, wobei eine Komponente lokalisiert sein kann, die andere nicht.

Das kann man für mein oben skizziertes Modell auch realisieren, wenn nämlich die d-Quanten lokalisiert sind, die a-Quanten nicht.

Keine Kritik, nur eine Feststellung.

Der Kollaps wurde während der gesamten Diplomarbeit und auch in den Seminaren nichtmal erwähnt
Das ist ja schon mal gut.

Vor ein zwei Jahren hatte ich mich dann noch über eine Meldung im www gewundert, dass man an den Schulen nur noch das Orbitalmodell für Atome lehren möchte und das bohrsche Atommodell gar nicht mehr vorkommen soll. Mittlerweile halte ich das für eine gute Idee, ganz im Sinne deiner Signatur :) .
Das Geschwurbel der Kopenhagener Interpretation und die teilweise anzutreffende aggressive Dogmatik (z.B. gegen Bohm und Bell) sind viel schlimmer als das Planetenmodell.

Der Text in der Signatur ist ein Zitat von Murray Gell-Mann und bezieht sich auf das Geschwurbel. Gell-Mann arbeitete zusammen mit Hartle an den Consistent Histories.

(Der Eintrag in der dt. Wikipedia zu Gell-Mann ist an dieser Stelle falsch, der Link führt nämlich auf die Dekohärenz, das ist aber etwas anderes; einen dt. Artikel zu Consistent Histories gibt es nicht).

So könnte man ganze Generationen von Schülern davor bewahren ein fehlerhaftes bis falsches Weltbild zu entwickeln.
Ja, absolut richtig.
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Kannst du mir das mal schicken?
Ich habe die Arbeit aktuell leider nur noch auf Papier, weil ich die Dateien von damals nur auf einer Diskette hatte, die dann bei einem von mehreren Umzügen mal verloren ging. Ich kann erstmal grob skizzieren, wie man das rechnen kann:

a) Schrödinger-Teilchen der Masse m1 ist im unendlich hohen, eindimensionalen Potentialtopf der Breite L. Die Lösungen davon sind normierte Sinus-Wellen, so dass bei x = 0 und bei x = L die zugehörige Wellenfunktion verschwindet. Man bekommt dann einen vollständigen Satz an Energie-Eigenfunktionen dieses Einteilchen-Problems. Nach diesen Funktionen wird die Zweiteilchenwellenfunktion entwickelt, in der Art einer Fouriertransformation.
b) Das zweite Schrödinger-Teilchen mit Masse m2 ungleich m1 (damit die Teilchen unterscheidbar sind) existiert im gesamten Halbraum x >= 0 als Welle mit einem Knoten bei x=0 und einer frei wählbaren Energie E > 0.
c) Im Bereich 0 <= x <= L hat man das Potential \( V(x_1, x_2) = V_0 \delta(x_1 - x_2)\).
d) Im Bereich 0 <= x <= L entwickelt man die Zweiteilchen-Lösung als unendliche Summe über ein Produkt der Lösungen von a) multipliziert mit noch zu berechnenden Lösungen des zweiten Teilchens. Für die zu berechnenden Lösungen des zweiten Teilchens erhält man aus der Schrödinger-Gleichung ein System von gewöhnlichen Differentialgleichungen.
e) Im Bereich x > L entwickelt man die Zweiteilchen-Lösung als Summe der Lösung von b und einer Summe an reflektierten Wellen. Den reflektierten Wellen fehlt dabei die Energie, die für einen Übergang des Teilchens 1 zum nächsthöheren Zustand benötigt wird. Die Lösung in diesem Bereich ist damit bis auf die Amplituden der reflektierten Wellen bekannt.
f) Aus den Anschlussbedingungen der Stetigkeit bei x=L erhält man die benötigten Randbedingungen für die Berechnung der unbekannten Funktionen von d)
g) Aus der Gesamtlösung ergeben sich dann die Amplituden der reflektierten Wellen.

Soweit aus der Erinnerung. Bei Interesse kann ich Details noch genauer nachsehen. Man bekommt da ziemlich viel aber auch relativ triviale Mathematik. Bei den Anschlussbedingungen der Wellenfunktionen für Teilchen 2 bei x = L sind zB lineare Gleichungsysteme zu lösen. Den Wechselwirkungsbereich rechnet man entweder numerisch mit Runge-Kutta oder näherungsweise mit ganz einfachen Greensfunktionen oder mit WKB-motivierten Näherungen. Die numerische Rechnung hat recht deutlich Resonanzeffekte des Systems gezeigt.
 
Zuletzt bearbeitet:
Oben