Grundlagenprobleme der Quantenmechanik

Prokyon

Registriertes Mitglied
Ich denke, dass dafür maßgeblich die Relativitätstheorie "verantwortlich" ist. Im Umfeld der RT haben sich die Anwender über die Jahrzehnte daran gewöhnt den mathematischen Formalismus über die Interpretation zu stellen und die Interpretation auch aus dem mathematischen Formalismus abzuleiten. Da ist es doch naheliegend dieses Prinzip analog auch auf die Quantenmechanik anzuwenden.
Bei der allgemeinen Relativitätstheorie hat es wohl ein paar Interpretationsprobleme gegeben. Aber bei der speziellen Relativitätstheorie war die Interpretation doch klar, als die Begriffe (Zeit und Gleichzeitigkeit) erst mal präzisiert waren.
 

Bernhard

Registriertes Mitglied
Bei der allgemeinen Relativitätstheorie hat es wohl ein paar Interpretationsprobleme gegeben. Aber bei der speziellen Relativitätstheorie war die Interpretation doch klar, als die Begriffe (Zeit und Gleichzeitigkeit) erst mal präzisiert waren.
Ja, klar. Bei der Quantenmechanik sieht es halt etwas anders aus. Da konnten die Begriffe bis heute nicht eindeutig aus Experimenten abgeleitet werden, wie zB die physikalische Interpretation der Wellenfunktion zeigt. Das war aber nicht die Frage, die ich beantworten wollte.
 

antaris

Registriertes Mitglied
Laut Bohr kann die Quantenmechanik nur mit den Begriffen der klassischen Mechanik formuliert werden. Aber die Quantentheorie sollte ja die klassische Mechanik ersetzen und nur als Spezialfall enthalten. Wir müssen von geeigneten (Quanten-)Begriffen ausgehen, die den Mikrokosmos beschreiben, sonst landen wir bei "transzendenter" Physik. Bohr schien zu glauben, dass wegen der Kleinheit der Atome uns solche Begriffe für immer verschlossen bleiben müssen.
Das Problem ist ganz klar die "Winzigkeit" der Quanten, welche die Unmöglichkeit der direkten Beobachtung verursacht. Es gibt nur die Möglichkeit über indirekte Messungen die Beschaffenheit zu ermitteln und daraus folgt, z.B. mittels der Bornschen Regel, die Wahrscheinlichkeitsverteilung. Das bleibt auch im Bild der TI genau so erhalten, nur dass Prof. Neumaier lt. seiner eigenen Aussage die Bornsche Regel mit seinen Methoden herleiten kann. Ich muss ihm das einfach glauben aber ihr Profis "müsst nur" etwas Zeit investieren und seine Arbeiten studieren. Mich stört am Kollaps das Postulat, welches so fundamental dargestellt wird aber nach so langer Zeit eben auch immer noch ein Postulat ist.

Die klassische Welt ist eine Welt von Objekten, die wir uns aus viel kleineren Objekten (Elementarteilchen) zusammengesetzt denken. Aber ein Elektron ist kein "Objekt", jedenfalls keines, dem wir zu jedem Zeitpunkt einen Ort zuschreiben können.
Keinem ausgedehnten (auf welcher Art auch immer) Objekt kann nur einem eindeutigen Raumzeitpunkt zugeschrieben werden. Warum sollten gerade die kleinsten Objekte nicht der Umgebung und dessen Wirken ausgesetzt sein? Einzig punktförmige Objekte können stets einen Raumzeitpunkt zugeschrieben werden, wenn dem z.B. beim Elektron nicht so ist, würde ich eher auf die Punktförmigkeit des Elektrons verzichten.
Die Quantentheorie sollte klar sagen, was Gegenstand der Theorie ist, was die Theorie eigentlich beschreibt. "Quantenfelder" ist ja nur ein Wort, und eine Synthese von Teilchen- und Wellenkonzept steht noch aus. Manche meinen, eine solche Synthese sei sowieso unmöglich und der Welle-Teichen-Dualismus überholt. Aber wenn gesagt wird, dass ein Quantenobjekt an zwei Orten gleichzeitig sein kann, betont man den Feldcharakter, und wenn es um seine Lokalisierung (Erzeugung oder Detektion) geht, spricht man von "Anregungen" des Feldes. Der Dualismus ist also immer noch da.Die Interpretation der Quantentheorie fokussiert sich fast immer auf die Wellenfunktion. Und diese Wellenfunktion wird oft mit dem zu beschreibenden "Quantenobjekt" identifiziert. Dabei ist Quantentheorie mehr als die zeitabhängige Schrödinger-Gleichung. Es ist mir ein Rätsel, warum so viele Physiker an eine kontinuierliche und deterministische Entwicklung nach der Schrödinger-Gleichung glauben, während das Sprunghafte und Zufällige doch zum "Markenkern" der Quantenphysik gehören.
Ist es nicht eigentlich so, dass die Schrödingergleichung selbst gar nicht die Realität beschreibt, da sie ein abgeschlossenes System beschreibt und somit überidealisiert ist? Erst störungstheoretische Methoden bringen die Lösungen auf ein natürliches Maß?
Laut der TI ist das gesamte Universum eine Wellenfunktion und Teilsysteme des Universums entsprechend eine Teilmenge der Wellenfunktion (red. Dichtematrix). Das kann Prof. Neumaier ganz sicher besser erläutern und ich will mich da gar nich so tief drin verwickeln.
Ich stelle mir einzelne Moden der Wellenfunktion vor und eine davon bin ich. Aber mein Körper besteht auch wieder aus Teilmengen der Mode "ich", genauso wie die Mode "ich" eine Teilmenge der Mode Erde ist...usw.

Sprunghaft und unmöglich exakt vorherzusagen ist auch der Schattenwurf einer Baumkrone, die den Wogen des Windes ausgesetzt ist. Unvorhersagbare Phänomene gibt es überall in der makroskopischen Natur und dennoch würde niemand behaupten, dass dessen zeitliche Entwicklung nicht (chaotisch) deterministisch ist. Das liegt einfach nur daran, dass wir das makoskopische determinstischen Chaos direkt mit unseren Augen beobachten können, Quanten aber nicht. Es fällt mir total schwer zu glauben, dass die Natur zwei konträre Konzepte "anwendet", wo sie doch mit ihren Ressourcen generell so schonend umgeht. Ich verstehe auch nicht wie der Übergang zwischen stochastischen Mikrokosmos und chaotisch deterministischen Makrokosmos stattfinden soll. Entweder das eine oder das andere.

Unitäre Entwicklung kann nicht alles sein, und oft wird "Messung" für das Sprunghafte und Zufällige verantwortlich gemacht. Das Nebeneinander von zwei verschiedenen Prozessen ist unbefriedigend. Bei der Beschreibung der Kernreaktionen im Inneren der Sonne ist seltsam, dass dabei "Messprozesse" eine Rolle spielen sollen. Dass eine mikroskopische Theorie ohne den Begriff der Messung formuliert werden sollte, hat auch John Bell gefordert.
Die unitäre Entwicklung ist auch in der TI nicht alles, denn wenn kein abgeschlossenes Quanensystem betrachtet wird, so muss ein subjektiver Zufall, bedingt aus den Wechslwirkungen aus der Umgebung, zwangsläufig weiterhin gegeben sein. Einzig das gesamte Universum wird in der TI als abgeschlossn angesehen. Die Sicht ändert sich "nur" von fundamental stochastich auf fundamental chaotisch. Am Ende kommt lokal bei beidem der gleiche Zufall heraus. Die TI macht m.E. nur den Unterschied, dass je größer des Subsystem des Universum ist, desto deterministischer dessen Entwicklung wird. Ausgewählte Teilmengen des übergeordneten Subsystem entwickeln sich demnach im Vergleich weniger deterministisch. Am wenigsten deterministisch entwickeln sich die kleinsten Objekte des gesamten Universums...die Quanten.
Das sind also die Reibungspunkte, die nach meiner Meinung eine "natürliche" Interpretation der Quantentheorie beseitigen müsste.

Für mich bedeutet natürlich = chaotisch und solch eine Beschreibung habe ich in der TI gefunden, was diese natürlich nicht nur darauf reduzieren soll.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ich bin sicher nicht der einzige, der die Interpretationen der Quantentheorie seltsam findet. Warum werden es denn immer mehr?
Weil man bisher mit keiner zufrieden ist.

Ich finde nicht die Vielzahl seltsam, sondern jede einzelne mehr oder weniger. Eine neue wie die TI macht es nicht per se schlimmer sondern hoffentlich besser.

Als ich Quantenmechanik hörte (1973) war ich ganz begeistert, was man damit alles ausrechnen kann. Nur die Sache mit der "Messung" fand ich blödsinnig. Damals dachte ich, das müsste doch einfach aus der Schrödinger-Gleichung folgen.
Ich habe mich früher nie wirklich darum gekümmert. Aber inzwischen bin ich ungefähr bei deiner zuletzt genannten Schlussfolgerung angelangt (nur, dass es sicher nicht einfach ist).

Offenbar fühltest du dich provoziert.
Nein.

Nein, es geht darum, welchen Sinn eine Frage haben könnte, und ob die Gesprächspartner überhaupt dasselbe meinen.
Das ist natürlich Grundvoraussetzung.

Du scheinst von mir zu verlangen, aus der Schrödinger-Gleichung abzuleiten, dass ein emittiertes Elektron nur von einem der in der Nähe befindlichen Detektoren registriert werden kann.
Ich erwarte nur, dass wir für eine Diskussion die jeweils andere Sichtweise zulassen. Niemand verlangt, sie zu übernehmen.

Nur man selbst sieht die Dinge so, wie sie wirklich sind.
Ich habe im Bezug auf die Zitate etwas anderes gemeint.

Nein, ich bin mir sicher, dass ich die Dinge nicht so sehe, wie sie wirklich sind. Ich glaube aber, dass in einer mathematischen abstrakten und zugleich empirisch zutreffenden Theorie wie der Quantenmechanik eine gewisse Wahrheit steckt.
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Das liegt einfach nur daran, dass wir das makoskopische determinstischen Chaos direkt mit unseren Augen beobachten können, Quanten aber nicht. Es fällt mir total schwer zu glauben, dass die Natur zwei konträre Konzepte "anwendet", wo sie doch mit ihren Ressourcen generell so schonend umgeht. Ich verstehe auch nicht wie der Übergang zwischen stochastischen Mikrokosmos und chaotisch deterministischen Makrokosmos stattfinden soll. Entweder das eine oder das andere.
Richtig, entweder das eine oder das andere. Ich sehe das von der anderen Seite: das Glatte als eine vereinfachte Darstellung einer tiefer liegenden Körnigkeit. Carlo Rovelli schreibt:
Perhaps the rivers of ink which have been expended discussing the nature of the 'continuous' over the centuries, from Aristotle to Heidegger, have been wasted. Continuity is only a mathematical technique for approximating very finely grained things. The world is subtly discrete, not continuous. The good Lord has not drawn the world with continuous lines: with a light hand, he has sketched it in dots, like Seurat
 

antaris

Registriertes Mitglied
Ich sehe das von der anderen Seite: das Glatte als eine vereinfachte Darstellung einer tiefer liegenden Körnigkeit.
Moment, jetzt hast du mich abgehängt. Prinzipiell gebe ich dir damit recht.
An Glattheit und Körnigkeit denke ich in dem Zusammenhang aber gar nicht. Was hat die Körnigkeit mit objektiver Stochastik zu tun?
Körnigkeit auf Ebene der Planck-Skala oder der Beschaffenheit der Quantenobjekte?
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Von der Planck-Skala rede ich gar nicht. Ich meine nur die Existenz von Atomen, und eben Elementarteilchen. Klassische Gleichungen beschreiben Kontinua. Fraktale Strukturen sind eine Idealisierung, wo man sich vorstellt, dass man dieselben Gleichungen selbst auf immer kleiner werdenden Skalen nutzen kann. Das ist in der realen Welt nicht der Fall, aber in vielen Fällen durchaus nützlich (zum Beispiel in Gestalt der Renormierungsgruppe bei kritischen Phänomenen oder in der Quantenfeldtheorie).

Ich weiß nicht, was mit objektiver Stochastik gemeint ist.
 

antaris

Registriertes Mitglied
objektiv stochastisch = indeterministisch (echter Zufall)
subjektiv stochastisch = deterministisches Chaos (scheinbarer Zufall)

Richtig. Fraktale sind rein mathmatisch betrachtet genauso idealisiert, wie die Schrödingergleichung.
Wenn die Küste von England vermessen wird, geht das ja nicht unendlich. Man landet irgendwann bei diskreten Sandkörnern. Das Problm ist, dass die Grenze "Küste" umso unbestimmter wird, je weiter sich den Sankörnern angenähert wird. Eine aus großer Entfernung betrachtete, scharf begrenzte Küste, wird also immer unschärfer, je kleiner die Teilmenge ist.
Innerhalb der einzelnen Sandkörner geht das auf molekularer bw. atomarer Ebene weiter. In jedem Atomkern dann die Verschachtelung in Protonen/Neutronen, dann diese in Quarks....
Fraktale müssen nicht exakt selbstähnlich sein...in der Natur sind sie das schon gar nicht.

Aber was hat das mit
Ich verstehe auch nicht wie der Übergang zwischen stochastischen Mikrokosmos und chaotisch deterministischen Makrokosmos stattfinden soll. Entweder das eine oder das andere.
zu tun?
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Ich verstehe auch nicht wie der Übergang zwischen stochastischen Mikrokosmos und chaotisch deterministischen Makrokosmos stattfinden soll. Entweder das eine oder das andere.
Auf den kleinsten (atomaren) Skalen herrscht der "objektive Zufall", auf mesoskopischen Skalen kann man darüber mitteln und die Bewegungen mit Differentialgleichungen approximieren (Navier-Stokes), und auf großen findet man dann Turbulenz ("scheinbarer Zufall").
 

Jakito

Registriertes Mitglied
Richtig, entweder das eine oder das andere. Ich sehe das von der anderen Seite: das Glatte als eine vereinfachte Darstellung einer tiefer liegenden Körnigkeit.
Das mit der Körnigkeit erscheint zwar zunächst intuitiv, ist aber auch nicht ohne Probleme und Rätsel:

Is the space we live in continuous (as mathematically defined) or quantized? (Oct 5, 2013)
The idea of a quantized space sounds great for one dimensional spaces. However, it has strange side effects for two and three dimensional spaces.
  • Because the square root of two is irrational, the diagonal and the side of a square are not multiples of a common smallest unit.
  • Let's try to model three dimensional space by a lattice with a non-zero unit spacing. This model won't be rotational invariant, because some directions are distinguished. But there is no reason to expect that some directions of the space around us should be distinguished.
Quantum mechanics has to cope with worse side effects than that. How is it possible that light is both a wave and a particle? This seemingly contradictory state of affairs can be modeled mathematically by incorporating randomness into the model. I guess that modeling a quantized space will also require randomness in some form. Maybe the result of comparing the length of two objects is slightly random, if they differ only on the order of the Planck scale. Or we have some random lattice structure instead of a normal lattice. Perhaps there even exists (mathematically) "universal random lattice" structures, similar to the universal random graph? Can we define some Planck scale for such structures? The investigation of such structures might be interesting from a mathematical point of view, independent of whether these structures model any physical reality or not.

Und irgendwie muss die QM helfen, diese Probleme zu überwinden, falls es wirklich wahr sein soll:
toy models of QM (Jan 21, 2015)
There is also a philosophical side, which is a total different story. A real number can contain an infinite amount of information, but nature probably doesn't contain an infinite amount of information in a finite volume. So nature has to use QM (or something similar) to blur details enough such they no longer contain an infinite amount of information.
(Jan 22, 2015)
But how does QM achieve this? The many world interpretation seems to go exactly into the opposite direction, and Bohmian mechanics is even worse than many worlds with respect to the amount of information required for its ontology.
... However, the various ways to come back from a density matrix to a wave function are not well described in the textbooks available to me.
I have the impression that most people (here at physics.se) are not aware that there are many different ways back from a density matrix to a wave function, and that the church of the bigger Hilbert space is neither the only nor always the best way back.
 

antaris

Registriertes Mitglied
Auf den kleinsten (atomaren) Skalen herrscht der "objektive Zufall", auf mesoskopischen Skalen kann man darüber mitteln und die Bewegungen mit Differentialgleichungen approximieren (Navier-Stokes), und auf großen findet man dann Turbulenz ("scheinbarer Zufall").
Danke für die Aufklärung. Dann aber doch nicht das eine oder das andere?
Interessant, dass das ausgehend "von beiden Seiten" funktioniert, nur bleibt in der TI eben auch auf den kleisten Skalen kein objektiver Zufall, man nähert sich diesem sozusagen nur an.
 

TomS

Registriertes Mitglied
Laut Bohr kann die Quantenmechanik nur mit den Begriffen der klassischen Mechanik formuliert werden. Aber die Quantentheorie sollte ja die klassische Mechanik ersetzen und nur als Spezialfall enthalten. Wir müssen von geeigneten (Quanten-)Begriffen ausgehen, die den Mikrokosmos beschreiben, sonst landen wir bei "transzendenter" Physik.
Ja.

Bohr schien zu glauben, dass wegen der Kleinheit der Atome uns solche Begriffe für immer verschlossen bleiben müssen.
Ja, das glaube er. Ok, jeder ist frei darin, seine Naturphilosphie zu wählen bzw. zu entwickeln.

Schlimmer ist, dass die Kopenhagener relativ lange intensiv dafür gesorgt haben, dass niemand ihr Dogma in Frage stellt.

Die klassische Welt ist eine Welt von Objekten, die wir uns aus viel kleineren Objekten (Elementarteilchen) zusammengesetzt denken. Aber ein Elektron ist kein "Objekt", jedenfalls keines, dem wir zu jedem Zeitpunkt einen Ort zuschreiben können.
Zustimmung.

Die Quantentheorie sollte klar sagen, was Gegenstand der Theorie ist, was die Theorie eigentlich beschreibt. "Quantenfelder" ist ja nur ein Wort, und eine Synthese von Teilchen- und Wellenkonzept steht noch aus.
Der mathematische Gegenstand sind Operatoren und Hilbertraumzustände, der empirische Gegenstand Messergebnisse, Detektorsignale etc. sowie deren Wahrscheinlichkeiten.

Manche meinen, eine solche Synthese sei sowieso unmöglich und der Welle-Teichen-Dualismus überholt.
Ich sehe keine Notwendigkeit einer weiteren Synthese – wenn man sich abgewöhnt, krampfhaft in klassischen Analogien zu denken.

Aber wenn gesagt wird, dass ein Quantenobjekt an zwei Orten gleichzeitig sein kann, betont man den Feldcharakter, und wenn es um seine Lokalisierung (Erzeugung oder Detektion) geht, spricht man von "Anregungen" des Feldes. Der Dualismus ist also immer noch da.
Das Quantenobjekt ist streng genommen nicht an zwei Orten gleichzeitig; bzw. wir wissen es nicht. Gewisse mathematische Objekte haben an zwei oder mehr Orten gleichzeitig nicht-verschwindende Werte.

Die Lokalisierung erfolgt dagegen im phänomenologischene Sinne, im Zuge der Messung.

Kein einzelnes Quantenobjekt zeigt sich phänomenologisch jemals delokalisiert oder wird als Welle gemessen, sondern immer lokalisiert.

Deswegen – weil Mathematik und Phänomenologie in einen Begriff gezwungen werden, ist dieser Begriff des "Welle-Teichen-Dualismus" letztlich ein nutzloser Kategoriefehler.

Die Interpretation der Quantentheorie fokussiert sich fast immer auf die Wellenfunktion.
Weil nur sie sowie die Operatoren Gegenstand des fundamentalen Formalismus sind.

Und diese Wellenfunktion wird oft mit dem zu beschreibenden "Quantenobjekt" identifiziert.
Sagen wir, die Wellenfunktion ist die mathematische Repräsentation des Quantenobjektes, so wie ein Ortsvektor die Repräsentation eines klassischen Teilchens ist.

Dabei ist Quantentheorie mehr als die zeitabhängige Schrödinger-Gleichung.
Was denn noch?

Es ist mir ein Rätsel, warum so viele Physiker an eine kontinuierliche und deterministische Entwicklung nach der Schrödinger-Gleichung glauben, während das Sprunghafte und Zufällige doch zum "Markenkern" der Quantenphysik gehören.
Es hat noch niemand irgendwo einen dieser Sprünge beobachtet.

Das Zufällige ist tatsächlich etwas, was im Rahmen von Interpretation zu klären ist, und darum kümmern sie sich ja auch.

Unitäre Entwicklung kann nicht alles sein …
Warum?

… und oft wird "Messung" für das Sprunghafte und Zufällige verantwortlich gemacht.
Zumindest zeigt sich im Zuge der Messung eine starke und zufällig erscheinende Lokalisierung, insbs. isolierte und lokalisierte Detektorereignisse.

Das Nebeneinander von zwei verschiedenen Prozessen ist unbefriedigend. Bei der Beschreibung der Kernreaktionen im Inneren der Sonne ist seltsam, dass dabei "Messprozesse" eine Rolle spielen sollen. Dass eine mikroskopische Theorie ohne den Begriff der Messung formuliert werden sollte, hat auch John Bell gefordert.
Zustimmung.

Die mikroskopische Theorie sollte die makroskopische als einen gewissen Grenzfall enthalten, ebenso die Messung als einen Spezialfall eines quantenmechanischen Prozesses.

Das sind also die Reibungspunkte, die nach meiner Meinung eine "natürliche" Interpretation der Quantentheorie beseitigen müsste.
Zustimmung.

Aus einem anderen Beitrag:
Auf den kleinsten (atomaren) Skalen herrscht der "objektive Zufall" …
Das wissen wir nicht. Wir beschreiben diese Ebene mit einer deterministischen Gleichung, und wir beobachten diese Ebene nicht.

… und auf großen findet man dann Turbulenz ("scheinbarer Zufall").
Ja.

Die TI behauptet letztlich, dass auch auf der mikroskopischen Ebene subjektiver Zufall aufgrund von Unkenntnis vorliegt – letztlich wie in der Newtonschen Mechanik.

Ich sage nicht, dass die TI sicher recht hat. Aber es ist eine hochinteressante Idee, bei der noch niemand nachweisen konnte, dass sie falsch ist. Deswegen 👍


Ich glaube, bei der Problemstellung sind wir sehr nahe beieinander!
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Die TI behauptet letztlich, dass auch auf der mikroskopischen Ebene subjektiver Zufall aufgrund von Unkenntnis vorliegt – letztlich wie in der Newtonschen Mechanik.
Ich würde in diesem Satz "von Unkenntnis" durch "einer unvollständigen Modellierung der Messapparatur" ersetzen. "Unkenntnis" kann einen gewissen Einfluss des Experimentators auf das Messergebnis suggerieren, was so in der TI aber nicht angelegt ist.
 

TomS

Registriertes Mitglied
@Bernhard – danke für den Hinweis.

Die Unkenntnis ist von prinzipieller Natur. Die Information über den zur Berechnung notwendigen Zustand ist dem Experimentator aufgrund der Kausalstruktur nur unvollständig bekannt; er kann ihn daher nur unvollständig modellieren.
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Das mit der Körnigkeit erscheint zwar zunächst intuitiv, ist aber auch nicht ohne Probleme und Rätsel:
Ich habe zwar Rovelli zitiert, habe aber nur wenig Interesse an Quantengravitation. Ich denke, dass man Quantenfeldtheorie auch in flacher (Minkowski-)Raumzeit verstehen können müsste. Für mich ist die Raumzeit nur ein homogener Hintergrund, auf dem Materie verstreut ist wie Reiskörner auf einer Tischplatte.
 

Prokyon

Registriertes Mitglied
Dann aber doch nicht das eine oder das andere?
Entweder diskret oder kontinuierlich. Ich halte die Natur auf der fundamentalen, untersten Ebene für "körnig", und die "geglätteten" Beschreibungen nur für Näherungen. Aber beweisen lässt sich das nicht. Man könnte sich Theorien ausdenken, die Körnigkeit aus einer (kontinuierlichen) Feldtheorie irgendwie herleitet. Ich glaube, Einstein hat bis zuletzt nach einer solchen einheitlichen Feldtheorie gesucht.
 

Prokyon

Registriertes Mitglied
Es hat noch niemand irgendwo einen dieser Sprünge beobachtet.
Wie zerfällt denn ein Neutron? Wandelt es sich allmählich, über den Zeitraum von Minuten, in ein Proton um, oder geht das plötzlich, in einem Sekundenbruchteil? Was in der Wirklichkeit passiert, steht doch in krassem Gegensatz zu einer Wellenfunktion, die nach zehn Minuten auf etwa 70% ihrer ursprünglichen Amplitude abgefallen ist.

Neben der Schrödinger-Gleichung brauchen wir noch die Bornsche Regel. Es ist aber wohl grotesk zu meinen, dass "Messung" (etwa die Anwesenheit eines Geiger-Zählers) den Zerfall verursacht oder "triggert".
 

TomS

Registriertes Mitglied
Wandelt es sich allmählich, über den Zeitraum von Minuten, in ein Proton um, oder geht das plötzlich, in einem Sekundenbruchteil? Was in der Wirklichkeit passiert, steht doch in krassem Gegensatz zu einer Wellenfunktion, die nach zehn Minuten auf etwa 70% ihrer ursprünglichen Amplitude abgefallen ist.
Stimmt.

Dennoch hat noch niemand einen Sprung beobachtet. In vielen Fällen liefert die Dekohärenz einen Teil der Erklärung für das Auftreten klassischer Messergebnisse, auf extrem kurzen Zeitskalen. Wie das speziell im Falle des Neutronenzerfalls aussieht, müsste ich nachlesen.

Neben der Schrödinger-Gleichung brauchen wir noch die Bornsche Regel.
Unbestritten.

Ich halte sie jedoch nicht für fundamental (das Entstehen von Wahrscheinlichkeiten in der klassischen Mechanik ändert auch nicht die Newtonschen Axiome).

Es ist aber wohl grotesk zu meinen, dass "Messung" (etwa die Anwesenheit eines Geiger-Zählers) den Zerfall verursacht oder "triggert".
Hattest du mich so verstanden? Ich hoffe nicht.
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Dennoch hat noch niemand einen Sprung beobachtet. In vielen Fällen liefert die Dekohärenz einen Teil der Erklärung für das Auftreten klassischer Messergebnisse, auf extrem kurzen Zeitskalen. Wie das speziell im Falle des Neutronenzerfalls aussieht, müsste ich nachlesen.
Das ist wohl ideologisch motiviert. Man stellt sich einfach vor, dass der Zerfall kontinuierlich vor sich gehen muss.
Ich halte [die Bornsche Regel] jedoch nicht für fundamental (das Entstehen von Wahrscheinlichkeiten in der klassischen Mechanik ändert auch nicht die Newtonschen Axiome).
Quantenmechanik unterscheidet sich offenbar von der klassischen Mechanik. Da hilft eine falsche Analogie auch nicht weiter.
 
Oben