Das Schicksal von Schrödingers Katze

antaris

Registriertes Mitglied
Vielleicht sollten wir nicht von objektiv und subjektiv sprechen, denn die Natur interessiert sich nicht dafür, wie uns das gefällt.
Echte Stochastik ist intrinsisch, was bedeutet, dass sich an dem stochastischen Verhalten gar nichts ändern dürfte, egal wie gut oder schlecht ein System gekühlt, isoliert oder sonstwie beeinflusst wird. Fakt ist aber, dass die Wahrscheinlichkeiten sich ändern, wenn äußere Einflüsse existieren.
Alles was nicht intrinsisch stochastisch ist, ist deterministisch.

Nein, das tun sie nicht notwendigerweise.
So werden sie üblicherweise eingeführt, so sind wir mit ihnen vertraut. Es spricht jedoch nichts dagegen, eine stochastische Dynamik für ein Einzelsystem zu konstruieren, die fundamental ist.
Die Konstruktion einer intrinsischen Stochastik ist ein prinzipiell nicht verifizierbar oder falsifizierbares Postulat. Determinismus ist überall in der Natur verifizierbar, bis auf Regionen die sich unserer direkten Beobachtung entziehen. Da ziehe ich den Determinismus vor.
Aber nur, weil er ökonomisch (nach meinem Dafürhalten) zu sparsam ist: Er ist zumindest nach dieser Aussage nicht an einer objektiven Realität interessiert, sondern lediglich an dem subjektiven Ausschnitt beobachtbarer Phänonemene. Außerdem spricht er von Bell-Experimenten – welchen genau ist unklar – aber bis zu GHZ waren derartige Experimente ausschließlich statistisch aussagekräftig für ein reales Ensemble von Systemen, nicht über Einzelsysteme.
Wenn ich nur eingeschränkte Erwartungen habe, ist eine gewisse Wahl der Mittel natürlich ökonomischer.
Ich verstehe überhaupt nicht warum es die Natur sparsamer finden sollte zwei grundverschiedene Konzepte zu entwickeln. Sparsam wäre es nur ein Konzept zu etablieren und das ist auch genau so in der Natur. Das wurde vor vielen posts im gleichen thread schon mal angesprochen.
Ein Hersteller von Billigweckern führt eine rein stichprobenartige Endkontrolle durch, Manufakturen von Luxusuhren dagegen intensive tagelange Tests je Einzelstück. Beides ist ökonomisch für sich betrachtet optimal, die Übertragung auf den jeweils anderen Fall führt in den Ruin des Unternehmens. Es kommt schon darauf an, worauf man hinauswill.
Die Hersteller wollen darauf hinaus mehr oder weniger gut zu wissen wieviel fehlerhafte Wecker in den verkauf geschickt werden. Der billige nimmt es hin, dass defekte Wecker verkauft werden und der luxuriöse will dagegen gar keinen mangelhaften Wecker verkaufen.
Beides interessiert die Natur aber überhaupt nicht, denn die will nix verkaufen. Nur der Mensch erstellt Statistiken, da ihm die Natur und die Prozesse seines eigenen Handelns zu komplex sind.
Weil es dafür keinen belastbaren Indiz gibt und das abkühlen die brownsche Bewegung stoppt, bis nur noch die intrinsiche Bewegung aus der Ruheenergie der "Teilchen" übrigbleibt?
2) Darum ging es mir nicht; es ging darum, dass fundamental stochastische Prozesse nicht ausschließlich stochastische Phänomene hervorbringen müssen. Am Galton-Brett ist jede einzelne binäre Entscheidung stochastisch, das Resultat im Grenzfall einer sehr großen Anzahl N derartiger Entscheidungen jedoch nicht.
Die Einzelentscheidung ist im Galtonbrett nicht intrinsisch stochastisch, da in Schwerelosigkeit die Symmetrie gar nicht erst bricht. Neumaier hat das beispiel genannt um die Wahrscheinlichkeitsverteilung eines Ensemble mit deterministischen Einzelprozessen zu erklären.
Aber dieses Chaos ist nicht fundamental stochastisch, sondern fundamental deterministisch. Nicht-linear und stochastisch wird es nur aufgrund des offenen Systems bzw. der unvollständigen Kenntnis des Anfangszustandes.
Richtig, Chaos ist nicht intrinsisch stochastisch.
Er schreibt, dass für ihn nur eine Quantentheorie des gesamten Universums unitär und linear sein kann. Da diese 1) nicht vorliegt, und – selbst wenn sie vorläge – 2a) ein initialer Mikrozustand nur unvollständig bekannt und 2b) seine Dynamik nur näherungsweise beschreibbar wäre, ist die resultierende TI sicher stochastisch, jedoch nicht fundamental stochastisch.
Wir wissen noch nicht wie die Natur wirklich funktioniert aber sie funktioniert ganz offensichtlich sehr gut...vollkommen unabhängig von unserem Wissen oder unserer Existenz. Die TI ist nicht stochastisch. Das hat Neumaier doch mehrmals und eindeutig kommuniziert?! Weil wir niemals alle Informationen über die Ursachen erfahren werden, ist die Natur doch noch lange nicht intrinsich stochastisch.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
@antaris

Da stecken jetzt so viele Missverständnisse drin, dass es schwer fällt, zu antworten.
Versuche es bitte. Das würde mich brennend interessieren.

Stochastik
Die Wahrscheinlichkeitstheorie stellt die Begriffe zur mathematischen Modellierung von Vorgängen bereit, in denen zufällige Ereignisse auftreten. Auf dieser Grundlage liefert die Mathematische Statistik Verfahren, um aus Beobachtungsdaten Modellparameter zu bestimmen und Aussagen über die Angemessenheit der Modellierung machen zu können.[3] Stochastisch bedeutet so viel wie „zufällig“.[4] Wir bezeichnen ein Ereignis als zufällig, wenn sein Eintreten prinzipiell nicht vorhersehbar ist.

Zufall
Von Zufall spricht man, wenn für ein einzelnes Ereignis oder das Zusammentreffen mehrerer Ereignisse keine kausale Erklärung gefunden werden kann. Als kausale Erklärungen für Ereignisse kommen je nach Kontext eher Absichten handelnder Personen oder auch naturwissenschaftliche deterministische Abläufe in Frage.

Zufall hängt immer mit keiner kausalen Erklärung zusammen. Determinismus ist ungleich Zufall.
 
Zuletzt bearbeitet:

Jakito

Registriertes Mitglied
Wir wissen noch nicht wie die Natur wirklich funktioniert aber sie funktioniert ganz offensichtlich sehr gut...vollkommen unabhängig von unserem Wissen oder unserer Existenz. Die TI ist nicht stochastisch.
Die TI ist aber auch kein Model, wie die Natur wirklich funktioniert. Es macht auch total Sinn, dass die TI nicht stochastisch ist, denn die Dichtematrizen, Erwartungswerte und Korrelationen beschreiben doch ohnehin schon Prozesse, die zumindest auch zufällig sein dürften, wenn sie denn unbedingt wollen. Es wäre deshalb doppelt gemoppelt, wenn die Dichtematrizen selbst sich jetzt auch noch stochastisch entwickeln würden. Für ein Subsystem nach dem Coarse Graining vielleicht OK, aber für das Universum als Ganzes eher nicht.

Auf GRW und andere stochastische Kollapse-Modelle trifft mein obiges Argument nur teilweise zu, weil die ja nur mit der Wellenfunktion (bzw. dem Zustandsvektor) arbeiten, der weniger klar auf der "stochastischen Modelierungs Seite" stehen. Trotzdem sind diese Modelle aus meiner Sicht schon etwas fragwürdig, insbesondere solange man nicht motivieren kann, warum Wellenfunktion und Kollapse beide real sein sollen.
 

antaris

Registriertes Mitglied
Die TI ist aber auch kein Model, wie die Natur wirklich funktioniert.
Das habe ich auch nicht behauptet. Ich habe nur geschrieben, dass laut Aussage des Urhebers die TI vollkommen deterministisch ist.
Es macht auch total Sinn, dass die TI nicht stochastisch ist, denn die Dichtematrizen, Erwartungswerte und Korrelationen beschreiben doch ohnehin schon Prozesse, die zumindest auch zufällig sein dürften, wenn sie denn unbedingt wollen. Es wäre deshalb doppelt gemoppelt, wenn die Dichtematrizen selbst sich jetzt auch noch stochastisch entwickeln würden.

Auf GRW und andere stochastische Kollapse-Modelle trifft mein obiges Argument nur teilweise zu, weil die ja nur mit der Wellenfunktion (bzw. dem Zustandsvektor) arbeiten, der weniger klar auf der "stochastischen Modelierungs Seite" stehen. Trotzdem sind diese Modelle aus meiner Sicht schon etwas fragwürdig, insbesondere solange man nicht motivieren kann, warum Wellenfunktion und Kollapse beide real sein sollen.
Es geht doch in der Ti um das DRP, als einziges Postulat der TI, woraus Neumaier alles herleitet, was er benötigt. Die Dichtematrizen, Erwartungswerte und Korrelationen sind nicht nachweislich (aus sich selbst heraus) stochastisch. Dieser Nachweis ist unmöglich. Neumaier leitet das DRP aus klassichen statistischen (Ensemble) Modellen ab.

Quantum tomography explains quantum mechanics
The purpose of this paper is to give a proper conceptual foundation of quantum physics with
the same characteristic features as classical physics – except that the density operator takes
the place of the phase space coordinates. Since a convincing alternative to the traditional
interpretation must be shown to treat correctly quite a number of different issues, the paper
is quite long, effectively containing an extensive survey of a large collections of themes basic
to quantum physics.

A quantum measurement device is characterized by a collection of finitely many de-
tection elements labelled by labels k that respond statistically to the quantum source
according to the following detector response principle (DRP): A detection element k
responds to an incident stationary source with density operator ρ with a nonnegative mean
rate pk depending linearly on ρ. The mean rates sum to the intensity of the source. Each
pk is positive for at least one density operator ρ.
The main consequence of the DRP is the detector response theorem (Theorem 2.1). It
asserts that, for every measurement device, there are unique operators P_k which determine
the rates of response to every source with density operator ρ according to the formula


p_k = 〈P_k〉 := tr ρP_k

This is a special case of the quantum value

〈A〉 := tr ρA

of an arbitrary operator A.
Wo schreibt er, wselche Entität, im Sinne von nicht-Kausal erklärbar, stochastisch ist? Was genau ist laut der TI stochastisch? Der Dichteoperator ρ, die Detektorelemente k, oder die mittlere Rate pro Detektorelement, die jeweils linear von ρ abhängen?
 
Zuletzt bearbeitet:

Jakito

Registriertes Mitglied
Es geht doch in der Ti um das DRP, als einziges Postulat der TI, woraus Neumaier alles herleitet, was er benötigt.
DRP als einziges Postulat zusätzlich zu den Axiomen und Konzepten der TI, die 2019 in den Papern und später dann im Buch erläutert wurden.

The purpose of this paper is to give a proper conceptual foundation of quantum physics with
the same characteristic features as classical physics – except that the density operator takes
the place of the phase space coordinates. Since a convincing alternative to the traditional
interpretation must be shown to treat correctly quite a number of different issues, the paper
is quite long, effectively containing an extensive survey of a large collections of themes basic
to quantum physics.
Bei dieser Zielsetzung besteht schon die Gefahr, dass man vor allem bei einer besser ausgearbeiteten minimalen statistischen Ensemble-Interpretation landet, die dann gar nicht mehr so revolutionär wie die TI von 2019 wäre, und eventuell auch gar nicht mehr das leistet, was die revolutionäre Theorie auszeichnete. Aber vielleicht ist die Welt noch nicht reif für diese Revolution, vielleicht müsste ich mir nur irgendwann die Zeit nehmen, dass Tomography-Paper in das Gedankengebäude der TI von 2019 einzuordnen.

Aber eigentlich hätte ich es spannender gefunden, zu untersuchen, ob die TI von 2019 tatsächlich funktioniert, bzw. welche Postulate vielleicht noch fehlen. Aber vielleicht ist ja DRP genau das fehlende Postulat, wenn man es sich genau überlegt. Hätte aber eher eine andere Art von Postulat erwartet: Die TI interpretiert ja auch die klassische Mechanik. Wenn wirklich ein Postulat fehlen sollte, dann auch bereits für diesen Spezialfall.

Wo schreibt er, dass der Dichteoperator ρ stochastisch im Sinne von nicht-Kausal ist? Was genau ist laut der TI stochastisch?
Schreibt er nicht, und habe ich auch gar nicht behauptet. Bei gewissen Coarse Graining entsteht wohl schon eine stochastische Dynamik, dies ist aber keine Behauptung der TI, sondern schlicht eine Tatsache der normalen QM, auch wenn sie in Form reduzierter Dichtematrizen angewendet wird.
 

antaris

Registriertes Mitglied
DRP als einziges Postulat zusätzlich zu den Axiomen und Konzepten der TI, die 2019 in den Papern und später dann im Buch erläutert wurden.
Er meinte in seinen 2019'er paper musst er viel mehr ad-hoc voraussetzen/postulieren, was er nun auf das DRP reduziert hat.
Bei dieser Zielsetzung besteht schon die Gefahr, dass man vor allem bei einer besser ausgearbeiteten minimalen statistischen Ensemble-Interpretation landet, die dann gar nicht mehr so revolutionär wie die TI von 2019 wäre, und eventuell auch gar nicht mehr das leistet, was die revolutionäre Theorie auszeichnete. Aber vielleicht ist die Welt noch nicht reif für diese Revolution, vielleicht müsste ich mir nur irgendwann die Zeit nehmen, dass Tomography-Paper in das Gedankengebäude der TI von 2019 einzuordnen.
Bei all den Dingen die ich über seine TI geschrieben hatte, wurde ich nicht ein einziges Mal von ihm "zurückgepfiffen". Da denke ich mir, ich muss irgendwas verstanden haben oder nicht? Ich will damit nicht behaupten, dass ich die TI oder allgemein die QM detailliert verstanden hätte! Davon bin ich vor allem in den Details weit entfernt.
Aber eigentlich hätte ich es spannender gefunden, zu untersuchen, ob die TI von 2019 tatsächlich funktioniert, bzw. welche Postulate vielleicht noch fehlen. Aber vielleicht ist ja DRP genau das fehlende Postulat, wenn man es sich genau überlegt. Hätte aber eher eine andere Art von Postulat erwartet: Die TI interpretiert ja auch die klassische Mechanik. Wenn wirklich ein Postulat fehlen sollte, dann auch bereits für diesen Spezialfall.
Nein er schreibt doch, dass der Unterschied zwischen klassische Mechanik und QM einzig darin liegt, dass im Phasenraum der Dichteoperator mit Ort und Impuls, anstelle von Teilchen mit Ort und Impuls tritt. Ich habe es so verstanden, dass die QM bzw. QFT ein der Natur eigentlich im klassischen Phasenraum tatsächlich realisiert ist. Das impliziert, dass der Hilbertraum und dessen Abstraktionen unbeobachtbr und damit rein mathematischer Natur sind.
Schreibt er nicht, und habe ich auch gar nicht behauptet.
Stimmt aber du hast auf meine Antwort an TomS geantwortet. Ich denke das ist aber nur ein Missverständnis, weil ich mich vielleicht unglücklich ausgedrückt habe. Worauf ich hinauswollte ist, dass m.E. der Begriff Stochastik und Zufall vom Determinismus differenziert betrachtet werden sollte, da Zufall einen nicht-kausalen Zusammenhang per Definition enthält. Bei den unvollständig bekannten Anfangsbedingungen und der näherungsweisen Beschreibbarkeit kann aber nicht perse von nicht-kausalen Zusammenhängen gesprochen werden, da wir es ja nicht wissen und nur annähern können.
Bei gewissen Coarse Graining entsteht wohl schon eine stochastische Dynamik, dies ist aber keine Behauptung der TI, sondern schlicht eine Tatsache der normalen QM, auch wenn sie in Form reduzierter Dichtematrizen angewendet wird.
Das mag gut sein. Coarse Graining selbst ist aber wieder eine Näherung, mit der z.B. die Brownsche Bewegung beschrieben werden kann (Markov-Prozess). Die stochastische Dynamik der Brownschen Bewegungen entstehen in dem Fall vollkommen deterministisch durch thermische Einflüsse der Umgebung und daraus folgender Kollisonen der Teilchen untereinander.
 

Prokyon

Registriertes Mitglied
Ein Hersteller von Billigweckern führt eine rein stichprobenartige Endkontrolle durch, Manufakturen von Luxusuhren dagegen intensive tagelange Tests je Einzelstück. Beides ist ökonomisch für sich betrachtet optimal, die Übertragung auf den jeweils anderen Fall führt in den Ruin des Unternehmens. Es kommt schon darauf an, worauf man hinauswill.
Der Vergleich hinkt. Es geht nicht um Uhren, sondern um ungelegte Eier. Es gibt keine deterministische Quantentheorie. Die Idee beruht auf Wunschdenken, auf dem Irrglauben, dass die zeitabhängige Schrödinger-Gleichung das Verhalten eines "Systems" eindeutig festlegt. Die Suche nach einer deterministischen Theorie (d.h. die Lösung des Messproblems) ist so aussichtsreich wie die Konstruktion eines perpetuum mobile.
 

TomS

Registriertes Mitglied
Der Vergleich hinkt. Es geht nicht um Uhren, sondern um ungelegte Eier. Es gibt keine deterministische Quantentheorie. Die Idee beruht auf Wunschdenken, auf dem Irrglauben, dass die zeitabhängige Schrödinger-Gleichung das Verhalten eines "Systems" eindeutig festlegt. Die Suche nach einer deterministischen Theorie (d.h. die Lösung des Messproblems) ist so aussichtsreich wie die Konstruktion eines perpetuum mobile.
Ich würde ja gerne mit diskutieren, wenn du deine Meinung – "es gibt keine deterministische Quantentheorie … Wunschdenken … Irrglaube …" – begründen würdest, erklären würdest, warum du dir da so sicher bist. Natürlich ist es möglich, dass andere sich irren und du recht hast; du bist ja auch nicht alleine mit deiner Meinung. Aber könntest nicht auch du dich irren?

Oben haben wir festgestellt, dass wir uns über die Verwendung des Begriffs "Realität" uneins sind. Auch da keine weitere Erklärung.
 

Prokyon

Registriertes Mitglied
erklären würdest, warum du dir da so sicher bist
Solltest du nicht erklären, warum du vom Determinismus überzeugt bist? Warum du meinst, dass in dieser Hinsicht die Quantenmechanik sich von der klassischen Mechanik nicht unterscheidet? Bis jetzt ist es noch niemandem gelungen, einen radioaktiven Zerfall vorherzusagen.
 

TomS

Registriertes Mitglied
Solltest du nicht erklären, warum du vom Determinismus überzeugt bist?
Ich bin nicht davon überzeugt, ich sehe es als möglich an.
  • Ich sehe, dass die MWI Argumente hat, wie Zufall ins Spiel kommen kann: https://arxiv.org/abs/1405.7577
  • Und ich sehe, dass die TI Argumente hat, wie Zufall – vergleichbar dem klassischen Chaos – aufgrund unvollständig bekannter Anfangsbedingungen plus offener Systeme mit effektiver nicht-linearer Dynamik resultiert.
Insbs. letzteres überzeugt mich soweit, dass es lohnt, darüber nachzudenken.

Bis jetzt ist es noch niemandem gelungen, einen radioaktiven Zerfall vorherzusagen.
Das wird bei den beiden genannten Ansätzen auch so bleiben.
 

Prokyon

Registriertes Mitglied
Ich bin nicht davon überzeugt, ich sehe es als möglich an.
Offenbar nicht nur als möglich, sondern als wahrscheinlicher als die Alternativen. Aber du magst ja keine Wahrscheinlichkeiten ... ;)
Insbs. letzteres überzeugt mich soweit, dass es lohnt, darüber nachzudenken.
Mich überzeugt es nicht. Unsere Weltbilder sind wohl zu verschieden, als dass der eine den anderen überzeugen könnte. Ich wäre bereit, dem Zufall eine Hauptrolle in der Physik zuzubilligen, statt ihn in die Ecke des ewig Unbekannten in den Anfangsbedingungen des Universums zu verbannen.
 

Prokyon

Registriertes Mitglied
Nicht mal, um sich damit näher zu befassen?
Ich habe mir schon vor einiger Zeit einige von Neumaiers Arbeiten runtergeladen und habe kein Problem mit dem mathematischen Apparat. Aber ich sehe darin eben weniger eine Interpretation als eine modernisierte Darstellung des Formalismus. Eine Interpretation sollte nach meiner Meinung aus der Sackgasse herausführen, die Messung in den Mittelpunkt zu stellen (siehe "Against Measurement" von John Bell). Warum sollte in einer mikroskopischen Theorie ein detector response principle eine Schlüsselrolle spielen?

Ich verstehe dein Weltbild noch nicht.
Bzgl. des Zufalls ist es mir klar, aber bzgl. deines Realitätsbegriffs nicht – s.o.
Viel klarer als ich es oben getan habe kann ich es nicht darstellen. Deine Einwürfe sind für mich völlig unverständlich.
 

antaris

Registriertes Mitglied
Warum sollte in einer mikroskopischen Theorie ein detector response principle eine Schlüsselrolle spielen?
Weil der Experimentalphysiker ausschließlich mittels Detektoren Physik betreibt? Neumaier meinte seine TI beschreibt Entitäten die messbar sind. Wenn er ein Prinzip aufstellt, welches die natürlichen Wechselwirkungen beschreibt, dann ist es unmöglich dieses zu überprüfen, da dazu irgendwas gemessen werden müsste. Die Wechselwirkungen in der QM sind dazu nicht so einfach beobachtbar wie in der klassichen Physik und werden demnach mit makroskopische Detektoren gemessen. Neumaier beschreibt mit seinem DRP genau das.
 

TomS

Registriertes Mitglied
Eine Interpretation sollte nach meiner Meinung aus der Sackgasse herausführen, die Messung in den Mittelpunkt zu stellen (siehe "Against Measurement" von John Bell). Warum sollte in einer mikroskopischen Theorie ein detector response principle eine Schlüsselrolle spielen?
Ja, das ist ein berechtigter Einwand. Andererseits meine ich, wenn Neumaier in Summe recht hat, wird das DRP obsolet.

Viel klarer als ich es oben getan habe kann ich es nicht darstellen. Deine Einwürfe sind für mich völlig unverständlich.
Mir ist einfach unklar, dass du einerseits sagst, du verträtest ein realistisches Weltbild, andererseits in dem einen diskutieren Beitrag aber alles beiseite schiebst, was nicht phänomenologisch bzw. nicht relevant für Messungen ist.

Natürlich brauche ich für die Beschreibung von ausschließlich Präparation P und Messung M keine Entität, die von P nach M propagiert. Aber eine realistische Position umfasst eben mehr, insbs. eine Erklärung für Korrelationen und Kausalität zwischen P und M.

Und da verstehe ich nicht, wo du dich einsortierst.

Der Empirismus behauptet, dass Wissen allein aus der Erfahrung, insbesondere der sinnlichen Erfahrung, abgeleitet wird. Der Realismus hingegen postuliert, dass die von wissenschaftlichen Theorien angenommenen Entitäten und Strukturen unabhängig von unserem Wissen über sie existieren.
(nach Cartwright)

Empirist zu sein bedeutet, zu glauben, dass die beobachtbaren Phänomene die einzige Realität sind, die wir kennen können. Ein Realist hingegen glaubt, dass das Ziel der Wissenschaft darin besteht, uns eine buchstäblich wahre Geschichte darüber zu erzählen, wie die Welt ist, einschließlich ihrer unbeobachtbaren Aspekte.
(nach van Fraasen)

Wo sortierst du dich denn da ein?
 

TomS

Registriertes Mitglied
Warum sollte in einer mikroskopischen Theorie ein detector response principle eine Schlüsselrolle spielen?
Weil der Experimentalphysiker ausschließlich mittels Detektoren Physik betreibt? Neumaier meinte seine TI beschreibt Entitäten die messbar sind. Wenn er ein Prinzip aufstellt, welches die natürlichen Wechselwirkungen beschreibt, dann ist es unmöglich dieses zu überprüfen, da dazu irgendwas gemessen werden müsste. Die Wechselwirkungen in der QM sind dazu nicht so einfach beobachtbar wie in der klassichen Physik und werden demnach mit makroskopische Detektoren gemessen. Neumaier beschreibt mit seinem DRP genau das.
Und genau deshalb trifft deine Antwort nicht den Einwand von @Prokyon

Natürlich soll das DRP keine Schlüsselrolle für die mikroskopische Theorie spielen, sondern für die Verknüpfung der mikroskopische Theorie mit der makroskopischen Beobachtung.

Das hat Bohr einerseits insofern explizit abgelehnt, als er meinte, eine Messung könne ausschließlich klassisch und nicht quantenmechanisch betrachtet werden, was dann zu Scheindiskussionen um Schrödingers die Katzen, Wigners Freunde, Alice und Bob, Verwechslung von Realität und Information über Realität geführt hat. Deswegen ist das DRP als Leitlinie wertvoll.

Aber letztlich erwartet man, dass man die makroskopische Welt vollständig aus der mikroskopischen verstehen kann, und damit sollte das DRP obsolet werden.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Aber letztlich erwartet man, dass man die makroskopische Welt vollständig aus der mikroskopischen verstehen kann, und damit sollte das DRP obsolet werden.
Wie man [die makroskopische Welt vollständig aus der mikroskopischen verstehen kann], wird mittels den Dichtematrizen und dessen Ausspuren beschrieben. Beim DRP geht es um die Messung bzw. den Messprozess und wie dabei die Wahrscheinlichkeiten entstehen. Die Basis davon ist die bekannte Quantentomografie, eben mit Dichtematrizen, welche Neumaier als Ausgangspunkt für den DRP nutzt.


https://arxiv.org/pdf/2110.05294
A.Neumaier schrieb:
Starting from a new basic principle inspired by quantum tomography rather
than from Born’s rule, this paper gives an elementary and self-contained deductive approach
to quantum mechanics and quantum measurement. A suggestive notion for what constitutes
a quantum detector, and for the behavior of its responses leads to a logically impeccable
definition of measurement. Applications to measurement schemes for optical states, position
measurements, and particle tracks demonstrate that this definition is applicable to complex
realistic experiments without any idealization
 

TomS

Registriertes Mitglied
Wie man [die makroskopische Welt vollständig aus der mikroskopischen verstehen kann], wird mittels den Dichtematrizen und dessen Ausspuren beschrieben.
Das ist m.E. zu einfach gedacht.

Einfach nur Ausspuren liefert Dekohärenz und Zweige, also kein eindeutiges Messergebnis.
 
Oben