Die Thermal Interpretation der Quantenmechanik

Jakito

Registriertes Mitglied
Ich denke, wir sind uns einig, dass diese passive Rolle des Beobachters Unsinn ist. Der Beobachter entspricht einem quantenmechanisches Subsystem und ist als solches Teil des Ganzen.
Das freut mich sehr. Wirklich.

Das hat nicht nur irgendwie eine Ontologie zum Ziel, es ist bereits diese Ontologie eines einzelnen Quantensystems – in einem Absatz.
Dieses "in einem Absatz" ist halt, was soll ich sagen? Das von mir hier untersuchte/diskutierte Beispiel kommt ja nicht aus dem Nichts, d.h. es ist ja nicht willkürlich von mir erfunden worden. Auch in Quantum tomography explains quantum mechanics wird noch "[162] S.G. Rabinovich, Measurement Errors and Uncertainties: Theory and practice. Springer, New York 2005. [32, 67, 72, 73, 91, 94]" referenziert:
Semyon Rabinovich 2005 ([162 p.11]) schrieb:
We shall study a simple measurement problem – the measurement of the diameter of a disk. [...] It may happen that the difference of the measurements in different directions exceeds the permissible error of a given measurement. In this situation, we must state that within the required measurement accuracy, our disk does not have a unique diameter, as does a circle. Therefore, no concrete number can be taken, with prescribed accuracy, as an estimate of the true value of the measurable quantity.
Gut, meine "Form der Erde" war jetzt vielleicht unabsichtlich etwas konkreter als der Durchmesser dieser unspezifischen Scheibe. (Ich hatte einfach nicht mehr genau nachgeschaut, in meinem Gedächtnis war ein Beispiel mit einem Radius hängengeblieben, und eines über die Ausdehnung einer Stadt.) Im Prinzip ist es aber trotzdem genau eines der Beispiele, die Neumaier auch selbst angegeben hatte, um zu verdeutlichen, wie seine Interpretation mit Unbestimmtheit oder Unschärfe umgeht.
Und wenn man sich konkrete Beispiele anschaut, dann sieht man halt, dass bei Neumaiers Interpretation nicht alle q-expectations den gleichen Status haben. Die sind nicht einfach strukturlos. Ausserdem, wenn die q-expectations wirklich strukturlos wären, dann wäre die Beschreibung (und damit irgendwie auch die Interpretation) in gewisser Hinsicht doch total äquivalent zu der Wahrscheinlichkeitsverteilung, die auch andere Interpretationen der Wahrscheinlichkeitstheorie hernehmen.

Aber falls die Unklarheiten zu der "Ontologie der q-expectations" jetzt erstmal soweit geklärt sind, dass zumindest die Ursachen der Meinungsverschiedenheiten klar wurden, dann können wir diese Diskussion erstmal wieder ruhen lassen.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Das freut mich sehr. Wirklich.
(y)

Das von mir hier untersuchte/diskutierte Beispiel kommt ja nicht aus dem Nichts, d.h. es ist ja nicht willkürlich von mir erfunden worden.
Kannst du mir erklären, warum es dir so wichtig ist, mit mehreren Systemen zu beginnen? Hat das einen speziellen Grund, oder ist das einfach deswegen so, weil man in der QM gerne mit Wahrscheinlichkeiten startet, ohne über eine Alternative nachzudenken?

Und wenn man sich konkrete Beispiele anschaut, dann sieht man halt, dass bei Neumaiers Interpretation nicht alle q-expectations den gleichen Status haben. Die sind nicht einfach strukturlos. Ausserdem, wenn die q-expectations wirklich strukturlos wären ...
Kannst du nochmal erklären, was du mit "Struktur" bzw. "strukturlos" meinst?
 

Jakito

Registriertes Mitglied
Kannst du mir erklären, warum es dir so wichtig ist, mit mehreren Systemen zu beginnen? Hat das einen speziellen Grund, oder ist das einfach deswegen so, weil man in der QM gerne mit Wahrscheinlichkeiten startet, ohne über eine Alternative nachzudenken?
Ich beginne gar nicht mit mehreren Systemen. Die von der TI verwendete Interpretation ist ja gerade auch auf ein einzelnes System anwendbar. Die Wahrscheinlichkeiten werden dann über "q-expectation" und zugehöriger Varianz als Unbestimmtheit oder Unschärfe interpretiert.

Deine Frage ist also, wieso man bei der QM nicht um die Interpretation von Wahrscheinlichkeit/Unbestimmtheit/Unschärfe drumherum kommt. Der Zustandsraum der QM hat halt die Struktur einer verallgemeinerten Wahrscheinlichkeits-Theorie.

Kannst du nochmal erklären, was du mit "Struktur" bzw. "strukturlos" meinst?
Wenn ich z.B. bei einer partiellen Differentialgleichung einen schwachen Lösungsbegriff über Integration mit Test-Funktionen einführe, dann haben alle Test-Funktionen zunächst mal den gleichen Status, und sind somit strukturlos. Wenn ich aber die partielle Differentialgleichung diskretisiere, und dann nur noch Gleichheit für ausgewählte Testfunktionen fordere, die in geeigneter Weise zu dem Funktionenraum passen, der mir für die Approximation der Lösung zur Verfügung steht, dann habe ich quasi eine Struktur auf dem Raum der Test-Funktionen eingeführt.

Mit einer Struktur meine ich also so eine Art von Entscheidung: Ich habe mich entschieden, die Approximationsgüte (meiner Näherungslösung) in einer ganz bestimmten Art zu messen.
 

antaris

Registriertes Mitglied
Bei den Navier-Stokes Gleichungen auf einem endlichen Rechengebiet mit "offenen" Randbedingungen kommt halt laufend "von draußen" neue Flüssigkeit rein, und alte Flüssigkeit fließt ab. Und der Zustand der reinkommenden Flüssigkeit beeinflusst halt auch "die Zukunft" im endlichen Rechengebiet.

Sorry aber ich muss nachfragen...

Gilt das analog auch, wenn für ein Gebiet R die Umgebung E ausgespurt wird (
svg.image
)? Wird der Einfluss von E auf R effektiv über den Rand von R vermittelt und lassen sich die dabei entstehenden Korrrelationen fassen, wie z.B. über die (quantum) Mutual Information zwischen einem Randring von R und dem Inneren?

Sozusagen von "außen nach innen": Umgebung → Rand → Innen
 

Jakito

Registriertes Mitglied
Sorry aber ich muss nachfragen...

Gilt das analog auch, wenn für ein Gebiet R die Umgebung E ausgespurt wird (
svg.image
)? Wird der Einfluss von E auf R effektiv über den Rand von R vermittelt und lassen sich die dabei entstehenden Korrrelationen fassen, wie z.B. über die (quantum) Mutual Information zwischen einem Randring von R und dem Inneren?
Bei Mutual Information, aber zunächst ganz ohne quantum, ist es tatsächlich "oft" so, dass sich der Informationsfluss tatsächlich durch Oberflächen hindurch verfolgen lässt. Mit "oft" meine ich hier, dass die Oberfläche u.A. richtig relativ zum Informationsfluss liegen muss. Wenn man sich das in 2D anschaut, sind die relevanten "Oberflächen" 1D. Die Mutual Information sind Korrelationen zwischen Paaren von Punken auf der "Oberfläche", also 2D. Und diese 2D Information muss tatsächlich durch die "Oberfläche" durch.
In 3D sind die relevanten Oberflächen dann 2D, und die Mutual Information dann 4D. Und auch diese 4D Information fließt quasi durch die 2D Oberfläche.

Irgendwie ist das komisch, auf der 2D Oberfläche selbst fühlt sich diese 4D Information recht nichtlokal an, aber im 3D Raum fließt die Information trotzdem irgendwie "quasi lokal" durch die Gesammtheit der 2D Oberfläche.

Aber insgesammt hast Du schon recht, von den noch recht anschaulichen partiellen Differentialgleichungen in 2D, 3D, oder 4D ist es auch konzeptionell noch ein ordentlich langer Weg bis zu QM und QFT.
 

antaris

Registriertes Mitglied
Danke!
Bei Mutual Information, aber zunächst ganz ohne quantum, ist es tatsächlich "oft" so, dass sich der Informationsfluss tatsächlich durch Oberflächen hindurch verfolgen lässt. Mit "oft" meine ich hier, dass die Oberfläche u.A. richtig relativ zum Informationsfluss liegen muss.
Weil die (Q)MI über den Schnitt einer Fläche skaliert und die Fläche dem Area-Law folgt?
Die Mutual Information sind Korrelationen zwischen Paaren von Punken auf der "Oberfläche", also 2D. Und diese 2D Information muss tatsächlich durch die "Oberfläche" durch.
Du meinst in 2D muss die Information durch eine Art 1D "Oberflächen-Punkte-Kanal" fließen? Auch da müsste es ein Schnitt durch eine 2D Fläche sein, also die 1D-Linie aus Punkte, die auf den Schnitt liegen? Fließen von MI ist eher irreführend, da die MI nicht fließt?
In 3D sind die relevanten Oberflächen dann 2D, und die Mutual Information dann 4D. Und auch diese 4D Information fließt quasi durch die 2D Oberfläche.

Irgendwie ist das komisch, auf der 2D Oberfläche selbst fühlt sich diese 4D Information recht nichtlokal an, aber im 3D Raum fließt die Information trotzdem irgendwie "quasi lokal" durch die Gesammtheit der 2D Oberfläche.
Je nach Lage der 2D Oberfläche eines 3D-Schnitts, verändert sich die MI auf den Schnitt? Korrelationen "kommen" aus allen Richtungen und über die Lage und "Oberfläche" des Schnitts ist die Richtung und Länge der Korrelation codiert? Die MI fällt mit dem Abstand zweier korrelierter Punkte exponentiell ab und die Informationsausbreitung selbst ist durch die Lieb-Robinson-Dynamik begrenzt?
Aber insgesammt hast Du schon recht, von den noch recht anschaulichen partiellen Differentialgleichungen in 2D, 3D, oder 4D ist es auch konzeptionell noch ein ordentlich langer Weg bis zu QM und QFT.
Ja das ist sicher ein langer Weg, in der Nische allein kaum gangbar aber auch eines der Endziele. Abseits von diesem einen Endziel liegen sicherlich weitere Erkenntnisse am Wegrand.

Da die TI selber unabhängig von einer zugrundeliegenden Struktur formuliert ist, hilft sie nicht wirklich beim eingrenzen der Möglichkeiten. Sie lässt sich auf viele verschiedene Mikrostrukturen anwenden. Ich glaube aber, dass die Kenntnis über die realen (aber abstrahierten) Mikrostrukturen erst eine realistsiche Modellierung von Messungen ermöglicht oder liege ich da falsch?
Ich verstehe deinen Bezug zu "strukturlos" dermaßen, dass die TI ohne zugrundeliegende geordnete Struktur eher die Interpretation ist aber die Struktur ihr dann den richtigen Biss geben kann. Habe ich einen falschen Eindruck?
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Gilt das analog auch, wenn für ein Gebiet R die Umgebung E ausgespurt wird (
svg.image
)? Wird der Einfluss von E auf R effektiv über den Rand von R vermittelt … Sozusagen von "außen nach innen": Umgebung → Rand → Innen
Das kann man zwar so betrachten, aber ist nicht das, was man üblicherweise beim Ausspuren der Umgebung durchführt: die Umgebung nimmt den selben Raumbereich ein, sie befindet sich im selben Gebiet, es gibt keinen Rand zwischen Innen und Umgebung.

Betrachtet man ein Atom oder Ion in einer Falle, so handelt es sich bei der Umgebung typischerweise um andere Restgasatome sowie thermische Photonen. Die befinden sich aber im selben Raumbereich innerhalb der Falle.
 

antaris

Registriertes Mitglied
Das kann man zwar so betrachten, aber ist nicht das, was man üblicherweise beim Ausspuren der Umgebung durchführt: die Umgebung nimmt den selben Raumbereich ein, sie befindet sich im selben Gebiet, es gibt keinen Rand zwischen Innen und Umgebung.
Ah ok, dann gibt es 2 Methoden zum ausspuren. Das war mir so noch nicht klar.
Betrachtet man ein Atom oder Ion in einer Falle, so handelt es sich bei der Umgebung typischerweise um andere Restgasatome sowie thermische Photonen. Die befinden sich aber im selben Raumbereich innerhalb der Falle.
Das ausspuren dient nur dem separieren des Atoms bzw. des Ions, vom in der Falle befindlichen Rest aber das ist dann kein Schnitt, wie von Jakito beschrieben. Letztlich ist der Gedanke für den Schnitt, dass R von E (Rest des Universums) ausgespurt wird. Das klingt so, als könnten beide Methoden kombiniert werden?

Da wir keine Mikrostruktur betrachten, kann der Begriff "Rand" auch (noch) nicht definiert werden.
Interessant finde ich aber, dass man in dem Bezug überhaupt von einer wie auch immer gearteten Umrandung/Begrenzung sprechen kann bzw. diese natürlich auftreten könnte.

Bei einem Messaufbau mit Doppelspalt kann das gesamte Universum als Umgebung des Labors ausgespurt werden. Die Korrelationen werden eher geringfügig oder gar vernachlässigbar sein, da die Länge oder Abstände zwischen den Punkten (Korrelationslängen) im Universum astronomisch sind?
Nun könnte gemäß des "normalen" ausspuren das Labor in seine Bestandteile zerlegt werden, bis hin zum einzelnen Detektorelement, sodass beispielsweise der Photonendetektor selbst eine red. Dichtematrix des Labors ist, die aus einzelnen red. Detektorelement-Dichtematrizen zusammengesetzt ist?
 

TomS

Registriertes Mitglied
Ich beginne gar nicht mit mehreren Systemen.
In der obigen Diskussion hattest du einen Beitrag verlinkt, in dem du schreibst
The" real system could be a class of similarly prepared systems, it could be a system exhibiting stochastic features, or it could also be just some object with complicated features that we want to omit in our idealized model.
Aber wenn das zweitrangig ist, gut 👍

Die von der TI verwendete Interpretation ist ja gerade auch auf ein einzelnes System anwendbar. Die Wahrscheinlichkeiten werden dann über "q-expectation" und zugehöriger Varianz als Unbestimmtheit oder Unschärfe interpretiert.
Für Wahrscheinlichkeiten benötigt man dann tatsächlich mehrere Systeme – real oder gedacht. Ich wüsste nicht, wie man anhand eines einzigen Systems und Experimentes Wahrscheinlichkeiten mathematisch einführen und empirisch testen sollte.

Das hat allerdings nichts mit der Ontologie für ein einzelnes System zu tun. Vermutlich bleibt die Betrachtung von Wahrscheinlichkeiten zur Entstehung von Universen ähnlich dem unsrigen immer ein Wolkenkuckucksheim, aber unser Universum ist tatsächlich real, und deswegen sollten realistische Aussagen über dieses eine Universum möglich sein, ohne dass man dazu ein Ensemble von Universen bemühen muss.

Ähnlich verhält es sich mit ganzgewöhnlichen Experimenten: bei geringer Intensität kann man einzelne Photonen betrachte; bei geringer Luminosität sind Kollisionen und deren Detektion an Beschleunigern räumlich und zeitlich sauber trennbar.

Deine Frage ist also, wieso man bei der QM nicht um die Interpretation von Wahrscheinlichkeit/Unbestimmtheit/Unschärfe drumherum kommt. Der Zustandsraum der QM hat halt die Struktur einer verallgemeinerten Wahrscheinlichkeits-Theorie.
Das ist zutreffend, jedoch als Argument irrelevant. Ich kann auch klassische Elektrodynamik im Hilbertraum formulieren.

Ich denke, ein entscheidender Punkt ist die saubere Unterscheidung zweier sehr ähnlich gelagerter Szenarien, was du wohl selbst schon durchdacht hast:
  1. die über einen kurzen Zeitraum betrachtete Streuung eines Strahls aus einer stationären Quelle an einem Objekt und die daraus resultierende Intensitätsverteilung I1 in einem Detektorarray;
  2. die über einen sehr langen Zeitraum betrachtete Streuung individualisierbarer "Teilchen" aus einer nicht-stationären Quelle an dem Objekt und die daraus resultierende Intensitätsverteilung I2.
Auch wenn I1 = I2 gilt, handelt es sich um zwei konzeptionell völlig verschiedene Paar Schuhe. Mir ist erst durch die TI klargeworden, dass die übliche Darstellung der QM diesen Unterschied das völlig ignoriert.

Wenn die TI Recht hat, d.h. wenn die QM fundamental unitär und deterministisch ist, zwingt einen nicht die Ontologie sondern die experimentelle Praxis zur Betrachtung von Wahrscheinlichkeiten – allerdings konzeptionell nicht anders als in der klassischen Physik.

Der entscheidende Punkt ist, dass dies keine metaphysische sondern eine rein mathematische Frage ist: kann man realistische und zugleich lösbare mathematische Modelle für (2) d.h. für deterministische Einzelereignisse finden?

Ja oder nein? Man kann das sehr konkret prüfen.

Wenn ich z.B. bei einer partiellen Differentialgleichung einen schwachen Lösungsbegriff über Integration mit Test-Funktionen einführe, dann haben alle Test-Funktionen zunächst mal den gleichen Status, und sind somit strukturlos. Wenn ich aber die partielle Differentialgleichung diskretisiere, und dann nur noch Gleichheit für ausgewählte Testfunktionen fordere, die in geeigneter Weise zu dem Funktionenraum passen, der mir für die Approximation der Lösung zur Verfügung steht, dann habe ich quasi eine Struktur auf dem Raum der Test-Funktionen eingeführt.

Mit einer Struktur meine ich also so eine Art von Entscheidung: Ich habe mich entschieden, die Approximationsgüte (meiner Näherungslösung) in einer ganz bestimmten Art zu messen.
Danke.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Ah ok, dann gibt es 2 Methoden zum ausspuren. Das war mir so noch nicht klar.
Es gibt keine zwei Methoden zum Ausspuren.

https://en.m.wikipedia.org/wiki/Partial_trace

Im Abschnitt Partial trace as a quantum operation wird eine basisfreie Definition präsentiert, die in der QM allgemein gültig ist und alle Fälle umfasst (nicht mehr in der QFT)

Bei einem Messaufbau mit Doppelspalt kann das gesamte Universum als Umgebung des Labors ausgespurt werden.
Ja.
Nun könnte gemäß des "normalen" ausspuren das Labor in seine Bestandteile zerlegt werden, bis hin zum einzelnen Detektorelement, sodass beispielsweise der Photonendetektor selbst eine red. Dichtematrix des Labors ist …
Ja.

Wobei die Bestandteile Luft, thermische Photonen, Schreibtische und Kaffeetassen wären.
 

antaris

Registriertes Mitglied
Es gibt keine zwei Methoden zum Ausspuren.

https://en.m.wikipedia.org/wiki/Partial_trace

Im Abschnitt Partial trace as a quantum operation wird eine basisfreie Definition präsentiert, die in der QM allgemein gültig ist und alle Fälle umfasst (nicht mehr in der QFT)
Also gleiche Methode aber zum einen werden Freiheitsgrade (z.B. thermische Photonen) und zum anderen räumliche Partitionen ausgespurt?

Wobei die Bestandteile Luft, thermische Photonen, Schreibtische und Kaffeetassen wären.
Meine Frage zielt eher darauf ab, wie der Detektor aufzufassen ist. Vielleicht ist das Bild in meinen Kopf zu naiv gedacht. Wenn ich nur den Detektor betrachte, dann ist dieser nicht die Umgebung seiner Detektorelemente (der einzelnen Pixel) oder könnte man das so auffassen?
 

TomS

Registriertes Mitglied
Also gleiche Methode aber zum einen werden Freiheitsgrade (z.B. thermische Photonen) und zum anderen räumliche Partitionen ausgespurt?
Im Prinzip ja, in der Praxis nein.

Es ist dieselbe formale Methode, jedoch wird der Hilbertraum unterschiedlich zerlegt, unterschiedliche Basen verwendet, daher auch verschiedene Integrale etc.

Meine Frage zielt eher darauf ab, wie der Detektor aufzufassen ist. Vielleicht ist das Bild in meinen Kopf zu naiv gedacht. Wenn ich nur den Detektor betrachte, dann ist dieser nicht die Umgebung seiner Detektorelemente (der einzelnen Pixel) oder könnte man das so auffassen?
Verstehe ich nicht.
 

antaris

Registriertes Mitglied
Verstehe ich nicht.
Ich meine, ob ein einzelnes Detektorelement als "Minidetektor" des gesamten Detektorarray aufgefasst werden kann? Letztlich wäre eine flächige Anordnung einzelner Photodioden ein Detektorarray? Die "direkte Umgebung" jedes einzelnen Detektorelements, sind dann die restlichen Detektorelemente bzw. der Rest des Detektorarrays? Wie gesagt, vielleicht ist meine Sicht zu naiv?!
 

TomS

Registriertes Mitglied
Ich meine, ob ein einzelnes Detektorelement als "Minidetektor" des gesamten Detektorarray aufgefasst werden kann? Letztlich wäre eine flächige Anordnung einzelner Photodioden ein Detektorarray? Die "direkte Umgebung" jedes einzelnen Detektorelements, sind dann die restlichen Detektorelemente bzw. der Rest des Detektorarrays? Wie gesagt, vielleicht ist meine Sicht zu naiv?!
Man könnte das mathematisch durchexerzieren, aber man verliert dadurch evtl. die wirklich relevante Information, weil man zu viele oder die falschen Freiheitsgrade ausspurt. Was auszuspuren ist, ist eine Konsequenz der jeweiligen physikalischen Fragestellungen; man spurt also die Umgebungsfreiheitsgrade deswegen aus, weil erstens aus ihnen die relevanten Detektorinformation nicht gut extrahiert werden können, und weil sie zweitens die Berechnungen verkomplizieren.

Betrachte ich nun aber ausschließlich das Detektorelement 3 und spure die Detektorelemente 1, 2, 4, 5 ... N aus, so erhalte ich bei sehr großem N sehr häufig die Information "keine Detektion". Das ist aber zu wenig, denn ich hätte gerne die Information "Detektion im Element n"; dazu muss ich aber alle Detektorelement behalten.
 

antaris

Registriertes Mitglied
Man könnte das mathematisch durchexerzieren, aber man verliert dadurch evtl. die wirklich relevante Information, weil man zu viele oder die falschen Freiheitsgrade ausspurt. Was auszuspuren ist, ist eine Konsequenz der jeweiligen physikalischen Fragestellungen; man spurt also die Umgebungsfreiheitsgrade deswegen aus, weil erstens aus ihnen die relevanten Detektorinformation nicht gut extrahiert werden können, und weil sie zweitens die Berechnungen verkomplizieren.
Ja klar. Wildes ausspuren macht keinen Sinn und nicht jedes Detail ist wichtig.

Betrachte ich nun aber ausschließlich das Detektorelement 3 und spure die Detektorelemente 1, 2, 4, 5 ... N aus, so erhalte ich bei sehr großem N sehr häufig die Information "keine Detektion". Das ist aber zu wenig, denn ich hätte gerne die Information "Detektion im Element n"; dazu muss ich aber alle Detektorelement behalten.
Ohne Frage, für die Messung selber müssen alle Elemente ausgewertet werden. Ich bin aber der Meinung gelesen zu haben, dass die Detektorantwort (DRP) aus den einzelnen Detektorelementen ermittelt wird bzw. daraus dann der makroskopische Zeigerzustand folgt. Ich müsste schauen, wo genau ich das in Prof. Neumaier's Arbeiten gelesen habe (schon eine Weile her). Mir geht es eher darum das prinzipielle zu verstehen. Ich stelle mir halt vor, wie die Detektorelemente im Array miteinander korrelieren und wie bzw. ob diese Korrelationen das Messergebnis beeinflussen.

Wo genau liegt eigentlich das wesentliche Problem einer realistischen Modellierung einer Messung? Liegt es direkt im Detektor, in dem das lokalisierte Ereignis dann stattfindet? Es scheint mir so, als wären Labor und alles was sonst noch darin enthalten ist eher vernachlässigbare Störfaktoren, wenn schon die Voraussetzungen wie abschirmen/Vakuum/niedrige Temperaturen im Messaufbau berücksichtigt worden sind. Ich habe aber noch nicht wirklich verstanden, wie genau aus dem DRP die Bornsche Regel folgt.

Letztlich würde ich auch gerne verstehen, wie die Geometrie bzw. die Struktur der Umgebung Einfluss nehmen kann. Prof. Neumaier meint, dass diese für die TI unwichtig ist, da diese eben unabhängig von einer Mikrostruktur formuliert ist. Ist aber eine mögliche Mikrostruktur nicht dann doch wichtig, um den Detektor zu modellieren?

Die „Komplexität des Universums“ steckt formal in den Daten, auf die (4) wirkt:


svg.image
Das hatte Prof. Neumaier mit ja beantwortet. Ist in der Komplexität des Universums nun auch die Geometrie enthalten und wird diese ebenso mit der Umgebung ausgespurt? Stecken wirklich alle Informationen des Universums in dessen Dichtematrix?
Wenn z.B. in der o.g. Falle die störenden Freiheitsgrade ausgespurt werden, dann weiß man ja, was da ausgespurt wurde und eine Kenntnis über die reale Mikrostruktur von z.B. thermische Photonen, ist nicht notwendig. Wird aber eine Entität/Geometrie/Mikrostruktur mit ausgespurt wird, von der wir keine Kenntnis haben, so denke ich mir, dass dieses "Unwissen" über die Mikrostruktur einen "verschmierenden" Effekt haben müsste.
 

Bernhard

Registriertes Mitglied
Ist aber eine mögliche Mikrostruktur nicht dann doch wichtig, um den Detektor zu modellieren?
Die Planck-Skala ist im Rahmen dieses Themas auch aus meiner Sicht nicht wirklich wichtig. Du hast dazu doch schon etliche Themen aufgemacht, wo das dann bei Bedarf diskutiert werden kann?
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Ich meine, ob ein einzelnes Detektorelement als "Minidetektor" des gesamten Detektorarray aufgefasst werden kann? Letztlich wäre eine flächige Anordnung einzelner Photodioden ein Detektorarray? Die "direkte Umgebung" jedes einzelnen Detektorelements, sind dann die restlichen Detektorelemente bzw. der Rest des Detektorarrays? Wie gesagt, vielleicht ist meine Sicht zu naiv?!
Es gibt bei Bildpixeln auch das Problem eines möglichen Übersprechens . Bei den Digitalkameras hat man das aber technisch gut im Griff oder es ist zu vernachlässigen.
 

TomS

Registriertes Mitglied
Ich stelle mir halt vor, wie die Detektorelemente im Array miteinander korrelieren und wie bzw. ob diese Korrelationen das Messergebnis beeinflussen.
Dann musst du alle behalten und darfst nicht alle bis auf eines ausspuren

Wo genau liegt eigentlich das wesentliche Problem einer realistischen Modellierung einer Messung?
Es ist die mathematische Modellierung. Man benötigt einer Quelle für einzelne Photonen oder zumindest einzelne Photonen alleine, nicht nur eine ebene Welle oder ähnliches. Man benötigt Detektorelemente ... Das hinzuschreiben ist schon ziemlich hoffnungslos, die Zeitenwicklung mit Wechselwirkung zu lösen erst recht.

Liegt es direkt im Detektor, in dem das lokalisierte Ereignis dann stattfindet?
Zumindest benötigt man Modelle, in denen ein lokalisiertes Photon verwendet wirds, nicht ebene Wellen.

Ich habe aber noch nicht wirklich verstanden, wie genau aus dem DRP die Bornsche Regel folgt.
Das ist nach meinem Verständnis eine ganz andere Frage.
 

antaris

Registriertes Mitglied
Die Planck-Skala ist im Rahmen dieses Themas auch aus meiner Sicht nicht wirklich wichtig. Du hast dazu doch schon etliche Themen aufgemacht, wo das dann bei Bedarf diskutiert werden kann?
Ich habe allgemein von unbekannte Mikrostrukturen geschrieben und nicht von der Planck-Skala. Die Fragestellung ist nicht für die TI relevant, da sie als Interpretation auf gesunde Beine steht. Offen ist aber die richtige Modellierung der Detektoren, denn das ist m.E. eine andere Fragestellung, als rein zum Formalismus der TI.

Es gibt bei Bildpixeln auch das Problem eines möglichen Übersprechens . Bei den Digitalkameras hat man das aber technisch gut im Griff oder es ist zu vernachlässigen.
Es geht nicht um die Aufnahme von Bildern oder ganzer Interferenzmuster, sondern wie genau aus einem einzelnen mikroskopischen Quantensignal, über die Skalen des Detektors, ein makroskopischer/klassischer Zeigerzustand entsteht. Es geht mir hier also um die Mikrostruktur des Detektors (und nichts anderes), zumindest wenn der Wurm in der Modellierung des Detektors steckt und wenn die Umgebung fast vernachlässigbar ist (wenn nicht, dann wird es noch komplizierter).
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Dann musst du alle behalten und darfst nicht alle bis auf eines ausspuren
Ja das war nur eine prinzipielle Frage. Man kann auch mit einem Element messen aber um festzustellen wo genau auf einer Fläche das einzelne Ereignis stattfindet, wird natürlich nicht nur ein Element benötigt.

Man benötigt einer Quelle für einzelne Photonen oder zumindest einzelne Photonen alleine, nicht nur eine ebene Welle oder ähnliches.
Das wird mit einem Atom gemacht, welches in seinen Grundzustand zurückfällt und somit ein thermisches Photon emittiert?
Man benötigt Detektorelemente ... Das hinzuschreiben ist schon ziemlich hoffnungslos, die Zeitenwicklung mit Wechselwirkung zu lösen erst recht
Genau das meinte ich ja. Man startet mit einem Element und setzt daraus den Detektor zusammen (nur ich meinte zusätzlich, ob der gesamte Detektor dann gleichzeitig eine Umgebung der darin enthaltenen Elemente ist -> nur informativ). Die Problematik steckt demnach grob in der Vielteilchendynamik + der Nichtlinearität + der Irreversibilität + dem Coarse-Graining des Detektors von Mikro- nach Makrozustand?
Das ist nach meinem Verständnis eine ganz andere Frage.
Laut Prof. Neumaier folgt genau aus einem einzelnen Photon die Bornsche Regel und die Wahrscheinlichkeit eines Klicks pro Pixel wird über die einzelnen Pixel integriert. Bei einem Photon ist das die Feldintensität, welche den Klick auslöst und diese ist über die Bornsche Regel im em-Feld vor der Detektion verteilt. In dieser Sicht scheint der Detektor nicht so wichtig zu sein, da ja vor der Detektion schon über die Wahrscheinlichkeit "festgelegt" wird, wo genau die größte Feldintensität sich "befindet" -> Poisson-Prozess.


Kurz durch die AI zusammengefasst:
Neumaiers DRP postuliert: Klickraten pₖ sind linear in ρ → es existiert eine POVM Pₖ mit pk=Tr(ρPₖ). In der Photodetektion antworten Pixel lokal auf die Feldintensität/Energieflussdichte (Poisson-Rate ∝ Intensität). Für Ein-Photon-Zustände ist die lokale Rate ∝ ∣ψ∣^2; integriert über ein Pixel Aₖ ergibt das \propto \int_{Aₖ}|\psi|^2, also Born-Verteilung – exakt die obige Spurform mit Pₖ. (Die TI betrachtet ⟨A⟩ als reale, messbare „Zeiger“-Größen und lagert das „Messproblem“ in statistische Mechanik aus.)


Da Jakito so auf die Wahrscheinlichkeiten pocht, gehe ich davon aus, dass die Aussage der AI "TI lagert das „Messproblem“ in statistische Mechanik aus" korrekt ist? Es geht also rein vom Kollaps-Postulat weg, hin zu einer Wahrscheinlichkeitsinterpretation?
 
Oben