Das Schicksal von Schrödingers Katze

Jakito

Registriertes Mitglied
Ein Photon "hat" eine Polarisation, die man manchmal genau vorhersagen kann, aber in den Aspect et al. Experimenten ist diese Eigenschaft völlig unbestimmt.
Das ist ja nicht schlimm, da ist die reduzierte Dichtematrix der Polarisation halt die Identität, und enthält für ein einzelnes Photon eben keine großartigen Informationen. Spannender ist da das (Teil-)"System", was eine Menge ähnlich präparierter Elektronen beschreibt: Da ist jetzt meist echte Information vorhanden, und der Zustand dem man diesem Teilsystem in der Theorie zuweisst kann meist doch recht schnell widerlegt werden, bzw. er muss von dieser Art sein, falls die TI wirklich leisten kann, was sie behauptet.
So, nachdem ich TomS seine Antworten durchgelesen habe, ist mir klar geworden, wie 'das (Teil-)"System", was eine Menge ähnlich präparierter Elektronen beschreibt' in der TI mathematisch abgebildet wird: "eine Menge" ist hier als "eine endliche Menge" (mit n Elementen) zu verstehen, und "ähnlich präparierter ..." impliziert, dass wir hier n unabhängige (Teil-)"Systeme" annehmen dürfen. Das bildet man durch ein n-faches Tensorprodukt ab. Und auf diesem n-fachen Tensorprodukt gibt es nun tatsächlich q-Erwartungswerte und q-Korrelationen, die sehr eindeutige Konsequenzen haben (wenn n hinreichend groß ist), und damit "meine" Forderung "kann meist doch recht schnell widerlegt werden" schön erfüllen.

Übrigens gehört auch das Wort "System" zu den Begriffen, die Bell aus den Grundlagen der Quantentheorie verbannen wollte.
Oh ja, das Wort "System" kann eine böse Falle sein:
Und wie mir jetzt klar geworden ist, bin ich vermutlich noch viel böser in die Falle getappt. Bei meinem Einwurf "(Edit: Oh no, talking of "the" real system might be a mistake, since probabilistic models are also used to describe a class of similarly prepared systems.)" von 1. August 2021 wird ja gar nicht klar zwischen endlichen Mengen und unendlichen Klassen unterschieden. Wobei, eigentlich scheint es schon klar um unendliche Klassen zu gehen. Aber wird dann der Begriff des "Systems" nicht genau so unklar, wie Bell ihn angeprangert hat?
 

Jakito

Registriertes Mitglied
Ich halte dieses Herumreiten auf den technischen Details für das größte Problem der Darstellung der TI.

Die Ontologie der ART kann ich mittels pseudo-Riemannscher Mannigfaltigkeit (M, [g]), mit [g] als Äquivalenzklasse von Metriken g unter Diffeomorphismen zusammenfassen.
Das ist vermutlich schlicht eine Konsequenz davon, dass aktuell die meisten Befürworter der TI Mathematiker sind. Die Denkweisen von Mathematikern und Physikern sind oft schon recht unterschiedlich. Ich denke z.B. an meine allererste Antwort auf math.SE: Obwohl ich damals noch nichts über Kategorientheorie oder Garben (Sheaf) wusste, schlug ich genau diese Art von Konstruktion vor, weil sie weniger implizite Annahmen hat, sich besser verallgemeinert, und sich irgendwie "natürlicher" anfühlt (für einen Mathematiker).
 

Prokyon

Registriertes Mitglied
Uff, immer diese Probleme mit Photonen: Es sind halt keine Teilchen, egal wie man es dreht und wendet. Aber andere (Quasi-)Teilchen erlangen schon einen ganz ordentlichen Grad an Realität, insbesondere wenn sie energiereich/nicht-thermisch sind.
Es geht doch um eine prinzipielle Frage. Die sollte doch nicht abhängig von der Energie sein, oder? Ich möchte keineswegs den Begriff des Photons aus der Welt schaffen. Ich finde ihn durchaus nützlich. Der Photon-Propagator ist schließlich auch ein wesentlicher Bestandteil der QED. Aber was an einem Photon ist real? Mir geht es darum, den Begriff von irreführenden Konnotationen zu befreien, wie sie beispielsweise DrChinese in physicsforums zu schaffen machen. Übrigens ist auch der Äther nicht aus der Physik verschwunden: er wurde durch etwas symmetrischeres ersetzt, das wir Vakuum nennen. Und die Ausbreitung von Licht "erklären" wir mit einem Quantenfeld.
A. Neumaier vertritt bei der TI eine sehr ähnliche Ansicht, und tendiert auch zu einer ähnlichen Überverallgemeinerung wie Du gerade. Ich selbst vertrete die Ansicht, dass man bei "sichtbarsten" Spuren einzelner teilchenartiger Anregungen langsam aufhören muss, deren Realität komplett zu leugnen.
Dass Neumaiers Position der meinen ähnelt ist mir neu. Tatsächlich ist der mathematische Apparat seit Jahrzehnten bekannt. Es kommt "nur" darauf an, was uns die Formeln wirklich sagen.
 

TomS

Registriertes Mitglied
Das ist vermutlich schlicht eine Konsequenz davon, dass aktuell die meisten Befürworter der TI Mathematiker sind. Die Denkweisen von Mathematikern und Physikern sind oft schon recht unterschiedlich.
Also dass ich etwas vorwärts denke und entwickle, heißt ja nicht, dass ich es nicht rückwärts erzählen kann.

Man muss sich einfach überlegen, wie man jemand dazu bringt, hunderte von Seiten intensiv zu studieren.
 

antaris

Registriertes Mitglied
Jetzt machst du es dir zu einfach.
Wenn Neumaier recht hat, dann hat er das Messproblem endgültig entmystifiziert und auf eine Klasse sehr realer physikalischer Probleme reduziert.
Normalerweise gelingt dieses entmystifizieren in der Physik doch aber mittels Experimente und empirischen Erkenntnissen. Das was Neumaier gemacht hat, ist die bekannten und etablierten Theorien der QM zu hinterfragen und geradezu "auf den Kopf zu stellen". Das Messproblem wurde in Neumaier's Kopf zuerst entmystifiziert. Das da natürlich noch viel mehr dran hängt, als "nur" eine Idee, steht außer Frage aber es wurde dazu kein neues Experiment oder empirischer Nachweis benötigt.
Das zeichnet die Wissenschaft aus: aus dem Mythos der Schöpfung – Gaia (die Erde) gebiert durch Eros Uranos (den Himmel), Ourea (das Gebirge), Pontos (das Meer) … – werden im Rahmen von mathematischen Theorien konkrete Problemstellungen. Das löst die Probleme aber nicht, z.B. ist das Problem der Entstehung des Universums und seiner Anfangsbedingungen noch genauso ungelöst wie zur Zeit der alten Griechen.
Du hast es im anderen Thread mit anderen Zusammenhang zitiert:
Sean Corral: ...it’s a series of epiphanies...
Erkenntnis wird nur nach und nach offenbart.

Und Neumaier liefert nicht ein Dutzend expliziter Modelle, in denen er das Messproblem explizit löst, er liefert nur plausible Begründungen und gewisse Referenzen, wie das Messproblem gelöst werden kann. Das Ergebnis der TI ist nicht die Lösung, sondern ein Programm zur Lösung.
Richtig, der Weg zur Lösung und das meine ich mit "unvollständig" im Sinne, das noch Erkenntnisse darauf warten offenbart zu werden. Was soll er denn sonst auch noch alles machen. Ich denke nicht dass die Probleme nur durch einen einzelnen Menschen gelöst werden können.
Die Gleichungen können wir mit Gewissen Einschränkungen heute schon aufstellen, und damit die Wahrscheinlichkeitsverteilungen berechnen; das war nach 1926 nie ein prinzipielles Problem, nur viel Arbeit.

Aber darum geht es auch gar nicht. Es geht darum, zu beweisen oder zumindest zu plausibilisieren, dass auch ohne explizite Berechnung eines einzelnen Messergebnisses immer ein solches folgt – eine Art mathematischer Existenzbeweis.

In der Newtonschen Mechanik ist es trivial, dass eine Teilchenkootdinate x(t) zu jeder Zeit t einen definierten Wert hat; das muss man nicht beweisen, und es gilt sicher auch dann, wenn ich x(t) nicht berechnen kann, z.B. weil ich x(0) nicht exakt kenne, oder weil ich nicht alle Parameter in der DGL exakt kenne.
Der kopfzerbrechende Unterschied in der Newtonschen Mechanik und der QM ist m.E. der Fakt, dass das eine "direkt" beobachtet werden kann und das andere sich dieser direkten Beobachtung entzieht.
Um das Messproblem einer Lösung zuzuführen muss man also zeigen, dass selbst wenn der Zustand des Subsystems und dessen Dynamik nie exakt bekannt sind, dennoch für eine große Klasse von Modellen – solchen mit Messgeräten – gewisse Funktionen f(rho) eindeutige Ergebnisse liefern, und dass diese gewisse Eigenschaften haben.

Vgl. klassisches Chaos: die Stabilität des Sonnensystems über einen gewissen Zeitraum wurde auch nicht dadurch bewiesen, dass man die Gleichungen über diesen Zeitraum gelöst hat.
Richtig aber das ist "nur" eine Frage des zu findenden Modells. Die von dir auf dem Physikerboard angesprochene Vereinfachung im unendlichdimensionalen Hilbertraum muss ausgeglichen werden. Das was halt mittels Störungstheorie eh schon gemacht wird, muss in diesem Sinne konkretisiert werden. Welche Arten von äußere Einflüsse müssen wie stark in die störungstheoretische Rechnung einfließen, damit "gewisse Funktionen f(rho) eindeutige Ergebnisse liefern, und dass diese gewisse Eigenschaften haben". Oder sehe ich das falsch?
Danke. Werde ich mir in Ruhe anschauen.
 

Jakito

Registriertes Mitglied
Es geht doch um eine prinzipielle Frage. Die sollte doch nicht abhängig von der Energie sein, oder?
Beim Photon nicht (glaube/vermute ich), aber beim Elektron schon. Das verliert seine Identität, wenn es thermalisiert. Solange es aber viel Energie hat, sind da viele "Qubits" Information vorhanden, die ihm schon ordentlich Realität und Individualität verleihen, im Vergleich zu seiner Umgebung. Die Ununterscheidbarkeit von Elektronen bleibt trotzdem erhalten und spannend, auch wenn sie viel Energie haben, ebenso wie der Spin Freiheitsgrad ein einzelnes Qubit bleibt.

Aber was an einem Photon ist real? Mir geht es darum, den Begriff von irreführenden Konnotationen zu befreien, wie sie beispielsweise DrChinese in physicsforums zu schaffen machen.
Aus meiner Sicht ist ein starkes konstantes magnetisches Feld deutlich realer als ein einzelnes Photon. Aber so ein Magnetfeld ist halt kein Teilchen, da hilft auch keine geistige Gymnastik.
Aber kannst Du mir sagen, an welcher Stelle Du die Realität beibehalten willst, um nicht zusammen mit der Realität des Photons (bzw. deren Abwesenheit) die Realität als Ganzes über Bord werfen zu müssen? Oder willst Du wirklich das Kind mit dem Bade ausschütten?
 

Jakito

Registriertes Mitglied
Also dass ich etwas vorwärts denke und entwickle, heißt ja nicht, dass ich es nicht rückwärts erzählen kann.

Man muss sich einfach überlegen, wie man jemand dazu bringt, hunderte von Seiten intensiv zu studieren.
Hunderte von Seiten zu studieren zu müssen ist wohl eher Teil des Problems. Auch einen Beweis mit hunderten von Seiten fängt ein Mathematiker erst an zu lesen, wenn ihm die Beweisidee klar und einleuchtend ist. Und aufgrund von "Erhaltung der Schwierigkeit" ist er auch überzeugt, dass es eine solche Beweisidee geben muss. Das geht so weit, dass ich mir auch bei Beweisen von automatischen Theorembeweisern wie Prover9 oder dem E-Theorem-Prover den Maschinenbeweis durchlese, um die eigentlich entscheidenden Ideen zu extrahieren.

Und die Tatsache, dass bei der TI eben nicht alle impliziten Annahmen deterministischer gewöhnlicher Differentialgleichungen erfüllt sind, ist aus meiner Sicht eine dieser wichtigen Beweisideen. Der fließende Übergang von Eigenschaften des Gesammtsystems zu Eigenschaften der Subsysteme ist aber auch wichtig. Dies klappt bei einer Beschreibung mittels Wellenfunktion/Zustandsvektor leider nicht. Deshalb muss man irgendwie schon wenigstens mit Dichtematrizen arbeiten. Den Zustandsvektor muss man deshalb nicht verdammen. Deine Idee, bei der Wahrscheinlichkeitsdichtefunktion mit dem Zustandsvektor zu arbeiten, könnte durchaus besser funktionieren als meine Ideen/Nachschübe. Solange aber die "Kirche des größeren Hilbertraums" die einzige akzeptierte und verstandene Art ist, von einer Dichtematrix wieder zu einem Zustandsvektor zu kommen, erzeugt eine auf Zustandsvektoren basierende Denkweise leider schon unnötige Probleme.
 

Prokyon

Registriertes Mitglied
Wobei, eigentlich scheint es schon klar um unendliche Klassen zu gehen. Aber wird dann der Begriff des "Systems" nicht genau so unklar, wie Bell ihn angeprangert hat?
Mit dem Wort "System" muss etwas Physikalisches verbunden sein. Kein mathematischer Begriff, auch nicht Wellenfunktion oder Dichtematrix.

Aus meiner Sicht ist ein starkes konstantes magnetisches Feld deutlich realer als ein einzelnes Photon. Aber so ein Magnetfeld ist halt kein Teilchen, da hilft auch keine geistige Gymnastik.
Mit starken magnetischen Feldern habe ich mich in meiner (theoretischen) Doktorarbeit beschäftigt. Da habe ich auch keine Zweifel an der Realität. Ich würde es sogar als Kondensat von sehr niederfrequenten Photonen bezeichnen. Für Feynman gab es keinen prinzipiellen Unterschied zwischen realen und virtuellen Photonen.

Aber kannst Du mir sagen, an welcher Stelle Du die Realität beibehalten willst, um nicht zusammen mit der Realität des Photons (bzw. deren Abwesenheit) die Realität als Ganzes über Bord werfen zu müssen? Oder willst Du wirklich das Kind mit dem Bade ausschütten?
Ich halte nur die Wechselwirkungen zwischen Elektronen und Photonen für real. Also eine Art "flash" Ontologie. Was mich an Arbeiten wie denen von GRW oder Tumulka stört, ist der Fokus auf die Wellenfunktion, die die Ereignisse verknüpfen und irgendwelche collapses produzieren soll. Dabei definieren die Feynman-Regeln doch ein Wahrscheinlichkeitsmaß für jede mögliche Verteilung von Wechselwirkungs-Ereignissen in der Raumzeit. Die interessierenden Korrelationsfunktionen ergeben sich aus einem erzeugenden Funktionalintegral (dem Pfadintegral). Um wirklich mit Wahrscheinlichkeiten zu rechnen, muss man natürlich das Pfadintegral über einen "closed time-path" nehmen, so wie Schwinger das schon 1961 vorgerechnet hat.
 

Jakito

Registriertes Mitglied
Ich halte nur die Wechselwirkungen zwischen Elektronen und Photonen für real. Also eine Art "flash" Ontologie. Was mich an Arbeiten wie denen von GRW oder Tumulka stört, ...
Interessant! Ich vermute mal ganz stark, dass Du meine Unterhaltung mit WernerQH zu diesem Thema kennst ;)
WernerQH schrieb:
gentzen schrieb:
The flashes are OK as ontology, but you can only have very few of them.
Why is that? I would expect them to occur at the zeptosecond scale (10^-21 s), corresponding to the electron mass. I looked at two papers by Tumulka, but they were quite different from what I have in mind. What kind of trouble do you anticipate?

Mit starken magnetischen Feldern habe ich mich in meiner (theoretischen) Doktorarbeit beschäftigt. Da habe ich auch keine Zweifel an der Realität.
Das freut mich :love:

Mit dem Wort "System" muss etwas Physikalisches verbunden sein. Kein mathematischer Begriff, auch nicht Wellenfunktion oder Dichtematrix.
Mit "System" war schon was Physikalisches gemeint, zumindest bevor die unendlichen Klassen irgendwie ins Spiel gekommen waren. Die Dichtematrix ist ja nur ein Zustand in einem mathematischen Model, das "System" ist eigentlich davon unabhänig. Wenn da nur nicht die minimale statistische Ensemble-Interpretation wäre, wo es dann wieder doch nicht mehr so klar ist.
 

Prokyon

Registriertes Mitglied
Jakito schrieb:
Die Dichtematrix ist ja nur ein Zustand in einem mathematischen Model, das "System" ist eigentlich davon unabhänig. Wenn da nur nicht die minimale statistische Ensemble-Interpretation wäre, wo es dann wieder doch nicht mehr so klar ist.
Das habe ich noch nicht verstanden, warum es einen so großen Unterschied machen soll, ob man ein Einzelsystem oder ein Ensemble von Einzelsystemen betrachtet. Bei den starken Magnetfeldern hat man es im Grunde nur mit einem harmonischen Oszillator zu tun, und man kann die Korrelationsfunktionen für die Koordinaten der Elektronen sofort hinschreiben. Das Ensemble beschreibt die möglichen Bewegungen eines einzelnen Elektrons. Warum sollte man keinen Punktprozess definieren können, für den sich exakt diese Korrelationsfunktionen ergeben? Die Orbits wären punktierte Linien (natürlich mit statistischen Abweichungen behaftet), aber im (klassischen) Grenzfall hoher Geschwindigkeiten ziemlich kreisförmig. Mit Messprozessen muss man sich nicht herumschlagen, weil das Elektron intermittierend an verschiedenen Punkten auftaucht.
 

antaris

Registriertes Mitglied
In einer meiner ersten Begegnungen mit TomS habe ich bereits meinen Standpunkt zu den etablierten Interpretationen klar gemacht:
Soweit ich weiß ist die Ensemble Interpretation den "versteckten Variablen"-Interpretationen zuzuordnen, da die Systeme ähnlich wie bei der TI unzureichend modelliert sind. Die Wahrscheinlichkeit eines Einzelsystems, wie z.B. ein Elektron bezieht sich auf viele Einzelsysteme? Letztendlich ist es auch eine deterministische Interpretation?
Das ist nicht verkehrt, obwohl es oft gar so einfach ist, die chaotische Dynamik in konkreten experimentellen Setups herauszuarbeiten. Irgendwo habe ich es mal für wiederholte Stern-Gerlach Experimente gesehen (vermutlich bei Franck Laloë).
Ich fand die deBroglie-Bohm-Interpretation interessant aber irgendwie hatte ich nie zu ihr gefunden...trotz des chaotischen Charakters.
Ich vermute, man kann sich das schon viel konkreter (und detaillierter) überlegen, wie bei der TI der Hase läuft. Durchaus ähnlich konkret, wie dies für manche Szenarien bei der Bohmschen Mechanik ausgearbeitet wurde. So eine konkrete Ausarbeitung muss nicht immer auf Gegenliebe der Befürworter stoßen, weil halt oft subtile Details wichtig sein können, die irgendwie häßlich wirken.
Ich bin Befürworter einer deterministischen Interpretation der QM, der Name ist mir eher unwichtig. Aber mir gefällt ganz besonders die Gratwanderung zwischen einerseits Determinismus und andererseits Stochastik bei der TI...und natürlich die Verbindung zu den chaotischen Systemen. Als Natur interesssierter und technikaffiner Mensch, ohne entsprechendes Studium an einer Hochschule, kommt mir die TI am natürlichsten vor.
Gerade wenn verschiedene Ansichten aufeinandertreffen und trotzdem alle Beteiligten wirklich konstruktiv etwas erarbeiten wollen, so müssen von einzelne Diskutanten auch gewisse Kröten geschluckt werden können. Ohne Kompromisse wird es keine Bewegung geben und letztendlich kann nur eine Theorie bzw. ein gewisses Konstrukt aus mehreren Theorien die bzw. das einzig richtige sein.
 
Zuletzt bearbeitet:

Jakito

Registriertes Mitglied
Das habe ich noch nicht verstanden, warum es einen so großen Unterschied machen soll, ob man ein Einzelsystem oder ein Ensemble von Einzelsystemen betrachtet.
Solange ich ein Einzelsystem oder auch eine endliche Menge von Einzelsystemen betrachte, kann ich ja ganz konkret bleiben, und jeweils über ein konkret gegebenes echtes physikalisches System sprechen, bzw. über eine echte Menge von tatsächlich durchgeführten Experimenten.

Wenn ich aber über eine Klasse von ähnlich präparierten Systemen sprechen will, dann muss ich ja irgendwie abstrahieren, muss die Bedeutung von "ähnlich präpariert" geeignet präzisieren, und muss mich ja doch irgendwie in mentale Gymnastik stürzen. Als Belohnung dafür bekomme ich dann schöne Märchen, die zu schön sind um wahr zu sein. Meist wird man dann versuchen ganz auf der Ebene der Theorie zu bleiben, damit das Märchen tatsächlich wahr sein kann. Und damit ist die Verbindung zu konkreten Experimenten doch wieder irgendwie unterbrochen. Wobei mir das bei der QFT und den Phasenübergängen vermutlich sogar recht ist, weil die gesuchten "Zustände" ja auf theoretische (Quanten-)Modelle der verschiedenen Phasen hinauslaufen.
 

TomS

Registriertes Mitglied
Obwohl ich damals noch nichts über Kategorientheorie oder Garben (Sheaf) wusste, schlug ich genau diese Art von Konstruktion vor, weil sie weniger implizite Annahmen hat, sich besser verallgemeinert, und sich irgendwie "natürlicher" anfühlt (für einen Mathematiker).
Erklärst du mir das mal?

Ich habe noch nie richtig verstanden, wozu man das braucht.
 

TomS

Registriertes Mitglied
Aber was an einem Photon ist real?
Man kann Photon-Zustände reproduzierbar (fast) identisch präparieren und man kann Photon-Zustände reproduzierbar messen. Man kann sie entsprechend der Theorie unterschiedlich präparieren, variieren … und erhält immer passende Messergebnisse.

Das Photon trägt Energie, Impuls, Drehimpuls … man kann es sehen, es bewirkt physikalische und chemische Reaktion …

Man kann es nun den gesunden Menschenverstand bemühen und sagen, dass da objektiv betrachtet tatsächlich etwas existiert, das man Photon-Zustand nennt, oder man macht die Sache komplizierter und glaubt daran, nicht wissen zu können, dass da etwas existiert, obwohl man es ja wundersamerweise immer wieder misst.
 

Jakito

Registriertes Mitglied
Erklärst du mir das mal?

Ich habe noch nie richtig verstanden, wozu man das braucht.
Die Kategorientheorie (und Funktoren) wurde von Saunders MacLane und Samuel Eilenberg eingeführt in "General Theory of Natural Equivalences" (Trans. Amer. Math. Soc. 58, 1945), um den Begriff der natürlichen Transformation zu präzisieren.
schlug ich genau diese Art von Konstruktion vor, weil sie ... sich irgendwie "natürlicher" anfühlt (für einen Mathematiker).
Es geht also darum, den Begriff der Natürlichkeit irgendwie zu formalisieren. Oder auch das berühmt berüchtigte kanonisch. Das kann natürlich nicht gelingen, weil es ja vom Kontext abhängt, was einem als natürlich oder kanonisch erscheint. Um das Problem aber wenigstens auf den gegebenen Kontext abwälzen ("reduzieren") zu können, muss man versuchen zu definieren, was ein Kontext ist. Da wird dann zunächst mal nur der kleinste gemeinsame Nenner gefordert, was im Wesentlichen die Assoziativität ist (+die Existenz von Identitäten, weil es nicht viel kostet).

Dieser kleinste gemeinsame Nenner ist aber meist doch zu wenig, insbesondere fehlt oft ein Begriff der Unabhängigkeit. Da kommt dann noch ein "monoidales Produkt" hinzu (meist dann, wenn das kartesische Produkt nicht das Gewünschte leistet, und die Unabhängigkeit durch eine Art von Tensorprodukt beschrieben werden muss).


Was hat das jetzt mit der von mir vorgeschlagenen Konstruktion zu tun? Während meines Studiums hatte ich mich mal bemüht, Standardkonstruktionen wie Divergenz, Poissonklammer, Richtungs-/Lie-Ableitung und/oder mittels Nabla-Operator definierbare Operationen in einer "möglichst natürlichen" Art darzustellen, inklusive aller Beweise. Später entdeckte ich dann, dass es von Peter W. Michor viele frei zugängliche Bücher über Differentialgeometrie gibt, darunter insbesondere
Ivan Kolár, Jan Slovák, Peter W. Michor: Natural operations in differential geometry. Springer-Verlag, Berlin, Heidelberg, New York, (1993), vi+434 pp.

Es gibt viele mehr oder weniger offensichtliche Operationen, um Mannigfaltigkeiten zu "erzeugen", darunter insbesondere als Quotient, als Teilmenge, und als (kartesisches) Produkt. Die Menge der glatten Abbildungen in die rellen Zahlen lässt sich zumindest im Falle von Quotient und Teilmenge ganz natürlich definieren, eben im Falle des Quotienten als die glatten Funktionen die auf den Äquivalenzklassen konstant sind, und im Falle der Teilmenge als die Restriktion der glatten Funktionen auf die gegebene Teilmenge. Im Falle des Produkts geht es wahrscheinlich schief, oder ist deutlich komplizierter.

Weil die Koordinaten in einem Diffeomorphismus (aus dem Atlas) ja auch glatte Abbildungen in die rellen Zahlen sind, und sich "die meisten" glatten Abbildungen in die rellen Zahlen (der Gradient darf halt nicht Null werden) zu einem Diffeomorphismus ergänzen lassen, erscheint es schon irgendwie OK, direkt diese Menge der glatten Abbildungen in die rellen Zahlen vorzugeben. Wobei an dieser Stelle jetzt ("implizit") bereits der Übergang von global definierten glatten Abbildungen zu lokal auf einer offenen Teilmenge definierten reinkommt.
 

Prokyon

Registriertes Mitglied
@Jakito:
Danke für die Erläuterungen. Ich glaube, das Bauchweh jetzt etwas besser zu verstehen.
Solange ich ein Einzelsystem oder auch eine endliche Menge von Einzelsystemen betrachte, kann ich ja ganz konkret bleiben, und jeweils über ein konkret gegebenes echtes physikalisches System sprechen, bzw. über eine echte Menge von tatsächlich durchgeführten Experimenten.
Beim Einzelsystem glaubt man, dass eine umfassende Charakterisierung möglich ist. Es ist jedenfalls meine Idee von einem Ensemble, dass über die Elemente des Ensembles präzise Aussagen möglich sind. Man hat es allerdings auch hier mit "Märchen" zu tun -- eine Idealisierung liegt immer vor. Im Sonnensystem z.B., dass man die Planeten als Punktmassen behandeln kann. Und Wahrscheinlichkeit kommt ins Spiel, wenn die Massen und Bahnparameter nicht genau bekannt sind.
Wenn ich aber über eine Klasse von ähnlich präparierten Systemen sprechen will, dann muss ich ja irgendwie abstrahieren, muss die Bedeutung von "ähnlich präpariert" geeignet präzisieren, und muss mich ja doch irgendwie in mentale Gymnastik stürzen.
Das Problem ist hier, dass die Ensemble-Elemente eben nicht präzise Eigenschaften haben. (Natürlich!) Ich glaube, auch Ballentine legt sich nicht fest, ob ein Teilchen immer einen bestimmten Ort oder eine feste Polarisation hat. Die Wurzel des Übels liegt wohl in dem Wunsch, von einem "System" zu reden, das zu jedem Zeitpunkt in einem bestimmten "Zustand" ist. Das wäre in Ordnung für Markov-Prozesse, aber wie Barandes betont, fällt die Quantentheorie nicht in dieses Schema. Wenn man die Ensemble-Interpretation ernst nimmt, muss man die Präparation immer zusammen mit der Messung betrachten. Welche Polarisation ein Photon hat, hängt eben auch von der Ausrichtung des Detektors ab. Die Quantentheorie, so wie sie oft eingeführt wird, beschreibt Korrelationsexperimente!
 

TomS

Registriertes Mitglied
Die Wurzel des Übels liegt wohl in dem Wunsch, von einem "System" zu reden, das zu jedem Zeitpunkt in einem bestimmten "Zustand" ist … Welche Polarisation ein Photon hat, hängt eben auch von der Ausrichtung des Detektors ab.
Die Wurzel des Übels besteht darin, krampfhaft nach Eigenschaften in einem System zu suchen, die ihm nicht zukommen.

Das hat noch nicht mal etwas mit der Messung oder der Detektion zu tun.

Wenn ich ein System im S-Zustand habe, dann weiß ich, dass die Summe der Spins Null ist. Das ist unproblematisch, es ist zumindest insofern zutreffend, als daraus Konsequenzen folgen, die experimentell bestätigt werden. Also ist es ok, von der Eigenschaft |S-Zustand> zu sprechen. Aber das war's auch schon.

Das Problem beginnt dann, wenn man meint, es müsse da noch weitere Eigenschaften geben, z.B. "der Spin des ersten Teilchens +1, der des zweiten -1" … Die implizite und reflexartige Assoziation von "Eigenschaft" mit "klassischer Eigenschaft" ist das erste Problem.


Das zweite Problem wird eigtl. nie wirklich thematisiert, geht aber m.M.n. viel tiefer.

Vergleichen wir mal mit der klassischen Mechanik: zwei Teilchen im Phasenraum kommen in einer relationalen Betrachtung sicher folgende zwei Eigenschaften zu: Abstand und Relativgeschwindigkeit.

Einem Teilchen, zwei Teilchen oder auch 17 Teilchen kommt bei einer relationalen Betrachtung im Hilbertraum keine einzige Eigenschaft zu: das einzige, was wir haben, ist ein Einheitsvektor in einem unendlich-dimensionalen, völlig strukturlosen Raum. Die Relation besteht
  • nicht wie in der klassischen Mechanik in der Relation zwischen den Entitäten (Teilchen)
  • sondern in der Relation zwischen einer Entität (Zustand) und einer zusätzlich aufgeprägten Struktur (durch Observable ausgezeichnete Richtungen
Der Unterschied zwischen einem Elektron und einem Bose-Einstein-Kondensat steckt nicht im Zustand – der sieht in beiden Fällen identisch aus – sondern in der Strukturierung des Hilbertraumes mittels H sowie weitere Observablen und dem Zustand (sowie dessen Bewegung) relativ zu dieser Struktur.
  • Während in der RT die gesamte Information in der Relation zwischen den dynamischen Entitäten (Raumzeit Felder) steckt, und nichts in irgendwelchen Koordinaten,
  • steckt in der Quantenmechanik keine Information in der Entität (Zustandsvektor) sondern alles in der Relation zwischen diesem und weiteren künstlichen Koordinaten (im Hilbertraum).
Gegensätzlicher geht wohl nicht.

Das ist für mich ein viel größeres Rätsel.

@Jakito – da könnten deine Konzepte evtl. Licht ins Dunkel bringen.
 
Zuletzt bearbeitet:
Oben