Das Schicksal von Schrödingers Katze

TomS

Registriertes Mitglied
Es ist für mich einzig und allein eine Frage der Ökonomie ... Obwohl ich diese Wellen nicht für etwas Reales halte! Ich bin froh, dass es überhaupt eine Theorie gibt, die die beobachteten Korrelationen richtig beschreibt.
Kannst du bzw. willst dann überhaupt eine realistische Position auf Basis eines geeigneten Formalismus einnehmen? Oder bist du eher agnostisch bzw. kritisch unterwegs, in dem Sinne, aufzuzeigen, was nicht geht?

Letzteres wäre völlig ok, ich habe nur noch nicht verstanden, wie du da grundsätzlich tickst.
 

Jakito

Registriertes Mitglied
In der Transactional Interpretation von John Cramer gibt es vorwärts laufende "offer waves" und rückwärts laufende "confirmation waves", die zusammen dann eine Transaktion ausmachen. Es ist aber unklar, ob diese Wellen sich im dreidimensionalen Raum ausbreiten, oder doch in einem höherdimensionalen Konfigurationsraum. Und was mit den Wellen passiert, wenn keine Transaktion zustande kommt. Deshalb halte ich das nur für mathematische Konstrukte, ...

... Als "Erklärung" der Bell-Experimente reicht mir die Vorstellung, dass John Cramer's "confirmation waves" von den Detektoren zurücklaufen und die Drehimpuls-Erhaltung besiegeln. Obwohl ich diese Wellen nicht für etwas Reales halte! Ich bin froh, dass es überhaupt eine Theorie gibt, die die beobachteten Korrelationen richtig beschreibt.
Hast Du irgendwelche Ratschläge für mich, ob ein tieferes Studium der Transaktionalen Interpretation (z.B. in der Version von Ruth Kastner) mir bei meinen Kämpfen mit Reziprozität weiterhelfen könnte?
gentzen schrieb:
My next encounter happened when I was fighting with reciprocity occuring for crystal effects in electron scattering, and hoped for help from time symmetric interpretations. Naturally, I started studying TI by studying John Cramer's initial version, and was seriously underwhelmed.
Oder wäre diese Zeit besser in ein Studium des Schwinger-Keldysh-Formalismus investiert? Oder lieber doch die Lösungen der Bohmianer studieren? (Wobei ich diese vermutlich tatsächlich studieren werde, aber nur um zu verstehen, wieso es "meine" Probleme eben doch nicht löst, und irgendwie doch wieder nur die Standard-Interpretation in anderer Sprache ist. Wobei da teilweise schon immer wieder wichtige Erkenntnisse versteckt sein können.)

Da bin ich ganz anderer Ansicht! Einmal ist "Dekohärenz" für mich nur ein Zauberwort -- das Wort Kohärenz wurzelt ja in der statistischen Theorie der klassischen Wellenoptik.
Die statistische Theorie der klassischen Optik ist tatsächlich die Basis von vielen Ansätzen die Quantenmechanik besser zu verstehen. Allerdings war "Dekohärenz" ursprünglich nicht sonderlich eng damit verwandt. Das hat sich inzwischen ein bischen gewandelt, aber die Grundprinzipien der QM sind letztendlich doch zu verschieden von der statistischen Optik, als dass sie sich noch weiter annäheren könnten.

Und der Quantenrechner ist nur ein Analogrechner. Dass ein solcher Rechner eine 100-stellige Zahl in naher Zukunft faktorisieren könnte, halte ich für so wahrscheinlich wie eine Frequenzmessung mit 100-stelliger Genauigkeit.
Oh, es ist komplizieter. Je besser man den Rechner kühlen und abschirmen kann, desto mehr kann er erreichen, durchaus auch quasi unmögliche Dinge. Als reiner Ersatz für klassische Rechner ist es aber eigentlich eine Verschwendung, weil Quantenrechner ja auch Quanten-Input, -Output, und -Speicherung beherrschen. Wenn die Kühlung und Abschirmung an ihre Grenzen kommt, kann man natürlich auch versuchen, die Entropie mittels "klassischer Aktionen" aus der Quantenrechnung rauszupumpen. Das wäre eine Art der Quantenfehlerkorrektur. Es gibt auch komplementäre Strategien, aber es bleibt kompliziert. Bei Lienhard Pagel fand ich einst, wie "schnell" der klassische Teil dabei sein muss, in Abhängigkeit von der Temperatur, und der Anzahl der Qubits.
 

Jakito

Registriertes Mitglied
Es ist mir ein Rätsel, warum van Hees und A. Neumaier, die den Formalismus sehr wohl kennen, keinen Zusammenhang sehen mit Messprozessen. Liegt wohl in der falschen Schublade. Die Wechselwirkung zwischen Elektronen und Photonen steckt in dem Term j*A, beides lokale Operatoren. Vor vielen Jahren (als ich beruflich noch nicht in die Datenverarbeitung abgedriftet war), habe ich den Keldysh-Formalismus benutzt, um Absorptionskoeffizienten in einem magnetisierten Plasma abzuleiten. Und es ergab sich tatsächlich eine Formel, aus der sich die Zahl der pro Kubikzentimeter und Sekunde stattfindenden Prozesse der Absorption und stimulierten Emission ablesen lassen. (J. Phys. A (Math. Gen.) 21, 407)
On the other hand, a uniform magnetic field makes the problem just complex enough so that the underlying basic physics is not obscured by some popular but deceptive simplifications (like, e.g., the dipole approximation or the use of polarisation averages).
Das ist ja spannend, daß Du "auch" auf die "Idee" gekommen bist, ein konstantes magnetisches Feld zu verwenden, um "verräterischen Vereinfachungen" ein klein wenig ihrer Kraft zu berauben. Vor längerer Zeit hatte ich mal eine Frage in diese Richtung gestellt, in der Hoffnung dass van Hees und A. Neumaier ein wenig näher zusammen finden:
Als TomS jetzt die Diskussionen mit A. Neumaier wieder hat aufleben lassen, habe ich privat auch A. Neumaier nach einer Antwort gefragt. Seine Antwort war weniger enttäuschend als van Hees' Antwort, und ich habe dabei tatsächlich nützliche Dinge gelernt, aber wirklich verstanden habe ich es leider immer noch nicht. Kannst Du versuchen, mir Deine Antwort in der einen oder anderen Form mitzuteilen? Oder soll ich lieber vorher mal Dein Paper gründlich studieren, und dann nochmals konkreter nach speziellen Details fragen?
 

Jakito

Registriertes Mitglied
Die Wurzel des Übels besteht darin, krampfhaft nach Eigenschaften in einem System zu suchen, die ihm nicht zukommen.
Zumindest ist es nicht hilfreich.
Das hat noch nicht mal etwas mit der Messung oder der Detektion zu tun.
Volle Zustimmung!
Wenn ich ein System im S-Zustand habe, dann weiß ich, dass die Summe der Spins Null ist. Das ist unproblematisch, es ist zumindest insofern zutreffend, als daraus Konsequenzen folgen, die experimentell bestätigt werden. Also ist es ok, von der Eigenschaft |S-Zustand> zu sprechen. Aber das war's auch schon.
Genau, es ist ok, von der Eigenschaft |S-Zustand> zu sprechen.
Mit "Aber das war's auch schon" kann ich allerdings nichts anfangen. Vermutlich würde ich sogar eher widersprechen. Es gibt ja oft auch noch eine Zeitabhängigkeit. Insbesondere wenn es nicht mehr nur um die Präparation geht, sondern um ein "echtes Experiment", welches über einem kurzen aber endlichen Zeitraum stattfindet. Bei einem Rasterelektronenmikroskop wäre das z.B. die Zeit, die einem einzelnen Pixel entspricht, weil auf dieser Zeitskala die Messergebnisse korreliert werden.

Das Problem beginnt dann, wenn man meint, es müsse da noch weitere Eigenschaften geben, z.B. "der Spin des ersten Teilchens +1, der des zweiten -1" … Die implizite und reflexartige Assoziation von "Eigenschaft" mit "klassischer Eigenschaft" ist das erste Problem.
Genau, sowas ist natürlich nicht hilfreich.

Das zweite Problem wird eigtl. nie wirklich thematisiert, geht aber m.M.n. viel tiefer.

Vergleichen wir mal mit der klassischen Mechanik: zwei Teilchen im Phasenraum kommen in einer relationalen Betrachtung sicher folgende zwei Eigenschaften zu: Abstand und Relativgeschwindigkeit.
Soweit, so gut!
Einem Teilchen, zwei Teilchen oder auch 17 Teilchen kommt bei einer relationalen Betrachtung im Hilbertraum keine einzige Eigenschaft zu: das einzige, was wir haben, ist ein Einheitsvektor in einem unendlich-dimensionalen, völlig strukturlosen Raum.
Boah, ja, aber ist das echt der Fehler der Quantenmechanik? Kann man da nicht in anderen Kontexten ganz analoge Situationen konstruieren, wo durch eine gewisse Abstraktion zunächst mal fast alle Eigenschaften verschwinden, damit man sie später auf diesem Fundament wieder geeignet einführen kann?
Die Relation besteht
  • nicht wie in der klassischen Mechanik in der Relation zwischen den Entitäten (Teilchen)
  • sondern in der Relation zwischen einer Entität (Zustand) und einer zusätzlich aufgeprägten Struktur (durch Observable ausgezeichnete Richtungen
Der Unterschied zwischen einem Elektron und einem Bose-Einstein-Kondensat steckt nicht im Zustand – der sieht in beiden Fällen identisch aus – sondern in der Strukturierung des Hilbertraumes mittels H sowie weitere Observablen und dem Zustand (sowie dessen Bewegung) relativ zu dieser Struktur.
Ja, so ist es. Allerdings sollte man sich vielleicht zunächst mal fragen, woher der Zustand und die Struktur bei der zeitunabhängigen Schrödingergleichung physikalisch kommt. Das ist doch eigentlich das Langzeit thermische Gleichgewicht, von dem man dann noch seine Störungen untersuchen kann. Wenn man dies dann direkt auf den transienten Fall übertragen will, läuft man natürlich Gefahr, ein wenig zu stark an den Abstraktionen kleben zu bleiben, die für das thermische Gleichgewicht richtig und wichtig waren.
  • Während in der RT die gesamte Information in der Relation zwischen den dynamischen Entitäten (Raumzeit Felder) steckt, und nichts in irgendwelchen Koordinaten,
  • steckt in der Quantenmechanik keine Information in der Entität (Zustandsvektor) sondern alles in der Relation zwischen diesem und weiteren künstlichen Koordinaten (im Hilbertraum).
Gegensätzlicher geht wohl nicht.
Die Frage ist halt, wie künstlich diese Koordinaten wirklich sind. Vielleicht stecken in den für die RT wichtigen Abstraktionen auch Gefahren, wenn man sich für die QM zu stark an ihnen orientiert. Vermutlich ist gerade die spezielle RT in dieser Hinsicht gefährlich, weil die sich ja überwiegend doch nur mit Ausbreitung im reinen Vakuum beschäftigt.
Das ist für mich ein viel größeres Rätsel.

@Jakito – da könnten deine Konzepte evtl. Licht ins Dunkel bringen.
Was meinst Du denn mit "meinen Konzepten"? Geht es da um Sachen wie Mermins "stop worrying and love Kopenhagen" oder meine eigenen Untersuchungen mittels Rechnungen und Beweisen im "consistent histories" Formalismus? Oder dieser "ein Qubit im Kontext enthält maximal zwei klassische Bits" Sache, die DrChinese losgetreten hatte, mit seiner Faszination für Entanglement-Swap Experimente und Quantenteleportation? Oder meinem viel älteren "ein endliches Volumen mit endlicher Energie kann vermutlich nur endlich viel Information enthalten, deshalb muss die Quantenmechanik irgendwie alles geeignet verschmieren"?
 

Jakito

Registriertes Mitglied
Das "Warum" ist ja genau der Haupteinwand gegen Kopenhagen: sowohl prinzipiell als auch je Einzelfall eine ad hoc gebastelte Küchenphilosophie, eine physikalische Theorie, die Beobachtung ins Zentrum rückt und zugleich die Definition von Beobachtung ablehnt, und die auf Beobachtung fußt, jedoch irgendwie mit der Beobachtung von Einzelsystemen auf Kriegsfuß steht.
Ja, das ist historisch irgendwie unglücklich gelaufen.
In der Folge wird dann Physik umgedeutet zu Linguistik, denn es sei ja "falsch zu denken, dass es die Aufgabe der Physik sei herauszufinden, wie die Natur beschaffen ist", stattdessen handele "Physik davon, was wir über die Natur sagen können."
Das war vermutlich die Schuld von Bohr. Und die anderen waren irgendwie "zu faul" ihm entschieden zu widersprechen, bis auf Einstein. Schrödinger, Bohm und Everrett haben zwar ihr eigenes Ding gedreht, und damit implizit auch Bohr widersprochen, aber den expliziten Widerspruch dann doch Einstein überlassen. Ich glaube, von Laue hat auch explizit widersprochen.

Vermutlich sieht man daran auch, wie es zu diesen ganzen Unglück kam: Nach dem ersten Weltkrieg hatte Deutschland (und Frankreich) nicht mehr die finanziellen Mittel, die physikalische Forschung auf Vorkriegsniveau aufrecht zu erhalten. Deshalb bemühten sich Leute wie Sommerfeld dann, dass die physikalische Forschung dort weiterleben konnte, wo genug Geld vorhanden war, also die Vereinten Staaten + Rockefeller Stiftung, ..., und eben auch Kopenhagen + Carlsberg Stiftung. (Max Born hat in Deutschland von normalen Menschen genug Geld gesammelt, damit Stern und Gerlach ihr Experiment weiterführen und erfolgreich beenden konnten, Einstein hatte auch gespendet.) Und dann war auf einmal Macht und Einfluss weg, so dass nur noch Weltberühmtheiten wie Einstein sich Widerspruch leisten konnten. Sommerfeld wurde sogar um seinen Nobelpreis betrogen, und bei von Laue werden die meisten inzwischen gar nicht mehr wissen, was er einst geleistet hatte, trotz seines Nobelpreises (noch vor dem ersten Weltkrieg).
Später kommt der ganze subjektivistische Informationskram im Sinne des "Realität = Information", hart am Rande des irrationalen postmodernistischen Krams.
Irrationaler postmodernistischer Krams ist natürlich unglücklich, aber "Realität = Information" ist vermutlich trotzdem nah dran an dem, was tatsächlich wichtig ist. Dann muss man es halt irgendwie von der Subjektivität wieder trennen. Information ohne Kontext funktioniert zwar nicht, aber der Kontext muss doch nicht durch ein Subjekt gegeben werden. Zumal das Subjekt doch noch nichtmals einen sauber benutzbaren Kontext liefert.
 

Prokyon

Registriertes Mitglied
Kannst du bzw. willst dann überhaupt eine realistische Position auf Basis eines geeigneten Formalismus einnehmen? Oder bist du eher agnostisch bzw. kritisch unterwegs, in dem Sinne, aufzuzeigen, was nicht geht?
Agnostiker bin ich auf keinen Fall. Physik beschäftigt sich mit der Wirklichkeit und ich würde mich sogar als "utterly naive realist" bezeichnen. Philosophische Spitzfindigkeiten sind mir fremd. Aber was man als real bezeichnet, hängt vom Kontext ab, und was mit den verwendeten Begriffen genau gemeint ist. Ich habe den Begriff "Photon" schon sehr oft benutzt und habe kein Problem damit. Meistens wissen die Leute ja, was gemeint ist. Was mich nervt, ist dieses Gerede von "entanglement". In diesem Kontext ist ein Photon für mich nur ein Paar von Emissions- und Absorptionsprozessen, zwei kurze Stromstöße in der Quelle, und zwei kurze Stromstöße im Detektor. Und es geht nur darum, dass diese Stromstöße einen Parallelismus haben. Eine zusätzliche Entität einzuführen, die von der Quelle zum Detektor wandert, ist so (wenig) hilfreich wie die Idee, dass es einen Äther braucht um die Lichtausbreitung zu erklären.
 

Prokyon

Registriertes Mitglied
Hast Du irgendwelche Ratschläge für mich, ob ein tieferes Studium der Transaktionalen Interpretation (z.B. in der Version von Ruth Kastner) mir bei meinen Kämpfen mit Reziprozität weiterhelfen könnte?
Wobei ich diese vermutlich tatsächlich studieren werde, aber nur um zu verstehen, wieso es "meine" Probleme eben doch nicht löst, und irgendwie doch wieder nur die Standard-Interpretation in anderer Sprache ist.
Ich verstehe leider überhaupt nicht, um was für Kämpfe es da geht, und wäre völlig überrascht, wenn Interpretationsprobleme der Quantentheorie praktische Auswirkungen hätten. "crystal effects in electron scattering" hört sich eher nach kondensierter Materie, statistischer Physik an. Da sollte es doch ein riesige Literatur geben?
Kannst Du versuchen, mir Deine Antwort in der einen oder anderen Form mitzuteilen? Oder soll ich lieber vorher mal Dein Paper gründlich studieren, und dann nochmals konkreter nach speziellen Details fragen?
Versuchen kann ich es gern, aber vielleicht machen wir es lieber mit PMs. Dieser Thread ist ja schon ziemlich lang und heterogen. Ob meine Arbeit bei deinem Problem weiterhilft ist sehr fraglich.
 

Jakito

Registriertes Mitglied
Ich verstehe leider überhaupt nicht, um was für Kämpfe es da geht, und wäre völlig überrascht, wenn Interpretationsprobleme der Quantentheorie praktische Auswirkungen hätten. "crystal effects in electron scattering" hört sich eher nach kondensierter Materie, statistischer Physik an. Da sollte es doch ein riesige Literatur geben?
Gibt es, und die ist durchaus hilfreich. Es ist aber fast alles aus dem 21. Jahrhundert, und leider nicht in Form leicht verdaulicher "Einführung in ..." Lehrbücher. Die von mir verlinkte Lösung der Bohmianer stammt ja auch aus dem Jahre 2018.

Sobald ein physikalisches Problem wirklich gelöst ist, kann man oft bequem auf die Literatur über Interpretationen und Interpretationsprobleme verzichten. Solange man aber noch damit kämpft, können die verschiedenen Bilder und Formalismen schon extrem hilfreich sein. Allerdings nicht, wenn es nur ein inkonsistenter Haufen von Geschichten wie bei Cramer ist.

Versuchen kann ich es gern, aber vielleicht machen wir es lieber mit PMs. Dieser Thread ist ja schon ziemlich lang und heterogen. Ob meine Arbeit bei deinem Problem weiterhilft ist sehr fraglich.
Gerne auch PM. Auf https://gentzen.wordpress.com/about/ ist meine Addresse angegeben.
Ich bin ein wenig überrascht, wieso Deine Arbeit bei meinem Problem nicht weiterhelfen soll. Es geht bei Dir doch auch um ein konstantes magnetisches Feld, und der von Dir bevorzugte Schwinger-Keldysh-Formalismus hat doch auch irgendwie was mit der QFT zu zun, oder wenigstens mit QED.
 

TomS

Registriertes Mitglied
Agnostiker bin ich auf keinen Fall. Physik beschäftigt sich mit der Wirklichkeit und ich würde mich sogar als "utterly naive realist" bezeichnen. Philosophische Spitzfindigkeiten sind mir fremd.
Ok.

Aber was man als real bezeichnet, hängt vom Kontext ab, und was mit den verwendeten Begriffen genau gemeint ist. Ich habe den Begriff "Photon" schon sehr oft benutzt und habe kein Problem damit. Meistens wissen die Leute ja, was gemeint ist. Was mich nervt, ist dieses Gerede von "entanglement". In diesem Kontext ist ein Photon für mich nur ein Paar von Emissions- und Absorptionsprozessen, zwei kurze Stromstöße in der Quelle, und zwei kurze Stromstöße im Detektor. Und es geht nur darum, dass diese Stromstöße einen Parallelismus haben.
Dieser Kontext ist der Messprozess.

Eine zusätzliche Entität einzuführen, die von der Quelle zum Detektor wandert, ist so (wenig) hilfreich wie die Idee, dass es einen Äther braucht um die Lichtausbreitung zu erklären.
Dann blendet dieser Realismusbegriff alles aus, was nicht in den Kontext der Messung passt. Das ist aber nicht der Realismusbegriff wie er üblicherweise verwendet wird; dessen Gegenstand sind Tatsachen (Vorgänge, Ereignisse ...) in einer objektiven Wirklichkeit und unabhängig von einem Beobachter.

In der klassischen Physik ist z.B. der Mond auch dann da, wenn niemand hinschaut.

Einem Realisten zufolge ist auch im Mikrokosmos etwas da, wenn niemand hinschaut. Was ist das? D.h. wie beschreibst du es? Mathematisch? Wie steht es zu beobachtbaren Phänomenen in Bezug? Kannst du dazu etwas sagen? Berechnen?
 

TomS

Registriertes Mitglied
Ja, das ist historisch irgendwie unglücklich gelaufen.
Definitv.

Das war vermutlich die Schuld von Bohr. Und die anderen waren irgendwie "zu faul" ihm entschieden zu widersprechen, bis auf Einstein. Schrödinger, Bohm und Everrett haben zwar ihr eigenes Ding gedreht, und damit implizit auch Bohr widersprochen, aber den expliziten Widerspruch dann doch Einstein überlassen. Ich glaube, von Laue hat auch explizit widersprochen.
Es gibt ziemlich haarsträubende Geschichten ,z.B. Oppenheimers "“if we cannot disprove Bohm we can all agree to ignore him”.

Vermutlich sieht man daran auch, wie es zu diesen ganzen Unglück kam: Nach dem ersten Weltkrieg hatte Deutschland ...
Ich denke, es lag mindestens ebenso sehr am positivistischen Zeitgeist, und an der Tatsache, dass Bohr die neue Quantenemchanik nicht zerredet sehen wollte (was nicht ganz unbegründet war).

Irrationaler postmodernistischer Krams ist natürlich unglücklich, aber "Realität = Information" ist vermutlich trotzdem nah dran an dem, was tatsächlich wichtig ist. Dann muss man es halt irgendwie von der Subjektivität wieder trennen. Information ohne Kontext funktioniert zwar nicht, aber der Kontext muss doch nicht durch ein Subjekt gegeben werden.
Ich gebe zu, das Zitat war schon sehr plakativ.
 

antaris

Registriertes Mitglied
Wie sollen sie etwas nachweisen?
Es könnte versucht werden äußere Effekte auszuschließen. Wenn von vornherein aber nur objektiver Zufall in Frage kommt, warum dann nach Alternativen suchen?
Es kann verschiedenen Ansätze geben, in denen einmal ein fundamentaler / objektiver Zufall. und ein anderes mal ein effektiver /subjektiver Zufall angesetzt werden, wobei beide zu den selben beobachtbaren Konsequenzen führen, da die Unterschiede sozusagen in ein praktisch unbeobachtbares Regime verschoben werden; letztlich haben wir das heute schon im Falle der MWI. Statt einer Nachweispflicht sollten wir besser eine rationale Erklärung fordern, die aber natürlich keine Gewissheit vermitteln kann.
Selbst wenn im Prinzip der Zufall objektiv = subjektiv ist und beides nur Beschreibungen eines einzigen Phänomens sind, so muss zwangsläufig das objektive Modell in Frage gestellt werden. Wie könnte in dem Fall behauotet werden, dass es sich um objektiven zufall handeln muss?
Daher ist für mich auch weniger das technische "Wie" sondern vielmehr das "Warum" die spannende Frage. Worauf bezieht sich eine realistische Beschreibung der Natur - außer natürlich auf beobachtbare Phänomene? Und warum ist diese Sichtweise vernünftig oder besser - außer, dass sie logisch zulässig ist?
All diese "Warum?" Fragen können erst beantwortet werden, wenn diese auch ernsthaft gestellt werden können. Es gibt einen Spruch, den ich sehr mag: "Hinterfrage alles! Warum?"
Die Antworten dazu werden nach und nach irgendwann gefunden werden.
Das technische "Wie" ist eine Trivialität. Es ist die heutige Mathematik der Quantenmechanik oder ein bzgl. des Bereichs der heute beobachtbaren Phänomene äquivalenter Formalismus; letzteres ist nur die Eintrittskarte, um am Spiel überhaupt teilnehmen zu dürfen.
Das "Wie?" erfordert keine Interpretation, sondern Definition und Feststellung.
Das "Warum" ist ja genau der Haupteinwand gegen Kopenhagen: sowohl prinzipiell als auch je Einzelfall eine ad hoc gebastelte Küchenphilosophie, eine physikalische Theorie, die Beobachtung ins Zentrum rückt und zugleich die Definition von Beobachtung ablehnt, und die auf Beobachtung fußt, jedoch irgendwie mit der Beobachtung von Einzelsystemen auf Kriegsfuß steht. In der Folge wird dann Physik umgedeutet zu Linguistik, denn es sei ja "falsch zu denken, dass es die Aufgabe der Physik sei herauszufinden, wie die Natur beschaffen ist", stattdessen handele "Physik davon, was wir über die Natur sagen können." Später kommt der ganze subjektivistische Informationskram im Sinne des "Realität = Information", hart am Rande des irrationalen postmodernistischen Krams.
Durch die Kopenhagener Interpretation wird die Fragestellung "Wie?" bei bestimmten Aspekten außen vorgelassen bzw. auf Stochastik vereinfacht, da das "Warum?" nicht interessiert. Es war sicher der einfachere Weg und dazu hat dieser auch sehr gut funktioniert was techn. Entwicklungen betrifft.
Das kann ich nicht nachvollziehen.
Wir wissen aus der klassischen Physik, dass fundamentaler Determinismus und effektivier Zufall gut zusammenpassen; wir verstehen sogar, wie das funktioniert. Warum nicht auch umgekehrt?
Mit der Stochastik wird die Beschreibung bzw. das "Wie?" auf ein Schnitt gebracht, mit dem technische Entwicklungen möglich waren und weiterhin sind. Der Erfolg verhindert die Einsicht, dass es sich um eine Vereinfachung der Natur handelt. Zufall beim Determinsums ist ja auch alltäglich und für jeden "erfahrbar". Meiner Meinung nach macht es einen grßen unterschied ob der Zufall logisch und vor allem einfach nachvollziehbar durch chaotische Prozesse erklärt werden kann oder ob "behauptet" wird, dass die chaotischen Einflüsse real sind aber im Kern noch zusätzlich ein objektiv stochastischer Prozess, also ein "besserer, noch mehr unvorhersehbarer" Zufall postuliert wird. Meiner Meinung nach muss dann zumindest sehr gut erklärt werden, warum dieser objektive Zufall zusätzlich eingeführt werden muss.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Im Schwinger-Keldysh-Formalismus ....
Da muss ich viel nachlesen.

Bezüglich Cramer schein Jakito anderer Meinung zu sein oder basiert der Schwinger-Keldysh-Formalismus auf cramers Arbeit und ist nur der aktuelle Stand eer Transactional Interpretation?
Sobald ein physikalisches Problem wirklich gelöst ist, kann man oft bequem auf die Literatur über Interpretationen und Interpretationsprobleme verzichten. Solange man aber noch damit kämpft, können die verschiedenen Bilder und Formalismen schon extrem hilfreich sein. Allerdings nicht, wenn es nur ein inkonsistenter Haufen von Geschichten wie bei Cramer ist.

Fundamental sehe ich nichts Kontinuierliches, keine "Fäden", die die Ereignisse miteinander verbinden. Auf etwas größeren Skalen gibt es aber schon Strukturen, die man topologisch charakterisieren kann. In Festkörpern, die ja eigentlich nur aus einzelnen Atomen bestehen, gibt es zum Beispiel linienförmige Versetzungen, die sich nur aus der Anordnung der Atome ergeben. Das kann man mit einer Kontinuumstheorie gut beschreiben, aber nicht an einzelnen Atomen festmachen.
Ist das dann aber vielleicht nur dem geschuldet, dass die Atome die kleinsten gebundenen Bestandteile der Materie sind und wir kleinere Skalen unterhalb eines Protonradius kaum auf seine Struktur untersuchen können? In der Grenzbereichen z.B. der Hochenergiephysik könnten sich dann auf kleinere Skalen Strukturen bilden.
Es ist für mich einzig und allein eine Frage der Ökonomie. Es ist denkbar, dass es ein festes Grundmuster gibt, aus dem sich alle Ereignisse berechnen ließen.
Das glaube ich gar nicht. eine Art Weltformel wird es nicht geben aber ein Set aus verschiedenen, sich ergänzenden Theorien mit gewisse Übergange untereinander kann ich mir gut vorstellen.
Ich bin aber mit viel weniger zufrieden. Als "Erklärung" der Bell-Experimente reicht mir die Vorstellung, dass John Cramer's "confirmation waves" von den Detektoren zurücklaufen und die Drehimpuls-Erhaltung besiegeln. Obwohl ich diese Wellen nicht für etwas Reales halte! Ich bin froh, dass es überhaupt eine Theorie gibt, die die beobachteten Korrelationen richtig beschreibt.
Ok, das verstehe ich aber das hindert ja nicht daran das zu hinterfragen, was einem als nicht real vorkommt...egal wie gut es funktioniert.
Da bin ich ganz anderer Ansicht! Einmal ist "Dekohärenz" für mich nur ein Zauberwort -- das Wort Kohärenz wurzelt ja in der statistischen Theorie der klassischen Wellenoptik. Und der Quantenrechner ist nur ein Analogrechner. Dass ein solcher Rechner eine 100-stellige Zahl in naher Zukunft faktorisieren könnte, halte ich für so wahrscheinlich wie eine Frequenzmessung mit 100-stelliger Genauigkeit.
Kohärent bedeutet zusammenhängend und dekohärent bedeutet dem zusammenhängenden entgegenzuwirken. Das "Zusammenhängen" beziehe ich auf den kontext Ursache und Wirkung. Dekohärenz bedeutet diesen lokal kausalen Zusammenhang entgegenzuwirken, sodass ein nicht-lokaler aber dennoch determinstischer Zusammenhang entsteht.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
@Jakito
Hat die TI ihren "Ursprung" in den Transactional Interpretation oder warum vor der TI, die Arbeit Cramers studieren?
My next encounter happened when I was fighting with reciprocity occuring for crystal effects in electron scattering, and hoped for help from time symmetric interpretations. Naturally, I started studying TI by studying John Cramer's initial version, and was seriously underwhelmed.
 

Jakito

Registriertes Mitglied
Bezüglich Cramer schein Jakito anderer Meinung zu sein oder basiert der Schwinger-Keldysh-Formalismus auf cramers Arbeit und ist nur der aktuelle Stand eer Transactional Interpretation?
Der Schwinger-Keldysh-Formalismus ist total unabhängig von Cramers Transactional Interpretation. Das einzige was sie gemeinsam haben, ist das QM oft sehr zeitsymmetrisch aussieht, sobald der Kollaps sauber eliminiert wurde. Und Cramers Interpretation versucht halt schöne Geschichten zu erzählen, die diese Zeitsymmetrie ein wenig plausibler macht, und ihr ein bischen mehr fundamentale Bedeutung zugestehen.

Kohärent bedeutet zusammenhängend und dekohärent bedeutet dem zusammenhängenden entgegenzuwirken. Das "Zusammenhängen" beziehe ich auf den kontext Ursache und Wirkung. Dekohärenz bedeutet diesen lokal kausalen Zusammenhang entgegenzuwirken, sodass ein nicht-lokaler aber dennoch determinstischer Zusammenhang entsteht.
Klingt zwar alles sehr plausibel, aber so war es halt nicht. Es ging von vorneherein immer um das Verschwinden von Interferenztermen.
@Jakito
Hat die TI ihren "Ursprung" in den Transactional Interpretation oder warum vor der TI, die Arbeit Cramers studieren?
TI stand hier natürlich für Transactional Interpretation. Da ich mich Ende April über sie beschwert habe, habe ich sie vermutlich ab Anfang April studiert gehabt. Die Thermal Interpretation hat absolut gar nichts mit der Transactional Interpretation zu tun.
 

antaris

Registriertes Mitglied
Der Schwinger-Keldysh-Formalismus ist total unabhängig von Cramers Transactional Interpretation. Das einzige was sie gemeinsam haben, ist das QM oft sehr zeitsymmetrisch aussieht, sobald der Kollaps sauber eliminiert wurde. Und Cramers Interpretation versucht halt schöne Geschichten zu erzählen, die diese Zeitsymmetrie ein wenig plausibler macht, und ihr ein bischen mehr fundamentale Bedeutung zugestehen.
Ich hatte mir zu der Zeitsymmetrie auch schon vor länger Zeit Gedanken gemacht. Letztendlich ist diese eine Folge der Dirac-Gleichung? Da fehlt bei mir noch zuviel Wissen, da ich zu dem Zeitpunkt viel zu wenig verstanden hatte. Vielleicht kann ich mich jetzt damit mal wieder beschäftigen
Klingt zwar alles sehr plausibel, aber so war es halt nicht. Es ging von vorneherein immer um das Verschwinden von Interferenztermen.
Begriffsdefinitionen können sich mit der Zeit ändern. Der heutige Dekohärenzbegriff, wie ich es formuliert habe, findet heute in der Dekohärenztheorie Anwendung?
TI stand hier natürlich für Transactional Interpretation. Da ich mich Ende April über sie beschwert habe, habe ich sie vermutlich ab Anfang April studiert gehabt. Die Thermal Interpretation hat absolut gar nichts mit der Transactional Interpretation zu tun.
Dann war es nur ein Missverständnis.
 

TomS

Registriertes Mitglied
Es könnte versucht werden äußere Effekte auszuschließen.
Aber das ist eben praktisch unmöglich.

… muss zwangsläufig das objektive Modell in Frage gestellt werden. Wie könnte in dem Fall behauotet werden, dass es sich um objektiven zufall handeln muss?
Das Problem haben wir in der Physik immer. Nur weil eine Theorie die Phänomene korrekt beschreibt, muss sie nicht die eine einzige wahre Theorie sein.

Das "Wie?" erfordert keine Interpretation, sondern Definition und Feststellung.
Aber die Interpretation und damit die Erklärung des "Warum" kann nur auf dem – experimentell gesicherten "Wie" aufsetzen. Das "Wie" erfordert natürlich keine Interpretation für sich selbst – wir fordern das.

Meiner Meinung nach macht es einen großen unterschied ob der Zufall logisch und vor allem einfach nachvollziehbar durch chaotische [fundamental deterministische] Prozesse erklärt werden kann oder ob "behauptet" wird, dass die chaotischen Einflüsse real sind aber im Kern noch zusätzlich ein objektiv [fundamental] stochastischer Prozess, also ein "besserer, noch mehr unvorhersehbarer" Zufall postuliert wird.
Im Sinne der Sparsamkeit lässt man letzteres weg, falls ersteres ausreichend ist.

Mir ging es aber eher um die Frage, ob eine fundamental stochastische Theorie zu einer auf makroskopischer Ebene deterministischen Theorie im Widerspruch stehen muss. Und dafür sehe ich kein Argument, da wir wissen, dass wir stochastische Elemente ausintegrieren können – z.B. Brownsche Bewegung, jedoch deterministische Gleichungen für die Strömungsmechanik makroskopischer Körper.

Die TI ist übrigens in diesem Sinne nicht fundamental.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Das Problem haben wir in der Physik immer. Nur weil eine Theorie die Phänomene korrekt beschreibt, muss sie nicht die eine einzige wahre Theorie sein.
Was ich meine ist, dass Wahrscheinlichkeiten bzw. Statistiken immer eine Vereinfachung komplexer Zusammenhänge darstellen.
Aber die Interpretation und damit die Erklärung des "Warum" kann nur auf dem – experimentell gesicherten "Wie" aufsetzen.
Ganz genau.
Das "Wie" erfordert natürlich keine Interpretation für sich selbst – wir fordern das.
Aus der Fragestellung "Wie?" wird die Fragestellung "Warum?", nur wenn wir das fordern.
Im Sinne der Sparsamkeit lässt man letzteres weg, falls ersteres ausreichend ist.
Das sieht dann z.B. Prokyon genau andersherum:
[Kannst du erläutern warum der Determinismus in der QM für dich ausgeschlossen ist?] Es ist für mich einzig und allein eine Frage der Ökonomie.

Mir ging es aber eher um die Frage, ob eine fundamental stochastische Theorie zu einer auf makroskopischer Ebene deterministischen Theorie im Widerspruch stehen muss. Und dafür sehe ich kein Argument, da wir wissen, dass wir stochastische Elemente ausintegrieren können – z.B. Brownsche Bewegung, jedoch deterministische Gleichungen für die Strömungsmechanik makroskopischer Körper.
Die brownsche Bewegung ist aber eben gar nicht stochastisch, wir vereinfachen diese nur in diese Richtung.
Die TI ist übrigens in diesem Sinne nicht fundamental.
Doch ist sie, nur nicht wirklich im Bezug zur Unkenntnis beim Messproblem:
A.Neumaier:
  • Der Zustand des Detektors allein reicht nicht aus um den Messwert vorherzusagen, auch die Wechselwirkung des Detektors mit seiner Umgebung produziert Zufall, wenn man die Umgebung nur grob kennt.
  • Die fehlende Information kann also nur approximativ berücksichtigt werden, was dem Zufall die Tür öffnet.
  • Das hat eigentlich nichts mit der TI oder Quantenmechanik zu tun, sondern nur mit (klassischer) relativistischer Dynamik. Da sind Vorhersagen der Zukunft aus Daten der Vergangenheit zwangsläufig approximativ (also nicht unmöglich, aber unsicher und/oder Zufall-behaftet).
    Trotz deterministischer Gleichungen und eines wohlgestellten hyperbolischen Anfangswertproblems! Denn die nötigen Anfangsdaten kann ein physikalischer Beobachter nicht gesammelt haben, bevor sein Vergangenheitskegel alle vorherzusagenden Beobachtungspunkte enthält.
    In der theoretischen Relativitätstheorie macht man daher (deterministische oder stochastische) Annahmen über die fehlende Information. Dann hat man ein Modell, in der der Theoretiker in der Rolle Gottes ist, nämlich mehr kennt als ein physikalischer Beobachter kennen kann. Daher kann er Vorhersagen machen. Deren Qualität ist aber nur so gut wie die hineingesteckten Annahmen korrekt sind.
    In der Praxis berücksichtigt man, dass ein Modell nicht vollständig korrekt sein wird, indem man durch Störungsrechnungen den Einfluss der gemachten Annahmen abschätzt und nur das behauptet, was robust genug unter Störungen ist. Der tägliche Wetterbericht ist ein Beispiel dafür.
  • Die Natur sorgt laut TI für eindeutige Messergebnisse, unabhängig davon, was wir wissen.
  • Das klassische Galtonbrett ist ein deterministischer Zufallsgenerator, der auf wiederholter Symmetriebrechung beruht und in einem dynamischen Prozess Realisierungen einer Zufallsvariablen mit einer diskrete Binomialverteilung produziert. Das Galtonbrett illustriert sehr anschaulich, wie in der Physik aus Symmetriebrechung Zufall entsteht.
Prof. Neumaier hat eindeutig geschrieben, dass Chaos für den Zufall notwendig ist.

A.Neumaier:
Die Mastergleichung ist eine deterministische Gleichung für die Wahrscheinlichkeitsverteilung des stochstischen Systems. Man kann Zufall mathematisch nur dadurch in den Griff bekoommen, dass man deterministisch über Verteilungen redet. Jedes Buch über stochastische Prozesse macht das.

Hier eine Aussage von Jakito zu den Einzelsystemen:
Jakito schrieb:
die deterministischen Gleichungen sind vor allem wichtig, um aufs "Einzelsystem" anwendbar zu bleiben (statt nur auf Ensembles), ohne einen "absoluten objektiven Zufall" postulieren zu müssen, der am Ende vermutlich ohnehin mathematisch nicht wohldefiniert wäre, bzw. gar nicht existieren könnte.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Was ich meine ist, dass Wahrscheinlichkeiten bzw. Statistiken immer eine Vereinfachung komplexer Zusammenhänge darstellen.
Nein, das tun sie nicht notwendigerweise.

So werden sie üblicherweise eingeführt, so sind wir mit ihnen vertraut. Es spricht jedoch nichts dagegen, eine stochastische Dynamik für ein Einzelsystem zu konstruieren, die fundamental ist.

Das sieht dann z.B. Prokyon …
Es ist für mich einzig und allein eine Frage der Ökonomie … Obwohl ich diese Wellen nicht für etwas Reales halte! Ich bin froh, dass es überhaupt eine Theorie gibt, die die beobachteten Korrelationen richtig beschreibt.
… genau andersherum.
Aber nur, weil er ökonomisch (nach meinem Dafürhalten) zu sparsam ist: Er ist zumindest nach dieser Aussage nicht an einer objektiven Realität interessiert, sondern lediglich an dem subjektiven Ausschnitt beobachtbarer Phänonemene. Außerdem spricht er von Bell-Experimenten – welchen genau ist unklar – aber bis zu GHZ waren derartige Experimente ausschließlich statistisch aussagekräftig für ein reales Ensemble von Systemen, nicht über Einzelsysteme.

Wenn ich nur eingeschränkte Erwartungen habe, ist eine gewisse Wahl der Mittel natürlich ökonomischer.

Ein Hersteller von Billigweckern führt eine rein stichprobenartige Endkontrolle durch, Manufakturen von Luxusuhren dagegen intensive tagelange Tests je Einzelstück. Beides ist ökonomisch für sich betrachtet optimal, die Übertragung auf den jeweils anderen Fall führt in den Ruin des Unternehmens. Es kommt schon darauf an, worauf man hinauswill.

Außerdem funktioniert die Denkökonomie m.E in beiden Fällen: fundamental X => phänomenologisch X oder Y, je nach betrachtetem Phänomen, wobei X = stochastisch oder deterministisch; beides kann funktionieren.

Die brownsche Bewegung ist aber eben gar nicht stochastisch, wir vereinfachen diese nur in diese Richtung.
1) Warum nicht?

2) Darum ging es mir nicht; es ging darum, dass fundamental stochastische Prozesse nicht ausschließlich stochastische Phänomene hervorbringen müssen. Am Galton-Brett ist jede einzelne binäre Entscheidung stochastisch, das Resultat im Grenzfall einer sehr großen Anzahl N derartiger Entscheidungen jedoch nicht.


Nein, ist sie nicht.

… Prof. Neumaier hat eindeutig geschrieben, dass Chaos für den Zufall notwendig ist.
Aber dieses Chaos ist nicht fundamental stochastisch, sondern fundamental deterministisch. Nicht-linear und stochastisch wird es nur aufgrund des offenen Systems bzw. der unvollständigen Kenntnis des Anfangszustandes.

Er schreibt, dass für ihn nur eine Quantentheorie des gesamten Universums unitär und linear sein kann. Da diese 1) nicht vorliegt, und – selbst wenn sie vorläge – 2a) ein initialer Mikrozustand nur unvollständig bekannt und 2b) seine Dynamik nur näherungsweise beschreibbar wäre, ist die resultierende TI sicher stochastisch, jedoch nicht fundamental stochastisch.
 
Zuletzt bearbeitet:

Prokyon

Registriertes Mitglied
Dieser Kontext ist der Messprozess.

Dann blendet dieser Realismusbegriff alles aus, was nicht in den Kontext der Messung passt.
Unsinn. Das projizierst du hinein.
Er ist zumindest nach dieser Aussage nicht an einer objektiven Realität interessiert, sondern lediglich an dem subjektiven Ausschnitt beobachtbarer Phänonemene.
Das ist das genaue Gegenteil meiner Position.
 

TomS

Registriertes Mitglied
Unsinn. Das projizierst du hinein.

Das ist das genaue Gegenteil meiner Position.
Aber das schreibst du nicht, zumindest nicht an der von mir zitierten Stelle:
Aber was man als real bezeichnet, hängt vom Kontext ab, und was mit den verwendeten Begriffen genau gemeint ist. Ich habe den Begriff "Photon" schon sehr oft benutzt und habe kein Problem damit. Meistens wissen die Leute ja, was gemeint ist. Was mich nervt, ist dieses Gerede von "entanglement". In diesem Kontext ist ein Photon für mich nur ein Paar von Emissions- und Absorptionsprozessen, zwei kurze Stromstöße in der Quelle, und zwei kurze Stromstöße im Detektor. Und es geht nur darum, dass diese Stromstöße einen Parallelismus haben. Eine zusätzliche Entität einzuführen, die von der Quelle zum Detektor wandert, ist so (wenig) hilfreich wie die Idee, dass es einen Äther braucht um die Lichtausbreitung zu erklären.
Du schließt das, was ohne Messung existiert, nämlich "eine zusätzliche Entität, die von der Quelle zum Detektor wandert" als nicht hilfreich aus.
 
Oben