Was ich meine ist, dass Wahrscheinlichkeiten bzw. Statistiken immer eine Vereinfachung komplexer Zusammenhänge darstellen.
Nein, das tun sie nicht notwendigerweise.
So werden sie üblicherweise eingeführt, so sind wir mit ihnen vertraut. Es spricht jedoch nichts dagegen, eine stochastische Dynamik für ein Einzelsystem zu konstruieren, die fundamental ist.
Das sieht dann z.B. Prokyon …
Es ist für mich einzig und allein eine Frage der Ökonomie … Obwohl ich diese Wellen nicht für etwas Reales halte! Ich bin froh, dass es überhaupt eine Theorie gibt, die die beobachteten Korrelationen richtig beschreibt.
Aber nur, weil er ökonomisch (nach meinem Dafürhalten)
zu sparsam ist: Er ist zumindest nach dieser Aussage nicht an einer objektiven Realität interessiert, sondern lediglich an dem
subjektiven Ausschnitt beobachtbarer Phänonemene. Außerdem spricht er von Bell-Experimenten – welchen genau ist unklar – aber bis zu GHZ waren derartige Experimente
ausschließlich statistisch aussagekräftig für ein reales Ensemble von Systemen, nicht über Einzelsysteme.
Wenn ich nur eingeschränkte Erwartungen habe, ist eine gewisse Wahl der Mittel natürlich ökonomischer.
Ein Hersteller von Billigweckern führt eine rein stichprobenartige Endkontrolle durch, Manufakturen von Luxusuhren dagegen intensive tagelange Tests je Einzelstück. Beides ist ökonomisch für sich betrachtet optimal, die Übertragung auf den jeweils anderen Fall führt in den Ruin des Unternehmens. Es kommt schon darauf an, worauf man hinauswill.
Außerdem funktioniert die Denkökonomie m.E in beiden Fällen: fundamental X => phänomenologisch X oder Y, je nach betrachtetem Phänomen, wobei X = stochastisch oder deterministisch; beides kann funktionieren.
Die brownsche Bewegung ist aber eben gar nicht stochastisch, wir vereinfachen diese nur in diese Richtung.
1) Warum nicht?
2) Darum ging es mir nicht; es ging darum, dass fundamental stochastische Prozesse nicht ausschließlich stochastische Phänomene hervorbringen müssen. Am Galton-Brett ist jede einzelne binäre Entscheidung stochastisch, das Resultat im Grenzfall einer sehr großen Anzahl N derartiger Entscheidungen jedoch nicht.
Nein, ist sie nicht.
… Prof. Neumaier hat eindeutig geschrieben, dass Chaos für den Zufall notwendig ist.
Aber dieses Chaos ist nicht fundamental stochastisch, sondern fundamental deterministisch. Nicht-linear und stochastisch wird es nur aufgrund des offenen Systems bzw. der unvollständigen Kenntnis des Anfangszustandes.
Er schreibt, dass für ihn nur eine Quantentheorie des gesamten Universums unitär und linear sein kann. Da diese 1) nicht vorliegt, und – selbst wenn sie vorläge – 2a) ein initialer Mikrozustand nur unvollständig bekannt und 2b) seine Dynamik nur näherungsweise beschreibbar wäre, ist die resultierende TI sicher stochastisch, jedoch nicht fundamental stochastisch.