Hier noch meine Kommentare zu UMa's einführender Rechnung. Möglicherweise verstehe ich ihn falsch oder bin zu dumm dafür, aber ich sehe aus dem, was er geschrieben hat nicht, wie das das DA wiederlegen soll.
Wie SK schon geschrieben hat, lässt sich das DA ganz einfach über das (oder Variationen des) Urnenbeispiels illustrieren. Wenn ich aus einer Urne mit von 1 bis N durchnummerierten Losen ein Los mit der Nummer X ziehe, dann gilt in 99% der Fälle, in denen ich das mache, N<99*X (ja, N ist endlich und das Ziehen aus der Urne ist fair). Auf die Geburtsnummern übertragen heisst das, mit 99% Wahrscheinlichkeit (a priori) ist die totale Anzahl Menschen < 99*(70-100 Mrd).
Ja, nur wenn die Anzahl Menschen endlich ist (zweifellos, aus Gründen der Thermodynamik und der begrenzten Lichtgeschwindigkeit) und die "Self-Sampling-Assumption" (IMO eine Nebelkerze, ausser man will ernsthaft in Betracht ziehen, dass unsere Welt eine Simulation ist) gilt.
Aber nehmen wir mal UMa's Argumentation auf und versuchen zu bestimmen, ob wir wohl eher in einer Welt leben, in der es total 200 Milliarden Menschen geben wird (das pessimistische Szenario s_1), oder alternativ eine, in der es total 200 Billionen Menschen (also 1000 mal mehr) geben wird (das optimistische Szenario s_2). Wir beobachten die Geburtsnummer 100 Milliarden - welches Zukunftsszenario ist demnach wahrscheinlicher? Diese Umformulierung ist zwar korrekt, bedingt aber (im Gegensatz zum DA), dass wir dass wir den beiden Szenarien, die wir für diese Überlegung in Betracht ziehen wollen, nun eine Wahrscheinlichkeit zuweisen müssen: denn wenn wir das nicht tun, können wir unmöglich sagen, wie wahrscheinlich unsere Beobachtung des Geburtsranges ist.
Die Wahrscheinlichkeit, einen bestimmten, spezifischen Geburtsrang zu haben, ist natürlich immer 1/N, dh, sie ist 1/100 Milliarden im pessimistischen, und 1/100 Billionen im optimistischen Szenario. Doch wie wahrscheinlich ist es nun, dass wir uns in Szenario s_1 oder s_2 befinden, in Abhängigkeit der Beobachtung, dass wir einen Rang von 100 Milliarden haben? Dafür brauchen wir die sogenannt bedingte Wahrscheinlichkeit (UMa und Co wissen das natürlich, aber ich will, dass es hier einmal alle mitverfolgen können).
Bedingte Wahrscheinlichkeit wird so formuliert: P(A | B) = P(A & B) / P(B).
P(A | B) bedeutet, dass A unter der Bedingung, dass B eingetreten ist, auftritt. P(A & B) ist die Wahrscheinlichkeit, dass A und B zusammen auftreten, und P(B) ist die Wahrscheinlichkeit, dass B auftritt. Das heisst also, die Wahrscheinlichkeit, dass A eintritt, wenn zuvor B eingetreten ist, entspricht der Wahrscheinlichkeit, dass A und B zusammen auftreten, geteilt durch die Wahrscheinlichkeit, dass B auftritt. Also wenn wir z.B. wissen wollen, wie gross die Wahrscheinlichkeit ist, mit einem 6er Würfel eine 4 gewürfelt zu haben, wenn man bereits weiss, dass man eine gerade Zahl gewürfelt hat, gilt also:
P (4 gewürfelt | gerade Zahl gewürfelt) = P(4 gewürfelt und gerade Zahl gewürfelt) / P(gerade Zahl gewürfelt) = (1/6) / (1/2) = 1/3.
Und das stimmt natürlich: es gibt genau drei gerade Zahlen, die man mit einem 6er-Würfel würfeln kann, und die 4 ist eine von den dreien, also beträgt die Chance 1/3.
Soweit alles klar? Weiter.
P(A), also die
"totale" Wahrscheinlichkeit, dass A auftritt, kann man natürlich als Summe der Wahrscheinlichkeit, dass A unter der Bedingung von B auftritt, plus der Wahrscheinlichkeit, dass A NICHT unter der Bedingung von B auftritt (Nicht-B) ausdrücken, also:
P(A) = P(A | B) * P(B) + P(A | -B) * P(-B).
Wenn wir nur zwei Fälle haben (wie hier, mit unseren Szenarien s_1 und s_2), dann ist P(-B) natürlich gerade 1 - P(B).
Und zuletzt brauchen wir nur noch den Satz von Bayes. Er verknüpft P(A | B) und P(B | A) miteinander. Es gilt ja:
P(A | B) = P(A & B) / P(B) => P(A | B) * P(B) = P(A & B)
P(B | A) = P(A & B) / P(A) => P(B | A) * P(A) = P(A & B)
Also: P(A | B) * P(B) = P(B | A) * P(A)
Und damit: P(A | B) = P(B | A) * P(A) / P(B)
P(B) kann man dann mit der totalen Wahrscheinlichkeit (für B) von oben ersetzen und erhält folgenden Wurm:
P(A | B) = P(B | A) * P(A) / ( P(B | A) * P(A) + P(B | -A) * P(-A) )
Nun können wir also einsetzen:
P(s_1 | X=100 Mrd) = P(X=100 Mrd | s_1)*P(s_1) / (P(X=100 Mrd | s_1)*P(s_1) + P(X=100 Mrd | s_2)*P(s_2))
Warum haben wir das gemacht? Nun stehen zum Teil Werte drin, die wir kennen:
P(X=100 Mrd | s_1) = 1/200 Mrd = a
P(X=100 Mrd | s_2) = 1/200 Bio = b
Ausserdem stehen da P(s_1) und P(s_2). Welche Wahrscheinlichkeiten sollen wir den beiden Szenarien zunächst einmal zuweisen? Nehmen wir als erstes mal an, die beiden seien etwa gleich wahrscheinlich, also P(s_1) = 0.5 und P(s_2) = 0.5. Was kommt da raus? Folgendes:
P(s_1 | X=100 Mrd) = a * 0.5 / ( (a * 0.5) + (b * 0.5) ) = 99.9%. Uups. Es gibt, unter der Annahme, dass beide Szenarien gleich plausibel sind, eine offenbar erdrückend hohe Wahrscheinlichkeit, dass wir uns im pessimistischen Szenario befinden. Das könnte man als Variation auf das klassiche DA, wie ich es üblicherweise formuliere, verstehen.
Doch seien wir mal optimistisch und weisen wir dem optimistischen Szenario P(s_2) = 0.99 zu, und dam pessimistischen entsprechend P(s_1) = 0.01. Dann gilt:
P(s_1 | X=100 Mrd) = a * 0.01 / ( (a * 0.01) + (b * 0.99) ) = 91%. Das heisst, obwohl wir dem optimistischen Szenario nun eine sehr viel grössere Plausibilität eingeräumt haben, ist die Wahrscheinlichkeit, dass wir uns im pessimistischen Szenario befinden, immer noch sehr gross, nämlich 91%.
Was geschieht aber nun, wenn wir den beiden Szenarien die Plausibilität gerade proportional zur Anzahl ihrer Beobachter zusprechen, also P(s_2) = 0.999 und P(s_1) = 0.001? Dann ergibt die die Rechnung:
P(s_1 | X=100 Mrd) = a * 0.001 / ( (a * 0.001) + (b * 0.999) ) = 0.5 = 50.0%.
Wenn also jeder Beobachter die Wahrscheinlichkeit, dass ein bestimmtes Szenario beobachtet wird, proportional erhöht (und das ist keineswegs klar, dass dem so sein soll), dann hebelt das direkt den Effekt des DA aus, und man ist "so schlau wie zuvor". Dieses Argument ist allerdings nicht neu, man nennt es "
Selbstindikation" bzw. "
self-indication-assumption" = SIA (siehe auch:
http://en.wikipedia.org/wiki/Self-Indication_Assumption_Doomsday_argument_rebuttal).
Man kann übrigens auch weitere Szenarien hinzunehmen, aber die Wahrscheinlichkeit, sich in einem bestimmten davon zu befinden, wird immer 1/S sein, mit S der Anzahl in Betracht gezogener Szenarien. Es erscheint nicht nur ein bisschen seltsam, dass die Wahrscheinlichkeit, mit der ein Szenario eintreten soll, von der Anzahl Szenarien abhängen soll, die man zum Vergleich heran zieht. Wenn jedes Szenario (dh, jede künftige Anzahl Menschen) gleich wahrscheinlich ist, dann dominieren die Szenarien, die grösser sind als die im Universum überhaupt mögliche maximale Populationsanzahl U, die Wahrscheinlichkeitsverteilung, denn es gibt keine Obergrenze, bei der die Verteilung gekappt wird. Beim DA hingegen bekommt man eine Wahrscheinlichkeitsverteilung, die von Szenarien dominiert ist, die (fast) allesamt extrem viel kleiner als U sind. Weiter halte ich es für unbefriedigend, dass man die Plausibilität der einzelnen Szenarien "von Hand" vorgeben muss. Und schliesslich ändert die SIA nichts daran, dass wir in den postulierten bevölkerungsreichen Szenarien stets extreme, unwahrscheinliche Positionen
innerhalb der jeweiligen Population einnehmen, stets ganz am Anfang... Und zu guter Letzt: Im pessimistischen Szenario s_1 sind nur 50% der Menschen "erfunden" - im optimistischen s_2 sind es 99.99%, aber gemäss SIA ist nichts dabei (es ist gleich wahrscheinlich), Szenarien mit (1-10^-100)*100% erfundenen Menschen zu postulieren. Das erscheint dann definitiv so, als müssten wir hier einfach zwanghaft gewaltige künftige Menschenmengen erfinden, um uns aus den viel stärker in der Realität verankerten, aber pessimistischen Szenarien herauszuretten.