Ich muss vielleicht zuerst hinzufügen, dass ich mit "in relativ kurzer Zeit" einen Zeitraum von zwischen einigen Jahrtausenden bis vielleicht einigen Jahrhunderttausenden meine.
mit Ausnahme solcher Events wie Atomkrieg oder Killer-Asteroid
Aber es geht mir genau um solche "existenziellen" Risiken. Es gibt noch viele andere denkbare (Bioterrorismus, exotische Technologien, Replikatorkatastrophe, Konflikte mit überlegener künstlicher Intelligenz, etc.) und sicher auch solche, von denen wir heute noch gar nichts wissen. Je weiter die Technologie fortschreitet, desto grösser werden auch die Möglichkeiten, und damit auch die Möglichkeiten, die Zivilisation selbst - absichtlich oder unabsichtlich - damit zu zerstören. Auch wenn solche existenziellen Risiken für die Menschheit eine sehr kleine Eintretenswahrscheinlichkeit haben (sagen wir, kumuliert über alle Gefahren 1/1000 pro Jahr), dann heisst das eben auch im Umkehrschluss, dass es nur ein paar Jahrhunderte bis Jahrtausende dauern wird, bis "Murphy's Law" schliesslich zuschlägt.
Es ist schwierig, zu beurteilen, wie man die Eintretenswahrscheinlichkeit existenzieller Krisen abschätzen soll. Es geht ja nicht einfach darum, die Eintretenswahrscheinlichkeit eines Atomkrieges abzuschätzen: sondern darum, abzuschätzen, wie oft ein Atomkrieg (und alle anderen möglichen Katastrophen) zum völligen Aussterben der Menschheit führt.
Am besten kann man solche Abschätzungen mit Bayesianischen Überlegungen anstellen, dh, man überlegt sich eine Reihe von Szenarien, beurteilt in ihnen jeweils die Wahrscheinlichkeit bestimmter, heute möglicher Beobachtungen und nimmt dann dasjenige Szenario als am plausibelsten an, in dem die wahrscheinlichsten Voraussagen am besten mit unseren Beobachtungen übereinstimmen. So beobachten wir zum Beispiel, dass wir (dh, die seit 500 Jahren westlich dominierte Welt) die erste Zivilisation auf der Erde sind, die Atomwaffen, Bioterrorismus etc. überhaupt einsetzen könnte, dh, die erste Zivilisation, die ÜBERHAUPT - entweder schon heute oder in naher Zukunft - die komplette Vernichtung der Menschheit willentlich herbeiführen könnte. Doch wie tödlich sind solche Gefahren? Wir können uns zwei Szenarien denken: ein "Phönix"-Szenario, wo die Menschheit diese Höhe der Technologie klimmt, sich dann zerstört, aber eben nicht vollständig. Die Eintretenswahrscheinlichkeit tatsächlich existenzieller Krisen wäre in diesem Szenario also eher gering: es kommen zwar Katastrophen vor, aber sie sind nicht Existenzbedrohend für die Menschheit als Ganzes. Das heisst, die Menschheit regeneriert sich nach dem Kollaps wieder, zerstört sich dann wieder, baut wieder auf, etc. - auf und ab, vielleicht über Jahrmillionen. Das zweite Szenario ist ein "Make-or-Break"-Szenario: wenn es im ersten Anlauf nicht klappt, ist die Chance vertan: die oben genannten existenziellen Risiken sind also eher hoch, bzw. die möglichen Katastrophen eher tödlich für die Menschheit als ganzes. Natürlich sind weitere "Zwischenmodelle" denkbar (z.B., zwei Kollapse, dann erst endgültiger Kollaps), aber wir wollen ja erst mal auf den generellen Trend hinaus, deshalb die zwei Extrempunkte. Im Phönix-Szenario beobachten die allermeisten Menschen, dass es schon frühere Zivilisationen mit Fähigkeit zur existenziellen Zerstörung gab, diese aber nie eingetreten ist. Nur die allererste Zivilisation in der Reihe (sagen wir, die Sequenz dauert 1 Mio Jahre, der Zyklus 10'000 Jahre, dann sind das bloss 1% aller Menschen) sieht keine Vorgänger und überschätzt entsprechend die Gefahr existenziellen Risiken. Im "Make-or-Break"-Szenario hingegen beobachten ALLE Menschen (100%), dass es keine Vorgängerzivilisationen gibt.
Wenn wir den beiden Szenarien ursprünglich die gleiche Wahrscheinlichkeit (50%) zugewiesen haben, müssen wir
diese Abschätzung nach Bayes nun aktualisieren: die Wahrscheinlichkeit für das "Make-or-Break"-Szenario ist dann (mit der Regel für die komplementären Szenarien):
P("Make-or-Break" | "Keine vorherigen Zivilisationen) = P ("Keine vorherigen Zivilisationen" im "Make-or-Break"-Szenario) * P ("Make-or-Break") / [ P ("Keine vorherigen Zivilisationen" im "Make-or-Break"-Szenario) * P ("Make-or-Break") + P ("Keine vorherigen Zivilisationen" im "Phönix"-Szenario) * P ("Phönix") ]
In Zahlen:
P = 100% * 0.5 / [ 100% * 0.5 + 1% * 0.5 ] = 99%.
Die Chance, wenn es nur diese beiden Möglichkeiten gibt, stehen also 99% für das Make-or-Break-Szenario, und nur 1% für das Phönix-Szenario. Man kann das natürlich auch mit weiteren "Zwischenszenarien" durchspielen, aber das Ergebnis wird immer sein, dass das Make-or-Break-Szenario (Null frühere Kollapse, tödlichste Katastrophen) das wahrscheinlichste von allen ist. Die qualitative Aussage, die man aus dieser Überlegung ziehen sollte: Der Umstand, dass wir keine früheren Hochzivilisationen beobachten, legt nahe, dass wir die Gefahr existenzieller Katastrophen für die Menschheit eher unter- als überschätzen.
Natürlich gilt auch: je weiter die Menschheit im Universum verbreitet ist, desto geringer die Wahrscheinlichkeit, dass eine einzige Katastrophe die Menschheit als ganzes komplett vernichten wird.