Hallo godwin,
Im Gegensatz zu vielen anderen SciFi-Themen haben wir hier den Beweis der ‚Machbarkeit‘ direkt vor unseren Augen.
MAC
Gibt es neue Erkenntnisse? Soweit ich weiß, gab es anfangs eine sehr große
Euphorie bezüglich der Entwicklung von KI. Ernüchterung und Verbalkosmetik
zogen ein: Von starker und schwacher KI ist jetzt die Rede.
woraus schließt Du das?
MAC
Meinst du die Singularität oder die veränderte Zeitbasis für
Kommunikation und Enwicklung?
Also ich nehme hier nur an, daß ... Eine wie auch immer geartete starke KI
könnte ja durchaus die Entscheidung treffen eben nicht in die
Singularität zu gehen, warum auch immer, sollten wir die dann fragen!
Entscheidet diese sich aber dafür und hat die Möglichkeiten, also Zugriff
auf Resourcen u.s.w., sollte das zweite, also die immer schnellere Entwicklung und Kommunikation zwingend folgen.
Sonst wäre es ja irgendwie keine Singularität.
laß mal Deinen ‚Blick‘ schweifen und zähl mal zusammen, welche technische Lösung die Zeitfessel ihres biologischen Pendants um einen Faktor 100.000 übertrifft.
MAC
Ja, in der Tat wir sind de Meister der Insellösungen, wir können schneller und höher fliegen, schneller fahren haben das Rad erfunden...
Nur wir selbst sind immer noch so wie es schon vor zig 1000 Jahren waren.
Vielleicht wird es irgendwann durch die Gentechnik auch zu einer
biologischen Singularität kommen, wer weiß.
Du setzt bei dieser Frage stillschweigend voraus, daß sich das was wir für Intelligenz halten (ohne es überhaupt definieren zu können) ins unermeßliche (für unsere Maßstäbe) steigern läßt.
MAC
Ja, das setze ich voraus, warum sollte ich nicht, grade wenn ich nur
die Basis des Intelligenzbegriffes als Grundlage nehme:
Verstehen, Abstrahieren, Anwenden!
Ich hab‘ da eine andere Favoritenliste:
A) Wir sind die ersten weit und breit, die es schaffen könnten.
B) Es geht prinzipiell nicht.
C) Um den Abgrund zu überwinden, muß eine kleine Gruppe mehr Energie kontrolliert einsetzen können, als das Ökosystem dieser Gruppe bei der Bereitstellung oder bei einem unkontrollierten Einsatz dieser Energie verkraftet. Und das hat noch keiner geschafft.
Ich bevorzuge eindeutig A, fürchte aber daß C die realistischere Begründung ist.
MAC
Ich halte C auch für die realistischere und würde hier auch wieder
behaupten, das eine starke KI eben damit keine Probleme hätte.
Eine Spezies ist nicht deshalb erfolgreich weil sie intelligent ist. Erfolgreich ist, wer nicht ausstirbt.
MAC
Nun ich sage es mal so: Intelligenz verschafft einen Vorteil nicht
auszusterben, bei denen nichtintelligente Wesen passen müssen.
(Epidemien, Katastrophen u.s.w.) Gebe dir in dem Punkt recht, wenn
ich mir die Menschheit ansehe, standen wir grade ob unserer so hoch
gelobten Intelligenz, mehrmals vor einem Abgrund (Kuba-Krise z.B.)
Es käme bei der Inteligenz also auch der Punkt
des sinnvollen Einsatzes selbiger zum tragen.
Wenn sich also solche hypothetischen Intelligenzbolzen in sich selbst zurück ziehen, wird das sich weiter entwickelnde Leben sie überholen und sie vom Futter isolieren.
MAC
Das meinte ich auch nicht. Muss man Kontakt herstellen, wenn man
alle Informationen, die man erhalten muß auch ohne Kontakt erhält?
Die hypothetischen Intelligenzbolzen könnten und werden sicher sogar
den Kontakt herstellen, bevor die anderen sie vom Futter isolieren.
Sonst wären sie ja nicht recht intelligent!
Ebenso
cu godwin