Nein, leider ist das nicht so einfach. KI (AI) kann durchaus richtig programmiert sein. Sprich bei allen Softwaretests während der Entwicklung und bei der Produktvorstellung beim Kunden läuft alles wie gewünscht. Das heißt aber nicht, dass auch weiterhin alles perfekt wie gewünscht läuft - obwohl die Software richtig programmiert ist. Ich spreche auch nicht von Softwarefehlern, die erst zu späteren Zeiten erkannt und per Update behoben werden.
Hallo astrofreund,
danke für die Präzisierung; ich habe zwar das geschrieben, was Du hier ansprichst, aber ...
Nein, die Entwickler von KI-Software sprechen bereits heute davon, dass sie nicht wissen, was eigentlich mit den Daten zwischen Eingang und Ausgang des KI-Systems geschieht, was das System jeweils lernt und was es daraus macht.
… das hier gemeint. Den klassischen Software-Fehler, den man mit updates beheben kann, hatte ich stillschweigend als "gelöst" angesehen. Allerdings sollte wenigstens erwähnt werden, dass die Menge der klassischen (also nicht durch selbst-lernende Software) nicht durch updates behebbaren Fehler vermutlich überabzählbar gross sein dürfte und die Menge der durch Tests erkennbaren und updates behebbaren Fehler eine Nullmenge in ersterer Menge sein dürfte. Dies jetzt ohne Beweis und um die theoretischen Informatiker zufriedenzustellen.
Letztlich ist das aber nicht so schlimm, denn bei diesen klassischen Programmen kann man ja den Fehler auch erst dann beheben, wenn er aufgetreten ist. Zu diesem Zeitpunkt kann dann zwar schon ein Schaden entstanden sein, aber zumindest wird dieser Schaden dann kein zweites Mal auftreten, und gegen solche Fehler kann man sich zwar kostspielig aber wirkungsvoll zumindest weitgehend absichern, indem man bei hochkritischen Sicherheitsanwendungen (Space Shuttle, AKW, …) zwei unabhängige Teams diese Software erstellen lässt und ein Ereignis nur dann als sicher qualifiziert wird, wenn beide Systeme ihn als sicher qualifizieren. Die Kosten dieser Vorgehensweise steigen linear, die Sicherheit indes steigt mit dem Quadrat.
Ich schreibe das hier nur der Vollständigkeit halber auf.
Das wird auch nicht besser, je umfangreicher und komplexer die KI-Systeme werden - im Gegenteil. Das ist die Gefahr vor der Wissenschaftler (Hawking) und Leute wie Musk warnen. Die Systeme sind nicht mehr in ihren Handlungen (basierend auf Entscheidungen in Folge eines Lernprozesses) voraussehbar. Welche Überraschungen möglich sind, bleibt heute noch abzuwarten. Die derzeitigen Produkte basieren auf den einfachsten KI-Methoden.
Nehmen wir doch ein einfaches Beispiel: zahlreiche Banken betreiben "Algo-Trading", d.h. nicht ein Händler, sondern ein Computer entscheidet, ob ein Order ins Handelssystem, also die Börse, eingegeben wird oder nicht. Das kann beispielsweise Sinn machen, wenn so ein Programm die Währungskurse überprüft und bei der Schwankung einer Währung sofort kauft oder verkauft, wenn die Überprüfung feststellt, dass nicht alle anderen Währungen nachgezogen haben. Da ist ein Computer-Händler stets schneller als ein menschlicher Händler und da lassen sich auch schöne Gewinne machen. Natürlich muss Computerhändler sofort stoppen, wenn der letzte Kurs "nachgezogen" hat.
Das sind natürlich keine AI-Programme, sondern hier wird nur genutzt, dass ein Computer Datenbank-Inhalte schneller überprüfen kann als ein Mensch.
Allerdings sind Händler bekanntlich gierig, zumal sie ja nicht mit ihrem eigenen Geld handeln, sondern dem ihrer Kunden, der auch das Risiko zu tragen hat, und nutzen deswegen Programme, die eine Prognose wagen und dann Orders ins Handelssystem einspeisen
bevor das prognostizierte Ereignis stattfindet. Das ist natürlich legal, jeder darf spekulieren und dann handeln. Doch beeinflussen solche Programme den Markt und wenn die Konkurrenz das ebenfalls macht - und sie macht es ! - kann es passieren, dass diese Computerprogramme den Markt beeinflussen und den Preis zum Absturz bringen, obwohl niemand weder hüben noch drüben daran Interesse hat. Bei Aktien ist das - zumindest hier an der Schweizer Börse, ich habe das damals selber getestet - nicht so schlimm, denn sobald sich der Kurs um 2% verändert wird der Handel auf diesem Titel für 5 oder 10 Minuten ausgesetzt und Menschen (!) prüfen, was da los ist. Auch die einheimischen Obligationen kennen solche Schutzmechanismen. Aber Fonds, internationale Obligationen und Derivate (Optionen, Futures, …) haben das nicht, deswegen können Hasardeure ja auch so schön mit denen spekulieren.
Hier würde also der Einsatz von "Wächter-Programmen", die die meisten Pattern eines solchen unkontrollierten Absturzes kennen, dafür sorgen, dass es nicht zu solchen Abstürzen kommt.
AI lässt sich also wirkungsvoll von anderen AI-Programmen "kontrollieren", dabei kann man denen auch verschiedene Level an Sicherheit mitgeben.
Wenn es wirklich einmal gelingen sollte, dass diese Systeme eigenständig Überlegungen anstellen und darauf aufbauend Entscheidungen fällen ... das wird dann erst richtig spannend und keiner kann sagen, wie gefährlich.
Auch hier würde der Einsatz solcher Zusatz-Programme helfen, solche Situationen zu erkennen und einen Alarm zu raisen.
Richtig, das wird abhängig von der Anwendung sein und welche Außenwirkungen das KI System haben wird. Nur wer kann heute z.B. sagen, ob es einem KI-System nicht gelingt, sich in ein sicherheitsrelevantes System zu hacken und den Zugang für Dinge zu nutzen, die zu höchstgefährlichen Situationen führen können (harmlos formuliert)? Wird es je möglich sein, alle denkbaren Situationen vorher zu erfassen und geeignete Gegenstrategien zu entwickeln.
Das kann sogar wünschenswert sein, nämlich dann, wenn beispielsweise der "Feind" das Sicherheitssystem gehackt hat und danach zum nuklearen Erstschlag ausholt. Dann braucht es intelligente Programme, denen es wieder gelingt, sich ins eigene sicherheitsrelevante System zu hacken.
Die Möglichkeiten sind vielfältig und die Möglichkeiten, sich zu schützen, ebenfalls.
Ich persönlich sehe hier zwei Varianten: "Schutz-Programme", die robust, eher konservativ und defensiv programmiert, sind sowie "Schnellst-Programme", die einfach sind, wenige Validierungen aufweisen, damit sie schnell bleiben können, und dann in sehr hoher Geschwindigkeit Operationen durchführen, vor allen, wenn es zeitkritisch ist.
Die neuen Technologien will und kann keiner verhindern.
Da wäre ich mir nun nicht so sicher: sowohl Fortschritts-Antis und Esotheriker als auch verantwortungsbewusste Personenkreise, denen nicht das möglichst schnelle Versenden von Nacktfotos oder anderen Inhalten an den Freundeskreis, um in kurzer Zeit viele Likes zu erhalten, sondern eine sinnvolle Nutzung der neuen Technologien wichtig ist, können versuchen wollen, diese neuen Technologien zu verhindern.
Und wenn sich herausstellt, dass eine neue Software das Risiko der Auslösung eines versehentlichen Atomkrieges von 80% aufweist, so wird sie vermutlich von Staats wegen per Dekret gestoppt werden und ihr danach die Betriebserlaubnis entzogen werden.
Die Warnenden wollen aber darauf hinweisen, dass dringend mehr getan werden muss, als nur freundlich grüßende Roboter zu generieren. Das wäre dann auch im Sinne von "Fehlkalkulationen erkennen". Wie gesagt, nicht nur einfache Berechnungen, sondern gesamte mögliche(!) Handlungsabläufe werden kontrolliert werden müssen. Wer da denkt, da drehe ich am Hauptschalter oder schalte den Zugang zum Kraftwerk ab, sollte sich überlegen, ob zukünftige KI-Systeme nicht auch derartige Überlegungen anstellen könnten und vor Beginn ihrer "bösen" Tätigkeit geeignete Strategien ausknobeln (z.B. sich selbstständig auf autonome Energieversorgung umstellen) und auch umsetzen, mit denen sie verhindern, dass jemand in den KI-Prozess eingreifen kann. Die heute gefährlichsten Systeme sind automatische Waffensysteme. Noch werden sie von Menschen ferngesteuert. Doch man arbeitet daran, dass die Systeme selbstständig die Entscheidung treffen, ob und wann sie "auf den Knopf drücken". Dann wird es wirklich schlimm...
Das ist auch eine wichtige Gruppe, diese Gruppe der Warnenden. Ob sie die Mehrheit bildet ?
Ich persönlich denke, wir müssen restriktiver mit Neuerungen umgehen, da die Warnenden viel zu spät kommen und sich vor vollendete Tatsachen gestellt sehen. Zusätzlich muss
schon jetzt angefangen werden, an den verschiedenen Programmen zum Erkennen und zum Schutz vor irrtümlicher Anwendung zu arbeiten.
Freundliche Grüsse, Ralf