Ob KI für die Menschen ein Fluch oder ein Segen wäre hängt weigehend davon ab, wie diese mit dem Menschen interagiert.
Häufig werden in diesem Zusammenhang
Asimovs Robotergesetze angeführt. Es lassen sich jedoch sehr leicht Situationen konstruieren, in denen diese Grundsätze nicht funktionieren. So ließe sich beispielsweise kein Roboter, der diesen Gesetzen unterliegt, als Polizist einsetzen. Selbst als Verkehrpolizist, der den Verkehr an einer Kreuzung regelt, käme ein Asimov Roboter in einen unauflösbaren Konflikt, wenn er die Freiheitsrechte der Fahrer der einen Straße einschränken soll um die andere Straße freizugeben.
Denn er hat keinen Maßstab zur Abwägung des Eingriffs in ein Menschenrecht zugunsten eines höherwertigen Ziels.
Diese Abwägung lässt sich in beliebigen Stufen steigern bis zum Niveau von
Sophies Entscheidung. Ein Niveau, das jeden Menschen derart überfordert, daß er damit sein ganzes Leben lang nicht mehr fertig werden würde.
Einen Roboter bzw. einer KI die "richtige" Moral zu lehren, führt also letztendlich zu nichts, denn auch wir Menschen selbst sind uns hier nicht einig. Dabei muß es nicht immer um Dinge gehen wie ein Leben gegen ein anderes aufzurechnen, wie z.B. bei einer Geiselnahme. Es genügt, wenn relativ annähernd gleichwertige Rechtsgüter im Konflikt stehen, die absolut gesehen jedoch im Rang allenfalls mittelwertig sind. Jeder kennt wohl die Urteile zu Kirchturmgeläut, das dem Kläger auf die Nerven ging und deswegen vor Gericht zog.
Es gibt genügend Beispiele von mittleren, kleinen, und auch geradezu lächerlichen Konflikten, in denen es (menschlichen) Richtern oft schwerfällt ein gutes Urteil zu finden. Man sollte also die Idee aufgeben, daß es möglich wäre einer KI allgemein gültige und immer richtig entscheidende Moral- und Wertevorstellungen beibringen zu können. Wir schaffen das nichtmal bei uns selbst.
Abgesehen von diesen Problemen entstehen beim Einsatz von KI in einer dem Menschen dienenden Funktion völlig neue Probleme. Hierzu kann man sich einmal ansehen, wie der Mensch sich der natürlichen Intelligenz bedient hat: z.B. Zug- und Reittiere. Bevor Kraftmaschinen möglich wurden waren Tiere Diener des Menschen. Sie besitzen unbestreitbar eine Intelligenz. Diese Intelligenz kann sich in unwegsamen Gelände angepasst bewegen, schützt sich selbst vor Überlastung und kann sich selbst orientieren. Ein Wachhund unterscheidet Freund und Feind und kann Haus und Hof beschützen, ein Hirtenhund kann eine Herde zusammenhalten.
Jetzt gehen wir mal einen Schritt weiter und bedienen uns Wesen mit einer noch höheren Intelligenz: Sklaven. Wo wir bei unseren Nutztieren kein Problem sahen, solange wir ihnen Nahrung und Schutz vor Unwetter boten, zucken wir nun zusammen bei dem Gedanken bei Menschen genauso zu verfahren.
Und auch selbst wenn wir es aufgeben den Menschen als Eigentum zu betrachten, ihn aus der Sklaverei zu entlassen, so gibt es immer noch moralische Probleme, wenn man an das Stichwort Ausbeutung von Arbeitern denkt, etwa in der Zeit von Charles Dickens.
Je intelligenter eine KI wird, desto näher kommt man an das moralische Problem der Sklaverei. Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.
Noch sind wir sehr weit davon entfernt uns mit diesem Problem auseinandersetzen zu müssen. Gene Roddenberry hat mit der Figur
Data in Star Trek - the next Generation einen Androiden in Szene gesetzt, der von seinen Mitmenschen nicht als Maschine gesehen wird, sondern stets als nicht nur gleichwertiges, sondern auch als hoch geachtetes Mitglied der Gemeinschaft, sogar als Freund. Auch dem Zuschauer muss immer wieder verdeutlicht werden, daß Data eigentlich eine Maschine ist, indem er Defizite bezüglich menschlicher Verhaltensweisen zeigt und/oder Überlegenheit in Form von lexikalischem Wissen.
Diesen Schritt, nämlich eine künstliche Intelligenz als dem Menschen gleichwertig zu akzeptieren, dürfte einer der schwierigsten sein, den die Menschheit im Bezug auf KI zu bewältigen hätte.
In einigen wenigen Folgen von Star Trek wird dies Thematisiert. So wird in einer Folge Besitzanspruch durch die Föderation auf Data erhoben. Er soll gegen seinen Willen die Enterprise verlassen und in ein Forschungslabor verbracht werden, wo man ihn zu Studienzwecken in seine Bestandteile zerlegen will. Sein Gedächtnis und damit seine gewachsene Erfahrung und Persönlichkeit würden dabei verloren gehen. Ziel ist es auf den technischen Stand seines verstorbenen Erbauers zu gelangen, dessen Aufzeichnungen verloren sind.
Es entbrennt eine Diskussion in der auf das Bewusstsein und die Intelligenz von Data hingewiesen wird, die ihn als Individuum auszeichnet. Zur Überraschung des aufmerksamen Zuschauers wird dieses Argument zur Seite gewischt mit dem Gegenargument: "Würden Sie dem Hauptcomputer der Enterprise die selben Rechte gewären?"
Der Umgang mit KI ist somit auch ein höchst diffiziles ethisches Problem. Ob es zum Fluch oder zum Segen wird hängt stark davon ab, wie wir mit ihr umgehen werden, sobald wir in der Lage sind sie zu erschaffen.