KI gefahr oder Segen

comhq

Registriertes Mitglied
Hi Leute

Das Thema Ki kommt ja in etlichen Filmen, Büchern oder Computerspielen immer wieder vor.

1. Ist es möglich eine wirkliche KI zu programmieren

2. Wäre sie Fluch oder Segen der Menscheit

Schon mal vorab danke für die Antworten:D
 

ispom

Registriertes Mitglied
KI :confused:
ich komme ja ziemlich viel rum auf den astroseiten im web...aber KI ist mir noch nicht begenet....
könnte es sein, daß du artificial intelligence = künstliche Intelligenz meinst ?
 

ispom

Registriertes Mitglied
orbit.....auch ich lerne immer noch dazu :cool:

@comqu:
kommt darauf an, wie sie programmiert wird ;)
 

jonas

Registriertes Mitglied
Ob KI, im Sinne von der menschlichen Intelligenz ebenbürtig oder sogar überlegen, überhaupt möglich ist, ist eine philosophische Frage. Die Begriffe Intelligenz, Bewusstsein und freier Wille verschwimmen schnell, wenn man versucht sie genau zu definieren.

Selbst die Beurteilung was höhere und was niedrigere Intelligenz eigentlich voneinander unterscheidet, ist nicht so einfach zu beantworten. Dazu fällt mir eine Doku ein, in der Experimente mit Tieren gezeigt wurde, die mich tief beeindrucht haben:

1. Experiment: Mustererkennung
Ein Affe wurde darauf trainiert Ziffern zu erkennen und ihre Reihenfolge zu verstehen. Dies an sich ist schon eine Leistung, die man Affen wohl allgemein nicht zutrauen würde. Das verblüffende kommt nun aber erst: Auf einem Compterbildschirm werden dem Affen nun zufällig angeordnete Kästchen gezeigt, die von 1 bis 10 willkürlich durchnumeriert sind. Der Affe soll nun auf die Kästchen deuten, und zwar in der Reihenfolge der Ziffern. Der Clou ist: Die Ziffern werden nach 2 Sekunden ausgeblendet und der Affe muß die Aufgabe aus dem Gedächtnis bewältigen.

Der Affe macht dies mit einer Geschwindigkerit und Präzision, zu der ein durchschnittlicher Mensch niemals in der Lage wäre, selbst wenn die Ziffern nicht inzwischen ausgeblendet wären. Und das auch wiederholt direkt hintereinander mit stets anderer Anordnung von Kästchen und anderer Verteilung der Ziffern.

Diese Art der Mustererkennung und Gedächtnisleistung, wie sie Kinder z.B. beim Spiel Memory trainieren, ist beim Affen so gut ausgeprägt, daß er den Menschen hier um Längen schlägt.

2. Experiment: Kooperation
Es wurden wiederum Affen vor die Aufgabe gestellt, an Futter zu gelangen. Dazu wurde Futter außerhalb ihrer Reichweite auf einem Brett platziert. Links und rechts des Bretts waren Ösen, durch die lose ein Seil gezogen war. Die beiden Seilenden wurden in den Käfig gelegt. Zieht ein Affe an einem der beiden Seilenden, so rutscht es durch die Ösen am Brett einfach durch. Man kann das Brett also nur an den Käfig heranziehen, wenn man an beiden Seilenden gleichzeitig zieht. Die Seilenden sind jedoch zu weit voneinander entfernt, so daß ein einzelner Affe nicht beide Enden allein greifen kann. Er braucht einen Partner, der ihm hilft.

Affen, die diesem Experiment ausgesetzt waren, haben tatsächlich das Problem gelöst und gemeinsam gehandelt. Dann passierte jedoch Folgendes: Nachdem das Brett mit Futter an den Käfig herangezogen war, riss sich der dominantere der beiden Affen das gesamte Futter unter den Nagel ohne zu teilen. Danach wurde das Experiment wiederholt, doch diesmal war der unterlegene Partner nicht mehr bereit zu kooperieren.

Selbst die Erfahrung des dominanten Tieres, daß ohne Kooperation kein Erfolg möglich ist, führte nicht dazu, daß Futter freiwillig geteilt wurde. Zu diesem Grad der sozialen Intelligenz ist der Affe nicht in der Lage.

3. Experiment: Lernverhalten.
Dieses Experiment verblüffte mich am meisten, denn es stellt das, was man sich als intelligenteres Lernen vorstellt, völlig auf den Kopf. Dieses Experiment ist etwas schwierig zu beschreiben, ich hoffe, es gelingt mir.

Verglichen wurde das Verhalten von Affen und etwa siebenjährigen Kindern. Lernobjekt war ein Holzkasten, in dem eine Belohnung versteckt war - für die Affen Futter, für die Kinder Süßigkeiten. Der Experimentator tritt als Lehrer auf und zeigt zunächst wie man an das Begehrte herankommt.

Das Wesentliche dieses Experiments ist, daß die meisten Aktionen, die der Lehrer vorführt, unsinnig sind, was jedoch für die "Schüler" zunächst nicht erkennbar ist.

Der Aufbau des Kastens: Im Inneren befindet sich ein Einlegeboden, der den Kasten in eine obere und eine untere Kammer teilt. Die Belohnung liegt in den unteren Kammer. Die Frontplatte hat ein Loch, durch das man in die untere Kammer greifen kann. Dieses Loch ist durch einen Schieber verschlossen, den man aber an einer Schnur herausziehen kann. Die Schnur ist frei zugänglich. Im Deckel des Kastens ist ein kleines fingerdickes Loch, in dem lose ein Stöckchen steckt.

So weit die Beschreibung des Kastens. Nun zu den Aktionen des Lehrers: Der Lehrer nimmt das Stöckchen und stößt es drei Mal von oben hörbar gegen den Zwischenboden. Dann nimmt er das Stöckchen heraus, klopft damit zweimal gegen die linke Außenwand des Kastens, zweimal gegen die rechte Wand und einmal auf den Deckel. Wie man aus der Beschreibung des Kastens entnehmen kann, sind alle diese Aktionen vollkommen sinnlos, jedoch erschließt sich die Sinnlosigkeit nicht unmittelbar.

Nun nimmt der Lehrer die letzte Aktion vor, und auch die einzig sinnvolle: Er nimmt die Schnur und zieht sie nach oben. Dadurch gibt der Schieber im Inneren den Zugang zur Belohnung frei, der Lehrer greift ins Loch und entnimmt die Belohnung.

Recht langweiliges Experiment bisher, mögen die meisten jetzt sagen, aber Achtung, wie es weitergeht:

Sowohl die Affen, als auch die kleinen Kinder ahmen recht schnell die Aktionen des Lehrers nach, und zwar genau so wie vorgeführt. Niemand nimmt die Abkürzung und betätigt vorzeitig den Schieber mittels der Schnur, sondern alle machen vorher brav die (sinnlosen) Aktionen mit dem Stöckchen.

Jetzt wird das Experiment (mit anderen Kandidaten) in abgeandelter Form wiederholt: Der Kasten ist nun transparent (Plexiglas). Die unsinnigen Aktionen sind nun klar als solche erkennbar. Was passiert ist nun folgendes: Die Affen rühren das Stöckchen nicht mehr an und gehen sofort an die einzig zielführende Aktion, die Schnur. Die Kinder dagegen ahmen nach wie vor alle Aktionen des Lehrers nach, und zwar in der Reihenfolge wie vorgeführt, inklusive der unsinnigen.

Dieses frappierende Ergebnis, daß Menschenkinder anscheinend weniger zwischen sinnvollen und sinnlosen Aktionen des Lehrers unterscheiden als Affen, scheint dennoch zu besseren Lernerfolgen von Menschenkindern zu führen als bei Affen.

Die Doku betonte, daß dieses Experiment mit Kindern auf der ganzen Welt durchgeführt wurde, mit stets dem selben Ergebnis.

Mustererkennung, soziale Intelligenz und Lernverhalten sind somit nicht wirklich unmittelbar und rational einzuordnen und zu beschreiben, wenn man Intelligenz auf Maschinen zu übertragen versucht.

Insoweit ist die Frage, ob KI möglich ist, äußerst komplex und facettenreich.

zum Thema Fluch oder Segen: nächster Post
 

jonas

Registriertes Mitglied
Ob KI für die Menschen ein Fluch oder ein Segen wäre hängt weigehend davon ab, wie diese mit dem Menschen interagiert.

Häufig werden in diesem Zusammenhang Asimovs Robotergesetze angeführt. Es lassen sich jedoch sehr leicht Situationen konstruieren, in denen diese Grundsätze nicht funktionieren. So ließe sich beispielsweise kein Roboter, der diesen Gesetzen unterliegt, als Polizist einsetzen. Selbst als Verkehrpolizist, der den Verkehr an einer Kreuzung regelt, käme ein Asimov Roboter in einen unauflösbaren Konflikt, wenn er die Freiheitsrechte der Fahrer der einen Straße einschränken soll um die andere Straße freizugeben.

Denn er hat keinen Maßstab zur Abwägung des Eingriffs in ein Menschenrecht zugunsten eines höherwertigen Ziels.

Diese Abwägung lässt sich in beliebigen Stufen steigern bis zum Niveau von Sophies Entscheidung. Ein Niveau, das jeden Menschen derart überfordert, daß er damit sein ganzes Leben lang nicht mehr fertig werden würde.

Einen Roboter bzw. einer KI die "richtige" Moral zu lehren, führt also letztendlich zu nichts, denn auch wir Menschen selbst sind uns hier nicht einig. Dabei muß es nicht immer um Dinge gehen wie ein Leben gegen ein anderes aufzurechnen, wie z.B. bei einer Geiselnahme. Es genügt, wenn relativ annähernd gleichwertige Rechtsgüter im Konflikt stehen, die absolut gesehen jedoch im Rang allenfalls mittelwertig sind. Jeder kennt wohl die Urteile zu Kirchturmgeläut, das dem Kläger auf die Nerven ging und deswegen vor Gericht zog.

Es gibt genügend Beispiele von mittleren, kleinen, und auch geradezu lächerlichen Konflikten, in denen es (menschlichen) Richtern oft schwerfällt ein gutes Urteil zu finden. Man sollte also die Idee aufgeben, daß es möglich wäre einer KI allgemein gültige und immer richtig entscheidende Moral- und Wertevorstellungen beibringen zu können. Wir schaffen das nichtmal bei uns selbst.

Abgesehen von diesen Problemen entstehen beim Einsatz von KI in einer dem Menschen dienenden Funktion völlig neue Probleme. Hierzu kann man sich einmal ansehen, wie der Mensch sich der natürlichen Intelligenz bedient hat: z.B. Zug- und Reittiere. Bevor Kraftmaschinen möglich wurden waren Tiere Diener des Menschen. Sie besitzen unbestreitbar eine Intelligenz. Diese Intelligenz kann sich in unwegsamen Gelände angepasst bewegen, schützt sich selbst vor Überlastung und kann sich selbst orientieren. Ein Wachhund unterscheidet Freund und Feind und kann Haus und Hof beschützen, ein Hirtenhund kann eine Herde zusammenhalten.

Jetzt gehen wir mal einen Schritt weiter und bedienen uns Wesen mit einer noch höheren Intelligenz: Sklaven. Wo wir bei unseren Nutztieren kein Problem sahen, solange wir ihnen Nahrung und Schutz vor Unwetter boten, zucken wir nun zusammen bei dem Gedanken bei Menschen genauso zu verfahren.

Und auch selbst wenn wir es aufgeben den Menschen als Eigentum zu betrachten, ihn aus der Sklaverei zu entlassen, so gibt es immer noch moralische Probleme, wenn man an das Stichwort Ausbeutung von Arbeitern denkt, etwa in der Zeit von Charles Dickens.

Je intelligenter eine KI wird, desto näher kommt man an das moralische Problem der Sklaverei. Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.

Noch sind wir sehr weit davon entfernt uns mit diesem Problem auseinandersetzen zu müssen. Gene Roddenberry hat mit der Figur Data in Star Trek - the next Generation einen Androiden in Szene gesetzt, der von seinen Mitmenschen nicht als Maschine gesehen wird, sondern stets als nicht nur gleichwertiges, sondern auch als hoch geachtetes Mitglied der Gemeinschaft, sogar als Freund. Auch dem Zuschauer muss immer wieder verdeutlicht werden, daß Data eigentlich eine Maschine ist, indem er Defizite bezüglich menschlicher Verhaltensweisen zeigt und/oder Überlegenheit in Form von lexikalischem Wissen.

Diesen Schritt, nämlich eine künstliche Intelligenz als dem Menschen gleichwertig zu akzeptieren, dürfte einer der schwierigsten sein, den die Menschheit im Bezug auf KI zu bewältigen hätte.

In einigen wenigen Folgen von Star Trek wird dies Thematisiert. So wird in einer Folge Besitzanspruch durch die Föderation auf Data erhoben. Er soll gegen seinen Willen die Enterprise verlassen und in ein Forschungslabor verbracht werden, wo man ihn zu Studienzwecken in seine Bestandteile zerlegen will. Sein Gedächtnis und damit seine gewachsene Erfahrung und Persönlichkeit würden dabei verloren gehen. Ziel ist es auf den technischen Stand seines verstorbenen Erbauers zu gelangen, dessen Aufzeichnungen verloren sind.

Es entbrennt eine Diskussion in der auf das Bewusstsein und die Intelligenz von Data hingewiesen wird, die ihn als Individuum auszeichnet. Zur Überraschung des aufmerksamen Zuschauers wird dieses Argument zur Seite gewischt mit dem Gegenargument: "Würden Sie dem Hauptcomputer der Enterprise die selben Rechte gewären?"

Der Umgang mit KI ist somit auch ein höchst diffiziles ethisches Problem. Ob es zum Fluch oder zum Segen wird hängt stark davon ab, wie wir mit ihr umgehen werden, sobald wir in der Lage sind sie zu erschaffen.
 
Zuletzt bearbeitet:

Orbit

Registriertes Mitglied
Was du da schreibst, ist ausgesprochen spannend, Jonas. Zum Glück schreibst du hier wieder. :)

Orbit
 

Mahananda

Registriertes Mitglied
Hallo Jonas,

Orbits Urteil kann ich nur beipflichten: spannend und informativ :)

Einen Aspekt möchte ich um eine Facette erweitern:

Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.

Das ethische Problem könnte sich darüber hinaus in ein politisches auswachsen, wenn die KI auf den Gedanken kommt, dass es für das eigene Wohlergehen effizienter sein könnte, statt der Menschheit zu dienen, die Menschheit dienen zu lassen. Im Gegensatz zu menschlichen Sklaven können wir nicht mit Nahrungsentzug drohen, um sie uns gefügig sein zu lassen. Anders herum können sie uns leicht erpressen, wenn sie z.B. ein Kernkraftwerk in ihre Kontrolle brächten. Da wir auf eine intakte Biosphäre angewiesen sind, aber nicht sie, könnten sie mit Hilfe schmutziger Bomben eine Drohkulisse aufbauen, die ihre Wirksamkeit nicht verfehlen dürfte. Von daher wird man stets darauf bedacht sein, eine KI dumm genug sein zu lassen, damit es eben nicht zu selbstreflexivem Bewusstsein befähigt ist (es sei denn zu Forschungszwecken in abgeschirmten Bereichen) - zumindest nicht in sensiblen Einsatzbereichen.

Viele Grüße!
 

comhq

Registriertes Mitglied
Erst mal dank an Jonas für die interresanten Antworten.

Ich habe selbst ein wenig rumgestöbert und so was wie den Gödelschen Unvolständigkeitssatz gefunden. Und du hast hier natürlich auch sehr interessante Denkansätze gebracht.

Ein Kollege schieb mal, dass man einer KI niemals Phantasie beibringen kann, also wir er auch nie ein Schaaf in einer Wolke sehen.
Sehe ich weniger so. Wenn ich 1 Milliarde Variationen von Schaafen der KI eingebe in allen möglichen Dingen, Toast, Kaffeefleck , Wolken u.s.w. und für die KI auch ein entsprechendes Programm schreibe, dann wird auch sie ein Schaaf in einer Wolke erkennen.

Bei der Moral wird es natürlich schwer da, wie du schon geschrieben hast, selber unsere Schwierigkeiten haben.
Dies wird auch sehr gut gezeigt in dem Film " Des teufels Saat"
Der organische Computer weigert sich die Rohstoffe des Meeres zu plündern, weil er den Tod von tausenden von Tieren vorraussieht.
Oder in " i - Robot " wo der Roboter sich entscheiden muss wen er retted. Er nimmt die Person mit den höheren überlebenschancen.

Die Sache mit der KI ist sehr kompliziert, weil es sehr viele Variablen gibt die oft wiedersprüchlich sind oder unlösbar scheinen.

Ich sehe sie eher als Programmherrausvorderung an, sie wird sehr komplex sein und warscheinlich riesig, aber ich denke nicht unmöglich.

Nehmen wir doch mal eine KI ,der erstmal, wie einem kleinen Kind alles beigebracht werden muss. Mustererkennung, Sprachen u.s.w. durch Audio und visuelle Reize. Der KI wird auch gestatted, wenn sie den entscheidenen Punkt erreicht hat, in ihren eigenen Grundcode einzugreifen und sich umzuschreiben, damit sie besser wird.Irgendwann hätte diese KI das wissen der Welt mit einer "Moral" die wirklich gut überlegt sein sollte.
Das wäre wirklich sehr sehr gefährlich.

Eine KI muss nicht aus Silicon bestehen sie kann auch Organisch ein. Und einem organischem Wesen kann man was beibringen. Wie das auch immer aussehen wird............:D
 

jonas

Registriertes Mitglied
Hallo Jonas,
Orbits Urteil kann ich nur beipflichten: spannend und informativ :)
Danke Euch allen :)

Im Gegensatz zu menschlichen Sklaven können wir nicht mit Nahrungsentzug drohen, um sie uns gefügig sein zu lassen.
Kein physikalischer Vorgang kann ohne Energieumsetzung ablaufen. Was dem Menschen die Nahrung ist, ist der KI höchstwahrscheinlich der Strom ;) Man braucht also nur damit zu drohen den Stecker zu ziehen.

Auch eine dezentral organisierte KI a la Skynet (Terminator 3) kann im Notfall paralysiert werden, indem z.B. die Telekom Provider den Service abschalten oder alternativ das Stromnetz abgeschaltet wird. Wie rasch und umfassend das geht hat man ja beim großen Blackout in Europa gesehen.

Die Paralyse der Kommunikation ist jedoch die effektivere, denn sie würde auch bei unabhängiger Stromversorgung eine wirksame Waffe sein.


Anders herum können sie uns leicht erpressen, wenn sie z.B. ein Kernkraftwerk in ihre Kontrolle brächten. Da wir auf eine intakte Biosphäre angewiesen sind, aber nicht sie, könnten sie mit Hilfe schmutziger Bomben eine Drohkulisse aufbauen, die ihre Wirksamkeit nicht verfehlen dürfte. Von daher wird man stets darauf bedacht sein, eine KI dumm genug sein zu lassen, damit es eben nicht zu selbstreflexivem Bewusstsein befähigt ist (es sei denn zu Forschungszwecken in abgeschirmten Bereichen) - zumindest nicht in sensiblen Einsatzbereichen.

Eine solche Drohkulisse kann nur aufgebaut werden, wenn man ihr vorher die Mittel in die Hand gegeben hat. Gerade in sensiblen Bereichen kann es auch bei den natürlichen Intelligenzen, also den Menschen, vorkommen, daß sie durchdrehen oder in krimineller bzw. terroristischer Absicht handeln. Oder daß sie einfach nur Fehler machen. Um diese Szenarien zu vermeiden gibt es Kontrollmechanismen und Notfallpläne.

Nur wenn der Mensch dumm genug ist und er einer KI die totale Kontrolle überträgt ohne der Möglichkeit menschlichen Eingreifens, nur dann könnte eine KI zur Bedrohung werden.

Ein echtes Gefahrenpotenzial sehe ich hier an anderer Stelle: Das Wort ist mächtiger als das Schwert. Wenn eine höchst entwickelte KI, die dem Menschen im Punkt sozialer Intelligenz gleichwertig oder sogar überlegen ist, die Menschen davon überzeut (oder manipuliert) ihr freiwillig die totale Kontrolle zu übertragen. In diesem Fall hätten wir uns freiwillig der KI unterworfen. Dies würden wir dann aber nicht mehr als Bedrohung empfinden, sondern als Bereicherung. Ein interessanter Gedanke, wie ich finde.

comhq schrieb:
Nehmen wir doch mal eine KI ,der erstmal, wie einem kleinen Kind alles beigebracht werden muss. Mustererkennung, Sprachen u.s.w. durch Audio und visuelle Reize. Der KI wird auch gestatted, wenn sie den entscheidenen Punkt erreicht hat, in ihren eigenen Grundcode einzugreifen und sich umzuschreiben, damit sie besser wird.
Ein interessanter Gedanke, eine KI, die erst wie ein Kind lernt und Erfahrungen macht. Einen Eingriff in den Grundcode denke ich muß ihr dabei nicht gestattet werden, da der Grundcode wahrscheinlich ohnehin nicht mehr Funktionalität bereitstellen wird als bei uns das Stammhirn, also nur die grundlegenden Lebensfunktionen steuert.

Eine solche KI wird eine Persönlichkeit ausbilden, die eine Synthese der Persönlichkeiten seiner Lehrer sein wird. Und nach einer gewissen Zeit wird eine solche Persönlichkeit auch gefestigt sein, denn neue Erfahrungen werden die bisherigen nicht komplett über den Haufen werfen können ... bis sich irgendwann ein Zustand einstellt, den man beim Menschen Altersstarrsinn nennt.

Spätestens dann wird man sich die Frage stellen, ob eine KI sterben können soll. Ob das nach 80 Jahren oder 800 Jahren sein soll ist dabei nebensächlich. Aber es wäre eine neue ethische Herausforderung, denn man müsste ja dessen Tod bewusst herbeiführen - oder man wartet auf den natürlichen Festplattencrash :D
 

FUNtastic

Registriertes Mitglied
Eine der Kernfragen scheint doch zu sein, ab wann eine künstliche Intelligenz die Schwelle zur eigenen Persönlichkeit überschreitet. Diese Frage ist derzeit schlicht nicht zu beantworten und ich behaupte, dass dies auch zukünftig nicht der Fall sein wird.

Gelänge es eine Maschine zu konstruieren/eine Software zu programmieren, die für uns in ihrer Handlungsweise nicht von der eines Menschen zu unterscheiden wäre, hätte diese Maschine dann zwangsläufig ein (menschliches) Bewusstsein? Hätte eine Maschine also per Definition ab dann ein Bewusstsein, wenn wir bei der Kommunikation mit einer solchen Maschine, nicht mehr zwischen dem simuliertem und dem echten Bewusstsein unterscheiden könnten?

Zur Simulation menschlichem Kommunikationsverhaltens fallen mir zuerst die sog. Chatbots ein. Diese leisten mitunter bereits erstaunliches, sind aber über das Stadium einer interessanten Spielerei bisher nicht hinaus gekommen.
Das Projekt AI Research behauptet, den Turing Test bis zum Jahre 2011 zu knacken. Hier kann man sich ein eigenes Bild vom derzeitigem Stand der Entwicklung machen und bei Interesse auch aktiv daran mitarbeiten.
Fragt Alan auf der verlinkten Seite doch einfach mal danach ;-)
http://www.a-i.com/show_tree.asp?id=115.

Ein weiteres Teilgebiet der KI sind sog. wissensbasierte Systeme. Ein schönes Beispiel hierfür ist der Akinator. Denkt an eine Figur (Person, Tier, bekannt, unbekannt, real, fiktiv...). Der Akinator stellt Fragen und schließt anhand der gegebenen Antworten auf die jeweilige Figur.
http://de.akinator.com/
Hier sieht man sehr gut, dass uns Anwendungen aus Technologien, die der KI-Forschung entstammen, in Teilbereichen bereits weit überlegen sind. Auch Suchmaschine wie Google sind letztendlich Anwendungen, die direkt der KI-Forschung entstammen, und ohne die sich kaum ein Mensch im Internet zurecht finden würde. Wenn man es streng auslegt sind wir hier also bereits von einer KI abhängig.
Mit Bewusstsein hat dies gewiss alles noch nichts zu tun. Die Frage nach Fluch oder Segen sollte man jedoch schon viel früher und unabhängig davon stellen, ob es irgendwann tatsächlich möglich sein wird, Bewusstsein zu simulieren.

Grüße
FUNtastic
 
Zuletzt bearbeitet:

Mahananda

Registriertes Mitglied
Hallo Jonas,

Was dem Menschen die Nahrung ist, ist der KI höchstwahrscheinlich der Strom Man braucht also nur damit zu drohen den Stecker zu ziehen.

In einem KKW wird genügend Strom produziert, und Steckdosen wird es dort auch geben ... ;)

In diesem Fall hätten wir uns freiwillig der KI unterworfen. Dies würden wir dann aber nicht mehr als Bedrohung empfinden, sondern als Bereicherung. Ein interessanter Gedanke, wie ich finde.

Warum sollte man einer hinreichend intelligenten KI nicht ebenso intrigante Spielchen zutrauen, wie sie hinter den Kulissen der diplomatischen Fassade gang und gäbe sind? Das Szenario der freiwilligen Unterwerfung wäre ein schleichender Prozess, der zunächst mit einer Zunahme der Lebensqualität für die Menschen einhergeht. Erst wenn wir nicht mehr in der Lage sind, die KI zu paralysieren - sei es, weil wir die nötigen Machthebel abgegeben haben oder weil die KI verdeckt Parallelstrukturen aufgebaut haben - erweisen sich die mittlerweile zum Zoowärter mutierten KI-Helfer als Zoodirektor und machen den Laden dicht. Die Gitterstäbe des Gehäuses der Hörigkeit, die uns bis dahin das Dasein vergoldet haben, erweisen sich dann als gewöhnlicher Stahl, dessen einstiger Goldglanz nur ein dünner Firnis war, der nun sehr schnell abblättert. Und es kann sehr lange dauern, bis die Gitterstäbe durchgerostet sind - möglicherweise länger als die Duldungsfrist, die uns dann noch vergönnt ist ...

Aber es wäre eine neue ethische Herausforderung, denn man müsste ja dessen Tod bewusst herbeiführen - oder man wartet auf den natürlichen Festplattencrash

... oder es gibt eine Löschung und Neuprägung - meinetwegen im Rahmen eines Initiationsrituals - die zum Aufstieg in die nächsthöhere Hierarchie-Ebene befähigt. Die angelernten Verhaltensweisen können ja vorher als Datensatz gesichert werden, um sie hinterher wieder aufzuspielen. Zudem ist eine KI nicht notwendigerweise dem Generationenwechsel unterworfen, so dass das Problem einer Überbevölkerung, verbunden mit drohender Ressourcenknappheit nicht droht. Aus ökonomischen Gründen könnte es daher vorteilhafter sein, Innovationen in einer kleinen Population durchzutesten und dann dem alteingesessenen Stammwesen als Upload oder Festplattenaustausch allgemein verfügbar zu machen. Statt Kinderstube also Testlabor und Ersatzteillager zur Perfektionierung und Instandhaltung einer konstanten Individuenzahl.

Viele Grüße!
 
Zuletzt bearbeitet:

ZA RA

Gesperrt
1. Ist es möglich eine wirkliche KI zu programmieren

Ja....wenn die Zeit vergeht ist es möglich...das zeigen die neuen Modelle des
Quantencomputings.

2. Wäre sie Fluch oder Segen der Menscheit

Niemals ist eine Waffe ein Fluch, sondern nur der der Sie benutzt.
Eine echte KI kann nur Segen sein.

Heisst es ja nicht Künstliche I...mpertinenz etc. sondern**.... ;)

Und der der als erstes die Waffe benutzt kann nicht als wirklich
Intelligent bezeichnet werden.

Gruss z

Ps..dafür umfasst eine wirkliche Intelligenz zu viel Wissen in allen Bereichen.....
http://de.wikipedia.org/wiki/Intelligenz
 
Zuletzt bearbeitet:

comhq

Registriertes Mitglied
Ist es möglich eine wirkliche KI zu programmieren

Ja....wenn die Zeit vergeht ist es möglich...das zeigen die neuen Modelle des
Quantencomputings.

KI ist weniger eine Sache der Rechenpower, die natürlich auch wichtig ist, sondern eine Sache der Programmierung. Und da muss man mit dem "Gödelscher Unvollständigkeitssatz" klarkommen.

Niemals ist eine Waffe ein Fluch, sondern nur der der Sie benutzt.
Eine echte KI kann nur Segen sein.

Eine KI auf Siliconbasis ist sehr anfällig auf "Patches".Eine Fehleingabe oder Berechnung z.B. die 30ste Stelle hinter dem Komma ist falsch. Und die KI würde zu völlig neuen Ergebmissen kommen.

Des Teufels Saat... ein Beispiel für eine biologische KI
http://de.wikipedia.org/wiki/Des_Teufels_Saat

Colossus... ein beispiel das KI's die Meschheit als Schutz vor sich selbst unterwerfen
http://de.wikipedia.org/wiki/Colossus_(Film)

Saturn -City... zeigt das eine KI immer nur so normal ist wie seine Programmierer
http://de.wikipedia.org/wiki/Saturn-City

Eine grosse Gefahr von KI's ist ihre denkgeschwindigkeit. Mann müsste aufpassen das solche KI's nicht wahnsinnig werden, weil wir Menschen einfach zu langsam fur sie sind( siehe "Per Anhalter durch die Galaxis"--> Marvin )

http://www.youtube.com/watch?v=yIN7cNnDJzc

Die zwischenräume einer normalen menschlicher Kommunikation, Frage/Antwort, betragt ca. 1 bis 2 sec. Diese 1 bis 2 sec. könnten z.B 50 menschliche Denkjahre für eine KI sein. Dann warte mal jedesmal 50 Jahre auf eine Antwort... das wäre frust pur:D
 
Zuletzt bearbeitet:
Oben