Anzeige
Seite 1 von 5 123 ... LetzteLetzte
Ergebnis 1 bis 10 von 47

Thema: KI gefahr oder Segen

  1. #1
    Registriert seit
    14.01.2010
    Beiträge
    71

    Standard KI gefahr oder Segen

    Anzeige
    Hi Leute

    Das Thema Ki kommt ja in etlichen Filmen, Büchern oder Computerspielen immer wieder vor.

    1. Ist es möglich eine wirkliche KI zu programmieren

    2. Wäre sie Fluch oder Segen der Menscheit

    Schon mal vorab danke für die Antworten

  2. #2
    Registriert seit
    08.02.2005
    Ort
    in einer deutschen Kleinstadt
    Beiträge
    2.370

    Standard

    KI
    ich komme ja ziemlich viel rum auf den astroseiten im web...aber KI ist mir noch nicht begenet....
    könnte es sein, daß du artificial intelligence = künstliche Intelligenz meinst ?
    Gruß von Ispom

  3. #3
    Registriert seit
    06.01.2007
    Beiträge
    6.040

    Standard

    Ispom
    Wiki kennt diese Abkürzung, ...
    http://de.wikipedia.org/wiki/Künstliche_Intelligenz
    ...und auch hier im Forum wurde sie schon oft verwendet.
    Orbit

  4. #4
    Registriert seit
    08.02.2005
    Ort
    in einer deutschen Kleinstadt
    Beiträge
    2.370

    Standard

    gelöscht, weil doppelt
    Geändert von ispom (06.02.2010 um 10:39 Uhr)
    Gruß von Ispom

  5. #5
    Registriert seit
    08.02.2005
    Ort
    in einer deutschen Kleinstadt
    Beiträge
    2.370

    Standard

    orbit.....auch ich lerne immer noch dazu

    @comqu:
    kommt darauf an, wie sie programmiert wird
    Gruß von Ispom

  6. #6
    Registriert seit
    12.05.2008
    Beiträge
    1.241

    Standard

    Diesen Artikel habe ich letzte Woche gefunden, ist allerdings schon ca. 10 Jahre alt:

    http://www.heise.de/tp/r4/artikel/6/6055/1.html

    Ist ziemlich lang, und gleitet zum Ende hin meiner Meinung nach mehr und mehr ins phantastische ab, gibt aber einen guten Einblick in die Gedankenwelt von KI-Forschern.

    Grüße
    SK
    "There must be some way out of here," said the joker to the thief.

  7. #7
    Registriert seit
    17.09.2006
    Beiträge
    1.922

    Standard

    Ob KI, im Sinne von der menschlichen Intelligenz ebenbürtig oder sogar überlegen, überhaupt möglich ist, ist eine philosophische Frage. Die Begriffe Intelligenz, Bewusstsein und freier Wille verschwimmen schnell, wenn man versucht sie genau zu definieren.

    Selbst die Beurteilung was höhere und was niedrigere Intelligenz eigentlich voneinander unterscheidet, ist nicht so einfach zu beantworten. Dazu fällt mir eine Doku ein, in der Experimente mit Tieren gezeigt wurde, die mich tief beeindrucht haben:

    1. Experiment: Mustererkennung
    Ein Affe wurde darauf trainiert Ziffern zu erkennen und ihre Reihenfolge zu verstehen. Dies an sich ist schon eine Leistung, die man Affen wohl allgemein nicht zutrauen würde. Das verblüffende kommt nun aber erst: Auf einem Compterbildschirm werden dem Affen nun zufällig angeordnete Kästchen gezeigt, die von 1 bis 10 willkürlich durchnumeriert sind. Der Affe soll nun auf die Kästchen deuten, und zwar in der Reihenfolge der Ziffern. Der Clou ist: Die Ziffern werden nach 2 Sekunden ausgeblendet und der Affe muß die Aufgabe aus dem Gedächtnis bewältigen.

    Der Affe macht dies mit einer Geschwindigkerit und Präzision, zu der ein durchschnittlicher Mensch niemals in der Lage wäre, selbst wenn die Ziffern nicht inzwischen ausgeblendet wären. Und das auch wiederholt direkt hintereinander mit stets anderer Anordnung von Kästchen und anderer Verteilung der Ziffern.

    Diese Art der Mustererkennung und Gedächtnisleistung, wie sie Kinder z.B. beim Spiel Memory trainieren, ist beim Affen so gut ausgeprägt, daß er den Menschen hier um Längen schlägt.

    2. Experiment: Kooperation
    Es wurden wiederum Affen vor die Aufgabe gestellt, an Futter zu gelangen. Dazu wurde Futter außerhalb ihrer Reichweite auf einem Brett platziert. Links und rechts des Bretts waren Ösen, durch die lose ein Seil gezogen war. Die beiden Seilenden wurden in den Käfig gelegt. Zieht ein Affe an einem der beiden Seilenden, so rutscht es durch die Ösen am Brett einfach durch. Man kann das Brett also nur an den Käfig heranziehen, wenn man an beiden Seilenden gleichzeitig zieht. Die Seilenden sind jedoch zu weit voneinander entfernt, so daß ein einzelner Affe nicht beide Enden allein greifen kann. Er braucht einen Partner, der ihm hilft.

    Affen, die diesem Experiment ausgesetzt waren, haben tatsächlich das Problem gelöst und gemeinsam gehandelt. Dann passierte jedoch Folgendes: Nachdem das Brett mit Futter an den Käfig herangezogen war, riss sich der dominantere der beiden Affen das gesamte Futter unter den Nagel ohne zu teilen. Danach wurde das Experiment wiederholt, doch diesmal war der unterlegene Partner nicht mehr bereit zu kooperieren.

    Selbst die Erfahrung des dominanten Tieres, daß ohne Kooperation kein Erfolg möglich ist, führte nicht dazu, daß Futter freiwillig geteilt wurde. Zu diesem Grad der sozialen Intelligenz ist der Affe nicht in der Lage.

    3. Experiment: Lernverhalten.
    Dieses Experiment verblüffte mich am meisten, denn es stellt das, was man sich als intelligenteres Lernen vorstellt, völlig auf den Kopf. Dieses Experiment ist etwas schwierig zu beschreiben, ich hoffe, es gelingt mir.

    Verglichen wurde das Verhalten von Affen und etwa siebenjährigen Kindern. Lernobjekt war ein Holzkasten, in dem eine Belohnung versteckt war - für die Affen Futter, für die Kinder Süßigkeiten. Der Experimentator tritt als Lehrer auf und zeigt zunächst wie man an das Begehrte herankommt.

    Das Wesentliche dieses Experiments ist, daß die meisten Aktionen, die der Lehrer vorführt, unsinnig sind, was jedoch für die "Schüler" zunächst nicht erkennbar ist.

    Der Aufbau des Kastens: Im Inneren befindet sich ein Einlegeboden, der den Kasten in eine obere und eine untere Kammer teilt. Die Belohnung liegt in den unteren Kammer. Die Frontplatte hat ein Loch, durch das man in die untere Kammer greifen kann. Dieses Loch ist durch einen Schieber verschlossen, den man aber an einer Schnur herausziehen kann. Die Schnur ist frei zugänglich. Im Deckel des Kastens ist ein kleines fingerdickes Loch, in dem lose ein Stöckchen steckt.

    So weit die Beschreibung des Kastens. Nun zu den Aktionen des Lehrers: Der Lehrer nimmt das Stöckchen und stößt es drei Mal von oben hörbar gegen den Zwischenboden. Dann nimmt er das Stöckchen heraus, klopft damit zweimal gegen die linke Außenwand des Kastens, zweimal gegen die rechte Wand und einmal auf den Deckel. Wie man aus der Beschreibung des Kastens entnehmen kann, sind alle diese Aktionen vollkommen sinnlos, jedoch erschließt sich die Sinnlosigkeit nicht unmittelbar.

    Nun nimmt der Lehrer die letzte Aktion vor, und auch die einzig sinnvolle: Er nimmt die Schnur und zieht sie nach oben. Dadurch gibt der Schieber im Inneren den Zugang zur Belohnung frei, der Lehrer greift ins Loch und entnimmt die Belohnung.

    Recht langweiliges Experiment bisher, mögen die meisten jetzt sagen, aber Achtung, wie es weitergeht:

    Sowohl die Affen, als auch die kleinen Kinder ahmen recht schnell die Aktionen des Lehrers nach, und zwar genau so wie vorgeführt. Niemand nimmt die Abkürzung und betätigt vorzeitig den Schieber mittels der Schnur, sondern alle machen vorher brav die (sinnlosen) Aktionen mit dem Stöckchen.

    Jetzt wird das Experiment (mit anderen Kandidaten) in abgeandelter Form wiederholt: Der Kasten ist nun transparent (Plexiglas). Die unsinnigen Aktionen sind nun klar als solche erkennbar. Was passiert ist nun folgendes: Die Affen rühren das Stöckchen nicht mehr an und gehen sofort an die einzig zielführende Aktion, die Schnur. Die Kinder dagegen ahmen nach wie vor alle Aktionen des Lehrers nach, und zwar in der Reihenfolge wie vorgeführt, inklusive der unsinnigen.

    Dieses frappierende Ergebnis, daß Menschenkinder anscheinend weniger zwischen sinnvollen und sinnlosen Aktionen des Lehrers unterscheiden als Affen, scheint dennoch zu besseren Lernerfolgen von Menschenkindern zu führen als bei Affen.

    Die Doku betonte, daß dieses Experiment mit Kindern auf der ganzen Welt durchgeführt wurde, mit stets dem selben Ergebnis.

    Mustererkennung, soziale Intelligenz und Lernverhalten sind somit nicht wirklich unmittelbar und rational einzuordnen und zu beschreiben, wenn man Intelligenz auf Maschinen zu übertragen versucht.

    Insoweit ist die Frage, ob KI möglich ist, äußerst komplex und facettenreich.

    zum Thema Fluch oder Segen: nächster Post

  8. #8
    Registriert seit
    06.01.2007
    Beiträge
    6.040

    Standard

    Sehr schön, Jonas.
    Da fällt mir gerade Sam wieder ein:
    http://www.astronews.com/forum/showt...nute#post30168
    Der hatte ja auch einige Handgriffe zu lernen, die er dann auf seinem Flug ins All ausführen musste.

    Orbit

  9. #9
    Registriert seit
    17.09.2006
    Beiträge
    1.922

    Standard

    Ob KI für die Menschen ein Fluch oder ein Segen wäre hängt weigehend davon ab, wie diese mit dem Menschen interagiert.

    Häufig werden in diesem Zusammenhang Asimovs Robotergesetze angeführt. Es lassen sich jedoch sehr leicht Situationen konstruieren, in denen diese Grundsätze nicht funktionieren. So ließe sich beispielsweise kein Roboter, der diesen Gesetzen unterliegt, als Polizist einsetzen. Selbst als Verkehrpolizist, der den Verkehr an einer Kreuzung regelt, käme ein Asimov Roboter in einen unauflösbaren Konflikt, wenn er die Freiheitsrechte der Fahrer der einen Straße einschränken soll um die andere Straße freizugeben.

    Denn er hat keinen Maßstab zur Abwägung des Eingriffs in ein Menschenrecht zugunsten eines höherwertigen Ziels.

    Diese Abwägung lässt sich in beliebigen Stufen steigern bis zum Niveau von Sophies Entscheidung. Ein Niveau, das jeden Menschen derart überfordert, daß er damit sein ganzes Leben lang nicht mehr fertig werden würde.

    Einen Roboter bzw. einer KI die "richtige" Moral zu lehren, führt also letztendlich zu nichts, denn auch wir Menschen selbst sind uns hier nicht einig. Dabei muß es nicht immer um Dinge gehen wie ein Leben gegen ein anderes aufzurechnen, wie z.B. bei einer Geiselnahme. Es genügt, wenn relativ annähernd gleichwertige Rechtsgüter im Konflikt stehen, die absolut gesehen jedoch im Rang allenfalls mittelwertig sind. Jeder kennt wohl die Urteile zu Kirchturmgeläut, das dem Kläger auf die Nerven ging und deswegen vor Gericht zog.

    Es gibt genügend Beispiele von mittleren, kleinen, und auch geradezu lächerlichen Konflikten, in denen es (menschlichen) Richtern oft schwerfällt ein gutes Urteil zu finden. Man sollte also die Idee aufgeben, daß es möglich wäre einer KI allgemein gültige und immer richtig entscheidende Moral- und Wertevorstellungen beibringen zu können. Wir schaffen das nichtmal bei uns selbst.

    Abgesehen von diesen Problemen entstehen beim Einsatz von KI in einer dem Menschen dienenden Funktion völlig neue Probleme. Hierzu kann man sich einmal ansehen, wie der Mensch sich der natürlichen Intelligenz bedient hat: z.B. Zug- und Reittiere. Bevor Kraftmaschinen möglich wurden waren Tiere Diener des Menschen. Sie besitzen unbestreitbar eine Intelligenz. Diese Intelligenz kann sich in unwegsamen Gelände angepasst bewegen, schützt sich selbst vor Überlastung und kann sich selbst orientieren. Ein Wachhund unterscheidet Freund und Feind und kann Haus und Hof beschützen, ein Hirtenhund kann eine Herde zusammenhalten.

    Jetzt gehen wir mal einen Schritt weiter und bedienen uns Wesen mit einer noch höheren Intelligenz: Sklaven. Wo wir bei unseren Nutztieren kein Problem sahen, solange wir ihnen Nahrung und Schutz vor Unwetter boten, zucken wir nun zusammen bei dem Gedanken bei Menschen genauso zu verfahren.

    Und auch selbst wenn wir es aufgeben den Menschen als Eigentum zu betrachten, ihn aus der Sklaverei zu entlassen, so gibt es immer noch moralische Probleme, wenn man an das Stichwort Ausbeutung von Arbeitern denkt, etwa in der Zeit von Charles Dickens.

    Je intelligenter eine KI wird, desto näher kommt man an das moralische Problem der Sklaverei. Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.

    Noch sind wir sehr weit davon entfernt uns mit diesem Problem auseinandersetzen zu müssen. Gene Roddenberry hat mit der Figur Data in Star Trek - the next Generation einen Androiden in Szene gesetzt, der von seinen Mitmenschen nicht als Maschine gesehen wird, sondern stets als nicht nur gleichwertiges, sondern auch als hoch geachtetes Mitglied der Gemeinschaft, sogar als Freund. Auch dem Zuschauer muss immer wieder verdeutlicht werden, daß Data eigentlich eine Maschine ist, indem er Defizite bezüglich menschlicher Verhaltensweisen zeigt und/oder Überlegenheit in Form von lexikalischem Wissen.

    Diesen Schritt, nämlich eine künstliche Intelligenz als dem Menschen gleichwertig zu akzeptieren, dürfte einer der schwierigsten sein, den die Menschheit im Bezug auf KI zu bewältigen hätte.

    In einigen wenigen Folgen von Star Trek wird dies Thematisiert. So wird in einer Folge Besitzanspruch durch die Föderation auf Data erhoben. Er soll gegen seinen Willen die Enterprise verlassen und in ein Forschungslabor verbracht werden, wo man ihn zu Studienzwecken in seine Bestandteile zerlegen will. Sein Gedächtnis und damit seine gewachsene Erfahrung und Persönlichkeit würden dabei verloren gehen. Ziel ist es auf den technischen Stand seines verstorbenen Erbauers zu gelangen, dessen Aufzeichnungen verloren sind.

    Es entbrennt eine Diskussion in der auf das Bewusstsein und die Intelligenz von Data hingewiesen wird, die ihn als Individuum auszeichnet. Zur Überraschung des aufmerksamen Zuschauers wird dieses Argument zur Seite gewischt mit dem Gegenargument: "Würden Sie dem Hauptcomputer der Enterprise die selben Rechte gewären?"

    Der Umgang mit KI ist somit auch ein höchst diffiziles ethisches Problem. Ob es zum Fluch oder zum Segen wird hängt stark davon ab, wie wir mit ihr umgehen werden, sobald wir in der Lage sind sie zu erschaffen.
    Geändert von jonas (06.02.2010 um 18:56 Uhr)

  10. #10
    Registriert seit
    06.01.2007
    Beiträge
    6.040

    Standard

    Anzeige
    Was du da schreibst, ist ausgesprochen spannend, Jonas. Zum Glück schreibst du hier wieder.

    Orbit

Ähnliche Themen

  1. Bedrohliches All?
    Von Michael im Forum Astronomie allgemein
    Antworten: 38
    Letzter Beitrag: 04.08.2009, 11:11
  2. Klimakatastrophe Wüste in Brandenburg danach Eisfach
    Von chaosraptor im Forum Blick in die Zukunft allgemein
    Antworten: 141
    Letzter Beitrag: 06.06.2007, 23:56

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
astronews.com 
Nachrichten Forschung | Raumfahrt | Sonnensystem | Teleskope | Amateurastronomie
Übersicht | Alle Schlagzeilen des Monats | Missionen | Archiv
Weitere Angebote Frag astronews.com | Forum | Bild des Tages | Newsletter
Kalender Sternenhimmel | Startrampe | Fernsehsendungen | Veranstaltungen
Nachschlagen AstroGlossar | AstroLinks
Info RSS-Feeds | Soziale Netzwerke | Flattr & freiwilliges Bezahlen | Werbung | Kontakt | Suche
Impressum | Nutzungsbedingungen | Datenschutzerklärung
Copyright Stefan Deiters und/oder Lieferanten 1999-2013. Alle Rechte vorbehalten.  W3C