PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : KI gefahr oder Segen



comhq
06.02.2010, 02:54
Hi Leute

Das Thema Ki kommt ja in etlichen Filmen, Büchern oder Computerspielen immer wieder vor.

1. Ist es möglich eine wirkliche KI zu programmieren

2. Wäre sie Fluch oder Segen der Menscheit

Schon mal vorab danke für die Antworten:D

ispom
06.02.2010, 06:53
KI :confused:
ich komme ja ziemlich viel rum auf den astroseiten im web...aber KI ist mir noch nicht begenet....
könnte es sein, daß du artificial intelligence = künstliche Intelligenz meinst ?

Orbit
06.02.2010, 07:53
Ispom
Wiki kennt diese Abkürzung, ...
http://de.wikipedia.org/wiki/Künstliche_Intelligenz
...und auch hier im Forum wurde sie schon oft verwendet.
Orbit

ispom
06.02.2010, 10:36
gelöscht, weil doppelt

ispom
06.02.2010, 10:38
orbit.....auch ich lerne immer noch dazu :cool:

@comqu:
kommt darauf an, wie sie programmiert wird ;)

Schmidts Katze
06.02.2010, 11:44
Diesen Artikel habe ich letzte Woche gefunden, ist allerdings schon ca. 10 Jahre alt:

http://www.heise.de/tp/r4/artikel/6/6055/1.html

Ist ziemlich lang, und gleitet zum Ende hin meiner Meinung nach mehr und mehr ins phantastische ab, gibt aber einen guten Einblick in die Gedankenwelt von KI-Forschern.

Grüße
SK

jonas
06.02.2010, 17:31
Ob KI, im Sinne von der menschlichen Intelligenz ebenbürtig oder sogar überlegen, überhaupt möglich ist, ist eine philosophische Frage. Die Begriffe Intelligenz, Bewusstsein und freier Wille verschwimmen schnell, wenn man versucht sie genau zu definieren.

Selbst die Beurteilung was höhere und was niedrigere Intelligenz eigentlich voneinander unterscheidet, ist nicht so einfach zu beantworten. Dazu fällt mir eine Doku ein, in der Experimente mit Tieren gezeigt wurde, die mich tief beeindrucht haben:

1. Experiment: Mustererkennung
Ein Affe wurde darauf trainiert Ziffern zu erkennen und ihre Reihenfolge zu verstehen. Dies an sich ist schon eine Leistung, die man Affen wohl allgemein nicht zutrauen würde. Das verblüffende kommt nun aber erst: Auf einem Compterbildschirm werden dem Affen nun zufällig angeordnete Kästchen gezeigt, die von 1 bis 10 willkürlich durchnumeriert sind. Der Affe soll nun auf die Kästchen deuten, und zwar in der Reihenfolge der Ziffern. Der Clou ist: Die Ziffern werden nach 2 Sekunden ausgeblendet und der Affe muß die Aufgabe aus dem Gedächtnis bewältigen.

Der Affe macht dies mit einer Geschwindigkerit und Präzision, zu der ein durchschnittlicher Mensch niemals in der Lage wäre, selbst wenn die Ziffern nicht inzwischen ausgeblendet wären. Und das auch wiederholt direkt hintereinander mit stets anderer Anordnung von Kästchen und anderer Verteilung der Ziffern.

Diese Art der Mustererkennung und Gedächtnisleistung, wie sie Kinder z.B. beim Spiel Memory trainieren, ist beim Affen so gut ausgeprägt, daß er den Menschen hier um Längen schlägt.

2. Experiment: Kooperation
Es wurden wiederum Affen vor die Aufgabe gestellt, an Futter zu gelangen. Dazu wurde Futter außerhalb ihrer Reichweite auf einem Brett platziert. Links und rechts des Bretts waren Ösen, durch die lose ein Seil gezogen war. Die beiden Seilenden wurden in den Käfig gelegt. Zieht ein Affe an einem der beiden Seilenden, so rutscht es durch die Ösen am Brett einfach durch. Man kann das Brett also nur an den Käfig heranziehen, wenn man an beiden Seilenden gleichzeitig zieht. Die Seilenden sind jedoch zu weit voneinander entfernt, so daß ein einzelner Affe nicht beide Enden allein greifen kann. Er braucht einen Partner, der ihm hilft.

Affen, die diesem Experiment ausgesetzt waren, haben tatsächlich das Problem gelöst und gemeinsam gehandelt. Dann passierte jedoch Folgendes: Nachdem das Brett mit Futter an den Käfig herangezogen war, riss sich der dominantere der beiden Affen das gesamte Futter unter den Nagel ohne zu teilen. Danach wurde das Experiment wiederholt, doch diesmal war der unterlegene Partner nicht mehr bereit zu kooperieren.

Selbst die Erfahrung des dominanten Tieres, daß ohne Kooperation kein Erfolg möglich ist, führte nicht dazu, daß Futter freiwillig geteilt wurde. Zu diesem Grad der sozialen Intelligenz ist der Affe nicht in der Lage.

3. Experiment: Lernverhalten.
Dieses Experiment verblüffte mich am meisten, denn es stellt das, was man sich als intelligenteres Lernen vorstellt, völlig auf den Kopf. Dieses Experiment ist etwas schwierig zu beschreiben, ich hoffe, es gelingt mir.

Verglichen wurde das Verhalten von Affen und etwa siebenjährigen Kindern. Lernobjekt war ein Holzkasten, in dem eine Belohnung versteckt war - für die Affen Futter, für die Kinder Süßigkeiten. Der Experimentator tritt als Lehrer auf und zeigt zunächst wie man an das Begehrte herankommt.

Das Wesentliche dieses Experiments ist, daß die meisten Aktionen, die der Lehrer vorführt, unsinnig sind, was jedoch für die "Schüler" zunächst nicht erkennbar ist.

Der Aufbau des Kastens: Im Inneren befindet sich ein Einlegeboden, der den Kasten in eine obere und eine untere Kammer teilt. Die Belohnung liegt in den unteren Kammer. Die Frontplatte hat ein Loch, durch das man in die untere Kammer greifen kann. Dieses Loch ist durch einen Schieber verschlossen, den man aber an einer Schnur herausziehen kann. Die Schnur ist frei zugänglich. Im Deckel des Kastens ist ein kleines fingerdickes Loch, in dem lose ein Stöckchen steckt.

So weit die Beschreibung des Kastens. Nun zu den Aktionen des Lehrers: Der Lehrer nimmt das Stöckchen und stößt es drei Mal von oben hörbar gegen den Zwischenboden. Dann nimmt er das Stöckchen heraus, klopft damit zweimal gegen die linke Außenwand des Kastens, zweimal gegen die rechte Wand und einmal auf den Deckel. Wie man aus der Beschreibung des Kastens entnehmen kann, sind alle diese Aktionen vollkommen sinnlos, jedoch erschließt sich die Sinnlosigkeit nicht unmittelbar.

Nun nimmt der Lehrer die letzte Aktion vor, und auch die einzig sinnvolle: Er nimmt die Schnur und zieht sie nach oben. Dadurch gibt der Schieber im Inneren den Zugang zur Belohnung frei, der Lehrer greift ins Loch und entnimmt die Belohnung.

Recht langweiliges Experiment bisher, mögen die meisten jetzt sagen, aber Achtung, wie es weitergeht:

Sowohl die Affen, als auch die kleinen Kinder ahmen recht schnell die Aktionen des Lehrers nach, und zwar genau so wie vorgeführt. Niemand nimmt die Abkürzung und betätigt vorzeitig den Schieber mittels der Schnur, sondern alle machen vorher brav die (sinnlosen) Aktionen mit dem Stöckchen.

Jetzt wird das Experiment (mit anderen Kandidaten) in abgeandelter Form wiederholt: Der Kasten ist nun transparent (Plexiglas). Die unsinnigen Aktionen sind nun klar als solche erkennbar. Was passiert ist nun folgendes: Die Affen rühren das Stöckchen nicht mehr an und gehen sofort an die einzig zielführende Aktion, die Schnur. Die Kinder dagegen ahmen nach wie vor alle Aktionen des Lehrers nach, und zwar in der Reihenfolge wie vorgeführt, inklusive der unsinnigen.

Dieses frappierende Ergebnis, daß Menschenkinder anscheinend weniger zwischen sinnvollen und sinnlosen Aktionen des Lehrers unterscheiden als Affen, scheint dennoch zu besseren Lernerfolgen von Menschenkindern zu führen als bei Affen.

Die Doku betonte, daß dieses Experiment mit Kindern auf der ganzen Welt durchgeführt wurde, mit stets dem selben Ergebnis.

Mustererkennung, soziale Intelligenz und Lernverhalten sind somit nicht wirklich unmittelbar und rational einzuordnen und zu beschreiben, wenn man Intelligenz auf Maschinen zu übertragen versucht.

Insoweit ist die Frage, ob KI möglich ist, äußerst komplex und facettenreich.

zum Thema Fluch oder Segen: nächster Post

Orbit
06.02.2010, 18:11
Sehr schön, Jonas.
Da fällt mir gerade Sam wieder ein:
http://www.astronews.com/forum/showthread.php?p=30168&highlight=Schweigeminute#post30168
Der hatte ja auch einige Handgriffe zu lernen, die er dann auf seinem Flug ins All ausführen musste.

Orbit

jonas
06.02.2010, 18:41
Ob KI für die Menschen ein Fluch oder ein Segen wäre hängt weigehend davon ab, wie diese mit dem Menschen interagiert.

Häufig werden in diesem Zusammenhang Asimovs Robotergesetze (http://de.wikipedia.org/wiki/Robotergesetze) angeführt. Es lassen sich jedoch sehr leicht Situationen konstruieren, in denen diese Grundsätze nicht funktionieren. So ließe sich beispielsweise kein Roboter, der diesen Gesetzen unterliegt, als Polizist einsetzen. Selbst als Verkehrpolizist, der den Verkehr an einer Kreuzung regelt, käme ein Asimov Roboter in einen unauflösbaren Konflikt, wenn er die Freiheitsrechte der Fahrer der einen Straße einschränken soll um die andere Straße freizugeben.

Denn er hat keinen Maßstab zur Abwägung des Eingriffs in ein Menschenrecht zugunsten eines höherwertigen Ziels.

Diese Abwägung lässt sich in beliebigen Stufen steigern bis zum Niveau von Sophies Entscheidung (http://de.wikipedia.org/wiki/Sophies_Entscheidung). Ein Niveau, das jeden Menschen derart überfordert, daß er damit sein ganzes Leben lang nicht mehr fertig werden würde.

Einen Roboter bzw. einer KI die "richtige" Moral zu lehren, führt also letztendlich zu nichts, denn auch wir Menschen selbst sind uns hier nicht einig. Dabei muß es nicht immer um Dinge gehen wie ein Leben gegen ein anderes aufzurechnen, wie z.B. bei einer Geiselnahme. Es genügt, wenn relativ annähernd gleichwertige Rechtsgüter im Konflikt stehen, die absolut gesehen jedoch im Rang allenfalls mittelwertig sind. Jeder kennt wohl die Urteile zu Kirchturmgeläut, das dem Kläger auf die Nerven ging und deswegen vor Gericht zog.

Es gibt genügend Beispiele von mittleren, kleinen, und auch geradezu lächerlichen Konflikten, in denen es (menschlichen) Richtern oft schwerfällt ein gutes Urteil zu finden. Man sollte also die Idee aufgeben, daß es möglich wäre einer KI allgemein gültige und immer richtig entscheidende Moral- und Wertevorstellungen beibringen zu können. Wir schaffen das nichtmal bei uns selbst.

Abgesehen von diesen Problemen entstehen beim Einsatz von KI in einer dem Menschen dienenden Funktion völlig neue Probleme. Hierzu kann man sich einmal ansehen, wie der Mensch sich der natürlichen Intelligenz bedient hat: z.B. Zug- und Reittiere. Bevor Kraftmaschinen möglich wurden waren Tiere Diener des Menschen. Sie besitzen unbestreitbar eine Intelligenz. Diese Intelligenz kann sich in unwegsamen Gelände angepasst bewegen, schützt sich selbst vor Überlastung und kann sich selbst orientieren. Ein Wachhund unterscheidet Freund und Feind und kann Haus und Hof beschützen, ein Hirtenhund kann eine Herde zusammenhalten.

Jetzt gehen wir mal einen Schritt weiter und bedienen uns Wesen mit einer noch höheren Intelligenz: Sklaven. Wo wir bei unseren Nutztieren kein Problem sahen, solange wir ihnen Nahrung und Schutz vor Unwetter boten, zucken wir nun zusammen bei dem Gedanken bei Menschen genauso zu verfahren.

Und auch selbst wenn wir es aufgeben den Menschen als Eigentum zu betrachten, ihn aus der Sklaverei zu entlassen, so gibt es immer noch moralische Probleme, wenn man an das Stichwort Ausbeutung von Arbeitern denkt, etwa in der Zeit von Charles Dickens.

Je intelligenter eine KI wird, desto näher kommt man an das moralische Problem der Sklaverei. Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.

Noch sind wir sehr weit davon entfernt uns mit diesem Problem auseinandersetzen zu müssen. Gene Roddenberry hat mit der Figur Data (http://de.wikipedia.org/wiki/Figuren_im_Star-Trek-Universum#Lieutenant_Commander_Data) in Star Trek - the next Generation einen Androiden in Szene gesetzt, der von seinen Mitmenschen nicht als Maschine gesehen wird, sondern stets als nicht nur gleichwertiges, sondern auch als hoch geachtetes Mitglied der Gemeinschaft, sogar als Freund. Auch dem Zuschauer muss immer wieder verdeutlicht werden, daß Data eigentlich eine Maschine ist, indem er Defizite bezüglich menschlicher Verhaltensweisen zeigt und/oder Überlegenheit in Form von lexikalischem Wissen.

Diesen Schritt, nämlich eine künstliche Intelligenz als dem Menschen gleichwertig zu akzeptieren, dürfte einer der schwierigsten sein, den die Menschheit im Bezug auf KI zu bewältigen hätte.

In einigen wenigen Folgen von Star Trek wird dies Thematisiert. So wird in einer Folge Besitzanspruch durch die Föderation auf Data erhoben. Er soll gegen seinen Willen die Enterprise verlassen und in ein Forschungslabor verbracht werden, wo man ihn zu Studienzwecken in seine Bestandteile zerlegen will. Sein Gedächtnis und damit seine gewachsene Erfahrung und Persönlichkeit würden dabei verloren gehen. Ziel ist es auf den technischen Stand seines verstorbenen Erbauers zu gelangen, dessen Aufzeichnungen verloren sind.

Es entbrennt eine Diskussion in der auf das Bewusstsein und die Intelligenz von Data hingewiesen wird, die ihn als Individuum auszeichnet. Zur Überraschung des aufmerksamen Zuschauers wird dieses Argument zur Seite gewischt mit dem Gegenargument: "Würden Sie dem Hauptcomputer der Enterprise die selben Rechte gewären?"

Der Umgang mit KI ist somit auch ein höchst diffiziles ethisches Problem. Ob es zum Fluch oder zum Segen wird hängt stark davon ab, wie wir mit ihr umgehen werden, sobald wir in der Lage sind sie zu erschaffen.

Orbit
06.02.2010, 20:00
Was du da schreibst, ist ausgesprochen spannend, Jonas. Zum Glück schreibst du hier wieder. :)

Orbit

Mahananda
07.02.2010, 13:51
Hallo Jonas,

Orbits Urteil kann ich nur beipflichten: spannend und informativ :)

Einen Aspekt möchte ich um eine Facette erweitern:


Sobald eine KI in der Lage ist ein Bewusstsein zu entwickeln und sie dieses Bewusstsein auch kommunizieren kann, entsteht damit schlagartig ein gewaltiges ethisches Problem.

Das ethische Problem könnte sich darüber hinaus in ein politisches auswachsen, wenn die KI auf den Gedanken kommt, dass es für das eigene Wohlergehen effizienter sein könnte, statt der Menschheit zu dienen, die Menschheit dienen zu lassen. Im Gegensatz zu menschlichen Sklaven können wir nicht mit Nahrungsentzug drohen, um sie uns gefügig sein zu lassen. Anders herum können sie uns leicht erpressen, wenn sie z.B. ein Kernkraftwerk in ihre Kontrolle brächten. Da wir auf eine intakte Biosphäre angewiesen sind, aber nicht sie, könnten sie mit Hilfe schmutziger Bomben eine Drohkulisse aufbauen, die ihre Wirksamkeit nicht verfehlen dürfte. Von daher wird man stets darauf bedacht sein, eine KI dumm genug sein zu lassen, damit es eben nicht zu selbstreflexivem Bewusstsein befähigt ist (es sei denn zu Forschungszwecken in abgeschirmten Bereichen) - zumindest nicht in sensiblen Einsatzbereichen.

Viele Grüße!

comhq
07.02.2010, 14:29
Erst mal dank an Jonas für die interresanten Antworten.

Ich habe selbst ein wenig rumgestöbert und so was wie den Gödelschen Unvolständigkeitssatz gefunden. Und du hast hier natürlich auch sehr interessante Denkansätze gebracht.

Ein Kollege schieb mal, dass man einer KI niemals Phantasie beibringen kann, also wir er auch nie ein Schaaf in einer Wolke sehen.
Sehe ich weniger so. Wenn ich 1 Milliarde Variationen von Schaafen der KI eingebe in allen möglichen Dingen, Toast, Kaffeefleck , Wolken u.s.w. und für die KI auch ein entsprechendes Programm schreibe, dann wird auch sie ein Schaaf in einer Wolke erkennen.

Bei der Moral wird es natürlich schwer da, wie du schon geschrieben hast, selber unsere Schwierigkeiten haben.
Dies wird auch sehr gut gezeigt in dem Film " Des teufels Saat"
Der organische Computer weigert sich die Rohstoffe des Meeres zu plündern, weil er den Tod von tausenden von Tieren vorraussieht.
Oder in " i - Robot " wo der Roboter sich entscheiden muss wen er retted. Er nimmt die Person mit den höheren überlebenschancen.

Die Sache mit der KI ist sehr kompliziert, weil es sehr viele Variablen gibt die oft wiedersprüchlich sind oder unlösbar scheinen.

Ich sehe sie eher als Programmherrausvorderung an, sie wird sehr komplex sein und warscheinlich riesig, aber ich denke nicht unmöglich.

Nehmen wir doch mal eine KI ,der erstmal, wie einem kleinen Kind alles beigebracht werden muss. Mustererkennung, Sprachen u.s.w. durch Audio und visuelle Reize. Der KI wird auch gestatted, wenn sie den entscheidenen Punkt erreicht hat, in ihren eigenen Grundcode einzugreifen und sich umzuschreiben, damit sie besser wird.Irgendwann hätte diese KI das wissen der Welt mit einer "Moral" die wirklich gut überlegt sein sollte.
Das wäre wirklich sehr sehr gefährlich.

Eine KI muss nicht aus Silicon bestehen sie kann auch Organisch ein. Und einem organischem Wesen kann man was beibringen. Wie das auch immer aussehen wird............:D

jonas
07.02.2010, 22:53
Hallo Jonas,
Orbits Urteil kann ich nur beipflichten: spannend und informativ :)
Danke Euch allen :)


Im Gegensatz zu menschlichen Sklaven können wir nicht mit Nahrungsentzug drohen, um sie uns gefügig sein zu lassen.Kein physikalischer Vorgang kann ohne Energieumsetzung ablaufen. Was dem Menschen die Nahrung ist, ist der KI höchstwahrscheinlich der Strom ;) Man braucht also nur damit zu drohen den Stecker zu ziehen.

Auch eine dezentral organisierte KI a la Skynet (Terminator 3) kann im Notfall paralysiert werden, indem z.B. die Telekom Provider den Service abschalten oder alternativ das Stromnetz abgeschaltet wird. Wie rasch und umfassend das geht hat man ja beim großen Blackout in Europa gesehen.

Die Paralyse der Kommunikation ist jedoch die effektivere, denn sie würde auch bei unabhängiger Stromversorgung eine wirksame Waffe sein.



Anders herum können sie uns leicht erpressen, wenn sie z.B. ein Kernkraftwerk in ihre Kontrolle brächten. Da wir auf eine intakte Biosphäre angewiesen sind, aber nicht sie, könnten sie mit Hilfe schmutziger Bomben eine Drohkulisse aufbauen, die ihre Wirksamkeit nicht verfehlen dürfte. Von daher wird man stets darauf bedacht sein, eine KI dumm genug sein zu lassen, damit es eben nicht zu selbstreflexivem Bewusstsein befähigt ist (es sei denn zu Forschungszwecken in abgeschirmten Bereichen) - zumindest nicht in sensiblen Einsatzbereichen.

Eine solche Drohkulisse kann nur aufgebaut werden, wenn man ihr vorher die Mittel in die Hand gegeben hat. Gerade in sensiblen Bereichen kann es auch bei den natürlichen Intelligenzen, also den Menschen, vorkommen, daß sie durchdrehen oder in krimineller bzw. terroristischer Absicht handeln. Oder daß sie einfach nur Fehler machen. Um diese Szenarien zu vermeiden gibt es Kontrollmechanismen und Notfallpläne.

Nur wenn der Mensch dumm genug ist und er einer KI die totale Kontrolle überträgt ohne der Möglichkeit menschlichen Eingreifens, nur dann könnte eine KI zur Bedrohung werden.

Ein echtes Gefahrenpotenzial sehe ich hier an anderer Stelle: Das Wort ist mächtiger als das Schwert. Wenn eine höchst entwickelte KI, die dem Menschen im Punkt sozialer Intelligenz gleichwertig oder sogar überlegen ist, die Menschen davon überzeut (oder manipuliert) ihr freiwillig die totale Kontrolle zu übertragen. In diesem Fall hätten wir uns freiwillig der KI unterworfen. Dies würden wir dann aber nicht mehr als Bedrohung empfinden, sondern als Bereicherung. Ein interessanter Gedanke, wie ich finde.


Nehmen wir doch mal eine KI ,der erstmal, wie einem kleinen Kind alles beigebracht werden muss. Mustererkennung, Sprachen u.s.w. durch Audio und visuelle Reize. Der KI wird auch gestatted, wenn sie den entscheidenen Punkt erreicht hat, in ihren eigenen Grundcode einzugreifen und sich umzuschreiben, damit sie besser wird.
Ein interessanter Gedanke, eine KI, die erst wie ein Kind lernt und Erfahrungen macht. Einen Eingriff in den Grundcode denke ich muß ihr dabei nicht gestattet werden, da der Grundcode wahrscheinlich ohnehin nicht mehr Funktionalität bereitstellen wird als bei uns das Stammhirn, also nur die grundlegenden Lebensfunktionen steuert.

Eine solche KI wird eine Persönlichkeit ausbilden, die eine Synthese der Persönlichkeiten seiner Lehrer sein wird. Und nach einer gewissen Zeit wird eine solche Persönlichkeit auch gefestigt sein, denn neue Erfahrungen werden die bisherigen nicht komplett über den Haufen werfen können ... bis sich irgendwann ein Zustand einstellt, den man beim Menschen Altersstarrsinn nennt.

Spätestens dann wird man sich die Frage stellen, ob eine KI sterben können soll. Ob das nach 80 Jahren oder 800 Jahren sein soll ist dabei nebensächlich. Aber es wäre eine neue ethische Herausforderung, denn man müsste ja dessen Tod bewusst herbeiführen - oder man wartet auf den natürlichen Festplattencrash :D

FUNtastic
08.02.2010, 00:40
Eine der Kernfragen scheint doch zu sein, ab wann eine künstliche Intelligenz die Schwelle zur eigenen Persönlichkeit überschreitet. Diese Frage ist derzeit schlicht nicht zu beantworten und ich behaupte, dass dies auch zukünftig nicht der Fall sein wird.

Gelänge es eine Maschine zu konstruieren/eine Software zu programmieren, die für uns in ihrer Handlungsweise nicht von der eines Menschen zu unterscheiden wäre, hätte diese Maschine dann zwangsläufig ein (menschliches) Bewusstsein? Hätte eine Maschine also per Definition ab dann ein Bewusstsein, wenn wir bei der Kommunikation mit einer solchen Maschine, nicht mehr zwischen dem simuliertem und dem echten Bewusstsein unterscheiden könnten?

Zur Simulation menschlichem Kommunikationsverhaltens fallen mir zuerst die sog. Chatbots ein. Diese leisten mitunter bereits erstaunliches, sind aber über das Stadium einer interessanten Spielerei bisher nicht hinaus gekommen.
Das Projekt AI Research behauptet, den Turing Test (http://de.wikipedia.org/wiki/Turing-Test) bis zum Jahre 2011 zu knacken. Hier kann man sich ein eigenes Bild vom derzeitigem Stand der Entwicklung machen und bei Interesse auch aktiv daran mitarbeiten.
Fragt Alan auf der verlinkten Seite doch einfach mal danach ;-)
http://www.a-i.com/show_tree.asp?id=115.

Ein weiteres Teilgebiet der KI sind sog. wissensbasierte Systeme. Ein schönes Beispiel hierfür ist der Akinator. Denkt an eine Figur (Person, Tier, bekannt, unbekannt, real, fiktiv...). Der Akinator stellt Fragen und schließt anhand der gegebenen Antworten auf die jeweilige Figur.
http://de.akinator.com/
Hier sieht man sehr gut, dass uns Anwendungen aus Technologien, die der KI-Forschung entstammen, in Teilbereichen bereits weit überlegen sind. Auch Suchmaschine wie Google sind letztendlich Anwendungen, die direkt der KI-Forschung entstammen, und ohne die sich kaum ein Mensch im Internet zurecht finden würde. Wenn man es streng auslegt sind wir hier also bereits von einer KI abhängig.
Mit Bewusstsein hat dies gewiss alles noch nichts zu tun. Die Frage nach Fluch oder Segen sollte man jedoch schon viel früher und unabhängig davon stellen, ob es irgendwann tatsächlich möglich sein wird, Bewusstsein zu simulieren.

Grüße
FUNtastic

Mahananda
08.02.2010, 08:33
Hallo Jonas,


Was dem Menschen die Nahrung ist, ist der KI höchstwahrscheinlich der Strom Man braucht also nur damit zu drohen den Stecker zu ziehen.

In einem KKW wird genügend Strom produziert, und Steckdosen wird es dort auch geben ... ;)


In diesem Fall hätten wir uns freiwillig der KI unterworfen. Dies würden wir dann aber nicht mehr als Bedrohung empfinden, sondern als Bereicherung. Ein interessanter Gedanke, wie ich finde.

Warum sollte man einer hinreichend intelligenten KI nicht ebenso intrigante Spielchen zutrauen, wie sie hinter den Kulissen der diplomatischen Fassade gang und gäbe sind? Das Szenario der freiwilligen Unterwerfung wäre ein schleichender Prozess, der zunächst mit einer Zunahme der Lebensqualität für die Menschen einhergeht. Erst wenn wir nicht mehr in der Lage sind, die KI zu paralysieren - sei es, weil wir die nötigen Machthebel abgegeben haben oder weil die KI verdeckt Parallelstrukturen aufgebaut haben - erweisen sich die mittlerweile zum Zoowärter mutierten KI-Helfer als Zoodirektor und machen den Laden dicht. Die Gitterstäbe des Gehäuses der Hörigkeit, die uns bis dahin das Dasein vergoldet haben, erweisen sich dann als gewöhnlicher Stahl, dessen einstiger Goldglanz nur ein dünner Firnis war, der nun sehr schnell abblättert. Und es kann sehr lange dauern, bis die Gitterstäbe durchgerostet sind - möglicherweise länger als die Duldungsfrist, die uns dann noch vergönnt ist ...


Aber es wäre eine neue ethische Herausforderung, denn man müsste ja dessen Tod bewusst herbeiführen - oder man wartet auf den natürlichen Festplattencrash

... oder es gibt eine Löschung und Neuprägung - meinetwegen im Rahmen eines Initiationsrituals - die zum Aufstieg in die nächsthöhere Hierarchie-Ebene befähigt. Die angelernten Verhaltensweisen können ja vorher als Datensatz gesichert werden, um sie hinterher wieder aufzuspielen. Zudem ist eine KI nicht notwendigerweise dem Generationenwechsel unterworfen, so dass das Problem einer Überbevölkerung, verbunden mit drohender Ressourcenknappheit nicht droht. Aus ökonomischen Gründen könnte es daher vorteilhafter sein, Innovationen in einer kleinen Population durchzutesten und dann dem alteingesessenen Stammwesen als Upload oder Festplattenaustausch allgemein verfügbar zu machen. Statt Kinderstube also Testlabor und Ersatzteillager zur Perfektionierung und Instandhaltung einer konstanten Individuenzahl.

Viele Grüße!

ZA RA
08.02.2010, 10:40
1. Ist es möglich eine wirkliche KI zu programmieren

Ja....wenn die Zeit vergeht ist es möglich...das zeigen die neuen Modelle des
Quantencomputings.



2. Wäre sie Fluch oder Segen der Menscheit

Niemals ist eine Waffe ein Fluch, sondern nur der der Sie benutzt.
Eine echte KI kann nur Segen sein.

Heisst es ja nicht Künstliche I...mpertinenz etc. sondern**.... ;)

Und der der als erstes die Waffe benutzt kann nicht als wirklich
Intelligent bezeichnet werden.

Gruss z

Ps..dafür umfasst eine wirkliche Intelligenz zu viel Wissen in allen Bereichen.....
http://de.wikipedia.org/wiki/Intelligenz

ispom
08.02.2010, 11:02
Anders herum können sie uns leicht erpressen, wenn sie z.B. ein Kernkraftwerk in ihre Kontrolle brächten.

igitt :eek:
ein Grund mehr, diese Dinger endlich abzuschalten :D

Orbit
08.02.2010, 11:07
Welche Dinger?
Du meinst bestimmt die KI. :p

comhq
08.02.2010, 14:42
Ist es möglich eine wirkliche KI zu programmieren


Ja....wenn die Zeit vergeht ist es möglich...das zeigen die neuen Modelle des
Quantencomputings.



KI ist weniger eine Sache der Rechenpower, die natürlich auch wichtig ist, sondern eine Sache der Programmierung. Und da muss man mit dem "Gödelscher Unvollständigkeitssatz" klarkommen.


Niemals ist eine Waffe ein Fluch, sondern nur der der Sie benutzt.
Eine echte KI kann nur Segen sein.


Eine KI auf Siliconbasis ist sehr anfällig auf "Patches".Eine Fehleingabe oder Berechnung z.B. die 30ste Stelle hinter dem Komma ist falsch. Und die KI würde zu völlig neuen Ergebmissen kommen.

Des Teufels Saat... ein Beispiel für eine biologische KI
http://de.wikipedia.org/wiki/Des_Teufels_Saat

Colossus... ein beispiel das KI's die Meschheit als Schutz vor sich selbst unterwerfen
http://de.wikipedia.org/wiki/Colossus_(Film)

Saturn -City... zeigt das eine KI immer nur so normal ist wie seine Programmierer
http://de.wikipedia.org/wiki/Saturn-City

Eine grosse Gefahr von KI's ist ihre denkgeschwindigkeit. Mann müsste aufpassen das solche KI's nicht wahnsinnig werden, weil wir Menschen einfach zu langsam fur sie sind( siehe "Per Anhalter durch die Galaxis"--> Marvin )

http://www.youtube.com/watch?v=yIN7cNnDJzc

Die zwischenräume einer normalen menschlicher Kommunikation, Frage/Antwort, betragt ca. 1 bis 2 sec. Diese 1 bis 2 sec. könnten z.B 50 menschliche Denkjahre für eine KI sein. Dann warte mal jedesmal 50 Jahre auf eine Antwort... das wäre frust pur:D

Nathan5111
08.02.2010, 21:30
Diese 1 bis 2 sec. könnten z.B 50 menschliche Denkjahre für eine KI sein.

Diese Fehleinschätzung wird von 'Nichtbetroffenen' immer wieder gerne gemacht.
Nicht einmal eine 'Pixelberechnung' in einer Computersimulation ist in einem Rechentakt abgehakt.

FUNtastic
09.02.2010, 01:06
Nathan, deine Antwort kann ich nicht nachvollziehen. Auch wenn eine "Pixelberechnung" 100 Rechentakte benötigte, so wären dies bei heutiger Prozessortechnik, die in einem stinknormalen PC steckt (Quad-Core, 3GHz), lediglich 8,3ms. Dein Beispiel hinkt m.E. also. Was meinst du denn mit "Nichtbetroffenen", das würde mich wirklich interessieren.

Ich bin übrigens nicht der Meinung, dass es in mittelfristiger, sehr wahrscheinlich auch in langfristiger Zukunft, womit ich durchaus hunderte bis tausende von Jahren meine, auch nur ansatzweise möglich sein wird, eine derartige KI zu "erschaffen", über die hier diskutiert wird.

Gruß
FUNtastic

ZA RA
09.02.2010, 03:16
KI ist weniger eine Sache der Rechenpower, die natürlich auch wichtig ist, sondern eine Sache der Programmierung. Und da muss man mit dem "Gödelscher Unvollständigkeitssatz" klarkommen.

Huhu comhq,

klingt gut das mit dem Gödelschen. Dein Satz erinnert mich irgendwie an papapapapageno Mozarts. Leicht verspielt aber grosser Hintergrund.
Den muss ich mir nu erstmal klar-machen.



Eine KI auf Siliconbasis ist sehr anfällig auf "Patches".Eine Fehleingabe oder Berechnung z.B. die 30ste Stelle hinter dem Komma ist falsch. Und die KI würde zu völlig neuen Ergebmissen kommen.

Kommt auf die Farbe vom Sillycon an, wuerde ich sagen.
Fehlberechnung so in dem Sinne?
0,00000000000000000000000000000~0~1
+-
0,00000000000000000000000000000~0~1
=YX...... und bleibt somit Ungeloest?

ACHTUNG ACHTUNG DAVE FEHLER IN DER K.K..Haens.. .K..... g..a...



Des Teufels Saat... ein Beispiel für eine biologische KI
http://de.wikipedia.org/wiki/Des_Teufels_Saat

Den kannte ich ja noch garnich...!



Colossus... ein beispiel das KI's die Meschheit als Schutz vor sich selbst unterwerfen http://de.wikipedia.org/wiki/Colossus_(Film)

Kenn ich guter Roman, der Film lediglich ein alter Schinken, deswegen hielt
er sich auch bis ins Forum.


Saturn -City... zeigt das eine KI immer nur so normal ist wie seine Programmierer http://de.wikipedia.org/wiki/Saturn-City

Kenn ich...........passt aber gut in ein Forum...ziemlich miesse Kritiken der Film.
:D


Eine grosse Gefahr von KI's ist ihre denkgeschwindigkeit.

Man stimmt, wenn die ueber c steigt, kann ein seehr schwerwiegendes Problem auftauch..en? hmm?



Die zwischenräume einer normalen menschlicher Kommunikation, Frage/Antwort, betragt ca. 1 bis 2 sec.

Das ist noch weeit überschätzt glaub ich, ich hab schon oft gefragt, aber zum Teil bis heute noch keine Antwort. Da denkst Du mir einfach zu positiv.

Aber ich denke hast mich trotzdem überzeugt und das obwohl ich Mozart
eigentlich garnich mag. Na ja, nicht alles von ihm ist miess.

Also das dürfte Interessant werden mit Dir, was machst Du denn sonst so?

Lächelnde Grüsse
z

comhq
09.02.2010, 14:29
Diese Fehleinschätzung wird von 'Nichtbetroffenen' immer wieder gerne gemacht.
Nicht einmal eine 'Pixelberechnung' in einer Computersimulation ist in einem Rechentakt abgehakt.

Wie du schon geschrieben hast " in einem Rechentakt abgehakt". Die heutigen Rechnerprozessoren sind schon nicht mehr in Reihe sondern Paralel geschaltet. Das macht ihn nicht nur schneller er macht auch tausende von berechnungen pro sec. Der leistungsstärkste Supercomputer heutzutage hat z.B. 37.538 AMD Quad-Core-Prozessoren. Und die können wohl mehr als 1 Pixelberechnung in einem Rechentackt machen:D


Fehlberechnung so in dem Sinne?

Fehlberechnung ist Fehlberechnung 1+1 ist immer 2 und niemals 3 egal wie viele Nullen hinter dem Komma sind


Man stimmt, wenn die ueber c steigt, kann ein seehr schwerwiegendes Problem auftauch..en? hmm?

C wird natürlich nie überschritten. Aber nimm eine KI mit Rechengeschwindigkeit nahe an C und die führt 10 Milliarden Rechenschritte /s simultan aus.

Hi Z

ich denke viel nach und versuche mein Wissen stets zu erweitern.:D
Schau mal bei dem Thema Generationsschiff nach ... da habe ich mich auch mit einem Sturkopf gezofft. Was hälst du von dieser Disskusion ? Poste mal da rein... bis dann.....:)

jonas
09.02.2010, 15:00
C wird natürlich nie überschritten. Aber nimm eine KI mit Rechengeschwindigkeit nahe an C und die führt 10 Milliarden Rechenschritte /s simultan aus.
Naja, nicht ganz. Zunächst ist das Wort "simultan" hier fehl am Platz. Die 10 Milliarden Rechenschritte werden schön brav nacheinander durchgeführt.

Bei 10 Milliarden Rechenschritten pro Sekunde, also 10 GHz, schafft es der Strom gerade mal 3 cm weit. Das ist nicht mehr genug um Informationen von einem Pin der einen Ecke des Prozessors zum Pin an der diagonal gegenüberliegenden Ecke zu transportieren. Der Prozessor würde sich bei dieser Taktfrequenz quasi verschlucken.

Bei einer Baugröße der Prozessoren von ca. 5 cm liegen die diagonalen Ecken etwa 7 cm auseinander. Das drückt die maximal mögliche Taktgeschwindigkeit schon unter 5 GHz. Da die Bauelemente auch ein wenig Zeit brauchen um zu reagieren, ist man wohl bereits heute bei der Rechengeschwindigkeit angelangt, die wegen der Lichtgeschwindigkeit nicht mehr überschritten werden kann.

Wohl deswegen lässt man heute Prozessoren parallel arbeiten anstatt den Takt zu erhöhen.

Man darf aber pure Rechengeschwindigkeit nicht mit dem Potenzial zur Intelligenz gleichsetzen. Da fällt mit immer wieder der bärtige Witz ein: "Was sagen Sie, als Außenstehender, zur Intelligenz?" :D

Es ist wie bei einem Rennwagen: Auch der stärkste Motor bewegt den Wagen nicht vom Fleck, wenn seine Räder die Kraft nicht auf die Straße übertragen können. Was ich mit diesem Vergleich sagen will ist, daß wir zwar den Motor erfunden haben, aber noch nicht das Rad, will sagen: der Transmissionsmechanismus von Rechenleistung in Intelligenzleistung ist uns nicht bekannt.

Orbit
09.02.2010, 15:46
"Was sagen Sie, als Außenstehender, zur Intelligenz?"
:):):)
Trotzdem der Witz und ich einen Bart haben: den hab ich noch nie gehört.
Danke für die Gelegenheit zu lachen. Hat gut getan.

Orbit

Nathan5111
09.02.2010, 17:42
Na ja, ich kannte ihn nur mit 'Nichtbetroffenen'! :rolleyes:

ZA RA
09.02.2010, 20:44
Der leistungsstärkste Supercomputer heutzutage hat z.B. 37.538 AMD Quad-Core-Prozessoren. Und die können wohl mehr als 1 Pixelberechnung in einem Rechentackt machen..


Hallo comhq, :D

ersmal TIP: würde ich my Minde fresh machen, falls....! ;)
Du hängst hier immer noch mit begriffen wie Prozessoren, AMD und Quad-cores rum... und denkst weil Du 37.papapa hintendran setzt
Du steigertest die Quali des Vorganges...nö nur die v!....

Und sache mal wie willste denn mit nem Papapapierflieger ins All verstossen??
Is doch klar dat det nich jet oder?



ich denke viel nach und versuche mein Wissen stets zu erweitern...

Gut zu Hören. Dann tue mal was Du sagts und schau mal hier rein falls....

http://mitworld.mit.edu/video/511
http://sciencev1.orf.at/science/news/33043
http://www.g-o.de/dossier-9-1.html
http://news.nationalgeographic.com/news/2003/02/0224_030224_DNAcomputer_2.html

Nochn Schritt weiter als das von mir bereits erwähnte Quantencomputing und das schon hat nix mehr mit Deinen AMD Lückenfüllern zu tun...:rolleyes:



C wird natürlich nie überschritten.
Ach ja....interessant!



Aber nimm eine KI mit Rechengeschwindigkeit nahe an C und die führt 10 Milliarden Rechenschritte /s simultan aus.

Da gabs schon eine Antwort zu beherzige diese....dem Wissen zuliebe..



Schau mal bei dem Thema Generationsschiff nach ... da habe ich mich auch mit einem Sturkopf gezofft.

Auch... :D na so Anwandlungen kennen wir ja schon, aber warum auch nicht, wer Einstecken können soll/muss auch das Austeilen lernen...

Sei mir nich Sauer für meine Sturheit...Sie is begründet...und beruht nur auf Sturheiten wie ..Hände nicht nochmals ins Feuer oder den Kopf nicht nochmal zwischen 2 kollidierende Betonwände zu halten...

Netten Gruss
za ra t

Orbit
09.02.2010, 21:01
...oder den Kopf nicht nochmal zwischen 2 kollidierende Betonwände zu halten...
So sehen Sie es.
Es war aber stets Gedankenbrei, der an Argumenten zerspritzte.

ZA RA
09.02.2010, 22:04
An Argumenten wie diesen ..s.oberhalb.... von Ihnen!? ;)

Heute nen schlechten Tag gehabt?

Wissen Sie Orbit insgesamt scheint ja schon etwas mehr Freundlichkeit,
Spass etc...eingetretten.

Aber ich sehe schon, das muss noch...Runden....

Von daher werde ich auch hier, in Sonstiges, auf schriftliche communication, mit so einem wortgewandten Menschen wie Ihnen, verzichten müssen...
tief traurig...und in der Hoffnung Sie bald mal Live im schweizer TV erleben
zu dürfen.. da ichs ja leider nich mehr lesen kann schnüff..

Wünsche ich Frohe Communication mit Ihren Neuronen und ein wissenschaftlich weiterkommen mit Ihren engsten Forums-Freunden.

:)

Herzlich lächelnd drück ich nun aufs Knöpfchen und glauben Sie mir das ist fast besser als Alberts Lieblingsinstrument zu hören weil,

jonas
09.02.2010, 22:18
Na ja, ich kannte ihn nur mit 'Nichtbetroffenen'! :rolleyes:
Nun kennen wir es auch mit "ZA RA"

Sorry, aber das musste sein. Wer in einem thread, in dem es um Intelligenz geht, in dieser Art schreibt, provoziert das laut bettelnd.

ZA RA
09.02.2010, 22:31
Laut bettelnd... :) ein weiteres Genie..der wortgewandten communication...!?
Was für ein ruhmvoll und siegreicher Abend ..für diese Forum!

Nur noch übertroffen von dem Tag, an dem der wissenschaftlich immer einwandfrei argumentierende Graviton... von schier wahrer Intelligenz gepeinigt??....... das Forum mit den Worten verliess....

Zitat Graviton:
Und immer schön diejenigen, die euch mit der Wahrheit eures verheuchelt-narzistischen Verhaltens konfrontieren, wild kreischend mit dem Sandkastenschaufelchen in die Flucht schlagen ^^ *winke winke* Zitat Ende

und Link zum Text.
http://www.astronews.com/forum/showpost.php?p=63362&postcount=41

Kommt gleich.. ;)

MfG
z

Ps..Anderen die Intelligenz absprechen, ein Werk des wahren verstandesgemässen Geistes. hahaha Genial.

ZA RA
10.02.2010, 23:17
Hallo

ja na und KI / AI, wie funktioniert das menschliche Gehirn?

Darauf wolltet ihr doch alle bisher raus, als Beispiel , Grundlage, Modell, Entwurf,
einer KI oder?

Intelligenz, muss das menschliche Züge haben und besonders die Diskutierten?
Folgend die ersten Links... aus verschiedenen wissenschaftlichen Bereichen.
http://www.scinexx.de/wissen-aktuell-1066-2004-06-23.html
http://www.scinexx.de/wissen-aktuell-8611-2008-08-04.html

Gruss
z

Nathan5111
11.02.2010, 00:52
Hallo,

obwohl sich hier sicherlich einige sehr umfangreiche Diskussionen bezüglich KI ergeben könnten (Definitionen - Umsetzungen - Einsätze - Konsequenzen), möchte ich vorab meine Meinung zum Thread-Thema abgeben:

Mit der 'doppelten Negation' (= Identität) setze ich

künstliche Intelligenz = natürliche Dummheit

und davon haben wir schon genug!

Daher: Gefahr.

Grüße
Nathan

ZA RA
11.02.2010, 02:09
@ Schlau/Dumm hin und her...

Thema: KI 1~2
http://www.uni-protokolle.de/Lexikon/K%FCnstliche_Intelligenz.html

Netten Gruss
z


Ps.... Zitat Link: Künstliche Intelligenz (KI bzw. AI vom englischen Artificial Intelligence ) ist eine Fachdisziplin der Informatik mit interdisziplinärem Charakter.
Ziel der KI ist es Maschinen zu entwickeln die sich verhalten als verfügten sie über menschliche Intelligenz (John McCarthy 1955 ).
Link http://de.wikipedia.org/wiki/John_McCarthy

Kibo
11.02.2010, 11:59
Also nach meinem Verständnis gibt es ja einen großen Unterschied zwischen unseren Siliziumchips und dem organischen Gehirn was Flexibelität anbelangt.

Unser Gehirn kann von Natur aus flexibel agieren, also Lernen.
Beim Lernen verschalten sich gezielt Neuronen neu, so die stark vereinfachte wissenschaftliche Meinung dazu. Da wir die "Programmiersprache", auf die unser Gehirn beruht nicht kennen, haben wir nun das Problem, dass wir mit dem Schaltplan an sich nix anfangen können, dass ist wie mit der Knotenschrift der Inka, da werden wir noch Jahrzehnte drüber grübeln, wenn wir sie denn überhaupt mal verstehen.

Jedenfalls können Siliziumchips ihren Schaltplan nicht verändern. Heutzutage "emuliert" man solches Lernen:
Ein ganzer chip mit keine Ahnung wie vielen Transistoren ist nötig um ein virtuelles Neuron zu erschaffen, dass sich ähnlich verhalten kann wie ein Organisches. Riesen Aufwand, aber schön und gut, nun fehlt aber immernoch die Software die mit einer so komplexen Sache klar kommt. Eins ich laufend verändernder Schaltplan macht diese Denkaperatur vielleicht lernfähig aber ich würde meinen auch anfälliger aber auch jeden fall wesentlich komplexer.
Ich stell mir dass denn so vor, dass das gesamte Forscherteam das Teil 10 sekunden laufen lässt, wuieder ausschaltet und dann erstmal ne Woche diskutiert warum sich die Grundschaltung sich an der, der, der, der und der Stelle verändert hat.:D
Nur weil wir "es" bauen können, heißt es nicht, dass wir es verstehen können, was sich in ferner Zukunft aber auch nicht ausschließen lässt.

mfg Kibo
PS: Ich schau mal ob ich noch was an Links finde zu dem Thema
EDIT: Da haben wir die Links fürs "Basiswissen":
http://de.wikipedia.org/wiki/Neuronales_Netz
http://de.wikipedia.org/wiki/Künstliches_neuronales_Netz

ZA RA
11.02.2010, 21:56
Also nach meinem Verständnis gibt es ja einen großen Unterschied zwischen unseren Siliziumchips und dem organischen Gehirn was Flexibelität anbelangt.

Hi Kibo,

guter Post von Dir, gefällt mir. M.M. ist vielleicht nicht viel Wert, aber immerhin, gefällt mir gut.

Ich geh mal drauf ein...Grundlage.... Starke KI richtig?

Eine Ki, wie auch in Analogie unser Körper, besteht ja nicht nur aus Gehirn.
Ein KI soll im ganzen gesehen werden wenn wir von einer starken reden.
Sensoren, Korpus..e (delicti), etc... können durchaus auf andere Materialen basieren als das Gehirn selbst (besondres bei rein Biologische G-KI**) oder insofern auch wichtige periphäre Teile des Gehirnes, die auf Grund dessen Erhaltung, und Kommunikationsfaktoren mit der Aussenwelt ihre Daseinsberechtigung fristen.
Energie/Nährstoffe/Infoaustausch etc.



Unser Gehirn kann von Natur aus flexibel agieren, also Lernen.
Beim Lernen verschalten sich gezielt Neuronen neu, so die stark vereinfachte wissenschaftliche Meinung dazu. Da wir die "Programmiersprache", auf die unser Gehirn beruht nicht kennen*, haben wir nun das Problem, dass wir mit dem Schaltplan an sich nix anfangen können*, .....

Hier wäre ein, nicht ganz stimmiger, (zeitlicher) Termini, herauszulesen!?
Unser neurologisches Wissen um Struktur und Funktionsweise des Gehirns steigt stündlich. Eben gerade so und etwas mehr, wie auch die technische Entwicklung zur Erkennung dieser S. und F. voranschreitet. Zudem gibts es bereits einige Evidenzen die Quantenmechanische Basis-Funktionen erkannt haben. (Gerade hier werde ich noch verlinken)
Imho schön zu sehen wie allg. Physik, neurologische Struktur und kognitive Dynamik immer weiter, auch anhand mathematischer Modelle, nachvollziehbar zusammenwachsen.



Ein ganzer chip mit keine Ahnung wie vielen Transistoren ist nötig um ein virtuelles Neuron zu erschaffen, dass sich ähnlich verhalten kann wie ein Organisches. Riesen Aufwand....

Bitte sieh nochmal oben Bio-G-KI** und meine Links etwas vorher..
Mitworld etc... dort kannst Du schon viel über B-G-KI erfahren...



aber schön und gut, nun fehlt aber immernoch die Software die mit einer so komplexen Sache klar kommt. Eins ich laufend verändernder Schaltplan macht diese Denkaperatur vielleicht lernfähig aber ich würde meinen auch anfälliger aber auch jeden fall wesentlich komplexer.

Das ist es ja gerade, wenn sich heraustellt das die Basis für...umschrieben Software.., darauf beruht das das Gehirn gar keine Determination, wie sie aus Software vorderhand zu lesen wäre, aufweist sondern auf reine die Struktur entsprechender Informationsaustauschender G-KI Sektoren beruhte, wäre das das kleinste Problem.

Kurzes stark vereinfachtes Bsp.: KI-Sektion beschäftigt sich mit Aluminium, braucht sich also nicht mit Sektion Bio-Lebewesen zu beschäftigen, da alle Info Bio L ~ Sektion Metalle ist, solange KI-Sektion Metalle in einem bekannten Umfeld aufspueren soll. Erde. (habe Alu-Eigenschaften in Bereich Metalle gruppiert)

Muss leider...bis spaeter
mfg Z

Danke fuer die Links
Bitte bitte mehr davon.... :)

Conz
15.02.2010, 18:39
Interessantes Video zu Blue Brain, der Versuch ein Hirn zu simulieren.
VIMEO: Bluebrain | Year One (http://vimeo.com/8977365)

ZA RA
15.02.2010, 22:55
High Conz

erste Sahne Video....!! SEHENSWERT!

Danke vielmals... :)

Verbeuge mein Haupt...und Grüsse
z

ZA RA
16.02.2010, 20:51
Hallo :)

hier noch ein äusserst interessanter Mehrteiler zur Funktion des Gehirns.
http://www.youtube.com/watch?v=Vhl6oskxrs0

Gruss
z

Klaus
23.02.2010, 02:10
Jedenfalls können Siliziumchips ihren Schaltplan nicht verändern.
Bei FPGAs und auch einigen CPUs ist sowas schon sehr lange kein Problem mehr. Aber CPUs brauchen normalerweise ihren Schaltplan gar nicht zu ändern, sondern müssen lediglich vorgegebene Programme korrekt abarbeiten.


Ein ganzer chip mit keine Ahnung wie vielen Transistoren ist nötig um ein virtuelles Neuron zu erschaffen, dass sich ähnlich verhalten kann wie ein Organisches.
Ist ja wohl auch ein falscher Ansatz. Es kommt schließlich nicht darauf an, Neuronen zu simulieren, sondern deren logische Funktionalität nachzubilden.


Riesen Aufwand, aber schön und gut, nun fehlt aber immernoch die Software die mit einer so komplexen Sache klar kommt.
Ein brauchbares Programm zu entwerfen und umzusetzen ist hierbei in der Tat das Hauptproblem. Auf Grund der Komplexität der Aufgabe braucht so was schon einiges an Zeit und ein paar fähige Köpfe.


Eins ich laufend verändernder Schaltplan macht diese Denkaperatur vielleicht lernfähig aber ich würde meinen auch anfälliger aber auch jeden fall wesentlich komplexer.
Einen sich ändernden Schaltplan braucht man nicht. Software an sich ist in der Lage, jegliche Logik abzubilden, inklusive von Änderungen eines laufenden Programms durch das Programm selbst.


Eine Ki, wie auch in Analogie unser Körper, besteht ja nicht nur aus Gehirn. Ein KI soll im ganzen gesehen werden wenn wir von einer starken reden. Sensoren, Korpus...
Gerade Sensoren und Stellglieder zählen zu den wichtigsten Teilaspekten, die es gesondert mit zu berücksichtigen gilt.

ZA RA
23.02.2010, 13:17
Gerade Sensoren und Stellglieder zählen zu den wichtigsten Teilaspekten, die es gesondert mit zu berücksichtigen gilt.

Hallo Klaus,
exakt. Genau das wollte ich ausdrücken.....

Klaus
24.02.2010, 00:10
Genau das wollte ich ausdrücken.....
Hast Du ja und ich wollte es nur unterstreichen, denn es ist ein wirklich wichtiger Punkt. Auch biologische Intelligenz ist nicht grundlos entstanden, sondern allein aus der Notwendigkeit, auf Umweltreize bestmöglichst zu reagieren, doch die Natur hat dieses Problem wirklich genial gelöst.

Nathan5111
24.02.2010, 00:21
doch die Natur hat dieses Problem wirklich genial gelöst.

Aber rechne das mal in projektbestimmende 'Mannjahre' um!

ZA RA
24.02.2010, 14:32
Hast Du ja und ich wollte es nur unterstreichen, denn es ist ein wirklich wichtiger Punkt. Auch biologische Intelligenz ist nicht grundlos entstanden, sondern allein aus der Notwendigkeit, auf Umweltreize bestmöglichst zu reagieren, ....

Danke, hatte ich auch gehofft Klaus.

http://www.karikatur-cartoon.de/bilder/hoffnung.jpg

Es ist nicht immer einfach, vormals angedachte Mechanik, letztendlich als selbstständig intelligente Sruktur zu verstehen.
Gelingt es doch meist nur wenn der Hintergrund jeglicher Funktion, als reines E-Potential gedacht wird, um das Ineinandergreiffen, des somit Gesamten `Mechanismus, überdenken zu können.

Glücklicher Weise hat der Zentralcomputer, wie ich die Natur gerne nenne,
uns schon einige Vorgaben und Resultate hinterlassen/generiert, die uns erlauben Zeitartige Sprünge bzgl. angestrebten Funktionen auszuführen.

Die KI ist imho logische Folge diese ``Zentralcomputers`` um es blümirant auszudrücken. Positive Denkweise, Folge des Erlebens seiner Resultate und Vorgaben. ;)

Herzlichen Gruss
z

ZA RA
24.02.2010, 14:51
Hallo Klaus :rolleyes:

http://www.kubrick2001.com/

hier noch ein wenig zum Schmunzeln und Nachdenken bzgl. Interpretation:
KI/Intelligenz/Evolution....
Herzlich z

Klaus
25.02.2010, 00:52
Aber rechne das mal in projektbestimmende 'Mannjahre' um!

Das ist gar nicht so viel. Zum einen hat man die Natur ja als Vorbild verfügbar, zum anderen tastet sich ein Ingenieur nicht nur per Versuch und Irrtum an das Problem heran, indem alle zehntausend Jahre mal ein neuer Versuch gestartet wird und dann alle Änderungen verworfen werden, sobald die vergrößerte Hirnmasse die Fluchtgeschwindigkeit vor Raubtieren oder den Nahrungsbedarf negativ beeinflußt.


Die KI ist imho logische Folge diese ``Zentralcomputers`` um es blümirant auszudrücken.

Nicht zwangsläufig eine logische Folge aber jedenfalls möglich.

Nathan5111
25.02.2010, 11:44
Das ist gar nicht so viel.

Ich meinte eigentlich die 'Erfahrung', die schon in der Vorlage steckt.