Kann es sein, dass Du einen Jet meinst, der mit (scheinbarer) Überlichtgeschwindigkeit durchs All jagt?
Es besteht der Konsens, dass Turing-Maschinen, also Computer heutiger Bauart, prinzipiell keine künstliche Intelligenz entwickeln können.
Was mir in diesem Zusammenhang immer wieder einfällt ist die berühmte Ja/Nein Frage: "Haben Sie aufgehört ihre Frau zu schlagen" (wohlgemerkt, der Befragte hat niemals seine Frau geschlagen bzw. ist überhaupt nicht verheiratet). Diese Frage ist nicht entscheidbar.wikipedia schrieb:Die Entdeckung der Nichtentscheidbarkeit des Halteproblems (und des Gödelschen Unvollständigkeitssatzes) hatte eine erschütternde Wirkung auf das damals herrschende mathematische Weltbild. Damals versuchte man gerade, die Mathematik durch eine strikte Formalisierung zu vereinheitlichen und den Regeln der Logik zu unterwerfen (siehe Hilberts Programm). Man ging davon aus, dass sich jedes mathematische Problem durch eine geeignete Formalisierung lösen lässt; dass es also immer möglich sei, eine Aussage so zu formulieren, dass man durch die Regeln der Logik und Mathematik erkennen kann, ob sie wahr oder falsch ist – gesucht war also ein vollständiges und widerspruchfreies System. Nach den Erkenntnissen von Turing und Gödel ist so etwas jedoch grundsätzlich nicht möglich: in jedem System, das turingmächtig ist (bzw. die Mächtigkeit der Arithmetik besitzt) lassen sich Aussagen formulieren, die weder bewiesen noch widerlegt werden können: solche Systeme sind grundsätzlich unvollständig. Oder anders ausgedrückt: es gibt Funktionen, die zwar wohldefiniert sind, deren Werte sich dennoch im Allgemeinen nicht berechnen lassen.
Setzt man nun die Churchsche These als wahr voraus, so können Maschinen und letztlich Menschen das Halteproblem (und viele andere Probleme) grundsätzlich nicht lösen. Das führt zu der philosophisch weitreichenden Aussage, dass nicht jedes Problem lösbar ist, selbst dann nicht, wenn man eigentlich alle relevanten Informationen kennt und sich streng an einen mächtigen Formalismus hält.
Eine dem metaphysischen bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische Philosoph Hubert Dreyfus die Auffassung der starken KI. Aufbauend auf der von Martin Heidegger in dessen Werk Sein und Zeit entwickelten Ontologie der „Weltlichkeit der Welt“ versucht Dreyfus zu zeigen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zurückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, ist ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe die sinnhaften Beziehungen zwischen den Dinge der Welt in einen Computer einzuprogrammieren als – nicht nur unendliche – sondern unmögliche. Dies deshalb weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann. (Hervorhebung durch den Verf.)
Vgl. Hubert Dreyfus: In-der-Welt-sein und Weltlichkeit: Heideggers Kritik des Cartesianismus. in: Thomas Rentsch: Sein und Zeit. Akademie Verlag, Berlin 2001, S. 69ff
Beim Satz von Rice handelt es sich um ein Ergebnis der Theoretischen Informatik. Benannt wurde der Satz nach Henry Gordon Rice. Er besagt, dass es unmöglich ist, irgendeinen nichttrivialen Aspekt des funktionalen Verhaltens einer Turingmaschine (oder eines Algorithmus in einem anderen Algorithmenmodell) algorithmisch zu überprüfen.
Es ist zwar möglich, eine Eigenschaft eines speziellen Algorithmus zu beweisen, und dies lässt sich auch automatisieren, doch es gibt kein allgemeines Verfahren, das für jeden Algorithmus feststellen kann, ob die von ihm beschriebene Funktion eine gewünschte Eigenschaft hat
Ich habe nicht sagen wollen, dass KI nicht möglich ist, sondern dass es mit Turingmaschinen nicht möglich ist. Unser Gehirn ist ja schliesslich auch keine Turingmaschine.Bynaus schrieb:Es gibt keinen Grund, warum wir vermuten müssten, dass "starke KI" bzw. "echte KI" nicht möglich ist.
Unser Gehirn ist ja schliesslich auch keine Turingmaschine.
Das ist das, was im Wiki-Artikel in etwa auch so steht: Eine Simulation, mehr aber nicht. Eine solche Simulation wäre nicht in der Lage eigene Ideen zu entwickeln oder einen bis dato unbekannten Sinnzusammenhang zu begreifen.Bynaus schrieb:Aber eine Turingmaschine kann unser Gehirn simulieren - also auch KI.
Eine solche Simulation wäre nicht in der Lage eigene Ideen zu entwickeln oder einen bis dato unbekannten Sinnzusammenhang zu begreifen.
Warum nicht? Warum sollte sie dazu nicht in der Lage sein? Eine vollständige Simulation umfasst auch das Neubilden, Stärken und Schwächen von Neuronenverbindungen als Reaktion auf äussere Inputs (ansonsten wäre es ja keine Simulation, sondern ein Bild).
Die Behauptung dass so eine Simulation nie ein Bewustsein entwickeln könnte, geht mir zu sehr in die göttlich/religiöse Schiene so dass nur ein omnipotenter Gott in der Lage ist ein Wesen mit einem Bewusstsein zu kreieren.
Aber wie willst Du Gefühle programmieren, wie willst Du z.B. das unverständnisvollste, unlogischste Prinzip, das Wunder der Liebe jemals in den Griff bekommen ?
Das sehe ich allerdings anders; aber in solche Diskussionen mische ich mich wegen Eskalationsgefahr besser nicht mehr ein.Ganz genau...
aber in solche Diskussionen mische ich mich wegen Eskalationsgefahr besser nicht mehr ein.
Das sehe ich allerdings anders; aber in solche Diskussionen mische ich mich wegen Eskalationsgefahr besser nicht mehr ein.
Orbit
Liebe zudem als "unlogisches Prinzip" zu bezeichnen, ist auch sehr weit hergeholt: ein solches Gefühl hat den evolutionär völlig nachvollziehbaren Sinn, Angehörige und Eltern von Kindern zusammenzuhalten (zum Zweck der Maximierung der Überlebenschancen des Individuums).
Man muss diese Dinge, wenn man so vorgeht, nicht "programmieren". Alles, was man tut ist, dass man in einem Computer genau das simuliert, was das Gehirn tut, etwa so, wie wenn das Gehirn ein Wettermuster, eine Klimaentwicklung, eine Proteinfaltung wäre - das alles wird heute ja auch auf Grossrechnern simuliert. Natürlich ist die Simulation eines ganzen Gehirns komplex, und natürlich ist nicht gewährleistet, dass es auf Anhieb klappt: aber letztlich wird dieses Gehirn exakt so denken, "handeln" und fühlen, wie ein Mensch denkt, handelt und fühlt.
-Diese Eigenschaften sind tatsächlich programmierbar und würden der Liebe wie wir sie kennen in nichts nachstehen, es gab da schon paar kleine Simulationen, was die Entscheidungsgewalt eines Programms prüfte, alles bezogen auf wenige Parameter die zur Wahl standen.
-Die fähigkeit zu Denken und zu Entscheiden eines Prog. ist keine Fiktion mehr und wird zum Teil schon verwendet, zwar noch nicht auf dem Niveau was wir unter Künstliche Intelligenz verstehen, aber immerhin schon unglaubliche Perspektiven für Maschinen im industriellen Einsatz.
-Also die menschlichen Züge und Eigenschaften nach zu programmieren ist nicht mehr so in den Kindernschuhe wie man glaubt.
Gruß Micha