Simuliertes Gehirn: Wir werden ewig leben im Silizium

jonas

Registriertes Mitglied
Hi Bynaus

Henry Markgram scheint ein Freund von ziemlich gewagten Behauptungen zu sein. Nicht nur die Vorhersage von einem Nachbau des menschlichen Gehirns innerhalb der nächsten 10 Jahre überrascht, auch die Aussage, daß von rund 2 milliarden Menschen vermutet würde, daß diese an irgendeiner Form eines Hirndefektes leiden würden.

Das wären ja immerhin ca. ein Drittel der Weltbevölkerung. Es ist schon recht forsch einem Auditorium zu verkünden, daß man bei statistisch einem Drittel von ihm einen Dachschaden vermutet und dafür auch noch Applaus erhält. :D
 

Orbit

Registriertes Mitglied
Das wären ja immerhin ca. ein Drittel der Weltbevölkerung. Es ist schon recht forsch einem Auditorium zu verkünden, daß man bei statistisch einem Drittel von ihm einen Dachschaden vermutet und dafür auch noch Applaus erhält.
Wieso forsch? Der Applaus bestätigt doch seine These. :D
Und neu ist das auch nicht. Da hat doch auch schon mal eine Volksmehrheit einem Programm zu ihrer eigenen Vernichtung zu gejubelt.
Orbit
 
Zuletzt bearbeitet:

Bynaus

Registriertes Mitglied
daß von rund 2 milliarden Menschen vermutet würde, daß diese an irgendeiner Form eines Hirndefektes leiden würden.

Darüber bin ich auch gestolpert... Wobei, Hirndefekt ist vielleicht etwas hochgegriffen, zumindest im organischen Sinn. Ich denke, er meint eher sowas wie psychische Probleme. Aber auch dann scheint mir die Zahl etwas gar hoch gegriffen...

@Mac: würdest du die von dir im angesprochenen Post aufgeworfenen Fragen denn nun gerne diskutieren?
 

Klaus

Registriertes Mitglied
Oh, darüber wird Frau Merkel aber gar nicht erfreut sein.

Und warum? Sie ist Befürworterin von Genfood und Vertreterin einer religösen Gruppierung und steht trotzdem an Spitze der Regierung. Ich schätze mal ihr dürfte das klar sein.

Als ich Dich mit den Konsequenzen Deiner anschließend abgegebenen Definition für Intelligenz und Bewußtsein konfrontiert habe, kam dieser Rückzug:Du definierst hier nicht mehr, sondern reduzierst auf eine rein phänomenologische Betrachtung eines marginalen Bruchteils des Phänomens Intelligenz und Bewußtsein.
Bei der phänomenologische Betrachtung ging es mir um die Erkennbarkeit von Intelligenz, die Definition bleibt davon unberührt. Erkennbar ist Intelligenz letzlich nur im entsprechenden Verhalten und Reagieren. Und wenn sich etwas in Bezug auf ein Problem intelligent verhält, ist es nunmal intelligent genug, dieses Problem zu lösen und hat damit, woher auch immer, die nötige Intelligenz. Im Bereich automatischer Steuerungen stammt die Intelligenz zur Problemlösung dabei vorab aus dem Hirn des Entwicklers bzw. Programmierers, bleibt aber dennoch beteiligt.

Deine anschließende Unterscheidung von starker und schwacher KI fällt auf Dich selbst zurück, wenn Du hier den Rückzug auf schwache KI meinen solltest.
Nein, da hab ich nur noch mal klar machen wollen daß eine beobachtbare Intelligenz unterschiedliche Ursachen haben kann. Im Fall schwacher KI handelt es sich um vorprogrammierte intelligente Verhaltensweisen ohne aktuell beteiligte Denkprozesse.

Nicht ich habe behauptet Intelligenz und Bewußtsein leicht definieren zu können.
Ja und? Wenn Du was an der Definition auszusetzen hast, dann werd doch mal konkret.

Abgesehen von Deiner eigenen expliziten Bezugnahme auf starke KI, läßt beides gemeinsam genannt, auch gar keinen Zweifel daran, daß wir hier von Anfang an, über starke KI reden.
Davon bin ich ausgegangen und hab es auch als Grundwissen vorausgesetzt.

Wenn ich auch mit der Wahl Deiner Adjektive nicht einverstanden bin, will ich Dich dazu doch korrekt zitieren. Du kritisierst hier einen Intelligenztest, den weder ein Torpedo noch eine Rakete bestanden hätten.
Soll es bei dem Test um die Detektierung von Intelligenz oder der von Menschen gehen? Außerirdische wären für Dich wohl allein deswegen nicht intelligent, weil ihnen das Hintergrundwissen über menschliche Verhältnisse, wie Kinderstube und Sprachbesonderheiten u.ä. fehlt und sie daher den Turingtest nicht bestehen können?

Nähme man dagegen Deine Definition als Grundlage, dann gälten auch diese als intelligent im Sinne von starker KI.
Nein. Die Unterscheidung in starker und schwache KI beziehen sich lediglich auf den den Bereich künstlicher Intelligenz und hat mit der Definition von Intelligenz an sich nichts zu tun. Starke KI beinhaltet das Vorhandensein eigenständiger Denkprozesse zur selbständigen Lösung von vorab unbekannten Problemstellungen und dieses fehlt bei Deinen Raketen.

Wenn Du also schon den wesentlich erfolgreicheren Turingtest als ‚Simulation einer grenzdebilen Spezies‘ ablehnst, selbst aber - sogar ein halbes Jahrhundert später - um Größenordnungen unter dem Turingtestniveau bei Deinem Definitionsversuch zu Intelligenz und Bewußtsein zurückbleibst, frage ich mich:
Mit der Kritik am Turingtest steh ich keineswegs allein da und was meine ganz allgemeine Definition von Intelligenz betrifft, seh ich an der nichts grundlegend falsches.

Wie würdest Du Deine eigene Definition mit den oben von Dir gewählten Maßstäben beurteilen (wenn sie nicht aus Deiner eigenen Tastatur käme)
Du kannst ja gern darüber diskutieren wollen, aber hinter der Definition steck etwas mehr, als mal eben nur ein paar Tastaturanschläge und sie deckt sich auch nicht völlig grundlos annähernd mit der, die man in der Wikipedia findet (http://de.wikipedia.org/wiki/Intelligenz).

Bei der Definition von Bewußtsein hab ich mit der Definition lediglich meine derzeitige Auffassung dazu wiedergegeben. Wenn Du daran was auszesetzen hast, können wir aber gern drüber diskutieren, was denn Bewußtsein darstellt und wie es sich vom Unterbewußtsein abgrenzt.

@Bynaus: Danke für den Link! Eventuell wäre auch die Simulation eines halben Hirns schon genug: http://www.scinexx.de/wissen-aktuell-10237-2009-07-23.html. :D
 

mac

Registriertes Mitglied
Hallo Bynaus,

@Mac: würdest du die von dir im angesprochenen Post aufgeworfenen Fragen denn nun gerne diskutieren?
Ja. Du stellst die Frage allerdings so, als hätte ich die Diskussion damals abgewürgt? Dessen bin ich mir gar ncht bewußt, kann aber im Moment auch nicht alles nachlesen.

Herzliche Grüße

MAC
 

Luzifix

Registriertes Mitglied
Mir scheint die Notwendigkeit einer Differenzierung unterschiedlicher Grade von KI nicht nötig. Ich sehe einen nahtlosen Qualitätsfortschritt vom einfachen Lichtschalter bis hin zur universell informierten und handlungsfähigen androiden Persönlichkeit a`la Data. Was Ihr hier nicht ohne Eifer definiert ist Ausdruck menschlicher Eitelkeit.

Ein intelligentes Wesen ist aufgrund von Erfahrung in der Lage, den Ablauf von Vorgängen vorherzusehen und die Konsequenz des eigenen Verhaltens in Gedanken vorher durchzuspielen. Dazu benötigt es genug Phantasie und Lernvermögen. Und solange es unseren kybernetischen Kindern noch an Phantasie mangelt, werden wir das Defizit mit der unsrigen ergänzen. Solange es beim Lernen noch etwas holprig zugeht, werden wir ihnen auch da helfend zur Seite stehen. Man kann zukünftig über uns zweibeinige Kohlenstoffeinheiten im Universum sicher viel Schlechtes erzählen, jedoch nicht, daß wir keine guten Lehrer sind oder gewesen wären. Da wollen wir doch ruhig ein bißchen eitel sein.

In diesem Sinne: Seid optimistisch und seid effizient!
 

Bynaus

Registriertes Mitglied
Ja. Du stellst die Frage allerdings so, als hätte ich die Diskussion damals abgewürgt? Dessen bin ich mir gar ncht bewußt, kann aber im Moment auch nicht alles nachlesen.

Das wollte ich damit nicht sagen, sorry. Ich war mir nicht sicher, ob deine Aussage jetzt eine Aufforderung war, diese Dinge mal aufzugreifen, oder ob du gerne im anderen Thread weiterdiskutieren möchtest.

Ich denke (dazu), dass eine Identität / Person / Original ein einzelnes, laufendes "Gehirn" (leider gibt es keine gute Übersetzung des englischen Wortes "Mind", das hier angebrachter wäre) sein sollte. Kopien davon sind unabhängige Personen mit gleichen unveräusserlichen Rechten, nicht aber erworbenen Rechten wie das Original (dh, die Kopie hat ein Recht auf Leben, aber keinen Anspruch auf, sagen wir, das Haus des Originals). Natürlich können Minds auch verschmelzen und so zu neuen Minds mit neuen Eigenschaften, aber den ererbten Rechten ihrer Vorgänger werden.

Vielleicht sind diese Vorstellungen naiv und noch zu sehr in der Gegenwart verwurzelt, aber mal sehen, was ihr dazu meint.

Das grösste Problem, das ich mit Uploads und künstlichen Intelligenzen habe, ist folgendes: es scheint heute so, wie wenn diese Technologie, einmal erfunden, massenhaft eingeführt würde - es wäre wohl sehr einfach, Kopien von Personen (Minds) anzufertigen. Das heisst, die Anzahl Minds würde exponentiell wachsen, und schon bald stünden jedem "normalen" Menschen in der "realen Welt" vielleicht Millionen von virtuellen Menschen in virtuellen Welten oder in künstlichen Körpern gegenüber. Der typische Beobachter der menschlichen Zivilisation wäre also ein solches Mind - was uns heutige Menschen zu Exoten macht. Wenn ich jetzt den Bayes bemühen dürfte - das ist nicht besonders wahrscheinlich. Unsere Beobachtung, keine Minds zu sein, sondern "normale" Menschen in biologischen Körpern, legt den Schluss nahe oder scheint es wahrscheinlicher zu machen, dass es nie eine grosse Anzahl Minds geben wird. Die Frage ist nur: warum nicht?
 

mac

Registriertes Mitglied
Hallo Klaus,

Bei der phänomenologische Betrachtung ging es mir um die Erkennbarkeit von Intelligenz, die Definition bleibt davon unberührt. Erkennbar ist Intelligenz letzlich nur im entsprechenden Verhalten und Reagieren. Und wenn sich etwas in Bezug auf ein Problem intelligent verhält, ist es nunmal intelligent genug, dieses Problem zu lösen und hat damit, woher auch immer, die nötige Intelligenz. Im Bereich automatischer Steuerungen stammt die Intelligenz zur Problemlösung dabei vorab aus dem Hirn des Entwicklers bzw. Programmierers, bleibt aber dennoch beteiligt.
Die Frage hier ging um eine Definition von Intelligenz und Bewußtsein. Die Definition die Du so vollmundig gegeben hast, macht keinen Unterschied zwischen Mensch und geregelter Maschine. Damit ist sie als Definition von Intelligenz und Bewußtsein unbrauchbar.


Ja und? Wenn Du was an der Definition auszusetzen hast, dann werd doch mal konkret.
gut, nochmal ganz konkret: Eine Definition für Intelligenz und Bewußtsein, die eine geregelte Maschine nicht mehr unterscheidbar macht von einem menschlichen Bewußtsein und menschlicher Intelligenz, ist Schrott.





Davon bin ich ausgegangen und hab es auch als Grundwissen vorausgesetzt.
und warum weichst Du dann bei Deiner Definition auf schwache KI aus?



Soll es bei dem Test um die Detektierung von Intelligenz oder der von Menschen gehen? Außerirdische wären für Dich wohl allein deswegen nicht intelligent, weil ihnen das Hintergrundwissen über menschliche Verhältnisse, wie Kinderstube und Sprachbesonderheiten u.ä. fehlt und sie daher den Turingtest nicht bestehen können?
es geht keineswegs um eine Verteidigung des Turingtest, sondern an dieser Stelle nur um eine Gegenüberstellung des Turingtest und Deiner Intelligenzdefinition.

Oder anders gesagt dem Vergleich der durchaus, wenn auch nicht in der Wortwahl, berechtigen Kritik am Touringtest und der Deiner völligen Kritiklosigkeit gegenüber Deiner eigenen Definition.

Wenn Du nun auch noch das Problem mit der Erkennung außerirdischer Intelligenz durch eine bloße Erweiterung Deiner Intelligenzdefinition auch auf geregelte Maschinen erschlagen möchtest, dann versinkt diese Diskussion mit Dir in freier Beliebigkeit.



Nein. Die Unterscheidung in starker und schwache KI beziehen sich lediglich auf den den Bereich künstlicher Intelligenz und hat mit der Definition von Intelligenz an sich nichts zu tun. Starke KI beinhaltet das Vorhandensein eigenständiger Denkprozesse zur selbständigen Lösung von vorab unbekannten Problemstellungen und dieses fehlt bei Deinen Raketen.
und das nicht ohne Grund, denn es fehlte auch bei Deiner Intelligenzdefinition
Intelligenz ist im weitesten Sinne die Fähigkeit zum Erkennen von Zusammenhängen und dem darauf basierenden Finden optimaler Problemlösungen. Unter Problem verstehe ich dabei eine Abweichung des Istzustandes vom Optimum und unter einer Problemlösung die Beseitigung dieser Abweichung.



Mit der Kritik am Turingtest steh ich keineswegs allein da
das habe ich auch nicht bezweifelt.


und was meine ganz allgemeine Definition von Intelligenz betrifft, seh ich an der nichts grundlegend falsches.
Sie ist nicht falsch, sie ist vollkommen insuffizient.



Du kannst ja gern darüber diskutieren wollen, aber hinter der Definition steck etwas mehr, als mal eben nur ein paar Tastaturanschläge und sie deckt sich auch nicht völlig grundlos annähernd mit der, die man in der Wikipedia findet (http://de.wikipedia.org/wiki/Intelligenz).
lies mal einfach nur noch diese dazu: http://en.wikipedia.org/wiki/Intelligence.

Und dann vergleiche es mit:
Wiki schrieb:
Künstliche Intelligenz (KI, engl. artificial intelligence, AI) ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, weil es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch findet er in Forschung und Entwicklung Anwendung.
aus: http://de.wikipedia.org/wiki/Künstliche_Intelligenz Hervorhebung durch mich.

Herzliche Grüße

MAC
 

Enas Yorl

Registriertes Mitglied
es wäre wohl sehr einfach, Kopien von Personen (Minds) anzufertigen.

Beim Punkt "einfach" habe ich so meine Zweifel. Auch wenn es eines Tages möglich wird, ein Mind von jemanden herzustellen. Wird der Aufwand um eine annähernd identische Kopie anzufertigen, wohl Recht groß sein. Bis jetzt ist vollkommen unklar wie lange man ein Gehirn beobachten muss, um genügend Daten für eine akzeptable Simulation zu bekommen. Auch stellt sich die Frage, mit was für einer Genauigkeit der Kopie sich das Original den zufrieden gibt.
Und was kostet das ganze, wie viele werden sich das Verfahren leisten können? Auch die Rechenkapazität der Simulation wird bezahlt werden müssen. Ich denke, hier werden finanzielle Gründe dem Bevölkerungswachstum der Minds Grenzen setzen.
 

mac

Registriertes Mitglied
Hallo Enas,

Beim Punkt "einfach" habe ich so meine Zweifel.
ich auch, aber das ist auch eine Frage des Zeitpunktes.



Auch wenn es eines Tages möglich wird, ein Mind von jemanden herzustellen. Wird der Aufwand um eine annähernd identische Kopie anzufertigen, wohl Recht groß sein. Bis jetzt ist vollkommen unklar wie lange man ein Gehirn beobachten muss, um genügend Daten für eine akzeptable Simulation zu bekommen.
an dieser Stelle ist auch mit Bynaus's Link noch alles offen. Es geht ja dort zunächst mal nicht um eine Kopie eines 'Mind' sondern eher um etwas ähnliches wie den Versuch eine kritische Masse zusammenzuschalten.


Und was kostet das ganze, wie viele werden sich das Verfahren leisten können? Auch die Rechenkapazität der Simulation wird bezahlt werden müssen. Ich denke, hier werden finanzielle Gründe dem Bevölkerungswachstum der Minds Grenzen setzen.
das ist kein Widerspruch zu Bynaus. Diese Grenzen existieren immer, aber sie müssen deshab nicht schon frühzeitig zu einer Begrenzung führen.

Herzliche Grüße

MAC
 

mac

Registriertes Mitglied
Hallo Bynaus,

kein Problem. Ich war wie gesagt nur unsicher, ob ich damals irgendetwas hab‘ anbrennen lassen.

Wir haben in dem anderen Thread über eine etwas anders gelagerte Konstellation diskutiert, das macht aber nichts, denn hier läßt sich die Problematik, besonders mit Deinem Link zur Arbeit von Markram, besser eingrenzen. Darauf komme ich gleich nochmal zurück, aber zunächst zu Deinem Beitrag.


Ich denke (dazu), dass eine Identität / Person / Original ein einzelnes, laufendes "Gehirn" (leider gibt es keine gute Übersetzung des englischen Wortes "Mind", das hier angebrachter wäre) sein sollte. Kopien davon sind unabhängige Personen mit gleichen unveräusserlichen Rechten, nicht aber erworbenen Rechten wie das Original (dh, die Kopie hat ein Recht auf Leben, aber keinen Anspruch auf, sagen wir, das Haus des Originals).
Du steuerst hier eine scheinbar pragmatische Lösung an.

Was macht denn eigentlich unser Rechtsempfinden, z.B. auf Besitz aus, wo kommt es her? Beispiel: Du und Deine Frau bekommen ein Kind. Ihr zieht das Kind gemeinsam groß bis es meinetwegen 5 Jahre alt ist. Du läßt Dich, oder Du wirst einfach kopiert. Der kopierte Mind hat dieselben Erinnerungen an sein früheres Leben wie Du. Wem wird Unrecht getan, wenn er sein Kind aufgeben muß?
Es möge nun bitte keiner glauben daß ich Kinder für einen Besitz halte, es geht mir ganz einfach um einen maximalen Konflikt bei dieser Frage, die jeder von uns mehr oder minder gut nachempfinden kann.



Das grösste Problem, das ich mit Uploads und künstlichen Intelligenzen habe, ist folgendes: es scheint heute so, wie wenn diese Technologie, einmal erfunden, massenhaft eingeführt würde - es wäre wohl sehr einfach, Kopien von Personen (Minds) anzufertigen. Das heisst, die Anzahl Minds würde exponentiell wachsen, und schon bald stünden jedem "normalen" Menschen in der "realen Welt" vielleicht Millionen von virtuellen Menschen in virtuellen Welten oder in künstlichen Körpern gegenüber. Der typische Beobachter der menschlichen Zivilisation wäre also ein solches Mind - was uns heutige Menschen zu Exoten macht. Wenn ich jetzt den Bayes bemühen dürfte - das ist nicht besonders wahrscheinlich. Unsere Beobachtung, keine Minds zu sein, sondern "normale" Menschen in biologischen Körpern, legt den Schluss nahe oder scheint es wahrscheinlicher zu machen, dass es nie eine grosse Anzahl Minds geben wird. Die Frage ist nur: warum nicht?
das ist durch die Übersichtsarbeit inspiriert, die Du zum FP verlinkt hattest? Ich bab‘ die bisher nur überfliegen können, darum will ich dazu noch nichts sagen.



So, nun nochmal zu ‚Besser eingrenzen‘ speziell auf die Frage: Wenn das so funktioniert, wie Markram es sich vorstellt, was haben wir dann? Welche Rechte hat es? Darf man es abschalten?

Wenn wir den Schutz von Menschen- und Tierrechten hoch halten, was wollen wir damit eigentlich genau schützen? Und stellt eine solche Entwicklung tatsächlich eine gangbare Alternative auch ‚nur‘ zu Tierversuchen dar?

Mir wird ehrlich gesagt ganz schlecht, je länger ich darüber nachdenke.


Herzliche Grüße

MAC
 

Luzifix

Registriertes Mitglied
Auch stellt sich die Frage, mit was für einer Genauigkeit der Kopie sich das Original den zufrieden gibt.
Und was kostet das ganze...

"Gilgamesch, wohin läufst du? Das Leben, das du suchst, wirst du nicht finden! Als die Götter die Menschheit erschufen, teilten den Tod sie der Menschheit zu, nahmen das Leben für sich in die Hand. Du, Gilgamesch - dein Bauch sei voll, ergötzen magst du dich Tag und Nacht! Feiere täglich ein Freudenfest! Tanz und spiel bei Tag und Nacht! Deine Kleidung sei rein, gewaschen dein Haupt, mit Wasser sollst du gebadet sein! Schau den Kleinen an deiner Hand, die Gattin freu´ sich auf deinem Schoss! Solcher Art ist das Werk der Menschen!"

Die Suche nach der Unsterblichkeit kostete den königlichen Helden 2760 v.u.Z. nicht weniger als das Leben.

Mal angenommen, es gelänge, alles das, was eine menschliche Persönlichkeit in ihrer Komplexität ausmacht, vollständig in einen Chip oder ein anderes Substrat zu transferieren. Als was würde sich der Chip, wenn er z.B. in einem Sockel steckt selber sehen, sich seiner selbst bewußt werden?

Auch wenn er alles wüßte und alle Empfindungen, alle Erinnerungen von irgendwem hier aus dem Forum in sich trüge, wie könnte er sich anders sehen, wenn er nach der wahren Realität trachtet, als einen Chip, der quasi fest verdrahtet in einem Sockel steckt. Keineswegs als Mensch, der mit Armen und Beinen und Sinnesorganen mal eben zur Entspannung in den Garten gehen könnte. Alles andere wäre eine Disharmonie, wenn man so will, eine neurotische Psychose mit paranoiden Zügen. Ein irrer Chip, der in einem Sockel steckt und sich ständig fragt, wie real die Informationen sind, die er über die vorgegebenen Kanäle zugeführt bekommt und in wieweit sie gemacht oder manipuliert sein könnten, der die wahrgenommene Umwelt und Personen in seinem Labor deshalb mit größtem Argwohn beobachtet, weil alles im Widerspruch zu seiner in diesem Falle vorgegebenen Persönlichkeit zu stehen scheint.

Die Ethik eines intelligenten Chips kann nie darin bestehen, daß er den Menschen für alle Ewigkeit als unsterbliche Kopie auf dieser Welt vertritt. Das viel bedichtete Gott gleich werden heißt für uns Sterbliche: Geburtshilfe leisten, Erziehungsarbeit und Lehren, sich eventuell aufopfern für etwas völlig Neues, von uns Erschaffenes, das sich eines Tages eigenständig als Individuum erkennen und sich seiner Einzigartigkeit bewußt werden darf, obgleich es so viel auch von uns enthält, nicht anders, wie wir auch noch Elemente (man könnte sagen Erfindungen) vom Lurch oder vom Einzeller in uns tragen.

Es gibt Götter! Sie wissen es nur noch nicht! Aber wir werden es gewiß erfahren.
 
Zuletzt bearbeitet:

Klaus

Registriertes Mitglied
Hallo Mac,

Die Definition die Du so vollmundig gegeben hast, macht keinen Unterschied zwischen Mensch und geregelter Maschine.
Das darf sie auch nicht, sonst wär sie falsch. Wenn man Intelligenz völlig allgemein definieren will, muß die Definition Maschinen und auch jegliche Art nichtmenschlicher Lebensformen mit beinhalten.

und warum weichst Du dann bei Deiner Definition auf schwache KI aus?
Schwache und starke KI, instinktives und vorprogrammiertes Verhalten oder aber Denkprozesse jeglicher Art - das alles macht zunächst mal keinen Unterschied, sofern Zusammenhänge als solche erkannt werden und darauf basierend Probleme optimal gelöst werden. Ein Außenstehender kann lediglich feststellen, ob die Intelligenz zum Lösen eines Problems vorhanden ist und wie optimal oder suboptimal es gelöst wird.

Wenn Du nun auch noch das Problem mit der Erkennung außerirdischer Intelligenz durch eine bloße Erweiterung Deiner Intelligenzdefinition auch auf geregelte Maschinen erschlagen möchtest, dann versinkt diese Diskussion mit Dir in freier Beliebigkeit.
...
Sie ist nicht falsch, sie ist vollkommen insuffizient.

Das seh ich nicht so. Meine Definition stellt doch nicht grundlos die Forderung nach einer optimalen Lösung von Problemen auf der Basis des Erkennens von Zusammenhängen und der Teufel steck hierbei im Detail:
Schwache KI kann i.d.R. Zusammenhänge und somit auch Probleme als solche nicht erkennen sondern höchstens vorab bereits kennen und deshalb auch keinerlei Probleme basierend auf dem Erkennen von Zusammenhängen lösen. Sie kann ihr unbekannte Dinge somit nicht selbst bewerten und daher damit verbundene Probleme als solche auch nicht erkennen oder lösen. Weiterhin ist das Finden einer optimalen Problemlösung außer bei trivialen Problemen nicht einfach und der Grad der Abweichung von der jeweils optimalen Lösung durchaus ein Maßstab der Intelligenz. Das was jeweils optimal ist hängt wieder von der Art des Problems ab und kann z.B. der geringste Aufwand, die schnellste Lösung, der minimalste Verlust o.ä. sein. Um komplexe Probleme optimal zu Lösen sind weiterhin sowohl ein möglichst großes Wissen als auch Abstraktionsvermögen eine unabdingbare Voraussetzung, und darum

seh ich dort auch nichts, was meine Definition nicht unmittelbar impliziert.

Und dann vergleiche es mit
Zitat von Wiki "Der Begriff ist insofern nicht eindeutig abgrenzbar, weil es bereits an einer genauen Definition von Intelligenz mangelt."
Scheint so, als ob es da jemandem an der Intelligenz fehlte eben dieses Problem zu lösen...:D
 

Schmidts Katze

Registriertes Mitglied
Ich denke (dazu), dass eine Identität / Person / Original ein einzelnes, laufendes "Gehirn" (leider gibt es keine gute Übersetzung des englischen Wortes "Mind", das hier angebrachter wäre) sein sollte. Kopien davon sind unabhängige Personen mit gleichen unveräusserlichen Rechten, nicht aber erworbenen Rechten wie das Original (dh, die Kopie hat ein Recht auf Leben, aber keinen Anspruch auf, sagen wir, das Haus des Originals).

Das ist aber blöd für die Kopie.
Wie willst du eigentlich die Kopie vom Original unterscheiden?
Und wie willst du das vor der Kopie rechtfertigen?

Grüße
SK

PS: Vielleicht schenkt das Original mir ja eine Jeans und ein T-Shirt, da kommt man dann ja schon mal etwas weiter.
 
Zuletzt bearbeitet:

jonas

Registriertes Mitglied
Klaus, Du bist zu sehr Programmierer. Intelligenz hat nicht unbedingt etwas mit dem Streben nach einem Optimum zu tun. Daher ist auch der Grad des Erreichens des Optimums kein geeignetes Maß für Intelligenz.

Beispiel: Welches Einkommen strebe ich an? Das Optimum ist prima facie: unendlich viel :D. Demnach wäre Geringverdienern ein geringeres Intelligenzniveau zuzuordnen als Spitzenverdienern.

Natürlich kann man in der Einkommenshierarchie im Schnitt auch ein Gefälle der Intelligenz beobachten. Jedoch kann man sich z.B. auch bewusst für die Kindererziehung entscheiden und dadurch Einkommensverluste hinnehmen. Oder man entscheidet sich für Berufe, die nicht so hoch entlohnt sind, weil sie einfach mehr Befriedigung verschaffen.

Oder bei Konflikten: Was ist das Optimum im Konfliktverhalten? Sieg, Kompromiss, Niederlage, oder die seltene Möglichkeit des Win-Win? Lässt man win-win mal beiseite, dann wäre wohl der Sieg auf den ersten Blick das Optimum. Aber Sieg erfordert Kampf, und Kampf schwächt, ohne daß der Sieg dabei garantiert ist.

Wobei Kampf hierbei nicht Gewalt bedeuten muß, sondern beispielsweise Verhandlung (z.B. über einen Preis) oder Diskussion (z.B. über ein Urlaubsziel).

Worauf ich hinaus will ist, daß zur Intelligenz unter anderem auch soziale Intelligenz gehört, die nur sehr schwer in quantifizierbare Modelle gefasst werden kann und damit die Ermittlung eines objektiven Optimums oft nicht möglich ist.

Klaus schrieb:
Um komplexe Probleme optimal zu lösen sind weiterhin sowohl ein möglichst großes Wissen als auch Abstraktionsvermögen eine unabdingbare Voraussetzung
Hier kommen wir uns näher. Intelligenz ist u.a. die Fähigkeit auf einen Erfahrungsschatz zurückzugreifen und anhand diesem eine Entscheidungssituation zu bewerten. Und Du hast einen weiteren Begriff im obigen Zitat eingeführt, der bislang von Dir noch nicht gefallen war: Abstraktionsvermögen.

Was mir aber in Deinem Zitat nicht so gut gefällt ist: "möglichst großes Wissen". Denn Wissen ist kein Maß für Intelligenz, beeinflusst aber sehr wohl die Entscheidung und das erreichbare Optimum. Beispiel aus der Spieltheorie: Das Gefangenendilemma.

Die Verteilung des Wissens kann somit völlig unterschiedliche Optimalpunkte ergeben. Aber auch die Gegenüberstellung von zwei Personen, mit unterschiedlichem Erfahrungsschatz und Wissen in einem bestimmten Gebiet, kann in unterschiedliche Entscheidungen der Personen resultieren. Der Vergleich dieser Entscheidungen mit dem - bei vollkommener Information - erreichbaren Optimum lässt jedoch mitnichten einen Rückschluss auf die individuelle Intelligenz zu.

Daher meine Schlussfolgerung: Man kann Intelligenz deskriptiv erfassen und man kann Schlüsselcharakteristiken indentifizieren. Die Messung der Intelligenz wird jedoch schon außerordentlich schwierig, da sie nicht objektiv quantifizierbar ist. Und wie Intelligenz (i.S. von starker Intelligenz) entsteht ist nach wie vor ein Mysterium.
 

Klaus

Registriertes Mitglied
Beispiel: Welches Einkommen strebe ich an? Das Optimum ist prima facie: unendlich viel :D.
Eher hinreichend viel, eine unendliche Masse hat bekanntlich fatale Auswirkungen. :D

Demnach wäre Geringverdienern ein geringeres Intelligenzniveau zuzuordnen als Spitzenverdienern.
Bei anfänglich gleichen Ausgangsbedingungen, dem Ausschluß von Zufallsfaktoren und sorfern das Einkommen das einzige Ziel darstellt - ja. Auf die Realität bezogen gilt es jedoch mehr Probleme zu lösen. Wenn Du z.B. nur um mehr Geld zu verdienen auf Kinder verzichtest oder Dich zu Tode schuftest, bist Du ein würdiger Kandidat für den Darwin Award, was auch nicht eben von Intelligenz zeugt.

Jedoch kann man sich z.B. auch bewusst für die Kindererziehung entscheiden und dadurch Einkommensverluste hinnehmen. Oder man entscheidet sich für Berufe, die nicht so hoch entlohnt sind, weil sie einfach mehr Befriedigung verschaffen.
Und was sagt uns das? Daß alle Entscheidungen im Leben ebenfalls Probleme sind, die es jeweils optimal zu lösen gilt und dazu zählt auch die Entscheidung darüber, welche Probleme man mit welcher Dringlichkeit angeht und welche man nur teilweise, zu einem späteren Zeitpunkt oder überhaupt nicht löst.

Oder bei Konflikten: Was ist das Optimum im Konfliktverhalten? ... dann wäre wohl der Sieg auf den ersten Blick das Optimum. Aber Sieg erfordert Kampf, und Kampf schwächt, ohne daß der Sieg dabei garantiert ist.
Das Optimum sehe ich eher in einem Sieg ohne Kampf und ohne Aufwand, es sei denn man benötigt den Kampf als Training oder aber fürs Ego. ;)

Worauf ich hinaus will ist, daß zur Intelligenz unter anderem auch soziale Intelligenz gehört, die nur sehr schwer in quantifizierbare Modelle gefasst werden kann und damit die Ermittlung eines objektiven Optimums oft nicht möglich ist.
Das was Du meinst nennt sich soziale Kompetenz, wobei es hierbei das Problem zu lösen gilt, andere optimal für sich und seine Ziele einzunehmen und etwaige Gegenspieler als potentielle Gefahr auszuschalten.

Was mir aber in Deinem Zitat nicht so gut gefällt ist: "möglichst großes Wissen". Denn Wissen ist kein Maß für Intelligenz, beeinflusst aber sehr wohl die Entscheidung und das erreichbare Optimum.
Wissen ist durchaus ein wichtiger Bestandteil der Intelligenz, solange es denn anwendungsbereit zur Verfügung steht. Ohne hinreichende Vorkenntnisse könntest Du viele Probleme, wie z.B. potentielle Gefahren die mit diversen Objekten verbunden sind, nicht als solche erkennen und ebensowenig die Möglichkeiten, die sich aus dem Vorhandensein bestimmter Dinge ergeben.

Daher meine Schlussfolgerung: Man kann Intelligenz deskriptiv erfassen und man kann Schlüsselcharakteristiken indentifizieren. Die Messung der Intelligenz wird jedoch schon außerordentlich schwierig, da sie nicht objektiv quantifizierbar ist.
Stimmt, sie läßt sich in der Regel maximal größenordnungsmäßig eingrenzen, da ein Hirn sich ja nunmal nicht komplett auslesen und hinsichtlich der vorhandenen Intelligenz bewerten läßt.
 

jonas

Registriertes Mitglied
Wenn Du z.B. nur um mehr Geld zu verdienen auf Kinder verzichtest oder Dich zu Tode schuftest, bist Du ein würdiger Kandidat für den Darwin Award, was auch nicht eben von Intelligenz zeugt.
LOL, der war wirklich gut :) Soll ich das dahingehend interpretieren, daß zu hohe Intelligenz sich selbst wieder vernichtet? :D Nur Spaß, bitte hierauf nicht weiter antworten.

Und was sagt uns das? Daß alle Entscheidungen im Leben ebenfalls Probleme sind, die es jeweils optimal zu lösen gilt und dazu zählt auch die Entscheidung darüber, welche Probleme man mit welcher Dringlichkeit angeht und welche man nur teilweise, zu einem späteren Zeitpunkt oder überhaupt nicht löst.
Ja, Zustimmung. Nur hast Du in diesem Satz schon wieder neue Intelligenzleistungen angeführt (zur Erinnerung: Deine letzte Neueinführung war Abstraktionsvermögen):
a) Erkennen von multiplen Problemen
b) Erkennen eines kausalen Zusammenhangs zwischen den Problemen
c) Erkennen des Konflikts
d) Beurteilung der Stärke des Wirkungszusammenhangs
e) Beurteilung der zeitlichen Dynamik des Problems (und dafür implizit notwendig: das Bewusstsein der Endlichkeit des eigenen Lebens)
f) Zerlegung der Lösung in Teilschritte und Beurteilung der Wirkung unterschiedlicher Zerlegungen im zeitlichen Verlauf
Das Optimum sehe ich eher in einem Sieg ohne Kampf und ohne Aufwand, es sei denn man benötigt den Kampf als Training oder aber fürs Ego.
Bedenke bitte, daß das Optimum zumindest theoretisch erreichbar sein muß. Sieg ohne Kampf wäre z.B. etwas im Kaufhaus (oder Basar) zu bekommen ohne es zu bezahlen. Das wäre klauen, aber das erfordert auch Kampf und Einsatz von Ressourcen (zumindest den Streß, den man beim "klaufen" hat)

Das was Du meinst nennt sich soziale Kompetenz, wobei es hierbei das Problem zu lösen gilt, andere optimal für sich und seine Ziele einzunehmen und etwaige Gegenspieler als potentielle Gefahr auszuschalten.
Nimm Dir mal die Zeit und lies Dir den von mir verlinkten Artikel Gefangenendilemma durch. Ich hatte bei dem Beispiel zunächst asymmetrische Information im Kopf. Aber das Gefangenendilemma ist noch viel tiefgreifender, denn durch die Interaktion zwischen mehreren intelligenten Teilnehmern ist eine optimale Strategie, und damit die optimale Entscheidung, nun auch vom Verhalten der Mitspieler abhängig. Die optimale Entscheidung auf kollektiver Basis und diejenige auf individueller Basis fällt auseinander. Und schlimmer noch, selbst die individuell optimale Entscheidung ist nicht mehr eindeutig bestimmbar (wenn das Spiel wiederholt gespielt wird).

Wissen ist durchaus ein wichtiger Bestandteil der Intelligenz, solange es denn anwendungsbereit zur Verfügung steht. Ohne hinreichende Vorkenntnisse könntest Du viele Probleme, wie z.B. potentielle Gefahren die mit diversen Objekten verbunden sind, nicht als solche erkennen und ebensowenig die Möglichkeiten, die sich aus dem Vorhandensein bestimmter Dinge ergeben.
Genau hier fallen wir beide auseinander. Du vermengst Erfahrung mit Intelligenz. Es stimmt schon: je erfahrener ein Mensch ist, desto reicher ist der Fundus, den er zueinander in Beziehung setzen vermag und er damit (bei gleicher Intelligenz) potenziell näher ans Optimum gelangen kann. Aber es gibt genügend Beispiele, gerade in den Naturwissenschaften, in denen junge Menschen mit, gemessen gegenüber ihren Professoren, geringerem Erfahrungsschatz, bahnbrechende Entdeckungen gemacht haben. Deswegen: Intelligenz ist die Eigenschaft Erfahrung zu nutzen. Es sind also zwei unterschiedliche Dimensionen, die man auseinanderhalten muß.

Stimmt, sie läßt sich in der Regel maximal größenordnungsmäßig eingrenzen, da ein Hirn sich ja nunmal nicht komplett auslesen und hinsichtlich der vorhandenen Intelligenz bewerten läßt.
Diesem Deinen Schlussatz kann ich mich nun voll und ganz anschliessen :)
 
Zuletzt bearbeitet:

Bynaus

Registriertes Mitglied
@jonas: Was die Einfachheit einer Kopie angeht: Alles, was irgendwie elektronisch gespeichert existiert, kann kopiert werden - ich glaube nicht, dass das sehr schwierig wäre...

@Schmids Katze: Ja, die Unterscheidung von Original und Kopie wäre wohl in der Praxis eine Herausforderung. Möglicherweise müsste es irgendwelche Marker und Zertifikate geben - so könnte man vielleicht bei jeder Kopie routinemässig eine Erinnerung (oder eine Reihe von Erinnerungen) "verfälschen", wobei das Original die richtige Erinnerung vor dem Kopierprozess hinterlegt.

Mac schrieb:
Wem wird Unrecht getan, wenn er sein Kind aufgeben muß?

Das wäre in der Tat eine sehr schwierige Entscheidung, und ich weiss nicht, wie man damit umgehen müsste. Vielleicht könnte man der Kopie anbieten, ihre Erinnerung an das Kind vollständig zu löschen. Aber das ist auch nicht wirklich befriedigend.

das ist durch die Übersichtsarbeit inspiriert, die Du zum FP verlinkt hattest?

Nicht unbedingt. Ich gehe einfach von der Annahme aus, wir seien einigermassen typische Beobachter der menschlichen Zivilisation. Wenn das so ist, sind wir ENTWEDER alle "Minds" und wissen es nicht (a la Matrix), ODER es wird nie besonders viele Minds geben. Wenn es so ist und wir die Matrix verwerfen: warum nicht?
 

Luzifix

Registriertes Mitglied
Nun habt Ihr einen ganzen Stapel Beiträge gebracht, wie man Intelligenz definieren und bewerten soll oder könnte. Dabei habe ich mich ständig gefragt, wie Ihr die Intelligenz eines wenige Tage alten Neugeborenen bewerten würdet. Ich würde etwas verwetten, wenn da nicht urplötzlich der Begriff "Potential" in Eurer Theorie ein Comeback feiern sollte. Und wie helft Ihr Euch, wenn man das neugeborene Menschlein mit einem frisch geschlüpften kleinen Krokodil vergleicht oder mit einem zwei Stunden alten Giraffenbaby?

Das Potential wird Euch hier vom Experimentellen wegführen und der kybernetischen Praxis näher. Der Zwang zum Definieren, der Euch jetzt noch bindet, wird sich verflüchtigen und der Unterschied zwischen Gehirn und Chip sich reduzieren.
 

Schmidts Katze

Registriertes Mitglied
Ja, die Unterscheidung von Original und Kopie wäre wohl in der Praxis eine Herausforderung.

Es gibt keinen Unterschied.
Wenn du eine Datei auf einem anderen Datenträger speicherst, würdest du dann sagen, die Datei auf der Festplatte ist mir mehr wert, als die auf dem Memory-Stick, weil sie das Original ist?
Und willst du so mit Menschen umgehen?

Möglicherweise müsste es irgendwelche Marker und Zertifikate geben - so könnte man vielleicht bei jeder Kopie routinemässig eine Erinnerung (oder eine Reihe von Erinnerungen) "verfälschen", wobei das Original die richtige Erinnerung vor dem Kopierprozess hinterlegt.

Die Kopie absichtlich zu verschlechtern, um sie vom Original unterscheiden zu können, macht die Sache nur noch fragwürdiger.

Grüße
SK
 
Oben