Was haltet ihr vom Transhumanismus?

ralfkannenberg

Registriertes Mitglied
Heute bereits analysieren künstliche, neuronale Netze im Bereich der Börse finanzielle Transaktionen und reagieren darauf!
Der Mensch als Entscheider wäre komplett überfordert und viel zu langsam!

D.h., wir überlassen heute bereits einer "KI" (wenn auch einer rudimentären und sehr spezialisierten "Künstlichen Intelligenz") Entscheidungen über Millionen-Beträge, die teilweise globale Auswirkungen haben.
Das muss man erst einmal "verdauen"!

Es wird debattiert, ob eine solche Entwicklung einsetzen wird oder nicht - aber wir stecken schon mitten drin!
Hallo Ralander,

das ist nun aber etwas gar einseitig argumentiert. Jeder würde es als absurd bezeichnen, würde man die Hilfe eines Taschenrechners oder eines Computerprogrammes beispielsweise bei der Steuererklärung aus Prinzip anlehnen.

Bei den finanziellen Transaktionen an der Börse fing es meines Wissens damit an, dass Programme die Wechselkurse der Währungen überwacht haben und wenn dann eine Währung bei einer Änderung des Wechselkurses nicht nachgezogen hat wurde umgehend eine Transaktion ausgelöst, um das zu nutzen.

Auch ein Mensch darf wenn er will die Wechselkurse "überwachen" und dann Geld wechseln, wenn ein Kurs nicht nachzieht. Das ist nichts illegales, die Maschine macht das einfach besser als ein Mensch.

Dann haben Börsenanalysten festgestellt, dass der Kurs auch einer Index-Aktie pro Tag etwa 3 Einheiten (Euro, Dollar, ...) steigt und ebenso diese 3 Einheiten wieder fällt, so dass insgesamt der Kurs im Durchschnitt stabil bleibt - ich rede jetzt von normalen und nicht von Krisenzeiten.

Nun kann man sich diese Schwankungen natürlich zunutze machen und dann kaufen, wenn der Kurs sinkt, und verkaufen, wenn der Kurs steigt. Da der Mensch zu langsam ist überlässt man das ebenfalls mit Vorteil Computerprogrammen.

Auch hiergegen ist nichts einzuwänden.

Und nun kommen - leider - die Hasardeure: diese sagen mit solchen Computerprogrammen voraus, wie der Kurs sich in den nächsten Millisekunden ändern wird und lösen aufgrund dieser Vorhersagen eine Transaktion aus. Auch das ist nicht unredlich, denn das schlimmste, was passieren kann, ist, dass man sich eben irrt und einen entsprechenden Verlust einfährt.

Wo ist nun das Risiko: das vorhersagende Programm kann einen Fehler implementiert haben und "falsch" reagieren. Und wenn nun ein anderer Börsenteilnehmer ebenfalls solche "Tools" nutzt und diese ebenfalls fehlerhaft implementiert sind, dann kann das zu einem Börsencrash führen, weil Dinge passieren, die ein Mensch sofort überblicken würde, während ein Programm halt einfach seinem Algorithmus folgt.

Was kann man dagegen tun ?

Eine Option ist, die Programme besser und sicherer zu implementieren und mehr Aufwand in die Qualitätssicherung zu stecken, damit solche falschprogrammierten Codestellen möglichst wenig sind.

Eine andere Option ist, robuste (d.h. einfach programmiert und mit einfachem Algorithmus ausgestattete) Programme einzusetzen, die bei einer Abweichung einen Alarm auslösen und das vorhersehende Programm sofort stoppen.

Wenn übrigens ein Kunde von der Schweizer Börse 10000 Aktien zu einem Preis von 100 Franken kaufen will, versehentlich aber 100 Aktien zu einem Preis von 10000 Franken eingibt, so merken das unsere Programme sofort und der Handel wird umgehend für 5 Minuten ausgesetzt und der Kunde telefonisch kontaktiert.

Was ich sagen will: die Hilfsmittel sind eine grosse Hilfe und tragen wesentlich dazu bei, dass Schaden vermieden wird; man kann aber die Hilfsmittel auch optimiert programmieren und ein Risiko in Kauf nehmen. Das ist aber nicht der Fehler des Programmes oder des programmierers, sondern des Chefs, der die Freigabe zum Einsatz eines solchen Programmes erteilt.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Bernhard

Registriertes Mitglied
Es wird debattiert, ob eine solche Entwicklung einsetzen wird oder nicht
Mir geht es eher um Verantwortlichkeiten.

Dass man mit KI Firmengewinne optimieren kann steht außer Frage. Es muss aber auch die Frage erlaubt sein, in welchen Grenzen das moralisch zu vertreten ist und da haben wir bekanntlich ein riesen Fass namens Bankenkrise. Und natürlich sollten sich um solche Themen auch Politiker und Juristen kümmern. Die Techniker und Entwickler sind bei derartigen Fragen nämlich zumeist die falschen, d.h. inkompetente Ansprechpartner.
 

ralfkannenberg

Registriertes Mitglied
Mir geht es eher um Verantwortlichkeiten.

Dass man mit KI Firmengewinne optimieren kann steht außer Frage. Es muss aber auch die Frage erlaubt sein, in welchen Grenzen das moralisch zu vertreten ist und da haben wir bekanntlich ein riesen Fass namens Bankenkrise.
Hallo Bernhard,

das kommt aber wie ich in meinem letzten Beitrag dargelegt habe nicht daher. Diese Bankenkrise kam letztlich daher, dass die Verantwortlichen zur Gewinnoptimierung immer grössere Risiken einzugehen bereit waren, obgleich diese reglementarorisch und durch Kontrollinstanzen abgesichert waren, und das Eis dann eben eingebrochen ist.

Konkret steht dann eben in der Zielvereinbarung eines Mitarbeitenden, welche Gewinne erwartet werden und wann es einen Bonus gibt und es wird dem Mitarbeitenden überlassen, wie er das bewerkstelligt.


Freundliche Grüsse, Ralf
 

Bernhard

Registriertes Mitglied
Hallo Ralf,

Konkret steht dann eben in der Zielvereinbarung eines Mitarbeitenden, welche Gewinne erwartet werden und wann es einen Bonus gibt und es wird dem Mitarbeitenden überlassen, wie er das bewerkstelligt.
wenn ein Mitarbeiter aufgrund einer solchen Praixs zu illegalen oder abstrusen Methoden greift, sollte meiner Meinung nach auch die Bank dafür gerade stehen. Wenn dagegen ein Banker mit entsprechenden Möglichkeiten Gelder in Millionenhöhe verbrennt, könnte er meiner Meinung nach beispielsweise von derartigen Geschäften auch auf Lebenszeit ausgeschlossen werden. Ob er das Geld mit KI oder hochriskanten Krediten vernichtet hat, wäre im Ergebnis dann völlig egal.

Solche Probleme nur auf den Steuerzahler abzuwälzen ist meiner Meinung nach schon ziemlich erbärmlich und kindisch, wobei das wohl eher ein innerdeutsches Problem ist.
MfG
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
wenn ein Mitarbeiter aufgrund einer solchen Praixs zu illegalen oder abstrusen Methoden greift sollte meiner Meinung nach auch die Bank dafür gerade stehen. Wenn dagegen ein Banker mit entsrpechenden Möglichkeiten Steuergelder in Millionenhöhe verbrennt, könnte er meiner Meinung nach beispielsweise von derartigen Geschäften auch auf Lebenszeit ausgeschlossen werden.
Hallo Bernhard,

das ist alles richtig, was Du schreibst.


Ob er das Geld mit KI oder hochriskanten Krediten vernichtet hat, wäre im Ergebnis dann völlig egal.
Ich wollte nur darauf hinweisen, dass das nicht ein "Fehler" der AI ist.


Freundliche Grüsse, Ralf
 
R

Ralander

Gast
Hallo Bernhard, hallo ralfkannenberg,

Mir geht es eher um Verantwortlichkeiten.

Dass man mit KI Firmengewinne optimieren kann steht außer Frage. Es muss aber auch die Frage erlaubt sein, in welchen Grenzen das moralisch zu vertreten ist und da haben wir bekanntlich ein riesen Fass namens Bankenkrise. Und natürlich sollten sich um solche Themen auch Politiker und Juristen kümmern. Die Techniker und Entwickler sind bei derartigen Fragen nämlich zumeist die falschen, d.h. inkompetente Ansprechpartner.

Ich gebe dir vollkommen Recht.
Solche Entscheidungen, von denen tausende Arbeitsplätze oder private Existenzen abhängen können, sollten auf keinen Fall von "Börsenspekulanten" mithilfe ihrer "KIs; neuronalen Netzen" entschieden werden!

Und was geschieht eigentlich, wenn "börsenmäßig" zwei oder mehrer KIs miteinander interagieren ?
D.h., wenn eine KI rasend schnell Börsenkurse beeinflusst und eine oder mehrere andere (die Konkurenz?) rasend schnell darauf reagieren?
Ich befürchte, wenn das schiefgeht, dann "gute Nacht". Dann war die letzte Bankenkrise noch ein Spaziergang!!


Hallo Ralander,

das ist nun aber etwas gar einseitig argumentiert. Jeder würde es als absurd bezeichnen, würde man die Hilfe eines Taschenrechners oder eines Computerprogrammes beispielsweise bei der Steuererklärung aus Prinzip ablehnen .....

.... Was kann man dagegen tun ?

Eine Option ist, die Programme besser und sicherer zu implementieren und mehr Aufwand in die Qualitätssicherung zu stecken, damit solche falschprogrammierten Codestellen möglichst wenig sind.

Eine andere Option ist, robuste (d.h. einfach programmiert und mit einfachem Algorithmus ausgestattete) Programme einzusetzen, die bei einer Abweichung einen Alarm auslösen und das vorhersehende Programm sofort stoppen.

Du hast einen ganz wichtigen Punkt bei deiner Argumentation übersehen:

Neuronale, künstliche Netze sind keine Code-basierten Programme mehr.
Solche Netze werden durch Trial/Error trainiert, man könnte auch sagen, sie "lernen".
Ein "Lehrer" (Programmierer) gibt dem Netz einen realitätsnahen Input und das Netz erzeugt einen "zufälligen" Output.
Dieser Lernprozess wird solange wiederholt (unter Veränderung des Netzes), bis das Netz "zufällig" einen sinnvollen Output erzeugt .
Die Verbindungen der Neuronen und die Konfiguration der Synapsen wird in diesem Fall "abgespeichert" (positive Rückkopplung).

Und das wiederholt sich, bis der "Lehrer" überzeugt ist, dass sein Netz sicher arbeitet.

Aber das Verrückte dabei ist, dass der "Lehrer" am Ende überhaupt keine Ahnung hat, wie sein Netz arbeitet!
D.h., er vertraut dem Netz oder er schaltet es ab, Korrekturen und Überwachung in Echtzeit sind nicht mehr möglich, bis auf eine Möglichkeit:

Durch ein übergeordnetes künstliches, neuronales Netz !!
 

ralfkannenberg

Registriertes Mitglied
Und was geschieht eigentlich, wenn "börsenmäßig" zwei oder mehrer KIs miteinander interagieren ?
D.h., wenn eine KI rasend schnell Börsenkurse beeinflusst und eine oder mehrere andere (die Konkurenz?) rasend schnell darauf reagieren?
Ich befürchte, wenn das schiefgeht, dann "gute Nacht". Dann war die letzte Bankenkrise noch ein Spaziergang!!
Hallo Ralander,

das habe ich doch heute um 11:55 Uhr geschrieben, was dann passiert und was man dagegen tun kann:

Und nun kommen - leider - die Hasardeure: diese sagen mit solchen Computerprogrammen voraus, wie der Kurs sich in den nächsten Millisekunden ändern wird und lösen aufgrund dieser Vorhersagen eine Transaktion aus. Auch das ist nicht unredlich, denn das schlimmste, was passieren kann, ist, dass man sich eben irrt und einen entsprechenden Verlust einfährt.

Wo ist nun das Risiko: das vorhersagende Programm kann einen Fehler implementiert haben und "falsch" reagieren. Und wenn nun ein anderer Börsenteilnehmer ebenfalls solche "Tools" nutzt und diese ebenfalls fehlerhaft implementiert sind, dann kann das zu einem Börsencrash führen, weil Dinge passieren, die ein Mensch sofort überblicken würde, während ein Programm halt einfach seinem Algorithmus folgt.

Was kann man dagegen tun ?

Eine Option ist, die Programme besser und sicherer zu implementieren und mehr Aufwand in die Qualitätssicherung zu stecken, damit solche falschprogrammierten Codestellen möglichst wenig sind.

Eine andere Option ist, robuste (d.h. einfach programmiert und mit einfachem Algorithmus ausgestattete) Programme einzusetzen, die bei einer Abweichung einen Alarm auslösen und das vorhersehende Programm sofort stoppen.


Freundliche Grüsse, Ralf
 

Bernhard

Registriertes Mitglied
Korrekturen und Überwachung in Echtzeit sind nicht mehr möglich...
Hallo Ralander,

ganz so dramatisch ist die Sache meiner Meinung nach nicht. Denn man kann immer noch, wie Ralf bereits beschrieben hat, zusätzlich Plausibilitätsfilter einbauen, welche die KIs überwachen, bzw. in den Möglichkeiten auf eine fest definierbare Menge an Entscheidungsbefugnissen reduzieren. Das zugehörige Riskiomanagement sollten im Börsengeschäft dann wohl nur noch die erfahrensten Entwickler an der Seite von Juristen machen.

Oder man wirbt tatsächlich für ein Verbot von KIs bei Börsengeschäften. Mir war, bzw. ist das neu, dass solche Technologien dort eingesetzt werden.
 

ralfkannenberg

Registriertes Mitglied
Du hast einen ganz wichtigen Punkt bei deiner Argumentation übersehen:

Neuronale, künstliche Netze sind keine Code-basierten Programme mehr.
Solche Netze werden durch Trial/Error trainiert, man könnte auch sagen, sie "lernen".
Hallo Ralander,

selbstverständlich sind solche Programme Code-basiert, d.h. dieses "Lernen" muss man programmieren. Gleiches gilt auch für den Zufallsgenerator, der für das Lernen per Trial/Error eingesetzt werden muss.

Ob man nun den AI-Code mit erhöhter Qualität implementiert (=> erhöhte Kosten !) oder einen robusten Stopp-Code (preisgünstig !) in einem seperat ablauffähigen Programm laufenlässt sei dahin gestellt, an sich würde ich empfehlen, beide Varianten zu nutzen.

Die Opfer des Titanic-Unfall hätten überlebt, wenn der Kapitän der Anweisung, so schnell zu fahren, nicht gefolgt wäre. Hier lag also menschliches Versagen vor.

Die Opfer hätten aber auch überlebt, wenn die Titanic so konstruiert worden wäre, dass ein weiteres Abteil überflutbar gewesen wäre (muss man vorher natürlich wissen, dass das bedeutsam ist); sie hätten aber auch überlebt, wenn es genügend viele Rettungsboote gegeben hätte.

Ein gutes Sicherheits-Konzept ist so erstellt, dass es redundant ausgelegt ist, d.h. dass es selbst dann greift, wenn die anderen Sicherheits-Komponenten ausfallen.

Im Falle des Titanic-Unfalls:
Gegen menschliches Versagen helfen Trainings und Checklisten, man ist hier aber nie gegen einen Fehler gefeit.

Die Überflutbarkeit weiterer Abteile ist technisch hoch-komplex und entsprechend fehleranfällig, d.h. ebenfalls mit einem erhöhten Risiko behaftet.
Somit sind es die fehlenden Rettungsboote: diese sind einfach und robust und können auch nicht falsch bedient werden. Doch sie können nicht helfen, wenn sie nicht vor Ort sind.

Bei Software-Komponenten ist das gar nicht so viel anders.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Mir war, bzw. ist das neu, dass solche Technologien dort eingesetzt werden.
Hallo Bernhard,

ich war auch etwas überrascht, als ich das in einem internen Vortrag gehört habe, aber eben: AI darf und soll man einsetzen und sie ist sehr hilfreich. Man muss sie einfach nur richtig einsetzen und - wenn erhöhte Risiken einer Fehlfunktion bestehen, eben dafür sorgen, dass es unabhängige Sicherheitskonzepte gibt, von denen wenigstens zwei (falls das andere ausfällt) auf ganz einfachen und robusten Mechanismen beruht.

Ein anderes Beispiel aus der Praxis: vermutlich wäre niemand auf die Idee gekommen, ABS, Airbags, Knautschzonen und Dummies zu erfinden, aber als es dann die sehr nützlichen Autos gab, machten diese Erfindungen grossen Sinn.


Freundliche Grüsse, Ralf
 

Bernhard

Registriertes Mitglied
selbstverständlich sind solche Programme Code-basiert, d.h. dieses "Lernen" muss man programmieren. Gleiches gilt auch für den Zufallsgenerator, der für das Lernen per Trial/Error eingesetzt werden muss.
Hallo Ralf,

in diesem Punkt muss ich Ralander recht geben. Das NNetz, von dem ich oben geschrieben habe, verwendete eine binäre Matrix, dessen Inhalte (auf jeder Zelle eine 0 oder 1) das eingelernte Wissen repräsentiert. Der Code ist bei solchen Programmen in der Tat nur noch eine Art Hülse, für die Programmierung und Kommunikation mit Menschen. Die eigentliche Funktionalität beruht auf einer geschickten Form der Iteration, bzw. Rückkopplung und damit auf mathematischen Algorithmen, dessen Funktionsweise nur schlecht bis gar nicht berechenbar ist.
MfG

#scherz# Wie wäre es mit einem neuen EU-Siegel: "Dieses Börsengeschäft wurde ohne AI getätigt" #scherz#
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
in diesem Punkt muss ich Ralander recht geben. Das NNetz, von dem ich oben geschrieben habe, verwendete eine binäre Matrix, dessen Inhalte (auf jeder Zelle eine 0 oder 1) das eingelernte Wissen repräsentiert. Der Code ist bei solchen Programmen in der Tat nur noch eine Art Hülse, für die Programmierung und Kommunikation mit Menschen. Die eigentliche Funktionalität beruht auf einer geschickten Form der Iteration, bzw. Rückkopplung und damit auf mathematischen Algorithmen, dessen Funktionsweise nur schlecht bis gar nicht berechenbar ist.
Hallo Bernhard,

trotzdem bleibt es letztlich code-basiert. Und die binäre Matrix kann man wohl auch o.E.d.A. als Datenbank bezeichnen und auch Datenbanken sind code-basiert. Auch selbst-generierender code ist code-basiert.

Das heisst natürlich nicht, dass vor Ablauf des Programmes für jeden Zeitpunkt so ohne weiteres angeben könnte, was die Inhalte der verwendeten Register (also Speicher auf Hardware-Ebene) sind, aber das ist bei einem guten Zufallsgenerator oder bei einem Programm mit fehlerhafter Initialisierung auch nicht der Fall.

Aber das macht auch nichts, denn wie Du es sehr richtig und sehr gut formuliert hast: die eigentliche Funktionalität beruht auf einer geschickten Form der Iteration, bzw. Rückkopplung und damit auf mathematischen Algorithmen !


Freundliche Grüsse, Ralf
 
R

Ralander

Gast
trotzdem bleibt es letztlich code-basiert. Und die binäre Matrix kann man wohl auch o.E.d.A. als Datenbank bezeichnen und auch Datenbanken sind code-basiert. Auch selbst-generierender code ist code-basiert.

Das mit der "Hülle" wie Bernhard sagt, kommt der Sache schon ziemlich nahe.

Künstliche neuronale Netzwerke haben als Vorbild das biologische Gehirn, also Neuronen und Synapsen und diese basieren auf massiver Parallel-Verarbeitung.
Um diese Strukturen darzustellen, hat man sie simuliert auf von Neumann-Rechnern, also auf vorwiegend seriell arbeitenden Computern.
Es handelt sich hierbei eigentlich nur um eine Hülle bzw. um eine Krücke.

Man kann heute bereits "echte" künstliche neuronale Netze (echte massive Parallel-Verarbeitung) herstellen mit sogenannter neuronaler Hardware.
Dabei werden Neuronen und Synapsen elektronisch nachgebildet.
Dieser neuronalen Hardware gehört die Zukunft !

Dann ist aber wirklich nichts mehr mit Code-basiert und mathematisch sind solche Systeme lt. Experten auch nicht mehr beschreibbar.
Sie werden für den Lehrer nach erfolgreicher Lernphase eine Black-Box sein!

Was kann man dagegen tun ?

Eine Option ist, die Programme besser und sicherer zu implementieren und mehr Aufwand in die Qualitätssicherung zu stecken, damit solche falschprogrammierten Codestellen möglichst wenig sind.

Eine andere Option ist, robuste (d.h. einfach programmiert und mit einfachem Algorithmus ausgestattete) Programme einzusetzen, die bei einer Abweichung einen Alarm auslösen und das vorhersehende Programm sofort stoppen.

Mir ist keine Technologie bekannt, die in Echtzeit genauso schnell, genauso komplexe "unscharfe" Datenmengen analysieren kann und sinnvoll reagiert.
Das können nur künstliche neuronale Netze! Genau deshalb werden sie verwandt.

Also als Kontroll-Instanz versagen alle Technologien außer eben künstliche neuronale Netze - das ist das Dilemma !
 

ralfkannenberg

Registriertes Mitglied
Das mit der "Hülle" wie Bernhard sagt, kommt der Sache schon ziemlich nahe.

Künstliche neuronale Netzwerke haben als Vorbild das biologische Gehirn, also Neuronen und Synapsen und diese basieren auf massiver Parallel-Verarbeitung.
Um diese Strukturen darzustellen, hat man sie simuliert auf von Neumann-Rechnern, also auf vorwiegend seriell arbeitenden Computern.
Es handelt sich hierbei eigentlich nur um eine Hülle bzw. um eine Krücke.
Hallo Ralander,

wenn Du die Atome, aus denen wir holde Menschen bestehen, ebenfalls als "Krücke" bezeichnest, so bin ich mit Deiner Aussage wenigstens halbwegs einverstanden.


Man kann heute bereits "echte" künstliche neuronale Netze (echte massive Parallel-Verarbeitung) herstellen mit sogenannter neuronaler Hardware.
Dabei werden Neuronen und Synapsen elektronisch nachgebildet.
Dieser neuronalen Hardware gehört die Zukunft !
Die schönste Hardware, egal wie aufgebaut, liegt einfach da, wenn Du sie nicht programmierst und eine Instanz hast, welche diese Programme aufruft.

Dann ist aber wirklich nichts mehr mit Code-basiert
Offenbar reden wir aneinander vorbei; definiere bitte das Wort "Code-Basiert".

und mathematisch sind solche Systeme lt. Experten auch nicht mehr beschreibbar.
Hier würde mich eine Quelle sehr interessieren. Insbesondere würde ich gerne von Dir wissen, was Du unter "beschreibbar" verstehst; diesen Begriff findest Du in der Rubrik "Berechenbarkeitslehre" oder allgemeiner in der "Theoretischen Informatik".

Sie werden für den Lehrer nach erfolgreicher Lernphase eine Black-Box sein!
Ja und ? Jedes komplexere System von Programmen ist heutzutage eine Black Box. Deswegen testet man im Systemtest auch nicht struktur-orientiert, sondern spezifikations-orientiert. Ganz zu schweigen davon, dass man ein missing implemented requirement durch struktur-orientierte Testverfahren gar nicht herausfinden kann.

Mir ist keine Technologie bekannt, die in Echtzeit genauso schnell, genauso komplexe "unscharfe" Datenmengen analysieren kann und sinnvoll reagiert.
Robuste "Notprogramme" zeichnen sich dadurch aus, dass sie sehr schnell sind. Wenn Du auf der untergehenden Titanic hockst und noch 2 Stunden lang Dein Rettungsboot aufblasen musst, so taugt das Rettungsboot möglicherweise nichts.


Das können nur künstliche neuronale Netze! Genau deshalb werden sie verwandt.
2x nein !


Also als Kontroll-Instanz versagen alle Technologien außer eben künstliche neuronale Netze - das ist das Dilemma !
Und nochmal nein. - Wobei ich in diesem Falle vermute, dass Du unter einer "Kontroll-Instanz" etwas anderes verstehst als ich - aus diesem "nein" könnte also noch ein "ja" werden.

Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Kibo

Registriertes Mitglied
Hallo Ralander,

Mir ist keine Technologie bekannt, die in Echtzeit genauso schnell, genauso komplexe "unscharfe" Datenmengen analysieren kann und sinnvoll reagiert.
Das können nur künstliche neuronale Netze! Genau deshalb werden sie verwandt.

Ich weiß ja nicht mit welchen Implementationen du schon gearbeitet hast (keine?), aber nach meiner Erfahrung ist ein softwarebasiertes NN ziemlich langsam. Wenn es um Perfomanz geht und man die Logik einigermaßen überschaubar in Code fassen kann, geht nichts über ein stinknormales Programm.

mfg
 
R

Ralander

Gast
Ich weiß ja nicht mit welchen Implementationen du schon gearbeitet hast (keine?), aber nach meiner Erfahrung ist ein softwarebasiertes NN ziemlich langsam. Wenn es um Perfomanz geht und man die Logik einigermaßen überschaubar in Code fassen kann, geht nichts über ein stinknormales Programm.

Nehmen wir beispielsweise das IPhone 6 - Spracherkennung SIRI:
Klappt hervorragend!
Ich behaupte mal, jedes konventionelle Programm versagt dabei kläglich - sowohl bei der Treffer-/Erkennungsquote als auch der Geschwindigkeit.

Ganz zu schweigen hiervon !
 

ralfkannenberg

Registriertes Mitglied
Nehmen wir beispielsweise das IPhone 6 - Spracherkennung SIRI:
Klappt hervorragend!
Ich behaupte mal, jedes konventionelle Programm versagt dabei kläglich - sowohl bei der Treffer-/Erkennungsquote als auch der Geschwindigkeit.
Hallo Ralander,

und in welcher Sprache wurde SIRI programmiert ? Möglicherweise in Java mit Script-Aufrufen in Perl ?

Ich kann jedenfalls keinen Unterschied zu "konventionellen Programmen" sehen.


Freundliche Grüsse, Ralf
 
R

Ralander

Gast
und in welcher Sprache wurde SIRI programmiert ? Möglicherweise in Java mit Script-Aufrufen in Perl ?
Ich kann jedenfalls keinen Unterschied zu "konventionellen Programmen" sehen.

Ich glaube jetzt verstehe ich was du meinst:

Selbstverständlich sind für die SIMULATION eines neuronalen Netzes auf VON NEUMANN-Rechnern konventionelle Programme/Code notwendig.
Ein künstliches neuronales Netz kommt aber sehr wohl OHNE konventionelle Programme/Code aus.
Nämlich bei der Verwendung echter neuronaler Hardware, siehe hier und hier !
 

ralfkannenberg

Registriertes Mitglied
Ich glaube jetzt verstehe ich was du meinst:

Selbstverständlich sind für die SIMULATION eines neuronalen Netzes auf VON NEUMANN-Rechnern konventionelle Programme/Code notwendig.
Hallo Ralander,

nein, auch wenn das korrekt ist: das habe ich nicht gemeint.

Ein künstliches neuronales Netz kommt aber sehr wohl OHNE konventionelle Programme/Code aus.
Nämlich bei der Verwendung echter neuronaler Hardware, siehe hier und hier !
Das ist doch alles "nur" eine optimierte Hardware ! Da ändert sich aber nichts an der Software, ausser dass man einen Compiler entwickeln und dann verwenden kann, der die optimierte Hardware eben noch besser nutzen kann.


Freundliche Grüsse, Ralf
 
Oben