Anzeige
Seite 3 von 7 ErsteErste 12345 ... LetzteLetzte
Ergebnis 21 bis 30 von 68

Thema: Anti-Starlink-Thread

  1. #21
    Registriert seit
    07.08.2009
    Ort
    Neubrandenburg, Deutschland
    Beiträge
    2.081

    Standard

    Anzeige
    Hallo Jens,

    Zitat Zitat von JensU Beitrag anzeigen
    Ein nutzbarer Orbit stellt die Grundlage für unsere Zivilisation dar.
    Wie z.B. Wetter, Navigation, Aufklärung und Nachrichtenübertragung

    Gruß,
    Jens
    ... und bei dir als Kunden kommt das alles über's Internet an. Schnell, flexibel und günstig von SpaceX.
    101010

  2. #22
    Registriert seit
    12.11.2005
    Beiträge
    5.236

    Standard

    Zitat Zitat von Bernhard Beitrag anzeigen
    Natürlich......
    Trotzdem wäre mir das Thema Datensicherheit ein eigenes Thema wert. Mir fällt da auch sofort Mobbing im Internet und politische Einflussnahme über das Internet ein. Gewaltige Themen, welche Milliarden von Menschen betrifft. Wissen ist Macht und Macht kann missbraucht werden.

    Ich persönlich halte die laufenden Skandale, wie z.B. von Facebook für relativ harmlos, was nicht heißen muss, dass man dieses Thema von der Tagesordnung nehmen sollte. Ganz im Gegenteil.
    Freundliche Grüße, B.

    Überhaupt droht ja jedem universelle Geltung heischenden Ansatz die Sphinx der modernen Physik, die Quantentheorie - T. Kaluza, 1921

  3. #23
    Registriert seit
    18.04.2016
    Ort
    Dresden
    Beiträge
    149

    Standard

    Ich persönlich halte das ganze Getöse um Datensicherheit für Augenauswischerei. Mir soll keiner erzählen, dass wir nicht schon lange Gläserne Menschen sind. Mit dem ganzen Medienrummel will man den Menschen doch nur vorgaukeln, ihre Daten wären sicher. Ganz bestimmt, bei NSA & Co. sind sie gut gesichert aufgehoben. Ich mache schon lange kein Backup mehr ... das macht die NSA für mich.

    Nein, natürlich nicht. Ich halte dennoch oder gerade deshalb die Datensicherheit für eine sehr ernste und wichtige Aufgabe. Vor allen dort, wo ich selbst dafür verantwortlich bin. Es gibt einfach zu viele Möglichkeiten, dass man einen Menschen total ruinieren kann. Die besten Kunden für Cracker sind die mit Ansagen wie "Ich habe nichts zu verbergen". Sicher haben sie das nicht. Aber das ihr Rechner für ein Botnetz mißbraucht werden kann, davon hat kaum jemand Kenntnis. Datensicherheit kostet Zeit und Geld. Doch keine Sicherung kostet noch viel mehr Zeit und Geld. Die Forderung, das Internet abzuschaffen ist Unfug. Da kann man auch fordern, Stromnetze abzuschaffen, weil man sich an Hochspannung verletzten kann. Die Qualtität der Sicherung muss verbessert werden. Man sollte das Thema auch nicht den Sonntagsreden bestimmter Politiker überlassen. Jeder muss seinen Teil dazu beitragen - im Rahmen seines Wissens und seiner Möglichkeiten. Vor allen sich nie darauf verlassen, dass man sicher ist. Das ist man mit Sicherheit nie, da es keine absolute 100%-tige Sicherheit gibt und geben wird. Also immer schön aufpassen und das Wissen zum Thema erweitern, wo es nur geht.

    Gruß Astrofreund

  4. #24
    Registriert seit
    16.09.2005
    Beiträge
    8.024

    Standard

    Zitat Zitat von Bernhard Beitrag anzeigen
    Das ist ein generelles Problem. Das Internet wird aber genau wie KI nicht so einfach von der Bildfläche wieder verschwinden. Es ist vielmehr die Aufgabe diese Technologien klug zu nutzen.
    Hallo Bernhard,

    ich habe lange über diese Sätze von Dir nachgedacht, aber ich verstehe nicht, was Du mir sagen willst, und möchte ein banales Missverständnis vermeiden.

    Sicherlich sind Internet und auch AI moderne und sinnvolle Technologien, an denen ich auch nichts auszusetzen habe. Zwar kann man einwänden, dass falsch programmierte AI gefährlich werden könnte, aber das gibt dann Anlass für "Sicherheits-AI", die weniger auf Genialität und Effizienz optimiert sind, sondern dafür eben darauf, Fehlkalkulationen zu erkennen und zu korrigieren. Im täglichen Leben ist das ja auch so: da gibt es geniale Menschen in den Firmen, die brilliante Ideen haben, und weniger geniale Mitarbeiter, die aber die Erfahrung haben, zu erkennen, was umsetzbar ist und was nicht und das dann auch tun. Und noch andere, die dann eingreifen, wenn ein Unfall passiert und hier qualifiziert wirken können. Und ich denke, es braucht sie alle.

    Soweit so gut, doch was bedeutet es, Technologien "klug" zu nutzen ? Ich denke, man sollte jede Technologie, alt und neu, "klug" nutzen. Aber mit neuer Technologie hat man im Gegensatz zu alter oder sagen wir weniger wertend mit "bewährter" Technologie weniger Erfahrung, und an dieser Stelle kommt dann die Verantwortung ins Spiel.

    Ich persönlich denke also, neue Technologien sollten nicht nur "klug", sondern auch "verantwortungsbewusst" eingesetzt werden. Statt dessen werden neue Technologien oftmals (primär ?) "gewinnmaximierend" eingesetzt. Nehmen wir meine hochgeliebten 5G-Antennen in der Schweiz: die Technologiefirmen fordern, also keineswegs eine Bitte oder ein Gesuch, nein: eine Forderung, dass gewisse Grenzwerte erhöht werden, damit diese Antennen betrieben werden können, und drohen unverhohlen damit, dass wenn diese Grenzwerte nicht erhöht werden, dass dann die Schweiz technologisch weltweit Nachteile erleiden wird. Was sie verschweigen: sie können diese schönen Gewinne nicht einfahren, wenn die Grenzwerte nicht erhöht werden.

    Dass es keine aussagekräftigen Sicherheitsstudien gibt geben die Verantwortlichen dieser Technologiefirmen ebenfalls unverhohlen zu und versuchen der Bevölkerung einzureden, dass das nicht weiter schlimm sei, weil man eine völlige Sicherheit ohnehin nicht sicherstellen könne, das wäre viel zu teuer.

    Eine solche Vorgehensweise halte ich für unverantwortlich. Zum einen gibt es sehr wohl Sicherheitsargumente; auch wenn diese nicht alle Frequenzbereiche abdecken so bieten sie durchaus eine Aussage, beispielsweise betreffend der Sicherheit von 5G-Antennen in den heutzutage verwendeten Frequenzbereichen. Da scheint der Betrieb soweit ich das verstanden habe bedenkenlos zu sein. Und was die neuen Frequenzbereiche anbelangt so gibt es da beispielsweise Amateurfunkbereiche, die über viele Jahrzehnte ebenfalls zu keinen Phänomenen geführt haben, d.h. dazu könnte man vermutlich mit wenig finanziellem Aufwand ebenfalls eine seriöse Studie verfassen. Aber hier fängt es schon an: es gibt keine eindeutigen Konventionen beispielsweise darüber, welche Frequenzbereiche alles zu den Mikrowellen gehören und ehe man sich versieht reden die Leute aneinander vorbei, ohne das überhaupt zu merken. Und dass es Bereiche bei den Mikrowellen gibt, die wohl unbedenklich sind, und andere, die bedenklich sind, und noch andere, bei denen man es nicht weiss, geht dann natürlich völlig unter, statt dessen wird es dann schnell einmal polemisch.

    Zurück zu den Grenzwerten und der Forderung, diese zu erhöhen: ganz unberechtigt ist eine solche Forderung nicht, denn in der EU gelten bereits diese höheren Grenzwerte. Statt eine Forderung zu stellen sollten die Technologiekonzerne ein Gesuch stellen, die Höhe der Grenzwerte zu überprüfen, und dann stellt man fest, ob die EU das bislang zu lasch gehandhabt hat oder ob die Schweiz hier zu vorsichtig war. Und dann hat man eine Grundlage, die Grenzwerte sinnvoll anzupassen.

    Wie gesagt: das, was ich nun an einem anderen ebenfalls problematischen Beispiel angesprochen habe, ist es, was ich in die Thematik "kluge Nutzung von Technologien", "verantwortungsvolle Nutzung von Technologien" und "gewinnmaximierende Nutzung von Technologien" einbringen würde. - Den Datenschutzaspekt habe ich an dieser Stelle bewusst (noch) ausgeklammert, auch wenn potentieller Missbrauch des Datenschutzes ebenfalls zu einem frühen Zeitpunkt angesprochen werden sollte, ehe vollendete Tatsachen geschaffen werden.


    Zitat Zitat von Bernhard Beitrag anzeigen
    Die sozialen Medien leisten dazu mMn bereits einen sehr wertvollen Beitrag.
    Das verstehe ich ebenfalls nicht: in den sozialen Medien finde ich nur "radikale" Standpunkte, d.h. radikal dafür oder radikal dagegen, aber keine ausgewogenen Betrachtungen.


    Freundliche Grüsse, Ralf
    Geändert von ralfkannenberg (12.01.2020 um 12:48 Uhr)

  5. #25
    Registriert seit
    30.12.2017
    Ort
    Dessau-Roßlau
    Beiträge
    218

    Standard

    Zitat Zitat von Kibo Beitrag anzeigen
    Hallo Jens,



    ... und bei dir als Kunden kommt das alles über's Internet an. Schnell, flexibel und günstig von SpaceX.
    Der mobile Internetzugang bezieht sich bei meinem Beispiel für Schiffe und Flugzeuge außerhalb einer Funkzelle.
    Eine nachhaltige Orbitnutzung ist soviel wie unbedingt notwendig. Mehr als notwendig bedeutet ein höheres Risiko einer Kollision.

    Gruß,
    Jens

  6. #26
    Registriert seit
    12.11.2005
    Beiträge
    5.236

    Standard

    Zitat Zitat von ralfkannenberg Beitrag anzeigen
    Ich persönlich denke also, neue Technologien sollten nicht nur "klug", sondern auch "verantwortungsbewusst" eingesetzt werden.
    Ich verwende beide Begriffe gerne nahezu synonym. Danke aber für diese Differenzierung.

    Statt dessen werden neue Technologien oftmals (primär ?) "gewinnmaximierend" eingesetzt.
    Ist in einer Marktwirtschaft nichts außergewöhnliches und eigentlich kaum der Rede wert.

    Dass es keine aussagekräftigen Sicherheitsstudien gibt geben die Verantwortlichen dieser Technologiefirmen ebenfalls unverhohlen zu und versuchen der Bevölkerung einzureden, dass das nicht weiter schlimm sei, weil man eine völlige Sicherheit ohnehin nicht sicherstellen könne, das wäre viel zu teuer.
    OK. Da ist dann der Staat und die Wissenschaft in der Verantwortung neues Wissen zu generieren. Im Prinzip ist das aber auch schon wieder ein neues Thema, welches man unter dem Titel EMV-Verträglichkeit kennt.

    in den sozialen Medien finde ich nur "radikale" Standpunkte, d.h. radikal dafür oder radikal dagegen, aber keine ausgewogenen Betrachtungen.
    Ein Gegenbeispiel bildest Du doch selbst und viele andere langjährige Teilnehmer dieses und anderer Foren, oder nicht?
    Freundliche Grüße, B.

    Überhaupt droht ja jedem universelle Geltung heischenden Ansatz die Sphinx der modernen Physik, die Quantentheorie - T. Kaluza, 1921

  7. #27
    Registriert seit
    18.04.2016
    Ort
    Dresden
    Beiträge
    149

    Standard

    Zitat Zitat von ralfkannenberg Beitrag anzeigen
    ... Zwar kann man einwenden, dass falsch programmierte AI gefährlich werden könnte, aber das gibt dann Anlass für "Sicherheits-AI", die weniger auf Genialität und Effizienz optimiert sind, sondern dafür eben darauf, Fehlkalkulationen zu erkennen und zu korrigieren.
    Nein, leider ist das nicht so einfach. KI (AI) kann durchaus richtig programmiert sein. Sprich bei allen Softwaretests während der Entwicklung und bei der Produktvorstellung beim Kunden läuft alles wie gewünscht. Das heißt aber nicht, dass auch weiterhin alles perfekt wie gewünscht läuft - obwohl die Software richtig programmiert ist. Ich spreche auch nicht von Softwarefehlern, die erst zu späteren Zeiten erkannt und per Update behoben werden. Nein, die Entwickler von KI-Software sprechen bereits heute davon, dass sie nicht wissen, was eigentlich mit den Daten zwischen Eingang und Ausgang des KI-Systems geschieht, was das System jeweils lernt und was es daraus macht. Das wird auch nicht besser, je umfangreicher und komplexer die KI-Systeme werden - im Gegenteil. Das ist die Gefahr vor der Wissenschaftler (Hawking) und Leute wie Musk warnen. Die Systeme sind nicht mehr in ihren Handlungen (basierend auf Entscheidungen in Folge eines Lernprozesses) voraussehbar. Welche Überraschungen möglich sind, bleibt heute noch abzuwarten. Die derzeitigen Produkte basieren auf den einfachsten KI-Methoden. Wenn es wirklich einmal gelingen sollte, dass diese Systeme eigenständig Überlegungen anstellen und darauf aufbauend Entscheidungen fällen ... das wird dann erst richtig spannend und keiner kann sagen, wie gefährlich. Richtig, das wird abhängig von der Anwendung sein und welche Außenwirkungen das KI System haben wird. Nur wer kann heute z.B. sagen, ob es einem KI-System nicht gelingt, sich in ein sicherheitsrelevantes System zu hacken und den Zugang für Dinge zu nutzen, die zu höchstgefährlichen Situationen führen können (harmlos formuliert)? Wird es je möglich sein, alle denkbaren Situationen vorher zu erfassen und geeignete Gegenstrategien zu entwickeln.

    Die neuen Technologien will und kann keiner verhindern. Die Warnenden wollen aber darauf hinweisen, dass dringend mehr getan werden muss, als nur freundlich grüßende Roboter zu generieren. Das wäre dann auch im Sinne von "Fehlkalkulationen erkennen". Wie gesagt, nicht nur einfache Berechnungen, sondern gesamte mögliche(!) Handlungsabläufe werden kontrolliert werden müssen. Wer da denkt, da drehe ich am Hauptschalter oder schalte den Zugang zum Kraftwerk ab, sollte sich überlegen, ob zukünftige KI-Systeme nicht auch derartige Überlegungen anstellen könnten und vor Beginn ihrer "bösen" Tätigkeit geeignete Strategien ausknobeln (z.B. sich selbstständig auf autonome Energieversorgung umstellen) und auch umsetzen, mit denen sie verhindern, dass jemand in den KI-Prozess eingreifen kann. Die heute gefährlichsten Systeme sind automatische Waffensysteme. Noch werden sie von Menschen ferngesteuert. Doch man arbeitet daran, dass die Systeme selbstständig die Entscheidung treffen, ob und wann sie "auf den Knopf drücken". Dann wird es wirklich schlimm...

    Gruß, Astrofreund

  8. #28
    Registriert seit
    16.09.2005
    Beiträge
    8.024

    Standard

    Zitat Zitat von astrofreund Beitrag anzeigen
    Nein, leider ist das nicht so einfach. KI (AI) kann durchaus richtig programmiert sein. Sprich bei allen Softwaretests während der Entwicklung und bei der Produktvorstellung beim Kunden läuft alles wie gewünscht. Das heißt aber nicht, dass auch weiterhin alles perfekt wie gewünscht läuft - obwohl die Software richtig programmiert ist. Ich spreche auch nicht von Softwarefehlern, die erst zu späteren Zeiten erkannt und per Update behoben werden.
    Hallo astrofreund,

    danke für die Präzisierung; ich habe zwar das geschrieben, was Du hier ansprichst, aber ...


    Zitat Zitat von astrofreund Beitrag anzeigen
    Nein, die Entwickler von KI-Software sprechen bereits heute davon, dass sie nicht wissen, was eigentlich mit den Daten zwischen Eingang und Ausgang des KI-Systems geschieht, was das System jeweils lernt und was es daraus macht.
    … das hier gemeint. Den klassischen Software-Fehler, den man mit updates beheben kann, hatte ich stillschweigend als "gelöst" angesehen. Allerdings sollte wenigstens erwähnt werden, dass die Menge der klassischen (also nicht durch selbst-lernende Software) nicht durch updates behebbaren Fehler vermutlich überabzählbar gross sein dürfte und die Menge der durch Tests erkennbaren und updates behebbaren Fehler eine Nullmenge in ersterer Menge sein dürfte. Dies jetzt ohne Beweis und um die theoretischen Informatiker zufriedenzustellen.

    Letztlich ist das aber nicht so schlimm, denn bei diesen klassischen Programmen kann man ja den Fehler auch erst dann beheben, wenn er aufgetreten ist. Zu diesem Zeitpunkt kann dann zwar schon ein Schaden entstanden sein, aber zumindest wird dieser Schaden dann kein zweites Mal auftreten, und gegen solche Fehler kann man sich zwar kostspielig aber wirkungsvoll zumindest weitgehend absichern, indem man bei hochkritischen Sicherheitsanwendungen (Space Shuttle, AKW, …) zwei unabhängige Teams diese Software erstellen lässt und ein Ereignis nur dann als sicher qualifiziert wird, wenn beide Systeme ihn als sicher qualifizieren. Die Kosten dieser Vorgehensweise steigen linear, die Sicherheit indes steigt mit dem Quadrat.

    Ich schreibe das hier nur der Vollständigkeit halber auf.



    Zitat Zitat von astrofreund Beitrag anzeigen
    Das wird auch nicht besser, je umfangreicher und komplexer die KI-Systeme werden - im Gegenteil. Das ist die Gefahr vor der Wissenschaftler (Hawking) und Leute wie Musk warnen. Die Systeme sind nicht mehr in ihren Handlungen (basierend auf Entscheidungen in Folge eines Lernprozesses) voraussehbar. Welche Überraschungen möglich sind, bleibt heute noch abzuwarten. Die derzeitigen Produkte basieren auf den einfachsten KI-Methoden.
    Nehmen wir doch ein einfaches Beispiel: zahlreiche Banken betreiben "Algo-Trading", d.h. nicht ein Händler, sondern ein Computer entscheidet, ob ein Order ins Handelssystem, also die Börse, eingegeben wird oder nicht. Das kann beispielsweise Sinn machen, wenn so ein Programm die Währungskurse überprüft und bei der Schwankung einer Währung sofort kauft oder verkauft, wenn die Überprüfung feststellt, dass nicht alle anderen Währungen nachgezogen haben. Da ist ein Computer-Händler stets schneller als ein menschlicher Händler und da lassen sich auch schöne Gewinne machen. Natürlich muss Computerhändler sofort stoppen, wenn der letzte Kurs "nachgezogen" hat.

    Das sind natürlich keine AI-Programme, sondern hier wird nur genutzt, dass ein Computer Datenbank-Inhalte schneller überprüfen kann als ein Mensch.

    Allerdings sind Händler bekanntlich gierig, zumal sie ja nicht mit ihrem eigenen Geld handeln, sondern dem ihrer Kunden, der auch das Risiko zu tragen hat, und nutzen deswegen Programme, die eine Prognose wagen und dann Orders ins Handelssystem einspeisen bevor das prognostizierte Ereignis stattfindet. Das ist natürlich legal, jeder darf spekulieren und dann handeln. Doch beeinflussen solche Programme den Markt und wenn die Konkurrenz das ebenfalls macht - und sie macht es ! - kann es passieren, dass diese Computerprogramme den Markt beeinflussen und den Preis zum Absturz bringen, obwohl niemand weder hüben noch drüben daran Interesse hat. Bei Aktien ist das - zumindest hier an der Schweizer Börse, ich habe das damals selber getestet - nicht so schlimm, denn sobald sich der Kurs um 2% verändert wird der Handel auf diesem Titel für 5 oder 10 Minuten ausgesetzt und Menschen (!) prüfen, was da los ist. Auch die einheimischen Obligationen kennen solche Schutzmechanismen. Aber Fonds, internationale Obligationen und Derivate (Optionen, Futures, …) haben das nicht, deswegen können Hasardeure ja auch so schön mit denen spekulieren.

    Hier würde also der Einsatz von "Wächter-Programmen", die die meisten Pattern eines solchen unkontrollierten Absturzes kennen, dafür sorgen, dass es nicht zu solchen Abstürzen kommt.


    AI lässt sich also wirkungsvoll von anderen AI-Programmen "kontrollieren", dabei kann man denen auch verschiedene Level an Sicherheit mitgeben.


    Zitat Zitat von astrofreund Beitrag anzeigen
    Wenn es wirklich einmal gelingen sollte, dass diese Systeme eigenständig Überlegungen anstellen und darauf aufbauend Entscheidungen fällen ... das wird dann erst richtig spannend und keiner kann sagen, wie gefährlich.
    Auch hier würde der Einsatz solcher Zusatz-Programme helfen, solche Situationen zu erkennen und einen Alarm zu raisen.


    Zitat Zitat von astrofreund Beitrag anzeigen
    Richtig, das wird abhängig von der Anwendung sein und welche Außenwirkungen das KI System haben wird. Nur wer kann heute z.B. sagen, ob es einem KI-System nicht gelingt, sich in ein sicherheitsrelevantes System zu hacken und den Zugang für Dinge zu nutzen, die zu höchstgefährlichen Situationen führen können (harmlos formuliert)? Wird es je möglich sein, alle denkbaren Situationen vorher zu erfassen und geeignete Gegenstrategien zu entwickeln.
    Das kann sogar wünschenswert sein, nämlich dann, wenn beispielsweise der "Feind" das Sicherheitssystem gehackt hat und danach zum nuklearen Erstschlag ausholt. Dann braucht es intelligente Programme, denen es wieder gelingt, sich ins eigene sicherheitsrelevante System zu hacken.

    Die Möglichkeiten sind vielfältig und die Möglichkeiten, sich zu schützen, ebenfalls.
    Ich persönlich sehe hier zwei Varianten: "Schutz-Programme", die robust, eher konservativ und defensiv programmiert, sind sowie "Schnellst-Programme", die einfach sind, wenige Validierungen aufweisen, damit sie schnell bleiben können, und dann in sehr hoher Geschwindigkeit Operationen durchführen, vor allen, wenn es zeitkritisch ist.


    Zitat Zitat von astrofreund Beitrag anzeigen
    Die neuen Technologien will und kann keiner verhindern.
    Da wäre ich mir nun nicht so sicher: sowohl Fortschritts-Antis und Esotheriker als auch verantwortungsbewusste Personenkreise, denen nicht das möglichst schnelle Versenden von Nacktfotos oder anderen Inhalten an den Freundeskreis, um in kurzer Zeit viele Likes zu erhalten, sondern eine sinnvolle Nutzung der neuen Technologien wichtig ist, können versuchen wollen, diese neuen Technologien zu verhindern.

    Und wenn sich herausstellt, dass eine neue Software das Risiko der Auslösung eines versehentlichen Atomkrieges von 80% aufweist, so wird sie vermutlich von Staats wegen per Dekret gestoppt werden und ihr danach die Betriebserlaubnis entzogen werden.


    Zitat Zitat von astrofreund Beitrag anzeigen
    Die Warnenden wollen aber darauf hinweisen, dass dringend mehr getan werden muss, als nur freundlich grüßende Roboter zu generieren. Das wäre dann auch im Sinne von "Fehlkalkulationen erkennen". Wie gesagt, nicht nur einfache Berechnungen, sondern gesamte mögliche(!) Handlungsabläufe werden kontrolliert werden müssen. Wer da denkt, da drehe ich am Hauptschalter oder schalte den Zugang zum Kraftwerk ab, sollte sich überlegen, ob zukünftige KI-Systeme nicht auch derartige Überlegungen anstellen könnten und vor Beginn ihrer "bösen" Tätigkeit geeignete Strategien ausknobeln (z.B. sich selbstständig auf autonome Energieversorgung umstellen) und auch umsetzen, mit denen sie verhindern, dass jemand in den KI-Prozess eingreifen kann. Die heute gefährlichsten Systeme sind automatische Waffensysteme. Noch werden sie von Menschen ferngesteuert. Doch man arbeitet daran, dass die Systeme selbstständig die Entscheidung treffen, ob und wann sie "auf den Knopf drücken". Dann wird es wirklich schlimm...
    Das ist auch eine wichtige Gruppe, diese Gruppe der Warnenden. Ob sie die Mehrheit bildet ?


    Ich persönlich denke, wir müssen restriktiver mit Neuerungen umgehen, da die Warnenden viel zu spät kommen und sich vor vollendete Tatsachen gestellt sehen. Zusätzlich muss schon jetzt angefangen werden, an den verschiedenen Programmen zum Erkennen und zum Schutz vor irrtümlicher Anwendung zu arbeiten.


    Freundliche Grüsse, Ralf
    Geändert von ralfkannenberg (12.01.2020 um 16:48 Uhr)

  9. #29
    Registriert seit
    18.04.2016
    Ort
    Dresden
    Beiträge
    149

    Standard

    Zitat Zitat von ralfkannenberg Beitrag anzeigen
    Ich persönlich denke, wir müssen restriktiver mit Neuerungen umgehen, da die Warnenden viel zu spät kommen und sich vor vollendete Tatsachen gestellt sehen. Zusätzlich muss schon jetzt angefangen werden, an den verschiedenen Programmen zum Erkennen und zum Schutz vor irrtümlicher Anwendung zu arbeiten.
    Hallo Ralf,

    dem würde ich voll und ganz zustimmen und die Warnenden haben keine Mehrheit. Die Mehrheit haben die damit Geldverdienenden. Danke für die Klärungen. Jetzt merke ich, dass wir vom Gleichen reden und es auch so verstehen. Es bleibt und wird immer ein Restrisiko bleiben. Der Wettlauf analog dem an der Virenfront beginnt. Hoffen wir, dass immer die "Guten" ein Bit Vorsprung haben.

    Gruß, Astrofreund

  10. #30
    Registriert seit
    16.09.2005
    Beiträge
    8.024

    Standard

    Anzeige
    Hallo Astrofreund,

    neben "gut" und "böse" sehe ich vor allem die Kategorien "langweilig" und "fortschrittlich". Die Langweiligen sind auf der sicheren Seite und treten immer auf die Spassbremse, während die Fortschrittlichen voller Begeisterung neue Wege beschreiten ohne sich bewusst zu sein, welche Konsequenzen das im Schadensfalle nach sich zieht.

    In der Vergangenheit war es tendentiell eher so, dass jemand, der zu fortschrittlich dachte, dabei zu Tode kam, so dass die anderen sofort bemerkt haben, dass das so nicht geht. Auch in der Evolution führen die meisten Mutationen zum Tod und nicht zur neuen besser angepassten Art. Hier sind es die riesigen Individuen-Zahlen (Bakterien, Viren) und die riesigen Zeiträume, die neue und besser angepasste Arten hervorzubringen vermögen. Und ja – wenn die Langweiligen die Überhand gewinnen dann würden wir heute noch in Höhlen oder auf Bäumen wohnen - ja vermutlich hätten wir uns nie zu Mehrzellern entwickelt. Es braucht also beides, und zwar in der richtigen Mischung.

    Wenn die ersten Fortschrittlichen zu Tode gekommen sind und das Produkt dennoch aufgrund seines grossen Potentials weiter entwickelt wurde, so sind es gewissermassen in einer Phase 2, in der das Produkt verteilt wird, die Nutzer, die beim Eintritt des Schadenfalles Nachteile erleiden. Wobei in dieser Verteilungsphase nicht nur die Nutzer, sondern oftmals auch Unbeteiligte betroffen sind, wenn z.B. nach der Einführung des Automobils bei einem Verkehrsunfall ein Fussgänger zu Schaden kommt. Hier sind die Fussgänger de facto vor vollendete Tatsachen gestellt, denn sie müssten die normale Zivilisation verlassen und irgendwo alternativ leben, wollten sie dem Strassenverkehr und seinen Gefahren ausweichen. - Andererseits: es wurden bis heute zahlreiche Schutz-Massnahmen ergriffen: es gibt Verkehrsschilder, Zone 30-Gebiete, Verkehrsampeln, man kann die Unfälle massiv reduzieren indem man mit Licht fährt, es gibt Polizisten und es gibt ein sehr gut ausgebautes Krankenwagen-, Feuerwehrwagen- und Notarzt-Netz, die im Schadensfalle sehr schnell vor Ort sein können und die Unfallfolgen dadurch massiv eindämmen können, d.h. also Rettungs-Massnahmen.


    Allerdings hat sich im Laufe der vergangenen 100 Jahre die Rolle des Fortschrittlichen in zwei neue Rollen aufgespalten, nämlich derjenigen von Leuten, die von der Gewinnmaximierung profitieren, und diejenigen, die durch die Neuerung Nachteile erleiden und im Extremfall dabei zu Tode kommen. Waren es früher praktisch ausschliesslich die Fortschrittlichen, die beim Schadensfall zu Tode kamen, so leben heutzutage die Fortschrittlichen in sicheren Villen und letztlich Unbeteiligte kommen beim Eintritt eines Schadensfalles zu Schaden. Da die grosse Mehrheit aber am Nutzen interessiert ist sind die Benachteiligten eben "Loser" und haben "leider " Pech gehabt, das wird aber stillschweigend in Kauf genommen, wobei es aber wie gesehen auch Akteure gibt, die sich um die diversen Schutz- und Rettungs-Massnahmen, die ich nachfolgend zum Begriff Sicherheits-Massnahmen zusammenfassen möchte, kümmern und da Grosses aufbauen.

    Wir sehen noch etwas: Sicherheits-Massnahmen sind nicht genial, sondern einfach und robust anwendbar, denn geniale Sicherheits-Massnahmen, die dann im Schadensfall versagen, sind nicht hilfreich. Eine Titanic, die hochmodern konzipiert wurde, aber an der Anzahl einfacher Rettungsboote gespart hat, wird im Schadensfall, bei dem sie untergeht, trotzdem eine riesige Anzahl Todesopfer verursachen. Das heisst nicht, dass die Sicherheits-Massnahmen nicht modernisiert werden sollen, ganz im Gegenteil: es heisst nur, dass die Sicherheits-Massnahmen einfach und robust anwendbar sein müssen.

    Doch nun kommen wir nochmals in eine neue Ära: bei einem Schadensfall können irreversible Schäden für das gesamte Leben auf der Erde entstehen. Mit den AKW waren wir schon einmal so weit, doch wird hier der Ausstieg geplant. Wobei es bemerkenswerterweise nicht primär um die Atommüll-Problematik geht, sondern vielmehr um Störfälle mit einer zwar grossen, aber nicht katastrophalen Anzahl Todesopfer waren, die zum Umdenken geführt haben. Aber das Umdenken ist teuer: derzeit wird ein AKW in der Schweiz ausser Betrieb genommen und die Ausserbetriebnahme-Kosten gehen in die Milliarden !! – Wobei man hier nicht allzu forsch vorgehen sollte: zwar habe ich AKW immer abgelehnt, aber wenn der Komet runterkommt und einen zwar nicht katastrophalen, aber doch mehrjährigen nuklearen Winter auf der Erde auslöst, dann werden es AKW sein, die die Energieversorgung sicherstellen.


    Betrachten wir nun als nächstes den LHC im CERN in Genf, der vor einigen Jahren auch hier im Forum diskutiert wurde und grossen Widerstand ausgelöst hat, wegen möglicherweise aus dem Teilchenbeschleuniger entweichenden elektrisch ungeladenen Mini-Schwarzen Löchern, die sich im Erdmittelpunkt festsetzen und von dort aus die Erde innerhalb von 5 Jahren zerstören könnten. Damals wurden mehrere Sicherheitsanalysen erstellt und veröffentlicht, d.h. der Laie brauchte sich nicht aus einer Datenbank von 2000 Publikationen diejenigen heraussuchen, die das Thema tangiert haben, und konnte bei Fragen auch jederzeit die Autoren kontaktieren. Ich habe das damals einige Male getan und dabei sehr interessante Forscher und Menschen kennengelernt. Hier liegt jetzt ein Fall vor, in dem es keine Gewinn-Maximierung gibt, dafür aber im Schadensfall die gesamte Weltbevölkerung, also fast ausschliesslich Unbeteiligte Nachteile gegenwärtigen.


    Und nun komme ich zu Starlink und zu 5G; die Situation ist ähnlich, im Schadensfall vermutlich weniger katastrophal, aber nun herrscht Unklarheit über den Stand von Sicherheitsanalysen: die einen behaupten, es gibt tausende von denen und man muss die sich eben selber heraussuchen, die anderen, u.a. die Verantwortlichen der Telekommunikationsfirmen, behaupten, es gibt keine und man könne auch keine erstellen und fordern statt dessen, die Grenzwerte zu erhöhen. Was Starlink anbelangt sehe ich momentan eigentlich weniger einen Schadensfall - dass gewisse astronomische Beobachtungen künftig nicht mehr von der Erde aus durchgeführt werden können hat letztlich nur zur Folge, dass Forschung eben teurer und in den Weltraum ausgelagert wird. Es mag vielleicht Schadensfälle geben, weil Frequenzbereiche genutzt werden, die im Gegensatz zur stillschweigenden Annahme doch gefährlich sind, doch dürfte die Anzahl Todesopfer aus Nutzersicht als akzeptabel befunden werden, auch wenn nicht bekannt ist, ob es bei gewissen neu genutzten Frequenzbereichen Langzeitfolgen mit Todesfällen der Nutzer selber oder ihrer noch ungeborenen Kinder geben wird, die dann allerdings wegen der sehr hohen Nutzerzahl extrem hoch ausfallen werden und die Zahl der Todesopfer im Strassenverkehr ebenso wie diejenigen bei AKW-Störfällen aufgrund der sehr hohen Nutzerzahl bei weitem übersteigen dürften. Allerdings sehe ich dieses Szenario "gefühlsmässig" weniger problematisch, ich vermute eher, dass es nicht zu kanzerogenen Langzeitfolgen kommt, sondern eher zu lokalen Verbrennungen, die zeitnah auftreten und auch zeitnah behandelt werden können und allenfalls ein paar Rückruf-Aktionen und möglicherweise eine Imageschädigung der betroffenen Hersteller, die dann schlimmstenfalls konkurs gehen, d.h. ihren Gewinn nicht weiter maximieren können, zur Folge haben werden. - Allerdings können auch Unbeteiligte Nachteile gegenwärtigen, nämlich dann, wenn nicht nur vom Endgerät - wer keine Smartsphones nutzt ist ja nicht betroffen, sondern auch von der Antenne selber eine Gefahr ausgeht. In diesem Falle sind ebenfalls Unbeteiligte betroffen, zumal man den Antennen aufgrund ihrer hohen Flächenabdeckung nicht aus dem Weg gehen kann. Leider habe ich keinerlei Anhaltspunkte, wie gross dieses Risiko ist aber hier lässt sich eine Gefahr aufgrund des aktuellen Kommunikations- bzw. Nichtkommunikationsstandes nicht ausschliessen.

    Ansonsten sehe ich eine potentielle Beeinträchtigung der Privatsphäre. Diese ist dann aber irreversibel. Haben wir uns als Jugendliche für den Erhalt der Privatsphäre engagiert und Bücher wie Orwell 1984 u.ä. gelesen, so sind es nun auf Smartsphones herumtipsende Jugendliche, die unbedingt ihre Bildi herumsenden und likes erhalten möchten und denen die Sicherheit und die Privatsphäre völlig egal ist. Bis sie einmal selber gemobbt werden und es dann nicht mehr ertragen und sich das Leben nehmen, weil sie keinen Ausweg mehr sehen. Wobei ich hier vielleicht etwas gar hart auch feststellen muss, dass das nicht unbedingt der Typ Mensch ist, der von der Evolution berücksichtigt zu werden braucht. Aber ein human denkender Mensch muss fähig sein, auch solche Menschen zu schützen und ihnen einen sinnvollen Platz in der Gesellschaft zuweisen können.


    Bei der AI kommt nun noch dazu, dass das Verhalten der Programme nicht reproduzierbar ist, weil es sich aufgrund der Fähigkeiten des Dazulernens verändern kann. Doch nehmen wir den Strassenverkehr: zwar sind es bis anhin nicht die Automobile selber, die dazulernen, wohl aber ihre Nutzer. Es ist sogar sehr wahrscheinlich, dass ein Autofahrer eine Situation zu einem Zeitpunkt anders befahren wird als eine ähnliche Situation zu einem anderen Zeitpunkt, auch deswegen, weil in den seltensten Fällen die identisch gleichen Randbedingungen vorliegen. Das Wetter kann anders sein, somit Sichtverhältnisse und die Strassenbeschaffenheit, die Verkehrslage kann eine völlig andere sein und auch die Stimmung kann anders sein, z.B. morgens im Stress und ungeduldig oder abends übermüdet und eingeschränkt konzentriert. Somit könnte ich mir zumindest einmal als allerersten Ansatz vorstellen, dass man mit ähnlichen Schutz- und Rettungsmassnahmen auch im Kontext der AI für eine verbesserte Sicherheit sorgen kann.


    Freundliche Grüsse, Ralf

Ähnliche Themen

  1. Starlink: IAU besorgt über Satelliten-Konstellationen
    Von astronews.com Redaktion im Forum Raumfahrt allgemein
    Antworten: 31
    Letzter Beitrag: 01.11.2019, 01:47
  2. Thread für Stellarium-Abfragen
    Von ralfkannenberg im Forum Smalltalk
    Antworten: 65
    Letzter Beitrag: 08.09.2016, 20:27
  3. Anti-gravitationslinseneffekt
    Von TomS im Forum Dunkle Materie & Dunkle Energie
    Antworten: 2
    Letzter Beitrag: 21.01.2013, 13:18
  4. Verschobener Beitrag aus dem CERN/LHC-Thread
    Von JGC im Forum Gegen den Mainstream
    Antworten: 3
    Letzter Beitrag: 17.09.2008, 23:17
  5. Thread-Übersicht
    Von Bynaus im Forum astronews.com Forum
    Antworten: 4
    Letzter Beitrag: 05.09.2007, 10:37

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
astronews.com 
Nachrichten Forschung | Raumfahrt | Sonnensystem | Teleskope | Amateurastronomie
Übersicht | Alle Schlagzeilen des Monats | Missionen | Archiv
Weitere Angebote Frag astronews.com | Forum | Bild des Tages | Newsletter
Kalender Sternenhimmel | Startrampe | Fernsehsendungen | Veranstaltungen
Nachschlagen AstroGlossar | AstroLinks
Info RSS-Feeds | Soziale Netzwerke | Flattr & freiwilliges Bezahlen | Werbung | Kontakt | Suche
Impressum | Nutzungsbedingungen | Datenschutzerklärung
Copyright Stefan Deiters und/oder Lieferanten 1999-2013. Alle Rechte vorbehalten.  W3C