Anzeige
 Home  |  Nachrichten  | Frag astronews.com  | Bild des Tages  |  Kalender  | Glossar  |  Links  | Forum  | Über uns    
astronews.com  
Nachrichten

astronews.com
astronews.com

Der deutschsprachige Onlinedienst für Astronomie, Astrophysik und Raumfahrt

Home  : Nachrichten : Raumfahrt : Artikel [ Druckansicht ]

 
SATELLITEN
Die Datenflut aus dem All
Redaktion / Pressemitteilung des Deutschen Zentrums für Luft- und Raumfahrt
astronews.com
25. Februar 2019

Erdbeobachtungssatelliten, Teleskope und Raumsonden produzieren täglich ungeheure Datenmengen. Allein das europäische Copernicus-Programm erzeugt 20 Terabyte an Daten pro Tag. So wertvoll diese sind, so komplex ist auch ihre Auswertung und ihre Archivierung. Experten haben sich in der letzten Woche auf einer Konferenz in München zu diesem Thema Gedanken gemacht.

GUF

Ziel des Projektes Global Urban Footprint (GUF) ist die weltweite Kartierung besiedelter Flächen in bislang einzigartiger räumlicher Auflösung. Zu sehen sind hier die Siedlungsmuster im Raum München. Bild: DLR (CC-BY 3.0) [Großansicht]

Erdbeobachtungssatelliten liefern uns wichtige Daten, um zum Beispiel Veränderungen in Umwelt und Klima schnell zu erfassen oder Gletscherbewegungen oder -schwund zu erkennen. Im Fall von Katastrophen wie Überschwemmungen oder Erdbeben können aktuelle Karten für Rettungskräfte bereitgestellt werden. Doch diese Informationen türmen große Datenberge auf.

Die Satelliten des europäischen Copernicus-Programms zählen zu den größten Datenproduzenten weltweit. Sie erzeugen mit ihren hochauflösenden Instrumenten aktuell bereits ein tägliches Volumen von rund 20 Terabyte. Das entspricht etwa einem anderthalb Jahre langen Film in HD. Hinzu kommen die Datenschätze von nationalen Missionen wie TerraSAR-X und TanDEM-X sowie zunehmend auch von anderen Quellen wie Internet oder Messstationen. Verarbeitung und Analyse dieser riesigen und heterogenen Datenmengen stehen als "Big Data"-Aufgaben stellvertretend für zukünftige Herausforderung unserer digitalen Gesellschaft.

Um diese zu lösen, traffen sich in der vergangenen Woche circa 650 Experten auf der Konferenz "Big Data from Space", die vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) in München ausgerichtet und gemeinsam mit der Europäischen Weltraumorganisation ESA, dem Satellitenzentrum der Europäischen Union sowie dem Joint Research Center organisiert wurde.

"Eine immer größere Anzahl von Satelliten, aber auch der Einsatz von neuen Sensoren mit höherer Auflösung liefern uns große Datenmengen - die Auswertung dieser Datenschätze wird zunehmend zu einer technologischen Herausforderung", sagt Prof. Hansjörg Dittus, DLR-Vorstand für Raumfahrtforschung und -technologie. "Daher forscht das DLR verstärkt an effizienten Methoden und Verfahren wie dem maschinellen Lernen, um so aussagekräftige Analysen und Handlungsempfehlungen zur Urbanisierung, zu Veränderungen der Atmosphäre oder auch zur globalen Erwärmung liefern zu können. Zudem plant das DLR, mit einer High Performance Data Analytics Plattform die informationstechnologische Infrastruktur dafür zu schaffen."

Anzeige

"Für Analysen dieser großen Datenmengen ist ein effizienter Zugriff entscheidend, etwa über Online-Plattformen. Die Entwicklung solcher Zugriffsmöglichkeiten und entsprechender Verarbeitungsmodelle wird daher vom DLR Raumfahrtmanagement gefördert. Neben innovativen wissenschaftlichen Anwendungen ermöglicht dies auch die Entwicklung neuer Geschäftsmodelle im wachsenden Downstream-Sektor innerhalb der Erdbeobachtung", erklärt Dr. Walther Pelzer, DLR-Vorstand zuständig für das Raumfahrtmanagement.

Um die Datenberge weiterzuverarbeiten und in Informationen umwandeln zu können, braucht man neue Ideen und Konzepte. Dabei spielt künstliche Intelligenz eine große Rolle, da diese Verfahren gerade bei großen Datenmengen sehr leistungsfähig sind. So erforscht DLR-Wissenschaftlerin Prof. Zhu an der TU München zum Beispiel den Einsatz solcher Methoden. Zusammen mit ihrem Team entwickelt Zhu explorative Algorithmen aus Signalverarbeitung und der künstlichen Intelligenz (KI), speziell dem maschinellen Lernen, um die Gewinnung globaler Geoinformationen aus Satellitendaten wesentlich zu verbessern und um Durchbrüche in Geo- und Umweltwissenschaften zu erzielen.

Einen Schritt weiter geht die Fusion von Petabytes komplementärer georelevanter Datenquellen, von Erdbeobachtungssatelliten bis sozialen Netzwerken, die durch neuartige Data-Science-Algorithmen ermöglicht wird. Die Ergebnisse haben das Potential, bisher nicht lösbare große Herausforderungen anzugehen, wie die Erfassung und Kartierung der weltweiten Urbanisierung - eines der wichtigsten Megatrends des globalen Wandels.

Doch nicht nur die Satellitenfernerkundung ist mit dieser Herausforderung konfrontiert. Auch der umgekehrte Blick von der Erde ins All liefert riesige Datenmengen: Teleskope wie zum Beispiel das Square Kilometer Array (SKA) in Südafrika und Australien oder auch weltraumgebundene ESA-Teleskope wie GAIA und EUCLID liefern riesige Datenmengen. Die systematische Analyse von Archivdaten durch selbstlernende KI-Programme bekommt daher auch in der astronomischen Arbeit einen immer höheren Stellenwert.

Erdbeobachtungssatelliten und Teleskope zeigen, dass Methoden aus den Datenwissenschaften und der Künstliche Intelligenz unverzichtbar sind. Um diese Massen an Daten handhaben und auswerten zu können, braucht man geeignete Speicher- und geschickte Zugriffsmöglichkeiten. Für interessierte Nutzer ist letztlich nur der Zugang entscheidend - heutzutage meist in Form eines Online-Portals wie zum Beispiel der Plattform CODE-DE (Copernicus Data and Exploitation Platform - Deutschland) des DLR Raumfahrtmanagements. Sie können dort auf alle Daten zugreifen und direkt vor Ort weiterverarbeiten. Es steht somit online eine komfortable Arbeitsumgebung für die Satellitendaten, die im Copernicus-Programm kostenfrei bereitgestellt werden, zur Verfügung. Das spart lokalen Speicherplatz und Rechnerkapazitäten bei den Anwendern.

Aber auch die Datenportale selbst sind Gegenstand der Forschung. Wie sieht die ideale Plattform aus und welche Suchoptionen sollten dem Nutzer zur Verfügung stehen? Nach dem Vorbild von Internetsuchmaschinen sollen Bilder entfernter Planeten oder von der Erdoberfläche ganz einfach anhand von Informationen gefunden werden: "Auf welchem Himmelskörper ist wahrscheinlich Wasser vorhanden?" oder "Welche Gebiete sind in Deutschland im Sommer besonders von Dürre betroffen?" Solche Suchanfragen sollen modernen Portalen die richtigen Datensätze als Antwort liefern.

Von hoher Bedeutung ist auch der langfristige Bestand dieser globalen Informationen. Ähnlich einer Bibliothek muss sichergestellt werden, dass Satellitendaten über einen langen Zeitraum erhalten bleiben, gefunden werden können und abrufbar sind. Das geschieht etwa im Deutschen Satellitendatenarchiv (D-SDA) des Earth Observation Centers am DLR in Oberpfaffenhofen.

Ein großer Vorteil der modernen Erdbeobachtung sind Zeitreihen. Vergleicht man zum Beispiel die globale Gletscherdynamik, lassen sich wertvolle Informationen zum Klimawandel, zur Veränderung des Meerwasserspiegels und für den regionalen Wasserhaushalt gewinnen. Doch die umfangreichen Zeitreihen gehen mit riesigen Datenmengen einher, die sich kaum mehr bewegen und verarbeiten lassen. Produkte des DLR wie der World Settlement Footprint (WFS Evolution), eine globale hochauflösende Kartierung des Städtewachstums über die letzten 30 Jahre, lassen sich nur mehr durch sehr leistungsstarke Rechenzentren und automatisierte Auswertungsverfahren realisieren.

Vor wenigen Jahren undenkbar, zeigt dieses Beispiel das Potential, dass die heute verfügbaren großen Datenmengen in Kombination mit maschinellen Verfahren bieten. Außerdem arbeiten Wissenschaftler an einem Werkzeug, das die Informationen aus Zeitreihenmessungen automatisch abgleicht und so diesen "Flaschenhals" umgeht. So können Zeit und Speicherplatz bei der Auswertung eingespart werden.

Doch nicht nur Erdbeobachtungsexperten sollen Satelliteninformationen künftig zur Verfügung stehen. Auch Laien sollen in den Genuss dieser Produkte kommen. Das ist momentan allerdings noch sehr schwierig, da bislang weitgehend unbearbeitete Daten zur Verfügung stehen. IT-Experten wollen das nun ändern und analysefertige Daten und Services bereitstellen.

Forum
Die Datenflut aus dem All. Diskutieren Sie mit anderen Lesern im astronews.com Forum.
siehe auch
Big-Data: Wie sich riesige Datenmengen auswerten lassen - 18. Juli 2018
CODE-DE: Online-Plattform für Erdbeobachtungsdaten - 28. März 2017
Links im WWW
DLR
In sozialen Netzwerken empfehlen
 
 
Anzeige
astronews.com 
Nachrichten Forschung | Raumfahrt | Sonnensystem | Teleskope | Amateurastronomie
Übersicht | Alle Schlagzeilen des Monats | Missionen | Archiv
Weitere Angebote Frag astronews.com | Forum | Bild des Tages | Newsletter
Kalender Sternenhimmel | Startrampe | Fernsehsendungen | Veranstaltungen
Nachschlagen AstroGlossar | AstroLinks
Info RSS-Feeds | Soziale Netzwerke | astronews.com ist mir was wert | Werbung | Kontakt | Suche
Impressum | Nutzungsbedingungen | Datenschutzerklärung | Cookie-Einstellungen
     ^ Copyright Stefan Deiters und/oder Lieferanten 1999-2023. Alle Rechte vorbehalten.  W3C
Diese Website wird auf einem Server in der EU gehostet.

© astronews.com / Stefan Deiters und/oder Lieferanten 1999 - 2020
Alle Rechte vorbehalten. Vervielfältigung nur mit Genehmigung.


URL dieser Seite: https://www.astronews.com:443/news/artikel/2019/02