Lexikon der Fernerkundung

Alle lexikalischen Einträge zu diesem Buchstaben

K-Band

Radar- und Mikrowellenband mit Wellenlängen zwischen 1,1 und 1,67 cm, entsprechend dem Frequenzbereich zwischen 10,9 GHz und 36 GHz (10.900 bis 36.000 MHz). Oft ist speziell der Bereich zwischen 11 und 15 Gigahertz gemeint (Uplink: 14 bis 14,5 GHz, Downlink: 11,7 bis 12,2 GHz). Der Bereich wird für Satellitenfunk von Telekommunikationssatelliten genutzt. Er ist wenig störanfällig gegen Mikrowellenstrahlung im Vergleich zum C-Band und kommt auch mit kleineren Antennen aus. Dafür besteht ein stärkerer Einfluss durch Regen und Nebel. Wegen unterschiedlicher häufiger Anwendungen für Satellitenfunk wird das K-Band in die Unterbänder Ka-Band und Ku-Band unterteilt. Die Nachbarbereiche sind X-Band und Q-Band.

Mikrowellen Mikrowellenbereich

Der Teil des Spektrums, der in jüngerer Zeit für die Fernerkundung von Interesse ist, ist der Mikrowellenbereich von ca. 1 mm bis 1 m. Dieser deckt die längsten Wellenlängen ab, die für die Fernerkundung verwendet werden. Die kürzeren Wellenlängen haben ähnliche Eigenschaften wie der thermische Infrarotbereich, während sich die längeren Wellenlängen den Wellenlängen nähern, die für Radiosendungen verwendet werden.

Quelle: Natural Resources Canada

Ka-Band

Radar- und Mikrowellenband, in dem die Wellenlängen von 1,11 cm - 7,5 mm variieren, ein Frequenzbereich von 26,5 - 40 GHz. Das Zweifrequenz-Radar auf dem GPM-Satelliten beispielsweise besitzt eine Ka-Band-Frequenz von 35 GHz zur Messung von Eisniederschlag und leichtem Regen und eine Ku-Band-Frequenz von 14 GHz zur Messung von Starkniederschlag umfassen.

Kacheln

Engl. tiles; (Computer-)Grafiken, die mosaikartig zusammengesetzt ein vielfach größeres Gesamtbild ergeben. Beispielsweise besteht ein Orthophotomosaik aus Einzelorthophotos, die ähnlich einem Mosaik aneinandergefügt werden. Um die jeweils zu verarbeitende Datenmenge möglichst gering zu halten, werden solche Mosaike oftmals in Bildkacheln eingeteilt (z. B. in Kacheln zu je einem km²).

Kachelung

In der digitalen Bildverarbeitung Bezeichnung für eine segmentierte Speicherung einer Grauwertmatrix. Gegenüber einer zeilenweisen Speicherung hat die gekachelte Speicherung in quadratischen Segmenten identischer Größe (meist angegeben über Kantenlänge von 2n Pixeln) zahlreiche Vorteile in der Zugriffsgeschwindigkeit, vor allem bei nachfolgenden Operationen wie einer ausschnittsweisen Bildschirmdarstellung, der Bildfilterung im Ortsfrequenzbereich, dem Aufbau von Bildpyramiden und der Bildkompression.

Bei großen Geodatensätzen (Vektor- und Rasterdaten) wird das Gesamtgebiet häufig in Kacheln unterteilt, um einerseits die Erfassung und Primärbearbeitung zu verteilen und zu optimieren, andererseits um das Datenhandling in der Abgabe zu erleichtern, nicht zuletzt aufgrund von Kapazitätsgrenzen vorhandener Speichermedien und der Anwendungssoftware sowie zum effektiven Transfer via Internet. Dazu kann die Kachelung schematisch (z.B. über das Gradnetz oder Gitternetz) oder inhaltsspezifisch (z.B. in kompakte geographische oder administrative Segmente) erfolgen.

Kalibrierung

Engl. calibration, franz. étalonnage; syn. Kalibration, Abgleichvorgang der Messgenauigkeit eines Instruments mit einem bekannten Standard. Nach DIN 18716 die "quantitative Bestimmung von systematischen und reproduzierbaren Eigenschaften eines Sensors anhand referenzierter Normale", verbunden mit der Anmerkung: "Lassen sich diese Eigenschaften modellieren, entspricht die Kalibrierung der Bestimmung von Instrumentenkonstanten".

Beispielsweise bestimmt die Kalibrierung bei Sensoren eines Wettersatelliten den Zusammenhang zwischen der vom Detektor abgegebenen Spannung, die als Signal zur Erde gefunkt wird und der sie verursachenden Strahldichte am Satelliten, die gemessen werden soll. In das Ergebnis der Kalibrierung gehen alle Eigenschaften des optischen Wegs im Radiometer ein, von der Empfangsoptik über Spiegel, Strahlteiler und Filter bis zum Detektor. Solche Kalibrierungen werden i. A. vor dem Start des Satelliten vorgenommen, müssen aber im All überprüft werden, da z. B. mit Alterungserscheinungen zu rechnen ist.

Weitere Informationen:

Kalibrierungskoeffizient (radiometrisch)

Engl. calibration coefficient, franz. coefficient d'étalonnage; nach DIN 18716 der "Wert, der dem relativen Grauwert im Bild (Pixelwert) mittels linearer oder nichtlinearer Beziehungen eine absolute physikalische Strahlungsgröße zuordnet".

Kamera

Engl. camera; nach DIN 18716 ein "passives Fernerkundungssystem mit einem oder einer Kombination von Sensoren".

Kameraöffnung

Öffnungswinkel eines Kameraobjektivs

Kanal

Syn. Spektralkanal oder Band, Engl. channel, (spectral) band, franz. bande, canal spectral; in der Fernerkundung ein genau definierter Bereich des elektromagnetischen Spektrums. Für den Empfang und die digitale Speicherung von Signalen in solchen Bereichen ist der jeweils spezielle Sensor eines Satelliten zuständig. Dabei werden der aufgenommenen Strahlungsintensität in jedem Kanal Werte von 0 bis 255 zugeordnet. Ordnet man nun jedem Wert eines Kanals einen bestimmten Grauwert zwischen schwarz (=0) und weiß (=255) zu, so kann man ein Bild der aufgenommenen Strahlung erhalten.

Insofern unterscheidet sich das "Wahrnehmungsvermögen" von Sensoren von dem einer Fotokamera, bei der mit der einfallenden Strahlung ein Film belichtet wird.

Der amerikanische Landsat-TM-Sensor erfasst unter anderem jeweils getrennt rotes, grünes und blaues Licht, d.h. der Bereich des sichtbaren Lichts wird in drei Farbbereichen bzw. in drei Kanälen getrennt aufgenommen. Durch additive Farbmischung dieser drei Kanäle (rot+grün+blau=weiß; es können immer nur drei Kanäle gleichzeitig dargestellt werden!) entsteht ein scheinbar natürliches Bild.

Zwar ist der Begriff Kanal gleichbedeutend mit Band, aber bei der Fernerkundung im sichtbaren Licht und im nahen Infrarot wird er bevorzugt.

In der Regel sind die Kanäle auf die atmosphärischen Fenster ausgerichtet. Allerdings tragen verschiedene Systeme auch solche Instrumente, die innerhalb der Spektralbereiche bestimmter Absorptionsbande operieren und dadurch Vorgänge in der Atmosphäre sichtbar und erforschbar machen. So zeichnet z.B. der Wettersatellit Meteosat den Wasserdampfgehalt der Atmosphäre auf (Kanal 2 bzw. 6 der 1. bzw. 2. Generation von Meteosat).

Die Landsat-Kanäle und ihre Eigenschaften
Kanal Eigenschaft/Verwendung

Kanal 1 Blau
blauer Anteil des sichtbaren Lichts im Wellenlängenbereich 0,45 - 0,52 µm, Auflösung 30m im Originaldatensatz

Wird wegen der starkten Absorption des Chlorophylls genutzt zur Unterscheidung von Boden und Vegetation, von Laub- und Nadelwald, sowie zur Untersuchung von Gewässern wegen der hohen Eindringtiefe in Wasser.

Kanal 2 Grün
grüner Anteil des sichtbaren Lichts im Wellenlängenbereich 0,53 - 0,61 µm, Auflösung 30m im Originaldatensatz

Misst die in diesem Spektralbereich vergleichsweise hohe Reflexion von (gesunder) Vegetation an Land und im Wasser.

Kanal 3 Rot
roter Anteil des sichtbaren Lichts im Wellenlängenbereich 0,63 - 0,69 µm, Auflösung 30m im Originaldatensatz

Misst die unterschiedliche Chlorophyllabsorption verschiedener Pflanzenarten;
dient zur Unterscheidung von Pflanzenarten und zur Trennung von Bodentypen, Mineralgehalten.

Kanal 4 NIR
zurückgestrahltes Licht im Bereich des Nahen Infrarots (NIR) im Wellenlängenbereich 0,7 - 1,3 µm, Auflösung 30m im Originaldatensatz

NIR zeigt die Aktivität von Pflanzen. Je jugendlicher die Pflanze, umso mehr "Nahes Infrarot" wird reflektiert. Man sieht also den Zustand pflanzlicher Zellen.
Die Informationsfülle ist im NIR besonders groß. Wasser ist stets schwarz! 

Kanal 5  MIR 1
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 1) im Wellenlängenbereich 1,57 - 1,78 µm, Auflösung 30m im Originaldatensatz

MIR misst den Wassermangel in Vegetation und zeigt Böden hell an;
unterschiedliche Reflexion von Schnee und Wolken; durchdringt dünne Wolken;
sehr gerine Eindringtiefe in Wasser;
hohe Reflexion von manchen Gesteinen, deshalb hilfreich für geologische und bodenkundliche Kartierungen.

Kanal 6 TIR
zurückgestrahltes Licht im Bereich des Thermischen Infrarots (TIR) im Wellenlängenbereich 10,42 - 11,66 µm, Auflösung 60m im Originaldatensatz

TIR misst die von der Erde ausgehende Wärmestrahlung, dient primär für thermische Kartierungen.
Die Erfassung von Schäden und Stress von Vegetation ist möglich.
TIR gibt Auskunft über die oberste Bodenschicht.

Kanal 7  MIR 2
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 2) im Wellenlängenbereich 2,10 - 2,35 µm, Auflösung 30m im Originaldatensatz

MIR 2 zeigt hohe Reflexion von manchen Gesteinen, deshalb sehr hilfreich für geologische und bodenkundliche Kartierungen.
Vegetation reflektiert wenig, Wasser absorbiert alles und ist deshalb schwarz.

Kanal 8  Pan
Der Kanal 8 steht bei Landsat 7 (Sensor ETM+) für das zurückgestrahlte panchromatische Licht.Panchromatisches Licht umfasst das sichtbare Licht im Wellenlängenbereich 0,4 bis 0,9 µm, Auflösung 15 m im Originaldatensatz

In der Fernerkundung werden panchromatische Sensoren benutzt, weil sie durch die hohe Lichtausbeute eine sehr hohe Auflösung erlauben.

Weitere Informationen:

Kanopus-V

Die Kanopus-Vulkan-Konstellation (Kanopus-V) aus multispektralen Satelliten mittlerer Auflösung wurde von Roscosmos, dem staatlichen russischen Raumfahrtunternehmen, ab 2012 auf Sojus-Raketen zur Überwachung der Erdressourcen gestartet. Eine Reihe von sechs Satelliten (Kanopus-V No. 1-No. 6), die von der VNIIEM Corporation entwickelt wurden, werden vom Wissenschaftlichen Zentrum für operationelle Erdüberwachung der Joint Stock Company Russian Space Systems betrieben. Die Starts von Kanopus-V Nr. 7 und Nr. 8 sind für das Jahr 2025 geplant.

Die dreiachsenstabilisierten und zwischen 450 und 490 kg schweren Satelliten sind nahezu baugleich mit dem Satelliten Belka 2 und sind mit einer panchromatischen Kamera mit einer Auflösung von etwa 2,1 m (1920 × 985 Pixel, 520 bis 850 nm) und einer Schwadbreite von 23 km, einer Vierkanal-Multispektralkamera (1920 × 985 Pixel, 460–520, 510–600, 630–690 und 750–840 nm) mit einer Auflösung von 10,5 m und einem Multispektralscanner MSU-200 (540 bis 860 nm) mit einer Auflösung von 25 m und einer Schwadbreite von 250 km für Übersichtsbilder ausgerüstet. Sie sollen der Erderkundung und der Datensammlung für verbessertes Kartenmaterial dienen, wobei die Daten auch für den Katastrophenschutz und die Landwirtschaft eingesetzt werden sollen.

Die Satelliten werden jeweils in eine sonnensynchrone Umlaufbahn mit etwa 510 km Bahnhöhe gebracht.

Weitere Informationen:

Kantendetektion

Engl. edge detection; eine der Grundaufgaben der Bildverarbeitung ist das Auffinden von Kanten und Linien. Kanten und Linien sind Diskontinuitäten in der Grauwertfunktion eines Bildes. Als Kante wird der Übergang von einer Region zu einer anderen bezeichnet, z.B. von hell zu dunkel. Eine Linie wird von zwei Kanten gebildet, z.B. als schmaler dunkler Bereich zwischen zwei hellen.

KARI

Engl. Akronym für Korea Aerospace Research Institute; die Luft- und Raumfahrtagentur Südkoreas.

Weitere Informationen:

Kármán-Linie

Eine gedachte Höhenlinie bei 100 km Höhe, die als Definition für die Abgrenzung der Erdatmosphäre zum freien Weltraum (outer space) dient. Festgelegt wurde sie von der Fédération Aéronautique Internationale und benannt zu Ehren von Theodore von Kármán, der entscheidend an ihrer Definition mitwirkte. Sie dient im Wesentlichen der Klassifikation von Flugleistungen, da diese in den beiden Bereichen unterhalb und oberhalb von ihr nicht vergleichbar sind.

Grundlage der Definition der Kármán-Linie ist, dass die zur Erzielung eines ausreichenden aerodynamischen Auftriebes erforderliche Geschwindigkeit in ungefähr dieser Höhe gleich der ersten kosmischen Geschwindigkeit wird, ein Fahrzeug mit dieser Geschwindigkeit also auch schon durch die Zentrifugalkraft in einer Erdumlaufbahn gehalten würde.

Die Auswahl dieses Kriteriums ist jedoch nicht ganz zwangsläufig. So verleihen die US-amerikanischen Streitkräfte das Astronautenabzeichen ab einer ebenfalls in den 50er Jahren vom National Advisory Committee for Aeronautics (NACA) festgelegten Flughöhe von 50 Meilen (ca. 80 km). Dieser Definition liegt die Annahme zu Grunde, dass für die aerodynamische Steuerung eines Luftfahrzeugs ein dynamischer Druck auf die Steuerflächen von mindestens 1 lbF/ft² (47,88 Pa) nötig ist. Diese Grenzziehung gilt aber inzwischen als veraltet und findet international kaum Anerkennung.

Völkerrechtlich relevant für die Abgrenzung des der Lufthoheit unterliegenden Luftraumes vom hoheitsfreien Weltraum ist keine dieser Definitionen. Diese behalten sich die Staaten bislang vor. Allgemein wird dazu bisher eine funktionale Abgrenzung angenommen, d.h. eine Abhängigkeit von der durchgeführten Aktivität statt von der genauen Höhe.

102px-Atmosphere_layers-de-3_svg Säulenprofil der Erdatmosphäre mit Kármán-Linie

Es gibt keine feste Grenze zwischen Atmosphäre und Weltall. Jedoch wird üblicherweise die in einer Höhe von 100 km verlaufende Kármán-Linie als Beginn des Weltraums herangezogen, um Weltraumverträge zu formulieren.

Der Rahmen für das internationale Weltraumrecht wurde durch den Outer Space Treaty geschaffen, der von den Vereinten Nationen 1963 verabschiedet wurde. Dieser Vertrag schließt alle nationalen Souveränitätsansprüche aus und erlaubt allen Staaten, die freie Erkundung des Weltalls.

Im Jahr 1979 unterstellte der Moon Treaty die Oberflächen von Objekten wie z.B. Planeten wie auch den Raum um diese Körper der Rechtsprechung der internationalen Gemeinschaft. Zusätzliche Vereinbarungen, die den Weltraum betreffen, sind von den Vereinten Nationen abgefasst worden, aber sie haben nicht die Stationierung von Waffen im Weltall ausgeschlossen.

99,99997 % der Masse der Atmosphäre befinden sich unterhalb von 100 km, und dennoch trifft man in der ausgedünnten Luft darüber Polarlichter und andere atmosphärische Effekte. Der höchste Flug eines X-15 Flugzeugs erreichte 1963 eine Höhe von 108 km.

Quelle: Wikipedia nach einer Vorlage der NOAA

Katastrophe

Eine schwerwiegende Unterbrechung der Funktionsfähigkeit einer Gemeinschaft oder Gesellschaft, die umfangreiche Verluste an Menschenleben, Sachwerten und Umweltgütern verursacht und die Fähigkeit der betroffenen Gesellschaft, aus eigener Kraft damit fertig zu werden, übersteigt. Bei großen Katastrophen kann sich das betroffene Gebiet i.d.R. nicht mehr aus eigener Kraft helfen und benötigt Hilfe von außen.

Eine Katastrophe ist eine Funktion im Risikoprozess. Sie entsteht aus der Kombination von Gefahren, Anfälligkeiten und unzureichenden Kapazitäten oder Maßnahmen, um die möglichen negativen Folgen eines Risikos zu reduzieren.

Katastrophen und Fernerkundung:

Zu den Dienstleistungen, die Satelliten für das Katastrophen-Risikomanagement und die Katastrophenhilfe bereitstellen können, gehören Wettervorhersage, Fernerkundung, Geo-Positionierung, Navigation, Fernsehen und Telekommunikation. Instrumente an Bord von Satelliten, die die Erde umkreisen, sind so konzipiert, dass sie bestimmte Wellenlängenbereiche des elektromagnetischen Spektrums abdecken, um Bilder aufnehmen, Atmosphärensondierungen durchführen, Satellitenkommunikation, sowie Geo-Positionierungs- und Navigationsaufgaben durchführen.

Satelliten umkreisen die Erde auf verschiedenen Bahnen, je nach Art der Anwendung oder des an Bord befindlichen Instruments.

Ein Satellit in einer geostationären Umlaufbahn umkreist die Erde über dem Äquator (0° Breite) synchron zur Erdrotation. Durch seine scheinbar feste Position über einem Punkt am Äquator in einer Höhe von mehr als 36.000 km eignet er sich für die Kommunikation und regionale Klimabeobachtung dieses Bereichs mit hoher zeitlicher, aber geringer räumlicher Auflösung.

Erdbeobachtungssatelliten und Wettersatelliten befinden sich auf einer niedrigen Erdumlaufbahn in einer Höhe von typischerweise etwa 500-800 km und nahe der Polarebene. Aufgrund ihrer Umlaufbahn bieten diese Satelliten eine globale Abdeckung mit vergleichsweise geringer zeitlicher, aber mittlerer bis sehr hoher räumlicher Auflösung. Aufgrund der hohen Kosten des Weltraumtransports werden auch Kommunikations- oder Navigationskonstellationen im Low Earth Orbit platziert.

Erdbeobachtungssatelliten verwenden entweder optische oder Radarsensoren, um Bilder von der Erde aufzunehmen.

Optische Sensoren für die Erdbeobachtung sind so konzipiert, dass sie Bilder entweder im panchromatischen Spektralformat oder im multispektralen Format liefern. Panchromatisch bezieht sich auf Bilder in Schwarz-Weiß, die von der Erdoberfläche reflektiert werden, die dem gesamten sichtbaren Licht ausgesetzt ist. Multispektralbilder beinhalten in der Regel vier Bänder des elektromagnetischen Spektrums: blau, grün, rot und nahes Infrarot.

Radarsensoren für die Erdbeobachtung sind für den Betrieb im Mikrowellenbereich konzipiert.

Weitere Informationen:

Katastrophenmanagement

Syn. Risikomanagement; das systematische Management von Verwaltungsentscheidungen, Organisation, operationellen Kompetenzen und Fähigkeiten, um politische Prozesse, Strategien und Bewältigungskapazitäten einer Gesellschaft oder Gemeinschaft zu implementieren, um die Auswirkungen von Naturgefahren und ähnlichen Umwelt- und technologischen Katastrophen zu verringern. Dies beinhaltet alle Arten von Aktivitäten, einschließlich technischer und nichttechnischer Maßnahmen, um negative Effekte von Gefahren zu vermeiden (Vorbeugung) oder zu begrenzen (Schadenminderung und Vorbereitung auf den Katastrophenfall). Wichtiger Bestandteil sind Frühwarnsysteme und ausgearbeitete Katastrophenpläne für Entscheidungsträger und die Bevölkerung.

Überschwemmungen in Westdeutschland 2021

Im Westen Deutschlands hat langanhaltender Starkregen für Überschwemmungen gesorgt. Menschen kamen ums Leben, zahlreiche Gebäude und Infrastrukturen wurden zerstört. Besonders betroffen sind Orte in Nordrhein-Westfalen und Rheinland-Pfalz. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) unterstützt die Helfer mit einer Reihe von Aktivitäten: Satellitendaten und DLR-Luftbildaufnahmen werden innerhalb kürzester Zeit ausgewertet und zum Beispiel zu Karten aufbereitet. Das Zentrum für satellitengestützte Kriseninformation (ZKI) gibt die Lageinformationen an das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) oder das Deutsche Rote Kreuz (DRK) weiter. Außerdem besteht ein ständiger Austausch mit dem Bundesamt für Kartographie und Geodäsie (BKG) und seinem satellitengestützten Krisen- und Lagedienst. Das ZKI ist eine Einrichtung im Deutschen Fernerkundungsdatenzentrum (DFD) in Oberpfaffenhofen. Es analysiert Erdbeobachtungsdaten und erstellt daraus aktuelle Informationen.

Das ZKI hat für Regionen in Nordrhein-Westfalen Hochwasserinformationen aus Satellitendaten (Sentinel-1) abgeleitet. Die Auswertung erfolgt mit automatisierten Verfahren. Die Bilder und die sogenannten „Wassermasken“, die die Ausdehnung der Wasserflächen verdeutlichen, stehen den Helfern zur Verfügung. Außerdem zeigt das ZKI besonders betroffene Orte, die gemeinsam mit den Rettungskräften vor Ort definiert werden, in Lagekarten. Hierfür hat das DLR Luftbilddaten mit Auflösungen von zehn bis 15 Zentimetern mit einer Kamera des Instituts für Methodik der Fernerkundung erfasst. Die Flüge konnten in Zusammenarbeit mit Partnern spontan realisiert werden.

Hochwasserlage Landkreis Euskirchen vom 15. Juli 2021 - Übersichtskarte Hochwasserlage Landkreis Euskirchen vom 15. Juli 2021 - Übersichtskarte

Die Karte zeigt die Hochwassersituation im Umland von Euskirchen am 15. Juli 2021. Der Hochwasserlayer wurde mittels automatisierter Verfahren aus Sentinel-1 Satellitendaten (10 m) abgeleitet. Sentinel-2 Daten mit einer räumlichen Auflösung von 10 (1. Juni 2021) dienen als Hintergrundbild. Ferner wurden Vektordaten von ©GeoBasis-DE / BKG 2021 zur Kartenerstellung verwendet.

Die Aufnahmen und Karten entstehen im Rahmen des Forschungsprojektes AIFER in enger Zusammenarbeit mit dem Bayrischen Roten Kreuz (BRK) und dem DRK. AIFER entwickelt Methoden der Künstlichen Intelligenz (KI), die Informationen aus Satellitendaten, Luftbildern und Medien automatisiert erkennen und verbinden. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt.

Ein Teil der Karten ist auch zum Download allgemein verfügbar.

Quelle: DLR

Die Rolle von Fernerkundungsverfahren

Eine besondere Stellung beim Katastrophenmanagement haben Fernerkundungsverfahren und die daraus abgeleiteten Geodaten. Deren Möglichkeiten, die von der Vorhersage etwa von Niederschlägen mit Satellitenbeobachtungen oder Radar bis zur Verwendung von GPS zur Lokalisierung von Einsatzfahrzeugen bei der Katastrophenhilfe reichen, werden heute intensiv erforscht und zur Einsatzfähigkeit entwickelt. So können Satellitenaufnahmen nicht nur zur Erkundung schwer zugänglicher Gebiete dienen, sondern sie bieten darüber hinaus zahlreiche Einsatzmöglichkeiten direkt bei Eintritt einer Katastrophe. Für die Rettungskräfte tragen sie bei zu besserer Prävention und lageangepasster Einsatzvorbereitung, zu umfassender Lage- und Gefährdungsbeurteilung und zur Verbesserung der lageangepassten Einsatzdurchführung.

Die folgende Tabelle listet Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement auf. Manche dieser Möglichkeiten sind derzeit noch nicht bis zur Einsatzreife entwickelt. Z.B. können Satellitenbilder üblicherweise noch nicht in Echtzeit zur Verfügung gestellt werden. Andererseits bieten Technologien wie GIS und GPS, vor allem in ihrer Kombination, neue Möglichkeiten zur Verbesserung des Einsatzes von Hilfsfahrzeugen.

Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement
Katastrophenursache ermittelbare Parameter Sensoren/Satelliten
Erdbeben Topographie
digitale Höhenmodelle
Zustandsveränderungen
(Interferometrie)
SPOT
Landsat TM
ERS-1/-2
Radarsat
Dürre Niederschlag
Vegetationsindex
Vegetationszustand
Bodenfeuchte
NOAA-AVHRR
SPOT
Landsat TM
Meteosat, MSG
Flut (u.a. Hochwasser) Niederschlag
Topographie
Wolkenbedeckung
Überflutungsflächen
Schneebedeckung
Bodenfeuchte
NOAA-AVHRR
ERS-1/-2
Meteosat, MSG
Vulkanausbrüche Deformationen
Aufwölbungen
Eruptionswolken
Oberflächentopographie
Hangneigungen
ERS-1/-2
SPOT
Landsat TM
Stürme (Wind, Sandstürme) Wolkenbedeckung
Windfelder
Luftdruck
Niederschlag
Meteosat, MSG
NOAA-AVHRR
ERS-1/-2
GOES
Wildfeuer Oberflächentemperaturen
Vegetationsindex
Topographie
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM
Hangrutschungen digitale Geländemodelle
Bodenfeuchte
Niederschlag
Zustandsveränderungen
SPOT
Landsat TM
ERS-1/-2
Massenschädlinge digitale Geländemodelle
Vegetationszustände
Bodentemperatur
Klimafaktoren
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM

Weitere Informationen:

Katastrophenmonitoring

Das Monitoring (Überwachung) von katastrophenträchtigen Regionen bzw. Erscheinungen, z.B. von Vulkanen mit ihren präeruptiven Äußerungen (vulkanische Erdbeben, Aufbeulung der Erdkruste, verstärkte Gasemissionen, Aufheizung u.a.). Für Vulkane, die nicht mit konventionellen Methoden überwacht werden, erlaubt die Fernerkundung durch Satelliten nicht nur komplementäre Beobachtungen, sondern bietet auch neue Methoden, z.B. die Veränderung von Krustendeformationen über das synthetische Apertur-Radar. Daneben betrifft die satellitengestützte Vulkanüberwachung vor allem den Nachweis von Eruptionen, Überwachung thermischer Veränderungen sowie Überwachung der Eruptionssäulen. Gleichfalls zum Objekt des Katastrophenmonitorings gehören technologische Gefahren und Katastrophen (Dammbrüche, Terrorattacken).

Die wichtigsten Faktoren, die den Nutzen der Fernerkundungsdaten im Bereich von natürlichen und technologischen Gefahren bestimmen sind Massstab, räumliche, spektrale und zeitliche Auflösung, ferner Flächenabdeckung, radiometrische Eigenschaften, Datenkosten und -verfügbarkeit. Gerade in diesem Aufgabenfeld steigert sich die Bedeutung und der Wert der Fernerkundungsdaten durch sachkundige Interpretation in Verbindung von herkömmlichen Karten und bodengestützten Daten. Eine Extraktion der Informationen und deren Integration in ein GIS kann für die humanitäre Hilfe von großer Bedeutung sein.

Die Bedeutung von Sensoren im sichtbaren Teil des Spektrums ist wegen der häufigen Wolkenbedeckung von Vulkanen eingeschränkt. Radarsatelliten erlauben Datengewinnung bei jedem Wetter, können aber keine thermische Strahlung aufnehmen. Multispektrale Sensoren mit hoher räumlicher Auflösung eignen sich weniger gut zu einer häufigen Überwachung von Vulkanen als Sensoren mit geringer Auflösung.

Der Vulkan Piton de la Fournaise auf Réunion Der Vulkan Piton de la Fournaise auf Réunion (21,2°S, 55,7°E)

Bildfolge von thermischen Anomalien, aufgenommen mit dem Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord von Terra. Die roten Punkte mit den grünen Ringen belegen die Eruptionen im Januar 2002.

Quelle: NASA Earth Observatory

Auch ENSO-begleitende Katastrophen (z.B. Waldbrände, Hochwasser, Dürren, Stürme) sind wie das Ozean/Klima-Phänomen selbst Gegenstand intensiven FE-Monitorings. Weitere Einsatzmöglichkeiten der Fernerkundung im Katastrophenmonitoring ergeben sich aus der Tabelle beim Stichwort Katastrophenmanagement.

Bis in die jüngere Vergangenheit hinein wurde bei Katastrophen mit Satellitenfernerkundung allerdings eher experimentell in der Nachsorge reagiert. Erst vor kurzer Zeit sind Weltraumagenturen wie NASA und ESA, koordiniert durch das globale Komitee der erdbeobachtenden Weltraumagenturen CEOS, sowie kommerzielle Datenanbieter dabei, sich stärker auf die Bedürfnisse von Anwendern in Hilfsorganisationen oder Versicherungen einzustellen. Sie entwickeln Hilfen für die Risiko- und Vulnerabilitätskartierung und Strukturen für raschere Informationsdienste. Anfang 2013 nahm das am DLR angesiedelte Zentrum für Satellitengestützte Kriseninformation (ZKI) seine Arbeit auf. Seine Aufgabe ist die Bereitstellung eines 24/7 Service für die schnelle Beschaffung, Aufbereitung und Analyse von Satellitendaten bei Natur- und Umweltkatastrophen, für humanitäre Hilfsaktivitäten und für die zivile Sicherheit weltweit. Die Produkte werden nach den spezifischen Bedürfnissen für nationale und internationale politische Entscheidungsträger, Lagezentren sowie Hilfsorganisationen erstellt und auch der Öffentlichkeit frei zugänglich gemacht. Das ZKI operiert dabei im nationalen und internationalen Kontext und ist eng mit verschiedenen behördlichen Partnern, Nicht-Regierungsorganisationen sowie Satellitenbetreibern und Weltraumorganisationen vernetzt.

Bei Naturkatastrophen kann die Detektion ihrer kurzfristigen, abrupten und zeitkritischen Veränderungen auch auf Grundlage einer Kombination von optischen und SAR-Daten durchgeführt werden. Aus den Anwendungen ergeben sich verschiedene Kombinationsmöglichkeiten, die jeweils eigene Fusions- und Auswertemethoden verlangen.

Im Katastrophenfall müssen so schnell wie möglich Bilder der betroffenen Regionen aufgenommen und ausgewertet werden. Das aktive und wetterunabhängige SAR spielt daher eine große Rolle bei der raschen Datenerfassung im Zuge solcher Ereignisse. Moderne SAR-Satelliten wie TerraSAR-X oder Cosmo-SkyMed können in verschiedenen Modi betrieben werden, welche man im konkreten Fall unter Abwägung des gewünschten Detailgrades der Abbildung sowie der Größe des aufzunehmenden Gebiets auswählen kann. Geht es um ein relativ kleines Gebiet mit urbanen Strukturen und ist ein hochauflösender luftgestützter SAR-Sensor verfügbar, so können flexibel Aufnahmen aus beliebigen Richtungen gemacht werden. Handelt es sich allerdings um sehr große Flächen, für die innerhalb einer kurzen Zeitspanne nur sehr wenig hochauflösende Aufnahmen vorhanden sein werden, wird man gegebenenfalls einen verringerten Detailgrad zugunsten einer möglichst vollständigen Abdeckung in Kauf nehmen. In diesem Zusammenhang ist auch zu beachten, dass bei solch zeitkritischen Anwendungen meist nur Satellitendaten in Frage kommen. Luftgestützte Daten lassen sich zwar mit besserer Auflösung und sehr viel flexibler aufnehmen. Allerdings gibt es weltweit nur wenige operationelle luftgestützte Sensoren, deren Verlegung ins Krisengebiet noch dazu oft zu lange dauert. Mit der zunehmenden Verfügbarkeit von zivilen, leistungsfähigen Drohnen wird sich diese Situation in Zukunft jedoch ändern und es werden schneller und flexibler luftgestützte SAR-Daten (ergänzend zu Satellitenaufnahmen) gemacht werden können.

Auch bezüglich der Fusion mit optischen Daten gibt es mehrere Möglichkeiten im Katastrophenfall. Oft liegen für die betroffene Region bereits optische Bilder vor, die vor dem Ereignis aufgenommen worden sind. Direkt während oder nach einer Katastrophe stehen aufgrund von Wolkenbedeckung oder mangelndem Tageslicht indes häufig keine optischen Satellitenbilder hoher Qualität zur Verfügung. In solchen Fällen greift man auf aktuelle SAR-Daten zurück, die man mit älteren optischen Bildern vergleicht und daraus eine Schadenskarte anfertigt, welche den örtlichen Behörden und Hilfskräften als Grundlage für die Planung von Einsätzen dient. Stehen sowohl optische als auch SAR-Daten gleichzeitig nach einer Katastrophe zur Verfügung, können beide Aufnahmen kombiniert werden, um z.B. Gebäudehöhen zu schätzen.

Zur Detektion von Veränderungen bei zeitkritischen Anwendungen werden vor allem mittel- und großmaßstäbige Daten ausgewertet, da der Detailgrad geringer aufgelöster Bilder nicht zur Erkennung von Objekten wie Gebäuden oder Straßen ausreicht. In Abhängigkeit von der Auflösung und den interessierenden Objekten wird für die automatische Analyse von Veränderungen entweder eine pixel-basierte, eine objektbasierte oder eine Kombination aus beiden Herangehensweisen gewählt. Generell gilt, je größer der Maßstab (d. h. je höher die geometrische Auflösung) der zu kombinierenden optischen und SAR-Daten ist, desto mehr kann und muss objektbasiert mit Modellwissen gearbeitet werden. Dies spielt insbesondere bei 3D-Objekten wie Gebäuden eine Rolle, da sich die verschiedenen Abbildungseigenschaften dort deutlich ausprägen. (Sörgel u.a. 2017)

Weitere Informationen:

Katastrophenvorsorge

Im Kontext der nachhaltigen Entwicklung umfasst Katastrophenvorsorge alle Elemente, die darauf ausgerichtet sind, Katastrophenanfälligkeit und Katastrophenrisiken in einer Gesellschaft zu minimieren, die negativen Effekte eines Schadensereignisses zu vermeiden (durch Prävention) oder zu begrenzen (durch Vorsorge, Schadenminderung und Notfallplanung).

Katastrophenvorsorge besteht aus:

Weitere Informationen:

Kayser-Threde

Ehemals ein Systemhaus, das sich auf Entwicklung und Implementierung von High-Tech-Lösungen für Luft- und Raumfahrt, Wissenschaft und Industrie spezialisiert hatte. Das 1967 gegründete Unternehmen beschäftigte knapp 300 Mitarbeiter und erwirtschaftete 2010 eine Betriebsleistung von 51,3 Mio. Euro. Seit Mitte 2007 gehört Kayser-Threde zur OHB AG in Bremen. Am 1. September 2014 haben die Unternehmen OHB System AG und Erwin Kayser-Threde GmbH fusioniert und firmieren ab sofort unter dem Namen OHB System AG.

Mit unterschiedlichen Kompetenzschwerpunkten kooperierten die bisherigen Schwesterfirmen schon vorher in Großprojekten wie den europäischen Wettersatelliten MTG (Meteosat Third Generation) und der hyperspektralen Erdbeobachtungsmission EnMAP.

Kazakhstan Earth Observation Satellite–1 (KazEOSat-1)

Der Kazakhstan Earth Observation Satellite-1 (KazEOSat-1) ist ein hochauflösender Multispektralsatellit, der 2014 mit einer Vega-Trägerrakete vom Raumfahrtzentrum Guayana, Französisch-Guayana, zur Erdbeobachtung gestartet wurde. KazEOSat-1 ist Teil eines Zwei-Satelliten-Erdbeobachtungssystems. Die Nationale Raumfahrtbehörde Kasachstans, Kazcosmos, beauftragte die Joint Stock Company Aktiengesellschaft National Company Kazakhstan Gharysh Sapary mit der Entwicklung des Satellitensystems. KazEOSat-1 wurde von Airbus Defence and Space gebaut und nutzt den AstroSat-250-Bus mit SPOT-6- und SPOT-7-Erbe. KazEOSat-1 trägt den Sensor New AstroSat Optical Modular Instrument (NAOMI) für hochauflösende Landaufnahmen.

KazEOSat-1 bietet eine ganze Reihe von zivilen Anwendungen in Kasachstan, wie z.B. die Überwachung natürlicher und landwirtschaftlicher Ressourcen, die Erfassung von Kartierungsdaten und die Unterstützung von Rettungseinsätzen im Falle von Naturkatastrophen.

Weitere Informationen:

Kazakhstan Earth Observation Satellite–2 (KazEOSat-2)

Der Kazakhstan Earth Observation Satellite-2 (KazEOSat-2) ist ein multispektraler Satellit mit mittlerer Auflösung, der 2014 mit einer Dnepr-1-Trägerrakete vom Kosmodrom Yasny in der russischen Region Dombarovsky zur Erdbeobachtung gestartet wurde. KazEOSat-2 ist Teil eines Zwei-Satelliten-Erdbeobachtungssystems. Die Nationale Raumfahrtbehörde Kasachstans, Kazcosmos, beauftragte die Joint Stock Company National Company Kazakhstan Gharysh Sapary mit der Entwicklung des Satellitensystems. KazEOSat-2 wurde von Surrey Satellite Technology Ltd. (SSTL) gebaut und nutzt den SSTL-159-Bus mit Bejing-1- und RapidEye-Erbe. KazEOSat-2 trägt das Kazakh Earth Imaging System (KEIS) für Landaufnahmen mit mittlerer Auflösung.

Weitere Informationen:

Kepler (Weltraumteleskop)

Weltraumteleskop der NASA, das im März 2009 gestartet wurde, um nach extrasolaren Planeten zu suchen. Benannt war das Projekt nach dem deutschen Astronomen Johannes Kepler, der als erster die Gesetzmäßigkeiten der Planetenumlaufbahnen erkannte.

Am 15. August 2013 gab die NASA die Hauptmission auf, nachdem bereits im Mai zwei defekte Reaktionsräder eine präzise Ausrichtung unmöglich machten. Im Mai 2014 wurde bekanntgegeben, dass Kepler mit einer modifizierten Mission (K2 genannt) weiterhin nach Exoplaneten suchen wird. Die wissenschaftlichen Beobachtungen wurden dann am 30. Oktober 2018 aufgrund von Mangel an Treibstoff beendet. Diesen benötigte Kepler, um seine Position zu korrigieren und seine Antenne zum Übermitteln von Daten zur Erde auszurichten. Astronomen hatten daher die letzten Monate dazu genutzt, alle laufenden Projekte abzuschließen und alle Daten vom Teleskop herunterzuladen.

Kepler - Eine völlig neuer Blick auf unsere sternenklare Nacht

Kepler Teleskop

Quelle: NASA

Das Teleskop beobachtete einen festen Ausschnitt des Sternenhimmels mit ca. 190.000 Sternen im Sternbild Schwan, um extrasolare Planeten zu entdecken. Besondere Zielsetzung des Projekts war, vergleichsweise kleine Planeten (wie unsere Erde oder kleiner) und damit auch potenziell bewohnbare („habitable“) extrasolare Planeten zu entdecken. Gleichzeitig lieferte es Basisdaten zu anderen veränderlichen Sternen, um daraus Rückschlüsse über die im Inneren ablaufenden Prozesse ziehen zu können. Die Mission von Kepler war ursprünglich für dreieinhalb Jahre vorgesehen.

Kepler befand sich in einem Sonnenorbit, dessen Umlaufzeit (372,5 Tage) und Exzentrizität etwas von dem der Erde abwich. Die Sonde lief dabei der Erde hinterher und entfernte sich im Laufe der Jahre immer weiter von dieser. So war es möglich, die Beobachtungsregion ohne periodische Verdeckung durch die Erde und mit minimalen Störeinflüssen zu überwachen.

Kepler hat auf seiner Mission 3548 Planetenkandidaten und 135 nachgewiesene Planeten aufgespürt, davon 5 in der habitablen Zone.

Das Teleskop bleibt in einem sicheren "Friedhofsorbit" um die Sonne. Zurzeit ist Kepler rund 150 Millionen Kilometer von der Erde entfernt und kreist parallel zur Erdbahn auf einer etwas weiter von der Sonne entfernten, langsameren Umlaufbahn. Im Laufe der nächsten Jahrzehnte wird das Teleskop dadurch immer weiter hinter die Erde zurückfallen, bis diese das Teleskop um das Jahr 2060 fast wieder eingeholt hat.

Durch die Schwerkraftwirkung der Erde wird Kepler bei dieser Begegnung ausgelenkt und in eine nun der Sonne nähere, innere Umlaufbahn gezogen. Dadurch bewegt sich das Weltraumteleskop nun schneller als die Erde und holt sie seinerseits im Laufe einiger Jahrzehnte wieder ein. Erneut kommt es zu einem schwerkraftbedingten Bahnwechsel, diesmal wieder auf die Außenbahn. Dieses Muster wird sich in der Zukunft immer wieder wiederholen.

Die Auswertung der von Kepler gelieferten Daten wird noch Jahre in Anspruch nehmen. Ein Nachfolger für Kepler, der Forschungssatellit TESS, wurde im April 2018 ins All geschossen. Wie "Kepler" beobachtet das Teleskop das Licht von Sternen. Wenn es kurz dunkler wird, könnte das bedeuten, dass ein Planet vorbeigezogen ist. "Tess" könnte sowohl kleine steinige Planeten als auch riesige Himmelskörper finden - und soll insgesamt ein deutlich größeres Gebiet abdecken als "Kepler".

Weitere Informationen:

Kepler'sche Bahnelemente

Engl. Keplerian orbit elements; die Umlaufbahnen von Fernerkundungssatelliten sind immer elliptisch und folgen den Kepler'schen Gesetzen. Eine elliptische Umlaufbahn wird durch sechs unabhängige Parameter beschrieben, die man als Kepler'sche Bahnelemente bezeichnet:

Satellitenbahnelemente (Satelliten-) Bahnelemente

Die Satellitenbahnelemente legen die Parameter für die Umlaufbahnen von Objekten fest, die einen Himmelskörper gemäß den keplerschen Gesetzen umkreisen.

Quelle: Wikipedia

Kepler'sche Gesetze

Grundlegende, 1609 und 1619 von Johannes Kepler veröffentlichte Gesetze zur Beschreibung der Planetenbahnen bei ihrer Bewegung um die Sonne. Sie gelten jedoch ebenso für die Bahnen künstlicher Satelliten und anderer Raumflugkörper.

Erstes Keplersches Gesetz: Die Planeten bewegen in einer Ebene. Die Bahnen um die Sonne sind Ellipsen, wobei sich die Sonne in einem Brennpunkt befindet. (1601)

Zweites Keplersches Gesetz: Die Verbindungsgerade Sonne-Planet überstreicht in gleichen Zeiten gleiche Flächen. (1605)

Kepler-Ellipse zur Beschreibung der Umlaufbahn eines Planeten Kepler-Ellipse zur Beschreibung der Umlaufbahn eines Planeten

Nach den Keplerschen Gesetzen ist die Bahn eines als Massenpunkt aufgefassten Planeten eine Ellipse, in deren einem Brennpunkt die Sonne steht. Dabei überstreicht der von der Sonne nach dem Planeten gezogene Radiusvektor in gleichen Zeiten gleiche Flächen.
Die Bahngeschwindigkeit der Erde ist ihrem Abstand von der Sonne umgekehrt proportional. Je näher die Erde der Sonne kommt, desto schneller bewegt sie sich.

Quelle: Messerschmidt, E. und Fasoulas, S. (2005)

Drittes Keplersches Gesetz: Zwischen der Umlaufzeit T und der großen Halbachse r besteht bei allen Planeten die gleiche mathematische Beziehung: r3/T2 = konstant. (1618)

Kepler gelangte als Assistent des dänischen Astronomen Tycho Brahe an dessen umfangreiche und für die damalige Zeit besonders präzisen Aufzeichnungen der Planetenbewegungen. Schwerpunkt war dabei der Mars. Dessen Bahn hat von allen damals beobachtbaren Planeten die größte Exzentrizität (Brennpunktsabstand/große Ellipsenachse). Nur dadurch waren die Abweichungen von der Kreisbahn mit den damaligen Mitteln nachweisbar. Aus diesen Beobachtungen leitete Kepler seine Gesetze ab. Diese Gesetze sind bis heute die Grundlage der Himmelsmechanik.

Die theoretische Begründung für die Keplerschen Gesetze lieferte rund 50 Jahre später Isaac Newton (1643 – 1727) mit seinem Gravitationsgesetz. Danach hängt die Anziehungskraft zwischen zwei Himmelskörpern (aber auch zwischen beliebigen Körpern) von deren Massen ab und verringert sich mit dem Quadrat des Abstandes.

Johannes Kepler Johannes Kepler (1571-1630)

Kepler war einer der wenigen, der sich zu Gunsten von Galileos Entdeckungen und
des Kopernikanischen Weltbildes aussprach.

Quelle: NASA GSFC

Die von Kepler für die Planetenbewegung um die Sonne empirisch gefundenen Gesetze lauten, übertragen auf die Bewegung eines Satelliten um die Erde:

  1. Satellitenbahnen sind Ellipsen, in deren einem Zentrum die Erde (genauer: das Geozentrum) steht.
  2. Der Radiusvektor Radiusvektor vom Geozentrum zum Satelliten überstreicht in gleichen Zeiten gleiche Flächen.
  3. Die Quadrate der Umlaufzeiten zweier Satelliten verhalten sich wie die dritten Potenzen der Bahnhalbachsen.

Keyhole (KH)

Engl. für Guckloch, Schlüsselloch; Bezeichnung für eine Serie von US-amerikanischen optischen Spionagesatelliten. Insgesamt wurden mindestens 287 Satelliten der KH-Serie gestartet.

Die ersten Satelliten (die Typen KH-1 bis KH-4B) wurden auch Corona genannt. KH-1 startete 1959. Die Kameras dieser Satelliten hatten Auflösungen von anfangs 7,5 m, später bis zu 1,5 m. Ihr Orbit hatte nach dem Start ein Apogäum von ca. 460 km und ein Perigäum von ca. 165 km. Insgesamt wurden von 1959 bis 1972 145 Corona-Satelliten mit verschiedenen Varianten der Thor-Agena-Rakete gestartet, von denen 102 Exemplare brauchbare Bilder lieferten.

Gut das erste Dutzend der Corona-Satelliten und ihre Startvorgänge wurden zur bewussten Fehlinformation einem Raumfahrttechnologieprogramm mit dem Namen Discoverer zugerechnet.

Der Inhalt der folgenden Grafik ist wahrscheinlich nicht offiziell bestätigt.

Liste der von den USA gestarteten Spionagesatelliten
von 1960 bis 2014 Liste der von den USA gestarteten Spionagesatelliten von 1960 bis 2014 Quelle: Wikipedia

Die Bilder von KH-1 bis KH-9 wurden auf herkömmlichem Film aufgenommen. KH-4 nahm ab 1962 als erster Satellit auch stereoskopische Bilder auf. Zielgebiet der Satelliten waren hauptsächlich die UdSSR und die Volksrepublik China. Spätestens ab 1967 wurde der Nahe Osten wiederholt beobachtet, wobei z. B. Aufnahmen vor und nach dem Sechstagekrieg verglichen wurden. Weil die Übermittlung von Bildern über Funk noch nicht so weit fortgeschritten und noch nicht ausreichend abhörsicher war, wurden die Filme mit Wiedereintrittskapseln zurück zur Erde gebracht. Später wurden die Bilder an Bord der Satelliten entwickelt und mit einer Fernsehkamera abgetastet, die Daten danach auf Magnetband aufgezeichnet und per Funk übertragen.

Der Typ KH-4B wies 2 Panorama-Kameras mit Öffnung 1:3,5 und 24 Zoll (61 cm) Brennweite und eine Index-Kamera (für die Übersicht) auf. Während 19 Tagen Missionsdauer wurden bis zu 9.600 m 70-mm-Film (fast immer schwarzweiß) belichtet und in die Kassetten von 2 Rückkehr-Kapseln gespult. Nach Abtrennen einer Kapsel wurde zuerst deren Rotation und dann die Fluggeschwindigkeit mit einem Raketenmotor abgebremst. Beim Wiedereintritt in die Atmosphäre bremste zuerst die Schockwelle, dann – unter Abtrennung des Hitzeschilds – ein kleiner Bremsschirm, zuletzt ein Hauptfallschirm, der sich erst in 15.000 m Höhe ganz öffnete, bevor Schirm und Kapsel in der Luft von einem Flugzeug mit einer Art Hakensystem aufgefangen wurden.

In dem 1976 erstmals gestarteten KH-11 wurde bereits das Bild pixelweise mit Halbleitersensoren erfasst. Die Bilder konnten dann gespeichert und entweder unmittelbar oder über Relaissatelliten per Funk an die Auswertezentren übertragen werden. Die Satelliten ähnelten dem Hubble-Weltraumteleskop mit einem 2,3-m-Spiegel, die Auflösung betrug ca. 15 cm. Die USA hatten fast ständig zwei KH-11 operationell im Orbit.

Von 1992 bis ca. 2008 wurden vermutlich sechs Exemplare des Nachfolgesatelliten KH-12 ins All gebracht. Er hat einen Durchmesser von 4,5 m und eine Länge von 15 m. Die großen Abmessungen liegen teilweise an der Integration eines Antriebs, der dem KH-12 sowohl eine längere Operationszeit im Orbit als auch eine Manövrierfähigkeit ermöglicht. Damit kann er zur Erfassung größerer Suchbereiche in eine Kipplage gebracht werden oder auch Ausweichmanöver vor Angreifern durchführen. Vollbetankt wiegt der Satellit bis zu 18 Tonnen, wobei er ca. 5,3 Tonnen Treibstoff mitführt.

Die optischen Sensoren des KH-12 sollen einen zum IR hin erweiterten spektralen Empfindlichkeitsbereich erhalten haben und auch andere Sensoren (z.B. zur Funkaufklärung) sollen integriert worden sein. Damit ist vermutlich eine gute Nachtsichtfähigkeit erreicht worden. Mit dem größeren Spiegel von mindestens 3 m Durchmesser hat man wahrscheinlich aus einer Umlaufbahn zwischen 200 und 400 km Höhe eine Bildschärfe erreicht, die mit einer Bodenauflösung von 10 bis 15 cm an die Qualität der besten Filmaufnahmen mit Rückkehrkapseln heranreicht. KH-13 (alt. Misty) ist möglicherweise der Nachfolger von KH-12.

Die Nomenklatur insbesondere der neueren Keyhole-Satelliten ist teilweise verwirrend und nicht bestätigt. Oft werden auch alternative (Zusatz-)Bezeichnungen vergeben, z.B. "KH-11 KENNEN", "CRYSTAL", "Evolved Enhanced CRYSTAL (EEC)", "1010" und "Key Hole".

Weitere Informationen:

KhalifaSat

Vormals als DubaiSat 3 bezeichneter Erdbeobachtungssatellit, der vom Mohammed bin Rashid Space Centre (MBRSC) entwickelt wurde und als bislang dritter Satellit der Vereinigten Arabischen Emirate (VAE) ins All gelangte. Nach anfänglichen Entwicklungsarbeiten in den Anlagen des südkoreanischen Partnerunternehmens (Satrec Initiative), gilt KhalifaSat als erster, von einem Team der VAE in der Endmontage vor Ort gebaute Satellit. Der Start erfolgte 2018 mit einer H-IIA-Trägerrakete vom Tanegashima Space Center (zusammen mit GOSAT 2 und einigen weiteren kleineren Satelliten).

Der Satellit wird verschiedene Regierungsaufgaben der VAE unterstützen (u.a. Stadtplanung, Schiffsverfolgung, Kartographie) und auch im Privatsektor seine Datenprodukte vermarkten. Das MBRSC soll auch dazu beitragen, die Karrieremöglichkeiten für junge Emiratis zu erweitern und ein Vermächtnis für die Satellitenindustrie in den VAE zu schaffen.

Die Hauptnutzlast auf dem Satelliten ist das KhalifaSat-Kamerasystem (KHCS) für hochauflösende Bilder, das kompakt und leicht ist. Es umfasst drei Hauptteilsysteme: das elektro-optische Teilsystem (EOS), die Bildübertragungseinheit (ITU) und den Festkörperrekorder (SSR). Das System besitzt eine Auflösung von 75 cm panchromatisch und 3 m multispektral (Rot, Grün, Blau und NIR) sowie eine Schwadbreite von 12 km und eine Aufnahmelänge von 1500 km. Die Übertragung der Bilder zur Erde erfolgt im X-Band mit 320 MBit/s.

Das Kamerasystem umfasst auch ein 40 cm Korsch-Teleskop mit einer Drei-Spiegel-Konfiguration, die ein möglichst großes Sichtfeld bietet und optische Unregelmäßigkeiten reduziert.

Weitere Informationen:

KI und Fernerkundung

Allgemeines

Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik. Sie erforscht Mechanismen, die intelligentes menschliches Verhalten simulieren können. Das beinhaltet zum Beispiel, eigenständig Schlussfolgerungen zu ziehen, angemessen auf Situationen zu reagieren oder aus Erfahrungen zu lernen.

Sehr abstrakt ordnen sich KI-Forscher zwei Richtungen zu: der „schwachen“ und der „starken“ KI. Die „starke“ KI formuliert, dass KI-Systeme die gleichen intellektuellen Fertigkeiten wie der Mensch haben oder ihn darin sogar übertreffen können. Die „schwache“ KI ist fokussiert auf die Lösung konkreter Anwendungsprobleme auf Basis der Methoden aus der Mathematik und Informatik, wobei die entwickelten Systeme zur Selbstoptimierung fähig sind. Dazu werden auch Aspekte menschlicher Intelligenz nachgebildet und formal beschrieben bzw. Systeme zur Simulation und Unterstützung menschlichen Denkens konstruiert.

Mit Hilfe der KI wollen Forscher und Anwender mehr und mehr dazu kommen, Wissen über die sich wandelnde Erde aus dem reichhaltigen Schatz verfügbarer Erdbeobachtungsdaten herauszufiltern. Die bei der Fernerkundung anfallenden Datenmengen sind mittlerweile so enorm, dass die benötigten Informationen in Zukunft nur noch mit KI-Verfahren gewonnen werden können.

Einsatz in der Fernerkundung

Erdbeobachtungssatelliten und zunehmend auch Forschungsdrohnen sammeln große Mengen von Umweltdaten. Allein die Europäische Raumfahrtagentur (ESA) produziert beispielsweise mit den Sentinel-Satelliten täglich Datenmengen in der Größenordnung von mehreren Millionen hochauflösenden Bildern. Diese stehen Open Access zur Verfügung und werden für verschiedenste Zwecke ausgewertet. Aber nicht nur bestimmte Phänomene können erfasst, sondern auch neue Erkenntnisse und bisher unbekannte Zusammenhänge sollen in den Daten erkannt werden. So kann die Beobachtung eines Gebiets über einen längeren Zeitraum bestimmte Veränderungen sichtbar machen, die mit politischen Entscheidungen zusammenhängen oder zu solchen führen.

Maschinelles Lernen als Teilgebiet der KI wird immer häufiger zur automatischen Auswertung der Fülle von Daten aus der Fernerkundung eingesetzt, um komplexe Umweltsysteme besser zu verstehen und zu managen. Die in Wissen überführten Daten aus dem All sollen Entscheidungsträgerinnen und Entscheidungsträgern am Boden beispielsweise helfen, nachhaltige und lebenswerte Städte zu gestalten. Auch kann KI-Einsatz z. B. Wettervorhersagen und Klimamodellierungen verbessern, um damit beispielsweise bessere Vorhersagen für Überflutungen oder Dürren zu treffen.

Wasserressourcen können überwacht werden, die Messung von Meeres- und Luftverschmutzung oder das Notfallmanagement bei Naturkatastrophen kann optimiert werden. Ein weites Feld mit verstärktem Einsatzpotential ist die Präzisionslandwirtschaft. KI findet auch in der Forstwirtschaft Anwendung, z.B. bei der drohnenbasierten Überwachung von Schädlingsbefall oder bei Ernte, Logistik oder illegalem Holzeinschlag oder der Vorhersage und frühzeitigen Eindämmung von Waldbränden.

In Deutschland befasst sich beispielsweise das Zukunftslabor „AI4EO“ – geleitet von der TUM in Zusammenarbeit mit dem DLR – mit der Entwicklung von KI-Technologien für die Erdbeobachtung. So sollen etwa Satelliten-Daten mithilfe von intelligenter Big-Data-Analyse die globale Urbanisierung, die Ernährung der Weltbevölkerung oder das Management von Naturgefahren modellieren.

Offene Fragen

Neben vielen Vorteilen, bringen KI-Anwendungen aber auch technische sowie ethische und rechtliche Herausforderungen mit sich. Mit dem verstärkten Einsatz von KI sind grundsätzliche Fragen, wie die Verlässlichkeit und Genauigkeit von Aussagen aus KI-Systemen verbunden.

Technisch wird ein weit verbreiteter Einsatz von KI durch die Datenzugänglichkeit und den Aufbau und die Validierung der Trainingsdaten limitiert. Außerdem bringt das Algorithmendesign Unsicherheiten durch Fehler und Bias mit sich, was zu rechtlichen und ethischen Problemen führen kann. Bei komplexen Algorithmen in der Umweltfernerkundung stellt sich insbesondere im öffentlichen Sektor die Frage der Nachvollziehbarkeit und Transparenz von getroffenen Entscheidungen. Auch Verantwortungs- und Haftungsfragen sind bislang ungeklärt.

Wenn Informationen öffentlich zugänglich sind, könnten sie zum Beispiel dabei helfen, Städte nachhaltiger und lebenswerter zu gestalten oder Slums besser zu managen. Hier ist es wichtig, den Nutzen öffentlicher Daten gegen einen möglichen Missbrauch abzuwägen. Auch der Schutz der privaten Informationen ist wegen der immer höheren Auflösung der Bilder ein wichtiges Thema.  

Zwar bezieht sich die europäische Datenschutzgrundverordnung auf die Verwendung personenbezogener Daten, dies geschieht allerdings sehr allgemein. Es muss rechtliche eindeutig geklärt werden, wie mit den hochauflösenden Daten der Fernerkundung umzugehen ist. Die zwei Trends von zunehmender Verfügbarkeit von Satellitenbildern mit sehr hoher räumlicher und zeitlicher Auflösung und die Auslagerung der rechenintensiven Bildanalyse haben in Verbindung mit den in naher Zukunft absehbaren Verbesserungen der Gesichtserkennungstechnologie und anderer Bilderkennungssoftware das Potenzial für die Identifizierung von Personen und bergen damit Auswirkungen auf Privatsphäre, Datenschutz und ethische Risiken. Im Vordergrund stehen auch ungeklärte Verantwortungs-, Haftungs- und Abhängigkeitsfragen.

Weitere Informationen:

Kirchhoffsches (Strahlungs-)Gesetz

Engl. Kirchhoff's law; es beschreibt den Zusammenhang zwischen Absorption und Emission eines realen Körpers im thermischen Gleichgewicht. Für alle Körper ist bei gegebener Temperatur das Verhältnis zwischen Emission und Absorption für Strahlung derselben Wellenlänge konstant und vom Betrag gleich der spezifischen Ausstrahlung des schwarzen Körpers bei dieser Temperatur.

Klassifikation

Syn. Klassifizierung; engl. object classification, franz. classification; Zuordnung von Daten zu Klassen mit bestimmten einheitlichen Eigenschaften, bei der Fernerkundung die Zuordnung von Bildpunkten in bestimmte Kategorien oder Klassen, um eine thematische Wiedergabe zu erzielen. Oft ist die Klassifikation eine Verbindung aus Aggregation (Zusammenfassung) und Generalisierung (Vereinfachung) von Primärdaten. Bei Fernerkundungsdaten ist diese Kombination der Regelfall. Im ersten Schritt (Aggregation) fassen Bildauswerter oder ein Computersystem die mit einem spektralen Aufnahmesystem gemessenen Reflexionsgrade von beispielsweise verschiedenen Gattungen von Laubbäumen zusammen und bilden daraus den Cluster 'Laubwald'. Im zweiten Schritt (Generalisierung) werden die originalen Daten (Primärdaten) anhand dieser Cluster automatisch vereinfacht. Dabei werden Straßen, Bäche oder Eisenbahngleise mit Laubbäumen an beiden Seiten je nach Vereinfachungsmethode ggf. zu Laubwald.

Grundannahmen der Klassifikation

(nach Albertz 1991)

Die Grundannahme aller Klassifikationsverfahren ist, dass in einem Merkmalsraum, in dem die Eingangsdaten (Intensitäten, Texturmerkmalsbilder, Streumerkmalsbilder uvm.) die Koordinatenachsen bilden, verschiedene Objekte trennbare Punkthaufen aufzeigen. Im Idealfall lassen sich zwischen diesen Anhäufungen eindeutige Grenzen ziehen und somit jedem Pixel oder Objekt automatisch eine Klasse zuordnen.
Die Zuordnung der Punkthaufen zu den jeweiligen Objektklassen kann über die Klassifikationsverfahren der „unüberwachten Klassifikation“, „überwachten Klassifikation“ oder „Schwellwertanalyse“ erfolgen.

Quelle: LFULG

Weitere Informationen:

Klassifikationstechniken

Der Vergleich der konkreten Ausprägungen der spektralen Meßwerte aller Pixel mit den individuellen spektralen Signaturen der thematisch definierten Klassen gilt als eigentlicher Klassifikationsschritt. Jedes Pixel wird hinsichtlich der Ähnlichkeit mit allen Signaturen überprüft und entsprechend einer der Kategorien zugeordnet. Dabei ist zwischen einer Anzahl von spezifischen Klassifikationstechniken zu unterscheiden.
Zu ihnen zählen:

Klassifikator

Ein Algorithmus oder Programm, mit dessen Hilfe ein Merkmalstupel (Element eines Merkmalsraums) einer Klasse zugeordnet werden kann. Bei einem überwachten Klassifikationsprozesses erfolgt folgender typische Ablauf:

klassifizierte Bilder

Engl. classified images, interpretierte Bilder mit ausgewählter Information, wie z.B. Vegetationstypen.

Klassifizierung

Syn. Klassifikation, engl. classification, franz. classification; eine Methode der Bildverarbeitung, die dazu dient, in Rasterbildern mit Hilfe von Algorithmen Muster, d.h. Flächen mit gleichen Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässern etc. in Satellitenbildern. Um Rasterbilder klassifizieren zu können, müssen die Sensoren der Satelliten in der Lage sein, verschiedene spektrale Signaturen zu unterscheiden, und - abhängig von der Klassifizierungsart - müssen Trainingsgebiete definiert werden.

Das allgemeine Ziel der Fernerkundung ist, aus Fernerkundungsdaten Informationen zur Lösung von Fragestellungen aus z.B. den Bereichen Ökologie, Stadt- oder Umweltplanung abzuleiten. Dies geschieht primär mit Hilfe der Bildauswertung oder Bildanalyse, zu der die klassischen, analogen Verfahren der Photogrammetrie und der Photointerpretation gehören. Die visuelle Bildinterpretation identifiziert räumliche Objekte aufgrund von Farbe, Helligkeit, Textur, Muster, Form, Größe, Lage oder Schatten. Hierbei gehen vor allem Erfahrungswerte des Interpreten ein.

Die digitale Bildauswertung bietet im Anschluss an die digitale Bildaufbereitung und Bildverbesserung ebenfalls die klassischen Interpretationsmöglichkeiten. Dazu werden die Farbkomposite ausgedruckt oder am Monitor interpretiert. Darüber hinaus bestehen Verfahren, die die digitalen Bilder mit Hilfe numerischer oder statistischer Verfahren auswerten. Dabei ist vor allem die rechnergestützte Klassifikation von Bedeutung, d.h. das Erkennen von Objekten oder Eigenschaften wie z.B. Landbedeckungstypen durch Auswertung mehrerer Kanäle. (de Lange 2013)

In der Fernerkundung werden zur Klassifizierung meist mehrere Farbkanäle gleichzeitig verwendet. Beispielsweise sind die Kanäle Rot, Grün, Blau und nahes Infrarot eine mögliche Kombination zur Detektion von Vegetation.

Pixel-basierte Klassifizierung

Mittels Klassifizierung werden einzelne Pixel eines digitalen Bildes einer bestimmten Klasse gemäß einer Klassenbeschreibung zugeordnet, beispielsweise aufgrund spektraler Signaturen, d.h. aufgrund der unterschiedlichen Reflexionseigenschaften von Objekten.

Jede Klasse ist also durch spezifische Merkmale charakterisiert und dadurch von anderen Klassen unterschieden. Jedes Bildelement wird auf alle Merkmale aller Klassenbeschreibungen untersucht und letztlich derjenigen Klasse zugeteilt, deren Eigenschaften es aufweist. Das Ziel jedes Klassifizierungsverfahrens ist es, die Gesamtheit der Bildelemente einer Szene in thematische Klassen oder Landnutzungsklassen einzuteilen.

Für die in der Regel automatische Klassifizierung der Satellitendaten stehen zwei Verfahren zur Verfügung, das pixelbasierte und das objektbasierte. Bei den pixelbasierten Verfahren wird jedes einzelne Pixel analysiert und nach spektralen Ähnlichkeiten in Klassen sortiert. Bei den objektbasierten Verfahren wird von der Annahme ausgegangen, dass ein Pixel mit einer hohen Wahrscheinlichkeit die gleiche Klassenzugehörigkeit hat wie sein Nachbarpixel.

Pixel-basierte Klassifizierung wird meist synonym auch als Multispektralklassifizierung bezeichnet. Die zu klassifizierenden Einheiten sind die einzelnen Pixel. Normalerweise werden nur deren spektrale Eigenschaften verwendet, es wird also keine Kontextinformation berücksichtigt. Die einzelnen Pixel und deren Klassenzuweisung haben bei einfachen Verfahren keinen Einfluss auf die Klassifizierung der benachbarten Pixel. Basierend auf meist statistischen Entscheidungsregeln wird ein Pixel entsprechend seiner spektralen Eigenschaften einer Landbedeckungsklasse zugeordnet. Die zu klassifizierenden Landnutzungsklassen unterscheiden sich durch spezifische Kombinationen der DN-Werte (DN = digital number), die ihren typischen Reflexionswerten entsprechen.

Die pixel-basierten Klassifizierungen neigen zum "salt-and pepper"- Effekt. In diesem Fall erscheint die klassifizierte Szene sehr heterogen.

In der Multispektralklassifizierung werden drei Arten von Klassifizierung unterschieden:

Die überwachte (supervised c.) Klassifizierung, bei der für jede Objektklasse eine Musterklasse bestimmt wird. Aus diesen Musterklassen wird wiederum der Klassifikator bestimmt. Jedes Element außerhalb einer Musterklasse wird sodann mittels dieser Entscheidungsfunktion des Klassifikators auf Grund seiner typischen Geländeinformation (z.B. spektrale Signatur bei Multispektralbildern) einer Objektklasse zugeordnet. Ein Objekt weist daneben noch andere Merkmale auf, die bei einer Klassifikation berücksichtigt werden können, beispielsweise Textur, Musterung, Größe, Form, Orientierung, Zeit und Merkmale wie Winkel, Enden und Kanten. Eine überwachte Klassifikation kann hierarchisch oder iterativ durchgeführt werden. In beiden Fällen werden für ausgesuchte Areale des Bildes Trainingsdaten gewonnen und danach das gesamte Bild klassifiziert.

Eine Schwierigkeit bei der Generierung von Trainingsgebieten resultiert z.B. aus einer zu geringen Auflösung räumlicher Objekte. In diesem Fall sind die spektralen Eigenschaften einzelner Pixel gemischt, es entstehen so genannte "Mischpixel". Räumlich stark differenzierte, topographisch bedingte Beleuchtungsverhältnisse und Schattenwirkungen können sich negativ auf das Klassifizierungsergebnis auswirken, weil dadurch die Klassenbeschreibungen unspezifisch und damit schlechter trennbar werden.

Die unüberwachte (unsupervised c.) Klassifizierung unterscheidet sich in Hinblick auf die überwachte darin, dass keine Geländeinformation und keine Anzahl der Objektklassen benötigt wird. Mittels eines Klassifikators (z.B. ein Abstandsmaß) wird iterativ jedes Bildelement einer Teilgesamtheit zugeordnet. Diese Teilklassen besitzen jedoch noch keine Objektidentität.

Die einzelnen Flächen lassen sich jedoch nicht immer zu einem bestimmten Zeitpunkt unterscheiden, sondern in manchen Fällen nur, wenn sie zu verschiedenen Zeitpunkten der Wachstumsperiode untersucht werden (multitemporale Klassifizierung).

Die hybride (hybrid c.) Klassifizierung mit einer Vielzahl verschiedener Verfahren. Eine Möglichkeit besteht z.B. darin, einer überwachten Klassifizierung eine unüberwachte Klassifizierung vorzuschalten. Mit Hilfe der unüberwachten Klassifizierung können die unterscheidbaren spektralen Klassen sowie geeignete Trainingsgebiete bestimmt werden. Die hybride Multispektralklassifizierung findet insbesondere in den Fällen Anwendung, bei denen eine hohe Variabilität in den spektralen Merkmalen der Klassen vorhanden ist, wie z.B. Biotopkartierung.

Die Güte einer Klassifikation hängt wesentlich davon ab, wie eindeutig die Multispektralsignatur jeder Objektklasse ist, wie stark die stichprobenhafte Geländekenntnis (ground truth) in einem Testgebiet mit den Ergebnissen der Klassifikation harmonisiert und mit welchem Typ von Klassifikation gearbeitet wird. Im Regelfall führen unüberwachte Klassifikationen von multispektralen Fernerkundungsdaten zu keinen befriedigenden Ergebnissen, da kaum eine Objektklasse eindeutig im Bild gekennzeichnet ist (Mischpixel = Mixel!). Deshalb setzt man überwiegend auf überwachte, interaktive Klassifikationsschritte, welche maßgeblich von den Interpreten gesteuert werden können und, gestützt durch individuelle Sach- bzw. Geländekenntnisse, deutlich bessere Klassifikationsergebnisse erbringen.

Klassische Klassifizierungsmethoden, wie die maximum-likelihood, minimum distance oder parallelepiped classification bedienen sich binärer Entscheidungsregeln bezüglich der Zugehörigkeit des Bildelementes zu einer Klasse. Sie bringen zum Ausdruck, ob das Element der Klasse gehört (=1) oder nicht (=0). Diese Klassifizierungsmethoden werden auch als harte Klassifizierungssysteme (engl. hard classifiers) bezeichnet. Die gebräuchlichsten pixel-basierten Klassifikationsmethoden gehören zu den harten Klassifizierungssystemen.

Hingegen kann bei den weichen Klassifizierungssystemen (engl. soft classifiers) jedes Pixel zu mehr als einer Klasse gehören, und es besitzt unterschiedliche Zugehörigkeitswahrscheinlichkeiten zu den verschiedenen Klassen.

Pixelbasierte Verfahren stoßen v.a. bei hoch aufgelösten Bilddaten schnell an ihre Grenzen. In diesen Verfahren werden Objekte, wie beispielsweise Gebäude, in ihre Teilobjekte zerlegt, so dass keine typische spektrale Gesamtreflexion definiert werden kann. Die häufig verwendete Maximum Likelihood-Klassifizierung setzt eine Normalverteilung der Grauwerte in den Trainingsgebieten voraus. Für heterogene Objekte ist diese Voraussetzung nicht immer gegeben, folglich können Probleme bei der Klassenzuweisung entstehen. Bei hoher räumlicher Auflösung besitzen Bilddaten zudem meist nur drei bis vier spektrale Kanäle, was im Vergleich z.B. zu Landsat, der als Standardsensor für die Multispektralklassifizierung verwendet wird, einen Verlust an spektraler Information bedeutet. Viele Objektklassen besitzen bei nur drei oder vier Kanälen spektral ähnliche Eigenschaften und überlagern sich im Merkmalsraum. Die Klassentrennung kann daher nur unter Einbeziehung weiterer Informationen wie z.B. räumliche Nachbarschaft, Form und Textur von Objekten, sicher erfolgen.

Die aufgezeigten Grenzen der klassischen, pixelbasierten Klassifizierungsverfahren haben andere, z.T. wissensbasiert genannte Verfahren motiviert, wie z.B. die objektorientierte Bildanalyse, die Wissen über die zu extrahierenden Objekte modellieren.

Im Gegensatz zu den harten Klassifizierungssystemen benutzen die weichen Klassifizierungssysteme den Grad der Zugehörigkeit des bestimmten Bildelementes zu jeder in der Klassenhierarchie vorhandenen Klasse (Fuzzy systems), wobei der Zugehörigkeitsgrad nicht nur die binären Werte, sondern auch Zwischenwerte annehmen kann. In diesem Fall bedeutet der Wert 1 die sichere Zugehörigkeit und der Wert 0 die sichere Nichtzugehörigkeit zu einer bestimmten Klasse. Der Vorteil der soft classifiers besteht in der Möglichkeit der Darstellung der Unsicherheiten bezüglich der Zugehörigkeit zu Klassen. Ein Bildobjekt kann mehreren Klassen mit unterschiedlicher Wahrscheinlichkeit zugeordnet werden. Dieses Prinzip entspricht eher der menschlichen Zuordnung und der linguistischen Beschreibung der Objekte in der Welt als harte Regeln. Die Klassifikationsergebnisse der soft classifiers stehen dadurch dem menschlichen Erkennen viel näher.

Objektbasierte Bildanalyse

Im Zuge der verbesserten räumlichen Auflösung der Satellitensysteme hat sich seit einigen Jahren die objektbasierte Bildanalyse etabliert. Mit eCognition (Trimble), ENVI Feature Extraction Module (ITT), IMAGINE Objective (ERDAS) und Feature Analyst (VLS) stehen leistungsfähige und teilweise erweiterbare kommerzielle Softwaresysteme zur Verfügung. Sie erreichen zwar nicht die Genauigkeit der visuellen Interpretation, sind jedoch in der Lage, eine Vorauswahl von relevanten Bildobjekten oder -bereichen zu treffen. Alle Systeme zeigen, je nach Anwendung, noch methodische Schwächen, u. a. in den Bereichen Segmentierung, automatische Merkmalsextraktion und multitemporale Analyse.

Die objektbasierte Bildanalyse kann als eine spezielle Form der wissensbasierten Bildanalyse gesehen werden, die sich mit der Extraktion topographischer Objekte aus Daten mit einem hohen Informationsanteil im spektralen Bereich beschäftigt.

Das Konzept der objekt-basierten Bildanalyse beruht auf der Annahme, dass semantische Information notwendig ist, um Bilder vollständig zu interpretieren. Diese Information kann nicht von einzelnen Pixeln repräsentiert werden, sondern nur von "aussagekräftigen" Bildobjekten und ihren wechselseitigen Beziehungen. Der größte Unterschied im Vergleich zu pixelbasierten Ansätzen ist, dass objektbasierte Ansätze der eigentlichen Klassifikation einen Segmentierungsschritt vorschalten und in der Folge Bildobjekte anstelle einzelner Pixel analysieren.

In der objektbasierten Bildanalyse werden in einem ersten Schritt die Bilddaten segmentiert, d.h. benachbarte Pixel nach bestimmten Homogenitätskriterien zu Segmenten zusammengefasst. Die Segmentierung kann hierbei auch als eine Generalisierung der Bilddaten aufgefasst werden. Die Klassifizierung der Segmente erfolgt in eCognition über eine Wissensbasis in Form von Regelsätzen, welche die Eigenschaften der gewünschten Objektklassen als Fuzzy-Zugehörigkeitsfunktionen beschreiben.

Die Segmente werden als Ganzes klassifiziert, wobei neben den spektralen Informationen auch Formeigenschaften, Textur und Kontextinformationen genutzt werden können.

Zur Klassifizierung von Landbedeckungsarten wird in zunehmendem Maße auf das objektbasierte Verfahren zurückgegriffen. Neben den durch den neuartigen Klassifizierungsansatz verbundenen Vorteilen, wie beispielsweise der Segmentierung kompakter Objekte, die dem menschlichen Wahrnehmungsvermögen entsprechen, hat diese Methode aber auch Schwachstellen. Mit der Bildung homogener Objekte geht gleichzeitig auch eine Generalisierung einher. Mit der pixelbasierten Klassifizierung wird jedes einzelne Pixel nach spektralen Ähnlichkeiten untersucht und in Klassen sortiert, was in der Regel keine homogene Objektbildung zulässt, aber andererseits auch keine Generalisierung darstellt.

Eine Klassifikation kann nach verschiedenen Methoden erfolgen, wobei eine Kombination von überwachter und nicht überwachter Klassifikation sowie auch ein mehrstufiges Vorgehen möglich sind. Solch eine Vorgehensweise ist immer dann sinnvoll, wenn verschiedene Klassen nur durch unterschiedliche Verfahren optimal identifiziert werden können. Hierbei durchläuft jedes Pixel einen "Entscheidungsbaum". Derartige Klassifikationsschemata sind zum Teil fester Bestandteil professioneller Bildverarbeitungssoftware, die darüber hinaus auch die Möglichkeit besitzt, eigene hierarchische Klassifikationsschemata zu realisieren.

Einige ungelöste Probleme der Klassifizierung:

Weitere Informationen:

Kleinsatellit

Engl. small satellite, miniaturized satellite oder smallsat; Satellit mit einer Masse von maximal 500 Kilogramm, wobei eine offizielle oder etablierte Norm nicht existiert. Sie werden mit verschiedenen Klassifizierungen nach Masse kategorisiert.

Übliche Klassifizierung von Kleinsatelliten (Angaben variieren):

Satelliten können klein gebaut werden, um die hohen wirtschaftlichen Kosten von Trägerraketen und die mit dem Bau verbundenen Kosten zu senken. Miniatursatelliten, insbesondere in großen Stückzahlen, können für einige Zwecke nützlicher sein als weniger und größere - zum Beispiel für die Erfassung wissenschaftlicher Daten und für Kommunikationszwecke (z.B. OneWeb, StarLink). Kleinsatelliten bieten ein gutes Erprobungsfeld für innovative Satellitenansätze durch ihre sehr kurzen Realisierungszeiten sowohl für neue Ansätze in der Produktion, als auch beim Einsatz neuer Techniken im Orbit. Herausforderungen für Anwendungen im Bereich der Kleinstsatelliten sind vor allem Robustheit, Ausrichtgenauigkeit, Energieeffizienz und Miniaturisierung. Die Robustheit wird durch geschickte Kombination von teilweise redundanter Hardware und intelligenter Software erreicht. Dies hält die Kosten niedrig und bietet deshalb gegenüber großen Satelliten einen signifikanten Vorteil. Es macht kleine Satelliten zuverlässiger, ohne dabei zu teuer zu werden. Statt aufwändiger strahlungsharter Bauteile oder schwerer Abschirmungen werden hier entsprechende Softwareansätze, die Störungen erkennen und herausfiltern, verwendet. Allerdings kann zu den technischen Herausforderungen beim Bau von Kleinsatelliten der Mangel an ausreichendem Energiespeicher oder Platz für ein Antriebssystem gehören.

Während Satelliten aller Art ein großes Geschäft sind, mit weltweiten Branchenumsätzen von über 260 Milliarden Dollar im Jahr 2017, ist das Segment der Kleinsatelliten laut der Satellite Industry Association (SIA) dasjenige, das ein signifikantes Wachstum fördert. Nach Fortune Business Insights wird der Markt für Kleinsatelliten bis 2028 weltweit von rd. vier Milliarden Dollar (2020) auf 10,75 Mrd. Dollar steigen. Treibende Faktoren dafür seien neue schnelle Datennetze für Anwendungen nach dem 5G-Standard, aber auch das Internet der Dinge, um weltweit Fabriken zu vernetzen. Hierfür werden Satellitenkonstellationen benötigt.

Die optimistischsten Prognosen gehen davon aus, dass im Laufe des kommenden Jahrzehnts weltweit etwa 4.000 Kleinsatelliten pro Jahr gestartet werden. Dazu gehören Megakonstellationen mit hunderten bis tausenden von Satelliten für globale Breitbandverbindungen mit geringer Latenzzeit (Starlink, Kuiper, OneWeb, Telesat usw.), kleinere Konstellationen mit dutzenden bis hunderten von Satelliten für die Kommunikation mit niedrigen Datenraten (IoT-, ADS-B- und AIS-Anwendungen) und für Erdbeobachtung, die keine ultimativen radiometrischen Leistungen erfordern. Die meisten Konstellationen sind für eine optimale Abdeckung und wiederkehrende Beobachtungen oder zur Minimierung von Latenzzeiten konzipiert, das heißt, sie umfassen äquidistante Bahnebenen und mehrere Satelliten pro Bahnebene. (DGLR / AAE 2021)

Das Segment der Nanosatelliten besaß 2020 den größten Marktanteil bei den Kleinsatelliten. Das Wachstum in diesem Segment (2021-2028) ist den zunehmenden Aktivitäten in Forschung und Entwicklung geschuldet, sowie der zunehmenden Zahl von Weltraumlaboren für künftige Missionen zu Asteroiden, zum Mond und Mars. Das Segment der Minisatelliten wird während des Vorhersagezeitraums dank ihres zunehmenden Einsatzes in der Erdbeobachtung beträchtlich wachsen. Das Segment der Mikrosatelliten wird ein mäßiges Wachstum erfahren, welches auf den steigenden Gebrauch von CubeSats bei Forschungs- und wissenschaftlichen Anwendungen zurückzuführen ist.

Verschiedene Verwendungszwecke

Obwohl sie sich Tausende Kilometer entfernt im Weltall befinden sind Satelliten indirekt aus dem Alltag der meisten Menschen nicht mehr wegzudenken: Satelliten-TV, Navigationsgeräte und Wettervorhersagen würden ohne Satelliten unter anderem nicht mehr funktionieren. Die meisten Satelliten, die sich 2019 im All befanden, dienten der Kommunikation (SpaceWorks Enterprises). Forschungssatelliten machen beispielsweise Fotos von der Höhe des Meeresspiegels oder zeigen den Zustand der Vegetation.

Knapp 3.400 Satelliten kreisten Ende Dezember 2020 um die Erde. Der USA gehörten zum angegebenen Zeitpunkt fast 1.900 Stück der künstlichen Erdtrabanten im All. Auf Platz zwei lag China mit über 400 Satelliten. Davon war fast ein Drittel in den Bereichen Erdbeobachtung und Meteorologie aktiv. Bei den kleinen und sehr kleinen Satelliten (d.h. mit einer Masse von weniger als 1.200 kg) berichtet die SIA, dass kleine Raumfahrzeuge etwa die Hälfte der insgesamt 3.000 Tonnen im Orbit ausmachen. Darüber hinaus stieg die Anzahl der Satelliten im Orbit über fünf Jahre hinweg um 49 % (von 1.167 im Jahr 2013), was hauptsächlich auf neu gestartete kleine Systeme in LEO zurückzuführen ist.

Das schnelle Wachstum des Kleinsatellitensegments ist ein direktes Ergebnis der erheblichen Vorteile, die sich daraus ergeben, was Kosten, Flexibilität, Geschwindigkeit und Zugang zum Weltraum betrifft. Von Anfang an wurden CubeSats mit handelsüblichen Komponenten aus dem Regal (COTS, commercial off-the-shelf) bestückt, und die meisten sind es immer noch. Das senkt die Kosten und ermöglicht gleichzeitig ein hohes Maß an Flexibilität sowohl für die Plattform als auch für die Instrumenten-Nutzlast. Die Verwendung von COTS-Teilen bedeutet auch, dass die Montage des Raumfahrzeugs weniger Zeit in Anspruch nimmt als bei herkömmlichen Satelliten.

Viele sehen CubeSats als eine disruptive Technologie, die wahrscheinlich langfristige Auswirkungen hat, nicht anders als die Handykamera. Ursprünglich waren die Fähigkeiten nicht sehr groß, aber die Entwicklung hat die Leistung von CubeSats im Laufe der Zeit so weit gesteigert, dass sie nun gezielt qualitativ hochwertige Fernerkundungsmessungen liefern können, während ganze CubeSat-Konstellationen neue Arten von Beobachtungen und Datenprodukten liefern werden.

Das Cyclone Global Navigation Satellite System (CYGNSS) zum Beispiel wird von der NASA betrieben und verwendet acht CubeSats, die zusammen in einer einzigen Trägerrakete gestartet wurden, um genaue Messungen der Winde an der Meeresoberfläche innerhalb und in der Nähe eines Sturms während des Lebenszyklus von tropischen Wirbelstürmen, Taifunen und Hurrikanen durchzuführen.

Der Privatsektor hält den Rekord für die meisten Satelliten, die gleichzeitig von einer Rakete gestartet werden. Die Dove-Satellitenkonstellation von Planet Labs Inc. wurde sowohl von der Internationalen Raumstation (ISS) als auch von konventionellen Raketen auf eine niedrige Erdumlaufbahn gebracht, um täglich Bilder von der Erde aufzunehmen. Die Konstellation bildet die größte Flotte von Erdbeobachtungssatelliten der Geschichte und kann bis zu 250 Millionen km² pro Tag aufnehmen.

Die von Planet Labs Inc. betriebene Satellitenkonstellation besteht derzeit aus mehr als 120 Nanosatelliten namens Doves, die eine multispektrale 3-Meter-Bildauflösung für eine Vielzahl von Kartierungsanwendungen bereitstellen, die von der Überwachung der Entwaldung und Urbanisierung bis hin zur Verbesserung der Naturkatastrophenhilfe und der landwirtschaftlichen Erträge auf der ganzen Welt reicht. Die Konstellation ist in der Lage, jeden Tag die gesamte Erdoberfläche mit Wiederholungsraten zu erfassen, die häufiger sind als bestehende staatliche oder kommerzielle Satelliten.

Die Nachfrage nach der Förderung von Kleinsatellitenprojekten ist sehr groß, sowohl aus wissenschaftlichen und anwendungsnahen Bereichen wie der Erdbeobachtung und der Satellitenkommunikation, als auch aus dem Technologiesektor. Dieser profitiert davon, dass neue Materialien, Bauteile und Komponenten mit Hilfe von kompakten Satelliten bereits nach einer relativ kurzen Vorbereitungszeit von zwei bis drei Jahren im Weltraum auf ihre Tauglichkeit getestet werden können. Auch die geringen Startkosten der kleinen Satelliten sind attraktiv, denn der Preis für den Transport mit einer Trägerrakete wird nach Gewicht berechnet.

Im Jahr 2021 umfasst das universitäre Kleinsatelliten-Programm der Bundesregierung über 20 Vorhaben in unterschiedlichen Stadien, von der ersten Konzeption bis zum Abschluss einer vollständigen Mission (Gesamtwertschöpfungskette). Möglichkeiten für Entwicklungsvorhaben im Raumfahrtbereich werden durch EU-Förderungen ergänzt.

Wie die folgende Statista-Grafik mit Daten der Seite Nanosats.eu zeigt, wird die Anzahl der ins All entsendeten Nanosatelliten bis 2022 schätzungsweise auf 1.766 steigen (Fehlstarts eingeschlossen).

Astronomen zeigten sich von den Plänen besorgt, denn schon jetzt führt Lichtverschmutzung im All für Probleme. Die neuen Satelliten mit ihren Metalloberflächen könnten die Sonne zumindest in der Dämmerung stark reflektieren und irgendwann die sichtbaren Sterne in unserem Nachthimmel übertreffen.

Zudem entsteht bei mehr Satelliten im All ein Problem dadurch, dass viele der Kleinsatelliten, die keine Funktion mehr haben, nicht gezielt zum Absturz gebracht werden und häufig als Weltraumschrott enden. Aufgrund der hohen Geschwindigkeit stellen sie eine potentielle Gefahr dar, zum Beispiel für die Raumstation ISS.

Immer mehr Kleinsatelliten im All Quelle: Statista Immer mehr Kleinsatelliten im All Quelle: Statista

Beispiele für Kleinsatelliten sind: TET-1, Flying Laptop, BIRD, BEESAT-4, BIROS, Picard, DEMETER, Essaim, Parasol, MICROSCOPE, TARANIS, ELISA, SSOT, SMART-1, Spirale-A und -B.

Weitere Informationen:

Klimakrise

Bezeichnung für die ökologische, politische und gesellschaftliche Krise im Zusammenhang mit der globalen Erwärmung. Sie wird, ähnlich wie 'Klimakatastrophe', im öffentlichen Diskurs zunehmend anstelle von harmloser klingenden Begriffen wie Klimawandel gebraucht, um die Tragweite der globalen Erwärmung zu verdeutlichen. Teilweise wird sie auch in der wissenschaftlichen Literatur genutzt.

Der krisenhafte Charakter der Klimakrise ergibt sich aus der Zuspitzung einer gefährlichen Entwicklung in natürlichen oder/und sozialen Systemen, dem eine massive und problematische Funktionsstörung über einen gewissen Zeitraum vorausging, die eher kürzer als länger andauert, und die möglicherweise irreversibel ist.

Die krisenhafte Entwicklung findet ihren Ausdruck unter anderem in folgenden, gemeinhin bekannten Entwicklungen:

Klimamaßnahmen mit Erdbeobachtung durchführen

Während die weltweiten Temperaturrekorde gebrochen werden und die Treibhausgasemissionen neue Höchststände erreichen, kommt ein neuer Bericht des UN-Umweltprogramms zu dem Schluss, dass die derzeitigen Zusagen im Rahmen des Pariser Abkommens die Welt auf einen Temperaturanstieg von 2,5 bis 2,9 °C in diesem Jahrhundert vorbereiten - was auf die dringende Notwendigkeit verstärkter Klimaschutzmaßnahmen hinweist.

Fast 200 Länder haben sich im Rahmen des Pariser Abkommens von 2015 darauf geeinigt, die globale Erwärmung auf 2 °C gegenüber der vorindustriellen Zeit zu begrenzen und 1,5 °C anzustreben, um die schwersten und unumkehrbaren Auswirkungen des Klimawandels zu vermeiden.

Satelliten ermöglichen eine systematische, globale und kontinuierliche Erfassung unseres Planeten, auch in den am schwierigsten zu erreichenden Gebieten. Man nur managen, was man messen kann: Satellitenbeobachtungen liefern Frühwarnungen vor Veränderungen, sie verbessern Klimavorhersagen und liefern die harten Fakten, die für wirksame internationale Klimaschutzmaßnahmen erforderlich sind.

Supporting the Paris Agreement from Space Supporting the Paris Agreement from Space Quelle: ESA

Klimakrise und Erdbeobachtung in Europa

Der Copernicus Dienst zur Überwachung des Klimawandels (C3S) (https://climate.copernicus.eu/) liefert kostenlos Daten und Produkte zur Überwachung, Vorhersage und Projektion des Klimawandels und trägt zur Unterstützung von Anpassungs- und Minderungsstrategien bei. Die Produkte werden aus der bestmöglichen Kombination von Satellitenbeobachtungen, In-situ-Messungen und Modellrechnungen gewonnen.

C3S ist einer von sechs thematischen Informationsdiensten, die vom Copernicus-Erdbeobachtungsprogramm der Europäischen Union bereitgestellt werden. C3S stützt sich auf die im Rahmen des Weltklimaforschungsprogramms (World Climate Research Programme – WCRP) durchgeführte Klimaforschung und reagiert auf die vom Globalen Klimabeobachtungssystem (Global Climate Observing System – GCOS) definierten Nutzeranforderungen. C3S stellt eine wichtige Ressource für das Globale Rahmenwerk für Klimadienste (Global Framework for Climate Services – GFCS) dar.

C3S wird vom Europäischen Zentrum für mittelfristige Wettervorhersagen (ECMWF) im Auftrag der Europäischen Kommission umgesetzt. Das ECMWF ist eine unabhängige, zwischenstaatliche Organisation, die ihre Mitgliedstaaten und kooperierenden Staaten sowie die gesamte Gemeinschaft unterstützt. Die meisten C3S-Dienstleistungselemente werden von rund 200 Unternehmen und Organisationen in ganz Europa implementiert, die auf der Grundlage von Ausschreibungen (Invitations To Tender – ITTs) ausgewählt werden.

Beim Deutschen Wetterdienst ist das Auswertungszentrum Satellite Application Facility on Climate Monitoring, kurz CM SAF angesiedelt. Beim CM SAF geht es darum, das Klima der Erde mithilfe von Satellitendaten über einen möglichst langen Zeitraum zu erfassen und zu erforschen und dabei Veränderungen aufzuzeigen. Dazu analysieren die CM SAF-Expertinnen und -Experten aus Belgien, Deutschland, Finnland, Frankreich, Großbritannien, den Niederlanden, Schweden und der Schweiz die Rohdaten von Satelliten und schauen sich dann insbesondere den Energie- und Wasserkreislauf der Atmosphäre an. Wasser stellt einen wesentlichen Bestandteil des Energiekreislaufes dar.

Eine besondere Zusammenarbeit besteht zwischen dem CM SAF und dem ebenfalls beim DWD angesiedelten Weltzentrum für Niederschlagsklimatologie (WZN) der Welt-organisation für Meteorologie (WMO). Das WZN sammelt, analysiert und wertet seit inzwischen 30 Jahren Niederschlagsdaten von weltweit über 115.000 Beobachtungs-stellen an Land aus und stellt diese Analysen als so genannte gerasterte Datensätze zur Verfügung.

CM SAF und WZN kombinierten ihre Niederschlagsdaten für das weltweite Klimamonitoring. Dies bedeutet: Die Daten vom CM SAF zeigten den Niederschlag aus der Perspektive des Satelliten, insbesondere den Niederschlag über den Ozeanen, während die Daten des WZN die Niederschlagswerte an Land darstellten. Als Ergebnis lieferten die beiden Einrichtungen einen globalen Datensatz, der die beiden unterschiedlichen Datenquellen kombiniert. Er leistet damit einen wesentlichen Beitrag für die Bewertung und Entwicklung mittelfristiger Klimavorhersagemodelle.

Beachten Sie auch die zwei folgenden Stichwörter Klimatologie und Fernerkundung und Klimawandel.

Weitere Informationen:

Klimatologie und Fernerkundung

Im Wesentlichen sind die für klimatologische Aufgaben genutzten Fernerkundungssysteme identisch mit denen, die mit meteorologischer Zielsetzung (s. Meteorologie und Fernerkundung) verwendet werden. Dies gilt auch weitgehend für die beobachteten Parameter, allerdings mit anderer Schwerpunktsetzung und anderen Raum- und Zeitskalen. Natürlich nutzt die Klimaforschung weiterhin und in sinnvoller Ergänzung zu den Fernerkundungsmethoden diverse in situ-Messungen (Bodenstationen, Ozeanwetterschiffe, Radiosondenstationen, phänologische Gärten).

Das folgende Bildpaar des Satelliten Suomi NPP vom 15.11. 2013 belegt die Klimawirksamkeit von Gebirgen. Die Ketten des Himalaya - sie enthalten einige der höchsten Berggipfel der Erde - dienen als klimawirksame Grenze zwischen Zentral- und Südasien. Die Trennung zwischen kalter Luft aus dem Norden und warmer, feuchter Luft aus dem Süden wird offensichtlich, wenn man auf die Schneeflächen des Echtfarbenbildes (oben) sieht, die sich auf der Nordseite der Kammregionen erstrecken.

Die Unterschiede im Klima und bei Eigenheiten an der Erdoberfläche werden noch deutlicher, wenn man das Nahinfrarotbild (unten) anschaut, statt des Echtfarbenbildes. Drei Spektralbänder des Instrumentes VIIRS sind in diesem Bild kombiniert (SVM05, SVM07 und SVM10), und die resultierenden Farben wurden verstärkt. Im Allgemeinen helfen diese Bänder, die Unterschiede zwischen den Farben der schneefreien Erdoberfläche (SVM05, 07) und der Schneebedeckung (SVM10) zu unterscheiden. Grüne Gebiete stehen in diesem Bild für vegetationsreiche Oberflächen, weiß für Schnee und grau meist für vegetationslose, kühle Oberflächen. Kleine Seen treten verstreut über das Bild auf. Sie sind in dem Nahinfrarotbild nicht nur deutlicher sichtbar, sondern man erkennt an der rostroten Farbe mancher Seen deren höhere Phytoplanktonkonzentration.

Klimagrenze im Bild I

Der Himalaya

1460v1_20131115-Himalaya-Snow

Echtfarbenbild

Klimagrenze im Bild II

Der Himalaya

Klimagrenze im Bild: Der Himalaya

Nahinfrarotbild

Quelle: NOAA

Meteorologisch- /klimatologische Parameter werden ergänzt durch solche, die mittel- bis längerfristige Aussagen über Klimaentwicklung erlauben. So ist für das volle Verständnis des irdischen Klimas das Monitoring aller Komponenten des Systems Erde zumindest in Teilen vonnöten, einschließlich ihrer Interaktionen.

Dazu gehören:

Schließlich müssen im Zusammenhang mit äußeren Klimaantrieben (external forcing) Veränderungen der Solarstrahlung, der Erdbahnparameter und auch menschliche Aktivitäten berücksichtigt werden.

Für die Betrachtung von Klimaveränderungen werden lange Beobachtungszeitreihen der verschiedenen Parameter benötigt. Fernerkundung, insbesondere Satellitenfernerkundung kann diese erst seit wenigen Jahrzehnten bereit stellen. Die aktuellen Daten müssen daher durch die Ergebnisse von älteren, konventionellen Messungen und die Einbeziehung von indirekten Methoden der Datengewinnung (Proxydaten wie Warvenchronologie, Korallenanalyse) ergänzt werden.

Bedeutende Klimaanomalien und Wetterereignisse im Jahr 2020 Bedeutende Klimaanomalien und Wetterereignisse im Jahr 2020

Link zur Zusammenfassung des Berichts von NOAA NCEI: http://bit.ly/Global202012.

Quelle: NOAA

Weitere Informationen:

Klimawandel

Klimawandel (oft syn. zu Klimaänderung) ist eine Veränderung des Zustands des Klimas, die identifiziert werden kann (z.B. mit Hilfe statistischer Methoden) als Veränderungen der Mittelwerte und/oder der Variabilität seiner Eigenschaften. Diese Veränderungen bestehen für eine längere Zeit, typischerweise Dekaden oder länger. Klimawandel kann auf natürliche interne Prozesse oder auf äußere Antriebskräfte oder auf anhaltende (persistente) anthropogene Veränderungen der Zusammensetzung der Atmosphäre oder der Landnutzung zurückgeführt werden.

Begriffe wie Klimawandel, Klimaänderung oder Klimaschwankung werden von Institutionen oder einzelnen Wissenschaftlern nicht einheitlich gebraucht.

Als Kernaussagen hält der aktuelle IPCC-Bereicht fest: „Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950er Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten. […] Der menschliche Einfluss wurde in der Erwärmung der Atmosphäre und des Ozeans, in Veränderungen des globalen Wasserkreislaufs, in der Abnahme von Schnee und Eis, im Anstieg des mittleren globalen Meeresspiegels und in Veränderungen einiger Klimaextreme erkannt.“ (Klimawandel 2013, Physikalische Grundlagen - Hauptaussagen aus der Zusammenfassung für politische Entscheidungsträger)

Energiegleichgewicht als Schlüssel zu einem stabilen Klima auf der Erde

Der Schlüssel zu einem stabilen Klima auf der Erde ist das empfindliche Gleichgewicht zwischen der Energie, die von der Sonne einströmt, und der Energie, die von der Erde in den Weltraum zurückgestrahlt wird. In unserem derzeitigen Klima ist dieses Gleichgewicht gestört und könnte sogar noch weiter zunehmen. Eine Fortsetzung dieses Ungleichgewichts hätte erhebliche Auswirkungen auf das zukünftige Klima unserer Erde. 

Im vergangenen Jahrhundert haben "Klimatreiber" wie die Emissionen von anthropogenen Treibhausgasen (THG) in die Atmosphäre und Vulkanausbrüche dieses empfindliche Gleichgewicht gestört (IPCC, 2021). Heute strahlt die Erde weniger Energie in den Weltraum ab, als sie von der Sonne empfängt. Dieses Energieungleichgewicht, auch Earth Energy Imbalance (EEI) genannt, ist für die Wärmeakkumulation im Klimasystem verantwortlich und damit die Hauptursache für den Klimawandel. Um zu verstehen, wie sich dieses Ungleichgewicht auf unser Klima auswirkt, sind genaue und globale Messungen der einfallenden und reflektierten Sonnenstrahlung sowie der emittierten und rückgestrahlten Wärmestrahlung erforderlich (s. Abb.). Die jüngsten Schätzungen des EEI in Verbindung mit Beobachtungen anderer "Klimatreiber" haben dem Internationalen Ausschuss für Klimaänderungen der Vereinten Nationen (IPCC) genügend Anhaltspunkte geliefert, um zu dem Schluss zu kommen, dass sich unser Klima bis zum Ende dieses Jahrhunderts mit hoher Wahrscheinlichkeit um 2 °C bis 5 °C gegenüber der vorindustriellen Zeit erwärmen wird, wenn die Treibhausgasemissionen nicht rigoros und schnell reduziert werden (IPCC, 2021).

Energieströme in unserer Atmosphäre für eine Situation im Gleichgewicht (links)
und eine Situation, die aus dem Gleichgewicht geraten ist (rechts) Energieströme in unserer Atmosphäre für eine Situation im Gleichgewicht (links)<br> und eine Situation, die aus dem Gleichgewicht geraten ist (rechts)Quelle: EUMETSAT

Beobachtung des energetischen Ungleichgewichts der Erde (EEI)

Das Energieungleichgewicht der Erde kann durch eine Bestandsaufnahme der Wärmeveränderungen in den verschiedenen Reservoiren des Klimasystems - nämlich der Atmosphäre, dem Land, der Kryosphäre und dem Ozean - geschätzt werden. Da die Ozeane den größten Teil (~90 %) der überschüssigen Energie in Form von Wärme absorbieren, sind Veränderungen des Wärmeinhalts der Ozeane (OHC) ein genauer Indikator für das EEI.

Die Aufnahme von Wärme durch die Ozeane führt zu einem Temperaturanstieg und einer Ausdehnung des Wassers. In den letzten beiden Jahrzehnten hat dieser Prozess der thermischen Ausdehnung etwa 35 % des globalen Meeresspiegelanstiegs verursacht. Die Hauptursache für den Anstieg des Meeresspiegels (ca. 65 %) ist jedoch die Zunahme der Ozeanmasse aufgrund des Abschmelzens von Gletschern und Eisschilden, von denen die Gletscher auf Grönland und in der Antarktis die wichtigsten sind. Daher sind Änderungen des globalen Meeresspiegels, wenn sie um den Beitrag der Gletscherschmelze an Land korrigiert werden, ein guter Indikator für Änderungen des Wärmeinhalts der Ozeane (s. Abb. unten). Satellitenbeobachtungen ermöglichen es uns, den durch Massenschwankungen verursachten Anstieg des Meeresspiegels von dem durch thermische Ausdehnung verursachten Anstieg zu trennen. Dazu muss man zwei Arten von Satellitenbeobachtungen kombinieren. Erstens weltraumgestützte Altimetriemessungen, um Veränderungen des Meeresspiegels zu beobachten. Zweitens weltraumgestützte Gravimetriemessungen zur Beobachtung von Veränderungen der Ozeanmasse.

Hauptursachen des Meeresspiegelanstiegs im Industriezeitalter
im Vergleich zum vorindustriellen Zeitalter Hauptursachen des Meeresspiegelanstiegs im Industriezeitalter im Vergleich zum vorindustriellen Zeitalter Quelle: EUMETSAT

Copernicus Klimadienst

Mit dem Aufbau des Copernicus Klimadienstes (Bezeichnung in der GMES-Verordnung: „Überwachung des Klimawandels zur Unterstützung von Maßnahmen zur Anpassung an den Klimawandel und zur Eindämmung seiner Folgen“) stellt die EU Klimainformationsdienste bereit. Diese werden globale, europäische und nationale Entscheidungsträger bei der Erfassung und Bewertung des Klimawandels und seiner Folgen wie auch bei der Entwicklung von Strategien und politischen Maßnahmen zur Anpassung („Adaptation“) an die Folgen des Klimawandels und zur Abschwächung („Mitigation“) der Emission klimarelevanter Spurengase unterstützen. Der Copernicus Klimadienst soll im Kontext der von der Weltorganisation für Meteorologie (WMO) und weiteren UN Organisationen vorangetriebenen Initiative „Global Framework for Climate Services“ als wesentlicher europäischer Beitrag eingepasst werden. Der Copernicus Klimadienst wird von ECMWF (European Centre for Medium-Range Weather Forecasts) geführt werden.

Die Informationsprodukte des Copernicus Klimadienstes sollen auf der Integration von Daten aus satelliten- und bodengestützter Erdbeobachtung, von Re-Analysen numerischer Wettervorhersagemodelle und von globalen und regionalen Klimasimulationen aufbauen. Produkte für die Überwachung des Klimawandels und seiner Folgen sollen zum einen Zeitreihen der von GCOS („Global Climate Observing System“) definierten „Essential Climate Variables“ (ECV) der Erdbeobachtung umfassen. Zum anderen soll damit auch die Modellierung der Wechselwirkung relevanter Parameter der verschiedenen Komponenten des Erdsystems als Basis für Klimasimulationen für Zeiträume von Jahreszeiten über Dekaden bis zu einem Jahrhundert unterstützt werden.

Das Wärmerekordjahr 2016 im Rahmen der Anomalien seit 1880

Anomalies are with respect to the 20th century average

Das Wärmerekordjahr 2016 im Rahmen der Anomalien seit 1880

Mit dem Beitrag von acht aufeinanderfolgenden hohen monatlichen Temperaturrekorden, die von Januar bis August aufgestellt wurden, und dem Rest der Monate, die zu den fünf wärmsten zählten, wurde 2016 das wärmste Jahr in der 137-jährigen NOAA-Reihe. Bemerkenswerterweise ist dies das dritte Jahr in Folge, in dem ein neuer globaler Jahrestemperaturrekord aufgestellt wurde.

Die durchschnittliche globale Temperatur über Land- und Ozeanoberflächen lag 2016 um 0,94 °C über dem Durchschnitt des 20. Jahrhunderts von 13,9 °C und übertraf damit den bisherigen Wärmerekord von 2015 um 0,04 °C. Die globalen Temperaturen im Jahr 2016 wurden vor allem durch starke El Niño-Bedingungen beeinflusst, die zu Beginn des Jahres herrschten.

Quelle: NOAA/NCDC / NOAA/NCDC

Laut einer Analyse des Goddard Institute for Space Studies (GISS) der NASA war die globale durchschnittliche Oberflächentemperatur der Erde im Jahr 2020 zusammen mit 2016 das wärmste Jahr seit Beginn der Aufzeichnungen. Eine separate Analyse der NOAA kam zu dem Schluss, dass 2020 das zweitwärmste Jahr in ihrer Aufzeichnung war, hinter 2016. Die NOAA-Wissenschaftler verwenden für ihre Analyse größtenteils dieselben Temperatur-Rohdaten, haben aber einen anderen Basiszeitraum (1901-2000) und eine andere Methodik. Wissenschaftler des europäischen Copernicus-Programms sehen 2020 ebenfalls als das wärmste Jahr seit Beginn der Aufzeichnungen, während das britische Met Office das Jahr 2020 als das zweitwärmste einstuft.

Die Verfolgung der globalen Temperaturtrends ist ein wichtiger Indikator für die Auswirkungen menschlicher Aktivitäten - insbesondere der Treibhausgasemissionen - auf unseren Planeten. Die Durchschnittstemperatur der Erde ist seit dem späten 19. Jahrhundert um mehr als 1,2 Grad Celsius angestiegen.

Karte der globalen Temperaturanomalien für das Jahr 2020

Karte der globalen Temperaturanomalien für das Jahr 2020

Die Karte zeigt nicht die absoluten Temperaturen, sondern wie viel wärmer oder kühler jede Region der Erde im Vergleich zum Basisdurchschnitt von 1951 bis 1980 war.

Die letzten sieben Jahre waren die wärmsten sieben Jahre seit Beginn der Aufzeichnungen und sind typisch für den anhaltenden und dramatischen Erwärmungstrend. Ob ein Jahr ein Rekord ist oder nicht, ist eigentlich nicht so wichtig; wichtig sind die langfristigen Trends. Bei diesen Trends und mit dem zunehmenden Einfluss des Menschen auf das Klima müssen wir damit rechnen, dass weiterhin Rekorde gebrochen werden.

Quelle: NASA Earth Observatory

Weitere Informationen:

Knowledge Centre on Earth Observation (KCEO)

Das Wissenszentrum für Erdbeobachtung ist eine Initiative der Europäischen Kommission zur Maximierung der politischen Nutzung von Produkten und Informationen aus Copernicus, dem Erdbeobachtungsprogramm der EU.

Dies soll erreicht werden durch die Bereitstellung

Weitere Informationen:

Kohlen(stoff)dioxid (CO2)

Farbloses und geruchloses Gas mit großer Treibhauswirkung. In die Atmosphäre wird zusätzliches Kohlendioxid durch die Verbrennung von fossilen Brennstoffen und von organischem Material eingetragen. CO2 besteht aus einem einzelnen Kohlenstoffatom und zwei Sauerstoffatomen.

CO2 ist zusammen mit Methan (CH4) das einflussreichste vom Menschen verursachten Treibhausgas in unserer Atmosphäre. Beide sind maßgeblich für den Klimawandel und die Erderwärmung verantwortlich. Die erste Satellitenmission zur Messung von CO2 war der Interferometric Monitor for Greenhouse Gases (IMG) an Bord des Satelliten ADEOS I im Jahr 1996. Diese Mission dauerte weniger als ein Jahr.

Als im Jahr 2002 das deutsch-niederländisch-belgische Instrument SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Chartography) auf dem ESA-Umweltsatelliten ENVISAT erstmals genutzt werden konnte, um per Satellitenmessung CO2 und CH4 in der Atmosphäre aufzuspüren, war das ein Meilenstein für die Klimaforschung. SCIAMACHY hat bis zum Ausfall  von ENVISAT am 8. April 2012 die von der Atmosphäre zurückgestreute Sonnenstrahlung analysiert. Aus den charakteristischen Spektrallinien der atmosphärischen Bestandteile ließen sich die Konzentrationen einer Vielzahl von Spurengasen bestimmen, die für die Luftqualität, den Treibhauseffekt und die Ozonchemie wichtig sind.

Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher werden die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten und der amerikanischen Missionen OCO-2 und OCO-3 fortgesetzt.

co2_anim_deu_600 Zeitreihe der CO2-Konzentration

Messung und Auswertung

Forscher der Universität Bremen haben erstmals über den Gesamtzeitraum der ENVISAT-Mission Daten des Instruments SCIAMACHY ausgewertet und so ein vollständiges Bild über zehn Jahre CO2- und CH4-Entwicklung erhalten.
Aus dem Weltall lässt sich erkennen, wo permanent erhöhte Konzentrationen zu finden sind. Daraus können Rückschlüsse auf die Ursachen gezogen werden.
Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher setzen die Forscher die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten fort. Quelle: DLR

Weitere Informationen:

Kohlendioxid-Banden

Wellenlängenbereiche der elektromagnetischen Strahlung, die von Kohlendioxid absorbiert werden.

Kohlendioxid absorbiert langwellige elektromagnetische Strahlung in unterschiedlichen Wellenlängenbereichen. Es gibt zwei relevante CO2-Absorptionsbanden (bei 4,3 und 14,7 Mikrometer (µm)), wovon eine im Zentralbereich – im Wellenlängenbereich in der Mitte der Bande - tatsächlich schon weitgehend gesättigt ist. Dies gilt aber nicht für die Flankenbereiche, also für die Wellenlängen an den Flanken der Bande. Um dies zu erkennen, sind allerdings äußerst genaue Messungen notwendig, die nur von entsprechend eingerichteten Instituten mit der erforderlichen Präzision durchgeführt werden können. Welchen Spielraum der durch den Menschen verursachte Treibhauseffekt im Prinzip noch zulässt, zeigt im übrigen ein Vergleich mit der Venusatmosphäre. Sie ist sehr dicht und lässt daher nur wenig Sonnenstrahlung zu ihrer Oberfläche durch. Aber ihr CO2-Gehalt liegt bei 98 % (Erdatmosphäre 0,037 %), was zu einem Treibhauseffekt von 466 °C (!) führt (der natürliche Treibhauseffekt der Erdatmosphäre beträgt etwa 33 °C). Im Übrigen ist die nur sehr schwache spezifische Treibhauswirksamkeit von CO2 weitgehend auf diese Sättigung zurückzuführen.

Die Satellitenmission OCO-2 misst die Strahlung in zwei der CO2-Banden, um das atmosphärische (CO2) aufzuspüren. Ein Wellenlängenbereich reicht von 1,594 Mikron bis 1,619 Mikron, der zweite von 2,042 Mikron bis 2,082 Mikron.

Kohlenmonoxid (CO)

Klares, geruchs- und geschmackloses Gas, das bei unvollständiger Verbrennung von kohlenstoffhaltigen Brenn- und Treibstoffen entsteht. Es bildet sich, wenn bei Verbrennungsprozessen zu wenig Sauerstoff zur Verfügung steht. Kohlenmonoxid ist kurzlebig und kommt in der unteren Atmosphäre vor. Hauptquelle für die CO-Belastung der Luft ist der Kfz-Verkehr. Kohlenmonoxid beeinträchtigt als Luftschadstoff die Sauerstoffaufnahme von Menschen und Tieren. CO ist ein starkes Atemgift und kann zudem Auswirkungen auf das Zentralnervensystem haben. CO ist zudem an der photochemischen Bildung bodennahen Ozons beteiligt.

Kohlenmonoxid aus Bränden am Amazonas Kohlenmonoxid aus Bränden am Amazonas

Anhand der Daten von Copernicus Sentinel-5P zeigt das Bild den Unterschied im Kohlenmonoxidgehalt der Luft zwischen Juli 2019 und August 2019 über dem Amazonas. Dieser Schadstoff wird oft mit dem Verkehr in Verbindung gebracht, aber hier sehen wir den Anstieg der atmosphärischen Konzentrationen nach intensiven Bränden. Sobald es in der Luft ist, kann es natürlich Probleme für den Menschen verursachen, da es die Menge an Sauerstoff reduziert, die im Blutkreislauf transportiert werden kann.

Quelle: NASA Earth Observatory (9.9.2019)

Weitere Informationen:

Kohlenstoffkreislauf

Gesamtheit aller Prozesse, durch die Kohlenstoff und seine chemischen Verbindungen in der Geosphäre umgesetzt werden. Die Bedeutung des Kohlenstoffs gründet sich darauf, daß er Bestandteil aller organischen Verbindungen ist. Somit stellt der Kohlenstoffkreislauf einen der wichtigsten Kreisläufe des Lebens dar. In der Atmosphäre befinden sich die Kohlenstoffvorräte in gasförmigem Zustand. In der Hydrosphäre kommt Kohlenstoff in gelöstem Zustand vor, in anorganischen und organischen Verbindungen. Fest gebunden ist der Kohlenstoff in der Pedosphäre (Humus, Biomasse) und in der Lithosphäre (Kohle, Erdgas, Erdöl, Karbonatgesteine).

Das natürliche Gleichgewicht des atmosphärischen Kohlenstoffkreislaufs wird insbesondere durch die ansteigenden CO2-Emissionen als Folge des zunehmenden Verbrauchs fossiler Brennstoffe gestört. Die Rodung der Tropenwälder sowie die Verbrennung von Biomasse führt zu einem zusätzlichen indirekten Anstieg des atmosphärischen CO2, da diese Pflanzen nicht mehr an der Photosynthese teilnehmen. Obwohl ein Großteil dieser CO2-Menge wieder in den Ozeanen aufgenommen wird, steigt der Kohlenstoffgehalt (in Form von CO2) in der Atmosphäre an.

carbon_cycle_lres Das Karussell des Kohlenstoffs

Immer im Kreis bewegt sich der Kohlenstoff im Bereich unseres Planeten. Gleichzeitig hält der Kohlenstoff im übertragenen Sinne unsere Welt in Gang. Das Element ist der Baustein des Lebens auf der Erde, und in Gestalt des Atmosphärengases CO2 hat es einen gewaltigen Einfluss auf das Klima des Planeten.

In dem Prozess durchläuft der Kohlenstoff auch Flüsse, Ozeane und die Halbdunkelzone der Ozeane (see interactive). Die Menschen haben in den Kohlenstoffkreislauf eingegriffen und in kurzer Zeit Kohlenstoff von trägen zu rasch reagierenden Vorratspools verlagert, indem sie große Mengen von Kohlenwasserstoffen aus der Erde entnahmen und sie als Brennstoffe verfeuerten und damit einen Überschuss an Kohlendioxid in der Atmosphäre erzeugten, der Wärme zurückhält.
(Illustration by Jack Cook, Woods Hole Oceanographic Institution)

Quelle: WHOI

Zur Quantifizierung der terrestrischen Kohlenstoffquellen und -senken (z. B. CO2, CH4) ist der Aufbau eines Expertensystems zur Erstellung der jährlichen Bilanz der Kohlenstoffflüsse notwendig (Kyoto-Protokoll). Ein solches Expertensystem wird im Augenblick am Potsdam Institut für Klimafolgenforschung (PIK) in Zusammenarbeit mit dem Max-Planck-Institut für Meteorologie (MPI-M, Hamburg) entwickelt und wird im Rahmen einer Kooperation mit dem DFD in den nächsten Jahren getestet. Ziel dieser Kooperation ist die Bilanzierung des terrestrischen Kohlenstoff-Haushalts unter Verwendung von satellitengestützen Fernerkundungsinformationen und deren Assimilation in gekoppelte dynamische Vegetations- und Atmosphärenmodelle.

Die aus dem Expertensystem abgeleiteten Daten sind unter anderem die Nettoprimärproduktion (NPP) der terrestrischen Vegetation oder die Nettoökosystemproduktion (NEP), aber auch die Abgabe von Methan in die Atmosphäre. Die Integration von Daten aus Emissionskatastern über kohlenstoffhaltige Substanzen (z.B. Methan) von landwirtschaftlichen Flächen oder aus der Viehzucht in die Atmosphäre stellt eine weitere Herausforderung für die Zukunft dar, um eine realistische Kohlenstoffbilanz zu erzeugen.

Aufgrund der hohen räumlichen und zeitlichen Variabilität der terrestrischen Photosynthese, der mikrobiellen Aktivität von Bodenorganismen und der meteorologischen Parameter ist es notwendig, die in das Expertensystem eingehenden Daten flächenhaft mit ausreichend hoher räumlicher und zeitlicher Auflösung zu erfassen. Hierfür geeignet sind Fernerkundungsdaten von polar umlaufenden Satelliten mit einer Wiederholrate von einigen Tagen (Landsat, IRS, SPOT). Daneben sollen auch die Daten geostationärer Satelliten wie z.B. "Meteosat Second Generation (MSG)" genutzt werden.

Das folgende Satellitenbild zeigt ein kräftig cyanfarbiges Schlierenmuster an der Oberfläche des Schwarzen Meers, es ist eine Blüte von mikroskopisch kleinem Phytoplankton Die riesige Menge an einzelligen Algen in diesem Bild sind wahrscheinlich Coccolithophoren, eine der wichtigsten Organismen-Klassen in ihrer Wirkung als biologische Kohlenstoffpumpen.

Coccolithophoren entfernen beständig Kohlenstoffdioxid aus der Atmosphäre und schicken ihn langsam zum Ozeanboden, ein Vorgang, der hilft, das Klima auf der Erde zu stabilisieren.

blacksea_amo_2012197 Kohlenstoff-Konsumenten im Schwarzen Meer

Dieses Bild mit der verwirbelten blauen Blüte wurde am 15. Juli 2012 vom Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem NASA-Satelliten Aqua aufgenommen.

Das Bild ist gedreht, sodass Norden rechts ist. Die Blüte wurde wahrscheinlich durch Emiliania huxleyi gebildet, obwohl die Bestimmung der Spezies unmöglich ist, ohne direkte Beprobung des Wassers.
Coccolithophoren benutzen Kohlenstoff, Kalzium und Sauerstoff, um kleine Plättchen aus Calciumcarbonat (Coccolithen) zu bilden. Diese ähneln Radkappen. Während ihres Lebens entfernen die Coccolithophoren Kohlenstoff aus der Luft binden ihn in ihrem Kalkskelett und nehmen ihn mit in die Tiefe wenn sie sterben oder wenn sie von Zooplankton oder Fischen gefressen und dann wieder als Exkrement ausgeschieden werden.

Quelle: NASA - Weitere Details siehe Link

Weitere Informationen:

Kombination mehrerer Bilder

Engl. merging of images, franz. combinaison d'images; nach DIN 18716 ein "Vorgang, durch den verschiedene, geometrisch mit hoher Genauigkeit identische Bilder zusammengeführt werden, um ein neues Bild zu erzeugen". Die Definition ist verbunden mit der Anmerkung: "Als wichtigste Verfahren dieser Art sind zu nennen:

Kompositbild

Ein Kompositbild besteht aus Pixeln, die alle aus mehreren sich überlagernden Einzelbildern ausgewählt wurden. Dazu werden diejenigen Pixel auswählt, die jeweils am ehesten bestimmten, im Voraus festgelegten Kriterien entsprechen. Zum Beispiel könnte ein Pixel mit dem höchsten NDVI ausgewählt werden, um verwaschene Pixel auszuschließen oder es werden Pixel in der Nähe des Nadirpunktes bevorzugt, um beobachtungsgeometrische Verzerrungen zu minimieren.

Ein farbiges Kompositbild wird durch die Kombination von drei (monochromen) Bildern in einem erzeugt. Jedem der drei Bilder einer Szene, die in unterschiedlichen Wellenbereichen aufgenommen sind, ist eine Grundfarbe zugeordnet: rot, grün oder blau (RGB). Je heller die Pixel sind, umso intensiver ist die Farbe. Wenn korrespondierende Pixel (gleiche Reihe und Spalte) von jedem Bild zusammengefügt werden, ergibt die resultierende Farbe einen Farbton, der das Verhältnis von RGB von jedem der ursprünglichen Bilder repräsentiert.

Kompositbild - Aufbau Kompositbild - Aufbau

Quelle: Natural Resources Canada

Kompsat-1

Engl. Akronym für First Korean Multi-Purpose Satellite, syn. Arirang-1; im Jahr 1999 gestarteter Fernerkundungssatellit mit Aufgaben zu Kartographie, Landnutzung, Raumplanung, Katastrophen- und Umweltmonitoring, Monitoring mariner Resourcen, Meeresverschmutzung, Aufspürung von Chlorophyll, Beobachtung der oberen Atmosphäre.

Die elektro-optische Kamera (EOC) an Bord von KOMPSAT-1 hat panchromatische Bilder der Erdoberfläche mit einem Bodenabtastdistanz (GSD) von 6,6 Metern aufgenommen. Dieser spezielle Datensatz umfasst PAN-Bilder der Ebene 1B mit einem GSD von 6,6 Metern im GeoTIFF-Format. Kompsat-1 umrundete die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit betrug 98,5 min, der Wiederholzyklus 1050 Tage. Die Mission ist seit 2008 beendet.

Im Rahmen des Earthnet Third Party Mission-Programms macht die ESA die KOMPSAT-1-Sammlung "Coverage of 50 European Cities" für registrierte Nutzer verfügbar.

Kompsat-2

Engl. Akronym für Second Korean Multi-Purpose Satellite 2, syn. Arirang-2; leichter, vom Korea Aerospace Research Institute KARI entwickelter und mit Unterstützung von ELOP (Israel) und OHB-System (Bremen) gebauter Erdbeobachtungssatellit.

Seine Multispektralkamera (MSC) ist ein optoelektronisches, lineares Pushbroom-Instrument mit einem einzigen, in Nadir-Richtung zeigenden Objektiv. Das panchromatische Band hat einen Spektralbereich von 500-900 nm, die vier Multispektralbänder liegen im Bereich von 450-900 nm. Die GSD (Ground Sample Distance) der Pan-Daten beträgt 1 m (GSD), die MS-Daten haben eine GSD von 4 m.

Er liefert vor allem hoch aufgelöste Bilder der koreanischen Halbinsel mit dem Ziel, damit Karten und digitale Höhenmodelle zu erstellen. Kompsat-2 umrundet die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit beträgt 98,5 min, der Wiederholzyklus 1050 Tage. Der Start erfolgte im Juli 2006, noch 2024 ist der Satellit in Betrieb.

Das folgende Bild zeigt das Grenzgebiet von Namibia und Angola aufgenommen vom Kompsat-2 am 3.1.2013. Der Okavango markiert hier die Grenze. Er entspringt in Angola und fließt in südöstlicher Richtung nach Botswana, wo er sich schließlich in ein großes Binnendelta verzweigt. Das Okavango-Delta ist ein beliebtes Touristenziel, da es einen großen Reichtum an Wildtieren aufweist wie Elefanten, Büffel, Wildebeest, Giraffen, Löwen, Leoparden, Geparde, Krokodile, Hyänen, Nashörner und Paviane. Die grünen Bereiche um den Fluss zeigen vegetationsbedeckte Flächen an. Der Fluss besitzt lokal ein große wirtschaftliche Bedeutung hinsichtlich Landwirtschaft und Tourismus, und der Fischfang ist eine wichtige Nahrungsquelle für die einheimische Bevölkerung.

Okavango_River

Der Okavango River

Zoomt man in die obere linke Ecke hinein, erkennt man die weißen und andere helle Flecken als ländliche Siedlungen entlang einer Straße. Ebenso ist der für tropische und subtropische Gebiete Afrikas typische rote Boden gut erkennbar.
In der rechten unteren Ecke fallen große kreisförmige Agrarflächen (Karusselbewässerung) auf, bis etwa 600 m im Durchmesser. Bei den weißen Linien, die die bewässerten Kreise durchqueren, handelt es sich vermutlich um Wege, die der Wartungszufahrt dienen.

Auch bei hochaufgelösten optischen Bildern ist es nicht immer einfach zu erkennen, was das Bild im Detail zeigt. Beispielsweise scheint in den ockerfarbenen Agrarflächen mit traditioneller Nutzung ein durch Hecken geprägtes Muster vorzuliegen, das die Parzellen markiert. Ebenso sind in vielen der Felder kleine Flecken mit Vegetation zu finden. Dabei kann es sich um einzelne Bäume handeln oder um Pflanzenbewuchs auf großen Termitenhügeln.

Zu einem erläuternden Video hier klicken

Quelle: KARI / ESA

Weitere Informationen:

Kompsat-3, -3A

Engl. Akronym für Korean Multi-Purpose Satellite 3, syn. Arirang-3; der Satellit hat einen ähnlichen Aufbau wie KOMPSat-2; er wurde am 17. Mai 2012 (18. Mai nach Ortszeit) mit einer japanischen H-IIA-Trägerrakete vom Tanegashima Space Center gestartet. Er fliegt auf einem sonnensynchronen Orbit in 675 km Höhe. Seine Bodenauflösung im Pan-Bereich beträgt 0,7 m, im RGB- und NIR-Bereich 2,8 m.

KOMPSAT-3 ist ein Erdbeobachtungssatellit mit hochauflösendem optischen Sensor, mit der Aufgabe die Datenkontinuität der beiden Vorgängersatelliten zu gewährleisten und den südkoreanischen Bedarf an Bildmaterial in den Bereichen GIS und Umwelt-, Landwirtschafts-, Katastrophen- und Meeresmonitoring zu decken.

Die Schwestermission KOMPSAT-3A ist Koreas erste Erdbeobachtungsmission mit zwei verschiedenartigen bildgebenden Sensoren, einer Multispektralkamera und einer Infrarotkamera (Monitoring von Waldbränden und von Vulkanausbrüchen). Der Satellit wurde am 26. März 2015 vom Kosmodrom Yasny mit einer Dnepr-Startrakete aus gestartet. Er fliegt auf einem sonnensynchronen Orbit in 528 km Höhe.

Die Aufgaben sind weitgehend identisch mit denen von KompSat-3. Die Bodenauflösung beträgt 0,55 m im panchromatischen Bereich, 2 m im Multispektralbereich, im Infrarot 5,5 m (Bodenspur 12 km).

Weitere Informationen:

Kompsat-5

Engl. Akronym für Korean Multi-Purpose Satellite 5, syn. Arirang-5; Kompsat-5 ist mit Radar-(X-Band SAR) statt optischer Abbildungstechnik ausgerüstet. Der Start fand am 22. August 2013 im Kosmodrom Jasny (Dombarovsky) statt. Der Satellit umkreist die Erde in 550 km Höhe auf einer sonnensynchronen Umlaufbahn.

Das Hauptziel der Mission ist die Entwicklung und der Betrieb eines Satellitensystems mit SAR (Synthetic Aperture Radar) um Bilder für Anwendungen im Geoinformationsbereich (GIS) zu erhalten. Ozenamonitoring, Landmanagement, Katastrophenstrophenmonitoring und Umweltüberwachung gehören zu den Anwendungsfeldern. Die Bilder haben im High Resolution-Modus eine Auflösung von 1 m (5 × 5 km Bodenspur), im Standardmodus von 3 m (20 × 30 km Bodenspur) und im Wide Swath-Modus von 20 m (100 km breite Bodenspur).

Der zweite Aufgabenbereich liegt in der Erzeugung von Sondierungsprofilen der Atmosphäre.

Ab 2024 soll Kompsat-6 als Nachfolger Kompsat-5 mit deutlich verbesserten Fähigkeiten ersetzen. Kompsat-6 wird in verschiedenen Modi (Spotlight, Stripmap und ScanSAR) und zwei Polarisationen betrieben werden können und erreicht Auflösungen besser als einen Meter. Die dann eingesetzte so genannte Phased Array SAR-Technologie von Airbus Defence and Space ist weltweit vor allem durch die erfolgreichen europäischen Erdbeobachtungsmissionen ERS-1/-2, Envisat und MetOp und die Missionen der in Immenstaad entstandenen Radarsatelliten TerraSAR-X und TanDEM-X bekannt.

Auch Kompsat-7 soll 2024 starten.

Weitere Informationen:

Kondensstreifen

Durch Abgase von Flugzeugen, aber auch von Schiffen hervorgerufene wolkenartige, gelegentlich den ganzen Himmel überziehende Streifen in großer Höhe (Mitteleuropa: Winter >8 km, Sommer >10 km). Der Hauptfaktor für ihre Entstehung ist die Abkühlung der bei der Kraftstoffverbrennung freigesetzten Abgase, die einen hohen Wasseranteil enthalten und zusätzlich Kondensationskerne liefern. Der Wasserdampf kondensiert zuerst zu Wolkentropfen, die dann sehr schnell zu Eiskristallen gefrieren oder direkt zu Eis sublimiert.

Kondensstreifen haben daher manchmal cumuliförmige Ansätze wie Cirrocumulus, oft jedoch glatte oder zerfasernde Ränder, die typisch für Eiswolken wie Cirrus bzw. Cirrostratus sind. Kondensstreifen können in Abhängigkeit von der Feuchtigkeit in der Flughöhe einige Minuten bis mehrere Stunden lang den Himmel überziehen, an einzelnen Tagen auch bis zu 10% der Himmelsfläche.

Die Langlebigkeit der Kondensstreifen, wird stark durch die Gegebenheiten der Atmosphäre und insbesondere deren Schichtungsstabilität beeinflusst. An erster Stelle steht die Temperatur, da bei etwa -40 °C eine obere Grenze für die Herausbildung von Kondensstreifen besteht. Der genaue Wert hängt von zahlreichen Faktoren wie der Art des Treibstoffs oder der Luftfeuchte ab, wobei trockene Luft dazu führt, dass sich die Kondensstreifen gar nicht erst ausbilden oder sich recht schnell wieder auflösen. Dies ist bei etwa 80 % der Kondensstreifen mit einer Lebensdauer von unter einer bis wenigen Minuten der Fall. Bei feuchter Luft kann diese hingegen mehrere Minuten bis Stunden betragen, was ein Anzeichen für eine Wetterverschlechterung ist.

Als Beispiel führt uns der Copernicus-Satellit Sentinel-3A in folgendem Bild über den Atlantischen Ozean in der Nähe von Spanien und Portugal, wo der Himmel nicht nur Wolken, sondern auch kreuz und quer verlaufende Spuren von Seeschiffen aufweist.

Die bekannten Kondensstreifen (contrails), die wir am Himmel sehen, stammen normalerweise von Flugzeugen, so dass es seltsam erscheinen mag, dass auch Schiffe gelegentlich ihre Spuren am Himmel hinterlassen können. Dieser selten gesehene maritime Rollentausch bei Kondensstreifen wurde am 16. Januar 2018 von Sentinel-3A erfasst. Diese als Schiffsspuren bekannten schmalen Wolkenstreifen entstehen, wenn Wasserdampf um kleine Partikel kondensiert, die Schiffe in ihren Abgasen ausstoßen. Sie bilden sich typischerweise, wenn tiefliegende Schicht- und Kumuluswolken vorhanden sind und wenn die Luft um das Schiff herum ruhig ist.

Wie das Bild zeigt, kreuzen sich mehrere Schifffahrtswege vor der Küste Spaniens und Portugals. Obwohl die Straße von Gibraltar eine stark befahrene Schifffahrtsstraße mit zahlreichen Schiffen ist, die im Mittelmeer ein- und ausfahren, sind hier im Bild keine Schiffsspuren zu sehen. Die meisten Spuren liegen mehrere hundert Kilometer vor der Küste.

Atlantic ship tracks

Atlantic Ship Tracks

Wie Kondensstreifen von Flugzeugen können auch Schiffsspuren eine Rolle für unser Klima spielen, indem sie die Menge des Sonnenlichts, das die Erdoberfläche erreicht, verringern oder umgekehrt die Sonnenstrahlung in unserer Atmosphäre einfangen, aber dies ist ein unsicherer Aspekt der Klimawissenschaft.

Der Copernicus-Satellit Sentinel-3A trägt eine Reihe von Sensoren, darunter ein Ozean- und Landfarbeninstrument (OLCI), das zur Aufnahme dieses Bildes verwendet wurde.

Quelle: ESA

Aus Kondensstreifen können sich gewöhnliche Cirruswolken bilden, deren Ursprung aus Kondensstreifen dann nicht erkennbar ist. Auch können die sonstigen Aerosolpartikel der Flugzeugabgase noch über Tage und vergleichsweise großräumig die Wolkenbildung verstärken.

Die künstlichen Kondensstreifen bedecken einen kleinen Teil des Himmels und reduzieren damit durch Reflexion an ihrer Oberseite tagsüber die Sonneneinstrahlung. Andererseits reduzieren sich durch die Reflexion der terrestrischen Ausstrahlung auch die natürliche Abkühlung der Erde, tragen also zur atmosphärischen Gegenstrahlung bei und beeinflussen damit die Albedo der Erdoberfläche. Zudem können sie auch die Kondensation natürlich vorhandenen Wasserdampfes stimulieren. Es wird daher vermutet, dass das Klima durch die Kondensstreifen des Flugverkehrs beeinflusst wird. Die Stärke dieses Effekts und seine Rolle in Bezug auf die globale Verdunkelung bzw. auch globale Erwärmung sind bisher noch weitestgehend unbekannt, es wird jedoch lokal ein Einfluss auf die Globalstrahlung von bis zu 2 W/m2 geschätzt.

Von großer Bedeutung sind auch chemischen-physikalischen Eigenschaften der Abgase, sowie die Höhe ihrer Freisetzung. Die Wirkung der hier freigesetzten Abgase ist eine gänzlich andere als am Boden, da die Atmosphärenchemie hier unter anderem aufgrund der selteneren Niederschläge und deren Auswaschungseffekten wesentlich empfindlicher auf äußere Einflüsse reagiert.

Da die Stratosphäre bzw. die obere Troposphäre auch zunehmend stärker in den Fokus der Klimaforschung gerät, wird in diesem Zusammenhang auch der Luftverschmutzung durch den Flugverkehr eine immer entscheidendere Rolle zuteil.

Weitere Informationen:

Kontinuierliche Daten

Engl. continuous data; normalerweise bezogen auf Rasterdaten, die Oberflächeneigenschaften wie z.B. Höhenwerte angeben. Die Daten können jeden positiven und negativen Wert mit beliebig vielen Zwischenwerten annehmen. Kontinuierliche Daten stehen dabei im Gegensatz zu diskreten (diskontinuierlichen) Daten, die keine Zwischenwerte haben.

Kontrast

Engl. contrast, franz. contraste; allgemein die Differenz zwischen zwei Grauwerten, Verhältnis von hellem zu dunklem Bildpunkt, z.B. bei benachbarten Pixeln, oft auch bezogen auf die Summe der beiden betrachteten Grauwerte.

Fernerkundungsaufnahmen wirken zunächst oftmals recht kontrastarm. Zwar stehen bei einer Farbtiefe von 8 Bit insgesamt 256 verschiedene Werte zur Kodierung der Strahlungsintensität pro Kanal zur Verfügung. Häufig wird dieser Wertebereich aber nur teilweise genutzt, da die Instrumente so eingerichtet wurden, dass auch extrem stark bzw. wenig reflektierende Oberflächen noch wiedergegeben werden können. Zur Beseitigung dieser bei einer visuellen Auswertung der Bilddaten störenden Unzulänglichkeit existieren mehrere Verfahren (z.B. lineare Kontraststreckung, Histogrammangleichung).

Koregistrierung

Engl. co-registration, franz. co-enregistrement; nach DIN 18716 die "Herstellung einer räumlich eindeutigen Zuordnung zwischen den Bildkoordinaten abgebildeter Objekte in unterschiedlichen Datensätzen", verbunden mit der Anmerkung: "Das kann multispektrale, multitemporale oder multisensorale Bilddaten gleicher oder unterschiedlicher geometrischer Auflösung betreffen".

Kosmos

Bezeichnung für eine Vielzahl unterschiedlicher sowjetischer bzw. russischer Satelliten und Raumfahrzeuge. Erstmals wurde 1962 ein Satellit unter der Bezeichnung Kosmos 1 gestartet. Da bei diesem Start auch ein neuer Träger verwandt wurde, benannte man diesen, wie damals in der Sowjetunion üblich, ebenfalls nach der Nutzlast, so dass auch ein Trägersystem als Kosmos bezeichnet wurde.

Die Namensreihe beinhaltet Satelliten für wissenschaftliche Forschung und militärische Zwecke sowie unbemannt durchgeführte Tests für bemannte Raumfahrzeuge. Es handelt sich demnach nicht um ein einzelnes Programm. Zusätzlich erhielten fehlgeschlagene Missionen im Nachhinein oftmals Kosmos-Bezeichnungen, z. B. bei gescheiterten extraterrestrischen Missionen, bei denen die Sonde aus ihrem Parkorbit um die Erde nicht hinauskam. Voraussetzung für die Namensgebung ist, dass die Objekte in die Erdumlaufbahn gelangen. Die Vergabe von Kosmos-Bezeichnungen ist auch heute für Missionen militärischer Art weiterhin geläufig. Bis zum Januar 2014 wurden 2.490 Satelliten mit der Bezeichnung Kosmos gestartet.

Die Kosmos-Raumfahrzeuge umfassen optische Aufklärungssatelliten, (militärische) Kommunikationssatelliten, Frühwarnsatelliten, nuklearangetriebene Radaraufklärungssatelliten, Anti-Satellitenwaffen, Navigationssatelliten und Technologiedemonstrationsobjekte.

Für Frühwarnsysteme und die militärische Kommunikation werden meist die Molniya-Orbits benutzt, denn ein Großteil der Landmasse der Sojetunion bzw. Russlands liegt hoch im Norden. Vermutlich nutzte die Sowjetunion diese Bahn auch, um die Aufklärung von amerikanischen Aktivitäten in der Arktisregion zu verbessern.

Weitere Informationen:

Kourou

500 km nördlich des Äquators gelegene Küstenstadt (5° 13' N) in Französisch-Guyana, bei der Frankreich 1964 ein Raketenabschussgelände (Centre Spatial Guyanais) aufbaute. Seit 1977 dient es nur noch dem Abschuss der Ariane Raketenserie, die von der ESA entwickelt und von Arianespace kommerziell betreut wird, sowie den modifizierten Sojus-Raketen und den neu entwickelten Vega-Launchern.

Weltraumbahnhof Kourou Weltraumbahnhof Kourou

Die Startrampe der Ariane 5 ist mittig im Vordergrund

Quellen: ESA

Nach der russischen Invasion der Ukraine werden die vom europäischen Startdienstleister Arianespace und dem europäisch-russischen Unternehmen Starsem durchgeführten Sojus-Flüge auf unbestimmte Zeit ausgesetzt. Arianespace teilte Anfang März 2022 mit, man respektiere mit großer Gewissenhaftigkeit die Sanktionen, die von der internationalen Gemeinschaft beschlossen wurden. Die russische Raumfahrtbehörde Roskosmos hatte kurz nach Beginn des Kriegs in der Ukraine angekündigt, ihr Personal von Kourou abzuziehen.

Unter Sicherheitsgesichtspunkten bietet Französisch-Guyana aufgrund seiner dünnen Besiedlung und der fehlenden Gefahr durch Wirbelstürme und Erdbeben große Vorteile. Sicherheitsgründe legen einen Verlauf der frühen Flugphase über dem Ozean nahe. Dies ist in Kourou in nördlicher Richtung für die polarumlaufenden Satelliten und östlicher Richtung für die geostationären Satelliten möglich.

Kourou - Geographische Lage

Kourou - Geographische Lage

Quelle: EUMETSAT

Dazu kommen Vorteile durch seine äquatornahe Lage (5°3' N ); dadurch verleiht die Erdrotation einer von dort aus startenden Rakete einen Geschwindigkeitsbeitrag von gut 460 m/s (horizontal in Richtung Osten), ein Schleudereffekt. So sind von diesem Standort aus Raketenstarts in einem Winkel 103° zu allen nützlichen Orbits möglich, von nordwärts gerichteten Starts bis -10,5° bis zu ostwärts gerichteten Starts bis + 93,5°. Am Äquator ist die Tangentialgeschwindigkeit am größten, weil der Abstand zu Erdachse am größten ist. Deswegen brauchen Raketen hier weniger Treibstoff, um die Erde hinter sich zu lassen - weil sie die Rotationsenergie kostenlos mit auf den Weg bekommen. Der geringere Treibstoffverbrauch kommt der Verweildauer im All zugute.

Zusätzlich zu seinen vielen europäischen Kunden übernimmt Kourou auch Startaufträge für industrielle Kunden aus den USA, Japan, Kanada, Indien und Brasilien.

Weitere Informationen:

Kriseninformationssystem (KIS)

Geographisches Informationssystem (GIS), welches sich speziell auf Fragestellungen in Krisengebieten bezieht. Das Informationssystem besteht aus Berichten, Luftbildern und Satellitenbildern, daraus abgeleiteten thematischen Karten und digitalisierten topographischen Karten sowie sozioökonomischen Daten wie Bevölkerungszahl, Anzahl zerstörter Häuser usw., die geographisch korrekt zugeordnet sind. Ein GIS erlaubt es, diese verschiedensten Datensätze zu verschneiden und mit einem Informationsgewinn zu visualisieren, damit eine effektive Unterstützung bei Entscheidungsprozessen entsteht. Ein solches KIS wurde bereits vom Space Application Institute (SAI) in Zusammenarbeit mit dem DFD zur Unterstützung des Wiederaufbaus in Kosovo erstellt.

Satellitenbilder können wertvolle Informationen für die Organisation und das Management verschiedenster humanitärer Einsätze in Krisensituationen oder im Katastrophenfall liefern. Oft ist dabei wichtig, dass die Information sehr rasch und mit hoher Genauigkeit bereitgestellt wird, wie z.B. im Falle einer Überschwemmung. Da die heutigen Erdbeobachtungssatelliten oft nicht für eine solche schnelle Reaktion ausgelegt sind, bedarf es einer guten Vorausplanung.

Neben der Bereitstellung krisenrelevanter Informationen spielt auch deren schnelle Verfügbarkeit im betroffenen Gebiet eine wichtige Rolle. Für diesen Zweck entwickelt das DLR einen sogenannten Mobile Client, der den Krisenhelfern vor Ort den Zugriff auf eine zentrale Datenbank ermöglicht und umgekehrt auch aktuelle Lageberichte und im Krisengebiet erhobene Daten in das System einspeisen kann. Die Mobile Clients bestehen aus einem Notebook, einem GPS Empfänger, einer digitalen Kamera sowie einem Mobil-/Satellitentelefon und Internet für den Datentransfer.

Weitere Informationen:

Kritische Infrastrukturen (KRITIS)

Kritische Infrastrukturen (KRITIS) sind nach einer Definition der deutschen Bundesressorts "Organisationen oder Einrichtungen mit wichtiger Bedeutung für das staatliche Gemeinwesen, bei deren Ausfall oder Beeinträchtigung nachhaltig wirkende Versorgungsengpässe, erhebliche Störungen der öffentlichen Sicherheit oder andere dramatische Folgen eintreten würden".

Europaweit umfasst der Copernicus Dienst für Sicherheitsanwendungen neben der Überwachung von Grenzen und Ressourcen auch die von kritischen Infrastrukturen und die Kontrolle von internationalen Abkommen. Hierbei unterstützt Copernicus die Arbeit der Europäischen Küstenwache (Frontex), der Europäische Agentur für Maritime Sicherheit (EMSA) und des Europäischen Satellitenzentrum (EUSC SatCen). Das  Bundeskriminalamt steht Nutzern aus Deutschland als Ansprechpartner für den Sicherheitsdienst zur Verfügung.

Beispiele für die Überwachung kritischer Infrastrukturen mit Hilfe von Fernerkundung

Weitere Informationen:

Kronenhöhenmodell (KHM)

Engl. Canopy Height Model (CHM); Bezeichnung für die normalisierte Hohe des Kronendaches aus der Differenz zwischen digitalem Geländemodell und digitalem Oberflächenmodell innerhalb von Wald- bzw. Gehölzflächen.

Kryosphäre

Von 'kryos', altgriechisch für Kälte, Frost; mit den anderen Bestandteilen des Erdsystems in Wechselbeziehungen stehender Bereich, der gefrorenes Wasser in Gestalt von Schnee, dauerhaft gefrorenem Boden (Permafrost in periglazialen Gebieten), saisonal gefrorenem Boden, Fluss- und Seeeis, Meereis, Eiskappen und Gletschern umfasst. Obwohl ein wesentlicher Teil der Kryosphäre sich in den Polarregionen befindet, ist Schnee und Eis in allen geographischen Breiten und in ca. 100 Ländern anzutreffen.

Globale Verteilung verschiedener Komponenten der Kryosphäre

Legende Globale Verteilung verschiedener Komponenten der Kryosphäre

Die Karte der Nordhemisphäre zeigt das Sommerminimum der Meereisbedeckung (13.9.2012). Die gelbe Linie markiert die mittlere Position der Meereisausdehnung von 1979 - 2012. Gebiete mit kontinuierlichem Permafrost sind dunkelpink, diskontinuierlicher Permafrost hellpink. Die grüne Linie im S der NHK zeigt die maximale Schneegrenze, die schwarze Linie zeigt die 50 %-Kontourlinie für das Auftreten von Schnee. Auch das grönländische Inlandeis (blau/grau) und die Position von Gletschern (gold) sind eingetragen.
Die Karte der Südhemisphäre zeigt das ungefähre Maximum der Meereisbedeckung während eines Südwinters (13.9.2012). Die gelbe Linie markiert wieder die 30-jährige mittlere Meereisausdehnung.

Quelle: IPCC

Landeis bildet sich entweder direkt durch Gefrier- und Depositionsvorgänge oder aus Schnee, der im Laufe vieler Jahre unter dem Druck des ständig neu abgelagerten Schnees zu Firn umgewandelt wird. Durch weitere Kompaktion, die zur Zunahme der Dichte und zur Verringerung der Porenräume führt, bildet sich aus Firn schließlich Eis, das als sedimentäres Eis bezeichnet wird. Gletschereis besteht vorwiegend aus sedimentärem Eis. Im Gegegensatz zum sedimentären Eis enthält der für die periglazialen Räume der Erde typische Permafrost überwiegend sogenanntes magmatisches Eis, das durch Gefrier- und Depositionsprozesse z.B. im Untergrund entsteht.

Meereis bedeckt im Jahresmittel rund 6 % der Weltmeere. Im Gegensatz zum Landeis, das große Mächtigkeit erreicht und viele hunderttausend Jahre alt sein kann (in der Antarktis bis zu 14 Mio. Jahre), ist das Meereis selten älter als ein bis sechs Jahre. Es schmilzt größtenteils im Sommer (Antarktis) oder treibt innerhalb weniger Jahre in wärmere Gebiete (Arktis). Meereis bildet große Eisschollen, und obwohl es selten dicker als drei bis sechs Meter wird, spielt es eine wichtige Rolle im Klimasystem der Erde.

Die Kryosphäre spielt in vielerlei Weise eine außerordentlich wichtige regulierende Rolle im globalen Klimasystem: So liefert sie einen wichtigen Beitrag zum Oberflächenenergiehaushalt der Erde, reguliert den globalen Wasserkreislauf, beeinflusst Gasaustauschprozesse und ist hauptverantwortlich für den Anstieg des Meeresspiegels. Ihre natürliche Sensitivität gegenüber Temperaturschwankungen macht die Kryosphäre zusätzlich zu einem äußerst sensitiven Klimaindikator dessen globale Beobachtung wichtige Informationen zur Variabilität des Weltklimas bereitstellen kann.

Ferner ist Wissen um den Zustand der Kryosphäre wichtig für die Verfügbarkeit von Süßwasserressourcen, für die Navigation, Fischerei, Rohstoffexploration und -förderung und viele weitere Bereichen. Fluktuationen in der Ausdehnung der Kryosphäre haben weitreichende sozioökonomische Folgen und Auswirkungen auf die Atmosphäre wie auch auf die Biosphäre. Verlässliche Daten aus globalem Monitoring ist Voraussetzung, um Fragen im Zusammenhang mit Klima und Kryosphäre im Erdsystem verstehen zu könen. Trotz der Bedeutung der Kryosphäre ist sie der Teil des Erdsystems, über den am wenigsten Daten vorliegen.

Grönlands Eisschichten in 3D

Dreidimensionale Ansicht des Alters und der Struktur des grönländisches Eisschildes

Zur Erzeugung dieser Darstellung benutzten Wissenschaftler die Daten von Radarmessungen, die sie während der NASA-Kampagne IceBridge und bei früheren, luftgestützten Kampagnen gewonnen haben. Die Radarstrahlen vermögen das Eis zu durchdringen.

Der Blick auf die tausende gefrorenen Schichten innerhalb des Eisschildes ist wie ein Blick zurück in die Erdgeschichte. Jede Schicht ist ein Klimazeugnis über die Zeit der beginnenden Zivilisation oder der letzten Eiszeit oder einer vergangenen Warmzeit, ähnlich der, in der wir aktuell leben.

Zur Animation auf Grafik klicken (externer Link zu YouTube)

Quelle: NASA

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb. Die zweite Generation dieser Laser-Altimetermission (ICESat-2) wird voraussichtlich 2018 starten.

Seit wenigen Jahren hat das von der WMO geförderte Programm Global Cryosphere Watch (GCW) seine Arbeit aufgenommen, das als internationales Instrument zur Unterstützung aller wesentlichen in situ- und Fernerkundungsbeobachtungen bezüglich der Kryosphäre fungiert.

Weitere Informationen:

Kryosphäre und Fernerkundung

Gegenstand der Fernerkundung der Kryosphäre ist die Erfassung der Schnee- und Eisbedeckung von Land- und Wasserflächen hinsichtlich Flächengröße, Mächtigkeit, Eisbewegung, Massenbilanz, Wasseräquivalenz und deren zeitlichen und räumlichen Veränderungen mit Hilfe von flugzeug- oder satellitengestützten Fernerkundungsmethoden.

Noch immer gilt das Monitoring der Kryosphäre als unzureichend, auch wenn seit einigen Jahren die Satellitenfernerkundung einen Quantensprung bewirkt hat. Künftig sollen bisherige und neue Meereisparameter für einen längeren Zeitraum aus Satellitendaten zur Verbesserung von Vorhersage- und Klimamodellen bereitgestellt werden.

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens (Rockot) beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb.

Digitale Terrainmodelle
Die digitale Analyse luftgestützter Stereodaten aus herkömmlichen Luftbildern oder Zeilensensoren erlaubt die automatische Generierung von digitalen Terrainmodellen (DTM, DGM) und die simultane Orthoprojektion der ursprünglichen Bilddaten. So erstellte DTM haben eine vertikale Genauigkeit im Bereich einiger Dezimeter bis Meter. Die hochgradige Automatisierung vieler Verarbeitungsschritte ermöglicht die Bearbeitung großer Geländeausschnitte. Die erhaltenen orthoprojizierten Bilddaten können zu multispektralen Klassifikationen herangezogen werden, aber auch der hochauflösenden, flächenhaften Messung des Gletscherfließens dienen.

Ganz neue Möglichkeiten zur Akquisition von DTM-Daten eröffnet das Laserscanning. Die resultierenden DTM haben eine horizontale Auflösung von wenigen Metern und eine vertikale Genauigkeit von wenigen Dezimetern.

Ähnlich wie bei den oben genannten passiven optischen Flugzeugsensoren kann heute Dank globaler Positionierungssysteme (GPS) und inertialer Navigationssysteme (INS) an Bord der Flugweg und die Sensororientierung direkt bestimmt werden. So wird die notwendige Bodeninformation zur Rekonstruktion der geometrischen Aufnahmeparameter (Passpunkte) auf ein Minimum reduziert. In der Gletscherbeobachtung von besonderer Bedeutung ist die Eigenschaft des Laserscanning, als aktiver Sensor auch (oder sogar besonders gut) über verschneitem Gelände zu funktionieren. Wegen fehlenden optischen Kontrasts sind solche Zonen die Problemfälle passiver optischer Verfahren. Laserscanning erlaubt so erstmals die wirklich flächendeckende Bestimmung von DTM über Gletschern bzw. entsprechender vertikaler Veränderungen. Die Intensitäten der Laserreflektionen ergeben ferner eine Bildinformation, die zwar in räumlicher und radiometrischer Auflösung nicht an Luftbilder oder Zeilensensoren herankommt, aber doch einen wertvollen Datensatz bei der Datenanalyse darstellen kann.

'Arbeitspferde' der weltraumgestützten Gletscherbeobachtung sind zweifellos die multispektralen Satellitensensoren wie zum Beispiel Landsat TM und ETM+, ASTER, IRS oder SPOT. Mit solchen Sensoren können große Gebiete mit einer Bodenauflösung von einigen Metern bis wenigen Dekametern regelmäßig beobachtet werden. Die multispektralen Daten ermöglichen eine weitgehende Automatisierung bei der Extraktion von Eis- und Schneeflächen. Stereosensoren wie ASTER erlauben sogar die simultane automatische Extraktion von DTM mit einer Auflösung und vertikalen Genauigkeit von einigen zehn Metern. Gerade bei der Analyse von hochalpinen glazialen Prozessen, die ja häufig von der Reliefenergie regiert werden, ist die Verfügbarkeit von DTM außerordentlich wichtig. Mit Sensoren wie denen von IKONOS und QuickBird, die räumliche Auflösungen im Meter- und Submeterbereich besitzen, verschwimmen die Unterschiede zwischen optischer luft- und weltraumgestützter Fernerkundung zunehmend.

Mit ähnlicher bis leicht besserer Genauigkeit als aus optischem Satellitenstereo werden großflächige DTM aus satelliten-gestütztem InSAR (Interferometric Synthetic Aperture Radar) erzeugt. Dabei werden bei räumlichen Auflösungen von einigen Metern vertikale Genauigkeiten von einigen Dezimetern erzielt. Dieses Mikrowellenverfahren ist besonders in Gebieten mit häufiger Wolkenbedeckung wegen seiner Fähigkeit zur Wolkendurchdringung den optischen Verfahren klar überlegen. Noch wenig erforscht ist die thematische Information, welche die reflektierten Mikrowellen über die Eis- und Schneeoberfläche enthalten. Aus elektromagnetischen Überlegungen heraus kann dabei aber zumindest langfristig von einem großen Potential ausgegangen werden.

Besonders hervorzuheben ist die Shuttle Radar Topography Mission (SRTM), die aufgrund einer Messkampagne im Februar 2000 für den Bereich zwischen 60° nördlicher und 54° südlicher Breite ein DTM mit 30 m Bodenauflösung und ca. 20 m horizontaler und vertikaler Genauigkeit geliefert hat.

Neben der DTM Akquisition erlaubt InSAR im differentiellen Modus (DInSAR) die Messung von kleinsten Geländeverschiebungen. Von einer Anzahl großer Gletscher (vor allem in höheren Breiten) konnten so Fließfelder oder zumindest typische Eisgeschwindigkeiten ermittelt werden. Dieses Verfahren ergänzt sich in vielerlei Hinsicht hervorragend mit der Bewegungsmessung aus wiederholten optischen Satellitenbildern mit Hilfe von image-matching-Verfahren.

Gebirgskryosphäre
Für die Überwachung der Gebirgskryosphäre sind Fernerkundungstechnologien in einer sich erwärmenden Welt unerlässlich. Satellitenmissionen und erdgebundene Messsysteme haben das Verständnis für die Prozesse, die die Dynamik von Gebirgsgletschern, die Schneedecke, die Entwicklung von Seen und die damit verbundene Entstehung von Gefahren (z. B. Lawinen, Überschwemmungen, Erdrutsche) beeinflussen, verändert. Sensoren und Geräte werden immer besser auf die Bedürfnisse der Kunden zugeschnitten, wobei die Innovation vom kommerziellen Sektor vorangetrieben wird, und Bilddatenbanken sind immer häufiger frei zugänglich, was zu einer Demokratisierung der Datenanalyse und -auswertung führt. Cloud Computing, künstliche Intelligenz und maschinelles Lernen verändern unsere Fähigkeit, mit dieser exponentiellen Datenzunahme umzugehen, rapide.

Meereis
Auch die Meereisbedeckung spielt eine wichtige regulative Rolle im globalen Klimasystem. Unter anderem verändert sie die Oberflächenalbedo und den Wärmehaushalt der Ozeane, bestimmt den Salzgehalt und die Dichte des Oberflächenwassers und erschwert den Gasaustausch zwischen den Meeren und der Atmosphäre. Darüber hinaus ist das Meereis ein essenzieller Bestandteil des polaren Ökosystems und bietet Lebensraum für einen großen Teil der polar angepassten Flora und Fauna. Um die Rolle des Meereises im globalen Klimasystem zu charakterisieren und dessen dynamische Rückkopplungseffekte mit dem sich erwärmenden Weltklima besser zu verstehen, sind regelmäßige großflächige Messungen der Ausdehnung und Dicke des Meereises unabdingbar. Darüber hinaus sind Beobachtungen des Meereises auch zur Sicherung mariner Transportwege und zur Planung von Öl-Förderanalagen in polaren Regionen von praktischer Bedeutung.

Die kontinuierliche und regelmäßige Beobachtung des Meereises auf globaler Skala ist nur mit satellitengestützter Fernerkundung im Mikrowellenbereich des elektromagnetischen Spektrums möglich. Seit Anfang der 1970er Jahre erlauben derartige Satellitenmessungen die Bestimmung der Meereisfläche trotz Wolken und langer Polarnacht. Diese Daten gehen zusätzlich in die Bestimmung der Meereisdrift ein.

Im bisherigen Ergebnis wird in den letzten Jahren ein gravierender Rückgang der arktischen Meereisfläche um etwa 40% beobachtet, der einem starken Anstieg in der mittleren zentral-arktischen Lufttemperatur um fast 3 °C seit dem Ende der 1980er Jahre folgt. Messungen mittels satellitengestützter Altimetrie oder luftgestützter elektromagnetischer Induktion deuten auf eine starke Abnahme der Eisdicke hin, wenngleich die hohe Variabilität und die großen Ungenauigkeiten verlässliche Aussagen erschweren.

In Hinblick auf die bisherigen Beobachtungsgrößen Meereisausdehnung und Bedeckungsgrad (Konzentration) geht es hauptsächlich darum, bereits existierende Methoden zu verbessern und die Datensätze zu erweitern. Neue Verfahren sind erforderlich zur Bestimmung der Meereisdicke, der Oberflächeneigenschaften, des Deformationszustandes und der Schneeauflage. Diese Daten sollen Eingang finden in Meereisvorhersagemodelle und regionale und globale Klimamodelle. Im Einzelnen sollen folgende Untersuchungen durchgeführt werden:

Eine konventionelle Methode zur Bestimmung der Dicke des Packeises stammt noch aus der Zeit des Kalten Krieges. Amerikanische und sowjetische U-Boote unternahmen regelmäßig Patrouillenfahrten unter dem Eis des Nordpols. Um im Notfall schnell auftauchen zu können, wurde ständig die Eisdicke mithilfe des Sonars gemessen. Auf diese Weise wurde die Eisdicke des Nordpolarmeers im Lauf der Zeit kartiert und diese Daten werden mittlerweile auch den zivilen Wissenschaftlern zur Verfügung gestellt.

Die folgende Grafik stellt das arktische Meereisminimum im Jahr 2013 dar. Nach einem ungewöhnlich kühlen Sommer in den nördlichsten Breiten scheint das arktische Meereis seine jährliches Flächenminimum am 13. September 2013 erreicht zu haben. Die Analyse von Satellitendaten durch das National Snow and Ice Data Center (NSIDC) zeigte, dass das Meereis auf 5,10 Mio. km² zusammenschrumpfte. Die Fläche des Meereises ist in diesem Jahr wesentlich größer als beim letztjährigen Rekordminimum. Am 16. September 2012 hatte das arktische Meereis eine Ausdehnung von lediglich 3,41 Mio. km², was der geringste je von Satelliten beobachtete Wert war und nur etwa die Hälfte der durchschnittlichen Minimalwerte von 1891 - 2010 ausmachte.

npseaice_am2_2013256

npseaice_am2_2013256_palette

2013 Arctic Sea Ice Minimum

Obwohl 2013 weniger Meereis schmolz als 2012, ist der diesjährige Betrag der sechstgeringste unter den Satellitenaufzeichnungen. Dieses Jahr setzt einen langfristigen Abwärtstrend von ca. 12 % Verlust an arktischem Meereis pro Dekade seit den späten 1970ern fort. Diese Abnahme hatte sich seit 2007 beschleunigt.

Die Karte links zeigt die Ausdehnung des arktischen Meereises am 13. September 2013. ‚Ausdehnung‘ (engl. extent) bezeichnet die gesamte Fläche in der die Eiskonznetration mindestens 15 % beträgt. Die Karte wurde zusammengestellt aus Beobachtungsdaten des Sensors Advanced Microwave Scanning Radiometer 2 (AMSR-2) auf dem Satelliten Global Change Observation Mission 1st–Water (“Shizuku”), welcher von der Raumfahrtagentur Japan Aerospace Exploration Agency (JAXA) betrieben wird. Die gelbe Linie in der Karte zeigt die mittlere Meereisausdehnung in den Septembermonaten der Jahre 1981 bis 2010.

Quelle: NASA Earth Observatory

Inlandeis
Eine umfassende Beschreibung des Zustandes und der Veränderung der polaren Eisschilde kann nur mit starker Unterstützung moderner Fernerkundungsverfahren durchgeführt werden und bedarf der wiederholten Messung sowohl des Eisvolumens (Ausdehnung und Eisdicke) als auch der Eisbewegung. Heutzutage wird zur Lösung dieses komplexen Beobachtungsproblems eine Vielzahl von flugzeug- und satellitengetragenen Fernerkundungssystemen miteinander kombiniert. So wird Information über die Bewegung des Eises üblicherweise aus Wiederholaufnahmen bildgebender Fernerkundungssensoren abgeleitet, die entweder im optischen oder im Radarwellenlängenbereich operieren. Zur großflächigen Schätzung der Eisdicke wird häufig zunächst die Topographie des Untergrundes mit flugzeuggetragenen Bodenradaren abgetastet, um diese Information danach mit Altimetermessungen der Eisoberfläche zu kombinieren. Änderungen der Eisdicke und damit die Massenveränderungen eines Eisschildes können dann aus wiederholten Altimetriemessungen abgeleitet werden.

Alternativ werden großräumige Eismassenverluste auch aus Daten der GRACE-Mission extrahiert, welche die Veränderung des lokalen Schwerefelds über die Zeit beobachtet. Jüngste Verbesserungen in der Qualität, räumlichen Auflösung und Wiederholrate aller dieser Fernerkundungssysteme haben die Fähigkeit zur Identifizierung und Quantifizierung von Veränderungen der Eisschilde deutlich verbessert. Zusätzlich werden die kontinuierlich anwachsenden Beobachtungszeitserien dieser Fernerkundungssensoren zunehmend robustere Messungen dieser Veränderungen ermöglichen, und die aus Fernerkundungsdaten abgeleitete Information wird eine Reihe neuer wissenschaftlicher Erkenntnisse zur Rolle der Eisschilde im Klimasystem ermöglichen. (Meyer 2017)

Die Radaraltimetrie ist derzeit die wichtigste Methode zur flächendeckenden Bilanzierung von Eismassen in Grönland und in weiten Bereichen der Antarktis (bis 82°S). Die verfügbaren Zeitreihen der Radaraltimetrie reichen von SEASAT (1978) über GEOSAT (1985-1989), ERS-1 (1991-1996) zu ERS-2 (1995-heute). Mit dem 2002 gestarteten Satelliten ENVISAT wurden die Messungen mit einer deutlich verbesserten Genauigkeit fortgesetzt. Schwerpunkte der Untersuchungen sind die Bestimmung der zeitlichen und räumlichen Variationen

Mit dem Start der ICESat-Mission (2003-2010) standen erstmalig ein Laseraltimeter zur Bestimmung der Oberflächenformen über Landeis zur Verfügung. Mit diesem Messverfahren können nunmehr auch kleinskalige Oberflächenformen in der Größenordnung von 100 m erfasst werden. In der Kombination mit konventionellen Radaraltimetern ergeben sich deutlich verbesserte Möglichkeiten zur Bestimmung von Eismassenbilanzänderungen der polaren Gebiete. Bis zum Start von ICESat-2-Mission wurde die Datenerfassung von amerikanischer Seite vorübergehend durch die Operation IceBridge (2009-2019) geleistet.

Die CryoSat-2-Mission (2010-2019) erschließt der Radaraltimetrie wesentlich breitere Anwendungsfelder. Mit dem interferometrischen Radaraltimeter wird die Erfassung kleiner Höhenunterschiede auf kurzen räumlichen Skalen ermöglicht. Damit rückt erstmalig die Detektion von Eismassenänderungen auch auf kurzen zeitlichen Skalen in den Bereich des Möglichen. Die Kombination von in-situ-Messungen (ground truth von Schnee- und Eisparametern) mit den Fernerkundungsdaten der Radaraltimetrie schafft die Voraussetzungen für eine detaillierte Analyse der Veränderungen.

Die flächendeckende Messung der Eisbewegung von Land- und Schelfeis erfolgt durch die Überlagerung hochauflösender Satellitenbilder. Die zur Zeit genaueste Methode ist die interferometrische Anwendung von abbildenden Radarsystemen (Synthetisches Apertur Radar - SAR). Die hohe Genauigkeit ermöglicht die Ableitung von horizontalen und vertikalen Bewegungskomponenten. Besonders Erfolg versprechend ist die Analyse von Daten der "Eis-Phase" des ERS-1 (1991/92, 1993/94), sowie der ERS-1/2 Tandem-Mission (1995-1999). Gegenwärtig wird die SAR Interferometrie hauptsächlich auf Auslassgletscher der Eisschilde angewendet.

In Kombination mit flugzeuggetragenen Eisdickenmessungen und Annahmen über das vertikale Geschwindigkeitsprofil wird so die Messung des Massenflusses über die Aufsetzlinie bestimmt. Die genaue Positionsbestimmung der Aufsetzlinie ist ebenfalls mittels SAR Interferometrie möglich. Migration der Aufsetzlinie, Abschmelzen und Anfrieren an der Schelfeisunterseite sowie die Dynamik des Kalbens an der Schelfeiskante sind weitere wichtige Größen in der Massenbilanz des Eisschildes, zu deren Beobachtung die SAR- Interferometrie wichtige Beiträge leistet.

Neue Sensoren weisen gegenüber dem ERS-SAR wesentliche technische Modifikationen auf. Das ASAR (Advanced SAR) des ENVISAT ermöglicht, ähnlich dem Radarsat, die kontinuierliche Abbildungen von unterschiedlich großen Aufnahmestreifen mit variierbarer Auflösung und Polarisation. TerraSAR-X und TerraSAR-L sind für die Erkundung von Landeis wegen der kurzen Wiederholraten und der flexiblen Aufnahmegeometrie von besonderem Interesse. Das X-Band-SAR ermöglicht eine hochaufgelöste Kartierung und Signaturstudien, das L-Band-SAR verspricht zusätzlich durch hohe Kohärenz über längere Zeiträume neue Impulse für die interferometrische Analyse von Schnee und Eis. In naher Zukunft wird die Palette von abbildenden Radarsystemen bedeutend erweitert und wesentlich zur Analyse der Schneedecke und der Eisdynamik und ihrer Änderungen beitragen.

Gegenwärtige und künftige Satelliten und Sensoren
zu Schlüsselvariablen der KryosphäreSatellitenmissionen zur Kryosphäre

Quelle: IGOS (2007)

Weitere Informationen:

Ku-Band

Mikrowellenbereich zwischen 12,4 GHz und 18 GHz (1,67 - 2,4 cm Wellenlänge; Angaben schwankend). Beispielsweise benutzte das Radaraltimeter auf den ERS-Satelliten einen Ku-Band-Sender mit 13,8 GHz, der senkrechte Mikrowellen abstrahlt und die Laufzeit des Echos misst. Daraus lassen sich Daten über Wellenhöhe, Wind, Meerespiegelhöhe, Gezeiten, Eisflächen und Geoidgestalt ableiten. Auch das 13-GHz-TRMM-Radar ist ein Ku-Band-Radar.
Abb. siehe K-Band

kubische Konvolution

Syn. kubische Faltung; engl. cubic convolution; Resampling, bei dem der neue Grauwert als lineare Kombination der Grauwerte der 16 nächsten Nachbarn des alten Rasters berechnet wird.

Die Methode verwendet eine Art Hochpassfilter in der Größe von 4 x 4 Pixeln um eine Interpolation höherer Ordnung durchzuführen; dabei werden die Grauwerte des Ausgabebildes über die Matrix neu berechnet. Die Ergebnisse der kubischen Faltung sind bzgl. der Lagegenauigkeit sehr gut, allerdings steht ihr hoher Rechenaufwand dem praktischen Einsatz für große Datenmengen gegenüber (ca. 7 x langsamer als die Nearest Neighbour-Methode).

Kulmination

Punkt, an dem ein Satellit seine höchste Position erreicht.

Kulturerbe und Fernerkundung

Das Kulturerbe (engl. cultural heritage, CH) besteht aus den Ressourcen, die aus der Vergangenheit in allen Formen und Aspekten - materiell, immateriell, natürlich und digital (sowohl genuin digital wie auch digitalisiert), einschließlich Denkmälern, Stätten, Landschaften, Fähigkeiten, Praktiken, Wissen und Ausdrucksformen der menschlichen Kreativität, sowie Sammlungen, die von öffentlichen und privaten Einrichtungen wie Museen, Bibliotheken und Archiven konserviert und verwaltet werden. Es entsteht durch die Interaktion zwischen Menschen und Orten im Laufe der Zeit und entwickelt sich ständig weiter. Diese Ressourcen sind für die Gesellschaft aus kultureller, ökologischer, sozialer und wirtschaftlicher Sicht von großem Wert und daher stellt ihre nachhaltige Behandlung eine strategische Entscheidung für das 21. Jahrhundert dar.

Im Sinne des Übereinkommens zum Schutz des Kultur- und Naturerbes der Welt gelten als "Kulturerbe":

Kulturerbestätten (CH sites) sind durch eine Vielzahl von natürlichen und anthropogenen Faktoren bedroht. Zum Schutz der Landschaften und der CH-Standorte sind innovative und kostengünstige Instrumente zur systematischen Überwachung vonnöten. Nachhaltige Bewirtschaftungs- und Nutzungsstrategien sowie geeignete Schutz- und Minderungsstrategien sind zwingend erforderlich, um das kulturelle Erbe zu erhalten und Bedrohungen, Verwitterungserscheinungen und menschliche Handlungen zu reduzieren, die zu einer erheblichen Verschlechterung und Veränderung des kulturellen Erbes und "seiner Umwelt" führen können.

In diesem Zusammenhang können Fernerkundungstechnologien nützliche Daten liefern, um Informationen und Dokumentationen rechtzeitig zu aktualisieren und zuverlässige Instrumente für die systematische Überwachung von Kulturgütern einzurichten.

Die Erdbeobachtung kann die Dokumentation von CH stark beschleunigen und gleichzeitig multidisziplinäre Forschungsgruppen (z.B. Archäologen, Architekten, Historiker, Bibliothekare, etc.) z. B. in die Aktivitäten der Group on Earth Observations (GEO) einbeziehen, die bisher nicht interessiert waren. Neueste hochauflösende Satellitenbilder bieten die Möglichkeit, Gebiete in großem Maßstab einfach zu kartieren. Allerdings sind detaillierte Spezifikationen erforderlich, ebenso wie die Frage, wie aus den aus der Ferne erfassten Daten genaue Kartografien abgeleitet werden können, die die UNESCO dann in ihren Anfragen an die Länder zur Verbesserung der Kartographie für die UNESCO-Welterbe-Datenbank verwenden kann.

Auch ist die Fernerkundung im Bereich des Kulturerbes nicht zuletzt dank ihrer Nicht-Invasivität bei einem so heiklen Studiengegenstand eine der wichtigsten Technologien. Dank der Verbesserung und Schaffung neuer Sensoren wird es in vielen Anwendungsfällen eingesetzt, die von der Konservierungsanalyse in Denkmälern, Fresken, Fensterrosen, Wandmalereien bis hin zur archäologischen Standorterkennung und zum Objektschutz reichen. Zusammen mit der Entwicklung neuer Sensoren und neuer Anwendungen wurden viele Datenverarbeitungswerkzeuge und -methoden zur Musterextraktion entwickelt. Dazwischen gibt es einige neue Studien, die die Geovisualisierung nutzen, um die Analyse verschiedener Arten von Fernerkundungsdaten zu integrieren und nützliche Muster für Anwendungen im Bereich des Kulturerbes zu extrahieren. Geovisualisierung ist eine Disziplin, die die großen Computerleistungen ausnutzt, die heute im Bereich der geographischen Informationsanalyse zur Verfügung stehen und dies im Zusammenwirken mit der menschlichen Fähigkeit, visuelle Muster zu finden.

Siehe auch Archäologie und Fernerkundung

Weitere Informationen:

kurzwellige Infrarotstrahlung

Siehe kurzwelliges Infrarot

kurzwellige Strahlung

Strahlung mit Wellenlängen, die kürzer als die des sichtbaren Lichts sind oder auch dieses noch mit umfassen. Zur kurzwelligen Strahlung gehört die ultraviolette Strahlung mit Wellenlängen von 315 nm* bis 380 nm (UV-A), 280 nm bis 315 nm (UV-B) und 100 nm bis 280 nm (UV-C). Röntgen- und Gammastrahlung besitzen noch kürzere Wellenlängen.

Die Sonne sendet überwiegend kurzwellige Strahlung mit einer Wellenlänge zwischen 10-7 m und 10-5 aus. Die maximale Intensität liegt bei 5 · 10-7 m im sichtbaren Spektralbereich (grün). Hier liegt auch die maximale Empfindlichkeit des menschlichen Auges.
________________________________
*1 nm ist 10-9 m oder 10 Å (Ångström)

kurzwelliges Infrarot

Engl. shortwave infrared (SWIR); das kurzwellige Infrarot ist ein Teil des infraroten Spektralbereichs, mit unterschiedlichen Abgrenzungen. Im Bereich der Fernerkundung wird häufig der Bereich zwischen ~1,3 µm und ~3,0 µm. Damit grenzt es unmittelbar an das nahe Infrarot (NIR).

Die Begriffe und Grenzen sind nicht eindeutig wie im sichtbaren Bereich definiert und werden teils durch Anwendungen oder spezielle physikalische Phänomene bestimmt, weshalb es mehrere unterschiedliche Festlegungen gibt. Das International Commission on Illumination (CIE) und DIN schlagen die Einteilung in drei Bänder vor: IR-A, IR-B und IR-C. Die Festlegung mit den Bezeichnungen NIR (0,78 - 3 µm), MIR (3 - 50 µm) und FIR (50 - 1000 µm) folgt der ISO 20473.

Die Erfassung von Satellitenbildern im SWIR-Wellenlängenbereich bietet einzigartige Vorteile, darunter eine verbesserte atmosphärische Transparenz und Materialidentifizierung. Aufgrund ihrer chemischen Zusammensetzung weisen viele Materialien spezifische Reflexions- und Absorptionsmerkmale in den SWIR-Bändern auf, die ihre Charakterisierung aus dem Weltraum ermöglichen. Beispiele hierfür sind Mineralien, die bei der Rohstoffsuche verwendet werden, städtische Elemente wie Dächer und Baumaterialien, Vegetation, Erdöl (z. B. bei einem Ölaustritt) und eine Vielzahl anderer vom Menschen hergestellter chemischer Verbindungen. Schnee und Eis zeigen ausgeprägte Variationen in einigen SWIR-Bändern, und SWIR-basierte Bildgebung kann sogar einige Arten von Rauch durchdringen, z. B. von einem Waldbrand.

Atmosphärische Aerosole beeinflussen kürzere Wellenlängen, vor allem im sichtbaren Bereich, und haben einen geringeren Einfluss auf die SWIR-Bänder. Wassermoleküle absorbieren jedoch Licht in einigen SWIR-Wellenlängen, wodurch die Atmosphäre in diesen Bereichen nahezu undurchsichtig wird. Fernerkundungsdaten müssen daher in atmosphärischen Fenstern zwischen diesen Wasserabsorptionswellenlängen erfasst werden, was die Platzierung der Sensorbänder einschränkt.

Atmosphärische Fenster
SWIR-Sensoren können in drei atmosphärischen Fenstern eingesetzt werden. Das erste Fenster, das mit kürzeren Wellenlängen beginnt, liegt bei 1250 nm. Die Bänder hier sind nützlich, um Eisenabsorptionsmerkmale (bei kürzeren Wellenlängen) zu erfassen. Vegetationsindizes, die auf den Feuchtigkeitsgehalt der Blätter ansprechen, wie der Normalized Difference Water Index, verwenden ebenfalls Banden im 1250-nm-Fenster.

Das zweite SWIR-Fenster liegt ungefähr zwischen 1500 und 1750 nm. Künstlich hergestellte Materialien und Chemikalien weisen in diesem Bereich mehrere Absorptionsmerkmale auf. Beispiele hierfür sind Kunststoffe, Glasfasern und Erdöl. Auch Schnee und Eis können in diesem Fenster von Wolken unterschieden werden.

Das dritte atmosphärische Fenster - zwischen 2000 und 2400 nm - bietet aufgrund seiner mineralischen Absorptionsmerkmale einzigartige Möglichkeiten. Bei ausreichender radiometrischer Auflösung des Sensors können Beobachter in diesem Fenster Mineralien identifizieren und chemische Messungen durchführen, die in anderen reflektierten Wellenlängen nicht möglich sind.

SWIR-Sensor vs. Sensor für sichtbares Licht

SWIR-Licht ist von Natur aus reflektierend und wird von Objekten ähnlich wie sichtbares Licht zurückgeworfen. Allerdings ist SWIR-Licht für das menschliche Auge nicht sichtbar. Infolge der reflektierenden Natur hat SWIR-Licht Schatten und Kontrast in seinen Bildern (der Kontrast hängt von der radiometrischen Auflösung des Sensors ab). Im Gegensatz zu Bildern aus sichtbarem Licht ist das SWIR-Bild nicht farbig. Dadurch lassen sich Objekte leicht erkennen, was einen der taktischen Vorteile des SWIR-Lichts darstellt, nämlich die Identifizierung von Objekten oder Personen.

SWIR-Sensor vs. Wärmesensor

Thermosensoren sind ein weiterer wichtiger Sensortyp, da sie Wärme sehen können und daher für die thermische Kartierung verwendet werden. Anstatt die Temperatur der Luft zu messen (wie es Wetterstationen tun), erfassen sie die Bodenwärme. Wärmesensoren erfassen Bilder von warmen Objekten vor einem kühlen Hintergrund und liefern keine Bilder mit guter Auflösung (100 m bei Landsat 8). SWIR-Sensoren hingegen haben eine hohe Auflösung (30 m bei Landsat 8, 3,7/7,5 m bei WorldView 3) und können tatsächlich erkennen, um welches Objekt es sich handelt. Sie können auch aktive Brandherde lokalisieren, Brandherde aufspüren und abschätzen, wo das Feuer am heißesten brennt, so dass die Hilfsmaßnahmen möglichst effizient ausgerichtet werden können.

Wie SWIR-Bilder sind auch sie nicht farbig. SWIR-Sensoren sind kleiner als Wärmesensoren und sind daher eine geringere Nutzlast auf dem Satelliten.

SWIR-Sensor vs. Panchromatischer Sensor

Der panchromatische Sensor erfasst Bilder in einem einzigen Band (schwarz-weiß), anstatt die sichtbaren Farben (rot, grün, blau) getrennt zu erfassen, und kombiniert sie in einem Kanal oder Band. Der panchromatische Sensor kann mehr Licht auf einmal sehen und hat eine sehr hohe räumliche Auflösung (31 cm bei WorldView 3) als alle anderen Sensortypen. Allerdings kann der panchromatische Sensor bei Nacht und durch Rauch nicht sehen.

SWIR-Sensoren haben zwar keine vergleichbare räumliche Auflösung, aber sie haben eine hohe räumliche Auflösung (3,7/7,5 Meter bei WorldView 3, 30 m bei Landsat 8). SWIR-Sensoren können in der Nacht und durch Rauch hindurch sehen.

SWIR-Sensor vs. NIR-Sensor

Nahinfrarotsensoren sind für die Ökologie äußerst wichtig, da gesunde Pflanzen das Licht reflektieren - das Wasser in ihren Blättern streut die Wellenlängen zurück in den Himmel. Sie können zur Überwachung der Vegetation, von Pflanzenstress usw. eingesetzt werden. Durch den Vergleich mit anderen Bändern erhalten wir Indizes wie NDVI, mit denen wir den Gesundheitszustand von Pflanzen genauer messen können, als wenn wir nur das sichtbare Grün betrachten. NIR-Sensoren geben jedoch keine Auskunft über die Geologie, Felsen usw.

SWIR-Sensoren sind besonders nützlich, um feuchte von trockener Erde zu unterscheiden, und für die Geologie: Felsen und Böden, die in anderen Bändern ähnlich aussehen, weisen im SWIR oft starke Kontraste auf (vgl. Abb. unten).

Wasser absorbiert kurzwelliges Infrarot in drei Bereichen: 1.400, 1.900 und 2.400 Nanometer. Je mehr Wasser vorhanden ist, auch im Boden, desto dunkler erscheint das Bild bei diesen Wellenlängen. Das bedeutet, dass SWIR-Messungen Wissenschaftlern helfen können, den Wassergehalt von Pflanzen und Böden abzuschätzen. Kurzwellen-Infrarotbänder sind auch nützlich für die Unterscheidung zwischen Wolkentypen (Wasserwolken und Eiswolken) und zwischen Wolken, Schnee und Eis, die alle im sichtbaren Licht weiß erscheinen. Frisch verbranntes Land reflektiert stark in den SWIR-Bändern, was sie für die Kartierung von Brandschäden wertvoll macht. Aktive Brände, Lavaströme und andere extrem heiße Objekte "glühen" im kurzwelligen Infrarotbereich des Spektrums.

Auf dem Bild unten sind die Berge um die chinesische Piqiang-Verwerfung aus verschiedenen Sand- und Kalksteinarten aufgebaut. Jede Gesteinsart reflektiert kurzwelliges Infrarotlicht anders, so dass es möglich ist, die Geologie durch Vergleich des reflektierten SWIR-Lichts zu kartieren. Durch die Verstärkung der feinen Unterschiede zwischen den 3 Banden des reflektierten kurzwelligen Infrarotlichts, die für dieses Bild verwendet wurden, erhält jedes Mineral eine charakteristische, kräftige Farbe. (NASA)

Die Piqiang-Verwerfung in China in SWIR Die Piqiang-Verwerfung in China, dargestellt im SWIR (2005)

Der Vergleich der Unterschiede zwischen 3 Bändern im kurzwelligen Infrarot verdeutlicht die mineralische Geologie rund um die chinesische Piqiang-Verwerfung. (NASA-Bild von Robert Simmon mit ASTER-Daten).

Quelle: NASA Earth Observatory

Weitere Informationen:

Küsten und Fernerkundung

Bedeutung der Küstenräume
Weltweit leben 20 % der Menschheit weniger als 25 km und 39 % (2,2 Mrd. Menschen) weniger als 100 km von der Küste entfernt. Gleichzeitig machen die 100 km breiten Küstenstreifen nur 20 % der Landfläche weltweit aus. In Dänemark leben 100 %, in Schweden 88 %, in Großbritannien 99 % und in Italien 79 % der Bevölkerung innerhalb der ersten 100 km von der Küste entfernt. In Deutschland beträgt der Anteil hingegen lediglich 15 % (World Resources Institute 2001). 75% der Mega-Städte der Welt sind in Küstenzonen zu finden. Der anteilsmäßige Beitrag der Küstenzone zum Bruttosozialprodukt dürfte deutlich höher sein als der Anteil der in der Küstenzone lebenden Bevölkerung. Die Küstenzone ist damit weltweiter Brennpunkt menschlicher Aktivität.

Küstenzonen besitzen eine große strukturelle Vielfalt (Strände und Dünenlandschaften, Kliffs, Feuchtgebiete, Wattflächen, Korallenriffe, Mangrovenwälder, Eisränder, Ästuare und Lagunen etc.). Sie besitzen außerordentliche Bedeutung als Transformator und Senke für terrestrische Nähr- und Schadstoffe sowie als spezieller Lebensraum für Pflanzen und Tiere. Als Land/Wasser-Übergangszone besitzen sie zudem eine hohe Artenvielfalt und Produktivität. Wenigstens 250.000 der bekannten 1,7 Mio. Tier- und Pflanzenarten leben im Meer, vor allem in den Küstengewässern.

Die ökonomische Bedeutung der Küstengewässer wird vielfach unterschätzt. Sie liefern große Mengen an Fisch, Schalentiere und Tang als Viehfutter und für die menschliche Ernährung. Sie sind Quelle für Dünger, Pharmazeutika, Kosmetika, Haushaltsprodukte und Baumaterial. Fisch trägt beispielsweise weltweit zu etwa 17 % zur Versorgung des Menschen mit tierischem Eiweiß bei. 90 % des weltweiten Fischfangs stammt dabei aus Küstengewässern (World Resources Institute 2001).

Robert Costanza hat versucht die positive ökologische Wertschöpfung der Küstenökosysteme zu monetarisieren. Monetär bewertet werden z.B. die Beiträge zur Gas- und Klimaregulation, zur Erosions- und Verschmutzungsvermeidung, zur Regelung des Wasserhaushalts, zur Nahrungs- und Rohmaterialproduktion oder zur Wertschöpfung im Bereich Freizeit, Tourismus und Kultur. Die höchste Wertschöpfung erreichen dabei Ästuare, Sumpf- und Überflutungsregionen sowie Wattgebiete mit jeweils über 1 Mio. Euro pro km² und Jahr. (G. Schernewski)

Abgrenzungen
Küstenzonen umfassen sowohl einen wasserseitigen als auch einen landseitigen Streifen. Eine verbindliche Definition des Begriffes 'Küstenzone' fehlt. Die räumliche Breite, speziell landwärts, ist daher sehr unterschiedlich. In der Praxis wird die Küstenzone in Deutschland landwärts meist administrativ, durch die inneren Grenzen der Küstengemeinden oder auch die Raumplanungsregionen definiert. Für globale Analysen werden bisweilen aber auch Flächen bis zu 100 km landwärts als Küstenzone herangezogen.

Die seewärtige Ausdehnung der Küstenzone ist weit weniger umstritten. In der Regel wird eine Ausdehnung bis an die 12 Seemeilen-Grenze bzw. die nationale Hoheitsgrenze zugrunde gelegt. Neben dieser administrativen Definition existieren, vor allem in der Wissenschaft, auch biologische und physikalische Definitionen. (G. Schernewski)

Veränderungen
Die Küstenzonen der Welt unterliegen gravierenden Veränderungen. Zum einen, weil sie durch ihre Standortfaktoren oftmals Gunsträume darstellen und dadurch Prozesse wie Urbanisierung und Industrialisierung besonders dynamisch vonstattengehen. Zum anderen, weil Küstengebiete in besonderem Maße von den Auswirkungen des Klimawandels betroffen sind, sei es durch Meeresspiegelanstieg oder ökologische Veränderungen in den sensiblen Küstenzonen. Zurzeit gibt es auf unserem Planeten im Küstenbereich 241 Städte, die mehr als 750.000 Einwohner haben. Die Bevölkerungsdichte in Küstennähe ist etwa 3-mal höher als auf globaler Ebene. Allgemein wird erwartet, dass das komplette globale Bevölkerungswachstum bis 2050 von urbanen Räumen absorbiert werden wird. Der Bevölkerungsdruck auf küstennahe Räume wird sich also zukünftig noch dramatisch verstärken. Die räumlichen Auswirkungen, die mit der stetig voranschreitenden Verstädterung einhergehen, sind aus einer globalen Perspektive heraus weitgehend unbekannt. Der aktuell beste räumliche globale Datensatz zu urbanen Räumen beruht auf Erdbeobachtungsdaten mit einer Auflösung von 309 Metern. Aber auch auf lokaler Maßstabsebene stehen für hochdynamische Städte in Entwicklungs- oder Schwellenländern oft nur generalisierte, veraltete, unzuverlässige oder gar keine Geodaten oder -produkte zur Verfügung. (Taubenböck & Esch 2013)

Aufgrund des wachsenden sozio-ökonomischen Drucks in Küstenzonen, nimmt auch der Stress zu, dem die Küstenökosysteme ausgesetzt sind. Vor diesem Hintergrund sind aktuelle Informationen und Wissen über den Status unserer Umwelt und deren Veränderungen essentiell für ein nachhaltiges Management der Küstenzonen und deren Funktionen, sowie für die Beurteilung von sozio-ökologischen Folgen zukünftiger Entwicklungen im Kontext des globalen Wandels. Die Fernerkundung eröffnet in diesem Zusammenhang vielversprechende Möglichkeiten. Mittels unterschiedlicher Satelliten- und Sensorsysteme können über physische und politische Grenzen hinweg die komplexen räumlichen und zeitlichen Muster anthropogener sowie natürlicher Veränderungen unserer Umwelt kontinuierlich und räumlich konsistent dokumentiert werden. (Leinenkugel et al. 2016)

Sylt multitemporal Sylt - multitemporal

Für die Erstellung dieser Aufnahme wurden drei Bilder von TerraSAR-X übereinander gelegt. Die einzelnen Datensätze wurden am 22., 24. und 27. Oktober 2007 aufgenommen. Alle Gebiete, in denen zwischen den Aufnahmezeitpunkten Veränderungen stattfanden erscheinen in Blau und Grün - insbesondere die durch die Gezeiten beeinflussten Gebiete des Wattenmeeres. Hier verändert sich durch den Wechsel zwischen Ebbe und Flut der Wasserstand von Aufnahme zu Aufnahme.

Die Landflächen erscheinen auf Grund der relativ geringen Veränderungen innerhalb der fünf Tage in Grau- und Brauntönen.

Quelle: DLR

Fernerkundung
Fernerkundungsdaten helfen beispielsweise, die Entstehung und Verteilung von Algenblüten besser zu verstehen und Veränderungen durch den Menschen, wie den Klimawandel oder durch seine Nutzung der Küsten zu erkennen.

Dazu werden die Küsten großflächig mit Satelliten erfasst. Flugzeuge, Luftschiff und Forschungsschiffe werden für hochauflösende Detailaufnahmen eingesetzt. Dabei werden die Inhaltsstoffe des Meerwassers, wie Algen oder Schwebstoffe, mit selbstentwickelten Verfahren anhand der Farbe des Ozeans bestimmt. Diese Auswerteverfahren sind insbesondere auch bei der europäischen Raumfahrtagentur ESA im Einsatz.

Die Bestimmung der optischen und biogeochemischen Eigenschaften des Meerwassers erfordert sehr präzise und aufwendige Messungen der Lichtabsorption oder Lichtstreuung im Meerwasser. Sie werden für verschiedene „Wassertypen“ aus der Luft, im Meer selbst und im Labor durchgeführt.

Die gemessenen Daten werden in optische Modelle und Messmethoden integriert, um die Fernerkundungsdaten mit den analysierten Meerwasser-Proben vergleichen zu können. Erst durch diesen aufwendigen Prozess können die gewünschten Messgrößen aus den Fernerkundungsdaten selbst bestimmt werden. Dazu zählen die Konzentrationen grüner, roter oder brauner Mikroalgen im Meerwasser, die Verteilung von Gelbstoffen und Schwebstoffen, aber auch die Streuung und Absorption des Sonnenlichts im Wasser und die Durchsichtigkeit des Meerwassers.

Zusätzlich werden physikalische Größen wie Strömungen und Wirbel erfasst. Sie haben einen erheblichen Einfluss auf die Verteilung von Mikroplankton und damit auf die Nahrungskette im Meer. Wie sich natürliche oder durch den Menschen verursachte Veränderungen auf die Küste und Meere auswirken, wird durch die vergleichende Analyse von Satellitendaten aus mehreren Jahrzehnten ermöglicht. (HZG)

Der Meeresspiegel ist ein sehr empfindlich auf den Klimawandel reagierender Indikator, indem er Änderungen von Komponenten des Klimasystems widerspiegelt, wie z. B. Wärmehaushalt, Gletscher, Abschmelzen von Eiskappen. Die präzise Überwachung von Veränderungen des mittleren Meeresspiegels ist zusätzlich von grundlegender Bedeutung für die sozialen und ökonomischen Konsequenzen des Meerespiegelanstiegs, besonders in Küstenregionen.

Neue Radaraltimeter, wie die auf CryoSat und auf Sentinel-3 sind für diese Aufgabe besser geeignet als die klassischen Altimeter auf ENVISAT oder Jason-3. Sie sind genauer und können den Meeresspiegel deutlich näher an der Küste vermessen, was gerade für Länder mit sehr zerklüfteten Küstenlinien wie z. B. Norwegen sehr wichtig ist.

Beim DLR erfasst und analysiert die Arbeitsgruppe „Küsten und Flusseinzugsgebiete“ sowohl natürliche als auch anthropogen verursachte Prozesse und deren Aus- und Wechselwirkungen in Küsten und Flusseinzugsgebieten durch den Einsatz von fernerkundlichen Verfahren. Satellitendaten  unterschiedlicher Sensoren und Auflösungen werden durch moderne Ansätze der maschinellen Bildanalyse ausgewertet und zu höherwertigen Geoinformationsprodukten verarbeitet. Die abgeleiteten Informationen bilden die Basis für neue geowissenschaftliche Erkenntnisse und zur Beantwortung von grundlegenden Herausforderungen in Küsten und Flusseinzugsgebieten im Kontext des Globalen Wandels.

Die Anwendungsschwerpunkte des DLR-Teams „Küsten und Flusseinzugsgebiete“ liegen auf:

1. Sozio-ökonomischer Wandel in Küstenzonen und Flusseinzugsgebieten

2. Vulnerabilität, Adaption und Resilienz

3. Interaktionen zwischen Land und Gewässern

Anwendungen basieren auf Erdbeobachtungsdaten unterschiedlichster Sensoren (optisch/ multispektral, thermal, SAR) und räumlichen/zeitlichen Auflösungen. Methodische Schwerpunkte liegen vor allem auf:

Weitere Informationen: