Lexikon der Fernerkundung

K-Band

Radar- und Mikrowellenband mit Wellenlängen zwischen 1,1 und 1,67 cm (10.900 bis 36.000 MHz).

Mikrowellen Mikrowellenbereich


The portion of the spectrum of more recent interest to remote sensing is the microwave region from about 1 mm to 1 m. This covers the longest wavelengths used for remote sensing. The shorter wavelengths have properties similar to the thermal infrared region while the longer wavelengths approach the wavelengths used for radio broadcasts.Quelle: Natural Resources Canada

Ka-Band

Radar- und Mikrowellenband zwischen 33,0 GHz und 36,0 GHz.

Kacheln

Engl. tiles; (Computer-)Grafiken, die mosaikartig zusammengesetzt ein vielfach größeres Gesamtbild ergeben. Beispielsweise besteht ein Orthophotomosaik aus Einzelorthophotos, die ähnlich einem Mosaik aneinandergefügt werden. Um die jeweils zu verarbeitende Datenmenge möglichst gering zu halten, werden solche Mosaike oftmals in Bildkacheln eingeteilt (z. B. in Kacheln zu je einem km²).

Kachelung

In der digitalen Bildverarbeitung Bezeichnung für eine segmentierte Speicherung einer Grauwertmatrix. Gegenüber einer zeilenweisen Speicherung hat die gekachelte Speicherung in quadratischen Segmenten identischer Größe (meist angegeben über Kantenlänge von 2n Pixeln) zahlreiche Vorteile in der Zugriffsgeschwindigkeit, vor allem bei nachfolgenden Operationen wie einer ausschnittsweisen Bildschirmdarstellung, der Bildfilterung im Ortsfrequenzbereich, dem Aufbau von Bildpyramiden und der Bildkompression.
Bei großen Geodatensätzen (Vektor- und Rasterdaten) wird das Gesamtgebiet häufig in Kacheln unterteilt, um einerseits die Erfassung und Primärbearbeitung zu verteilen und zu optimieren, andererseits um das Datenhandling in der Abgabe zu erleichtern, nicht zuletzt aufgrund von Kapazitätsgrenzen vorhandener Speichermedien und der Anwendungssoftware sowie zum effektiven Transfer via Internet. Dazu kann die Kachelung schematisch (z.B. über das Gradnetz oder Gitternetz) oder inhaltsspezifisch (z.B. in kompakte geographische oder administrative Segmente) erfolgen.

Kalibrierung

Engl. calibration, franz. étalonnage; syn. Kalibration, Abgleichvorgang der Messgenauigkeit eines Instruments mit einem bekannten Standard. Nach DIN 18716 die "quantitative Bestimmung von systematischen und reproduzierbaren Eigenschaften eines Sensors anhand referenzierter Normale", verbunden mit der Anmerkung: "Lassen sich diese Eigenschaften modellieren, entspricht die Kalibrierung der Bestimmung von Instrumentenkonstanten".

Beispielsweise bestimmt die Kalibrierung bei Sensoren eines Wettersatelliten den Zusammenhang zwischen der vom Detektor abgegebenen Spannung, die als Signal zur Erde gefunkt wird und der sie verursachenden Strahldichte am Satelliten, die gemessen werden soll. In das Ergebnis der Kalibrierung gehen alle Eigenschaften des optischen Wegs im Radiometer ein, von der Empfangsoptik über Spiegel, Strahlteiler und Filter bis zum Detektor. Solche Kalibrierungen werden i.A. vor dem Start des Satelliten vorgenommen, müssen aber im All überprüft werden, da z.B. mit Alterungserscheinungen zu rechnen ist.

Weitere Informationen:

Kalibrierungskoeffizient (radiometrisch)

Engl. calibration coefficient, franz. coefficient d'étalonnage; nach DIN 18716 der "Wert, der dem relativen Grauwert im Bild (Pixelwert) mittels linearer oder nichtlinearer Beziehungen eine absolute physikalische Strahlungsgröße zuordnet".

Kameraöffnung

Öffnungswinkel eines Kameraobjektivs

Kanal

Syn. Spektralkanal oder Band, Engl. channel, (spectral) band, franz. bande, canal spectral; in der Fernerkundung ein genau definierter Bereich des elektromagnetischen Spektrums. Für den Empfang und die digitale Speicherung von Signalen in solchen Bereichen ist der jeweils spezielle Sensor eines Satelliten zuständig. Dabei werden der aufgenommenen Strahlungsintensität in jedem Kanal Werte von 0 bis 255 zugeordnet. Ordnet man nun jedem Wert eines Kanals einen bestimmten Grauwert zwischen schwarz (=0) und weiß (=255) zu, so kann man ein Bild der aufgenommenen Strahlung erhalten.
Insofern unterscheidet sich das "Wahrnehmungsvermögen" von Sensoren von dem einer Fotokamera, bei der mit der einfallenden Strahlung ein Film belichtet wird.
Der amerikanische Landsat-TM-Sensor erfasst unter anderem jeweils getrennt rotes, grünes und blaues Licht, d.h. der Bereich des sichtbaren Lichts wird in drei Farbbereichen bzw. in drei Kanälen getrennt aufgenommen. Durch additive Farbmischung dieser drei Kanäle (rot+grün+blau=weiß; es können immer nur drei Kanäle gleichzeitig dargestellt werden!) entsteht ein scheinbar natürliches Bild.
Zwar ist der Begriff Kanal gleichbedeutend mit Band, aber bei der Fernerkundung im sichtbaren Licht und im nahen Infrarot wird er bevorzugt.

In der Regel sind die Kanäle auf die atmosphärischen Fenster ausgerichtet. Allerdings tragen verschiedene Systeme auch solche Instrumente, die innerhalb der Spektralbereiche bestimmter Absorptionsbande operieren und dadurch Vorgänge in der Atmosphäre sichtbar und erforschbar machen. So zeichnet z.B. der Wettersatellit Meteosat den Wasserdampfgehalt der Atmosphäre auf (Kanal 2 bzw. 6 der 1. bzw. 2. Generation von Meteosat).

Die Landsat-Kanäle und ihre Eigenschaften:
Kanal Eigenschaft/Verwendung

Kanal 1 Blau
blauer Anteil des sichtbaren Lichts im Wellenlängenbereich 0,45 - 0,52 µm, Auflösung 30m im Originaldatensatz

Wird wegen der starkten Absorption des Chlorophylls genutzt zur Unterscheidung von Boden und Vegetation, von Laub- und Nadelwald, sowie zur Untersuchung von Gewässern wegen der hohen Eindringtiefe in Wasser.

Kanal 2 Grün
grüner Anteil des sichtbaren Lichts im Wellenlängenbereich 0,53 - 0,61 µm, Auflösung 30m im Originaldatensatz

Misst die in diesem Spektralbereich vergleichsweise hohe Reflexion von (gesunder) Vegetation an Land und im Wasser.

Kanal 3 Rot
roter Anteil des sichtbaren Lichts im Wellenlängenbereich 0,63 - 0,69 µm, Auflösung 30m im Originaldatensatz

Misst die unterschiedliche Chlorophyllabsorption verschiedener Pflanzenarten;
dient zur Unterscheidung von Pflanzenarten und zur Trennung von Bodentypen, Mineralgehalten.

Kanal 4 NIR
zurückgestrahltes Licht im Bereich des Nahen Infrarots (NIR) im Wellenlängenbereich 0,7 - 1,3 µm, Auflösung 30m im Originaldatensatz

NIR zeigt die Aktivität von Pflanzen. Je jugendlicher die Pflanze, umso mehr "Nahes Infrarot" wird reflektiert. Man sieht also den Zustand pflanzlicher Zellen.
Die Informationsfülle ist im NIR besonders groß. Wasser ist stets schwarz! 

Kanal 5  MIR 1
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 1) im Wellenlängenbereich 1,57 - 1,78 µm, Auflösung 30m im Originaldatensatz

MIR misst den Wassermangel in Vegetation und zeigt Böden hell an;
unterschiedliche Reflexion von Schnee und Wolken; durchdringt dünne Wolken;
sehr gerine Eindringtiefe in Wasser;
hohe Reflexion von manchen Gesteinen, deshalb hilfreich für geologische und bodenkundliche Kartierungen.

Kanal 6 TIR
zurückgestrahltes Licht im Bereich des Thermischen Infrarots (TIR) im Wellenlängenbereich 10,42 - 11,66 µm, Auflösung 60m im Originaldatensatz

TIR misst die von der Erde ausgehende Wärmestrahlung, dient primär für thermische Kartierungen.
Die Erfassung von Schäden und Stress von Vegetation ist möglich.
TIR gibt Auskunft über die oberste Bodenschicht.

Kanal 7  MIR 2
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 2) im Wellenlängenbereich 2,10 - 2,35 µm, Auflösung 30m im Originaldatensatz

MIR 2 zeigt hohe Reflexion von manchen Gesteinen, deshalb sehr hilfreich für geologische und bodenkundliche Kartierungen.
Vegetation reflektiert wenig, Wasser absorbiert alles und ist deshalb schwarz.

Kanal 8  Pan
Der Kanal 8 steht bei Landsat 7 (Sensor ETM+) für das zurückgestrahlte panchromatische Licht.Panchromatisches Licht umfasst das sichtbare Licht im Wellenlängenbereich 0,4 bis 0,9 µm, Auflösung 15m im Originaldatensatz

In der Fernerkundung werden panchromatische Sensoren benutzt, weil sie durch die hohe Lichtausbeute eine sehr hohe Auflösung erlauben.

Weitere Informationen:

Kantendetektion

Engl. edge detection; eine der Grundaufgaben der Bildverarbeitung ist das Auffinden von Kanten und Linien. Kanten und Linien sind Diskontinuitäten in der Grauwertfunktion eines Bildes. Als Kante wird der Übergang von einer Region zu einer anderen bezeichnet, z.B. von hell zu dunkel. Eine Linie wird von zwei Kanten gebildet, z.B. als schmaler dunkler Bereich zwischen zwei hellen.

KARI

Engl. Akronym für Korea Aerospace Research Institute; die Luft- und Raumfahrtagentur Südkoreas.

Weitere Informationen:

Kármán-Linie

Eine gedachte Höhenlinie bei 100 km Höhe, die als Definition für die Abgrenzung der Erdatmosphäre zum freien Weltraum (outer space) dient. Festgelegt wurde sie von der Fédération Aéronautique Internationale und benannt zu Ehren von Theodore von Kármán, der entscheidend an ihrer Definition mitwirkte. Sie dient im Wesentlichen der Klassifikation von Flugleistungen, da diese in den beiden Bereichen unterhalb und oberhalb von ihr nicht vergleichbar sind.

Grundlage der Definition der Kármán-Linie ist, dass die zur Erzielung eines ausreichenden aerodynamischen Auftriebes erforderliche Geschwindigkeit in ungefähr dieser Höhe gleich der ersten kosmischen Geschwindigkeit wird, ein Fahrzeug mit dieser Geschwindigkeit also auch schon durch die Zentrifugalkraft in einer Erdumlaufbahn gehalten würde.

Die Auswahl dieses Kriteriums ist jedoch nicht ganz zwangsläufig. So verleihen die US-amerikanischen Streitkräfte das Astronautenabzeichen ab einer ebenfalls in den 50er Jahren vom National Advisory Committee for Aeronautics (NACA) festgelegten Flughöhe von 50 Meilen (ca. 80 km). Dieser Definition liegt die Annahme zu Grunde, dass für die aerodynamische Steuerung eines Luftfahrzeugs ein dynamischer Druck auf die Steuerflächen von mindestens 1 lbF/ft² (47,88 Pa) nötig ist. Diese Grenzziehung gilt aber inzwischen als veraltet und findet international kaum Anerkennung.

Völkerrechtlich relevant für die Abgrenzung des der Lufthoheit unterliegenden Luftraumes vom hoheitsfreien Weltraum ist keine dieser Definitionen. Diese behalten sich die Staaten bislang vor. Allgemein wird dazu bisher eine funktionale Abgrenzung angenommen, d.h. eine Abhängigkeit von der durchgeführten Aktivität statt von der genauen Höhe.

102px-Atmosphere_layers-de-3_svg Säulenprofil der Erdatmosphäre mit Kármán-Linie


Es gibt keine feste Grenze zwischen Atmosphäre und Weltall. Jedoch wird üblicherweise die in einer Höhe von 100 km verlaufende Kármán-Linie als Beginn des Weltraums herangezogen, um Weltraumverträge zu formulieren.
Der Rahmen für das internationale Weltraumrecht wurde durch den Outer Space Treaty geschaffen, der von den Vereinten Nationen 1963 verabschiedet wurde. Dieser Vertrag schließt alle nationalen Souveränitätsansprüche aus und erlaubt allen Staaten, die freie Erkundung des Weltalls.

Im Jahr 1979 unterstellte der Moon Treaty die Oberflächen von Objekten wie z.B. Planeten wie auch den Raum um diese Körper der Rechtsprechung der internationalen Gemeinschaft. Zusätzliche Vereinbarungen, die den Weltraum betreffen, sind von den Vereinten Nationen abgefasst worden, aber sie haben nicht die Stationierung von Waffen im Weltall ausgeschlossen.
99,99997 % der Masse der Atmosphäre befinden sich unterhalb von 100 km, und dennoch trifft man in der ausgedünnten Luft darüber Polarlichter und andere atmosphärische Effekte. Der höchste Flug eines X-15 Flugzeugs erreichte 1963 eine Höhe von 108 km.

Quelle: Wikipedia nach einer Vorlage von NOAA

 
Katastrophe

Eine schwerwiegende Unterbrechung der Funktionsfähigkeit einer Gemeinschaft oder Gesellschaft, die umfangreiche Verluste an Menschenleben, Sachwerten und Umweltgütern verursacht und die Fähigkeit der betroffenen Gesellschaft, aus eigener Kraft damit fertig zu werden, übersteigt. Bei großen Katastrophen kann sich das betroffene Gebiet i.d.R. nicht mehr aus eigener Kraft helfen und benötigt Hilfe von außen.
Eine Katastrophe ist eine Funktion im Risikoprozess. Sie entsteht aus der Kombination von Gefahren, Anfälligkeiten und unzureichenden Kapazitäten oder Maßnahmen, um die möglichen negativen Folgen eines Risikos zu reduzieren.

Weitere Informationen:

Katastrophenmanagement

Syn. Risikomanagement; das systematische Management von Verwaltungsentscheidungen, Organisation, operationellen Kompetenzen und Fähigkeiten, um politische Prozesse, Strategien und Bewältigungskapazitäten einer Gesellschaft oder Gemeinschaft zu implementieren, um die Auswirkungen von Naturgefahren und ähnlichen Umwelt- und technologischen Katastrophen zu verringern. Dies beinhaltet alle Arten von Aktivitäten, einschließlich technischer und nichttechnischer Maßnahmen, um negative Effekte von Gefahren zu vermeiden (Vorbeugung) oder zu begrenzen (Schadenminderung und Vorbereitung auf den Katastrophenfall). Wichtiger Bestandteil sind Frühwarnsysteme und ausgearbeitete Katastrophenpläne für Entscheidungsträger und die Bevölkerung.

Eine besondere Stellung beim Katastrophenmanagement haben Fernerkundungsverfahren und die daraus abgeleiteten Geodaten. Deren Möglichkeiten, die von der Vorhersage etwa von Niederschlägen mit Satellitenbeobachtungen oder Radar bis zur Verwendung von GPS zur Lokalisierung von Einsatzfahrzeugen bei der Katastrophenhilfe reichen, werden heute intensiv erforscht und zur Einsatzfähigkeit entwickelt. So können Satellitenaufnahmen nicht nur zur Erkundung schwer zugänglicher Gebiete dienen, sondern sie bieten darüber hinaus zahlreiche Einsatzmöglichkeiten direkt bei Eintritt einer Katastrophe. Für die Rettungskräfte tragen sie bei zu besserer Prävention und lageangepasster Einsatzvorbereitung, zu umfassender Lage- und Gefährdungsbeurteilung und zur Verbesserung der lageangepassten Einsatzdurchführung.

Die folgende Tabelle listet Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement auf. Manche dieser Möglichkeiten sind derzeit noch nicht bis zur Einsatzreife entwickelt. Z.B. können Satellitenbilder üblicherweise noch nicht in Echtzeit zur Verfügung gestellt werden. Andererseits bieten Technologien wie GIS und GPS, vor allem in ihrer Kombination, neue Möglichkeiten zur Verbesserung des Einsatzes von Hilfsfahrzeugen.

Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement
Katastrophenursache ermittelbare Parameter Sensoren/Satelliten
Erdbeben Topographie
digitale Höhenmodelle
Zustandsveränderungen
(Interferometrie)
SPOT
Landsat TM
ERS-1/-2
Radarsat
Dürre Niederschlag
Vegetationsindex
Vegetationszustand
Bodenfeuchte
NOAA-AVHRR
SPOT
Landsat TM
Meteosat, MSG
Flut (u.a. Hochwasser) Niederschlag
Topographie
Wolkenbedeckung
Überflutungsflächen
Schneebedeckung
Bodenfeuchte
NOAA-AVHRR
ERS-1/-2
Meteosat, MSG
Vulkanausbrüche Deformationen
Aufwölbungen
Eruptionswolken
Oberflächentopographie
Hangneigungen
ERS-1/-2
SPOT
Landsat TM
Stürme (Wind, Sandstürme) Wolkenbedeckung
Windfelder
Luftdruck
Niederschlag
Meteosat, MSG
NOAA-AVHRR
ERS-1/-2
GOES
Wildfeuer Oberflächentemperaturen
Vegetationsindex
Topographie
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM
Hangrutschungen digitale Geländemodelle
Bodenfeuchte
Niederschlag
Zustandsveränderungen
SPOT
Landsat TM
ERS-1/-2
Massenschädlinge digitale Geländemodelle
Vegetationszustände
Bodentemperatur
Klimafaktoren
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM

Weitere Informationen:

Katastrophenmonitoring

Das Monitoring (Überwachung) von katastrophenträchtigen Regionen bzw. Erscheinungen, z.B. von Vulkanen mit ihren präeruptiven Äußerungen (vulkanische Erdbeben, Aufbeulung der Erdkruste, verstärkte Gasemissionen, Aufheizung u.a.). Für Vulkane, die nicht mit konventionellen Methoden überwacht werden, erlaubt die Fernerkundung durch Satelliten nicht nur komplementäre Beobachtungen, sondern bietet auch neue Methoden, z.B. die Veränderung von Krustendeformationen über das synthetische Apertur-Radar. Daneben betrifft die satellitengestützte Vulkanüberwachung vor allem den Nachweis von Eruptionen, Überwachung thermischer Veränderungen sowie Überwachung der Eruptionssäulen. Gleichfalls zum Objekt des Katastrophenmonitorings gehören technologische Gefahren und Katastrophen (Dammbrüche, Terrorattacken).

Die wichtigsten Faktoren, die den Nutzen der Fernerkundungsdaten im Bereich von natürlichen und technologischen Gefahren bestimmen sind Massstab, räumliche, spektrale und zeitliche Auflösung, ferner Flächenabdeckung, radiometrische Eigenschaften, Datenkosten und -verfügbarkeit. Gerade in diesem Aufgabenfeld steigert sich die Bedeutung und der Wert der Fernerkundungsdaten durch sachkundige Interpretation in Verbindung von herkömmlichen Karten und bodengestützten Daten. Eine Extraktion der Informationen und deren Integration in ein GIS kann für die humanitäre Hilfe von großer Bedeutung sein.

Die Bedeutung von Sensoren im sichtbaren Teil des Spektrums ist wegen der häufigen Wolkenbedeckung von Vulkanen eingeschränkt. Radarsatelliten erlauben Datengewinnung bei jedem Wetter, können aber keine thermische Strahlung aufnehmen. Multispektrale Sensoren mit hoher räumlicher Auflösung eignen sich weniger gut zu einer häufigen Überwachung von Vulkanen als Sensoren mit geringer Auflösung.

Der Vulkan Piton de la Fournaise auf Réunion Der Vulkan Piton de la Fournaise auf Réunion (21,2°S, 55,7°E)

 

Bildfolge von thermischen Anomalien, aufgenommen mit dem Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord von Terra. Die roten Punkte mit den grünen Ringen belegen die Eruptionen im Januar 2002.Quelle: NASA Earth Observatory

Auch ENSO-begleitende Katastrophen (z.B. Waldbrände, Hochwasser, Dürren, Stürme) sind wie das Ozean/Klima-Phänomen selbst Gegenstand intensiven FE-Monitorings. Weitere Einsatzmöglichkeiten der Fernerkundung im Katastrophenmonitoring ergeben sich aus der Tabelle beim Stichwort Katastrophenmanagement.

Bis in die jüngere Vergangenheit hinein wurde bei Katastrophen mit Satellitenfernerkundung allerdings eher experimentell in der Nachsorge reagiert. Erst vor kurzer Zeit sind Weltraumagenturen wie NASA und ESA, koordiniert durch das globale Komitee der erdbeobachtenden Weltraumagenturen CEOS, sowie kommerzielle Datenanbieter dabei, sich stärker auf die Bedürfnisse von Anwendern in Hilfsorganisationen oder Versicherungen einzustellen. Sie entwickeln Hilfen für die Risiko- und Vulnerabilitätskartierung und Strukturen für raschere Informationsdienste. Anfang 2013 nahm das am DLR angesiedelte Zentrum für Satellitengestützte Kriseninformation (ZKI) seine Arbeit auf. Seine Aufgabe ist die Bereitstellung eines 24/7 Service für die schnelle Beschaffung, Aufbereitung und Analyse von Satellitendaten bei Natur- und Umweltkatastrophen, für humanitäre Hilfsaktivitäten und für die zivile Sicherheit weltweit. Die Produkte werden nach den spezifischen Bedürfnissen für nationale und internationale politische Entscheidungsträger, Lagezentren sowie Hilfsorganisationen erstellt und auch der Öffentlichkeit frei zugänglich gemacht. Das ZKI operiert dabei im nationalen und internationalen Kontext und ist eng mit verschiedenen behördlichen Partnern, Nicht-Regierungsorganisationen sowie Satellitenbetreibern und Weltraumorganisationen vernetzt.

Bei Naturkatastrophen kann die Detektion ihrer kurzfristigen, abrupten und zeitkritischen Veränderungen auch auf Grundlage einer Kombination von optischen und SAR-Daten durchgeführt werden. Aus den Anwendungen ergeben sich verschiedene Kombinationsmöglichkeiten, die jeweils eigene Fusions- und Auswertemethoden verlangen.
Im Katastrophenfall müssen so schnell wie möglich Bilder der betroffenen Regionen aufgenommen und ausgewertet werden. Das aktive und wetterunabhängige SAR spielt daher eine große Rolle bei der raschen Datenerfassung im Zuge solcher Ereignisse. Moderne SAR-Satelliten wie TerraSAR-X oder Cosmo-SkyMed können in verschiedenen Modi betrieben werden, welche man im konkreten Fall unter Abwägung des gewünschten Detailgrades der Abbildung sowie der Größe des aufzunehmenden Gebiets auswählen kann. Geht es um ein relativ kleines Gebiet mit urbanen Strukturen und ist ein hochauflösender luftgestützter SAR-Sensor verfügbar, so können flexibel Aufnahmen aus beliebigen Richtungen gemacht werden. Handelt es sich allerdings um sehr große Flächen, für die innerhalb einer kurzen Zeitspanne nur sehr wenig hochauflösende Aufnahmen vorhanden sein werden, wird man gegebenenfalls einen verringerten Detailgrad zugunsten einer möglichst vollständigen Abdeckung in Kauf nehmen. In diesem Zusammenhang ist auch zu beachten, dass bei solch zeitkritischen Anwendungen meist nur Satellitendaten in Frage kommen. Luftgestützte Daten lassen sich zwar mit besserer Auflösung und sehr viel flexibler aufnehmen. Allerdings gibt es weltweit nur wenige operationelle luftgestützte Sensoren, deren Verlegung ins Krisengebiet noch dazu oft zu lange dauert. Mit der zunehmenden Verfügbarkeit von zivilen, leistungsfähigen Drohnen wird sich diese Situation in Zukunft jedoch ändern und es werden schneller und flexibler luftgestützte SAR-Daten (ergänzend zu Satellitenaufnahmen) gemacht werden können.

Auch bezüglich der Fusion mit optischen Daten gibt es mehrere Möglichkeiten im Katastrophenfall. Oft liegen für die betroffene Region bereits optische Bilder vor, die vor dem Ereignis aufgenommen worden sind. Direkt während oder nach einer Katastrophe stehen aufgrund von Wolkenbedeckung oder mangelndem Tageslicht indes häufig keine optischen Satellitenbilder hoher Qualität zur Verfügung. In solchen Fällen greift man auf aktuelle SAR-Daten zurück, die man mit älteren optischen Bildern vergleicht und daraus eine Schadenskarte anfertigt, welche den örtlichen Behörden und Hilfskräften als Grundlage für die Planung von Einsätzen dient. Stehen sowohl optische als auch SAR-Daten gleichzeitig nach einer Katastrophe zur Verfügung, können beide Aufnahmen kombiniert werden, um z.B. Gebäudehöhen zu schätzen.

Zur Detektion von Veränderungen bei zeitkritischen Anwendungen werden vor allem mittel- und großmaßstäbige Daten ausgewertet, da der Detailgrad geringer aufgelöster Bilder nicht zur Erkennung von Objekten wie Gebäuden oder Straßen ausreicht. In Abhängigkeit von der Auflösung und den interessierenden Objekten wird für die automatische Analyse von Veränderungen entweder eine pixel-basierte, eine objektbasierte oder eine Kombination aus beiden Herangehensweisen gewählt. Generell gilt, je größer der Maßstab (d. h. je höher die geometrische Auflösung) der zu kombinierenden optischen und SAR-Daten ist, desto mehr kann und muss objektbasiert mit Modellwissen gearbeitet werden. Dies spielt insbesondere bei 3D-Objekten wie Gebäuden eine Rolle, da sich die verschiedenen Abbildungseigenschaften dort deutlich ausprägen. (Sörgel u.a. 2017)

Weitere Informationen:

Katastrophenvorsorge

Im Kontext der nachhaltigen Entwicklung umfasst Katastrophenvorsorge alle Elemente, die darauf ausgerichtet sind, Katastrophenanfälligkeit und Katastrophenrisiken in einer Gesellschaft zu minimieren, die negativen Effekte eines Schadensereignisses zu vermeiden (durch Prävention) oder zu begrenzen (durch Vorsorge, Schadenminderung und Notfallplanung).
Katastrophenvorsorge besteht aus:

  • Risikobewusstsein und -bewertung einschließlich Gefahrenanalysen und Vulnerabilitäts-/Kapazitätsanalysen
  • Wissenstransfer einschließlich Bildung, praktischer Ausbildung, Forschung und Information,
  • öffentliche Verpflichtungen und Schaffung eines institutionellen Rahmens
  • einschließlich organisatorischer, politischer, gesetzgeberischer und gesellschaftlicher Aktivitäten
  • Anwendung von Maßnahmen einschließlich Umweltmanagement, Raum-/Stadtplanung, Schutz kritischer Infrastruktur, Anwendung von Wissenschaft und Technologie, Partnerschaften und Netzwerken sowie finanzieller Instrumente
  • Frühwarnsysteme mit Vorhersagemodellen, festgelegten Verbreitungswegen von Warnmeldungen, Notfallplanung und Reaktionskapazitäten

Weitere Informationen:

Kayser-Threde

Ehemals ein Systemhaus, das sich auf Entwicklung und Implementierung von High-Tech-Lösungen für Luft- und Raumfahrt, Wissenschaft und Industrie spezialisiert hatte. Das 1967 gegründete Unternehmen beschäftigte knapp 300 Mitarbeiter und erwirtschaftete 2010 eine Betriebsleistung von 51,3 Mio. Euro. Seit Mitte 2007 gehört Kayser-Threde zur OHB AG in Bremen. Am 1. September 2014 haben die Unternehmen OHB System AG und Erwin Kayser-Threde GmbH fusioniert und firmieren ab sofort unter dem Namen OHB System AG.

Mit unterschiedlichen Kompetenzschwerpunkten kooperierten die bisherigen Schwesterfirmen schon vorher in Großprojekten wie den europäischen Wettersatelliten MTG (Meteosat Third Generation) und der hyperspektralen Erdbeobachtungsmission EnMAP.

Kepler (Weltraumteleskop)

Weltraumteleskop der NASA, das im März 2009 gestartet wurde, um nach extrasolaren Planeten zu suchen. Benannt war das Projekt nach dem deutschen Astronomen Johannes Kepler, der als erster die Gesetzmäßigkeiten der Planetenumlaufbahnen erkannte.

Am 15. August 2013 gab die NASA das Teleskop auf, nachdem bereits im Mai zwei defekte Reaktionsräder eine präzise Ausrichtung unmöglich machten.

Das Teleskop beobachtete einen festen Ausschnitt des Sternenhimmels mit ca. 190.000 Sternen im Sternbild Schwan, um extrasolare Planeten zu entdecken. Besondere Zielsetzung des Projekts war, vergleichsweise kleine Planeten (wie unsere Erde oder kleiner) und damit auch potenziell bewohnbare („habitable“) extrasolare Planeten zu entdecken. Gleichzeitig lieferte es Basisdaten zu anderen veränderlichen Sternen, um daraus Rückschlüsse über die im Inneren ablaufenden Prozesse ziehen zu können. Die Mission von Kepler war ursprünglich für dreieinhalb Jahre vorgesehen.

Kepler befand sich in einem Sonnenorbit, dessen Umlaufzeit (372,5 Tage) und Exzentrizität etwas von dem der Erde abwich. Die Sonde lief dabei der Erde hinterher und entfernte sich im Laufe der Jahre immer weiter von dieser. So war es möglich, die Beobachtungsregion ohne periodische Verdeckung durch die Erde und mit minimalen Störeinflüssen zu überwachen.

Kepler hat auf seiner Mission 3548 Planetenkandidaten und 135 nachgewiesene Planeten aufgespürt, davon 5 in der habitablen Zone.

Weitere Informationen:

Kepler'sche Bahnelemente

Engl. Keplerian orbit elements; die Umlaufbahnen von Fernerkundungssatelliten sind immer elliptisch und folgen den Kepler'schen Gesetzen. Eine elliptische Umlaufbahn wird durch sechs unabhängige Parameter beschrieben, die man als Kepler'sche Bahnelemente bezeichnet:

  • Die große Halbachse a definiert die Größe der Bahnellipse.
  • Die Exzentrizität e beschreibt die Form der Bahnellipse.
  • Die Inklination i ist der Winkel zwischen der Ebene der Umlaufbahn und der Äquatorebene (Ekliptik).
  • Der Winkel des aufsteigenden Knotens W legt den aufsteigenden Knoten relativ zum Widderpunkt fest.
  • Das Argument des Perigäums w legt die Ellipse in der Bahnebene fest.
  • Die Mittlere Anomalie M ist der Winkel, der einen Punkt der Ellipse festlegt.
Satellitenbahnelemente Satellitenbahnelemente

 

Die Satellitenbahnelemente legen die Parameter für die Umlaufbahnen von Objekten fest, die einen Himmelskörper gemäß den keplerschen Gesetzen umkreisen.

Quelle: Wikipedia

Kepler'sche Gesetze

Grundlegende, 1609 und 1619 von Johannes Kepler veröffentlichte Gesetze zur Beschreibung der Planetenbahnen bei ihrer Bewegung um die Sonne. Sie gelten jedoch ebenso für die Bahnen künstlicher Satelliten und anderer Raumflugkörper.

Erstes Keplersches Gesetz: Die Planeten bewegen in einer Ebene. Die Bahnen um die Sonne sind Ellipsen, wobei sich die Sonne in einem Brennpunkt befindet. (1601)

Zweites Keplersches Gesetz: Die Verbindungsgerade Sonne-Planet überstreicht in gleichen Zeiten gleiche Flächen. (1605)

2. Keplersches Gesetz Flächensatz und Bewegung auf einer Ellipsenbahn

 

Die Bahngeschwindigkeit der Erde ist ihrem Abstand von der Sonne umgekehrt proportional. Je näher die Erde der Sonne kommt, desto schneller bewegt sie sich.Quelle: Roman Sexl

Drittes Keplersches Gesetz: Zwischen der Umlaufzeit T und der großen Halbachse r besteht bei allen Planeten die gleiche mathematische Beziehung: r3/T2 = konstant. (1618)

Kepler gelangte als Assistent des dänischen Astronomen Tycho Brahe an dessen umfangreiche und für die damalige Zeit besonders präzisen Aufzeichnungen der Planetenbewegungen. Schwerpunkt war dabei der Mars. Dessen Bahn hat von allen damals beobachtbaren Planeten die größte Exzentrizität (Brennpunktsabstand/große Ellipsenachse). Nur dadurch waren die Abweichungen von der Kreisbahn mit den damaligen Mitteln nachweisbar. Aus diesen Beobachtungen leitete Kepler seine Gesetze ab.

Die theoretische Begründung für die Keplerschen Gesetze lieferte rund 50 Jahre später Isaac Newton (1643 – 1727) mit seinem Gravitationsgesetz. Danach hängt die Anziehungskraft zwischen zwei Himmelskörpern (aber auch zwischen beliebigen Körpern) von deren Massen ab und verringert sich mit dem Quadrat des Abstandes.

Johannes Kepler

Johannes Kepler (1571-1630)

 

Kepler war einer der wenigen, der sich zu Gunsten von Galileos Entdeckungen und
des Kopernikanischen Weltbildes aussprach.Quelle: NASA GSFC

Die von Kepler für die Planetenbewegung um die Sonne empirisch gefundenen Gesetze lauten, übertragen auf die Bewegung eines Satelliten um die Erde:

  1. Satellitenbahnen sind Ellipsen, in deren einem Zentrum die Erde (genauer: das Geozentrum) steht.
  2. Der Radiusvektor Radiusvektor vom Geozentrum zum Satelliten überstreicht in gleichen Zeiten gleiche Flächen.
  3. Die Quadrate der Umlaufzeiten zweier Satelliten verhalten sich wie die dritten Potenzen der Bahnhalbachsen.
Keyhole (KH)

Engl. für Guckloch, Schlüsselloch; Bezeichnung für eine Serie von US-amerikanischen optischen Spionagesatelliten. Insgesamt wurden mindestens 287 Satelliten der KH-Serie gestartet.

Die ersten Satelliten (die Typen KH-1 bis KH-4B) wurden auch Corona genannt. KH-1 startete 1959. Die Kameras dieser Satelliten hatten Auflösungen von anfangs 7,5 m, später bis zu 1,5 m. Ihr Orbit hatte nach dem Start ein Apogäum von ca. 460 km und ein Perigäum von ca. 165 km. Insgesamt wurden von 1959 bis 1972 145 Corona-Satelliten mit verschiedenen Varianten der Thor-Agena-Rakete gestartet, von denen 102 Exemplare brauchbare Bilder lieferten.

Gut das erste Dutzend der Corona-Satelliten und ihre Startvorgänge wurden zur bewussten Fehlinformation einem Raumfahrttechnologieprogramm mit dem Namen Discoverer zugerechnet.

Complete list of U.S. Reconnaissance Satellite from 1960 to current days The complete list of U.S. Reconnaissance Satellite from 1960 to current days

 

Die Grafik ist wahrscheinlich nicht offiziell bestätigt.

Quelle: Wikipedia

Die Bilder von KH-1 bis KH-9 wurden auf herkömmlichem Film aufgenommen. KH-4 nahm ab 1962 als erster Satellit auch stereoskopische Bilder auf. Zielgebiet der Satelliten waren hauptsächlich die UdSSR und die Volksrepublik China. Spätestens ab 1967 wurde der Nahe Osten wiederholt beobachtet, wobei z. B. Aufnahmen vor und nach dem Sechstagekrieg verglichen wurden. Weil die Übermittlung von Bildern über Funk noch nicht so weit fortgeschritten und noch nicht ausreichend abhörsicher war, wurden die Filme mit Wiedereintrittskapseln zurück zur Erde gebracht. Später wurden die Bilder an Bord der Satelliten entwickelt und mit einer Fernsehkamera abgetastet, die Daten danach auf Magnetband aufgezeichnet und per Funk übertragen.

Der Typ KH-4B wies 2 Panorama-Kameras mit Öffnung 1:3,5 und 24 Zoll (61 cm) Brennweite und eine Index-Kamera (für die Übersicht) auf. Während 19 Tagen Missionsdauer wurden bis zu 9.600 m 70-mm-Film (fast immer schwarzweiß) belichtet und in die Kassetten von 2 Rückkehr-Kapseln gespult. Nach Abtrennen einer Kapsel wurde zuerst deren Rotation und dann die Fluggeschwindigkeit mit einem Raketenmotor abgebremst. Beim Wiedereintritt in die Atmosphäre bremste zuerst die Schockwelle, dann – unter Abtrennung des Hitzeschilds – ein kleiner Bremsschirm, zuletzt ein Hauptfallschirm, der sich erst in 15.000 m Höhe ganz öffnete, bevor Schirm und Kapsel in der Luft von einem Flugzeug mit einer Art Hakensystem aufgefangen wurden.

In dem 1976 erstmals gestarteten KH-11 wurde bereits das Bild pixelweise mit Halbleitersensoren erfasst. Die Bilder konnten dann gespeichert und entweder unmittelbar oder über Relaissatelliten per Funk an die Auswertezentren übertragen werden. Die Satelliten ähnelten dem Hubble-Weltraumteleskop mit einem 2,3-m-Spiegel, die Auflösung betrug ca. 15 cm. Die USA hatten fast ständig zwei KH-11 operationell im Orbit.

Von 1992 bis ca. 2008 wurden vermutlich sechs Exemplare des Nachfolgesatelliten KH-12 ins All gebracht. Er hat einen Durchmesser von 4,5 m und eine Länge von 15 m. Die großen Abmessungen liegen teilweise an der Integration eines Antriebs, der dem KH-12 sowohl eine längere Operationszeit im Orbit als auch eine Manövrierfähigkeit ermöglicht. Damit kann er zur Erfassung größerer Suchbereiche in eine Kipplage gebracht werden oder auch Ausweichmanöver vor Angreifern durchführen. Vollbetankt wiegt der Satellit bis zu 18 Tonnen, wobei er ca. 5,3 Tonnen Treibstoff mitführt.

Die optischen Sensoren des KH-12 sollen einen zum IR hin erweiterten spektralen Empfindlichkeitsbereich erhalten haben und auch andere Sensoren (z.B. zur Funkaufklärung) sollen integriert worden sein. Damit ist vermutlich eine gute Nachtsichtfähigkeit erreicht worden. Mit dem größeren Spiegel von mindestens 3 m Durchmesser hat man wahrscheinlich aus einer Umlaufbahn zwischen 200 und 400 km Höhe eine Bildschärfe erreicht, die mit einer Bodenauflösung von 10 bis 15 cm an die Qualität der besten Filmaufnahmen mit Rückkehrkapseln heranreicht. KH-13 (alt. Misty) ist möglicherweise der Nachfolger von KH-12.

Die Nomenklatur insbesondere der neueren Keyhole-Satelliten ist teilweise verwirrend und nicht bestätigt. Oft werden auch alternative (Zusatz-)Bezeichnungen vergeben, z.B. "KH-11 KENNEN", "CRYSTAL", "Evolved Enhanced CRYSTAL (EEC)", "1010" und "Key Hole".

Weitere Informationen:

KhalifaSat

Vormals als DubaiSat 3 bezeichneter Erdbeobachtungssatellit, der vom Mohammed bin Rashid Space Centre (MBRSC) entwickelt wird und als bislang dritter Satellit der Vereinigten Arabischen Emirate (VAE) ins All gelangt. Nach anfänglichen Entwicklungsarbeiten in den Anlagen des südkoreanischen Partnerunternehmens (Satrec Initiative), gilt KhalifaSat als erster, komplett von einem Team der VAE vor Ort gebaute Satellit. Der Start ist für 2018 mit einer H-IIA-Trägerrakete von Mitsubishi geplant.

Der Satellit wird verschiedene Regierungsaufgaben der VAE unterstützen (u.a. Stadtplanung, Schiffsverfolgung, Kartographie) und auch im Privatsektor seine Datenprodukte vermarkten.
KhalifaSat wird hochaufgelöste Bilder liefern mit 0,7 m Auflösung im panchromatischen und 4 m im multispektralen Bereich.

Weitere Informationen:

Kirchhoffsches (Strahlungs-)Gesetz

Engl. Kirchhoff's law; es beschreibt den Zusammenhang zwischen Absorption und Emission eines realen Körpers im thermischen Gleichgewicht. Für alle Körper ist bei gegebener Temperatur das Verhältnis zwischen Emission und Absorption für Strahlung derselben Wellenlänge konstant und vom Betrag gleich der spezifischen Ausstrahlung des schwarzen Körpers bei dieser Temperatur.

Klassifikation

Syn. Klassifizierung; engl. object classification, franz. classification; Zuordnung von Daten zu Klassen mit bestimmten einheitlichen Eigenschaften, bei der Fernerkundung die Zuordnung von Bildpunkten in bestimmte Kategorien oder Klassen, um eine thematische Wiedergabe zu erzielen. Oft ist die Klassifikation eine Verbindung aus Aggregation (Zusammenfassung) und Generalisierung (Vereinfachung) von Primärdaten. Bei Fernerkundungsdaten ist diese Kombination der Regelfall. Im ersten Schritt (Aggregation) fassen Bildauswerter oder ein Computersystem die mit einem spektralen Aufnahmesystem gemessenen Reflexionsgrade von beispielsweise verschiedenen Gattungen von Laubbäumen zusammen und bilden daraus den Cluster 'Laubwald'. Im zweiten Schritt (Generalisierung) werden die originalen Daten (Primärdaten) anhand dieser Cluster automatisch vereinfacht. Dabei werden Straßen, Bäche oder Eisenbahngleise mit Laubbäumen an beiden Seiten je nach Vereinfachungsmethode ggf. zu Laubwald.

Grundannahmen der Klassifikation

(nach Albertz 1991)

Die Grundannahme aller Klassifikationsverfahren ist, dass in einem Merkmalsraum, in dem die Eingangsdaten (Intensitäten, Texturmerkmalsbilder, Streumerkmalsbilder uvm.) die Koordinatenachsen bilden, verschiedene Objekte trennbare Punkthaufen aufzeigen. Im Idealfall lassen sich zwischen diesen Anhäufungen eindeutige Grenzen ziehen und somit jedem Pixel oder Objekt automatisch eine Klasse zuordnen.
Die Zuordnung der Punkthaufen zu den jeweiligen Objektklassen kann über die Klassifikationsverfahren der „unüberwachten Klassifikation“, „überwachten Klassifikation“ oder „Schwellwertanalyse“ erfolgen.

Quelle: LFULG

 

Weitere Informationen:

Klassifikationstechniken

Der Vergleich der konkreten Ausprägungen der spektralen Meßwerte aller Pixel mit den individuellen spektralen Signaturen der thematisch definierten Klassen gilt als eigentlicher Klassifikationsschritt. Jedes Pixel wird hinsichtlich der Ähnlichkeit mit allen Signaturen überprüft und entsprechend einer der Kategorien zugeordnet. Dabei ist zwischen einer Anzahl von spezifischen Klassifikationstechniken zu unterscheiden.
Zu ihnen zählen:

Klassifikator

Ein Algorithmus oder Programm, mit dessen Hilfe ein Merkmalstupel (Element eines Merkmalsraums) einer Klasse zugeordnet werden kann. Bei einem überwachten Klassifikationsprozesses erfolgt folgender typische Ablauf:

1. Lernphase (Erstellung eines Klassifikators):
Aus der Datenbasis werden Objekte (zufällig) ausgewählt und zu einer Trainingsmenge (engl. training data set) zusammengestellt. Zu jedem Trainingsobjekt wird in einem zusätzlichen Attribut die Klasse festgelegt, zu der es gehört (überwachtes Lernen, supervised learning). Anhand der klassifizierten Trainingsdaten wird mittels eines Algorithmus ein Modell (z.B. ein Satz von Regeln) erstellt, das zu einem Merkmalstupel die zugehörige Klasse angeben kann ("Klassifikator").

2. Klassifikationsphase (Anwendung des Klassifikators):
Die zu klassifizierenden Objekte werden dem Modell unterworfen. Als Ergebnis wird zu jedem Objekt seine Klasse ausgegeben.

klassifizierte Bilder

Engl. classified images, interpretierte Bilder mit ausgewählter Information, wie z.B. Vegetationstypen.

Klassifizierung

Syn. Klassifikation, engl. classification, franz. classification; eine Methode der Bildverarbeitung, die dazu dient, in Rasterbildern mit Hilfe von Algorithmen Muster, d.h. Flächen mit gleichen Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässern etc. in Satellitenbildern. Um Rasterbilder klassifizieren zu können, müssen die Sensoren der Satelliten in der Lage sein, verschiedene spektrale Signaturen zu unterscheiden, und - abhängig von der Klassifizierungsart - müssen Trainingsgebiete definiert werden.

Bei DIN wird der Begriff 'Klassifizierung' in DIN 18740-5 dargestellt.

Das allgemeine Ziel der Fernerkundung ist, aus Fernerkundungsdaten Informationen zur Lösung von Fragestellungen aus z.B. den Bereichen Ökologie, Stadt- oder Umweltplanung abzuleiten. Dies geschieht primär mit Hilfe der Bildauswertung oder Bildanalyse, zu der die klassischen, analogen Verfahren der Photogrammetrie und der Photointerpretation gehören. Die visuelle Bildinterpretation identifiziert räumliche Objekte aufgrund von Farbe, Helligkeit, Textur, Muster, Form, Größe, Lage oder Schatten. Hierbei gehen vor allem Erfahrungswerte des Interpreten ein.

Die digitale Bildauswertung bietet im Anschluss an die digitale Bildaufbereitung und Bildverbesserung ebenfalls die klassischen Interpretationsmöglichkeiten. Dazu werden die Farbkomposite ausgedruckt oder am Monitor interpretiert. Darüber hinaus bestehen Verfahren, die die digitalen Bilder mit Hilfe numerischer oder statistischer Verfahren auswerten. Dabei ist vor allem die rechnergestützte Klassifikation von Bedeutung, d.h. das Erkennen von Objekten oder Eigenschaften wie z.B. Landbedeckungstypen durch Auswertung mehrerer Kanäle. (de Lange 2013)

In der Fernerkundung werden zur Klassifizierung meist mehrere Farbkanäle gleichzeitig verwendet. Beispielsweise sind die Kanäle Rot, Grün, Blau und nahes Infrarot eine mögliche Kombination zur Detektion von Vegetation.
Mittels Klassifizierung werden einzelne Pixel eines digitalen Bildes einer bestimmten Klasse gemäß einer Klassenbeschreibung zugeordnet, beispielsweise aufgrund spektraler Signaturen, d.h. aufgrund der unterschiedlichen Reflexionseigenschaften von Objekten.
Jede Klasse ist also durch spezifische Merkmale charakterisiert und dadurch von anderen Klassen unterschieden. Jedes Bildelement wird auf alle Merkmale aller Klassenbeschreibungen untersucht und letztlich derjenigen Klasse zugeteilt, deren Eigenschaften es aufweist. Das Ziel jedes Klassifizierungsverfahrens ist es, die Gesamtheit der Bildelemente einer Szene in thematische Klassen oder Landnutzungsklassen einzuteilen.

Für die in der Regel automatische Klassifizierung der Satellitendaten stehen zwei Verfahren zur Verfügung, das pixelbasierte und das objektbasierte. Bei den pixelbasierten Verfahren wird jedes einzelne Pixel analysiert und nach spektralen Ähnlichkeiten in Klassen sortiert. Bei den objektbasierten Verfahren wird von der Annahme ausgegangen, dass ein Pixel mit einer hohen Wahrscheinlichkeit die gleiche Klassenzugehörigkeit hat wie sein Nachbarpixel.

Pixel-basierte Klassifizierung wird meist synonym auch als Multispektralklassifizierung bezeichnet. Die zu klassifizierenden Einheiten sind die einzelnen Pixel. Normalerweise werden nur deren spektrale Eigenschaften verwendet, es wird also keine Kontextinformation berücksichtigt. Die einzelnen Pixel und deren Klassenzuweisung haben bei einfachen Verfahren keinen Einfluss auf die Klassifizierung der benachbarten Pixel. Basierend auf meist statistischen Entscheidungsregeln wird ein Pixel entsprechend seiner spektralen Eigenschaften einer Landbedeckungsklasse zugeordnet. Die zu klassifizierenden Landnutzungsklassen unterscheiden sich durch spezifische Kombinationen der DN-Werte (DN = digital number), die ihren typischen Reflexionswerten entsprechen.
Die pixel-basierten Klassifizierungen neigen zum "salt-and pepper"- Effekt. In diesem Fall erscheint die klassifizierte Szene sehr heterogen.

In der Multispektralklassifizierung werden drei Arten von Klassifizierung unterschieden:

Die überwachte (supervised c.) Klassifizierung, bei der für jede Objektklasse eine Musterklasse bestimmt wird. Aus diesen Musterklassen wird wiederum der Klassifikator bestimmt. Jedes Element außerhalb einer Musterklasse wird sodann mittels dieser Entscheidungsfunktion des Klassifikators auf Grund seiner typischen Geländeinformation (z.B. spektrale Signatur bei Multispektralbildern) einer Objektklasse zugeordnet. Ein Objekt weist daneben noch andere Merkmale auf, die bei einer Klassifikation berücksichtigt werden können, beispielsweise Textur, Musterung, Größe, Form, Orientierung, Zeit und Merkmale wie Winkel, Enden und Kanten. Eine überwachte Klassifikation kann hierarchisch oder iterativ durchgeführt werden. In beiden Fällen werden für ausgesuchte Areale des Bildes Trainingsdaten gewonnen und danach das gesamte Bild klassifiziert.
Eine Schwierigkeit bei der Generierung von Trainingsgebieten resultiert z.B. aus einer zu geringen Auflösung räumlicher Objekte. In diesem Fall sind die spektralen Eigenschaften einzelner Pixel gemischt, es entstehen so genannte "Mischpixel". Räumlich stark differenzierte, topographisch bedingte Beleuchtungsverhältnisse und Schattenwirkungen können sich negativ auf das Klassifizierungsergebnis auswirken, weil dadurch die Klassenbeschreibungen unspezifisch und damit schlechter trennbar werden.

Die unüberwachte (unsupervised c.) Klassifizierung unterscheidet sich in Hinblick auf die überwachte darin, dass keine Geländeinformation und keine Anzahl der Objektklassen benötigt wird. Mittels eines Klassifikators (z.B. ein Abstandsmaß) wird iterativ jedes Bildelement einer Teilgesamtheit zugeordnet. Diese Teilklassen besitzen jedoch noch keine Objektidentität.
Die einzelnen Flächen lassen sich jedoch nicht immer zu einem bestimmten Zeitpunkt unterscheiden, sondern in manchen Fällen nur, wenn sie zu verschiedenen Zeitpunkten der Wachstumsperiode untersucht werden (multitemporale Klassifizierung).

Die hybride (hybrid c.) Klassifizierung mit einer Vielzahl verschiedener Verfahren. Eine Möglichkeit besteht z.B. darin, einer überwachten Klassifizierung eine unüberwachte Klassifizierung vorzuschalten. Mit Hilfe der unüberwachten Klassifizierung können die unterscheidbaren spektralen Klassen sowie geeignete Trainingsgebiete bestimmt werden. Die hybride Multispektralklassifizierung findet insbesondere in den Fällen Anwendung, bei denen eine hohe Variabilität in den spektralen Merkmalen der Klassen vorhanden ist, wie z.B. Biotopkartierung.

Die Güte einer Klassifikation hängt wesentlich davon ab, wie eindeutig die Multispektralsignatur jeder Objektklasse ist, wie stark die stichprobenhafte Geländekenntnis (ground truth) in einem Testgebiet mit den Ergebnissen der Klassifikation harmonisiert und mit welchem Typ von Klassifikation gearbeitet wird. Im Regelfall führen unüberwachte Klassifikationen von multispektralen Fernerkundungsdaten zu keinen befriedigenden Ergebnissen , da kaum eine Objektklasse eindeutig im Bild gekennzeichnet ist (Mischpixel = Mixel!). Deshalb setzt man überwiegend auf überwachte, interaktive Klassifikationsschritte , welche maßgeblich von den Interpreten gesteuert werden können und, gestützt durch individuelle Sach- bzw. Geländekenntnisse, deutlich bessere Klassifikationsergebnisse erbringen.

Klassische Klassifizierungsmethoden, wie die maximum-likelihood, minimum distance oder parallelepiped classification bedienen sich binärer Entscheidungsregeln bezüglich der Zugehörigkeit des Bildelementes zu einer Klasse. Sie bringen zum Ausdruck, ob das Element der Klasse gehört (=1) oder nicht (=0). Diese Klassifizierungsmethoden werden auch als harte Klassifizierungssysteme (engl. hard classifiers) bezeichnet. Die gebräuchlichsten pixel-basierten Klassifikationsmethoden gehören zu den harten Klassifizierungssystemen.
Hingegen kann bei den weichen Klassifizierungssystemen (engl. soft classifiers) jedes Pixel zu mehr als einer Klasse gehören, und es besitzt unterschiedliche Zugehörigkeitswahrscheinlichkeiten zu den verschiedenen Klassen.

Pixelbasierte Verfahren stoßen v.a. bei hoch aufgelösten Bilddaten schnell an ihre Grenzen. In diesen Verfahren werden Objekte, wie beispielsweise Gebäude, in ihre Teilobjekte zerlegt, so dass keine typische spektrale Gesamtreflexion definiert werden kann. Die häufig verwendete Maximum Likelihood-Klassifizierung setzt eine Normalverteilung der Grauwerte in den Trainingsgebieten voraus. Für heterogene Objekte ist diese Voraussetzung nicht immer gegeben, folglich können Probleme bei der Klassenzuweisung entstehen. Bei hoher räumlicher Auflösung besitzen Bilddaten zudem meist nur drei bis vier spektrale Kanäle, was im Vergleich z.B. zu Landsat, der als Standardsensor für die Multispektralklassifizierung verwendet wird, einen Verlust an spektraler Information bedeutet. Viele Objektklassen besitzen bei nur drei oder vier Kanälen spektral ähnliche Eigenschaften und überlagern sich im Merkmalsraum. Die Klassentrennung kann daher nur unter Einbeziehung weiterer Informationen wie z.B. räumliche Nachbarschaft, Form und Textur von Objekten, sicher erfolgen.

Die aufgezeigten Grenzen der klassischen, pixelbasierten Klassifizierungsverfahren haben andere, z.T. wissensbasiert genannte Verfahren motiviert, wie z.B. die objektorientierte Bildanalyse, die Wissen über die zu extrahierenden Objekte modellieren.

Im Gegensatz zu den harten Klassifizierungssystemen benutzen die weichen Klassifizierungssysteme den Grad der Zugehörigkeit des bestimmten Bildelementes zu jeder in der Klassenhierarchie vorhandenen Klasse (Fuzzy systems), wobei der Zugehörigkeitsgrad nicht nur die binären Werte, sondern auch Zwischenwerte annehmen kann. In diesem Fall bedeutet der Wert 1 die sichere Zugehörigkeit und der Wert 0 die sichere Nichtzugehörigkeit zu einer bestimmten Klasse. Der Vorteil der soft classifiers besteht in der Möglichkeit der Darstellung der Unsicherheiten bezüglich der Zugehörigkeit zu Klassen. Ein Bildobjekt kann mehreren Klassen mit unterschiedlicher Wahrscheinlichkeit zugeordnet werden. Dieses Prinzip entspricht eher der menschlichen Zuordnung und der linguistischen Beschreibung der Objekte in der Welt als harte Regeln. Die Klassifikationsergebnisse der soft classifiers stehen dadurch dem menschlichen Erkennen viel näher.

Im Zuge der verbesserten räumlichen Auflösung der Satellitensysteme hat sich seit einigen Jahren die objektbasierte Bildanalyse etabliert. Mit eCognition (Trimble), ENVI Feature Extraction Module (ITT), IMAGINE Objective (ERDAS) und Feature Analyst (VLS) stehen leistungsfähige und teilweise erweiterbare kommerzielle Softwaresysteme zur Verfügung. Sie erreichen zwar nicht die Genauigkeit der visuellen Interpretation, sind jedoch in der Lage, eine Vorauswahl von relevanten Bildobjekten oder -bereichen zu treffen. Alle Systeme zeigen, je nach Anwendung, noch methodische Schwächen, u. a. in den Bereichen Segmentierung, automatische Merkmalsextraktion und multitemporale Analyse.

Die objektbasierte Bildanalyse kann als eine spezielle Form der wissensbasierten Bildanalyse gesehen werden, die sich mit der Extraktion topographischer Objekte aus Daten mit einem hohen Informationsanteil im spektralen Bereich beschäftigt.
Das Konzept der objekt-basierten Bildanalyse beruht auf der Annahme, dass semantische Information notwendig ist, um Bilder vollständig zu interpretieren. Diese Information kann nicht von einzelnen Pixeln repräsentiert werden, sondern nur von "aussagekräftigen" Bildobjekten und ihren wechselseitigen Beziehungen. Der größte Unterschied im Vergleich zu pixelbasierten Ansätzen ist, dass objektbasierte Ansätze der eigentlichen Klassifikation einen Segmentierungsschritt vorschalten und in der Folge Bildobjekte anstelle einzelner Pixel analysieren.

In der objektbasierten Bildanalyse werden in einem ersten Schritt die Bilddaten segmentiert, d.h. benachbarte Pixel nach bestimmten Homogenitätskriterien zu Segmenten zusammengefasst. Die Segmentierung kann hierbei auch als eine Generalisierung der Bilddaten aufgefasst werden. Die Klassifizierung der Segmente erfolgt in eCognition über eine Wissensbasis in Form von Regelsätzen, welche die Eigenschaften der gewünschten Objektklassen als Fuzzy-Zugehörigkeitsfunktionen beschreiben.
Die Segmente werden als Ganzes klassifiziert, wobei neben den spektralen Informationen auch Formeigenschaften, Textur und Kontextinformationen genutzt werden können.

Zur Klassifizierung von Landbedeckungsarten wird in zunehmendem Maße auf das objektbasierte Verfahren zurückgegriffen. Neben den durch den neuartigen Klassifizierungsansatz verbundenen Vorteilen, wie beispielsweise der Segmentierung kompakter Objekte, die dem menschlichen Wahrnehmungsvermögen entsprechen, hat diese Methode aber auch Schwachstellen. Mit der Bildung homogener Objekte geht gleichzeitig auch eine Generalisierung einher. Mit der pixelbasierten Klassifizierung wird jedes einzelne Pixel nach spektralen Ähnlichkeiten untersucht und in Klassen sortiert, was in der Regel keine homogene Objektbildung zulässt, aber andererseits auch keine Generalisierung darstellt.

Eine Klassifikation kann nach verschiedenen Methoden erfolgen, wobei eine Kombination von überwachter und nicht überwachter Klassifikation sowie auch ein mehrstufiges Vorgehen möglich sind. Solch eine Vorgehensweise ist immer dann sinnvoll, wenn verschiedene Klassen nur durch unterschiedliche Verfahren optimal identifiziert werden können. Hierbei durchläuft jedes Pixel einen "Entscheidungsbaum". Derartige Klassifikationsschemata sind zum Teil fester Bestandteil professioneller Bildverarbeitungssoftware, die darüber hinaus auch die Möglichkeit besitzt, eigene hierarchische Klassifikationsschemata zu realisieren.

Einige ungelöste Probleme der Klassifizierung:

  • Schwierigkeit der Unterscheidung zwischen verschiedenen Pflanzenarten aufgrund der möglichen Ähnlichkeit ihrer spektralen Signaturen
  • Auftreten verschiedener Signaturen pro Pflanzenart in Abhängigkeit von Wachstumsphase, Feuchtigkeit des Erdreichs, atmosphärischen Bedingungen u.a.
  • In der Praxis können häufig einige Pixel nicht eindeutig einer bestimmten Klasse zugeordnet werden. Dies kann dann der Fall sein, wenn mehrere Klassen aufgrund
    ihrer statistischen Kennwerte (Varianz der Grauwerte ) relativ heterogen sind und ein Pixel mehreren Gruppen zugewiesen werden kann.
  • Probleme bei Mischpixeln, die aufgrund der geringen geometrischen Auflösung verschiedene Oberflächentypen in einem Aufnabmepixel repräsentieren (insbesondere in Übergangsbereichen wie z.B. Grünflächen und Bebauung am Rande von Städten oder bei Grünflächen und Wasserflächen an Uferzonen von Flüssen und Seen).

Weitere Informationen:

Kleinsatellit

Satellit mit einer Masse von maximal 500 Kilogramm. In Europa wird der Bau solcher Forschungssatelliten von der Student Space Exploration and Technology Initiative (SSETI) gefördert. Mit Stand April 2012 nehmen etwa 400 Studenten in über 35 Teams von über 23 Universitäten aus über 14 Nationen an SSETI-Projekten teil.

Für die Jahre 2015-20 rechnet man weltweit mit dem Start von 510 weiteren Kleinsatelliten. Davon werden ca. 75 % im Auftrag von zivilen oder militärischen Raumfahrtagenturen ins All gebracht.

Die Kleinsatelliten werden eingeteilt in (Angaben variieren):

  • Minisatelliten (100–500 kg)
  • Mikrosatelliten (10–100 kg)
  • Nanosatelliten (1–10 kg)
  • Picosatelliten (0,1–1 kg)
  • Femtosatelliten (< 0,1 kg)

Beispiele für Kleinsatelliten sind: TET-1, Flying Laptop, BIRD, BEESAT-4, BIROS, Picard, DEMETER, Essaim, Parasol.

Weitere Informationen:

Klimatologie und Fernerkundung

Im Wesentlichen sind die für klimatologische Aufgaben genutzten Fernerkundungssysteme identisch mit denen, die mit meteorologischer Zielsetzung (s. Meteorologie und Fernerkundung ) verwendet werden. Dies gilt auch weitgehend für die beobachteten Parameter, allerdings mit anderer Schwerpunktsetzung und anderen Raum- und Zeitskalen. Natürlich nutzt die Klimaforschung weiterhin und in sinnvoller Ergänzung zu den Fernerkundungsmethoden diverse in situ-Messungen (Bodenstationen, Ozeanwetterschiffe, Radiosondenstationen, phänologische Gärten).

Klimagrenze im Bild: Der Himalaya

1460v1_20131115-Himalaya-Snow

Quelle: NOAA

 

Die Ketten des Himalaya - sie enthalten einige der höchsten Berggipfel der Erde - dienen als klimawirksame Grenze zwischen Zentral- und Südasien. Die Trennung zwischen kalter Luft aus dem Norden und warmer, feuchter Luft aus dem Süden wird offensichtlich, wenn man auf die Schneeflächen dieses Echtfarbenbildes sieht, die sich auf der Nordseite der Kammregionen erstrecken. Die Daten stammen von dem Satelliten Suomi NPP, aufgenommen am 15.11. 2013.
Die Unterschiede im Klima und bei Eigenheiten an der Erdoberfläche werden noch deutlicher, wenn man das Nahinfrarotbild anschaut, statt des Echtfarbenbildes. Drei Spektralbänder des Instrumentes VIIRS sind in diesem Bild kombiniert (SVM05, SVM07 und SVM10), und die resultierenden Farben wurden verstärkt. Im Allgemeinen helfen diese Bänder, die Unterschiede zwischen den Farben der schneefreien Erdoberfläche (SVM05, 07) und der Schneebedeckung (SVM10) zu unterscheiden. Grüne Gebiete stehen in diesem Bild für vegetationsreiche Oberflächen, weiß für Schnee und grau meist für vegetationslose, kühler Oberflächen. Kleine Seen treten verstreut über das Bild auf. Sie sind in dem Nahinfrarotbild nicht nur deutlicher sichtbar, sondern man erkennt an der rostroten Farbe mancher Seen deren höhere Phytoplanktonkonzentration.

 

Ergänzt werden meteorologische Parameter durch solche, die mittel- bis längerfristige Aussagen über Klimaentwicklung erlauben. So ist für das volle Verständnis des irdischen Klimas das Monitoring aller Komponenten des Systems Erde zumindest in Teilen vonnöten, einschließlich ihrer Interaktionen. Dazu gehören:

  • die Atmosphäre
  • die Kryosphäre
  • die Biosphäre
  • die Hydrosphäre
  • Aspekte der festen Erde, z.B. der Vulkanismus der Lithosphäre oder das irdische Magnetfeld und das Schwerefeld

Schließlich müssen im Zusammenhang mit äußeren Klimaantrieben (external forcing) Veränderungen der Solarstrahlung, der Erdbahnparameter und auch menschliche Aktivitäten berücksichtigt werden.

Für die Betrachtung von Klimaveränderungen werden lange Beobachtungszeitreihen der verschiedenen Parameter benötigt. Fernerkundung, insbesondere Satellitenfernerkundung kann diese erst seit wenigen Jahrzehnten bereit stellen. Die aktuellen Daten müssen daher durch die Ergebnisse von älteren, konventionellen Messungen und die Einbeziehung von indirekten Methoden der Datengewinnung (Proxydaten wie Warvenchronologie, Korallenanalyse) ergänzt werden.

Klimaanomalien_201113_lres

Bedeutende Klima- und Wetterereignisse
im Jahr 2011

 

Quelle: NOAA

Weitere Informationen:

Klimawandel

Klimawandel (oft syn. zu Klimaänderung) ist eine Veränderung des Zustands des Klimas, die identifiziert werden kann (z.B. mit Hilfe statistischer Methoden) als Veränderungen der Mittelwerte und/oder der Variabilität seiner Eigenschaften. Diese Veränderungen bestehen für eine längere Zeit, typischerweise Dekaden oder länger. Klimawandel kann auf natürliche interne Prozesse oder auf äußere Antriebskräfte oder auf anhaltende (persistente) anthropogene Veränderungen der Zusammensetzung der Atmosphäre oder der Landnutzung zurückgeführt werden.
Begriffe wie Klimawandel, Klimaänderung oder Klimaschwankung werden von Institutionen oder einzelnen Wissenschaftlern nicht einheitlich gebraucht.

Als Kernaussagen hält der aktuelle IPCC-Bereicht fest: „Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950er Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten. […] Der menschliche Einfluss wurde in der Erwärmung der Atmosphäre und des Ozeans, in Veränderungen des globalen Wasserkreislaufs, in der Abnahme von Schnee und Eis, im Anstieg des mittleren globalen Meeresspiegels und in Veränderungen einiger Klimaextreme erkannt.“ (Klimawandel 2013, Physikalische Grundlagen - Hauptaussagen aus der Zusammenfassung für politische Entscheidungsträger)

Mit dem Aufbau des Copernicus Klimadienstes (Bezeichnung in der GMES-Verordnung: „Überwachung des Klimawandels zur Unterstützung von Maßnahmen zur Anpassung an den Klimawandel und zur Eindämmung seiner Folgen“) stellt die EU Klimainformationsdienste bereit. Diese werden globale, europäische und nationale Entscheidungsträger bei der Erfassung und Bewertung des Klimawandels und seiner Folgen wie auch bei der Entwicklung von Strategien und politischen Maßnahmen zur Anpassung („Adaptation“) an die Folgen des Klimawandels und zur Abschwächung („Mitigation“) der Emission klimarelevanter Spurengase unterstützen. Der Copernicus Klimadienst soll im Kontext der von der Weltorganisation für Meteorologie (WMO) und weiteren UN Organisationen vorangetriebenen Initiative „Global Framework for Climate Services“ als wesentlicher europäischer Beitrag eingepasst werden. Der Copernicus Klimadienst wird von ECMWF (European Centre for Medium-Range Weather Forecasts) geführt werden.

Die Informationsprodukte des Copernicus Klimadienstes sollen auf der Integration von Daten aus satelliten- und bodengestützter Erdbeobachtung, von Re-Analysen numerischer Wettervorhersagemodelle und von globalen und regionalen Klimasimulationen aufbauen. Produkte für die Überwachung des Klimawandels und seiner Folgen sollen zum einen Zeitreihen der von GCOS („Global Climate Observing System“) definierten „Essential Climate Variables“ (ECV) der Erdbeobachtung umfassen. Zum anderen soll damit auch die Modellierung der Wechselwirkung relevanter Parameter der verschiedenen Komponenten des Erdsystems als Basis für Klimasimulationen für Zeiträume von Jahreszeiten über Dekaden bis zu einem Jahrhundert unterstützt werden.

Das Wärmerekordjahr 2014 im Rahmen der Anomalien
seit 1880

temperature_anomalies

Anomalies are with respect to the 20th century average

Quellen: NOAA/NCDC (Grafik) / NOAA/NCDC (Text, hier auch ausführlichere Darstellung)

  • The year 2014 was the warmest year across global land and ocean surfaces since records began in 1880. The annually-averaged temperature was 0.69°C above the 20th century average of 13.9°C, easily breaking the previous records of 2005 and 2010 by 0.04°C. This also marks the 38th consecutive year (since 1977) that the yearly global temperature was above average. Including 2014, 9 of the 10 warmest years in the 135-year period of record have occurred in the 21st century. 1998 currently ranks as the fourth warmest year on record.
  • The 2014 global average ocean temperature was also record high, at 0.57°C above the 20th century average of 16.1°C, breaking the previous records of 1998 and 2003 by 0.05°C. Notably, ENSO-neutral conditions were present during all of 2014.
  • The 2014 global average land surface temperature was 1.00°C above the 20th century average of 8.5°C, the fourth highest annual value on record.
  • Precipitation measured at land-based stations around the globe was near average on balance for 2014, at 0.52 mm below the long-term average. However, as is typical, precipitation varied greatly from region to region. This is the third consecutive year with near-average global precipitation at land-based stations.
  • This is the first time since 1990 the high temperature record was broken in the absence of El Niño conditions at any time during the year in the central and eastern equatorial Pacific Ocean, as indicated by NOAA's CPC Oceanic Niño Index. This phenomenon generally tends to increase global temperatures around the globe, yet conditions remained neutral in this region during the entire year and the globe reached record warmth despite this.
 

Weitere Informationen:

Klusteranalyse

Syn. Klumpenanalyse, engl. cluster analysis, eine unüberwachte Klassifizierung; sie ist ein Verfahren zur rein statistischen Berechnung von Klassen. Dabei geht man zunächst von einem beliebigen Merkmalsvektor als Mittelpunkt einer ersten Klasse aus. Anhand ausgewählter Zuweisungskriterien werden dann die weiteren Merkmalsvektoren auf ihre Zugehörigkeit zu dieser Klasse geprüft. Eine neue Klasse wird erzeugt, wenn die Kriterien nicht erfüllt werden. Das Verfahren läuft meist iterativ bis eine Abbruchsregel (maximale Anzahl der Iterationen, Anteil unveränderter Zuweisungen nach einem Durchlauf) eintritt.

Kohlen(stoff)dioxid (CO2)

Farbloses und geruchloses Gas mit großer Treibhauswirkung. In die Atmosphäre wird zusätzliches Kohlendioxid durch die Verbrennung von fossilen Brennstoffen und von organischem Material eingetragen. CO2 besteht aus einem einzelnen Kohlenstoffatom und zwei Sauerstoffatomen.

CO2 ist zusammen mit Methan (CH4) das einflussreichste vom Menschen verursachten Treibhausgas in unserer Atmosphäre. Beide sind maßgeblich für den Klimawandel und die Erderwärmung verantwortlich. Als im Jahr 2002 das deutsch-niederländisch-belgische Instrument SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Chartography) auf dem ESA-Umweltsatelliten ENVISAT erstmals genutzt werden konnte, um per Satellitenmessung CO2 und CH4 in der Atmosphäre aufzuspüren, war das ein Meilenstein für die Klimaforschung. SCIAMACHY hat bis zum Ausfall  von ENVISAT am 8. April 2012 die von der Atmosphäre zurückgestreute Sonnenstrahlung analysiert. Aus den charakteristischen Spektrallinien der atmosphärischen Bestandteile ließen sich die Konzentrationen einer Vielzahl von Spurengasen bestimmen, die für die Luftqualität, den Treibhauseffekt und die Ozonchemie wichtig sind.
Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher werden die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten fortgesetzt.

co2_anim_deu_600 Zeitreihe der CO2-Konzentration

Messung und Auswertung

Forscher der Universität Bremen haben erstmals über den Gesamtzeitraum der ENVISAT-Mission Daten des Instruments SCIAMACHY ausgewertet und so ein vollständiges Bild über zehn Jahre CO2- und CH4-Entwicklung erhalten.
Aus dem Weltall lässt sich erkennen, wo permanent erhöhte Konzentrationen zu finden sind. Daraus können Rückschlüsse auf die Ursachen gezogen werden.
Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher setzen die Forscher die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten fort.Quelle: DLR

 

Weitere Informationen:

Kohlendioxid-Banden

Wellenlängenbereiche der elektromagnetischen Strahlung, die von Kohlendioxid absorbiert werden.
Kohlendioxid absorbiert langwellige elektromagnetische Strahlung in unterschiedlichen Wellenlängenbereichen. Es gibt zwei relevante CO2-Absorptionsbanden (bei 4,3 und 14,7 Mikrometer (µm)), wovon eine im Zentralbereich – im Wellenlängenbereich in der Mitte der Bande - tatsächlich schon weitgehend gesättigt ist. Dies gilt aber nicht für die Flankenbereiche, also für die Wellenlängen an den Flanken der Bande. Um dies zu erkennen, sind allerdings äußerst genaue Messungen notwendig, die nur von entsprechend eingerichteten Instituten mit der erforderlichen Präzision durchgeführt werden können. Welchen Spielraum der durch den Menschen verursachte Treibhauseffekt im Prinzip noch zulässt, zeigt im übrigen ein Vergleich mit der Venusatmosphäre. Sie ist sehr dicht und lässt daher nur wenig Sonnenstrahlung zu ihrer Oberfläche durch. Aber ihr CO2-Gehalt liegt bei 98 % (Erdatmosphäre 0,037 %), was zu einem Treibhauseffekt von 466 °C (!) führt (der natürliche Treibhauseffekt der Erdatmosphäre beträgt etwa 33°C). Im Übrigen ist die nur sehr schwache spezifische Treibhauswirksamkeit von CO2 weitgehend auf diese Sättigung zurückzuführen.

Die Satellitenmission OCO-2 misst die Strahlung in zwei der CO2-Banden, um das atmosphärische (CO2) aufzuspüren. Ein Wellenlängenbereich reicht von 1,594 Mikron bis 1,619 Mikron, der zweite von 2,042 Mikron bis 2,082 Mikron.

Kohlenmonoxid

Klares und geruchloses Gas, das durch unvollständige Verbrennung von kohlenstoffhaltigen Brennstoffen entsteht. Kohlenmonoxid ist kurzlebig und kommt in der unteren Atmosphäre vor.

Visualisierte Kohlenmonoxiddaten von MOPITT Visualisierte Kohlenmonoxiddaten
von MOPITT


Der Sensor MOPITT an Bord des NASA-Satelliten Terra hat die ersten Daten zu einer globalen Gesamtschau von Kohlenmonoxid in der Atmosphäre zusammengetragen.

Legende:

mopitt_first_year_leg

Quelle: NASA Earth Observatory

 
Kohlenstoffkreislauf

Gesamtheit aller Prozesse, durch die Kohlenstoff und seine chemischen Verbindungen in der Geosphäre umgesetzt werden. Die Bedeutung des Kohlenstoffs gründet sich darauf, daß er Bestandteil aller organischen Verbindungen ist. Somit stellt der Kohlenstoffkreislauf einen der wichtigsten Kreisläufe des Lebens dar. In der Atmosphäre befinden sich die Kohlenstoffvorräte in gasförmigem Zustand. In der Hydrosphäre kommt Kohlenstoff in gelöstem Zustand vor, in anorganischen und organischen Verbindungen. Fest gebunden ist der Kohlenstoff in der Pedosphäre (Humus, Biomasse) und in der Lithosphäre (Kohle, Erdgas, Erdöl, Karbonatgesteine).

Das natürliche Gleichgewicht des atmosphärischen Kohlenstoffkreislaufs wird insbesondere durch die ansteigenden CO2-Emissionen als Folge des zunehmenden Verbrauchs fossiler Brennstoffe gestört. Die Rodung der Tropenwälder sowie die Verbrennung von Biomasse führt zu einem zusätzlichen indirekten Anstieg des atmosphärischen CO2, da diese Pflanzen nicht mehr an der Photosynthese teilnehmen. Obwohl ein Großteil dieser CO2-Menge wieder in den Ozeanen aufgenommen wird, steigt der Kohlenstoffgehalt (in Form von CO2) in der Atmosphäre an.

carbon_cycle_lres Das Karussell des Kohlenstoffs


Immer im Kreis bewegt sich der Kohlenstoff im Bereich unseres Planeten. Gleichzeitig hält der Kohlenstoff im übertragenen Sinne unsere Welt in Gang. Das Element ist der Baustein des Lebens auf der Erde, und in Gestalt des Atmosphärengases CO2 hat es einen gewaltigen Einfluss auf das Klima des Planeten.
In dem Prozess durchläuft der Kohlenstoff auch Flüsse, Ozeane und die Halbdunkelzone der Ozeane (see interactive). Die Menschen haben in den Kohlenstoffkreislauf eingegriffen und in kurzer Zeit Kohlenstoff von trägen zu rasch reagierenden Vorratspools verlagert, indem sie große Mengen von Kohlenwasserstoffen aus der Erde entnahmen und sie als Brennstoffe verfeuerten und damit einen Überschuss an Kohlendioxid in der Atmosphäre erzeugten, der Wärme zurückhält.
(Illustration by Jack Cook, Woods Hole Oceanographic Institution)

Quelle: WHOI

 

Zur Quantifizierung der terrestrischen Kohlenstoffquellen und -senken (z. B. CO2, CH4) ist der Aufbau eines Expertensystems zur Erstellung der jährlichen Bilanz der Kohlenstoffflüsse notwendig (Kyoto-Protokoll). Ein solches Expertensystem wird im Augenblick am Potsdam Institut für Klimafolgenforschung (PIK) in Zusammenarbeit mit dem Max-Planck-Institut für Meteorologie (MPI-M, Hamburg) entwickelt und wird im Rahmen einer Kooperation mit dem DFD in den nächsten Jahren getestet. Ziel dieser Kooperation ist die Bilanzierung des terrestrischen Kohlenstoff-Haushalts unter Verwendung von satellitengestützen Fernerkundungsinformationen und deren Assimilation in gekoppelte dynamische Vegetations- und Atmosphärenmodelle.

Die aus dem Expertensystem abgeleiteten Daten sind unter anderem die Nettoprimärproduktion (NPP) der terrestrischen Vegetation oder die Nettoökosystemproduktion (NEP), aber auch die Abgabe von Methan in die Atmosphäre. Die Integration von Daten aus Emissionskatastern über kohlenstoffhaltige Substanzen (z.B. Methan) von landwirtschaftlichen Flächen oder aus der Viehzucht in die Atmosphäre stellt eine weitere Herausforderung für die Zukunft dar, um eine realistische Kohlenstoffbilanz zu erzeugen.

Aufgrund der hohen räumlichen und zeitlichen Variabilität der terrestrischen Photosynthese, der mikrobiellen Aktivität von Bodenorganismen und der meteorologischen Parameter ist es notwendig, die in das Expertensystem eingehenden Daten flächenhaft mit ausreichend hoher räumlicher und zeitlicher Auflösung zu erfassen. Hierfür geeignet sind Fernerkundungsdaten von polar umlaufenden Satelliten mit einer Wiederholrate von einigen Tagen (Landsat, IRS, SPOT). Daneben sollen auch die Daten geostationärer Satelliten wie z.B. "Meteosat Second Generation (MSG)" genutzt werden.

blacksea_amo_2012197

Quelle: NASA - Weitere Details siehe Link

Kohlenstoff-Konsumenten im Schwarzen Meer

Dieses kräftig cyanfarbige Schlierenmuster an der Oberfläche des Schwarzen Meers ist eine Blüte von mikroskopisch kleinem Phytoplankton. Die riesige Menge an einzelligen Algen in diesem Bild sind wahrscheinlich Coccolithophoren, eine der wichtigsten Organismen-Klassen in ihrer Wirkung als biologische Kohlenstoffpumpen.
Coccolithophoren entfernen beständig Kohlenstoffdioxid aus der Atmosphäre und schicken ihn langsam zum Ozeanboden, ein Vorgang, der hilft, das Klima auf der Erde zu stabilisieren.
Dieses Bild mit der verwirbelten blauen Blüte wurde am 15. Juli 2012 vom Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem NASA-Satelliten Aqua aufgenommen.

Das Bild ist gedreht, sodass Norden rechts ist. Die Blüte wurde wahrscheinlich durch Emiliania huxleyi gebildet, obwohl die Bestimmung der Spezies unmöglich ist, ohne direkte Beprobung des Wassers.
Coccolithophoren benutzen Kohlenstoff, Kalzium und Sauerstoff, um kleine Plättchen aus Calciumcarbonat (Coccolithen) zu bilden. Diese ähneln Radkappen. Während ihres Lebens entfernen die Coccolithophoren Kohlenstoff aus der Luft binden ihn in ihrem Kalkskelett und nehmen ihn mit in die Tiefe wenn sie sterben oder wenn sie von Zooplankton oder Fischen gefressen und dann wieder als Exkrement ausgeschieden werden.

 

Weitere Informationen:

Kombination mehrerer Bilder

Engl. merging of images, franz. combinaison d'images; nach DIN 18716 ein "Vorgang, durch den verschiedene, geometrisch mit hoher Genauigkeit identische Bilder zusammengeführt werden, um ein neues Bild zu erzeugen". Die Definition ist verbunden mit der Anmerkung "Als wichtigste Verfahren dieser Art sind zu nennen:

  • das Multitemporalverfahren, bei dem zu verschiedenen Zeiten aufgenommene Daten miteinander kombiniert werden, z. B. um bei der Klassifizierung auch von der zeitlichen Veränderung von Oberflächen Gebrauch zu machen;
  • das Multisensoralverfahren, bei dem mit verschiedenen Sensoren aufgenommene Daten miteinander kombiniert werden, um den Informationsgehalt zu verbessern, z. B. durch Kombination hochauflösender Schwarzweißdaten mit geringer aufgelösten Farbinformationen;
  • das Ratioverfahren, bei dem verschiedene Datensätze, z. B. multispektrale Daten, durch Quotientenbildung oder andere arithmetische Operationen miteinander kombiniert und ein neues Bild als Ratiobild erzeugt wird."
Kompositbild

Ein Kompositbild besteht aus Pixeln, die alle aus mehreren sich überlagernden Einzelbildern ausgewählt wurden. Dazu werden diejenigen Pixel auswählt, die jeweils am ehesten bestimmten, im Voraus festgelegten Kriterien entsprechen. Zum Beispiel könnte ein Pixel mit dem höchsten NDVI ausgewählt werden, um verwaschene Pixel auszuschließen oder es werden Pixel in der Nähe des Nadirpunktes bevorzugt, um beobachtungsgeometrische Verzerrungen zu minimieren.

Ein farbiges Kompositbild wird durch die Kombination von drei (monochromen) Bildern in einem erzeugt. Jedem der drei Bilder einer Szene, die in unterschiedlichen Wellenbereichen aufgenommen sind, ist eine Grundfarbe zugeordnet: rot, grün oder blau (RGB). Je heller die Pixel sind, umso intensiver ist die Farbe. Wenn korrespondierende Pixel (gleiche Reihe und Spalte) von jedem Bild zusammengefügt werden, ergibt die resultierende Farbe einen Farbton, der das Verhältnis von RGB von jedem der ursprünglichen Bilder repräsentiert.

Kompositbild - Aufbau Kompositbild - Aufbau

Quelle: Natural Resources Canada

Kompsat-1

Engl. Akronym für First Korean Multi-Purpose Satellite, syn. Arirang-1; seit 1999 im All befindlicher Fernerkundungssatellit mit Aufgaben zu Kartographie, Landnutzung, Raumplanung, Katastrophen- und Umweltmonitoring, Monitoring mariner Resourcen, Meeresverschmutzung, Aufspürung von Chlorophyll, Beobachtung der oberen Atmosphäre. Kompsat-1 umrundet die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit beträgt 98,5 min, der Wiederholzyklus 1050 Tage. Die Mission ist seit 2008 beendet.

Kompsat-2

Engl. Akronym für Second Korean Multi-Purpose Satellite 2, syn. Arirang-2; leichter, vom Korea Aerospace Research Institute KARI entwickelter und mit Unterstützung von Astrium gebauter Erdbeobachtungssatellit. Er liefert vor allem hoch aufgelöste Bilder der koreanischen Halbinsel mit dem Ziel, damit Karten und digitale Höhenmodelle zu erstellen. Kompsat-2 umrundet die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit beträgt 98,5 min, der Wiederholzyklus 1050 Tage. Der Start erfolgte im Juli 2006, noch 2016 ist der Satellit in Betrieb.

Okavango_River_lres

Zu einem erläuternden Video hier klickenQuelle: KARI / ESA

Der Okavango River

Dieses Bild zeigt das Grenzgebiet von Namibia und Angola aufgenommen vom Kompsat-2 am 3.1.2013. Der Okavango markiert hier die Grenze. Er entspringt in Angola und fließt in südöstlicher Richtung nach Botswana, wo er sich schließlich in ein großes Binnendelta verzweigt. Das Okavango-Delta ist ein beliebtes Touristenziel, da es einen großen Reichtum an Wildtieren aufweist wie Elefanten, Büffel, Wildebeest, Giraffen, Löwen, Leoparden, Geparde, Krokodile, Hyänen, Nashörner und Paviane.
Die grünen Bereiche um den Fluss zeigen vegetationsbedeckte Flächen an. Der Fluss besitzt lokal ein große wirtschaftliche Bedeutung hinsichtlich Landwirtschaft und Tourismus, und der Fischfang ist eine wichtige Nahrungsquelle für einheimische Bevölkerung.
Zoomt man in die obere linke Ecke hinein, erkennt man die weißen und andere helle Flecken als ländliche Siedlungen entlang einer Straße. Ebenso ist der für tropische und subtropische Gebiete Afrikas typische rote Boden gut erkennbar.
In der rechten unteren Ecke fallen große kreisförmige Agrarflächen (Karusselbewässerung) auf, bis etwa 600 m im Durchmesser. Bei den weißen Linien, die die bewässerten Kreise durchqueren, handelt es sich vermutlich um Wege, die der Wartungszufahrt dienen.

Auch bei hochaufgelösten optischen Bildern ist es nicht immer einfach zu erkennen, was das Bild im Detail zeigt. Beispielsweise scheint in den ockerfarbenen Agrarflächen mit traditioneller Nutzung ein durch Hecken geprägtes Muster vorzuliegen, das die Parzellen markiert. Ebenso sind in vielen der Felder kleine Flecken mit Vegetation zu finden. Dabei kann es sich um einzelne Bäume handeln oder um Pflanzenbewuchs auf großen Termitenhügeln.

 

Weitere Informationen:

Kompsat-3, -3A

Engl. Akronym für Korean Multi-Purpose Satellite 3, syn. Arirang-3; der Satellit hat einen ähnlichen Aufbau wie KOMPSat-2; er wurde am 17. Mai 2012 (18. Mai nach Ortszeit) mit einer japanischen H-IIA-Trägerrakete vom Tanegashima Space Center gestartet. Er fliegt auf einem sonnensynchronen Orbit in 675 km Höhe. Seine Bodenauflösung im Pan-Bereich beträgt 0,7 m, im RGB- und NIR-Bereich 2,8 m.

KOMPSAT-3 ist ein Erdbeobachtungssatellit mit hochauflösendem optischen Sensor, mit der Aufgabe die Datenkontinuität der beiden Vorgängersatelliten zu gewährleisten und den südkoreanischen Bedarf an Bildmaterial in den Bereichen GIS und Umwelt-, Landwirtschafts-, Katastrophen- und Meeresmonitoring zu decken.

Die Schwestermission KOMPSAT-3A ist Koreas erste Erdbeobachtungsmission mit zwei verschiedenartigen bildgebenden Sensoren, einer Multispektralkamera und einer Infrarotkamera (Monitoring von Waldbränden und von Vulkanausbrüchen). Der Satellit wurde am 26. März 2015 vom Kosmodrom Yasny mit einer Dnepr-Startrakete aus gestartet. Er fliegt auf einem sonnensynchronen Orbit in 528 km Höhe.
Die Aufgaben sind weitgehend identisch mit denen von KompSat-3. Die Bodenauflösung beträgt 0,55 m im panchromatischen Bereich, 2 m im Multispektralbereich, im Infrarot 5,5 m (Bodenspur 12 km).

Weitere Informationen:

Kompsat-5

Engl. Akronym für Korean Multi-Purpose Satellite 5, syn. Arirang-5; Kompsat-5 ist mit Radar-(X-Band SAR) statt optischer Abbildungstechnik ausgerüstet. Der Start fand am 22. August 2013 im Kosmodrom Jasny (Dombarovsky) statt. Der Satellit umkreist die Erde in 550 km Höhe auf einer sonnensynchronen Umlaufbahn.

Das Hauptziel der Mission ist die Entwicklung und der Betrieb eines Satellitensystems mit SAR (Synthetic Aperture Radar) um Bilder für Anwendungen im Geoinformationsbereich (GIS) zu erhalten. Ozenamonitoring, Landmanagement, Katastrophenstrophenmonitoring und Umweltüberwachung gehören zu den Anwendungsfeldern. Die Bilder haben im High Resolution-Modus eine Auflösung von 1 m (5 x 5 km Bodenspur), im Standardmodus von 3 m (20 x 30 km Bodenspur) und im Wide Swath-Modus von 20 m (100 km breite Bodenspur).

Der zweite Aufgabenbereich liegt in der Erzeugung von Sondierungsprofilen der Atmosphäre.

Kompsat-6 soll ab 2019 als Nachfolger Kompsat-5 mit deutlich verbesserten Fähigkeiten ersetzen. Kompsat-6 wird in verschiedenen Modi (Spotlight, Stripmap und ScanSAR) und zwei Polarisationen betrieben werden können und erreicht Auflösungen besser als einen Meter. Die dann eingesetzte so genannte Phased Array SAR-Technologie von Airbus Defence and Space ist weltweit vor allem durch die erfolgreichen europäischen Erdbeobachtungsmissionen ERS-1/-2, Envisat und MetOp und die Missionen der in Immenstaad entstandenen Radarsatelliten TerraSAR-X und TanDEM-X bekannt.

Weitere Informationen:

Kondensstreifen

Durch Abgase von Flugzeugen hervorgerufene wolkenartige, gelegentlich den ganzen Himmel überziehende Streifen in großer Höhe (Mitteleuropa: Winter >8 km, Sommer >10 km). Der Hauptfaktor für ihre Entstehung ist die Abkühlung der bei der Kraftstoffverbrennung freigesetzten Abgase, die einen hohen Wasseranteil enthalten und zusätzlich Kondensationskerne liefern. Der Wasserdampf kondensiert zuerst zu Wolkentropfen, die dann sehr schnell zu Eiskristallen gefrieren oder direkt zu Eis sublimiert.

Kondensstreifen haben daher manchmal cumuliförmige Ansätze wie Cirrocumulus, oft jedoch glatte oder zerfasernde Ränder, die typisch für Eiswolken wie Cirrus bzw. Cirrostratus sind. Kondensstreifen können in Abhängigkeit von der Feuchtigkeit in der Flughöhe einige Minuten bis mehrere Stunden lang den Himmel überziehen, an einzelnen Tagen auch bis zu 10% der Himmelsfläche.

Die Langlebigkeit der Kondensstreifen, wird stark durch die Gegebenheiten der Atmosphäre und insbesondere deren Schichtungsstabilität beeinflusst. An erster Stelle steht die Temperatur, da bei etwa -40 °C eine obere Grenze für die Herausbildung von Kondensstreifen besteht. Der genaue Wert hängt von zahlreichen Faktoren wie der Art des Treibstoffs oder der Luftfeuchte ab, wobei trockene Luft dazu führt, dass sich die Kondensstreifen gar nicht erst ausbilden oder sich recht schnell wieder auflösen. Dies ist bei etwa 80 % der Kondensstreifen mit einer Lebensdauer von unter einer bis wenigen Minuten der Fall. Bei feuchter Luft kann diese hingegen mehrere Minuten bis Stunden betragen, was ein Anzeichen für eine Wetterverschlechterung ist.

Atlantic ship tracks

Quelle: ESA

Atlantic Ship Tracks


The Copernicus Sentinel-3A satellite takes us over the Atlantic Ocean close to Spain and Portugal where the sky not only features clouds but also criss-cross tracks from maritime vessels.

The familiar condensation trails – or contrails – we see in the sky usually come from aircraft, so it might seem strange that ships can also occasionally leave their mark in the sky. This rarely seen maritime twist on aircraft contrails was captured by Sentinel-3A on 16 January 2018.  Known as ship tracks, these narrow cloud streaks form when water vapour condenses around small particles that ships emit in their exhaust fumes. They typically form when low-lying stratus and cumulus clouds are present and when the air surrounding the ship is calm.

As the image shows, several shipping lanes intersect off the coast of Spain and Portugal. Although the Strait of Gibraltar is a busy shipping lane, with numerous ships travelling in and out of the Mediterranean Sea, there are no ship tracks visible here in the image. Most tracks are several hundreds of kilometres off shore.

Like aircraft contrails, ship tracks may also play a role in our climate by reducing the amount of sunlight that reaches Earth’s surface or conversely by trapping the Sun’s radiation in our atmosphere, but this is an uncertain aspect of climate science.

The Copernicus Sentinel-3A satellite carries a suite of sensors including an ocean and land colour instrument (OLCI), which was used to capture this image.

 

 

Aus Kondensstreifen können sich gewöhnliche Cirruswolken bilden, deren Ursprung aus Kondensstreifen dann nicht erkennbar ist. Auch können die sonstigen Aerosolpartikel der Flugzeugabgase noch über Tage und vergleichsweise großräumig die Wolkenbildung verstärken.

Die künstlichen Kondensstreifen bedecken einen kleinen Teil des Himmels und reduzieren damit durch Reflexion an ihrer Oberseite tagsüber die Sonneneinstrahlung. Andererseits reduzieren sich durch die Reflexion der terrestrischen Ausstrahlung auch die natürliche Abkühlung der Erde, tragen also zur atmosphärischen Gegenstrahlung bei und beeinflussen damit die Albedo der Erdoberfläche. Zudem können sie auch die Kondensation natürlich vorhandenen Wasserdampfes stimulieren. Es wird daher vermutet, dass das Klima durch die Kondensstreifen des Flugverkehrs beeinflusst wird. Die Stärke dieses Effekts und seine Rolle in Bezug auf die globale Verdunkelung bzw. auch globale Erwärmung sind bisher noch weitestgehend unbekannt, es wird jedoch lokal ein Einfluss auf die Globalstrahlung von bis zu 2 W/m2 geschätzt.

Von großer Bedeutung sind auch chemischen-physikalischen Eigenschaften der Abgase, sowie die Höhe ihrer Freisetzung. Die Wirkung der hier freigesetzten Abgase ist eine gänzlich andere als am Boden, da die Atmosphärenchemie hier unter anderem aufgrund der selteneren Niederschläge und deren Auswaschungseffekten wesentlich empfindlicher auf äußere Einflüsse reagiert.

Da die Stratosphäre bzw. die obere Troposphäre auch zunehmend stärker in den Fokus der Klimaforschung gerät, wird in diesem Zusammenhang auch der Luftverschmutzung durch den Flugverkehr eine immer entscheidendere Rolle zuteil.

Weitere Informationen:

Kontinuierliche Daten

Engl. continuous data; normalerweise bezogen auf Rasterdaten, die Oberflächeneigenschaften wie z.B. Höhenwerte angeben. Die Daten können jeden positiven und negativen Wert mit beliebig vielen Zwischenwerten annehmen. Kontinuierliche Daten stehen dabei im Gegensatz zu diskreten (diskontinuierlichen) Daten, die keine Zwischenwerte haben.

Kontrast

Engl. contrast, franz. contraste; allgemein die Differenz zwischen zwei Grauwerten, Verhältnis von hellem zu dunklem Bildpunkt, z.B. bei benachbarten Pixeln, oft auch bezogen auf die Summe der beiden betrachteten Grauwerte.

Fernerkundungsaufnahmen wirken zunächst oftmals recht kontrastarm. Zwar stehen bei einer Farbtiefe von 8 Bit insgesamt 256 verschiedene Werte zur Kodierung der Strahlungsintensität pro Kanal zur Verfügung. Häufig wird dieser Wertebereich aber nur teilweise genutzt, da die Instrumente so eingerichtet wurden, dass auch extrem stark bzw. wenig reflektierende Oberflächen noch wiedergegeben werden können. Zur Beseitigung dieser bei einer visuellen Auswertung der Bilddaten störenden Unzulänglichkeit existieren mehrere Verfahren (z.B. lineare Kontraststreckung, Histogrammangleichung).

Koregistrierung

Engl. co-registration, franz. co-enregistrement; nach DIN 18716die "Herstellung einer räumlich eindeutigen Zuordnung zwischen den Bildkoordinaten abgebildeter Objekte in unterschiedlichen Datensätzen", verbunden mit der Anmerkung: "Das kann multispektrale, multitemporale oder multisensorale Bilddaten gleicher oder unterschiedlicher geometrischer Auflösung betreffen".

Kosmos

Bezeichnung für eine Vielzahl unterschiedlicher sowjetischer bzw. russischer Satelliten und Raumfahrzeuge. Erstmals wurde 1962 ein Satellit unter der Bezeichnung Kosmos 1 gestartet. Da bei diesem Start auch ein neuer Träger verwandt wurde, benannte man diesen, wie damals in der Sowjetunion üblich, ebenfalls nach der Nutzlast, so dass auch ein Trägersystem als Kosmos bezeichnet wurde.

Die Namensreihe beinhaltet Satelliten für wissenschaftliche Forschung und militärische Zwecke sowie unbemannt durchgeführte Tests für bemannte Raumfahrzeuge. Es handelt sich demnach nicht um ein einzelnes Programm. Zusätzlich erhielten fehlgeschlagene Missionen im Nachhinein oftmals Kosmos-Bezeichnungen, z. B. bei gescheiterten extraterrestrischen Missionen, bei denen die Sonde aus ihrem Parkorbit um die Erde nicht hinauskam. Voraussetzung für die Namensgebung ist, dass die Objekte in die Erdumlaufbahn gelangen. Die Vergabe von Kosmos-Bezeichnungen ist auch heute für Missionen militärischer Art weiterhin geläufig. Bis zum Januar 2014 wurden 2.490 Satelliten mit der Bezeichnung Kosmos gestartet.

Die Kosmos-Raumfahrzeuge umfassen optische Aufklärungssatelliten, (militärische) Kommunikationssatelliten, Frühwarnsatelliten, nuklearangetriebene Radaraufklärungssatelliten, Anti-Satellitenwaffen, Navigationssatelliten und Technologiedemonstrationsobjekte.

Für Frühwarnsysteme und die militärische Kommunikation werden meist die Molniya-Orbits benutzt, denn ein Großteil der Landmasse der Sojetunion bzw. Russlands liegt hoch im Norden. Vermutlich nutzte die Sowjetunion diese Bahn auch, um die Aufklärung von amerikanischen Aktivitäten in der Arktisregion zu verbessern.

Weitere Informationen:

Kourou

500 km nördlich des Äquators gelegene Küstenstadt (5° 13' N) in Französisch-Guyana, bei der Frankreich 1964 ein Raketenabschussgelände (Centre Spatial Guyanais) aufbaute. Seit 1977 dient es nur noch dem Abschuß der Ariane Raketenserie, die von der ESA entwickelt und von Arianespace kommerziell betreut wird, sowie den modifizierten Sojus-Raketen und den neu entwickelten Vega-Launchern.

Unter Sicherheitsgesichtspunkten bietet Französisch-Guyana aufgrund seiner dünnen Besiedlung und der fehlenden Gefahr durch Wirbelstürme und Erdbeben große Vorteile. Dazu kommen Vorteile durch seine äquatornahe Lage; dadurch verleiht die Erdrotation einer von dort aus startenden Rakete einen Geschwindigkeitsbeitrag von gut 460 m/s (horizontal in Richtung Osten). So sind von diesem Standort aus Raketenstarts in einem Winkel 103° zu allen nützlichen Orbits möglich, von nordwärts gerichteten Starts bis -10,5° bis zu ostwärts gerichteten Starts bis + 93,5° (s. auch Bildtext). Am Äquator ist die Tangentialgeschwindigkeit am größten, weil der Abstand zu Erdachse am größten ist. Deswegen brauchen Raketen hier weniger Sprit, um die Erde hinter sich zu lassen - weil sie die Rotationsenergie kostenlos mit auf den Weg bekommen.
Zusätzlich zu seinen vielen europäischen Kunden übernimmt Kourou auch Startaufträge für industrielle Kunden aus den USA, Japan, Kanada, Indien und Brasilien.

Kourou - Geographische Lage Kourou - Geographische Lage

Quelle: EUMETSAT

Weltraumbahnhof Kourou Weltraumbahnhof Kourou

Quelle: Americas

Aufgrund seiner geographischen Lage hat Kourou mehrere wichtige Vorteile für den Start von Satelliten. Sicherheitsgründe legen einen Verlauf der frühen Flugphase über dem Ozean nahe. Dies ist in Kourou in nördlicher Richtung für die polarumlaufenden Satelliten und östlicher Richtung für die geostationären Satelliten möglich. Besondere Vorteile bestehen für die geostationären, über dem Äquator zu platzierenden Satelliten. Ihr Abschuss in Richtung Osten wird durch die Erdumdrehung unterstützt (Schleudereffekt). Durch die äquatornahe Lage ist diese Unterstützung nahe an ihrem Optimum. Ein Start vom nur auf 5°3' N gelegenen Kourou ermöglicht ein direktes Erreichen der geostätionären Umlaufbahn und spart Treibstoff, der von einem polnäheren Startplatz zur Reduzierung der Bahnneigung nötig wäre. Der geringere Treibstoffverbrauch kommt der Verweildauer im All zugute.

 

Weitere Informationen:

Kriseninformationssystem (KIS)

Geographisches Informationssystem (GIS), welches sich speziell auf Fragestellungen in Krisengebieten bezieht. Das Informationssystem besteht aus Berichten, Luftbildern und Satellitenbildern, daraus abgeleiteten thematischen Karten und digitalisierten topographischen Karten sowie sozioökonomischen Daten wie Bevölkerungszahl, Anzahl zerstörter Häuser usw., die geographisch korrekt zugeordnet sind. Ein GIS erlaubt es, diese verschiedensten Datensätze zu verschneiden und mit einem Informationsgewinn zu visualisieren, damit eine effektive Unterstützung bei Entscheidungsprozessen entsteht. Ein solches KIS wurde bereits vom Space Application Institute (SAI) in Zusammenarbeit mit dem DFD zur Unterstützung des Wiederaufbaus in Kosovo erstellt.
Satellitenbilder können wertvolle Informationen für die Organisation und das Management verschiedenster humanitärer Einsätze in Krisensituationen oder im Katastrophenfall liefern. Oft ist dabei wichtig, dass die Information sehr rasch und mit hoher Genauigkeit bereitgestellt wird, wie z.B. im Falle einer Überschwemmung. Da die heutigen Erdbeobachtungssatelliten oft nicht für eine solche schnelle Reaktion ausgelegt sind, bedarf es einer guten Vorausplanung.

Satelliten-Beobachtungsmaßstäbe zur Erfassung einer Krise oder Katastrophe Satelliten-Beobachtungsmaßstäbe
zur Erfassung einer Krise oder Katastrophe

 

Quelle: DLR (R.o.)

Neben der Bereitstellung krisenrelevanter Informationen spielt auch deren schnelle Verfügbarkeit im betroffenen Gebiet eine wichtige Rolle. Für diesen Zweck entwickelt das DLR einen sogenannten Mobile Client, der den Krisenhelfern vor Ort den Zugriff auf eine zentrale Datenbank ermöglicht und umgekehrt auch aktuelle Lageberichte und im Krisengebiet erhobene Daten in das System einspeisen kann. Die Mobile Clients bestehen aus einem Notebook, einem GPS Empfänger, einer digitalen Kamera sowie einem Mobil-/Satellitentelefon und Internet für den Datentransfer.

Weitere Informationen:

Kryosphäre

Von 'kryos', altgriechisch für Kälte, Frost; mit den anderen Bestandteilen des Erdsystems in Wechselbeziehungen stehender Bereich, der gefrorenes Wasser in Gestalt von Schnee, dauerhaft gefrorenem Boden (Permafrost in periglazialen Gebieten), saisonal gefrorenem Boden, Fluss- und Seeeis, Meereis, Eiskappen und Gletschern umfasst. Obwohl ein wesentlicher Teil der Kryosphäre sich in den Polarregionen befindet, ist Schnee und Eis in allen geographischen Breiten und in ca. 100 Ländern anzutreffen.

Globale Verteilung verschiedener Komponenten der Kryosphäre

Quelle: IPCC

Globale Verteilung verschiedener Komponenten der Kryosphäre


Die Karte der Nordhemisphäre zeigt das Sommerminimum der Meereisbedeckung (13.9.2012). Die gelbe Linie markiert die mittlere Position der Meereisausdehnung von
1979 - 2012. Gebiete mit kontinuierlichem Permafrost sind dunkelpink, diskontinuierlicher Permafrost hellpink. Die grüne Linie im S der NHK zeigt die maximale Schneegrenze, die schwarze Linie zeigt die 50 %-Kontourlinie für das Auftreten von Schnee. Auch das grönländische Inlandeis (blau/grau) und die Position von Gletschern (gold) sind eingetragen.
Die Karte der Südhemisphäre zeigt das ungefähre Maximum der Meereisbedeckung während eines Südwinters (13.9.2012). Die gelbe Linie markiert wieder die 30-jährige mittlere Meereisausdehnung.

Legende zu Globale Verteilung verschiedener Komponenten der Kryosphäre

 

Landeis bildet sich entweder direkt durch Gefrier- und Depositionsvorgänge oder aus Schnee, der im Laufe vieler Jahre unter dem Druck des ständig neu abgelagerten Schnees zu Firn umgewandelt wird. Durch weitere Kompaktion, die zur Zunahme der Dichte und zur Verringerung der Porenräume führt, bildet sich aus Firn schließlich Eis, das als sedimentäres Eis bezeichnet wird. Gletschereis besteht vorwiegend aus sedimentärem Eis.Im Ggegensatz zum sedimentären Eis enthält der für die periglazialen Räume der Erde typische Permafrost überwiegend sogenanntes magmatisches Eis, das durch Gefrier- und Depositionsprozesse z.B. im Untergrund entsteht.

Meereis bedeckt im Jahresmittel rund 6 % der Weltmeere. Im Gegensatz zum Landeis, das große Mächtigkeit erreicht und viele hunderttausend Jahre alt sein kann (in der Antarktis bis zu 14 Mio. Jahre), ist das Meereis selten älter als ein bis sechs Jahre. Es schmilzt größtenteils im Sommer (Antarktis) oder treibt innerhalb weniger Jahre in wärmere Gebiete (Arktis). Meereis bildet große Eisschollen, und obwohl es selten dicker als drei bis sechs Meter wird, spielt es eine wichtige Rolle im Klimasystem der Erde.

Die Kryosphäre spielt in vielerlei Weise eine außerordentlich wichtige regulierende Rolle im globalen Klimasystem: So liefert sie einen wichtigen Beitrag zum Oberflächenenergiehaushalt der Erde, reguliert den globalen Wasserkreislauf, beeinflusst Gasaustauschprozesse und ist hauptverantwortlich für den Anstieg des Meeresspiegels. Ihre natürliche Sensitivität gegenüber Temperaturschwankungen macht die Kryosphäre zusätzlich zu einem äußerst sensitiven Klimaindikator dessen globale Beobachtung wichtige Informationen zur Variabilität des Weltklimas bereitstellen kann.

Ferner ist Wissen um den Zustand der Kryosphäre wichtig für die Verfügbarkeit von Süßwasserressourcen, für die Navigation, Fischerei, Rohstoffexploration und -förderung und viele weitere Bereichen. Fluktuationen in der Ausdehnung der Kryosphäre haben weitreichende sozioökonomische Folgen und Auswirkungen auf die Atmosphäre wie auch auf die Biosphäre. Verlässliche Daten aus globalem Monitoring ist Voraussetzung, um Fragen im Zusammenhang mit Klima und Kryosphäre im Erdsystem verstehen zu könen. Trotz der Bedeutung der Kryosphäre ist sie der Teil des Erdsystems, über den am wenigsten Daten vorliegen.

Zur Animation auf Grafik klicken (YouTube)

Grönlands Eisschichten in 3D

Dreidimensionale Ansicht des Alters und der Struktur des grönländisches Eisschildes

Zur Erzeugung dieser Darstellung benutzten Wissenschaftler die Daten von Radarmessungen, die sie während der NASA-Kampagne IceBridge und bei früheren, luftgestützten Kampagnen gewonnen haben. Die Radarstrahlen vermögen das Eis zu durchdringen.

Der Blick auf die tausende gefrorenen Schichten innerhalb des Eisschildes ist wie ein Blick zurück in die Erdgeschichte. Jede Schicht ist ein Klimazeugnis über die Zeit der beginnenden Zivilisation oder der letzten Eiszeit oder einer vergangenen Warmzeit, ähnlich der, in der wir aktuell leben. Quelle: NASA

 

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb. Die zweite Generation dieser Laser-Altimetermission (ICESat-2) wird voraussichtlich 2018 starten.

Seit wenigen Jahren hat das von der WMO geförderte Programm Global Cryosphere Watch (GCW) seine Arbeit aufgenommen, das als internationales Instrument zur Unterstützung aller wesentlichen in situ- und Fernerkundungsbeobachtungen bezüglich der Kryosphäre fungiert.

Weitere Informationen:

Kryosphäre und Fernerkundung

Gegenstand der Fernerkundung der Kryosphäre ist die Erfassung der Schnee- und Eisbedeckung von Land- und Wasserflächen hinsichtlich Flächengröße, Mächtigkeit, Eisbewegung, Massenbilanz, Wasseräquivalenz und deren zeitlichen und räumlichen Veränderungen mit Hilfe von flugzeug- oder satellitengestützten Fernerkundungsmethoden.
Noch immer gilt das Monitoring der Kryosphäre als unzureichend, auch wenn seit einigen Jahren die Satellitenfernerkundung einen Quantensprung bewirkt hat. Künftig sollen bisherige und neue Meereisparameter für einen längeren Zeitraum aus Satellitendaten zur Verbesserung von Vorhersage- und Klimamodellen bereitgestellt werden.

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens (Rockot) beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb.

Digitale Terrainmodelle
Die digitale Analyse luftgestützter Stereodaten aus herkömmlichen Luftbildern oder Zeilensensoren erlaubt die automatische Generierung von digitalen Terrainmodellen (DTM, DGM) und die simultane Orthoprojektion der ursprünglichen Bilddaten. So erstellte DTM haben eine vertikale Genauigkeit im Bereich einiger Dezimeter bis Meter. Die hochgradige Automatisierung vieler Verarbeitungsschritte ermöglicht die Bearbeitung großer Geländeausschnitte. Die erhaltenen orthoprojizierten Bilddaten können zu multispektralen Klassifikationen herangezogen werden, aber auch der hochauflösenden, flächenhaften Messung des Gletscherfließens dienen.
Ganz neue Möglichkeiten zur Akquisition von DTM-Daten eröffnet das Laserscanning. Die resultierenden DTM haben eine horizontale Auflösung von wenigen Metern und eine vertikale Genauigkeit von wenigen Dezimetern.
Ähnlich wie bei den oben genannten passiven optischen Flugzeugsensoren kann heute Dank globaler Positionierungssysteme (GPS) und inertialer Navigationssysteme (INS) an Bord der Flugweg und die Sensororientierung direkt bestimmt werden. So wird die notwendige Bodeninformation zur Rekonstruktion der geometrischen Aufnahmeparameter (Passpunkte) auf ein Minimum reduziert. In der Gletscherbeobachtung von besonderer Bedeutung ist die Eigenschaft des Laserscanning, als aktiver Sensor auch (oder sogar besonders gut) über verschneitem Gelände zu funktionieren. Wegen fehlenden optischen Kontrasts sind solche Zonen die Problemfälle passiver optischer Verfahren. Laserscanning erlaubt so erstmals die wirklich flächendeckende Bestimmung von DTM über Gletschern bzw. entsprechender vertikaler Veränderungen. Die Intensitäten der Laserreflektionen ergeben ferner eine Bildinformation, die zwar in räumlicher und radiometrischer Auflösung nicht an Luftbilder oder Zeilensensoren herankommt, aber doch einen wertvollen Datensatz bei der Datenanalyse darstellen kann.
'Arbeitspferde' der weltraumgestützten Gletscherbeobachtung sind zweifellos die multispektralen Satellitensensoren wie zum Beispiel Landsat TM und ETM+, ASTER, IRS oder SPOT. Mit solchen Sensoren können große Gebiete mit einer Bodenauflösung von einigen Metern bis wenigen Dekametern regelmäßig beobachtet werden. Die multispektralen Daten ermöglichen eine weitgehende Automatisierung bei der Extraktion von Eis- und Schneeflächen. Stereosensoren wie ASTER erlauben sogar die simultane automatische Extraktion von DTM mit einer Auflösung und vertikalen Genauigkeit von einigen zehn Metern. Gerade bei der Analyse von hochalpinen glazialen Prozessen, die ja häufig von der Reliefenergie regiert werden, ist die Verfügbarkeit von DTM außerordentlich wichtig. Mit Sensoren wie denen von IKONOS und QuickBird, die räumliche Auflösungen im Meter- und Submeterbereich besitzen, verschwimmen die Unterschiede zwischen optischer luft- und weltraumgestützter Fernerkundung zunehmend.
Mit ähnlicher bis leicht besserer Genauigkeit als aus optischem Satellitenstereo werden großflächige DTM aus satelliten-gestütztem InSAR (Interferometric Synthetic Aperture Radar) erzeugt. Dabei werden bei räumlichen Auflösungen von einigen Metern vertikale Genauigkeiten von einigen Dezimetern erzielt. Dieses Mikrowellenverfahren ist besonders in Gebieten mit häufiger Wolkenbedeckung wegen seiner Fähigkeit zur Wolkendurchdringung den optischen Verfahren klar überlegen. Noch wenig erforscht ist die thematische Information, welche die reflektierten Mikrowellen über die Eis- und Schneeoberfläche enthalten. Aus elektromagnetischen Überlegungen heraus kann dabei aber zumindest langfristig von einem großen Potential ausgegangen werden.
Besonders hervorzuheben ist die Shuttle Radar Topography Mission (SRTM), die aufgrund einer Messkampagne im Februar 2000 für den Bereich zwischen 60° nördlicher und 54° südlicher Breite ein DTM mit 30 m Bodenauflösung und ca. 20 m horizontaler und vertikaler Genauigkeit geliefert hat.
Neben der DTM Akquisition erlaubt InSAR im differentiellen Modus (DInSAR) die Messung von kleinsten Geländeverschiebungen. Von einer Anzahl großer Gletscher (vor allem in höheren Breiten) konnten so Fließfelder oder zumindest typische Eisgeschwindigkeiten ermittelt werden. Dieses Verfahren ergänzt sich in vielerlei Hinsicht hervorragend mit der Bewegungsmessung aus wiederholten optischen Satellitenbildern mit Hilfe von image-matching-Verfahren.

Meereis
Auch die Meereisbedeckung spielt eine wichtige regulative Rolle im globalen Klimasystem. Unter anderem verändert sie die Oberflächenalbedo und den Wärmehaushalt der Ozeane, bestimmt den Salzgehalt und die Dichte des Oberflächenwassers und erschwert den Gasaustausch zwischen den Meeren und der Atmosphäre. Darüber hinaus ist das Meereis ein essenzieller Bestandteil des polaren Ökosystems und bietet Lebensraum für einen großen Teil der polar angepassten Flora und Fauna. Um die Rolle des Meereises im globalen Klimasystem zu charakterisieren und dessen dynamische Rückkopplungseffekte mit dem sich erwärmenden Weltklima besser zu verstehen, sind regelmäßige großflächige Messungen der Ausdehnung und Dicke des Meereises unabdingbar. Darüber hinaus sind Beobachtungen des Meereises auch zur Sicherung mariner Transportwege und zur Planung von Öl-Förderanalagen in polaren Regionen von praktischer Bedeutung.

Die kontinuierliche und regelmäßige Beobachtung des Meereises auf globaler Skala ist nur mit satellitengestützter Fernerkundung im Mikrowellenbereich des elektromagnetischen Spektrums möglich. Seit Anfang der 1970er Jahre erlauben derartige Satellitenmessungen die Bestimmung der Meereisfläche trotz Wolken und langer Polarnacht. Diese Daten gehen zusätzlich in die Bestimmung der Meereisdrift ein.
Im bisherigen Ergebnis wird in den letzten Jahren ein gravierender Rückgang der arktischen Meereisfläche um etwa 40% beobachtet, der einem starken Anstieg in der mittleren zentral-arktischen Lufttemperatur um fast 3 °C seit dem Ende der 1980er Jahre folgt. Messungen mittels satellitengestützter Altimetrie oder luftgestützter elektromagnetischer Induktion deuten auf eine starke Abnahme der Eisdicke hin, wenngleich die hohe Variabilität und die großen Ungenauigkeiten verlässliche Aussagen erschweren.
In Hinblick auf die bisherigen Beobachtungsgrößen Meereisausdehnung und Bedeckungsgrad (Konzentration) geht es hauptsächlich darum, bereits existierende Methoden zu verbessern und die Datensätze zu erweitern. Neue Verfahren sind erforderlich zur Bestimmung der Meereisdicke, der Oberflächeneigenschaften, des Deformationszustandes und der Schneeauflage. Diese Daten sollen Eingang finden in Meereisvorhersagemodelle und regionale und globale Klimamodelle. Im Einzelnen sollen folgende Untersuchungen durchgeführt werden:

  • Bestimmung der regionalen und zeitlichen Variabilität der Eisdicke und der Schneeauflage (Boden- und Hubschraubermessungen zur Validation von Satellitendaten, z.B. des CryoSat-2-Altimeters oder des 1,4 GHz Mikrowellenradiometers mit synthetischer Apertur der SMOS-Mission). Die ICESat-Mission der NASA misst das Freibord, also die aus dem Wasser ragende Höhe der Eisschollen mit dem Laseraltimeter (GLAS). ICESat kann allerdings nicht wie das Radaraltimetersystem des CryoSat-2 durch die Wolken hindurch messen. Aber erst dies erlaubt das nötige flächendeckende Monitoring in einem möglichst engen Zeitfenster.
  • Bestimmung der räumlichen und zeitlichen Muster der Oberflächenstruktur und des Anteils des deformierten Eises (Radardaten verschiedener Satelliten)
  • Ermittlung der räumlichen und zeitlichen Verteilung des Schmelzbeginns in Arktis und Antarktis
  • Abschätzung des Anteils des dünnen Eises, der für den Wärmeaustausch zwischen Ozean und Atmosphäre besonders wichtig ist
  • Bestimmung der Existenz und Ausdehnung von Festeis und Küstenpolynjen und ihres Einflusses auf Primärproduktion, Sedimentation und Küstenerosion,
  • Auswertung historischer Satellitendaten bezüglich mehrjähriger bis dekadischer Variationen der Meereiseigenschaften (insbesondere Wave-Mode-Daten von ERS 1/2, Radaraltimeterdaten u.a.)

Eine konventionelle Methode zur Bestimmung der Dicke des Packeises stammt noch aus der Zeit des Kalten Krieges. Amerikanische und sowjetische U-Boote unternahmen regelmäßig Patrouillenfahrten unter dem Eis des Nordpols. Um im Notfall schnell auftauchen zu können, wurde ständig die Eisdicke mithilfe des Sonars gemessen. Auf diese Weise wurde die Eisdicke des Nordpolarmeers im Lauf der Zeit kartiert und diese Daten werden mittlerweile auch den zivilen Wissenschaftlern zur Verfügung gestellt.

2013 Arctic Sea Ice Minimum

npseaice_am2_2013256


npseaice_am2_2013256_palette

Nach einem ungewöhnlich kühlen Sommer in den nördlichsten Breiten scheint das arktische Meereis seine jährliches Flächenminimum am 13. September 2013 erreicht zu haben. Die Analyse von Satellitendaten durch das National Snow and Ice Data Center (NSIDC) zeigte, dass das Meereis auf 5,10 Mio. km² zusammenschrumpfte. Die Fläche des Meereises ist in diesem Jahr wesentlich größer als beim letztjährigen Rekordminimum. Am 16. September 2012 hatte das arktische Meereis eine Ausdehnung von lediglich 3,41 Mio. km², was der geringste je von Satelliten beobachtete Wert war und nur etwa die Hälfte der durchschnittlichen Minimalwerte von 1891 - 2010 ausmachte.
Obwohl 2013 weniger Meereis schmolz als 2012, ist der diesjährige Betrag der sechstgeringste unter den Satellitenaufzeichnungen. Dieses Jahr setzt einen langfristigen Abwärtstrend von ca. 12 % Verlust an arktischem Meereis pro Dekade seit den späten 1970ern fort. Diese Abnahme hatte sich seit 2007 beschleunigt.

Die Karte links zeigt die Ausdehnung des arktischen Meereises am 13. September 2013. ‚Ausdehnung‘ (engl. extent) bezeichnet die gesamte Fläche in der die Eiskonznetration mindestens 15 % beträgt. Die Karte wurde zusammengestellt aus Beobachtungsdaten des Sensors Advanced Microwave Scanning Radiometer 2 (AMSR-2) auf dem Satelliten Global Change Observation Mission 1st–Water (“Shizuku”), welcher von der Raumfahrtagentur Japan Aerospace Exploration Agency (JAXA) betrieben wird. Die gelbe Linie in der Karte zeigt die mittlere Meereisausdehnung in den Septembermonaten der Jahre 1981 bis 2010.

Quelle: NASA Earth Observatory

 

Inlandeis
Eine umfassende Beschreibung des Zustandes und der Veränderung der polaren Eisschilde kann nur mit starker Unterstützung moderner Fernerkundungsverfahren durchgeführt werden und bedarf der wiederholten Messung sowohl des Eisvolumens (Ausdehnung und Eisdicke) als auch der Eisbewegung. Heutzutage wird zur Lösung dieses komplexen Beobachtungsproblems eine Vielzahl von flugzeug- und satellitengetragenen Fernerkundungssystemen miteinander kombiniert. So wird Information über die Bewegung des Eises üblicherweise aus Wiederholaufnahmen bildgebender Fernerkundungssensoren abgeleitet, die entweder im optischen oder im Radarwellenlängenbereich operieren. Zur großflächigen Schätzung der Eisdicke wird häufig zunächst die Topographie des Untergrundes mit flugzeuggetragenen Bodenradaren abgetastet, um diese Information danach mit Altimetermessungen der Eisoberfläche zu kombinieren. Änderungen der Eisdicke und damit die Massenveränderungen eines Eisschildes können dann aus wiederholten Altimetriemessungen abgeleitet werden.
Alternativ werden großräumige Eismassenverluste auch aus Daten der GRACE-Mission extrahiert, welche die Veränderung des lokalen Schwerefelds über die Zeit beobachtet. Jüngste Verbesserungen in der Qualität, räumlichen Auflösung und Wiederholrate aller dieser Fernerkundungssysteme haben die Fähigkeit zur Identifizierung und Quantifizierung von Veränderungen der Eisschilde deutlich verbessert. Zusätzlich werden die kontinuierlich anwachsenden Beobachtungszeitserien dieser Fernerkundungssensoren zunehmend robustere Messungen dieser Veränderungen ermöglichen, und die aus Fernerkundungsdaten abgeleitete Information wird eine Reihe neuer wissenschaftlicher Erkenntnisse zur Rolle der Eisschilde im Klimasystem ermöglichen. (Meyer 2017)

Die Radaraltimetrie ist derzeit die wichtigste Methode zur flächendeckenden Bilanzierung von Eismassen in Grönland und in weiten Bereichen der Antarktis (bis 82°S). Die verfügbaren Zeitreihen der Radaraltimetrie reichen von SEASAT (1978) über GEOSAT (1985-1989), ERS-1 (1991-1996) zu ERS-2 (1995-heute). Mit dem 2002 gestarteten Satelliten ENVISAT wurden die Messungen mit einer deutlich verbesserten Genauigkeit fortgesetzt. Schwerpunkte der Untersuchungen sind die Bestimmung der zeitlichen und räumlichen Variationen

  • der Oberflächentopographie,
  • der Eisbewegung (Massentransport)und damit der Massenbilanz und
  • der Oberflächenrauhigkeiten.

Mit dem Start der ICESat-Mission (2003-2010) standen erstmalig ein Laseraltimeter zur Bestimmung der Oberflächenformen über Landeis zur Verfügung. Mit diesem Messverfahren können nunmehr auch kleinskalige Oberflächenformen in der Größenordnung von 100 m erfasst werden. In der Kombination mit konventionellen Radaraltimetern ergeben sich deutlich verbesserte Möglichkeiten zur Bestimmung von Eismassenbilanzänderungen der polaren Gebiete. Bis zum Start von ICESat-2-Mission wird die Datenerfassung von amerikanischer Seite vorübergehend durch die Operation IceBridge geleistet.

Die CryoSat-2-Mission (2010-2017) erschließt der Radaraltimetrie wesentlich breitere Anwendungsfelder. Mit dem interferometrischen Radaraltimeter wird die Erfassung kleiner Höhenunterschiede auf kurzen räumlichen Skalen ermöglicht. Damit rückt erstmalig die Detektion von Eismassenänderungen auch auf kurzen zeitlichen Skalen in den Bereich des Möglichen. Die Kombination von in-situ-Messungen (ground truth von Schnee- und Eisparametern) mit den Fernerkundungsdaten der Radaraltimetrie schafft die Voraussetzungen für eine detaillierte Analyse der Veränderungen.

Die flächendeckende Messung der Eisbewegung von Land- und Schelfeis erfolgt durch die Überlagerung hochauflösender Satellitenbilder. Die zur Zeit genaueste Methode ist die interferometrische Anwendung von abbildenden Radarsystemen (Synthetisches Apertur Radar - SAR). Die hohe Genauigkeit ermöglicht die Ableitung von horizontalen und vertikalen Bewegungskomponenten. Besonders Erfolg versprechend ist die Analyse von Daten der "Eis-Phase" des ERS-1 (1991/92, 1993/94), sowie der ERS-1/2 Tandem-Mission (1995-1999). Gegenwärtig wird die SAR Interferometrie hauptsächlich auf Auslassgletscher der Eisschilde angewendet.
In Kombination mit flugzeuggetragenen Eisdickenmessungen und Annahmen über das vertikale Geschwindigkeitsprofil wird so die Messung des Massenflusses über die Aufsetzlinie bestimmt. Die genaue Positionsbestimmung der Aufsetzlinie ist ebenfalls mittels SAR Interferometrie möglich. Migration der Aufsetzlinie, Abschmelzen und Anfrieren an der Schelfeisunterseite sowie die Dynamik des Kalbens an der Schelfeiskante sind weitere wichtige Größen in der Massenbilanz des Eisschildes, zu deren Beobachtung die SAR- Interferometrie wichtige Beiträge leistet.
Neue Sensoren weisen gegenüber dem ERS-SAR wesentliche technische Modifikationen auf. Das ASAR (Advanced SAR) des ENVISAT ermöglicht, ähnlich dem Radarsat, die kontinuierliche Abbildungen von unterschiedlich großen Aufnahmestreifen mit variierbarer Auflösung und Polarisation. TerraSAR-X und TerraSAR-L sind für die Erkundung von Landeis wegen der kurzen Wiederholraten und der flexiblen Aufnahmegeometrie von besonderem Interesse. Das X-Band-SAR ermöglicht eine hochaufgelöste Kartierung und Signaturstudien, das L-Band-SAR verspricht zusätzlich durch hohe Kohärenz über längere Zeiträume neue Impulse für die interferometrische Analyse von Schnee und Eis. In naher Zukunft wird die Palette von abbildenden Radarsystemen bedeutend erweitert und wesentlich zur Analyse der Schneedecke und der Eisdynamik und ihrer Änderungen beitragen.

Gegenwärtige und künftige Satelliten und Sensoren
zu Schlüsselvariablen der KryosphäreSatellitenmissionen zur Kryosphäre

Quelle: IGOS (2007)

Weitere Informationen:

Ku-Band

Mikrowellenbereich zwischen 12,4 GHz und 18 GHz (1,7 - 2,4 cm; Angaben schwankend). Beispielsweise benutzt das Radaraltimeter auf den ERS-Satelliten einen Ku-Band-Sender mit 13,8 GHz, der senkrechte Mikrowellen abstrahlt und die Laufzeit des Echos misst. Daraus lassen sich Daten über Wellenhöhe, Wind, Meerespiegelhöhe, Gezeiten, Eisflächen und Geoidgestalt ableiten. Abb. siehe K-Band

kubische Konvolution

Syn. kubische Faltung; engl. cubic convolution; Resampling, bei dem der neue Grauwert als lineare Kombination der Grauwerte der 16 nächsten Nachbarn des alten Rasters berechnet wird.
Die Methode verwendet eine Art Hochpassfilter in der Größe von 4 x 4 Pixeln um eine Interpolation höherer Ordnung durchzuführen; dabei werden die Grauwerte des Ausgabebildes über die Matrix neu berechnet. Die Ergebnisse der kubischen Faltung sind bzgl. der Lagegenauigkeit sehr gut, allerdings steht ihr hoher Rechenaufwand dem praktischen Einsatz für große Datenmengen gegenüber (ca. 7 x langsamer als die Nearest Neighbour-Methode).

Kulmination

Punkt, an dem ein Satellit seine höchste Position erreicht.

kurzwellige Strahlung

Strahlung mit Wellenlängen, die kürzer als die des sichtbaren Lichts sind oder auch dieses noch mit umfassen. Zur kurzwelligen Strahlung gehört die ultraviolette Strahlung mit Wellenlängen von 315 nm* bis 380 nm (UV-A), 280 nm bis 315 nm (UV-B) und 100 nm bis 280 nm (UV-C). Röntgen- und Gammastrahlung besitzen noch kürzere Wellenlängen.
Die Sonne sendet überwiegend kurzwellige Strahlung mit einer Wellenlänge zwischen 10-7 m und 10-5 aus. Die maximale Intensität liegt bei 5 · 10-7 m im sichtbaren Spektralbereich (grün). Hier liegt auch die maximale Empfindlichkeit des menschlichen Auges.
________________________________
*1 nm ist 10-9 m oder 10 Å (Ångström)

Küsten und Fernerkundung

Bedeutung der Küstenräume
Weltweit leben 20 % der Menschheit weniger als 25 km und 39 % (2,2 Mrd. Menschen) weniger als 100 km von der Küste entfernt. Gleichzeitig machen die 100 km breiten Küstenstreifen nur 20 % der Landfläche weltweit aus. In Dänemark leben 100 %, in Schweden 88 %, in Großbritannien 99 % und in Italien 79 % der Bevölkerung innerhalb der ersten 100 km von der Küste entfernt. In Deutschland beträgt der Anteil hingegen lediglich 15 % (World Resources Institute 2001). 75% der Mega-Städte der Welt sind in Küstenzonen zu finden. Der anteilsmäßige Beitrag der Küstenzone zum Bruttosozialprodukt dürfte deutlich höher sein als der Anteil der in der Küstenzone lebenden Bevölkerung. Die Küstenzone ist damit weltweiter Brennpunkt menschlicher Aktivität.
Küstenzonen besitzen eine große strukturelle Vielfalt (Strände und Dünenlandschaften, Kliffs, Feuchtgebiete, Wattflächen, Korallenriffe, Mangrovenwälder, Eisränder, Ästuare und Lagunen etc.). Sie besitzen außerordentliche Bedeutung als Transformator und Senke für terrestrische Nähr- und Schadstoffe sowie als spezieller Lebensraum für Pflanzen und Tiere. Als Land/Wasser-Übergangszone besitzen sie zudem eine hohe Artenvielfalt und Produktivität. Wenigstens 250.000 der bekannten 1,7 Mio. Tier- und Pflanzenarten leben im Meer, vor allem in den Küstengewässern.
Die ökonomische Bedeutung der Küstengewässer wird vielfach unterschätzt. Sie liefern große Mengen an Fisch, Schalentiere und Tang als Viehfutter und für die menschliche Ernährung. Sie sind Quelle für Dünger, Pharmazeutika, Kosmetika, Haushaltsprodukte und Baumaterial. Fisch trägt beispielsweise weltweit zu etwa 17 % zur Versorgung des Menschen mit tierischem Eiweiß bei. 90 % des weltweiten Fischfangs stammt dabei aus Küstengewässern (World Resources Institute 2001).
Robert Costanza hat versucht die positive ökologische Wertschöpfung der Küstenökosysteme zu monetarisieren. Monetär bewertet werden z.B. die Beiträge zur Gas- und Klimaregulation, zur Erosions- und Verschmutzungsvermeidung, zur Regelung des Wasserhaushalts, zur Nahrungs- und Rohmaterialproduktion oder zur Wertschöpfung im Bereich Freizeit, Tourismus und Kultur. Die höchste Wertschöpfung erreichen dabei Ästuare, Sumpf- und Überflutungsregionen sowie Wattgebiete mit jeweils über 1 Mio. Euro pro km² und Jahr. (G. Schernewski)

Abgrenzungen
Küstenzonen umfassen sowohl einen wasserseitigen als auch einen landseitigen Streifen. Eine verbindliche Definition des Begriffes ‚Küstenzone‘ fehlt. Die räumliche Breite, speziell landwärts, ist daher sehr unterschiedlich. In der Praxis wird die Küstenzone in Deutschland landwärts meist administrativ, durch die inneren Grenzen der Küstengemeinden oder auch die Raumplanungsregionen definiert. Für globale Analysen werden bisweilen aber auch Flächen bis zu 100 km landwärts als Küstenzone herangezogen.
Die seewärtige Ausdehnung der Küstenzone ist weit weniger umstritten. In der Regel wird eine Ausdehnung bis an die 12 Seemeilen-Grenze bzw. die nationale Hoheitsgrenze zugrunde gelegt. Neben dieser administrativen Definition existieren, vor allem in der Wissenschaft, auch biologische und physikalische Definitionen. (G. Schernewski)

Veränderungen
Die Küstenzonen der Welt unterliegen gravierenden Veränderungen. Zum einen, weil sie durch ihre Standortfaktoren oftmals Gunsträume darstellen und dadurch Prozesse wie Urbanisierung und Industrialisierung besonders dynamisch vonstattengehen. Zum anderen, weil Küstengebiete in besonderem Maße von den Auswirkungen des Klimawandels betroffen sind, sei es durch Meeresspiegelanstieg oder ökologische Veränderungen in den sensiblen Küstenzonen. Zurzeit gibt es auf unserem Planeten im Küstenbereich 241 Städte, die mehr als 750.000 Einwohner haben. Die Bevölkerungsdichte in Küstennähe ist etwa 3-mal höher als auf globaler Ebene. Allgemein wird erwartet, dass das komplette globale Bevölkerungswachstum bis 2050 von urbanen Räumen absorbiert werden wird. Der Bevölkerungsdruck auf küstennahe Räume wird sich also zukünftig noch dramatisch verstärken. Die räumlichen Auswirkungen, die mit der stetig voranschreitenden Verstädterung einhergehen, sind aus einer globalen Perspektive heraus weitgehend unbekannt. Der aktuell beste räumliche globale Datensatz zu urbanen Räumen beruht auf Erdbeobachtungsdaten mit einer Auflösung von 309 Metern. Aber auch auf lokaler Maßstabsebene stehen für hochdynamische Städte in Entwicklungs- oder Schwellenländern oft nur generalisierte, veraltete, unzuverlässige oder gar keine Geodaten oder -produkte zur Verfügung. (Taubenböck & Esch 2013)

Aufgrund des wachsenden sozio-ökonomischen Drucks in Küstenzonen, nimmt auch der Stress zu, dem die Küstenökosysteme ausgesetzt sind. Vor diesem Hintergrund sind aktuelle Informationen und Wissen über den Status unserer Umwelt und deren Veränderungen essentiell für ein nachhaltiges Management der Küstenzonen und deren Funktionen, sowie für die Beurteilung von sozio-ökologischen Folgen zukünftiger Entwicklungen im Kontext des globalen Wandels. Die Fernerkundung eröffnet in diesem Zusammenhang vielversprechende Möglichkeiten. Mittels unterschiedlicher Satelliten- und Sensorsysteme können über physische und politische Grenzen hinweg die komplexen räumlichen und zeitlichen Muster anthropogener sowie natürlicher Veränderungen unserer Umwelt kontinuierlich und räumlich konsistent dokumentiert werden. (Leinenkugel et al. 2016)

Sylt multitemporal Sylt - multitemporal

Für die Erstellung dieser Aufnahme wurden drei Bilder von TerraSAR-X übereinander gelegt. Die einzelnen Datensätze wurden am 22., 24. und 27. Oktober 2007 aufgenommen. Alle Gebiete, in denen zwischen den Aufnahmezeitpunkten Veränderungen stattfanden erscheinen in Blau und Grün - insbesondere die durch die Gezeiten beeinflussten Gebiete des Wattenmeeres. Hier verändert sich durch den Wechsel zwischen Ebbe und Flut der Wasserstand von Aufnahme zu Aufnahme.

Die Landflächen erscheinen auf Grund der relativ geringen Veränderungen innerhalb der fünf Tage in Grau- und Brauntönen. Quelle: DLR

 

Fernerkundung
Fernerkundungsdaten helfen beispielsweise, die Entstehung und Verteilung von Algenblüten besser zu verstehen und Veränderungen durch den Menschen, wie den Klimawandel oder durch seine Nutzung der Küsten zu erkennen.
Dazu werden die Küsten großflächig mit Satelliten erfasst. Flugzeuge, Luftschiff und Forschungsschiffe werden für hochauflösende Detailaufnahmen eingesetzt. Dabei werden die Inhaltsstoffe des Meerwassers, wie Algen oder Schwebstoffe, mit selbstentwickelten Verfahren anhand der Farbe des Ozeans bestimmt. Diese Auswerteverfahren sind insbesondere auch bei der europäischen Raumfahrtagentur ESA im Einsatz.
Die Bestimmung der optischen und biogeochemischen Eigenschaften des Meerwassers erfordert sehr präzise und aufwendige Messungen der Lichtabsorption oder Lichtstreuung im Meerwasser. Sie werden für verschiedene „Wassertypen“ aus der Luft, im Meer selbst und im Labor durchgeführt.
Die gemessenen Daten werden in optische Modelle und Messmethoden integriert, um die Fernerkundungsdaten mit den analysierten Meerwasser-Proben vergleichen zu können. Erst durch diesen aufwendigen Prozess können die gewünschten Messgrößen aus den Fernerkundungsdaten selbst bestimmt werden. Dazu zählen die Konzentrationen grüner, roter oder brauner Mikroalgen im Meerwasser, die Verteilung von Gelbstoffen und Schwebstoffen, aber auch die Streuung und Absorption des Sonnenlichts im Wasser und die Durchsichtigkeit des Meerwassers.
Zusätzlich werden physikalische Größen wie Strömungen und Wirbel erfasst. Sie haben einen erheblichen Einfluss auf die Verteilung von Mikroplankton und damit auf die Nahrungskette im Meer. Wie sich natürliche oder durch den Menschen verursachte Veränderungen auf die Küste und Meere auswirken, wird durch die vergleichende Analyse von Satellitendaten aus mehreren Jahrzehnten ermöglicht. (HZG)

Der Meeresspiegel ist ein sehr empfindlich auf den Klimawandel reagierender Indikator, indem er Änderungen von Komponenten des Klimasystems widerspiegelt, wie z. B. Wärmehaushalt, Gletscher, Abschmelzen von Eiskappen. Die präzise Überwachung von Veränderungen des mittleren Meeresspiegels ist zusätzlich von grundlegender Bedeutung für die sozialen und ökonomischen Konsequenzen des Meerespiegelanstiegs, besonders in Küstenregionen.
Neue Radaraltimeter, wie die auf CryoSat und auf Sentinel-3 sind für diese Aufgabe besser geeignet als die klassischen Altimeter auf ENVISAT oder Jason-3. Sie sind genauer und können den Meeresspiegel deutlich näher an der Küste vermessen, was gerade für Länder mit sehr zerklüfteten Küstenlinien wie z. B. Norwegen sehr wichtig ist.

Beim DLR erfasst und analysiert die Arbeitsgruppe „Küsten und Flusseinzugsgebiete“ sowohl natürliche als auch anthropogen verursachte Prozesse und deren Aus- und Wechselwirkungen in Küsten und Flusseinzugsgebieten durch den Einsatz von fernerkundlichen Verfahren. Satellitendaten  unterschiedlicher Sensoren und Auflösungen werden durch moderne Ansätze der maschinellen Bildanalyse ausgewertet und zu höherwertigen Geoinformationsprodukten verarbeitet. Die abgeleiteten Informationen bilden die Basis für neue geowissenschaftliche Erkenntnisse und zur Beantwortung von grundlegenden Herausforderungen in Küsten und Flusseinzugsgebieten im Kontext des Globalen Wandels.

Die Anwendungsschwerpunkte des DLR-Teams „Küsten und Flusseinzugsgebiete“ liegen auf:

1. Sozio-ökonomischer Wandel in Küstenzonen und Flusseinzugsgebieten

  • Charakterisierung und Typisierung von Küstenzonen und Einzugsgebieten
  • Landnutzungswandel und Produktivitätswandel
  • Strukturveränderungen von Ökosystemen
  • Küstenökonomie: Potentiale und Auswirkungen

2. Vulnerabilität, Adaption und Resilienz

  • Meeresspiegelanstieg
  • Taifune und Sturmfluten
  • Salzwasserintrusion
  • Küstenmorphologie

3. Interaktionen zwischen Land und Gewässern

  • Integriertes Einzugsgebiet- und Küstenzonenmanagement
  • Oberlauf - Unterlauf Interaktionen
  • Dynamiken von Feuchtgebieten und saisonalen Überflutungen

Anwendungen basieren auf Erdbeobachtungsdaten unterschiedlichster Sensoren (optisch/ multispektral, thermal, SAR) und räumlichen/zeitlichen Auflösungen. Methodische Schwerpunkte liegen vor allem auf:

  • Pixelbasierten und objektbasierten Verfahren der Bildanalyse
  • Zeitreihen- und Trendanalysen
  • Synergetischen Verfahren der Geo- und EO-Datenauswertung
  • Synergien und Komplementaritäten unterschiedlicher Sensoren
  • Entwicklung nutzerfreundlicher Umweltinformationssysteme

Weitere Informationen: