Lexikon der Fernerkundung

K-Band

Radar- und Mikrowellenband mit Wellenlängen zwischen 1,1 und 1,67 cm (10.900 bis 36.000 MHz).

Mikrowellen Mikrowellenbereich

The portion of the spectrum of more recent interest to remote sensing is the microwave region from about 1 mm to 1 m. This covers the longest wavelengths used for remote sensing. The shorter wavelengths have properties similar to the thermal infrared region while the longer wavelengths approach the wavelengths used for radio broadcasts.

Quelle:
Natural Resources Canada
Ka-Band

Radar- und Mikrowellenband zwischen 33,0 GHz und 36,0 GHz.

Kacheln

Engl. tiles; (Computer-)Grafiken, die mosaikartig zusammengesetzt ein vielfach größeres Gesamtbild ergeben. Beispielsweise besteht ein Orthophotomosaik aus Einzelorthophotos, die ähnlich einem Mosaik aneinandergefügt werden. Um die jeweils zu verarbeitende Datenmenge möglichst gering zu halten, werden solche Mosaike oftmals in Bildkacheln eingeteilt (z. B. in Kacheln zu je einem km²).

Kachelung

In der digitalen Bildverarbeitung Bezeichnung für eine segmentierte Speicherung einer Grauwertmatrix. Gegenüber einer zeilenweisen Speicherung hat die gekachelte Speicherung in quadratischen Segmenten identischer Größe (meist angegeben über Kantenlänge von 2n Pixeln) zahlreiche Vorteile in der Zugriffsgeschwindigkeit, vor allem bei nachfolgenden Operationen wie einer ausschnittsweisen Bildschirmdarstellung, der Bildfilterung im Ortsfrequenzbereich, dem Aufbau von Bildpyramiden und der Bildkompression.
Bei großen Geodatensätzen (Vektor- und Rasterdaten) wird das Gesamtgebiet häufig in Kacheln unterteilt, um einerseits die Erfassung und Primärbearbeitung zu verteilen und zu optimieren, andererseits um das Datenhandling in der Abgabe zu erleichtern, nicht zuletzt aufgrund von Kapazitätsgrenzen vorhandener Speichermedien und der Anwendungssoftware sowie zum effektiven Transfer via Internet. Dazu kann die Kachelung schematisch (z.B. über das Gradnetz oder Gitternetz) oder inhaltsspezifisch (z.B. in kompakte geographische oder administrative Segmente) erfolgen.

Kalibrierung

Engl. calibration, franz. étalonnage; syn. Kalibration, Abgleichvorgang der Messgenauigkeit eines Instruments mit einem bekannten Standard. Nach DIN 18716 die "quantitative Bestimmung von systematischen und reproduzierbaren Eigenschaften eines Sensors anhand referenzierter Normale", verbunden mit der Anmerkung: "Lassen sich diese Eigenschaften modellieren, entspricht die Kalibrierung der Bestimmung von Instrumentenkonstanten".

Beispielsweise bestimmt die Kalibrierung bei Sensoren eines Wettersatelliten den Zusammenhang zwischen der vom Detektor abgegebenen Spannung, die als Signal zur Erde gefunkt wird und der sie verursachenden Strahldichte am Satelliten, die gemessen werden soll. In das Ergebnis der Kalibrierung gehen alle Eigenschaften des optischen Wegs im Radiometer ein, von der Empfangsoptik über Spiegel, Strahlteiler und Filter bis zum Detektor. Solche Kalibrierungen werden i.A. vor dem Start des Satelliten vorgenommen, müssen aber im All überprüft werden, da z.B. mit Alterungserscheinungen zu rechnen ist.

Weitere Informationen:

Kalibrierungskoeffizient (radiometrisch)

Engl. calibration coefficient, franz. coefficient d'étalonnage; nach DIN 18716 der "Wert, der dem relativen Grauwert im Bild (Pixelwert) mittels linearer oder nichtlinearer Beziehungen eine absolute physikalische Strahlungsgröße zuordnet".

Kameraöffnung

Öffnungswinkel eines Kameraobjektivs

Kanal

Syn. Spektralkanal oder Band, Engl. channel, franz. bande; in der Fernerkundung ein genau definierter Bereich des elektromagnetischen Spektrums. Für den Empfang und die digitale Speicherung von Signalen in solchen Bereichen ist der jeweils spezielle Sensor eines Satelliten zuständig. Dabei werden der aufgenommenen Strahlungsintensität in jedem Kanal Werte von 0 bis 255 zugeordnet. Ordnet man nun jedem Wert eines Kanals einen bestimmten Grauwert zwischen schwarz (=0) und weiß (=255) zu, so kann man ein Bild der aufgenommenen Strahlung erhalten.
Insofern unterscheidet sich das "Wahrnehmungsvermögen" von Sensoren von dem einer Fotokamera, bei der mit der einfallenden Strahlung ein Film belichtet wird.
Der amerikanische Landsat-TM-Sensor erfasst unter anderem jeweils getrennt rotes, grünes und blaues Licht, d.h. der Bereich des sichtbaren Lichts wird in drei Farbbereichen bzw. in drei Kanälen getrennt aufgenommen. Durch additive Farbmischung dieser drei Kanäle (rot+grün+blau=weiß; es können immer nur drei Kanäle gleichzeitig dargestellt werden!) entsteht ein scheinbar natürliches Bild.
Zwar ist der Begriff Kanal gleichbedeutend mit Band, aber bei der Fernerkundung im sichtbaren Licht und im nahen Infrarot wird er bevorzugt.

Die Landsat-Kanäle und ihre Eigenschaften:
Kanal Eigenschaft/Verwendung

Kanal 1 Blau
blauer Anteil des sichtbaren Lichts im Wellenlängenbereich 0,45 - 0,52 µm, Auflösung 30m im Originaldatensatz

Wird wegen der starkten Absorption des Chlorophylls genutzt zur Unterscheidung von Boden und Vegetation, von Laub- und Nadelwald, sowie zur Untersuchung von Gewässern wegen der hohen Eindringtiefe in Wasser.

Kanal 2 Grün
grüner Anteil des sichtbaren Lichts im Wellenlängenbereich 0,53 - 0,61 µm, Auflösung 30m im Originaldatensatz

Misst die in diesem Spektralbereich vergleichsweise hohe Reflexion von (gesunder) Vegetation an Land und im Wasser.

Kanal 3 Rot
roter Anteil des sichtbaren Lichts im Wellenlängenbereich 0,63 - 0,69 µm, Auflösung 30m im Originaldatensatz

Misst die unterschiedliche Chlorophyllabsorption verschiedener Pflanzenarten;
dient zur Unterscheidung von Pflanzenarten und zur Trennung von Bodentypen, Mineralgehalten.

Kanal 4 NIR
zurückgestrahltes Licht im Bereich des Nahen Infrarots (NIR) im Wellenlängenbereich 0,7 - 1,3 µm, Auflösung 30m im Originaldatensatz

NIR zeigt die Aktivität von Pflanzen. Je jugendlicher die Pflanze, umso mehr "Nahes Infrarot" wird reflektiert. Man sieht also den Zustand pflanzlicher Zellen.
Die Informationsfülle ist im NIR besonders groß. Wasser ist stets schwarz! 

Kanal 5  MIR 1
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 1) im Wellenlängenbereich 1,57 - 1,78 µm, Auflösung 30m im Originaldatensatz

MIR misst den Wassermangel in Vegetation und zeigt Böden hell an;
unterschiedliche Reflexion von Schnee und Wolken; durchdringt dünne Wolken;
sehr gerine Eindringtiefe in Wasser;
hohe Reflexion von manchen Gesteinen, deshalb hilfreich für geologische und bodenkundliche Kartierungen.

Kanal 6 TIR
zurückgestrahltes Licht im Bereich des Thermischen Infrarots (TIR) im Wellenlängenbereich 10,42 - 11,66 µm, Auflösung 60m im Originaldatensatz

TIR misst die von der Erde ausgehende Wärmestrahlung, dient primär für thermische Kartierungen.
Die Erfassung von Schäden und Stress von Vegetation ist möglich.
TIR gibt Auskunft über die oberste Bodenschicht.

Kanal 7  MIR 2
zurückgestrahltes Licht im Bereich des Mittleren Infrarots (MIR 2) im Wellenlängenbereich 2,10 - 2,35 µm, Auflösung 30m im Originaldatensatz

MIR 2 zeigt hohe Reflexion von manchen Gesteinen, deshalb sehr hilfreich für geologische und bodenkundliche Kartierungen.
Vegetation reflektiert wenig, Wasser absorbiert alles und ist deshalb schwarz.

Kanal 8  Pan
Der Kanal 8 steht bei Landsat 7 (Sensor ETM+) für das zurückgestrahlte panchromatische Licht.Panchromatisches Licht umfasst das sichtbare Licht im Wellenlängenbereich 0,4 bis 0,9 µm, Auflösung 15m im Originaldatensatz

In der Fernerkundung werden panchromatische Sensoren benutzt, weil sie durch die hohe Lichtausbeute eine sehr hohe Auflösung erlauben.

Weitere Informationen:

Kantendetektion

Engl. edge detection; eine der Grundaufgaben der Bildverarbeitung ist das Auffinden von Kanten und Linien. Kanten und Linien sind Diskontinuitäten in der Grauwertfunktion eines Bildes. Als Kante wird der Übergang von einer Region zu einer anderen bezeichnet, z.B. von hell zu dunkel. Eine Linie wird von zwei Kanten gebildet, z.B. als schmaler dunkler Bereich zwischen zwei hellen.

KARI

Engl. Akronym für Korea Aerospace Research Institute; die Luft- und Raumfahrtagentur Südkoreas.

Weitere Informationen:

Kármán-Linie

Eine gedachte Höhenlinie bei 100 km Höhe, die als Definition für die Abgrenzung der Erdatmosphäre zum freien Weltraum (outer space) dient. Festgelegt wurde sie von der Fédération Aéronautique Internationale und benannt zu Ehren von Theodore von Kármán, der entscheidend an ihrer Definition mitwirkte. Sie dient im Wesentlichen der Klassifikation von Flugleistungen, da diese in den beiden Bereichen unterhalb und oberhalb von ihr nicht vergleichbar sind.

Grundlage der Definition der Kármán-Linie ist, dass die zur Erzielung eines ausreichenden aerodynamischen Auftriebes erforderliche Geschwindigkeit in ungefähr dieser Höhe gleich der ersten kosmischen Geschwindigkeit wird, ein Fahrzeug mit dieser Geschwindigkeit also auch schon durch die Zentrifugalkraft in einer Erdumlaufbahn gehalten würde.

Die Auswahl dieses Kriteriums ist jedoch nicht ganz zwangsläufig. So verleihen die US-amerikanischen Streitkräfte das Astronautenabzeichen ab einer ebenfalls in den 50er Jahren vom National Advisory Committee for Aeronautics (NACA) festgelegten Flughöhe von 50 Meilen (ca. 80 km). Dieser Definition liegt die Annahme zu Grunde, dass für die aerodynamische Steuerung eines Luftfahrzeugs ein dynamischer Druck auf die Steuerflächen von mindestens 1 lbF/ft² (47,88 Pa) nötig ist. Diese Grenzziehung gilt aber inzwischen als veraltet und findet international kaum Anerkennung.

Völkerrechtlich relevant für die Abgrenzung des der Lufthoheit unterliegenden Luftraumes vom hoheitsfreien Weltraum ist keine dieser Definitionen. Diese behalten sich die Staaten bislang vor. Allgemein wird dazu bisher eine funktionale Abgrenzung angenommen, d.h. eine Abhängigkeit von der durchgeführten Aktivität statt von der genauen Höhe.

102px-Atmosphere_layers-de-3_svg Säulenprofil der Erdatmosphäre mit Kármán-Linie


Es gibt keine feste Grenze zwischen Atmosphäre und Weltall. Jedoch wird üblicherweise die in einer Höhe von 100 km verlaufende Kármán-Linie als Beginn des Weltraums (outer space) herangezogen um Weltraumverträge zu formulieren.
Der Rahmen für das internationale Weltraumrecht wurde durch den Outer Space Treaty geschaffen, der von den Vereinten Nationen 1963 verabschiedet wurde. Dieser Vertrag schließt alle nationalen Souveränitätsansprüche aus und erlaubt allen Staaten, die freie Erkundung des Weltalls.

Im Jahr 1979 unterstellte der Moon Treaty die Oberflächen von Objekten wie z.B. Planeten wie auch den Raum um diese Körper der Rechtsprechung der internationalen Gemeinschaft. Zusätzliche Vereinbarungen, die den Weltraum betreffen, sind von den Vereinten Nationen abgefasst worden, aber sie haben nicht die Stationierung von Waffen im Weltall ausgeschlossen.
99,99997 % der Masse der Atmosphäre befinden sich unterhalb von 100 km, und dennoch trifft man in der ausgedünnten Luft darüber Polarlichter und andere atmosphärische Effekte. Der höchste Flug eines X-15 Flugzeugs erreichte 1963 eine Höhe von 108 km.

Zu größerer Darstellung auf Grafik klicken.

Quelle: Wikipedia nach einer Vorlage von NOAA
 
Katastrophe

Eine schwerwiegende Unterbrechung der Funktionsfähigkeit einer Gemeinschaft oder Gesellschaft, die umfangreiche Verluste an Menschenleben, Sachwerten und Umweltgütern verursacht und die Fähigkeit der betroffenen Gesellschaft, aus eigener Kraft damit fertig zu werden, übersteigt. Bei großen Katastrophen kann sich das betroffene Gebiet i.d.R. nicht mehr aus eigener Kraft helfen und benötigt Hilfe von außen.
Eine Katastrophe ist eine Funktion im Risikoprozess. Sie entsteht aus der Kombination von Gefahren, Anfälligkeiten und unzureichenden Kapazitäten oder Maßnahmen, um die möglichen negativen Folgen eines Risikos zu reduzieren.

Weitere Informationen:

Katastrophenmanagement

Syn. Risikomanagement; das systematische Management von Verwaltungsentscheidungen, Organisation, operationellen Kompetenzen und Fähigkeiten, um politische Prozesse, Strategien und Bewältigungskapazitäten einer Gesellschaft oder Gemeinschaft zu implementieren, um die Auswirkungen von Naturgefahren und ähnlichen Umwelt- und technologischen Katastrophen zu verringern. Dies beinhaltet alle Arten von Aktivitäten, einschließlich technischer und nichttechnischer Maßnahmen, um negative Effekte von Gefahren zu vermeiden (Vorbeugung) oder zu begrenzen (Schadenminderung und Vorbereitung auf den Katastrophenfall). Wichtiger Bestandteil sind Frühwarnsysteme und ausgearbeitete Katastrophenpläne für Entscheidungsträger und die Bevölkerung.

Eine besondere Stellung beim Katastrophenmanagement haben Fernerkundungsverfahren und die daraus abgeleiteten Geodaten. Deren Möglichkeiten, die von der Vorhersage etwa von Niederschlägen mit Satellitenbeobachtungen oder Radar bis zur Verwendung von GPS zur Lokalisierung von Einsatzfahrzeugen bei der Katastrophenhilfe reichen, werden heute intensiv erforscht und zur Einsatzfähigkeit entwickelt. So können Satellitenaufnahmen nicht nur zur Erkundung schwer zugänglicher Gebiete dienen, sondern sie bieten darüber hinaus zahlreiche Einsatzmöglichkeiten direkt bei Eintritt einer Katastrophe. Für die Rettungskräfte tragen sie bei zu besserer Prävention und lageangepasster Einsatzvorbereitung, zu umfassender Lage- und Gefährdungsbeurteilung und zur Verbesserung der lageangepassten Einsatzdurchführung.

Die folgende Tabelle listet Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement auf. Manche dieser Möglichkeiten sind derzeit noch nicht bis zur Einsatzreife entwickelt. Z.B. können Satellitenbilder üblicherweise noch nicht in Echtzeit zur Verfügung gestellt werden. Andererseits bieten Technologien wie GIS und GPS, vor allem in ihrer Kombination, neue Möglichkeiten zur Verbesserung des Einsatzes von Hilfsfahrzeugen.

Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement
Katastrophenursache ermittelbare Parameter Sensoren/Satelliten
Erdbeben Topographie
digitale Höhenmodelle
Zustandsveränderungen
(Interferometrie)
SPOT
Landsat TM
ERS-1/-2
Radarsat
Dürre Niederschlag
Vegetationsindex
Vegetationszustand
Bodenfeuchte
NOAA-AVHRR
SPOT
Landsat TM
Meteosat, MSG
Flut (u.a. Hochwasser) Niederschlag
Topographie
Wolkenbedeckung
Überflutungsflächen
Schneebedeckung
Bodenfeuchte
NOAA-AVHRR
ERS-1/-2
Meteosat, MSG
Vulkanausbrüche Deformationen
Aufwölbungen
Eruptionswolken
Oberflächentopographie
Hangneigungen
ERS-1/-2
SPOT
Landsat TM
Stürme (Wind, Sandstürme) Wolkenbedeckung
Windfelder
Luftdruck
Niederschlag
Meteosat, MSG
NOAA-AVHRR
ERS-1/-2
GOES
Wildfeuer Oberflächentemperaturen
Vegetationsindex
Topographie
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM
Hangrutschungen digitale Geländemodelle
Bodenfeuchte
Niederschlag
Zustandsveränderungen
SPOT
Landsat TM
ERS-1/-2
Massenschädlinge digitale Geländemodelle
Vegetationszustände
Bodentemperatur
Klimafaktoren
NOAA-AVHRR
ERS-1/-2
SPOT
Landsat TM

Weitere Informationen:

Katastrophenmonitoring

Das Monitoring (Überwachung) von katastrophenträchtigen Regionen bzw. Erscheinungen, z.B. von Vulkanen mit ihren präeruptiven Äußerungen (vulkanische Erdbeben, Aufbeulung der Erdkruste, verstärkte Gasemissionen, Aufheizung u.a.). Für Vulkane, die nicht mit konventionellen Methoden überwacht werden, erlaubt die Fernerkundung durch Satelliten nicht nur komplementäre Beobachtungen, sondern bietet auch neue Methoden, z.B. die Veränderung von Krustendeformationen über das synthetische Apertur-Radar. Daneben betrifft die satellitengestützte Vulkanüberwachung vor allem den Nachweis von Eruptionen, Überwachung thermischer Veränderungen sowie Überwachung der Eruptionssäulen. Gleichfalls zum Objekt des Katastrophenmonitorings gehören technologische Gefahren und Katastrophen (Dammbrüche, Terrorattacken).

Die wichtigsten Faktoren, die den Nutzen der Fernerkundungsdaten im Bereich von natürlichen und technologischen Gefahren bestimmen sind Massstab, räumliche, spektrale und zeitliche Auflösung, ferner Flächenabdeckung, radiometrische Eigenschaften, Datenkosten und -verfügbarkeit. Gerade in diesem Aufgabenfeld steigert sich die Bedeutung und der Wert der Fernerkundungsdaten durch sachkundige Interpretation in Verbindung von herkömmlichen Karten und bodengestützten Daten. Eine Extraktion der Informationen und deren Integration in ein GIS kann für die humanitäre Hilfe von großer Bedeutung sein.

Die Bedeutung von Sensoren im sichtbaren Teil des Spektrums ist wegen der häufigen Wolkenbedeckung von Vulkanen eingeschränkt. Radarsatelliten erlauben Datengewinnung bei jedem Wetter, können aber keine thermische Strahlung aufnehmen. Multispektrale Sensoren mit hoher räumlicher Auflösung eignen sich weniger gut zu einer häufigen Überwachung von Vulkanen als Sensoren mit geringer Auflösung.

Der Vulkan Piton de la Fournaise auf Réunion Der Vulkan Piton de la Fournaise auf Réunion (21,2°S, 55,7°E)

 

Bildfolge von thermischen Anomalien, aufgenommen mit dem Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord von Terra. Die roten Punkte mit den grünen Ringen belegen die Eruptionen im Januar 2002.


Quelle: NASA Earth Observatory

Auch ENSO-begleitende Katastrophen (z.B. Waldbrände, Hochwasser, Dürren, Stürme) sind wie das Ozean/Klima-Phänomen selbst Gegenstand intensiven FE-Monitorings. Weitere Einsatzmöglichkeiten der Fernerkundung im Katastrophenmonitoring ergeben sich aus der Tabelle beim Stichwort Katastrophenmanagement.

Bis in die jüngere Vergangenheit hinein wurde bei Katastrophen mit Satellitenfernerkundung allerdings eher experimentell in der Nachsorge reagiert. Erst vor kurzer Zeit sind Weltraumagenturen wie NASA und ESA, koordiniert durch das globale Komitee der erdbeobachtenden Weltraumagenturen CEOS, sowie kommerzielle Datenanbieter dabei, sich stärker auf die Bedürfnisse von Anwendern in Hilfsorganisationen oder Versicherungen einzustellen. Sie entwickeln Hilfen für die Risiko- und Vulnerabilitätskartierung und Strukturen für raschere Informationsdienste. Eine operationelle Informationsversorgung bleibt Zukunftsaufgabe, da ein Beobachtungssystem aus einer ausreichenden Zahl von Satelliten für zivile Zwecke nach dem Muster der Wettervorhersage bislang fehlt.

Weitere Informationen:

Katastrophenvorsorge

Im Kontext der nachhaltigen Entwicklung umfasst Katastrophenvorsorge alle Elemente, die darauf ausgerichtet sind, Katastrophenanfälligkeit und Katastrophenrisiken in einer Gesellschaft zu minimieren, die negativen Effekte eines Schadensereignisses zu vermeiden (durch Prävention) oder zu begrenzen (durch Vorsorge, Schadenminderung und Notfallplanung).
Katastrophenvorsorge besteht aus:

  • Risikobewusstsein und -bewertung einschließlich Gefahrenanalysen und Vulnerabilitäts-/Kapazitätsanalysen
  • Wissenstransfer einschließlich Bildung, praktischer Ausbildung, Forschung und Information,
  • öffentliche Verpflichtungen und Schaffung eines institutionellen Rahmens
  • einschließlich organisatorischer, politischer, gesetzgeberischer und gesellschaftlicher Aktivitäten
  • Anwendung von Maßnahmen einschließlich Umweltmanagement, Raum-/Stadtplanung, Schutz kritischer Infrastruktur, Anwendung von Wissenschaft und Technologie, Partnerschaften und Netzwerken sowie finanzieller Instrumente
  • Frühwarnsysteme mit Vorhersagemodellen, festgelegten Verbreitungswegen von Warnmeldungen, Notfallplanung und Reaktionskapazitäten

Weitere Informationen:

Kayser-Threde

Ehemals ein Systemhaus, das sich auf Entwicklung und Implementierung von High-Tech-Lösungen für Luft- und Raumfahrt, Wissenschaft und Industrie spezialisiert hatte. Das 1967 gegründete Unternehmen beschäftigte knapp 300 Mitarbeiter und erwirtschaftete 2010 eine Betriebsleistung von 51,3 Mio. Euro. Seit Mitte 2007 gehört Kayser-Threde zur OHB AG in Bremen. Am 1. September 2014 haben die Unternehmen OHB System AG und Erwin Kayser-Threde GmbH fusioniert und firmieren ab sofort unter dem Namen OHB System AG.

Mit unterschiedlichen Kompetenzschwerpunkten kooperierten die bisherigen Schwesterfirmen schon vorher in Großprojekten wie den europäischen Wettersatelliten MTG (Meteosat Third Generation) und der hyperspektralen Erdbeobachtungsmission EnMAP.

Kepler (Weltraumteleskop)

Weltraumteleskop der NASA, das im März 2009 gestartet wurde, um nach extrasolaren Planeten zu suchen. Benannt war das Projekt nach dem deutschen Astronomen Johannes Kepler, der als erster die Gesetzmäßigkeiten der Planetenumlaufbahnen erkannte.

Am 15. August 2013 gab die NASA das Teleskop auf, nachdem bereits im Mai zwei defekte Reaktionsräder eine präzise Ausrichtung unmöglich machten.

Das Teleskop beobachtete einen festen Ausschnitt des Sternenhimmels mit ca. 190.000 Sternen im Sternbild Schwan, um extrasolare Planeten zu entdecken. Besondere Zielsetzung des Projekts war, vergleichsweise kleine Planeten (wie unsere Erde oder kleiner) und damit auch potenziell bewohnbare („habitable“) extrasolare Planeten zu entdecken. Gleichzeitig lieferte es Basisdaten zu anderen veränderlichen Sternen, um daraus Rückschlüsse über die im Inneren ablaufenden Prozesse ziehen zu können. Die Mission von Kepler war ursprünglich für dreieinhalb Jahre vorgesehen.

Kepler befand sich in einem Sonnenorbit, dessen Umlaufzeit (372,5 Tage) und Exzentrizität etwas von dem der Erde abwich. Die Sonde lief dabei der Erde hinterher und entfernte sich im Laufe der Jahre immer weiter von dieser. So war es möglich, die Beobachtungsregion ohne periodische Verdeckung durch die Erde und mit minimalen Störeinflüssen zu überwachen.

Kepler hat auf seiner Mission 3548 Planetenkandidaten und 135 nachgewiesene Planeten aufgespürt, davon 5 in der habitablen Zone.

Weitere Informationen:

Kepler'sche Bahnelemente

Engl. Keplerian orbit elements; die Umlaufbahnen von Fernerkundungssatelliten sind immer elliptisch und folgen den Kepler'schen Gesetzen. Eine elliptische Umlaufbahn wird durch sechs unabhängige Parameter beschrieben, die man als Kepler'sche Bahnelemente bezeichnet:

  • Die große Halbachse a definiert die Größe der Bahnellipse.
  • Die Exzentrizität e beschreibt die Form der Bahnellipse.
  • Die Inklination i ist der Winkel zwischen der Ebene der Umlaufbahn und der Äquatorebene (Ekliptik).
  • Der Winkel des aufsteigenden Knotens W legt den aufsteigenden Knoten relativ zum Widderpunkt fest.
  • Das Argument des Perigäums w legt die Ellipse in der Bahnebene fest.
  • Die Mittlere Anomalie M ist der Winkel, der einen Punkt der Ellipse festlegt.
Satellitenbahnelemente Satellitenbahnelemente

 

 

 

Zu größerer Darstellung auf Grafik klicken


Quelle: Wikipedia
Kepler'sche Gesetze

Grundlegende, 1609 und 1619 von Johannes Kepler veröffentlichte Gesetze zur Beschreibung der Planetenbahnen bei ihrer Bewegung um die Sonne. Sie gelten jedoch ebenso für die Bahnen künstlicher Satelliten und anderer Raumflugkörper.

Erstes Keplersches Gesetz: Die Planeten bewegen in einer Ebene. Die Bahnen um die Sonne sind Ellipsen, wobei sich die Sonne in einem Brennpunkt befindet. (1601)

Zweites Keplersches Gesetz: Die Verbindungsgerade Sonne-Planet überstreicht in gleichen Zeiten gleiche Flächen. (1605)

2. Keplersches Gesetz Flächensatz und Bewegung auf einer Ellipsenbahn

 

Die Bahngeschwindigkeit der Erde ist ihrem Abstand von der Sonne umgekehrt proportional. Je näher die Erde der Sonne kommt, desto schneller bewegt sie sich.


Quelle: Roman Sexl

Drittes Keplersches Gesetz: Zwischen der Umlaufzeit T und der großen Halbachse r besteht bei allen Planeten die gleiche mathematische Beziehung: r3/T2 = konstant. (1618)

Kepler gelangte als Assistent des dänischen Astronomen Tycho Brahe an dessen umfangreiche und für die damalige Zeit besonders präzisen Aufzeichnungen der Planetenbewegungen. Schwerpunkt war dabei der Mars. Dessen Bahn hat von allen damals beobachtbaren Planeten die größte Exzentrizität (Brennpunktsabstand/große Ellipsenachse). Nur dadurch waren die Abweichungen von der Kreisbahn mit den damaligen Mitteln nachweisbar. Aus diesen Beobachtungen leitete Kepler seine Gesetze ab.

Die theoretische Begründung für die Keplerschen Gesetze lieferte rund 50 Jahre später Isaac Newton (1643 – 1727) mit seinem Gravitationsgesetz. Danach hängt die Anziehungskraft zwischen zwei Himmelskörpern (aber auch zwischen beliebigen Körpern) von deren Massen ab und verringert sich mit dem Quadrat des Abstandes.

Johannes Kepler

Johannes Kepler (1571-1630)

 

Kepler war einer der wenigen, der sich zu Gunsten von Galileos Entdeckungen und
des Kopernikanischen Weltbildes aussprach.


Quelle: NASA GSFC

Die von Kepler für die Planetenbewegung um die Sonne empirisch gefundenen Gesetze lauten, übertragen auf die Bewegung eines Satelliten um die Erde:

  1. Satellitenbahnen sind Ellipsen, in deren einem Zentrum die Erde (genauer: das Geozentrum) steht.
  2. Der Radiusvektor Radiusvektor vom Geozentrum zum Satelliten überstreicht in gleichen Zeiten gleiche Flächen.
  3. Die Quadrate der Umlaufzeiten zweier Satelliten verhalten sich wie die dritten Potenzen der Bahnhalbachsen.
KhalifaSat

Vormals als DubaiSat 3 bezeichneter Erdbeobachtungssatellit, der vom Mohammed bin Rashid Space Centre (MBRSC) entwickelt wird und als bislang dritter Satellit der Vereinigten Arabischen Emirate (VAE) ins All gelangt. Nach anfänglichen Entwicklungsarbeiten in den Anlagen des südkoreanischen Partnerunternehmens (Satrec Initiative), gilt KhalifaSat als erster, komplett von einem Team der VAE vor Ort gebaute Satellit. Der Start ist für 2018 mit einer H-IIA-Trägerrakete von Mitsubishi geplant.

Der Satellit wird verschiedene Regierungsaufgaben der VAE unterstützen (u.a. Stadtplanung, Schiffsverfolgung, Kartographie) und auch im Privatsektor seine Datenprodukte vermarkten.
KhalifaSat wird hochaufgelöste Bilder liefern mit 0,7 m Auflösung im panchromatischen und 4 m im multispektralen Bereich.

Weitere Informationen:

Kirchhoffsches (Strahlungs-)Gesetz

Engl. Kirchhoff's law; es beschreibt den Zusammenhang zwischen Absorption und Emission eines realen Körpers im thermischen Gleichgewicht. Für alle Körper ist bei gegebener Temperatur das Verhältnis zwischen Emission und Absorption für Strahlung derselben Wellenlänge konstant und vom Betrag gleich der spezifischen Ausstrahlung des schwarzen Körpers bei dieser Temperatur.

Klassifikation

Syn. Klassifizierung; Zuordnung von Daten zu Klassen mit bestimmten einheitlichen Eigenschaften, bei der Fernerkundung die Zuordnung von Bildpunkten in bestimmte Kategorien oder Klassen, um eine thematische Wiedergabe zu erzielen. Oft ist die Klassifikation eine Verbindung aus Aggregation (Zusammenfassung) und Generalisierung (Vereinfachung) von Primärdaten. Bei Fernerkundungsdaten ist diese Kombination der Regelfall. Im ersten Schritt (Aggregation) fassen Bildauswerter oder ein Computersystem die mit einem spektralen Aufnahmesystem gemessenen Reflexionsgrade von beispielsweise verschiedenen Gattungen von Laubbäumen zusammen und bilden daraus den Cluster 'Laubwald'. Im zweiten Schritt (Generalisierung) werden die originalen Daten (Primärdaten) anhand dieser Cluster automatisch vereinfacht. Dabei werden Straßen, Bäche oder Eisenbahngleise mit Laubbäumen an beiden Seiten je nach Vereinfachungsmethode ggf. zu Laubwald.

Grundannahmen der Klassifikation

(nach ALBERTZ 1991)

Die Grundannahme aller Klassifikationsverfahren ist, dass in einem Merkmalsraum, in dem die Eingangsdaten (Intensitäten, Texturmerkmalsbilder, Streumerkmalsbilder uvm.) die Koordinatenachsen bilden, verschiedene Objekte trennbare Punkthaufen aufzeigen. Im Idealfall lassen sich zwischen diesen Anhäufungen eindeutige Grenzen ziehen und somit jedem Pixel oder Objekt automatisch eine Klasse zuordnen.
Die Zuordnung der Punkthaufen zu den jeweiligen Objektklassen kann über die Klassifikationsverfahren der „unüberwachten Klassifikation“, „überwachten Klassifikation“ oder „Schwellwertanalyse“ erfolgen.

Quelle: LFULG

 

Weitere Informationen:

Klassifikationstechniken

Der Vergleich der konkreten Ausprägungen der spektralen Meßwerte aller Pixel mit den individuellen spektralen Signaturen der thematisch definierten Klassen gilt als eigentlicher Klassifikationsschritt. Jedes Pixel wird hinsichtlich der Ähnlichkeit mit allen Signaturen überprüft und entsprechend einer der Kategorien zugeordnet. Dabei ist zwischen einer Anzahl von spezifischen Klassifikationstechniken zu unterscheiden.
Zu ihnen zählen:

Klassifikator

Ein Algorithmus oder Programm, mit dessen Hilfe ein Merkmalstupel (Element eines Merkmalsraums) einer Klasse zugeordnet werden kann. Bei einem überwachten Klassifikationsprozesses erfolgt folgender typische Ablauf:

1. Lernphase (Erstellung eines Klassifikators):
Aus der Datenbasis werden Objekte (zufällig) ausgewählt und zu einer Trainingsmenge (engl. training data set) zusammengestellt. Zu jedem Trainingsobjekt wird in einem zusätzlichen Attribut die Klasse festgelegt, zu der es gehört (überwachtes Lernen, supervised learning). Anhand der klassifizierten Trainingsdaten wird mittels eines Algorithmus ein Modell (z.B. ein Satz von Regeln) erstellt, das zu einem Merkmalstupel die zugehörige Klasse angeben kann ("Klassifikator").
2. Klassifikationsphase (Anwendung des Klassifikators):
Die zu klassifizierenden Objekte werden dem Modell unterworfen. Als Ergebnis wird zu jedem Objekt seine Klasse ausgegeben.

klassifizierte Bilder

Engl. classified images, interpretierte Bilder mit ausgewählter Information, wie z.B. Vegetationstypen.

Klassifizierung

Syn. Klassifikation, engl. classification, franz. classification; eine Methode der Bildverarbeitung, die dazu dient, in Rasterbildern mit Hilfe von Algorithmen Muster, d.h. Flächen mit gleichen Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässern etc. in Satellitenbildern. Um Rasterbilder klassifizieren zu können, müssen die Sensoren der Satelliten in der Lage sein, verschiedene spektrale Signaturen zu unterscheiden, und - abhängig von der Klassifizierungsart - müssen Trainingsgebiete definiert werden.

Bei DIN wird die Klassifizierung in DIN 18740-5 dargestellt.

In der Fernerkundung werden zur Klassifizierung meist mehrere Farbkanäle gleichzeitig verwendet. Beispielsweise sind die Kanäle Rot, Grün, Blau und nahes Infrarot eine mögliche Kombination zur Detektion von Vegetation.
Mittels Klassifizierung werden einzelne Pixel eines digitalen Bildes einer bestimmten Klasse gemäß einer Klassenbeschreibung zugeordnet, beispielsweise aufgrund spektraler Signaturen, d.h. aufgrund der unterschiedlichen Reflexionseigenschaften von Objekten.
Jede Klasse ist also durch spezifische Merkmale charakterisiert und dadurch von anderen Klassen unterschieden. Jedes Bildelement wird auf alle Merkmale aller Klassenbeschreibungen untersucht und letztlich derjenigen Klasse zugeteilt, deren Eigenschaften es aufweist. Das Ziel jedes Klassifizierungsverfahrens ist es, die Gesamtheit der Bildelemente einer Szene in thematische Klassen oder Landnutzungsklassen einzuteilen.

Für die in der Regel automatische Klassifizierung der Satellitendaten stehen zwei Verfahren zur Verfügung, das pixelbasierte und das objektbasierte. Bei den pixelbasierten Verfahren wird jedes einzelne Pixel analysiert und nach spektralen Ähnlichkeiten in Klassen sortiert. Bei den objektbasierten Verfahren wird von der Annahme ausgegangen, dass ein Pixel mit einer hohen Wahrscheinlichkeit die gleiche Klassenzugehörigkeit hat wie sein Nachbarpixel.

Pixel-basierte Klassifizierung wird meist synonym auch als Multispektralklassifizierung bezeichnet. Die zu klassifizierenden Einheiten sind die einzelnen Pixel. Normalerweise werden nur deren spektrale Eigenschaften verwendet, es wird also keine Kontextinformation berücksichtigt. Die einzelnen Pixel und deren Klassenzuweisung haben bei einfachen Verfahren keinen Einfluss auf die Klassifizierung der benachbarten Pixel. Basierend auf meist statistischen Entscheidungsregeln wird ein Pixel entsprechend seiner spektralen Eigenschaften einer Landbedeckungsklasse zugeordnet. Die zu klassifizierenden Landnutzungsklassen unterscheiden sich durch spezifische Kombinationen der DN-Werte (DN = digital number), die ihren typischen Reflexionswerten entsprechen.
Die pixel-basierten Klassifizierungen neigen zum "salt-and pepper"- Effekt. In diesem Fall erscheint die klassifizierte Szene sehr heterogen.

In der Multispektralklassifizierung werden drei Arten von Klassifizierung unterschieden:

Die überwachte (supervised c.) Klassifizierung, bei der für jede Objektklasse eine Musterklasse bestimmt wird. Aus diesen Musterklassen wird wiederum der Klassifikator bestimmt. Jedes Element außerhalb einer Musterklasse wird sodann mittels dieser Entscheidungsfunktion des Klassifikators auf Grund seiner typischen Geländeinformation (z.B. spektrale Signatur bei Multispektralbildern) einer Objektklasse zugeordnet. Ein Objekt weist daneben noch andere Merkmale auf, die bei einer Klassifikation berücksichtigt werden können, beispielsweise Textur, Musterung, Größe, Form, Orientierung, Zeit und Merkmale wie Winkel, Enden und Kanten. Eine überwachte Klassifikation kann hierarchisch oder iterativ durchgeführt werden. In beiden Fällen werden für ausgesuchte Areale des Bildes Trainingsdaten gewonnen und danach das gesamte Bild klassifiziert.
Eine Schwierigkeit bei der Generierung von Trainingsgebieten resultiert z.B. aus einer zu geringen Auflösung räumlicher Objekte. In diesem Fall sind die spektralen Eigenschaften einzelner Pixel gemischt, es entstehen so genannte "Mischpixel". Räumlich stark differenzierte, topographisch bedingte Beleuchtungsverhältnisse und Schattenwirkungen können sich negativ auf das Klassifizierungsergebnis auswirken, weil dadurch die Klassenbeschreibungen unspezifisch und damit schlechter trennbar werden.

Die unüberwachte (unsupervised c.) Klassifizierung unterscheidet sich in Hinblick auf die überwachte darin, dass keine Geländeinformation und keine Anzahl der Objektklassen benötigt wird. Mittels eines Klassifikators (z.B. ein Abstandsmaß) wird iterativ jedes Bildelement einer Teilgesamtheit zugeordnet. Diese Teilklassen besitzen jedoch noch keine Objektidentität.
Die einzelnen Flächen lassen sich jedoch nicht immer zu einem bestimmten Zeitpunkt unterscheiden, sondern in manchen Fällen nur, wenn sie zu verschiedenen Zeitpunkten der Wachstumsperiode untersucht werden (multitemporale Klassifizierung).

Die hybride (hybrid c.) Klassifizierung mit einer Vielzahl verschiedener Verfahren. Eine Möglichkeit besteht z.B. darin, einer überwachten Klassifizierung eine unüberwachte Klassifizierung vorzuschalten. Mit Hilfe der unüberwachten Klassifizierung können die unterscheidbaren spektralen Klassen sowie geeignete Trainingsgebiete bestimmt werden. Die hybride Multispektralklassifizierung findet insbesondere in den Fällen Anwendung, bei denen eine hohe Variabilität in den spektralen Merkmalen der Klassen vorhanden ist, wie z.B. Biotopkartierung.

Die Güte einer Klassifikation hängt wesentlich davon ab, wie eindeutig die Multispektralsignatur jeder Objektklasse ist, wie stark die stichprobenhafte Geländekenntnis (ground truth) in einem Testgebiet mit den Ergebnissen der Klassifikation harmonisiert und mit welchem Typ von Klassifikation gearbeitet wird. Im Regelfall führen unüberwachte Klassifikationen von multispektralen Fernerkundungsdaten zu keinen befriedigenden Ergebnissen , da kaum eine Objektklasse eindeutig im Bild gekennzeichnet ist (Mischpixel = Mixel!). Deshalb setzt man überwiegend auf überwachte, interaktive Klassifikationsschritte , welche maßgeblich von den Interpreten gesteuert werden können und, gestützt durch individuelle Sach- bzw. Geländekenntnisse, deutlich bessere Klassifikationsergebnisse erbringen.

Klassische Klassifizierungsmethoden, wie die maximum-likelihood, minimum distance oder parallelepiped classification bedienen sich binärer Entscheidungsregeln bezüglich der Zugehörigkeit des Bildelementes zu einer Klasse. Sie bringen zum Ausdruck, ob das Element der Klasse gehört (=1) oder nicht (=0). Diese Klassifizierungsmethoden werden auch als harte Klassifizierungssysteme (engl. hard classifiers) bezeichnet. Die gebräuchlichsten pixel-basierten Klassifikationsmethoden gehören zu den harten Klassifizierungssystemen.
Hingegen kann bei den weichen Klassifizierungssystemen (engl. soft classifiers) jedes Pixel zu mehr als einer Klasse gehören, und es besitzt unterschiedliche Zugehörigkeitswahrscheinlichkeiten zu den verschiedenen Klassen.

Pixelbasierte Verfahren stoßen v.a. bei hoch aufgelösten Bilddaten schnell an ihre Grenzen. In diesen Verfahren werden Objekte, wie beispielsweise Gebäude, in ihre Teilobjekte zerlegt, so dass keine typische spektrale Gesamtreflexion definiert werden kann. Die häufig verwendete Maximum Likelihood-Klassifizierung setzt eine Normalverteilung der Grauwerte in den Trainingsgebieten voraus. Für heterogene Objekte ist diese Voraussetzung nicht immer gegeben, folglich können Probleme bei der Klassenzuweisung entstehen. Bei hoher räumlicher Auflösung besitzen Bilddaten zudem meist nur drei bis vier spektrale Kanäle, was im Vergleich z.B. zu Landsat, der als Standardsensor für die Multispektralklassifizierung verwendet wird, einen Verlust an spektraler Information bedeutet. Viele Objektklassen besitzen bei nur drei oder vier Kanälen spektral ähnliche Eigenschaften und überlagern sich im Merkmalsraum. Die Klassentrennung kann daher nur unter Einbeziehung weiterer Informationen wie z.B. räumliche Nachbarschaft, Form und Textur von Objekten, sicher erfolgen.

Die aufgezeigten Grenzen der klassischen, pixelbasierten Klassifizierungsverfahren haben andere, z.T. wissensbasiert genannte Verfahren motiviert, wie z.B. die objektorientierte Bildanalyse, die Wissen über die zu extrahierenden Objekte modellieren.

Im Gegensatz zu den harten Klassifizierungssystemen benutzen die weichen Klassifizierungssysteme den Grad der Zugehörigkeit des bestimmten Bildelementes zu jeder in der Klassenhierarchie vorhandenen Klasse (Fuzzy systems), wobei der Zugehörigkeitsgrad nicht nur die binären Werte, sondern auch Zwischenwerte annehmen kann. In diesem Fall bedeutet der Wert 1 die sichere Zugehörigkeit und der Wert 0 die sichere Nichtzugehörigkeit zu einer bestimmten Klasse. Der Vorteil der soft classifiers besteht in der Möglichkeit der Darstellung der Unsicherheiten bezüglich der Zugehörigkeit zu Klassen. Ein Bildobjekt kann mehreren Klassen mit unterschiedlicher Wahrscheinlichkeit zugeordnet werden. Dieses Prinzip entspricht eher der menschlichen Zuordnung und der linguistischen Beschreibung der Objekte in der Welt als harte Regeln. Die Klassifikationsergebnisse der soft classifiers stehen dadurch dem menschlichen Erkennen viel näher.

Im Zuge der verbesserten räumlichen Auflösung der Satellitensysteme hat sich seit einigen Jahren die objektbasierte Bildanalyse etabliert. Mit eCognition (Trimble), ENVI Feature Extraction Module (ITT), IMAGINE Objective (ERDAS) und Feature Analyst (VLS) stehen leistungsfähige und teilweise erweiterbare kommerzielle Softwaresysteme zur Verfügung. Sie erreichen zwar nicht die Genauigkeit der visuellen Interpretation, sind jedoch in der Lage, eine Vorauswahl von relevanten Bildobjekten oder -bereichen zu treffen. Alle Systeme zeigen, je nach Anwendung, noch methodische Schwächen, u. a. in den Bereichen Segmentierung, automatische Merkmalsextraktion und multitemporale Analyse.

Die objektbasierte Bildanalyse kann als eine spezielle Form der wissensbasierten Bildanalyse gesehen werden, die sich mit der Extraktion topographischer Objekte aus Daten mit einem hohen Informationsanteil im spektralen Bereich beschäftigt.
Das Konzept der objekt-basierten Bildanalyse beruht auf der Annahme, dass semantische Information notwendig ist, um Bilder vollständig zu interpretieren. Diese Information kann nicht von einzelnen Pixeln repräsentiert werden, sondern nur von "aussagekräftigen" Bildobjekten und ihren wechselseitigen Beziehungen. Der größte Unterschied im Vergleich zu pixelbasierten Ansätzen ist, dass objektbasierte Ansätze der eigentlichen Klassifikation einen Segmentierungsschritt vorschalten und in der Folge Bildobjekte anstelle einzelner Pixel analysieren.
In der objektbasierten Bildanalyse werden in einem ersten Schritt die Bilddaten segmentiert, d.h. benachbarte Pixel nach bestimmten Homogenitätskriterien zu Segmenten zusammengefasst. Die Segmentierung kann hierbei auch als eine Generalisierung der Bilddaten aufgefasst werden. Die Klassifizierung der Segmente erfolgt in eCognition über eine Wissensbasis in Form von Regelsätzen, welche die Eigenschaften der gewünschten Objektklassen als Fuzzy-Zugehörigkeitsfunktionen beschreiben.
Die Segmente werden als Ganzes klassifiziert, wobei neben den spektralen Informationen auch Formeigenschaften, Textur und Kontextinformationen genutzt werden können.

Zur Klassifizierung von Landbedeckungsarten wird in zunehmendem Maße auf das objektbasierte Verfahren zurückgegriffen. Neben den durch den neuartigen Klassifizierungsansatz verbundenen Vorteilen, wie beispielsweise der Segmentierung kompakter Objekte, die dem menschlichen Wahrnehmungsvermögen entsprechen, hat diese Methode aber auch Schwachstellen. Mit der Bildung homogener Objekte geht gleichzeitig auch eine Generalisierung einher. Mit der pixelbasierten Klassifizierung wird jedes einzelne Pixel nach spektralen Ähnlichkeiten untersucht und in Klassen sortiert, was in der Regel keine homogene Objektbildung zulässt, aber andererseits auch keine Generalisierung darstellt.

Einige ungelöste Probleme der Klassifizierung:

  • Schwierigkeit der Unterscheidung zwischen verschiedenen Pflanzenarten aufgrund der möglichen Ähnlichkeit ihrer spektralen Signaturen
  • Auftreten verschiedener Signaturen pro Pflanzenart in Abhängigkeit von Wachstumsphase, Feuchtigkeit des Erdreichs, atmosphärischen Bedingungen u.a.

Weitere Informationen: Pixelbasierte Klassifizierung im Vergleich und zur Ergänzung zum objektbasierten Verfahren (Barbara Koch et al., Photogrammetrie Fernerkundung Geoinformation 3/2003)

Kleinsatellit

Satellit mit einer Masse von maximal 500 Kilogramm. In Europa wird der Bau solcher Forschungssatelliten von der Student Space Exploration and Technology Initiative (SSETI) gefördert. Mit Stand April 2012 nehmen etwa 400 Studenten in über 35 Teams von über 23 Universitäten aus über 14 Nationen an SSETI-Projekten teil.

Für die Jahre 2015-20 rechnet man weltweit mit dem Start von 510 weiteren Kleinsatelliten. Davon werden ca. 75 % im Auftrag von zivilen oder militärischen Raumfahrtagenturen ins All gebracht.

Die Kleinsatelliten werden eingeteilt in (Angaben variieren):

  • Minisatelliten (100–500 kg)
  • Mikrosatelliten (10–100 kg)
  • Nanosatelliten (1–10 kg)
  • Picosatelliten (0,1–1 kg)
  • Femtosatelliten (< 0,1 kg)

Beispiele für Kleinsatelliten sind: TET-1, Flying Laptop, BIRD, BEESAT-4, BIROS, Picard, DEMETER, Essaim, Parasol.

Weitere Informationen:

Klimatologie und Fernerkundung

Im Wesentlichen sind die für klimatologische Aufgaben genutzten Fernerkundungssysteme identisch mit denen, die mit meteorologischer Zielsetzung (s. Meteorologie und Fernerkundung ) verwendet werden. Dies gilt auch weitgehend für die beobachteten Parameter, allerdings mit anderer Schwerpunktsetzung und anderen Raum- und Zeitskalen. Natürlich nutzt die Klimaforschung weiterhin und in sinnvoller Ergänzung zu den Fernerkundungsmethoden diverse in situ-Messungen (Bodenstationen, Ozeanwetterschiffe, Radiosondenstationen, phänologische Gärten).

Klimagrenze im Bild: Der Himalaya

1460v1_20131115-Himalaya-Snow

Zu größerer Darstellung auf Grafik klicken

 

Die Ketten des Himalaya - sie enthalten einige der höchsten Berggipfel der Erde - dienen als klimawirksame Grenze zwischen Zentral- und Südasien. Die Trennung zwischen kalter Luft aus dem Norden und warmer, feuchter Luft aus dem Süden wird offensichtlich, wenn man auf die Schneeflächen dieses Echtfarbenbildes sieht, die sich auf der Nordseite der Kammregionen erstrecken. Die Daten stammen von dem Satelliten Suomi NPP, aufgenommen am 15.11. 2013.
Die Unterschiede im Klima und bei Eigenheiten an der Erdoberfläche werden noch deutlicher, wenn man das Nahinfrarotbild anschaut, statt des Echtfarbenbildes. Drei Spektralbänder des Instrumentes VIIRS sind in diesem Bild kombiniert (SVM05, SVM07 und SVM10), und die resultierenden Farben wurden verstärkt. Im Allgemeinen helfen diese Bänder, die Unterschiede zwischen den Farben der schneefreien Erdoberfläche (SVM05, 07) und der Schneebedeckung (SVM10) zu unterscheiden. Grüne Gebiete stehen in diesem Bild für vegetationsreiche Oberflächen, weiß für Schnee und grau meist für vegetationslose, kühler Oberflächen. Kleine Seen treten verstreut über das Bild auf. Sie sind in dem Nahinfrarotbild nicht nur deutlicher sichtbar, sondern man erkennt an der rostroten Farbe mancher Seen deren höhere Phytoplanktonkonzentration.

Quelle: NOAA
 

Ergänzt werden meteorologische Parameter durch solche, die mittel- bis längerfristige Aussagen über Klimaentwicklung erlauben. So ist für das volle Verständnis des irdischen Klimas das Monitoring aller Komponenten des Systems Erde zumindest in Teilen vonnöten, einschließlich ihrer Interaktionen. Dazu gehören:

  • die Atmosphäre
  • die Kryosphäre
  • die Biosphäre
  • die Hydrosphäre
  • Aspekte der festen Erde, z.B. der Vulkanismus der Lithosphäre oder das irdische Magnetfeld und das Schwerefeld

Schließlich müssen im Zusammenhang mit äußeren Klimaantrieben (external forcing) Veränderungen der Solarstrahlung, der Erdbahnparameter und auch menschliche Aktivitäten berücksichtigt werden.

Für die Betrachtung von Klimaveränderungen werden lange Beobachtungszeitreihen der verschiedenen Parameter benötigt. Fernerkundung, insbesondere Satellitenfernerkundung kann diese erst seit wenigen Jahrzehnten bereit stellen. Die aktuellen Daten müssen daher durch die Ergebnisse von älteren, konventionellen Messungen und die Einbeziehung von indirekten Methoden der Datengewinnung (Proxydaten wie Warvenchronologie, Korallenanalyse) ergänzt werden.

Klimaanomalien_201113_lres Bedeutende Klima- und Wetterereignisse im Jahr 2011

 

Zu größerer Darstellung auf Grafik klicken

 

Quelle: NOAA

Weitere Informationen:

Klimawandel

Klimawandel (oft syn. zu Klimaänderung) ist eine Veränderung des Zustands des Klimas, die identifiziert werden kann (z.B. mit Hilfe statistischer Methoden) als Veränderungen der Mittelwerte und/oder der Variabilität seiner Eigenschaften. Diese Veränderungen bestehen für eine längere Zeit, typischerweise Dekaden oder länger. Klimawandel kann auf natürliche interne Prozesse oder auf äußere Antriebskräfte oder auf anhaltende (persistente) anthropogene Veränderungen der Zusammensetzung der Atmosphäre oder der Landnutzung zurückgeführt werden.
Begriffe wie Klimawandel, Klimaänderung oder Klimaschwankung werden von Institutionen oder einzelnen Wissenschaftlern nicht einheitlich gebraucht.

Als Kernaussagen hält der aktuelle IPCC-Bereicht fest: „Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950er Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten. […] Der menschliche Einfluss wurde in der Erwärmung der Atmosphäre und des Ozeans, in Veränderungen des globalen Wasserkreislaufs, in der Abnahme von Schnee und Eis, im Anstieg des mittleren globalen Meeresspiegels und in Veränderungen einiger Klimaextreme erkannt.“ (Klimawandel 2013, Physikalische Grundlagen - Hauptaussagen aus der Zusammenfassung für politische Entscheidungsträger)

Mit dem Aufbau des Copernicus Klimadienstes (Bezeichnung in der GMES-Verordnung: „Überwachung des Klimawandels zur Unterstützung von Maßnahmen zur Anpassung an den Klimawandel und zur Eindämmung seiner Folgen“) stellt die EU Klimainformationsdienste bereit. Diese werden globale, europäische und nationale Entscheidungsträger bei der Erfassung und Bewertung des Klimawandels und seiner Folgen wie auch bei der Entwicklung von Strategien und politischen Maßnahmen zur Anpassung („Adaptation“) an die Folgen des Klimawandels und zur Abschwächung („Mitigation“) der Emission klimarelevanter Spurengase unterstützen. Der Copernicus Klimadienst soll im Kontext der von der Weltorganisation für Meteorologie (WMO) und weiteren UN Organisationen vorangetriebenen Initiative „Global Framework for Climate Services“ als wesentlicher europäischer Beitrag eingepasst werden. Der Copernicus Klimadienst wird von ECMWF (European Centre for Medium-Range Weather Forecasts) geführt werden.

Die Informationsprodukte des Copernicus Klimadienstes sollen auf der Integration von Daten aus satelliten- und bodengestützter Erdbeobachtung, von Re-Analysen numerischer Wettervorhersagemodelle und von globalen und regionalen Klimasimulationen aufbauen. Produkte für die Überwachung des Klimawandels und seiner Folgen sollen zum einen Zeitreihen der von GCOS („Global Climate Observing System“) definierten „Essential Climate Variables“ (ECV) der Erdbeobachtung umfassen. Zum anderen soll damit auch die Modellierung der Wechselwirkung relevanter Parameter der verschiedenen Komponenten des Erdsystems als Basis für Klimasimulationen für Zeiträume von Jahreszeiten über Dekaden bis zu einem Jahrhundert unterstützt werden.

temperature_anomalies

Anomalies are with respect to the 20th century average

Zu größerer Darstellung auf Grafik klicken

Quellen: NOAA/NCDC (Grafik) / NOAA/NCDC (Text, hier auch ausführlichere Darstellung)
Das Wärmerekordjahr 2014 im Rahmen der Anomalien seit 1880
  • The year 2014 was the warmest year across global land and ocean surfaces since records began in 1880. The annually-averaged temperature was 0.69°C above the 20th century average of 13.9°C, easily breaking the previous records of 2005 and 2010 by 0.04°C. This also marks the 38th consecutive year (since 1977) that the yearly global temperature was above average. Including 2014, 9 of the 10 warmest years in the 135-year period of record have occurred in the 21st century. 1998 currently ranks as the fourth warmest year on record.
  • The 2014 global average ocean temperature was also record high, at 0.57°C above the 20th century average of 16.1°C, breaking the previous records of 1998 and 2003 by 0.05°C. Notably, ENSO-neutral conditions were present during all of 2014.
  • The 2014 global average land surface temperature was 1.00°C above the 20th century average of 8.5°C, the fourth highest annual value on record.
  • Precipitation measured at land-based stations around the globe was near average on balance for 2014, at 0.52 mm below the long-term average. However, as is typical, precipitation varied greatly from region to region. This is the third consecutive year with near-average global precipitation at land-based stations.
  • This is the first time since 1990 the high temperature record was broken in the absence of El Niño conditions at any time during the year in the central and eastern equatorial Pacific Ocean, as indicated by NOAA's CPC Oceanic Niño Index. This phenomenon generally tends to increase global temperatures around the globe, yet conditions remained neutral in this region during the entire year and the globe reached record warmth despite this.
 

Weitere Informationen:

Klusteranalyse

Syn. Klumpenanalyse, engl. cluster analysis, eine unüberwachte Klassifizierung; sie ist ein Verfahren zur rein statistischen Berechnung von Klassen. Dabei geht man zunächst von einem beliebigen Merkmalsvektor als Mittelpunkt einer ersten Klasse aus. Anhand ausgewählter Zuweisungskriterien werden dann die weiteren Merkmalsvektoren auf ihre Zugehörigkeit zu dieser Klasse geprüft. Eine neue Klasse wird erzeugt, wenn die Kriterien nicht erfüllt werden. Das Verfahren läuft meist iterativ bis eine Abbruchsregel (maximale Anzahl der Iterationen, Anteil unveränderter Zuweisungen nach einem Durchlauf) eintritt.

Kohlen(stoff)dioxid (CO2)

Farbloses und geruchloses Gas mit großer Treibhauswirkung. In die Atmosphäre wird zusätzliches Kohlendioxid durch die Verbrennung von fossilen Brennstoffen und von organischem Material eingetragen. CO2 besteht aus einem einzelnen Kohlenstoffatom und zwei Sauerstoffatomen.

CO2 ist zusammen mit Methan (CH4) das einflussreichste vom Menschen verursachten Treibhausgas in unserer Atmosphäre. Beide sind maßgeblich für den Klimawandel und die Erderwärmung verantwortlich. Als im Jahr 2002 das deutsch-niederländisch-belgische Instrument SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Chartography) auf dem ESA-Umweltsatelliten ENVISAT erstmals genutzt werden konnte, um per Satellitenmessung CO2 und CH4 in der Atmosphäre aufzuspüren, war das ein Meilenstein für die Klimaforschung. SCIAMACHY hat bis zum Ausfall  von ENVISAT am 8. April 2012 die von der Atmosphäre zurückgestreute Sonnenstrahlung analysiert. Aus den charakteristischen Spektrallinien der atmosphärischen Bestandteile ließen sich die Konzentrationen einer Vielzahl von Spurengasen bestimmen, die für die Luftqualität, den Treibhauseffekt und die Ozonchemie wichtig sind.
Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher werden die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten fortgesetzt.

co2_anim_deu_600 Zeitreihe der CO2-Konzentration

Messung und Auswertung

Forscher der Universität Bremen haben erstmals über den Gesamtzeitraum der ENVISAT-Mission Daten des Instruments SCIAMACHY ausgewertet und so ein vollständiges Bild über zehn Jahre CO2- und CH4-Entwicklung erhalten.
Aus dem Weltall lässt sich erkennen, wo permanent erhöhte Konzentrationen zu finden sind. Daraus können Rückschlüsse auf die Ursachen gezogen werden.
Lange unterbrechungsfreie Zeitreihen sind gerade für die Klimaforschung unverzichtbar. Daher setzen die Forscher die SCIAMACHY Treibhausgas-Zeitreihen derzeit mit den Daten des japanischen GOSAT-Satelliten fort.

Quelle: DLR
 
Kohlendioxid-Banden

Wellenlängenbereiche der elektromagnetischen Strahlung, die von Kohlendioxid absorbiert werden.
Kohlendioxid absorbiert langwellige elektromagnetische Strahlung in unterschiedlichen Wellenlängenbereichen. Es gibt zwei relevante CO2-Absorptionsbanden (bei 4,3 und 14,7 Mikrometer (µm)), wovon eine im Zentralbereich – im Wellenlängenbereich in der Mitte der Bande - tatsächlich schon weitgehend gesättigt ist. Dies gilt aber nicht für die Flankenbereiche, also für die Wellenlängen an den Flanken der Bande. Um dies zu erkennen, sind allerdings äußerst genaue Messungen notwendig, die nur von entsprechend eingerichteten Instituten mit der erforderlichen Präzision durchgeführt werden können. Welchen Spielraum der durch den Menschen verursachte Treibhauseffekt im Prinzip noch zulässt, zeigt im übrigen ein Vergleich mit der Venusatmosphäre. Sie ist sehr dicht und lässt daher nur wenig Sonnenstrahlung zu ihrer Oberfläche durch. Aber ihr CO2-Gehalt liegt bei 98 % (Erdatmosphäre 0,037 %), was zu einem Treibhauseffekt von 466 °C (!) führt (der natürliche Treibhauseffekt der Erdatmosphäre beträgt etwa 33°C). Im Übrigen ist die nur sehr schwache spezifische Treibhauswirksamkeit von CO2 weitgehend auf diese Sättigung zurückzuführen.

Die Satellitenmission OCO-2 misst die Strahlung in zwei der CO2-Banden, um das atmosphärische (CO2) aufzuspüren. Ein Wellenlängenbereich reicht von 1,594 Mikron bis 1,619 Mikron, der zweite von 2,042 Mikron bis 2,082 Mikron.

Kohlenmonoxid

Klares und geruchloses Gas, das durch unvollständige Verbrennung von kohlenstoffhaltigen Brennstoffen entsteht. Kohlenmonoxid ist kurzlebig und kommt in der unteren Atmosphäre vor.

Visualisierte Kohlenmonoxiddaten von MOPITT Visualisierte Kohlenmonoxiddaten
von MOPITT

 

Der Sensor MOPITT an Bord des NASA-Satelliten Terra hat die ersten Daten zu einer globalen Gesamtschau von Kohlenmonoxid in der Atmosphäre zusammengetragen.

 

Legende:

mopitt_first_year_leg

 

Quelle: NASA Earth Observatory
 
Kohlenstoffkreislauf

Gesamtheit aller Prozesse, durch die Kohlenstoff und seine chemischen Verbindungen in der Geosphäre umgesetzt werden. Die Bedeutung des Kohlenstoffs gründet sich darauf, daß er Bestandteil aller organischen Verbindungen ist. Somit stellt der Kohlenstoffkreislauf einen der wichtigsten Kreisläufe des Lebens dar. In der Atmosphäre befinden sich die Kohlenstoffvorräte in gasförmigem Zustand. In der Hydrosphäre kommt Kohlenstoff in gelöstem Zustand vor, in anorganischen und organischen Verbindungen. Fest gebunden ist der Kohlenstoff in der Pedosphäre (Humus, Biomasse) und in der Lithosphäre (Kohle, Erdgas, Erdöl, Karbonatgesteine).

Das natürliche Gleichgewicht des atmosphärischen Kohlenstoffkreislaufs wird insbesondere durch die ansteigenden CO2-Emissionen als Folge des zunehmenden Verbrauchs fossiler Brennstoffe gestört. Die Rodung der Tropenwälder sowie die Verbrennung von Biomasse führt zu einem zusätzlichen indirekten Anstieg des atmosphärischen CO2, da diese Pflanzen nicht mehr an der Photosynthese teilnehmen. Obwohl ein Großteil dieser CO2-Menge wieder in den Ozeanen aufgenommen wird, steigt der Kohlenstoffgehalt (in Form von CO2) in der Atmosphäre an.

carbon_cycle_lres Das Karussell des Kohlenstoffs

Immer im Kreis bewegt sich der Kohlenstoff im Bereich unseres Planeten. Gleichzeitig hält der Kohlenstoff im übertragenen Sinne unsere Welt in Gang. Das Element ist der Baustein des Lebens auf der Erde, und in Gestalt des Atmosphärengases CO2 hat es einen gewaltigen Einfluss auf das Klima des Planeten.
In dem Prozess durchläuft der Kohlenstoff auch Flüsse, Ozeane und die Halbdunkelzone der Ozeane (see interactive). Die Menschen haben in den Kohlenstoffkreislauf eingegriffen und in kurzer Zeit Kohlenstoff von trägen zu rasch reagierenden Vorratspools verlagert, indem sie große Mengen von Kohlenwasserstoffen aus der Erde entnahmen und sie als Brennstoffe verfeuerten und damit einen Überschuss an Kohlendioxid in der Atmosphäre erzeugten, der Wärme zurückhält.

(Illustration by Jack Cook, Woods Hole Oceanographic Institution)

Zu größerer Darstellung auf Grafik klicken

Quelle: WHOI
 

Zur Quantifizierung der terrestrischen Kohlenstoffquellen und -senken (z. B. CO2, CH4) ist der Aufbau eines Expertensystems zur Erstellung der jährlichen Bilanz der Kohlenstoffflüsse notwendig (Kyoto-Protokoll). Ein solches Expertensystem wird im Augenblick am Potsdam Institut für Klimafolgenforschung (PIK) in Zusammenarbeit mit dem Max-Planck-Institut für Meteorologie (MPI-M, Hamburg) entwickelt und wird im Rahmen einer Kooperation mit dem DFD in den nächsten Jahren getestet. Ziel dieser Kooperation ist die Bilanzierung des terrestrischen Kohlenstoff-Haushalts unter Verwendung von satellitengestützen Fernerkundungsinformationen und deren Assimilation in gekoppelte dynamische Vegetations- und Atmosphärenmodelle.

Die aus dem Expertensystem abgeleiteten Daten sind unter anderem die Nettoprimärproduktion (NPP) der terrestrischen Vegetation oder die Nettoökosystemproduktion (NEP), aber auch die Abgabe von Methan in die Atmosphäre. Die Integration von Daten aus Emissionskatastern über kohlenstoffhaltige Substanzen (z.B. Methan) von landwirtschaftlichen Flächen oder aus der Viehzucht in die Atmosphäre stellt eine weitere Herausforderung für die Zukunft dar, um eine realistische Kohlenstoffbilanz zu erzeugen.

Aufgrund der hohen räumlichen und zeitlichen Variabilität der terrestrischen Photosynthese, der mikrobiellen Aktivität von Bodenorganismen und der meteorologischen Parameter ist es notwendig, die in das Expertensystem eingehenden Daten flächenhaft mit ausreichend hoher räumlicher und zeitlicher Auflösung zu erfassen. Hierfür geeignet sind Fernerkundungsdaten von polar umlaufenden Satelliten mit einer Wiederholrate von einigen Tagen (Landsat, IRS, SPOT). Daneben sollen auch die Daten geostationärer Satelliten wie z.B. "Meteosat Second Generation (MSG)" genutzt werden.

blacksea_amo_2012197 Quelle: NASA Kohlenstoff-Konsumenten im Schwarzen Meer

Dieses kräftig cyanfarbige Schlierenmuster an der Oberfläche des Schwarzen Meers ist eine Blüte von mikroskopisch kleinem Phytoplankton. Die riesige Menge an einzelligen Algen in diesem Bild sind wahrscheinlich Coccolithophoren, eine der wichtigsten Organismen-Klassen in ihrer Wirkung als biologische Kohlenstoffpumpen.
Coccolithophoren entfernen beständig Kohlenstoffdioxid aus der Atmosphäre und schicken ihn langsam zum Ozeanboden, ein Vorgang, der hilft, das Klima auf der Erde zu stabilisieren.
Dieses Bild mit der verwirbelten blauen Blüte wurde am 15. Juli 2012 vom Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem NASA-Satelliten Aqua aufgenommen.

Das Bild ist gedreht, sodass Norden rechts ist. Die Blüte wurde wahrscheinlich durch Emiliania huxleyi gebildet, obwohl die Bestimmung der Spezies unmöglich ist, ohne direkte Beprobung des Wassers.
Coccolithophoren benutzen Kohlenstoff, Kalzium und Sauerstoff, um kleine Plättchen aus Calciumcarbonat (Coccolithen) zu bilden. Diese ähneln Radkappen. Während ihres Lebens entfernen die Coccolithophoren Kohlenstoff aus der Luft binden ihn in ihrem Kalkskelett und nehmen ihn mit in die Tiefe wenn sie sterben oder wenn sie von Zooplankton oder Fischen gefressen und dann wieder als Exkrement ausgeschieden werden.

Zu größerer Darstellung auf Grafik klicken - Weitere Details siehe Quellenangabe

 

Weitere Informationen:

Kombination mehrerer Bilder

Engl. merging of images, franz. combinaison d'images; nach DIN 18716 ein "Vorgang, durch den verschiedene, geometrisch mit hoher Genauigkeit identische Bilder zusammengeführt werden, um ein neues Bild zu erzeugen". Die Definition ist verbunden mit der Anmerkung "Als wichtigste Verfahren dieser Art sind zu nennen:

  • das Multitemporalverfahren, bei dem zu verschiedenen Zeiten aufgenommene Daten miteinander kombiniert werden, z. B. um bei der Klassifizierung auch von der zeitlichen Veränderung von Oberflächen Gebrauch zu machen;
  • das Multisensoralverfahren, bei dem mit verschiedenen Sensoren aufgenommene Daten miteinander kombiniert werden, um den Informationsgehalt zu verbessern, z. B. durch Kombination hochauflösender Schwarzweißdaten mit geringer aufgelösten Farbinformationen;
  • das Ratioverfahren, bei dem verschiedene Datensätze, z. B. multispektrale Daten, durch Quotientenbildung oder andere arithmetische Operationen miteinander kombiniert und ein neues Bild als Ratiobild erzeugt wird."
Kompositbild

Ein Kompositbild besteht aus Pixeln, die alle aus mehreren sich überlagernden Einzelbildern ausgewählt wurden. Dazu werden diejenigen Pixel auswählt, die jeweils am ehesten bestimmten, im Voraus festgelegten Kriterien entsprechen. Zum Beispiel könnte ein Pixel mit dem höchsten NDVI ausgewählt werden, um verwaschene Pixel auszuschließen oder es werden Pixel in der Nähe des Nadirpunktes bevorzugt, um beobachtungsgeometrische Verzerrungen zu minimieren.

Ein farbiges Kompositbild wird durch die Kombination von drei (monochromen) Bildern in einem erzeugt. Jedem der drei Bilder einer Szene, die in unterschiedlichen Wellenbereichen aufgenommen sind, ist eine Grundfarbe zugeordnet: rot, grün oder blau (RGB). Je heller die Pixel sind, umso intensiver ist die Farbe. Wenn korrespondierende Pixel (gleiche Reihe und Spalte) von jedem Bild zusammengefügt werden, ergibt die resultierende Farbe einen Farbton, der das Verhältnis von RGB von jedem der ursprünglichen Bilder repräsentiert.

Kompositbild - Aufbau Kompositbild - Aufbau Quelle: Natural Resources Canada
Kompsat-1

Engl. Akronym für First Korean Multi-Purpose Satellite, syn. Arirang-1; seit 1999 im All befindlicher Fernerkundungssatellit mit Aufgaben zu Kartographie, Landnutzung, Raumplanung, Katastrophen- und Umweltmonitoring, Monitoring mariner Resourcen, Meeresverschmutzung, Aufspürung von Chlorophyll, Beobachtung der oberen Atmosphäre. Kompsat-1 umrundet die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit beträgt 98,5 min, der Wiederholzyklus 1050 Tage. Die Mission ist seit 2008 beendet.

Kompsat-2

Engl. Akronym für Second Korean Multi-Purpose Satellite 2, syn. Arirang-2; leichter, vom Korea Aerospace Research Institute KARI entwickelter und mit Unterstützung von Astrium gebauter Erdbeobachtungssatellit. Er liefert vor allem hoch aufgelöste Bilder der koreanischen Halbinsel mit dem Ziel, damit Karten und digitale Höhenmodelle zu erstellen. Kompsat-2 umrundet die Erde auf einem sonnensynchronen Orbit (Inklination 28°) in 685 km Höhe. Die Umlaufzeit beträgt 98,5 min, der Wiederholzyklus 1050 Tage. Der Start erfolgte im Juli 2006, noch 2016 ist der Satellit in Betrieb.

Okavango_River_lres

Zu größerer Darstellung auf Grafik klicken
Zu einem erläuternden Video hierklicken

Quelle: KARI / ESA
Der Okavango River

Dieses Bild zeigt das Grenzgebiet von Namibia und Angola aufgenommen vom Kompsat-2 am 3. Januar 2013. Der Okavango markiert hier die Grenze. Er entspringt in Angola und fließt in südöstlicher Richtung nach Botswana, wo er sich schließlich in ein großes Binnendelta verzweigt. Das Okavango-Delta ist ein beliebtes Touristenziel, da es einen großen reichtum an Wildtieren aufweist wie Elefanten, Büffel, Wildebeest, Giraffen, Löwen, Leoparden, Geparde, Krokodile, Hyänen, Nashörner und Paviane.
Die grünen Bereiche um den Fluss zeigen vegetationsbedeckte Flächen an. Der Fluss besitzt lokal ein große wirtschaftliche Bedeutung hinsichtlich Landwirtschaft und Tourismus, und der Fischfang ist eine wichtige Nahrungsquelle für einheimische Bevölkerung.
Wenn man in die obere linke Ecke hineienzoomt, erkennt man die weißen und andere helle Flecken als ländliche Siedlungen entlang einer Straße. Ebenso ist der für tropische und subtropische Gebiete Afrikas typische rote Boden gut erkennbar.
In der rechten unteren Ecke fallen große kreisförmige Agrarflächen (Karusselbewässerung, center pivot irrigation) auf, bis etwa 600 m im Durchmesser. Bei den weißen Linien, die die bewässerten Kreise durchqueren, handelt es sich vermutlich um Wege, die der Wartungszufahrt dienen.

Auch bei hochaufgelösten optischen Bildern ist es nicht immer einfach zu erkennen, was das Bild im detail zeigt. Beispielsweise scheint in den ockerfarbenen Agrarflächen mit traditioneller Nutzung ein durch Hecken geprägtes Muster vorzuliegen, das die Parzellen markiert. Ebenso sind in vielen der Felder kleine Flecken mit Vegetation zu finden. Dabei kann es sich um einzelne Bäume handeln oder um Pflanzenbewuchs auf großen Termitenhügeln.

 

Weitere Informationen: KOMPSAT-2 (eoPortal Directory)

Kompsat-3, -3A

Engl. Akronym für Korean Multi-Purpose Satellite 3, syn. Arirang-3; der Satellit hat einen ähnlichen Aufbau wie KOMPSat-2; er wurde am 17. Mai 2012 (18. Mai nach Ortszeit) mit einer japanischen H-IIA-Trägerrakete vom Tanegashima Space Center gestartet. Er fliegt auf einem sonnensynchronen Orbit in 675 km Höhe. Seine Bodenauflösung im Pan-Bereich beträgt 0,7 m, im RGB- und NIR-Bereich 2,8 m.

KOMPSAT-3 ist ein Erdbeobachtungssatellit mit hochauflösendem optischen Sensor, mit der Aufgabe die Datenkontinuität der beiden Vorgängersatelliten zu gewährleisten und den südkoreanischen Bedarf an Bildmaterial in den Bereichen GIS und Umwelt-, Landwirtschafts-, Katastrophen- und Meeresmonitoring zu decken.

Die Schwestermission KOMPSAT-3A ist Koreas erste Erdbeobachtungsmission mit zwei verschiedenartigen bildgebenden Sensoren, einer Multispektralkamera und einer Infrarotkamera (Monitoring von Waldbränden und von Vulkanausbrüchen). Der Satellit wurde am 26. März 2015 vom Kosmodrom Yasny mit einer Dnepr-Startrakete aus gestartet. Er fliegt auf einem sonnensynchronen Orbit in 528 km Höhe.
Die Aufgaben sind weitgehend identisch mit denen von KompSat-3. Die Bodenauflösung beträgt 0,55 m im panchromatischen Bereich, 2 m im Multispektralbereich, im Infrarot 5,5 m (Bodenspur 12 km).

Weitere Informationen:

Kompsat-5

Engl. Akronym für Korean Multi-Purpose Satellite 5, syn. Arirang-5; Kompsat-5 ist mit Radar-(X-Band SAR) statt optischer Abbildungstechnik ausgerüstet. Der Start fand am 22. August 2013 im Kosmodrom Jasny (Dombarovsky) statt. Der Satellit umkreist die Erde in 550 km Höhe auf einer sonnensynchronen Umlaufbahn.

Das Hauptziel der Mission ist die Entwicklung und der Betrieb eines Satellitensystems mit SAR (Synthetic Aperture Radar) um Bilder für Anwendungen im Geoinformationsbereich (GIS) zu erhalten. Ozenamonitoring, Landmanagement, Katastrophenstrophenmonitoring und Umweltüberwachung gehören zu den Anwendungsfeldern. Die Bilder haben im High Resolution-Modus eine Auflösung von 1 m (5 x 5 km Bodenspur), im Standardmodus von 3 m (20 x 30 km Bodenspur) und im Wide Swath-Modus von 20 m (100 km breite Bodenspur).

Der zweite Aufgabenbereich liegt in der Erzeugung von Sondierungsprofilen der Atmosphäre.

Kompsat-6 soll ab 2019 als Nachfolger Kompsat-5 mit deutlich verbesserten Fähigkeiten ersetzen. Kompsat-6 wird in verschiedenen Modi (Spotlight, Stripmap und ScanSAR) und zwei Polarisationen betrieben werden können und erreicht Auflösungen besser als einen Meter. Die dann eingesetzte so genannte Phased Array SAR-Technologie von Airbus Defence and Space ist weltweit vor allem durch die erfolgreichen europäischen Erdbeobachtungsmissionen ERS-1/-2, Envisat und MetOp und die Missionen der in Immenstaad entstandenen Radarsatelliten TerraSAR-X und TanDEM-X bekannt.

Weitere Informationen:

Kondensstreifen

Durch Abgase von Flugzeugen hervorgerufene wolkenartige, gelegentlich den ganzen Himmel überziehende Streifen in großer Höhe (Mitteleuropa: Winter >8 km, Sommer >10 km). Der Hauptfaktor für ihre Entstehung ist die Abkühlung der bei der Kraftstoffverbrennung freigesetzten Abgase, die einen hohen Wasseranteil enthalten und zusätzlich Kondensationskerne liefern. Der Wasserdampf kondensiert zuerst zu Wolkentropfen, die dann sehr schnell zu Eiskristallen gefrieren oder direkt zu Eis sublimiert.

Kondensstreifen haben daher manchmal cumuliförmige Ansätze wie Cirrocumulus, oft jedoch glatte oder zerfasernde Ränder, die typisch für Eiswolken wie Cirrus bzw. Cirrostratus sind. Kondensstreifen können in Abhängigkeit von der Feuchtigkeit in der Flughöhe einige Minuten bis mehrere Stunden lang den Himmel überziehen, an einzelnen Tagen auch bis zu 10% der Himmelsfläche.

Die Langlebigkeit der Kondensstreifen, wird stark durch die Gegebenheiten der Atmosphäre und insbesondere deren Schichtungsstabilität beeinflusst. An erster Stelle steht die Temperatur, da bei etwa -40 °C eine obere Grenze für die Herausbildung von Kondensstreifen besteht. Der genaue Wert hängt von zahlreichen Faktoren wie der Art des Treibstoffs oder der Luftfeuchte ab, wobei trockene Luft dazu führt, dass sich die Kondensstreifen gar nicht erst ausbilden oder sich recht schnell wieder auflösen. Dies ist bei etwa 80 % der Kondensstreifen mit einer Lebensdauer von unter einer bis wenigen Minuten der Fall. Bei feuchter Luft kann diese hingegen mehrere Minuten bis Stunden betragen, was ein Anzeichen für eine Wetterverschlechterung ist.

Aus Kondensstreifen können sich gewöhnliche Cirruswolken bilden, deren Ursprung aus Kondensstreifen dann nicht erkennbar ist. Auch können die sonstigen Aerosolpartikel der Flugzeugabgase noch über Tage und vergleichsweise großräumig die Wolkenbildung verstärken.

Die künstlichen Kondensstreifen bedecken einen kleinen Teil des Himmels und reduzieren damit durch Reflexion an ihrer Oberseite tagsüber die Sonneneinstrahlung. Andererseits reduzieren sich durch die Reflexion der terrestrischen Ausstrahlung auch die natürliche Abkühlung der Erde, tragen also zur atmosphärischen Gegenstrahlung bei und beeinflussen damit die Albedo der Erdoberfläche. Zudem können sie auch die Kondensation natürlich vorhandenen Wasserdampfes stimulieren. Es wird daher vermutet, dass das Klima durch die Kondensstreifen des Flugverkehrs beeinflusst wird. Die Stärke dieses Effekts und seine Rolle in Bezug auf die globale Verdunkelung bzw. auch globale Erwärmung sind bisher noch weitestgehend unbekannt, es wird jedoch lokal ein Einfluss auf die Globalstrahlung von bis zu 2 W/m2 geschätzt.

Von großer Bedeutung sind auch chemischen-physikalischen Eigenschaften der Abgase, sowie die Höhe ihrer Freisetzung. Die Wirkung der hier freigesetzten Abgase ist eine gänzlich andere als am Boden, da die Atmosphärenchemie hier unter anderem aufgrund der selteneren Niederschläge und deren Auswaschungseffekten wesentlich empfindlicher auf äußere Einflüsse reagiert.

Da die Stratosphäre bzw. die obere Troposphäre auch zunehmend stärker in den Fokus der Klimaforschung gerät, wird in diesem Zusammenhang auch der Luftverschmutzung durch den Flugverkehr eine immer entscheidendere Rolle zuteil.

Weitere Informationen:

Kontinuierliche Daten

Engl. continuous data; normalerweise bezogen auf Rasterdaten, die Oberflächeneigenschaften wie z.B. Höhenwerte angeben. Die Daten können jeden positiven und negativen Wert mit beliebig vielen Zwischenwerten annehmen. Kontinuierliche Daten stehen dabei im Gegensatz zu diskreten (diskontinuierlichen) Daten, die keine Zwischenwerte haben.

Kontrast

Engl. contrast; allgemein die Differenz zwischen zwei Grauwerten, Verhältnis von hellem zu dunklem Bildpunkt, z.B. bei benachbarten Pixeln, oft auch bezogen auf die Summe der beiden betrachteten Grauwerte.

Koregistrierung

Engl. co-registration, franz. co-enregistrement; nach DIN 18716die "Herstellung einer räumlich eindeutigen Zuordnung zwischen den Bildkoordinaten abgebildeter Objekte in unterschiedlichen Datensätzen", verbunden mit der Anmerkung: "Das kann multispektrale, multitemporale oder multisensorale Bilddaten gleicher oder unterschiedlicher geometrischer Auflösung betreffen".

Kourou

500 km nördlich des Äquators gelegene Küstenstadt (5° 13' N) in Französisch-Guyana, bei der Frankreich 1964 ein Raketenabschussgelände (Centre Spatial Guyanais) aufbaute. Seit 1977 dient es nur noch dem Abschuß der Ariane Raketenserie, die von der ESA entwickelt und von Arianespace kommerziell betreut wird, sowie den modifizierten Sojus-Raketen und den neu entwickelten Vega-Launchern.

Unter Sicherheitsgesichtspunkten bietet Französisch-Guyana aufgrund seiner dünnen Besiedlung und der fehlenden Gefahr durch Wirbelstürme und Erdbeben große Vorteile. Dazu kommen Vorteile durch seine äquatornahe Lage; dadurch verleiht die Erdrotation einer von dort aus startenden Rakete einen Geschwindigkeitsbeitrag von gut 460 m/s (horizontal in Richtung Osten). So sind von diesem Standort aus Raketenstarts in einem Winkel 103° zu allen nützlichen Orbits möglich, von nordwärts gerichteten Starts bis -10,5° bis zu ostwärts gerichteten Starts bis + 93,5° (s. auch Bildtext). Am Äquator ist die Tangentialgeschwindigkeit am größten, weil der Abstand zu Erdachse am größten ist. Deswegen brauchen Raketen hier weniger Sprit, um die Erde hinter sich zu lassen - weil sie die Rotationsenergie kostenlos mit auf den Weg bekommen.
Zusätzlich zu seinen vielen europäischen Kunden übernimmt Kourou auch Startaufträge für industrielle Kunden aus den USA, Japan, Kanada, Indien und Brasilien.

Kourou - Geographische Lage Kourou - Geographische Lage Quelle: EUMETSAT Weltraumbahnhof Kourou Weltraumbahnhof Kourou Quelle: Americas

Aufgrund seiner geographischen Lage hat Kourou mehrere wichtige Vorteile für den Start von Satelliten. Sicherheitsgründe legen einen Verlauf der frühen Flugphase über dem Ozean nahe. Dies ist in Kourou in nördlicher Richtung für die polarumlaufenden Satelliten und östlicher Richtung für die geostationären Satelliten möglich. Besondere Vorteile bestehen für die geostationären, über dem Äquator zu platzierenden Satelliten. Ihr Abschuß in Richtung Osten wird durch die Erdumdrehung unterstützt (Schleudereffekt). Durch die äquatornahe Lage ist diese Unterstützung nahe an ihrem Optimum. Ein Start vom nur auf 5°3' N gelegenen Kourou ermöglicht ein direktes Erreichen der geostätionären Umlaufbahn und spart Treibstoff, der von einem polnäheren Startplatz zur Reduzierung der Bahnneigung nötig wäre. Der geringere Treibstoffverbrauch kommt der Verweildauer im All zugute.

 

Weitere Informationen:

Kriseninformationssystem (KIS)

Geographisches Informationssystem (GIS), welches sich speziell auf Fragestellungen in Krisengebieten bezieht. Das Informationssystem besteht aus Berichten, Luftbildern und Satellitenbildern, daraus abgeleiteten thematischen Karten und digitalisierten topographischen Karten sowie sozioökonomischen Daten wie Bevölkerungszahl, Anzahl zerstörter Häuser usw., die geographisch korrekt zugeordnet sind. Ein GIS erlaubt es, diese verschiedensten Datensätze zu verschneiden und mit einem Informationsgewinn zu visualisieren, damit eine effektive Unterstützung bei Entscheidungsprozessen entsteht. Ein solches KIS wurde bereits vom Space Application Institute (SAI) in Zusammenarbeit mit dem DFD zur Unterstützung des Wiederaufbaus in Kosovo erstellt.
Satellitenbilder können wertvolle Informationen für die Organisation und das Management verschiedenster humanitärer Einsätze in Krisensituationen oder im Katastrophenfall liefern. Oft ist dabei wichtig, dass die Information sehr rasch und mit hoher Genauigkeit bereitgestellt wird, wie z.B. im Falle einer Überschwemmung. Da die heutigen Erdbeobachtungssatelliten oft nicht für eine solche schnelle Reaktion ausgelegt sind, bedarf es einer guten Vorausplanung.

Satelliten-Beobachtungsmaßstäbe zur Erfassung einer Krise oder Katastrophe Satelliten-Beobachtungsmaßstäbe
zur Erfassung einer Krise oder Katastrophe

 

 

 

 

Quelle: DLR (R.o.)

Neben der Bereitstellung krisenrelevanter Informationen spielt auch deren schnelle Verfügbarkeit im betroffenen Gebiet eine wichtige Rolle. Für diesen Zweck entwickelt das DLR einen sogenannten Mobile Client, der den Krisenhelfern vor Ort den Zugriff auf eine zentrale Datenbank ermöglicht und umgekehrt auch aktuelle Lageberichte und im Krisengebiet erhobene Daten in das System einspeisen kann. Die Mobile Clients bestehen aus einem Notebook, einem GPS Empfänger, einer digitalen Kamera sowie einem Mobil-/Satellitentelefon und Internet für den Datentransfer.

Weitere Informationen:

Kryosphäre

Von 'kryos', altgriechisch für Kälte, Frost; mit den anderen Bestandteilen des Erdsystems in Wechselbeziehungen stehender Bereich, der gefrorenes Wasser in Gestalt von Schnee, dauerhaft gefrorenem Boden (Permafrost in periglazialen Gebieten), saisonal gefrorenem Boden, Fluss- und Seeeis, Meereis, Eiskappen und Gletschern umfasst. Obwohl ein wesentlicher Teil der Kryosphäre sich in den Polarregionen befindet, ist Schnee und Eis in allen geographischen Breiten und in ca. 100 Ländern anzutreffen.

Landeis bildet sich entweder direkt durch Gefrier- und Depositionsvorgänge oder aus Schnee, der im Laufe vieler Jahre unter dem Druck des ständig neu abgelagerten Schnees zu Firn umgewandelt wird. Durch weitere Kompaktion, die zur Zunahme der Dichte und zur Verringerung der Porenräume führt, bildet sich aus Firn schließlich Eis, das als sedimentäres Eis bezeichnet wird. Gletschereis besteht vorwiegend aus sedimentärem Eis.Im Ggegensatz zum sedimentären Eis enthält der für die periglazialen Räume der Erde typische Permafrost überwiegend sogenanntes magmatisches Eis, das durch Gefrier- und Depositionsprozesse z.B. im Untergrund entsteht.

Meereis bedeckt im Jahresmittel rund 6 % der Weltmeere. Im Gegensatz zum Landeis, das viele hunderttausend Jahre alt sein kann und große Mächtigkeit erreicht, ist das Meereis selten älter als ein bis sechs Jahre. Es schmilzt größtenteils im Sommer (Antarktis) oder treibt innerhalb weniger Jahre in wärmere Gebiete (Arktis). Meereis bildet große Eisschollen, und obwohl es selten dicker als drei bis sechs Meter wird, spielt es eine wichtige Rolle im Klimasystem der Erde.

Wissen um den Zustand der Kryosphäre ist wichtig für die Wetter- und Klimavorhersage, die Bestimmung und Vorhersage des Meeresspiegelanstiegs, die Verfügbarkeit von Süßwasserressourcen, für die Navigation, Fischerei, Rohstoffexploration und -förderung und viele weitere Bereichen. Fluktuationen in der Ausdehnung der Kryosphäre haben weitreichende sozioökonomische Folgen und Auswirkungen auf die Atmosphäre wie auch auf die Biosphäre. Verlässliche Daten aus globalem Monitoring ist Voraussetzung, um Fragen im Zusammenhang mit Klima und Kryosphäre im Erdsystem verstehen zu könen. Trotz der Bedeutung der Kryosphäre ist die Kryosphäre der Teil des Erdsystems, über den am wenigsten Daten vorliegen.

Zur Animation auf Grafik klicken (YouTube)

Grönlands Eisschichten in 3D

Dreidimensionale Ansicht des Alters und der Struktur des grönländisches Eisschildes

Zur Erzeugung dieser Darstellung benutzten Wissenschaftler die Daten von Radarmessungen, die sie während der NASA-Kampagne IceBridge und bei früheren, luftgestützten Kampagnen gewonnen haben. Die Radarstrahlen vermögen das Eis zu durchdringen.

Der Blick auf die tausende gefrorenen Schichten innerhalb des Eisschildes ist wie ein Blick zurück in die Erdgeschichte. Jede Schicht ist ein Klimazeugnis über die Zeit der beginnenden Zivilisation oder der letzten Eiszeit oder einer vergangenen Warmzeit, ähnlich der, in der wir aktuell leben. Quelle: NASA

 

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb. Die zweite Generation dieser Laser-Altimetermission (ICESat-2) wird voraussichtlich 2017 starten.

Seit wenigen Jahren hat das von der WMO geförderte Programm Global Cryosphere Watch (GCW) seine Arbeit aufgenommen, das als internationales Instrument zur Unterstützung aller wesentlichen in situ- und Fernerkundungsbeobachtungen bezüglich der Kryosphäre fungiert.

Weitere Informationen:

Kryosphäre und Fernerkundung

Gegenstand der Fernerkundung der Kryosphäre ist die Erfassung der Schnee- und Eisbedeckung von Land- und Wasserflächen hinsichtlich Flächengröße, Mächtigkeit, Eisbewegung, Massenbilanz, Wasseräquivalenz und deren zeitlichen und räumlichen Veränderungen mit Hilfe von flugzeug- oder satellitengestützten Fernerkundungsmethoden.
Noch immer gilt das Monitoring der Kryosphäre als unzureichend, auch wenn seit einigen Jahren die Satellitenfernerkundung einen Quantensprung bewirkt hat. Künftig sollen bisherige und neue Meereisparameter für einen längeren Zeitraum aus Satellitendaten zur Verbesserung von Vorhersage- und Klimamodellen bereitgestellt werden.

Die erste Version des europäischen Satelliten Cryosat für die Beobachtung der Kryosphäre wurde 2005 aufgrund eines Raketenversagens (Rockot) beim Start zerstört. Ein zweites Exemplar wurde 2010 gestartet. Der amerikanische ICESat ist seit 2003 im Orbit und war bis 2009 in Betrieb.

Digitale Terrainmodelle
Die digitale Analyse luftgestützter Stereodaten aus herkömmlichen Luftbildern oder Zeilensensoren erlaubt die automatische Generierung von digitalen Terrainmodellen (DTM, DGM) und die simultane Orthoprojektion der ursprünglichen Bilddaten. So erstellte DTM haben eine vertikale Genauigkeit im Bereich einiger Dezimeter bis Meter. Die hochgradige Automatisierung vieler Verarbeitungsschritte ermöglicht die Bearbeitung großer Geländeausschnitte. Die erhaltenen orthoprojizierten Bilddaten können zu multispektralen Klassifikationen herangezogen werden, aber auch der hochauflösenden, flächenhaften Messung des Gletscherfließens dienen.
Ganz neue Möglichkeiten zur Akquisition von DTM-Daten eröffnet das Laserscanning. Die resultierenden DTM haben eine horizontale Auflösung von wenigen Metern und eine vertikale Genauigkeit von wenigen Dezimetern.
Ähnlich wie bei den oben genannten passiven optischen Flugzeugsensoren kann heute Dank globaler Positionierungssysteme (GPS) und inertialer Navigationssysteme (INS) an Bord der Flugweg und die Sensororientierung direkt bestimmt werden. So wird die notwendige Bodeninformation zur Rekonstruktion der geometrischen Aufnahmeparameter (Passpunkte) auf ein Minimum reduziert. In der Gletscherbeobachtung von besonderer Bedeutung ist die Eigenschaft des Laserscanning, als aktiver Sensor auch (oder sogar besonders gut) über verschneitem Gelände zu funktionieren. Wegen fehlenden optischen Kontrasts sind solche Zonen die Problemfälle passiver optischer Verfahren. Laserscanning erlaubt so erstmals die wirklich flächendeckende Bestimmung von DTM über Gletschern bzw. entsprechender vertikaler Veränderungen. Die Intensitäten der Laserreflektionen ergeben ferner eine Bildinformation, die zwar in räumlicher und radiometrischer Auflösung nicht an Luftbilder oder Zeilensensoren herankommt, aber doch einen wertvollen Datensatz bei der Datenanalyse darstellen kann.
'Arbeitspferde' der weltraumgestützten Gletscherbeobachtung sind zweifellos die multispektralen Satellitensensoren wie zum Beispiel Landsat TM und ETM+, ASTER, IRS oder SPOT. Mit solchen Sensoren können große Gebiete mit einer Bodenauflösung von einigen Metern bis wenigen Dekametern regelmäßig beobachtet werden. Die multispektralen Daten ermöglichen eine weitgehende Automatisierung bei der Extraktion von Eis- und Schneeflächen. Stereosensoren wie ASTER erlauben sogar die simultane automatische Extraktion von DTM mit einer Auflösung und vertikalen Genauigkeit von einigen zehn Metern. Gerade bei der Analyse von hochalpinen glazialen Prozessen, die ja häufig von der Reliefenergie regiert werden, ist die Verfügbarkeit von DTM außerordentlich wichtig. Mit Sensoren wie denen von IKONOS und QuickBird, die räumliche Auflösungen im Meter- und Submeterbereich besitzen, verschwimmen die Unterschiede zwischen optischer luft- und weltraumgestützter Fernerkundung zunehmend.
Mit ähnlicher bis leicht besserer Genauigkeit als aus optischem Satellitenstereo werden großflächige DTM aus satelliten-gestütztem InSAR (Interferometric Synthetic Aperture Radar) erzeugt. Dabei werden bei räumlichen Auflösungen von einigen Metern vertikale Genauigkeiten von einigen Dezimetern erzielt. Dieses Mikrowellenverfahren ist besonders in Gebieten mit häufiger Wolkenbedeckung wegen seiner Fähigkeit zur Wolkendurchdringung den optischen Verfahren klar überlegen. Noch wenig erforscht ist die thematische Information, welche die reflektierten Mikrowellen über die Eis- und Schneeoberfläche enthalten. Aus elektromagnetischen Überlegungen heraus kann dabei aber zumindest langfristig von einem großen Potential ausgegangen werden.
Besonders hervorzuheben ist die Shuttle Radar Topography Mission (SRTM), die aufgrund einer Messkampagne im Februar 2000 für den Bereich zwischen 60° nördlicher und 54° südlicher Breite ein DTM mit 30 m Bodenauflösung und ca. 20 m horizontaler und vertikaler Genauigkeit geliefert hat.
Neben der DTM Akquisition erlaubt InSAR im differentiellen Modus (DInSAR) die Messung von kleinsten Geländeverschiebungen. Von einer Anzahl großer Gletscher (vor allem in höheren Breiten) konnten so Fließfelder oder zumindest typische Eisgeschwindigkeiten ermittelt werden. Dieses Verfahren ergänzt sich in vielerlei Hinsicht hervorragend mit der Bewegungsmessung aus wiederholten optischen Satellitenbildern mit Hilfe von image-matching-Verfahren.

Meereis
Die kontinuierliche und regelmäßige Beobachtung des Meereises auf globaler Skala ist nur mit satellitengestützter Fernerkundung im Mikrowellenbereich des elektromagnetischen Spektrums möglich. Seit Anfang der 1970er Jahre erlauben derartige Satellitenmessungen die Bestimmung der Meereisfläche trotz Wolken und langer Polarnacht. Diese Daten gehen zusätzlich in die Bestimmung der Meereisdrift ein.
Im bisherigen Ergebnis wird in den letzten Jahren ein gravierender Rückgang der arktischen Meereisfläche um etwa 40% beobachtet, der einem starken Anstieg in der mittleren zentral-arktischen Lufttemperatur um fast 3 °C seit dem Ende der 1980er Jahre folgt. Messungen mittels satellitengestützter Altimetrie oder luftgestützter elektromagnetischer Induktion deuten auf eine starke Abnahme der Eisdicke hin, wenngleich die hohe Variabilität und die großen Ungenauigkeiten verlässliche Aussagen erschweren.
In Hinblick auf die bisherigen Beobachtungsgrößen Meereisausdehnung und Bedeckungsgrad (Konzentration) geht es hauptsächlich darum, bereits existierende Methoden zu verbessern und die Datensätze zu erweitern. Neue Verfahren sind erforderlich zur Bestimmung der Meereisdicke, der Oberflächeneigenschaften, des Deformationszustandes und der Schneeauflage. Diese Daten sollen Eingang finden in Meereisvorhersagemodelle und regionale und globale Klimamodelle. Im Einzelnen sollen folgende Untersuchungen durchgeführt werden:

  • Bestimmung der regionalen und zeitlichen Variabilität der Eisdicke und der Schneeauflage (Boden- und Hubschraubermessungen zur Validation von Satellitendaten, z.B. des CryoSat-2-Altimeters oder des 1,4 GHz Mikrowellenradiometers mit synthetischer Apertur der SMOS-Mission). Die ICESat-Mission der NASA misst das Freibord, also die aus dem Wasser ragende Höhe der Eisschollen mit dem Laseraltimeter (GLAS). ICESat kann allerdings nicht wie das Radaraltimetersystem des CryoSat-2 durch die Wolken hindurch messen. Aber erst dies erlaubt das nötige flächendeckende Monitoring in einem möglichst engen Zeitfenster.
  • Bestimmung der räumlichen und zeitlichen Muster der Oberflächenstruktur und des Anteils des deformierten Eises (Radardaten verschiedener Satelliten)
  • Ermittlung der räumlichen und zeitlichen Verteilung des Schmelzbeginns in Arktis und Antarktis
  • Abschätzung des Anteils des dünnen Eises, der für den Wärmeaustausch zwischen Ozean und Atmosphäre besonders wichtig ist
  • Bestimmung der Existenz und Ausdehnung von Festeis und Küstenpolynjen und ihres Einflusses auf Primärproduktion, Sedimentation und Küstenerosion,
  • Auswertung historischer Satellitendaten bezüglich mehrjähriger bis dekadischer Variationen der Meereiseigenschaften (insbesondere Wave-Mode-Daten von ERS 1/2, Radaraltimeterdaten u.a.)

Eine konventionelle Methode zur Bestimmung der Dicke des Packeises stammt noch aus der Zeit des Kalten Krieges. Amerikanische und sowjetische U-Boote unternahmen regelmäßig Patrouillenfahrten unter dem Eis des Nordpols. Um im Notfall schnell auftauchen zu können, wurde ständig die Eisdicke mithilfe des Sonars gemessen. Auf diese Weise wurde die Eisdicke des Nordpolarmeers im Lauf der Zeit kartiert und diese Daten werden mittlerweile auch den zivilen Wissenschaftlern zur Verfügung gestellt.

2013 Arctic Sea Ice Minimum

npseaice_am2_2013256


npseaice_am2_2013256_palette

Nach einem ungewöhnlich kühlen Sommer in den nördlichsten Breiten scheint das arktische Meereis seine jährliches Flächenminimum am 13. September 2013 erreicht zu haben. Die Analyse von Satellitendaten durch das National Snow and Ice Data Center (NSIDC) zeigte, dass das Meereis auf 5,10 Mio. km² zusammenschrumpfte. Die Fläche des Meereises ist in diesem Jahr wesentlich größer als beim letztjährigen Rekordminimum. Am 16. September 2012 hatte das arktische Meereis eine Ausdehnung von lediglich 3,41 Mio. km², was der geringste je von Satelliten beobachtete Wert war und nur etwa die Hälfte der durchschnittlichen Minimalwerte von 1891 - 2010 ausmachte.
Obwohl 2013 weniger Meereis schmolz als 2012, ist der diesjährige Betrag der sechstgeringste unter den Satellitenaufzeichnungen. Dieses Jahr setzt einen langfristigen Abwärtstrend von ca. 12 % Verlust an arktischem Meereis pro Dekade seit den späten 1970ern fort. Diese Abnahme hatte sich seit 2007 beschleunigt.

Die Karte links zeigt die Ausdehnung des arktischen Meereises am 13. September 2013. ‚Ausdehnung‘ (engl. extent) bezeichnet die gesamte Fläche in der die Eiskonznetration mindestens 15 % beträgt. Die Karte wurde zusammengestellt aus Beobachtungsdaten des Sensors Advanced Microwave Scanning Radiometer 2 (AMSR-2) auf dem Satelliten Global Change Observation Mission 1st–Water (“Shizuku”), welcher von der Raumfahrtagentur Japan Aerospace Exploration Agency (JAXA) betrieben wird. Die gelbe Linie in der Karte zeigt die mittlere Meereisausdehnung in den Septembermonaten der Jahre 1981 bis 2010.

Zu größerer Darstellung auf Grafik klicken.

Quelle: NASA Earth Observatory
 

Inlandeis
Die Radaraltimetrie ist derzeit die wichtigste Methode zur flächendeckenden Bilanzierung von Eismassen in Grönland und in weiten Bereichen der Antarktis (bis 82°S). Die verfügbaren Zeitreihen der Radaraltimetrie reichen von SEASAT (1978) über GEOSAT (1985-1989), ERS-1 (1991-1996) zu ERS-2 (1995-heute). Mit dem 2002 gestarteten Satelliten ENVISAT wurden die Messungen mit einer deutlich verbesserten Genauigkeit fortgesetzt. Schwerpunkte der Untersuchungen sind die Bestimmung der zeitlichen und räumlichen Variationen

  • der Oberflächentopographie,
  • der Eisbewegung (Massentransport)und damit der Massenbilanz und
  • der Oberflächenrauhigkeiten.

Mit dem Start der ICESat-Mission steht erstmalig ein Laseraltimeter zur Bestimmung der Oberflächenformen über Landeis zur Verfügung. Mit diesem Messverfahren können nunmehr auch kleinskalige Oberflächenformen in der Größenordnung von 100 m erfasst werden. In der Kombination mit konventionellen Radaraltimetern ergeben sich deutlich verbesserte Möglichkeiten zur Bestimmung von Eismassenbilanzänderungen der polaren Gebiete. Die bevorstehende CryoSat-2-Mission wird der Radaraltimetrie zukünftig wesentlich breitere Anwendungsfelder erschließen. Mit dem interferometrischen Radaraltimeter wird die Erfassung kleiner Höhenunterschiede auf kurzen räumlichen Skalen ermöglicht. Damit rückt erstmalig die Detektion von Eismassenänderungen auch auf kurzen zeitlichen Skalen in den Bereich des Möglichen. Die Kombination von in-situ-Messungen (ground truth von Schnee- und Eisparametern) mit den Fernerkundungsdaten der Radaraltimetrie schafft die Voraussetzungen für eine detaillierte Analyse der Veränderungen.
Die flächendeckende Messung der Eisbewegung von Land- und Schelfeis erfolgt durch die Überlagerung hochauflösender Satellitenbilder. Die zur Zeit genaueste Methode ist die interferometrische Anwendung von abbildenden Radarsystemen (Synthetisches Apertur Radar - SAR). Die hohe Genauigkeit ermöglicht die Ableitung von horizontalen und vertikalen Bewegungskomponenten. Besonders Erfolg versprechend ist die Analyse von Daten der "Eis-Phase" des ERS-1 (1991/92, 1993/94), sowie der ERS-1/2 Tandem-Mission (1995-1999). Gegenwärtig wird die SAR Interferometrie hauptsächlich auf Auslassgletscher der Eisschilde angewendet.
In Kombination mit flugzeuggetragenen Eisdickenmessungen und Annahmen über das vertikale Geschwindigkeitsprofil wird so die Messung des Massenflusses über die Aufsetzlinie bestimmt. Die genaue Positionsbestimmung der Aufsetzlinie ist ebenfalls mittels SAR Interferometrie möglich. Migration der Aufsetzlinie, Abschmelzen und Anfrieren an der Schelfeisunterseite sowie die Dynamik des Kalbens an der Schelfeiskante sind weitere wichtige Größen in der Massenbilanz des Eisschildes, zu deren Beobachtung die SAR- Interferometrie wichtige Beiträge leistet.
Neue Sensoren weisen gegenüber dem ERS-SAR wesentliche technische Modifikationen auf. Das ASAR (Advanced SAR) des ENVISAT ermöglicht, ähnlich dem Radarsat, die kontinuierliche Abbildungen von unterschiedlich großen Aufnahmestreifen mit variierbarer Auflösung und Polarisation. TerraSAR-X und TerraSAR-L sind für die Erkundung von Landeis wegen der kurzen Wiederholraten und der flexiblen Aufnahmegeometrie von besonderem Interesse. Das X-Band-SAR ermöglicht eine hochaufgelöste Kartierung und Signaturstudien, das L-Band-SAR verspricht zusätzlich durch hohe Kohärenz über längere Zeiträume neue Impulse für die interferometrische Analyse von Schnee und Eis. In naher Zukunft wird die Palette von abbildenden Radarsystemen bedeutend erweitert und wesentlich zur Analyse der Schneedecke und der Eisdynamik und ihrer Änderungen beitragen.

Gegenwärtige und künftige Satelliten und Sensoren
zu Schlüsselvariablen der KryosphäreSatellitenmissionen zur KryosphäreZu größerer Darstellung auf Tabelle klicken. - Quelle: IGOS (2007)

Weitere Informationen:

Ku-Band

Mikrowellenbereich zwischen 12,4 GHz und 18 GHz (1,7 - 2,4 cm; Angaben schwankend). Beispielsweise benutzt das Radaraltimeter auf den ERS-Satelliten einen Ku-Band-Sender mit 13,8 GHz, der senkrechte Mikrowellen abstrahlt und die Laufzeit des Echos misst. Daraus lassen sich Daten über Wellenhöhe, Wind, Meerespiegelhöhe, Gezeiten, Eisflächen und Geoidgestalt ableiten. Abb. siehe K-Band

kubische Konvulution

Engl. cubic convolution; Resampling, bei dem der neue Grauwert als lineare Kombination der Grauwerte der 16 nächsten Nachbarn des alten Rasters berechnet wird.

Kulmination

Punkt, an dem ein Satellit seine höchste Position erreicht.

kurzwellige Strahlung

Strahlung mit Wellenlängen, die kürzer als die des sichtbaren Lichts sind oder auch dieses noch mit umfassen. Zur kurzwelligen Strahlung gehört die ultraviolette Strahlung mit Wellenlängen von 315 nm* bis 380 nm (UV-A), 280 nm bis 315 nm (UV-B) und 100 nm bis 280 nm (UV-C). Röntgen- und Gammastrahlung besitzen noch kürzere Wellenlängen.
Die Sonne sendet überwiegend kurzwellige Strahlung mit einer Wellenlänge zwischen 10-7 m und 10-5 aus. Die maximale Intensität liegt bei 5 · 10-7 m im sichtbaren Spektralbereich (grün). Hier liegt auch die maximale Empfindlichkeit des menschlichen Auges.
________________________________
*1 nm ist 10-9 m oder 10 Å (Ångström)