Lexikon der Fernerkundung

Mapping

Transformationsprozess von Pixelkoordinaten in eine beliebige Kartenprojektion.

Mapping Our World

Dieses neue Online-Tool der NASA vereint 25 verschiedene thematische Kartenansichten unseres Planeten. Die 25 Darstellungen ergeben sich aus Informationen, die die amerikanische Weltraumagentur mit ihren aktuell (2013) 16 Erdbeobachtungsmissionen zusammenträgt. Gemeinsam ist diesen Darstellungen, dass Wissenschaftler mit ihrer Hilfe den steten Wandel auf unserer Erde sowie die Interaktionen der Teilbereiche des Systems Erde anschaulich vermitteln können.
Der Eingangsbildschirm dieses Werkzeugs zeigt zwei Halbkugeln, deren Flächen in einzelne Kacheln aufgelöst sind. In diesen sind Ausschnitte der kartographischen Umsetzungen von Satellitenbeobachtungen zu verschiedenen Umweltparametern (z.B. Vegetation/Chlorophyll Concentration, Sea Surface Temperature Anomaly, Radar Reflectivity, Stratospheric Ozone usw.) enthalten. Mittels Mouseover erhält man eine Legende und erste Informationen. Ein Klick auf die Kachel bietet dann weitere Details zum entsprechenden Datensatz, zur Satellitenmission und zusätzliche Informationen rund um die jeweilige Thematik.
Leider ist der dargestellte Fensterausschnitt für die Karten etwas klein geraten, die Möglichkeit zur Vollbilddarstellung fehlt.
Dennoch ist dieses neue interaktive Tool ist ein gelungener Appetitanreger für Neugierige. Es bietet einen barrierefreien Weg, wenn man sich einen Überblick verschaffen möchte über das was (amerikanische) Satellitenfernerkundung gegenwärtig leistet. Die nötigen Wegweiser zur Vertiefung werden mitgeliefert.
Ergänzend zum eigentlichen Tool wurden im Rahmen der NASA Earth Science Week 2013 Unterrichtsmaterialien bereitgestellt.

mapping_our_world_lres Startbildschirm des interaktiven Tools
'Mapping Our World'

In dieser Darstellung (Screenshot) sind beispielhaft die zu dem Thema 'Sea Surface Salinity' gehörenden Kacheln und eine Legende durch Mouseover hervorgehoben. Ein Klick auf eine der Kacheln bietet dann weitere Details zum entsprechenden Datensatz, zur Mission und zusätzliche Informationen um die jeweilige Thematik.

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA
 
Mars Express

Im Juni 2003 gestartete Marsmission der ESA. Mars Express trägt sieben Instrumente und bis zum Erreichen des Mars das Landemodul Beagle 2. Zu den Zielen der Mission gehören die Suche nach Wasser, Verständnis für den Verlust an Wasser und Atmosphäre, Erkenntnisse über die innere Struktur des Planeten und seine geologische Geschichte, Suche nach Zeichen vergangenen oder aktuellen Lebens, Kartierung des Planeten in 3D mit großer Auflösung.

Die Mars Express-Mission im Überblick
Der Name der Mission Mars Express erhielt sein Namen, weil er schneller gebaut werden sollte als irgendeine andere vergleichbare Planetenmission.
Das Landemodul Beagle 2 wurde nach dem Schiff benannt, auf dem Charles Darwin fuhr, als er seine Gedanken zur Evolution formulierte.
Hauptauftragnehmer Astrium, Toulouse (France) an der Spitze eines Konsortiums von 24 Firmen aus 15 europäischen Ländern und der USA
Startdatum 2. Juni 2003
Startrakete Sojuz/Fregat, gebaut von Starsem, dem europäisch-russischen Raketenkonsortium
Masse beim Start 1120 kg (einschließlich 113 kg der Nutzlast des Orbiters und 60 kg des Landemoduls)
Ursprünglich vorgesehene Aufgaben des Landemoduls
Beagle 2
  • Bestimmung der Geologie sowie der mineralogischen und chemischen Zusammensetzung der Landeregion
  • Suche nach Spuren von Leben (Exobiologie)
  • Studium von Wetter und Klima
Instrumente auf dem Orbiter High Resolution Stereo Camera (HRSC); Energetic Neutral Atoms Analyser (ASPERA); Planetary Fourier Spectrometer (PFS); Visible and Infra Red Mineralogical Mapping Spectrometer (OMEGA); Sub-Surface Sounding Radar Altimeter (MARSIS); Mars Radio Science Experiment (MaRS); Ultraviolet and Infrared Atmospheric Spectrometer (SPICAM)
Die HRSC wurde im Berliner Institut für Planetenforschung des DLR unter FU-Professor Gerhard Neukum entwickelt und bei ASTRIUM in Friedrichshafen gebaut.
Aufgaben des Orbiters
  • Abbildung der gesamten Marsoberfläche mit hoher Auflösung (10 m/Pixel) und von ausgewählten Gebieten mit sehr hoher Auflösung (2 m/Pixel)
  • Herstellung einer Karte der mineralischen Beschaffenheit der Oberfläche mit einer 100 m Auflösung
  • Kartierung der Zusammensetzung der Atmosphäre und Erkundung ihrer globalen Zirkulation
  • Bestimmung des Untergrunds bis zu einer Tiefe von einigen Kilometern
  • Bestimmung der Auswirkungen der Atmosphäre auf die Oberfläche
  • Bestimmung der Inaktion zwischen Atmosphäre und Sonnenwind
Operationelle Leitung European Space Operations Centre (ESOC), Darmstadt, Germany
Bodenstationen ESA Bodenstation in New Norcia, bei Perth, Australia. Vorgesehene Operationsdauer: vorhandene Geldmittel für ein Marsjahr (687 Erdtage). Das Raumfahrzeug ist ausgelegt für ein weiteres Marsjahr in Betrieb.
Ankunft am Mars Dezember 2003
Management des Landemoduls University of Leicester, UK

Mars Express führt nach Erreichen des Mars im Dezember 2003 als Orbiter seine Fernerkundungsaufgaben durch. Das Landemodul Beagle2, kurz vor Erreichen des Mars von Mars Express zur eigenständigen Landung abgestoßen, wurde im Februar 2004 offiziell als verloren erklärt, nachdem bis dahin jegliche Kontaktaufnahme fehlgeschlagen war. Aber nach über elf Jahren, in denen die Sonde als verschollen galt, konnte im Januar 2015 auf Aufnahmen des Mars-Erkundungssatelliten Mars Reconnaissance Orbiter (MRO) vom 29. Juni 2014 die Landestelle von Beagle 2 schließlich an der Position 11,5° Nord und 90,4° Ost ausfindig gemacht werden. Die Aufnahmen des NASA-Satelliten zeigen die offensichtlich weich gelandete Sonde, deren Solarpanele zumindest zum Teil geöffnet sind. In der näheren Umgebung konnten auch der Fallschirm und eine abgeworfene Abdeckung identifiziert werden.
Die Primärmission des Orbiters war beginnend mit Juni 2004 auf ein Marsjahr (etwa 23 Erdmonate) ausgelegt. Sie wurde zwischenzeitlich bereits mehrfach verlängert, zuletzt bis Ende 2018.

  Mars Express Orbiter an der Spitze der letzten Stufe (Fregat) der Sojuz-Startrakete      
 

Der Mars Express Orbiter an der Spitze der letzten Stufe (Fregat) der Sojuz-Startrakete.

Fregat lieferte den Hauptteil der Geschwindigkeit, die nötig war, Mars Express auf seine Reise zu schicken. Für Orbitkorrekturen nach dem Abstoßen von Fregat hat der Orbiter einen bordeigenen Antrieb.

 

Mars Express im Marsorbit mit den 20 m langen Antennen des MARSIS-Radars.

Das MARSIS-Radar wurde speziell dafür konstruiert, nach Wasser und Eis im Marsboden zu suchen. Eine zweite Aufgabe ist die Sondierung der Ionosphäre.

 

 

Dieses Bild eines brüchigen Kraters in der Nähe von Valles Marineris auf dem Mars wurde von der High Resolution Stereo Camera (HRSC) an Bord von Mars Express aufgenommen.

Zu größerer Darstellung auf Grafiken klicken

Quelle: ESA
 

Weitere Informationen:

MAS

Engl. Akronym für Millimeter-Wave Atmospheric Sounder; ein passives, die Erdatmosphäre horizont-sondierendes Mikrowellenspektrometer. Er misst die thermische Millimeterwellen-Strahlung bei 61, 62, 63, 183, 184 und 204 GHz im Höhenbereich zwischen 10 und 100 km. MAS ist Teil der ATLAS-Nutzlasten des Space Shuttles und wurde im Rahmen der Missionen ATLAS-1 (1992), ATLAS-2 (1993) und ATLAS-3 (1994) eingesetzt.

Maschinelles Sehen

Engl. computer vision; die rechnerische Analyse von einem oder mehreren Bildern oder einer Bildfolge. Über die Analyse erkennt man wichtige abgebildete Objekte und bestimmt deren Position und Raumlage in unserer dreidimensionalen Umgebung. Sie liefert eine ausreichend detaillierte symbolische Beschreibung der Objekte. Maschinelles Sehen umfasst folgende Verfahren:

  • Bildverarbeitung (image processing) - die Veränderung von Bildern durch Computer. Viele Operationen dienen dazu, um Störungen zu besseitigen, das Aussehen zu verändern, Objektmerkmale zu extrahieren und zu klassifizieren, die Daten zur Speicherung und Übertragung zu komprimieren u.w.
  • Mustererkennung (pattern recognition) - die Identifizierung von Objekten aufgrund ihrer Merkmale.
  • Merkmalsextraktion (feature extraction) - jener Teil der Bildverarbeitung, in dem Messungen verarbeitet werden, um dadurch Bereiche und Objekte sowie geeignete Informationen aus Bildern abzuleiten.
  • Künstliche Intelligenz (KI; artificial intelligence) - interdisziplinäres Forschungsgebiet, das Problemlösungen anstrebt, so wie ein Mensch eine bestimmte Aufgabe auf intelligente Weise löst. Da Sehen eine komplexe Wahrnehmungsaufgabe ist, stellt es ein zentrales Problem der KI dar. Wichtige Teile sind Beschreibung, Wiederfinden und Erweiterung des Wissens.
Matrix
  1. Ein System von Elementen, bei dem die Elemente üblicherweise in m Zeilen und n Spalten angeordnet werden. Die Elemente können Zahlen, Größen, Mengen, Funktionen usw. sein.
  2. Raster, dessen Bildpunkte Zeilen und Spalten zugeordnet werden können.

Digitale Fernerkundungsdaten bestehen aus solchen zweidimensionalen Anordnungen von Zahlenwerten (Digital Numbers, DN). Abhängig von der Wahl des Datentyps können die DN einer Matrix Werte aus einem unterschiedlichen Bereich annehmen. Zur Visualisierung einer Matrix als Bild werden die DN in Grauwert-Abstufungen umgewandelt. Im Fall von 8-bit-Daten wird ein Pixel mit DN = 0 schwarz dargestellt. DN = 255 entspricht weiß, DN = 128 entspricht 50% grau.

Matrix Grauwerte-Matrix

Digitale Fernerkundungsdaten bestehen aus einer 2-dimensionalen Anordnung von Zahlenwerten (Digital Numbers, Abk. DN). Diese 2-D Anordnungen von Zahlen werden als Matrizen (Sg. Matrix) bezeichnet.
Zur Visualisierung einer Matrix als Bild werden die DN in Grauwert-Abstufungen umgewandelt. Im Fall von 8-bit-Daten wird ein Pixel mit folgenden Werten dargestellt: DN = 0 (schwarz), DN = 255 (weiß), DN = 128 (50% grau).

Zu größerer Darstellung bitte anklicken

Quelle: Geovlex
 
Maximum-Likelihood-Klassifizierung

Engl. maximum likelihood classifier; in der Fernerkundung eine überwachte Klassifizierung nach der Methode der größten Wahrscheinlichkeit. Dabei müssen in einem ersten Schritt Trainingsgebiete für jede zu klassifizierende Klasse erhoben werden. Es ist zu beachten, dass diese Gebiete homogen sind und keine anderen Klassen vorkommen, weil dadurch die Statistiken verfälscht würden. Für jedes dieser Gebiete werden im Folgenden statistische Werte (Mittelwert und Standardabweichung) ermittelt. Diese werden in der nachfolgenden Klassifizierung als Maß für die Zuweisung eines Pixels zu einer bestimmten Klasse verwendet (vgl. Abb.).

Eine statistische Entscheidungsregel prüft die Wahrscheinlichkeitsdichte, mit der ein Pixel zu den Klassen mit der vorgegebenen A-priori-Wahrscheinlichkeit gehört und weist es der Klasse mit dem höchsten Wert zu.
Im Gegensatz zur Minimaldistanz-Klassifikation wird hier nicht mit mehrdimensional isotroper Distanz operiert, sondern es geht auch die multivariate Streuungsinformation als Richtungsdifferenzierung im Merkmalsraum mit ein.
Während der Rechenaufwand dieser Technik hoch ist, sind auch die Klassifikationsergebnisse in der Regel denen alternativer Ansätze überlegen. Zusätzlich besteht auch noch die Möglichkeit statistischer Qualitätsaussage hinsichtlich der Klassifikation jedes einzelnen Pixels aufgrund der bekannten Verteilungseigenschaften, die aus der mehrdimensionalen Stichprobe der Trainingsgebiete geschätzt werden.

Somit können bewußt Qualitätsentscheidungen getroffen werden, wie etwa Pixel mit weniger als 95% Sicherheit als "nicht klassifiziert" zu identifizieren. Ebenso können auch a-priori Wahrscheinlichkeiten etwa auf Grund des vorab bekannten Anteiles einzelner Klassen innerhalb des Untersuchungsgebietes festgelegt werden.
Die Maximum-Likelihood-Methode ist die genaueste Klassifizierung, da sie die meisten Variablen berücksichtigt.

Maximum-Likelihood-Klassifikation

Zuweisung der Pixels P zur Klasse B, aufgrund der höheren Wahrscheinlichkeit

Für zwei Klassen A und B sind in der Abb. die Werte aller in den Trainingsgebieten vorkommenden Pixelwerte aufgetragen (x-Achse entspricht Band 1 und y-Achse entspricht Band 2). Diese Klassen bilden eine Clusterwolke. Die um diese Wolken gezeichneten Ellipsen stellen die berechneten statistischen Werte dar. Den Mittelpunkt der Ellipse bildet der Mittelwert und die Größe der Ellipse hängt von der Standardabweichung der Clusterwolke ab. Aufgezeichnet sind die Ellipsen für die ein- (a1, b1), zwei- (a2, b2) und dreifache (a3, b3) Standardabweichung. Ein zu klassifizierender Punkt P mit dem Wert Px in Band 1 und Wert Py in Band 2 wird nun der Klasse zugewiesen, zu der der Abstand in Abhängigkeit von der Standardabweichung am geringsten ist. Der Punkt liegt innerhalb der dreifachen Standardabweichung der Klasse B und außerhalb der dreifachen Standardabweichung der Klasse A, somit wird dieser Pixel der Klasse B zugewiesen.

Zu größerer Darstellung bitte anklicken

Quelle: LFULG
 

Weitere Informationen:

MaxWave

Inzwischen abgeschlossenes EU-Projekt zur Erforschung von ozeanischen Riesenwellen.

Weitere Informationen:

Median

Engl. median; der Wert in einer Verteilung, für den genausoviele Mitglieder der Verteilung unterhalb wie oberhalb dieses Wertes liegen, z.B. für die Verteilung der Grauwerte eines Bildes.

Medspiration

Das Medspiration Projekt ist eine europäische Initiative zur Zusammenführung von Daten über die Meeresoberflächentemperatur (SST, Sea Surface Temperature), die unabhängig voneinander mit verschiedenen Satellitensystemen mehrerer Raumfahrtagenturen gewonnen werden. Die auf diese Weise neu geschaffenen Datenprodukte repräsentieren die bestmögliche Wiedergabe der SST in Echtzeit und können beispielsweise in Ozeanvorhersagemodelle eingegeben werden. Gebietsmäßig decken die Daten den Atlantik mit benachbarten Meeresgebieten und das Mittelmeer ab. Medspiration ist ein Beitrag zum weltweiten GODAE/GHRSST-PP-Projekt.
Perspektivisch ist Medspiration als Vorläuferprojekt für meeresbezogene Dienste innerhalb von GMES zu sehen.

Weitere Informationen:

Meeresfarbe

s. Ozeanfarbe

Meeresgeodäsie

Objektgerichtetes, auf Meeresgebiete der Erde bezogenes Aufgabenfeld der Geodäsie. Ihre Ziele sind die Vermessung und Abbildung von Meeresoberfläche und Parametern des Erdschwerefeldes (Äquipotentialflächen) sowie deren zeitlichen, z.B. gezeitenbedingten, Änderungen. Höhenunterschiede zwischen Meeresoberfläche und einer mittleren Äquipotentialfläche sind das Oberflächenrelief, oft ungenau als Meerestopographie (Topographie: Ortsbeschreibung) bezeichnet. Die Messungen erfolgen heute fast ausschließlich mittels künstlicher Erdsatelliten (Altimetrie). Es bestehen enge Verbindungen zur Ozeanographie.
Ortung und Führung von Fahrzeugen auf den Meeren gehören nicht zur Meeresgeodäsie, sondern zur Navigation und Nautik; Seekarten dafür schafft das Seevermessungswesen.

Weitere Informationen: Der Meeresspiegel – ansteigend und fast im Lot (Wolfgang Bosch, Deutsches Geodätisches Forschungsinstitut 2008)

Meeresgezeiten

Gezeitenwirkungen auf die Wassermassen der Ozeane. Ähnlich wie bei Erdgezeiten dargestellt, wird die Meeresoberfläche vom Gezeitenpo-tential durch Sonne und Mond angeregt; die beobachtbaren Meeresgezeiten sind jedoch entscheidend durch die Kontinente und Küsten beeinflußt, die den die Erde umrundenden Flutberg aufstauen. Dies kann in Buchten zu einem Gezeitenhub bis zu 17 m führen und daher für Gezeitenkraftwerke ausgenutzt werden. Andererseits gibt es im Ozean singuläre Punkte ohne Gezeitenhub. Stehen Sonne, Mond und Erde während der Zeit von Vollmond und Neumond auf einer Geraden, so führt dies zur (verstärkten) Springtide, stehen sie bei Halbmond im rechten Winkel zueinander, so führt dies zur (verminderten) Nipptide. Die Meeresgezeitenhöhen werden seit langem durch Pegel registriert. Sie werden u.a. auch zur Reduktion von Satellitenaltimetermessungen benötigt. Die Gezeitenwassermassen verursachen selbst ein sekundäres Gezeitenpotential und tragen durch ihre Auflast zur Deformation der Erdkruste bei (Erdgezeiten). Wegen der Bedeutung für die
Schifffahrt werden die Meeresgezeiten nach dafür angepaßten Gezeitenmodellen in Deutschland vom Bundesamt für Seeschiffahrt und Hydrographie vorausberechnet.

Meereshöhe
  1. Engl. sea height; in der Altimetrie die Höhe des Meeresspiegels über einem mittleren Erdellipsoid. Begrifflich zu trennen von der orthometrischen Höhe, die ebenfalls als Meereshöhe (Höhe über dem Meeresniveau) bezeichnet wird (s.u.).
  2. Engl. orthometric height; Höhe über dem Meeresniveau, besser mit Orthometrischer Höhe zu bezeichnen.
Meeresoberflächentemperatur (SST)

Engl. sea surface temperature (SST); vereinfacht die Temperatur, die über die von der Meeresoberfläche emittierte Strahlung gemessen wird. Der Begriff ist häufig noch vage verwendet, z.T. widersprüchlich definiert. Die Temperatur bewegt sich von ungefähr -2 °C in den Polarregionen bis zu 32 °C in den Tropen.
Da Meeresströmungen charakteristische Temperaturen besitzen, sind die SST der bevorzugte Datentyp für die Beobachtung der Meereszirkulation. Die Meeresoberflächentemperatur hat einen großen Einfluss auf den Austausch von Wärme, Feuchtigkeit, Impuls und Gasen zwischen Atmosphäre und Ozean. Satellitensensoren sind gut geeignet, die SST zu messen, da sie aus einer synoptischen Perspektive regelmäßig Daten liefern, die eine hohe räumliche und radiometrische Auflösung besitzen.
Die thermische Vertikalstruktur der obersten 10 m der Ozeane kann sehr komplex und höchst variabel sein. Der SST-Wert kann deutlich variieren, und zwar in Abhängigkeit von der vertikalen Position der Messung, des eingesetzten Sensortyps (unterschiedliche Eindringtiefen), der Tageszeit vor Ort und der lokalen Verhältnisse an der Schnittfläche Ozean/Atmosphäre. Solche Faktoren machen die Vermengung von verschiedenen Satellitendatensätzen und in situ-Datensätzen schwierig.

SST des europäischen Nordmeers in °C SST des europäischen Nordmeers in °C


Die Animation ist mit Daten der amerikanischen
Wettersatelliten aus der NOAA-Serie erstellt.

Zeitraum: Januar 2003 - Juni 2004



Zum Starten der Animation auf Grafik klicken


Quelle: BSH

Innerhalb der oberen Wasserschicht unterscheidet man folgende Partien:

  • Die sog. skin SST (SSTskin), ein Temperaturwert, der innerhalb einer dünnen Wasserschicht von ca. 50 cm Mächtigkeit im Grenzbe-reich zwischen Ozean und Atmosphäre ermittelt wird. Die Schicht ist charakterisiert durch einen starken Temperaturgradienten als Folge des Wärmeaustausches zwischen Ozean und Atmosphäre. Folglich variiert SSTskin innerhalb der Schicht mit der Tiefe.
  • Die sog. interface SST (SSTint), die Temperatur einer unendlich dünnen Schicht an der direkten Kontaktzone zwischen Ozean und Atmosphäre. Diese Schicht befindet sich an der Obergrenze der oben genannten Schicht mit SSTskin, sie kann mit aktueller Technik nicht gemessen werden.
  • Die sog. sub-skin SST (SSTsub-skin), ein Temperaturwert, der an der Unterseite der SSTskin-Schicht auftritt. Er ändert sich im Zeitskalenbereich von Minuten und kann durch die Sonneneinstrahlung beinflusst werden.
  • Die sog. subsurface SST (SSTdepth), herkömmlich als bulk SST bezeichnet, ein Temperaturwert in einer jeweils anzugebenden Tiefe (z.B. SST5m) unterhalb der SSTsub-skin-Schicht. Er kann stark von der lokalen Sonneneinstrahlung beeinflusst werden und ändert sich im Bereich von Stunden.
newerSSTdef Die hypothetischen Vertikalprofile für die Temperatur der oberen 10 m an der Ozeanoberfläche

Rote Linie:
Zustand unter Starkwindbedingungen oder bei Nacht

Schwarze Linie:
Zustand bei schwachem Wind bei Tag


Zu größerer Darstellung auf Grafik klicken
Quelle: GHRSST (R.o.)

 

Zu den Sensoren, die satellitengestützt die Meeresoberflächentemperatur messen, gehören AATSR, AMSR, ATSR, AVHRR, SEVIRI, TMI. Sie unterscheiden sich hinsichtlich ihrer geometrischen und temporalen Auflösung, sowie ihrer Allwetterfähigkeit.
Infrarotsensoren wie AVHRR besitzen nicht die Fähigkeit durch Wolken zu 'sehen'. Der TMI auf NASAs Tropical Rainfall Measuring Mission Satellit, war das erste gut kalibrierte Mikrowellenradiometer, das durch die Wolkendecke hindurch genaue SST-Messergebnisse erzielte. NASDAs AMSR-E auf dem NASA-Satelliten AQUA war dann das erste Mikrowellenradiometer, das diese Fähigkeit weltweit einsetzte.

Zwischen der Meeresoberflächentemperatur und der Meeresoberflächentopographie besteht keine direkte Beziehung, die es erlauben würde, den einen Wert in den anderen zu konvertieren. Obwohl eine Änderung der Meeresoberflächentemperatur eine Änderung der Meeresoberflächentopographie verursacht und dies nährungsweise berechnet werden kann, so kann doch die effektive Topographie nicht aus der Temperatur alleine abgeleitet werden. Die Meeresoberflächentemperatur repräsentiert die Temperatur in den oberen Zentimetern der Wassersäule, und die Temperatur kann sich mit zunehmender Tiefe dramatisch ändern. Hingegen bezieht die über die Altimetrie ermittelte Meeresoberflächenhöhe indirekt die Temperaturen aller Tiefen ein und zusätzlich andere Parameter wie Salinität und Meeresströmungen.

Weitere Informationen:

Meeresspiegel

Syn. Meeresoberfläche; Grenzfläche zwischen Atmosphäre und Hydrosphäre. Der aktuelle Meeresspiegel unterliegt zahlreichen, räumlich und zeitlich stark variierenden Einflüssen. Oberflächenwellen werden durch Schwankungen des Wind- und Luftdruckfeldes angeregt. Der Meeresspiegel steigt und fällt vor allem an den Küsten durch die Anziehungskräfte von Sonne und Mond im etwa halb- und ganztägigen Rhythmus. Der Meeresspiegel tendiert dazu, Luftdruckschwankungen auszugleichen (inverser Barometereffekt). Schließlich ergeben sich Wasserstandsänderungen durch Verlagerung von Meeresströmungen und Dichteunterschiede des Wassers, die durch Veränderungen von Temperatur- und Salzgehalt verursacht werden. Sekundärkräfte wie die Corioliskraft, Reibung und Reflexion beeinflussen ebenfalls den Meeresspiegel.

Jason-1 Measurement System Jason-1 Messsystem


Jason-1 war die erste Nachfolgemission auf die hoch erfolgreiche Mission TOPEX/Poseidon.
Die Nutzlast dieser zweiten Gemeinschaftsmission von NASA und CNES wurde auf einem französischen PROTEUS-Satellitenbus installiert und mit einer amerikanischen Delta II-Rakete von der Vandenburg Air Force Base in Kalifornien ins All geschossen. Wie bei TOPEX/Poseidon enthielt die Nutzlast sowohl amerikanische wie auch französische Instrumente. Die Altimeterdaten von Jason- 1 sind Teil einer ganzen Reihe von Daten, die von anderen Ozeanmissionen stammen. Die GRACE-Mission setzt zwei Satelliten ein, um das Schwerefeld der Erde (Massenverteilung) hochgenau zu vermessen, und die Scatterometer-Mission von QuikSCAT hat fast 11 Jahre Daten zu den Winden an der Ozeanoberfläche geliefert.

Zu größerer Darstellung auf Grafik klicken
Quelle: NASA JPL

 

Der mittlere Meeresspiegel ist die über längere Zeiträume gemittelte Meeresoberfläche. Sie richtet sich in erster Näherung nach dem Erdschwerefeld, d.h. senkrecht zur Lotrichtung aus, fällt jedoch nicht völlig mit einer Äquipotentialfläche des Erdschwerefeldes, bzw. dem Geoid zusammen. Durch stationäre Strömungssysteme bildet sich zusätzlich eine permanente Meerestopographie von 1-2 m aus. Schließlich unterliegt der mittlere Meeresspiegel einer ständigen Deformation von ca. 0,1 - 0,2 m durch die permanente Tide von Sonne und Mond. Der mittlere Meeresspiegel wird beschrieben durch Meereshöhen (sea heights), die als Abweichungen von einem mittleren Erdellipsoid ähnliche Beträge besitzen wie die Geoidundulationen. Die genaue Kartierung des Mittleren Meeresspiegels ist durch Satellitenaltimetrie möglich. Durch den dominanten Einfluss des Erdschwerefeldes und die unregelmäßige Verteilung der Erdmassen bilden sich im mittleren Meeresspiegel tektonisch-morphologische Strukturen wie Tiefseerinnen, Bruchzonen und unterseeische Berge ab.
Die Schwerkraft ist mit Abstand der wichtigste Einflussfaktor auf die Meereshöhe, er kann bis zu 150 m betragen. Alle anderen Faktoren tragen zusammen genommen weniger als 5 m bei.
Während die globale Mitteltemperatur in den letzten Dekaden in einer Geschwindigkeit zugenommen hat, die gut mit den Projektionen des Weltklimarats (IPCC) übereinstimmt, ist der Meeresspiegel schneller angestiegen als vorhergesagt. Wie eine neue Studie zeigt, steigen die Ozeane 60 Prozent schneller als nach der mittleren Prognose des Weltklimarats in seinen beiden letzten Sachstandsberichten. Die Forscher verglichen diese früheren Vorhersagen mit Satellitenmessungen des Meeresspiegelanstiegs. Satelliten haben global eine deutlich bessere Abdeckung als Pegelstationen und können durch die Nutzung von Radarwellen und ihrer Reflektion von der Meeresoberfläche den Anstieg exakt messen. Während der IPCC einen Meeresspiegelanstieg mit 2 mm pro Jahr ab dem Jahr 1990 prognostizierte, zeichneten Satellitendaten einen Anstieg von 3,2 mm pro Jahr auf. Dass nur ein vorübergehender Eisverlust von den Eisschilden Grönlands oder der Antarktis oder andere interne Schwankungen im Klimasystem für die erhöhte Geschwindigkeit des Meeresspiegelanstiegs verantwortlich sind, ist der Studie zufolge unwahrscheinlich. Die Anstiegsrate des Meeresspiegels korreliert eng mit der Zunahme der globalen Mitteltemperatur.

707627main_pia16294-673_lres

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA
Globaler Meerespiegel

Diese Abbildung zeigt Änderungen der durchschnittlichen globalen Meeresspiegelhöhe auf der Grundlage von Satelliten-Messungen (Topex/Poseidon und Jason-1 sowie Jason-2) zwischen 1992 bis 2012. Die Daten wurden gemittelt, um langzeitige Änderungen des Meeresspiegels zu berücksichtigen. Die durchschnittliche jährliche Erhöhung des Meeresspiegels in diesem Zeitrahmen (blaue Linie) beträgt 3,2 mm pro Jahr. Die Einliegekarte zeigt Änderungen der Wassermassenverteilung der Erde von Anfang 2010 bis Mitte 2011. Blaue Farben stehen für die Zunahme der Wassermassen über den Kontinenten.

Eine neue NASA-Studie zeigt, dass der größte Teil der Absenkung des Meeresspiegels in den Jahren 2010-11 (roter Kreis) zurückzuführen ist auf den Massentransport von den Ozeanen auf die Kontinente, vorrangig Australien, nördliches Südamerika und Südostasien (blaue Pfeile). Während der Ozean Wasser ‚verlor‘, erfuhren die Kontinente einen Zugewinn, verursacht durch verstärkte Niederschläge im Zusammenhang mit dem La Niña-Ereignis 2010/2011. Bis zur Mitte des Jahres 2012 hatte sich das globale Niveau des Meeresspiegels erholt, und zwar um mehr als die 5 mm, die er 2010/2011 verloren hatte.

Die Mission OSTM/Jason-2 ist ein internationales Unternehmen, bei dem die Verantwortung für die Satellitenentwicklung und den Start zwischen NASA und CNES geteilt wurde.

 

Weitere Informationen:

Meerestopographie

Differenz zwischen dem aktuellen Meeresspiegel und dem Geoid. Sie beträgt ca. 1 - 2 m und bildet sich durch nichtgravitative Kräfte wie hydrostatische und hydrodynamische Vorgänge aus. Die Meerestopographie läßt deshalb grundsätzlich Rückschlüsse auf Meeresströmungen zu, ist aber mit ausreichender Genauigkeit schwierig zu bestimmen. Eine geometrische Bestimmung durch Differenzbildung von Meeresspiegel und Geoid ist nur für langwellige Strukturen sinnvoll, solange das Geoid für kurze Wellenlängen keine cm-Genauigkeit aufweist. Mit Hilfe der Bahnverfolgung von Satelliten und den Messungen der Altimetrie werden Meerestopographie und Schwerefeld gemeinsam geschätzt. Das Fehlerbudget erzwingt dabei jedoch auch eine Beschränkung der Meerestopographie auf großskalige Strukturen. Die dynamische Topographie liefert nur relative Höhen und beruht nur auf hydrostatischen Annahmen. Sie kann deshalb nur einen Teil der Meerestopographie und diesen nur relativ approximieren.

Zeitleiste mit Altimetriemissionen von NASA und NOAA

 

 

Zu größerer Darstellung auf Bild klicken

Quelle: JPL PODAAC
 

Weitere Informationen:

Megha-Tropiques

Erdbeobachtungssatellit der indischen ISRO und der französischen CNES. Der im Oktober 2011 gestartete Satellit mit einer Bahnhöhe von 867 km und einer Bahnneigung von 20 Grad zum Äquator dient der Beobachtung des Wetters in den Tropenregionen. Dabei stehen insbesondere der Wasserkreislauf, der Strahlungshaushalt, das Reflexionsverhalten der Wolkenbedeckung und die Energieverteilung im tropischen Konvektionssystem im Fokus.
Der dreiachsenstabilisierte Satellit ist mit einem abbildenden Neunkanal-Mikrowellenradiometer MADRAS (Microwave Analysis and Detection of Rain and Atmosphere Systems, CNES und ISRO), dem Multispektral-Radiometer ScaRaB (Scanner for Radiation Budget, CNES), dem Radio Occultation Sounder for the Atmosphere (ROSA, Italien) und dem Sechskanal-Mikrowellenmessgerät SAPHIR (Sondeur Atmosphérique du Profil d'Humidité Intertropicale par Radiometrie, CNES) ausgerüstet. Er wurde auf Basis des indischen Satellitenbus IRS gebaut und besitzt eine geplante Lebensdauer von drei Jahren.

Weitere Informationen:

MEO

Engl. Akronym für Medium Earth Orbit, syn. ICO (Intermediate Circular Orbit); mittelhohe, kreisförmige Umlaufbahn in 6.000-20.000 km Höhe. Auf MEO-Orbits befinden sich z.B. Satelliten, die für Mobilfunkdienste eingesetzt werden oder die Teil eines GPS sind und entsprechende Signale aussenden.

MERCATOR

Im Aufbau befindliches französisches System zur operationellen Beobachtung der physikalischen Eigenschaften der Ozeane bei gleichzeitigem Einsatz von Satellitenfernerkundung und in situ-Messungen. Altimeterdaten werden von Jason-1/2, früher auch von ENVISAT bereitgestellt, die in situ-Daten vom System CORIOLIS mit seinen Treibbojen. MERCATOR ist der französische Beitrag zum weltweiten GODAE-Projekt. Initiativmitglieder des Projekts unter dem gemeinsamen Namen Mercator Ocean sind CNES, CNRS, Ifremer, IRD, Météo-France, Shom. Diese öffentlich-rechtliche Gruppierung (GIP) führt die gewonnenen Daten in ein numerisches Ozeanmodell ein und legt jeden Mittwoch Analysen und zweiwöchige Prognosen zu wichtigen ozeanographischen Parametern (Temperatur, Salinität, Strömungen) von der Meeresoberfläche bis zum Meeresboden vor.

Schema des Mercator-Systems

Zu größerer Darstellung auf Grafik klicken

Quelle: Mercator Ocean

Schema des Mercator-Systems

To help a numerical model model produce more realistic results, it has to be constrained with true measurements. These are provided by Earth observation satellites and oceanography ships.
The ingesting of these measurements in numerical models is known as data assimilation. In Mercator systems, there are two types of assimilated data: satellite and in situ (sea measurements).

Satellite

  • Sea surface height
    This variable, also known as the dynamic height or dynamic topography gives very useful information on currents. It is provided by altimetry satellites.
  • Sea surface temperature
    Other satellites measure the temperature at the surface of the sea. These are mainly infrared sensing satellites.

In situ

In situ data is measured at sea, either by oceanographers on oceanography ships or by automatic sensors which transmit their measurements in real time via satellites.

 

Weitere Informationen:

MERIS

Engl. Akronym für Medium Resolution Imaging Spectrometer; Nutzlast auf Envisat, hauptsächlich für die Ozean- und Vegetationsüberwachung. Seine Bodenauflösung beträgt ca. 300 m. Das abbildende Spektrometer misst die von der Erde reflektierte Sonnenstrahlung in 15 Spektralbändern aus dem sichtbaren Spektralbereich und dem nahen Infrarot. Der Sensor ermöglicht eine weltweite Beobachtung alle 3 Tage. MERIS soll vorrangig die Ozeanfarbe auf hoher See und in Küstenregionen dokumentieren. Aus der Kenntnis der Meeresfarbe kann man auf die Chlorophyllpigment-Konzentration, die Schwebstoff-Konzentration und die Aerosolfracht über dem Meer schließen. Daneben liefert MERIS Informationen über die Höhe der Wolkenobergrenzen, die vertikale Wasserdampfverteilung der Atmosphäre und die Aerosolfracht über Land.

MERIS setzt die Forschung von MOS mit erweiterten Fähigkeiten fort. MERIS ist bezüglich seiner Spektralcharakteristiken dem MOS sehr ähnlich, jedoch zur operativen Nutzung mit einer wesentlich größeren Streifenbreite für globale Überdeckung ausgelegt.

MERIS wurde im Auftrag der ESA von Alcatel Frankreich gebaut.

Von MERIS beobachteter Teil des Spektrums Von MERIS beobachteter Teil des Spektrums Quelle: ESA
Bangladesh Bangladesh (aufgenommen von MERIS am 8.11.2003)


In dieser MERIS-Aufnahme ist das Gebiet von Bangladesh und Teile Indiens und Myanmars wiedergegeben. Der größte Teil von Bangladesh liegt innerhalb des großen, verästelten Deltabereiches der Flüsse Ganges und Brahmaputra.

Der Ganges, wichtigster Fluss des indischen Subkontinents, fließt durch Bangladesh in den Golf von Bengalen. Da die Mündungsarme große Mengen von Sedimenten mitführen, dehnt sich das Delta immer weiter meerwärts aus. Die bräunliche Farbe macht den Sedimenteintrag deutlich. Das flache und tief gelegene Land des Deltas ist jährlichen Überflutungen ausgesetzt. Die Bergländer Indiens im rechten Teil des Bildes reichen bis über 2.000 m NN. Ihre Hänge sind mit dichtem, immergrünem Regenwald bestockt. Schmale Flüsse entwässern über Schluchten das Gebiet.

Zu größerer Darstellung auf Bild klicken

Quelle: ESA
(Version mit 13 MB dort downloadbar)
 

Weitere Informationen:

Merkmal

Engl. feature, franz. caractère; die Eigenschaften bzw. Ausprägungen der Objekte. Dabei wird zwischen Merkmalen des Objektes in der realen Landschaft und Merkmalen des Objektes im Produkt (Bild) unterschieden.

Nach DIN 18716 eine "gemessene oder aus Messwerten abgeleitete Größe, die zur Unterscheidung der Objekte einer Klasse von Objekten anderer Klassen herangezogen werden kann".

In der digitalen Bildverarbeitung sind Merkmale die in den jeweiligen Spektralbändern eines Sensors aufgezeichneten Grauwerte, aber auch ihr Zusammenwirken als Texturen. Sie dienen zur Kennzeichnung der zu klassifizierenden Bildelemente. Die Merkmale in einem Bild variieren in Abhängigkeit von der im Bild (Produkt) enthaltenen Information (unterschiedliche spektrale und räumliche Auflösung der Sensoren).

Merkmalsextraktion

Engl. feature extraction, franz. identification de structures; Ermitteln von Eigenschaften von Objekten in einem Bild, die zur Klassifizierung geeignet sind, wie z.B. Umfang, Fläche, Durchmesser.

Merkmalsraum

Engl. feature space, franz. espace de structures; analog zu bekannten zwei- oder dreidimensionalen geometrischen Räumen durch Koordinatenachsen gebildeter Raum. Im Falle digitaler Fernerkundungsdaten entsprechen meist die Spektralbänder diesen Achsen. Die vom Sensor aufgezeichneten Signale, die auch als Grauwerte bezeichnet werden, stellen dabei die Messdimension dar. Die Darstellung erfolgt vielfach mittels Streuungsdiagrammen. Der Merkmalsraum kann eine beliebige Dimensionalität annehmen, die von der Anzahl der verwendeten Spektralbänder bestimmt wird (s. Abb. unten). Jedes Bildelement kann mit Hilfe seiner Grauwerte, die mit dem Achsenursprung einen Merkmalsvektor bilden, in diesem Raum eindeutig eingeordnet werden.

Definition des Begriffs nach DIN 18716: "n-dimensionaler Raum, der aufgespannt werden kann, wenn zu einer Klassifizierung n Merkmale herangezogen werden".

Zweidimensionaler Merkmalsraum

Zweidimensionaler Merkmalsraum

Quelle: Lexikon der Geowissenschaften
Dreidimensionaler Merkmalsraum

Dreidimensionaler Merkmalsraum

Zu größerer Darstellung auf Grafiken klicken

MERLIN

Engl. Akronym für Methane Remote Sensing LIDAR Mission; projektierte Klimamission mit einem deutsch-französischen Kleinsatelliten, die das Treibhausgas Methan in der Erdatmosphäre beobachten soll. Mit Hilfe eines LIDAR-Instruments wird MERLIN ab dem Jahr 2021 aus einer Höhe von 500 bis 650 km das Gas in der Erdatmosphäre aufspüren und überwachen. Ziel der dreijährigen Mission ist unter anderem die Erstellung einer globalen Weltkarte der Methankonzentrationen.

Methan als Klimaproblem
Methan ist nach Kohlendioxid (CO2) der zweitgrößte Beitrag zur anthropogenen Klimaerwärmung. Das von den Vereinten Nationen eingesetzte Wissenschaftlergremium Intergovernmental Panel for Climate Change (IPCC) bescheinigte Methan ein 25-fach höheres Potenzial zur globalen Erwärmung als CO2. Der weltweite Methangehalt stieg seit Beginn der Industrialisierung aufgrund anthropogener Emissionen auf die doppelte atmosphärische Konzentration an - der Gehalt von Kohlendioxid "lediglich" um 30 Prozent.
Methan-Emissionen, die von Menschen etwa - durch Lecks in Gaspipelines - verursacht werden, sind jedoch nicht so bekannt wie beispielsweise anthropogene CO2-Emissionen aus Kraftwerken und Fahrzeugabgasen. Zusätzlich droht eine weitere, in seinem Ausmaß nicht abschätzbare Gefahr: In den Dauerfrostböden Russlands und Kanadas sind zurzeit die größten natürlichen Vorkommen von Methan gebunden. Tauen diese Böden bei einer weiter voranschreitenden globalen Erwärmung auf, könnte jenes Methan zusätzlich in die Atmosphäre entweichen und die Klimasituation weiter verschlimmern - dies stellt eine der größten Unsicherheiten in den Modellen für die zukünftige Entwicklung des Weltklimas dar.
Die Daten aus der jüngsten Vergangenheit sind beunruhigend: 2007 und 2008 stieg die atmosphärische Methankonzentration wieder deutlich an, nachdem sie mehr als zehn Jahre in etwa konstant war. Anthropogene Quellen, brennende Vegetation (etwa Wald- und Buschbrände), natürliche Emissionen von Feuchtgebieten oder explosionsartig vom Meeresboden zur Wasseroberfläche aufsteigende große Methanblasen kommen hier als mögliche Ursachen in Frage. Die tatsächlichen Ursachen für dieses Phänomen sind indes noch unbekannt. Hier soll die Mission Licht ins Dunkel bringen.

MERLIN

merlin

MERLIN im All (künstlerische Darstellung)

Zu größerer Darstellung auf Grafiken klicken

Quelle: DLR

merlin_lres

Schema des Messprinzips von MERLIN

Das Prinzip des Methan-LIDAR (Light Detection and Ranging), also des "Lichtradars", funktioniert von seiner Position im Weltall genauso wie bei seinem erdnahen Gegenstück an Bord eines Hubschraubers: Das Messinstrument, das das DLR gemeinsam mit den Firmen ADLARES GmbH und E.ON Ruhrgas AG entwickelt hat, sendet Lichtimpulse zur Erde und empfängt die vom Boden reflektierte impulsförmige Strahlung. Trifft der Impuls auf Methan, wird er dadurch geschwächt zum Messinstrument zurückgegeben. Auf diese Weise stellt das Lichtradar auf dem Hubschrauber Lecks an Erdgasleitungen fest, an denen Methan austritt.

Statt lediglich acht Kilometer Leitungen am Tag zur Kontrolle abzulaufen, können so pro Stunde 50 Kilometer mit dem CHARM-System (CH4 Airborne Remote Monitoring) überprüft werden.

Das Messinstrument im Weltall hat allerdings keine Erdgasleitungen im Blick, sondern sucht pro Stunde 25.000 km nach natürlichen und vom Menschen verursachten Methanquellen ab. 50 Mal pro Sekunde wird es den Laserstrahl zur Erde senden und empfangen. Mit den Messwerten erhält man dann eine Art Weltkarte mit den atmosphärischen Methankonzentrationen und sieht auch regionale Unterschiede.

 

Die Vorteile von LIDAR
Die bisher zur Methanbeobachtung eingesetzten Instrumente SCIAMACHY auf dem inzwischen inaktiven europäischen Umweltsatelliten ENVISAT und der japanische Satellit GOSAT arbeiten mit so genannten passiven Instrumenten. Das heißt, sie nutzen das vom Erdboden zurück gestreute Sonnenlicht, um den Spurengasgehalt (beispielsweise CO2) in der Atmosphäre zu messen. Sie sind somit auf Tageslicht angewiesen und liefern nur bei klarem Himmel optimale Messwerte.
Ein LIDAR hingegen verfügt als aktives Instrument über eine eigene "Beleuchtung" (den Laser) und kann somit auch bei Nacht oder selbst durch dünne Zirruswolken hindurch messen. Zur Messung der Konzentration eines bestimmten Spurengases werden Lichtpulse in zwei nah beieinander liegenden Wellenlängen ausgesandt. Die eine Wellenlänge wird von dem gesuchten Spurengas absorbiert (Lambda-on), die andere nicht (Lambda-off). Aus der Differenz der beiden zurückgesandten Signale kann die Methankonzentration sehr genau bestimmt werden.
Die Messwerte, die der Satellit aufzeichnet, können von Wissenschaftlern mit Hilfe von Daten über Windgeschwindigkeiten und -richtungen in globale Methanverteilungskarten umgerechnet werden. Diese Methode der so genannten inversen Modellierung führt zu Darstellungen, aus denen die tatsächlichen regionalen Methanflüsse abgeleitet werden können.
Zwischen CNES und DLR wurde die Durchführung einer gemeinsamen wissenschaftlichen Vorstudie und einer Machbarkeitsstudie in den Jahren 2010 und 2011 vereinbart. Frankreich wird mit dem Gesamtsystem und dem Satellitenbus - einer sogenannten MYRIADE-Plattform - sowie dem Betrieb des Satelliten und mit der Startrakete betraut. Deutschland soll das LIDAR-Instrument an Bord des Satelliten entwickeln. Beide Nationen kümmern sich gemeinsam um das Nutzlastbodensegment und die wissenschaftliche Auswertung der Methandaten.

Weitere Informationen:

Messenger

Engl. Akronym für Mercury Surface, Space Environment, Geochemistry and Ranging; am 3. August 2004 zum Merkur gestartete NASA-Sonde im Rahmen des Discovery-Programms. Als Trägerrakete wurde eine Delta II verwendet.

MESSENGER soll eine umfangreiche Untersuchung des nächsten Nachbarn der Sonne und des am wenigsten erkundeten der terrestrischen Planeten, zu denen auch Erde, Mars und Venus gehören, durchführen. Dies liegt vor allem an den für Raumsonden sehr unwirtlichen Bedingungen in der Nähe der Sonne, wie der hohen Temperatur und intensiven Strahlung, sowie an zahlreichen technischen Schwierigkeiten, die bei einem Flug zum Merkur in Kauf genommen werden müssen. Selbst von der Erdumlaufbahn aus sind die Beobachtungsbedingungen zu ungünstig, um ihn mit Teleskopen beobachten zu können. Zum Beispiel würde der Spiegel des Hubble-Weltraumteleskops durch die Teilchen des Sonnenwindes großen Schaden nehmen, wenn man ihn auf einen dermaßen sonnennahen Bereich ausrichten würde.

Aus Gründen der Treibstoffersparnis mussten mehrere Swing-by-Manöver an Erde, Venus und Merkur durchgeführt werden. Dabei verlor die Sonde durch unsymmetrische Annäherung an die Planeten einen Teil ihrer Bahnenergie und wurde so abgebremst.
Das erste von drei Swing-by-Manövern am Merkur fand am 14. Januar 2008 statt, das zweite am 6. Oktober 2008 und das letzte am 29. September 2009. Bei diesen Manövern flog MESSENGER jeweils in rund 200 km Höhe über die Planetenoberfläche, führte Messungen durch und kartographierte Regionen, die während der Vorbeiflüge der Raumsonde Mariner 10 nicht erfasst werden konnten.

MESSENGER ist nach Mariner 10 die zweite Raumsonde, die den Merkur besucht und ist die erste, die ihn als Orbiter umkreist. Die im März 2011 begonnene Primärmission der Sonde im Merkurorbit war für genau ein Jahr ausgelegt. MESSENGER konnte dabei erstmals den Planeten vollständig kartieren und widmete sich speziell der Untersuchung der geologischen und tektonischen Geschichte des Merkurs sowie seiner Zusammensetzung. Weiterhin soll die Sonde nach dem Ursprung des Magnetfeldes suchen, die Größe und den Zustand des Planetenkerns bestimmen, die Polarkappen des Planeten untersuchen sowie die Exosphäre und die Magnetosphäre erforschen. Am 18. März 2012 begann eine erste erweiterte Mission, welche bis zum 18. März 2013 lief. Die Umrundungen wurden danach bis 2015 fortgesetzt.

Zu den bislang noch offenen Fragen, auf die sich die Wissenschaftler des MESSENGER-Teams eine Antwort erhoffen, gehören: Warum besteht der Merkur, der dichteste Planet, fast nur aus Eisen? Und warum ist er neben der Erde der einzige innere Planet mit einem aktiven Magnetfeld? Wie kann der sonnennächste Planet, auf dem Tagestemperaturen von bis zu 450 °C herrschen, trotzdem in seinen polaren Krater so etwas wie Eis besitzen?

Merkurs nördliche Polarregion

(aufgenommen während der Niedrigflugkampagne im Sommer 2014)

05_Chabot_01b-sm
 

The second extended mission began on June 17, 2014, with the goal of examining Mercury from closer than ever before -- as close as 25 kilometers altitude.

Mercury’s north polar region, colored by the maximum biannual surface temperature, which ranges from >400 K (red) to 50 K (purple). As expected for the Solar System’s innermost planet, areas of Mercury’s surface that are sunlit reach high temperatures. In contrast, some craters near Mercury’s poles have regions that remain permanently in shadow, and in these regions even the maximum temperatures can be extremely low. Evidence from MESSENGER and Earth-based observations indicate that water ice deposits are present in these cold craters. The craters nearest Mercury’s poles have surface temperatures <100 K, and water ice is stable on the surface. However, many craters near but somewhat farther from Mercury’s poles have cold, permanently shadowed interiors, but the maximum temperature is too high for water ice to persist at the surface. In these craters, such as the one indicated in this figure, water ice is present but is buried beneath a thin, low-reflectance volatile layer likely consisting of organic-rich material. (Fuller crater: 27-kilometer diameter; 82.63°N, 317.35°E).

Zu größerer Darstellung auf Grafik klicken

Quelle: John Hopkins APL
 

Wegen Treibstoffmangels ist die Mission Ende April 2015 mit dem Absturz der rund 3 Meter großen Sonde auf Merkur zu Ende gegangen. Die überaus erfolgreiche Mission brachte den Wissenschaftlern schon jetzt große Überraschungen. Dazu gehören die großen Mengen gefrorenen Wassers in Kratern am Nordpol, der Schwefel an der Oberfläche, die Einschlagskrater, die sich von selbst ausbeulen oder das schwache Magnetfeld, welches zunächst nicht mit der großen Menge flüssigen Eisens im Merkur vereinbar ist.

Zur Beantwortung offener Fragen starten ESA (European Space Agency) und JAXA (Japan Aerospace Exploration Agency) 2017 eine weitere Merkur-Mission: Die im wesentlichen aus zwei Orbitern und ein Antriebsmodul bestehende Raumsonde der BepiColombo Mission, sie wird ungefähr 6 Jahre zum Merkur brauchen.

Weitere Informationen:

Messgeometrie

In der Fernerkundung die Blickrichtung eines Sensors. Messungen in Okkultations- (unteres Bild) oder Limb-Beobachtungsgeometrie (oberes Bild) erlauben die Bestimmung der Zusammensetzung der Stratosphäre. Bodennahe Spurenstoffverteilungen lassen sich nur in Nadir-Beobachtungsgeometrie (mittleres Bild) bestimmen. In Okkultations-Beobachtungsgeometrie wird das Direktlicht der Sonne, des Mondes oder von Sternen gemessen. In Limb- und Nadir-Beobachtungsgeometrie besteht das Messsignal im von der Erdoberfläche reflektierten und von der Atmosphäre gestreuten Sonnenlicht (im IR- und Mikrowellenbereich wird die thermische Emission der Erde gemessen).
Darstellung der verschiedenen, in der Fernerkundung benutzten Messgeometrien:

  • Limb-Messung (Horizontsondierung, Blickrichtung über den Horizont zum Rand der Atmosphärenschicht),
  • Nadir-Messung (Senkrecht-Messung) und
  • Okkultationsmessung

Limb-Messung
Limb-Messung

Zu größerer Darstellung
auf Grafik klicken

 

Quelle: unbekannt (Hinweis
auf Urheber willkommen
)

nadir
Nadir-Messung

 

Zu größerer Darstellung
auf Grafik klicken

 

 


okkult
Okkultations-Messung


Zu größerer Darstellung
auf Grafik klicken

 

METEOR-3M N1

2001 gestartete russische Satellitenmission zu Hydrometeorologie, Klimatologie, Landoberfläche, physischer Ozeanographie, Landwirtschaft, Heliogeophysik, Weltraumumgebung und Atmosphärensondierung. Der Satellit bewegt sich in 1.018 km Höhe auf einer sonnensynchronen Umlaufbahn (Inklination 99,6°). Die Umlaufzeit beträgt 105,3 min.

Weitere Informationen:

Meteor M1

Russischer Wettersatellit, der als primäre Nutzlast auf einer Soyuz 2-1b Trägerrakete am 17.9.2009 von Baikonur aus ins All startete. Das 2.700 kg schwere Raumfahrzeug hat eine vorgesehene Dienstzeit von fünf Jahren und wird die Erde in 830 km auf einer polaren Umlaufbahn umkreisen. Der Satellit ist dazu ausgelegt, Daten für die tägliche Wettervorhersage zu sammeln, die Ozonschicht und die Strahlungsverhältnisse in der oberen Atmosphäre zu beobachten sowie Informationen über Treibeis für die Schifffahrt zu liefern. Der Satellit trägt sechs Instrumente (bildgebende Sensoren, Sondierungsinstrumente, ein Radar).

Weitere Informationen:

Meteorologie und Fernerkundung

In Meteorologie und Klimatologie nehmen Methoden der Fernerkundung eine herausragende Stellung ein. Das Ausmaß an Operationalisierung und Automatisierung in der Auswertung von Fernerkundungsdaten in diesen Feldern ist von keiner anderen Disziplin erreicht.
Wettersysteme sind großräumige Erscheinungen. Aus diesem Grund ist das Weltall ideal für ihre Beobachtung. Aus großer Höhe über der Erde liefern Wettersatelliten Bilder und andere Meßdaten, die relevante Informationen über das aktuelle Wettergeschehen und Daten für die Wettervorhersage liefern. Mit ihrem Fokus auf den dynamischen Veränderungen der Atmosphäre und auf den kurzfristigen Veränderungen von Wolken und Niederschlag, Wasserdampf, Temperatur und auch von Spurengasen und Ozon komplettieren Weltraum-basierte Fernerkundungsverfahren zusammen mit Boden- und Flugzeug-gebundenen Verfahren in idealer Weise die konventionellen in situ-Messungen der Wetterbeobachtung. Fernerkundungsverfahren zeichnen sich durch eine hohe zeitliche Verfügbarkeit und gute räumliche Auflösung aus. Teilweise sind sie aber ohne Kalibrierung mit den direkten Verfahren nicht befriedigend verwendbar.

Satelliten-basierte Wetterbeobachtung

Das Potential von Satelliten zur direkten und indirekten Wetterbeobachtung ist beachtlich und umfasst eine Vielfalt geophysikalischer Parameter. Im Hinblick auf die Atmosphäre messen Satelliten Temperatur- und Feuchtigkeitsprofile von der Oberfläche bis in über 40 km Höhe, ferner Windparameter, Niederschlag, Aerosol sowie die Konzentration von Ozon und anderen Gasen. Neben der Vertikalsondierung dienen sie auch der Bestimmung großräumiger und mesoskaliger horizontaler Feldverteilungen von interessierenden Parametern. Beispielsweise können die Verteilungen von Temperatur (Thermalbild) und Wasserdampf sowie Größen des Strahlungs- und Wärmehaushaltes (Earth Radiation Budget Experiment, ERBE) bestimmt werden.

Über den Ozeanen messen Satelliten die Oberflächentemperaturen und oberflächennahen Winde, Meereshöhe, Wellen, Eisbedeckung und Ozeanfarbe. Über den Landflächen messen bzw. detektieren sie die Oberflächentemperatur, Bodenfeuchte, Vegetations- und Schneebedeckung, Hochwasser, Waldbrände und andere Parameter.

Die meisten der Satellitenprodukte liefern eine bessere Flächenabdeckung als alternative Verfahren (vgl. Abb. unten). Insbesondere über den Ozeanen, die ca. 70 % der Erdoberfläche ausmachen, gibt es nur wenige oberflächenbasierte Beobachtungsmöglichkeiten. Über Land sind insbesondere Niederschlagsmessungen hinsichtlich ihrer Qualität häufig sehr heterogen, was ihre Vergleichbarkeit erschwert. Daneben wird in den regenreichsten tropischen Gebieten der Erde wie Südamerika und Indien kaum konventionelle Niederschlagserfassung betrieben.

Satellitenmessungen können dagegen auf großer räumlicher Skala eine kontinuierliche und flächendeckende Beobachtung liefern. Nicht nur über den Ozeangebieten sondern auch über Landgebieten können dadurch große Beobachtungslücken geschlossen werden.

Niederschlagsmessstationen
des Global Historical Climatology Network (GHCN) 1992 Niederschlagsmessstationen des Global Historical Climatology Network (GHCN) 1992
  Temperaturmessstationen
des Global Historical Climatology Network (GHCN) 1992 Temperaturmessstationen des Global Historical Climatology Network (GHCN) 1992
Quelle: CDIAC

Zudem werden für viele Anwendungen globale Datensätze benötigt, und diese werden über Satellitenmessungen verfügbar. Ferner ist für den operationellen Betrieb Schnelligkeit und Häufigkeit der Datenübermittlung geboten. So ist das zeitliche Auflösungsvermögen (Wiederholrate) wichtiger als das räumliche. Der moderne Meteosat-8 (MSG-1) z.B. liefert seine Multispektralbilder im 15 min-Rhythmus.

Die zeitliche und räumliche Abdeckung durch die verschiedenen Satelliten ist dabei sehr unterschiedlich. So liefern die geostationären Satelliten Messungen von 50° N bis 50° S in kurzem zeitlichen Abstand (z.B. MSG). Die polarumlaufenden Satelliten der DMSP- und NOAA-Serien sowie der TRMM-Satellit umkreisen den Globus hingegen fortlaufend mit einer Umlaufzeit von etwa eineinhalb Stunden. Daraus resultiert pro Satellit für bestimmte Gebiete maximal eine zweimalige Messung am Tag.

Insofern hat sich die Kombination von Satelliten auf geostationären und polumlaufenden Umlaufbahnen bewährt.

Die bekanntesten und seit Jahrzehnten praktizierten Messungen aus dem Weltraum sind die im optischen Bereich. Die zu Wettersatellitenbildern aufbereiteten Messergebnisse dienten ursprünglich im sichtbaren Spektralbereich als einfache Informationen über Wolkenverteilung und -arten sowie daraus ableitbare Prozesse. Heute sind solche Bilder, insbesondere von geostationären Satelliten, in verschiedenen Spektralbereichen ein integraler Bestandteil der synoptischen Meteorologie und der öffentlichen Wetterinformation.
Zu den ältesten Anwendungen der Fernerkundung gehört auch die flugzeug- und satellitenbasierte Messung der Temperatur von Erd- und Meeresoberfläche. Gemessen wird die der Temperatur proportionale langwellige Ausstrahlung der Oberfläche in den Spektralabschnitten, in denen die Atmosphäre durchlässig ist (atmosphärische Fenster). Dabei sind nicht nur Punktmessungen möglich, sondern auch flächenmäßige Scans (Abtastungen), die zu Thermalbildern führen.
Spurengasbestimmungen der Atmosphäre werden im optischen Bereich mit Hilfe sehr hoch auflösender Fourierspektrometer (FTIR) sowohl vom Boden, von Ballons als auch von Satelliten (z.B. MIPAS auf ENVISAT) aus vorgenommen.

Sehr bedeutsam sind die von Satelliten aus vorgenommenen Messungen der solaren und terrestrischen Strahlungsflüsse (Globalstrahlung, reflektierte Strahlung, langwellige Ausstrahlung, Gegenstrahlung, Strahlungsbilanz) in verschiedenen Spektralbereichen. Daraus wird die planetare Energiebilanz berechnet. Außerdem werden aus den gemessenen Strahlungsflussdichten und aus der ebenfalls möglichen Berechnung von thermodynamischen Feldgrößen Vertikalprofile von Temperatur und Feuchte vorwiegend in der Atmosphäre oberhalb der Tropopause bestimmt.

metsystem Meteorologisch-klimatische Beobachtungssysteme

 

 

 

Zu größerer Darstellung auf Grafik klicken

 

Quelle: GEO

Boden-basierte Fernerkundungsverfahren bei der Wetterbeobachtung

Bodenbasierte Wetterbeobachtung ist nicht nur in situ-Messung, sondern umfasst auch Fernerkundungsverfahren. Dazu gehören Wetterradar, sowie LIDAR- und SODAR-Fernmessverfahren u.a.
Insbesondere für die Fernerkundung der atmosphärische Grenzschicht werden Sondierungssysteme (SODAR) verwendet, die auf der Ausbreitung von Schallwellen in der Atmosphäre beruhen. Im Prinzip handelt es sich dabei um ein akustisches Radar. SODAR-Geräte gelten gegenüber direkten Verfahren als vergleichbar genau und zusätzlich als kostensparend.
Verbindet man ein akustisches System mit einem Radargerät, so erhält man ein Radio Acoustic Sounding System (RASS), das die Bestimmung vertikaler Temperatur- und Windprofile ermöglicht.
Ein Spezialgebiet der Nutzung des optischen Spektralbereiches ist LIDAR, das - neben anderen Einsatzgebieten - verschiedene Fernmessverfahren für atmosphärische Gase und Aerosolverteilungen auf der Grundlage der Lasertechnik bezeichnet.

bodenbasierte_verfahren_spank Übersicht der wichtigsten bodengestützten Beobachtungssysteme

 

  • operationelle Fernerkundung(durchgezogene Pfeile)
  • experimentelle Fernerkundung (gestrichelte Pfeile)

 

 

Zu höherer Auflösung auf Abbildung klicken!

Quelle: U. Spank (TU Dresden)

Flugzeug-basierte Fernerkundungsverfahren bei der Wetterbeobachtung

Auch bei Flugzeug-getragener Wetterbeobachtung stehen Fernerkundungsverfahren neben in situ-Verfahren. Das DLR befasst sich z.B. über das OZON-Lidar Experiment (OLEX) mit der Fernerkundung des stratosphärischen Ozons. Das Instrument dient im Übrigen auch der Validierung von SCIAMACHY-Daten. Messungen des atmosphärischen Wasserdampfes können mit Hilfe von Flugzeug-getragenen, aber auch vom Boden aus einsetzbaren Wasserdampf-Differential-Absorptions-Lidarsystemen (DIAL) des DLR erfolgen. LIDAR-Systeme werden eingesetzt um z.B. die starken Strahlströme in großer Höhe zu erfassen.

Weitere Informationen:

meteorologisches Satellitensystem

Als Beitrag zur Welt-Wetterwacht (World Weather Watch, WWW) und zum Klimaforschungsprogramm (World Climate Research Programme, WCRP) von der Weltorganisation für Meteorologie (World Meteorological Organization, WMO) initiiertes Satellitensystem. Als solches ist es die weltraumgestützte Komponente des Globalen Klimabeobachtungssystems (Global Climate Observing System, GCOS) der WMO.

Wetterstationen sind nicht gleichmäßig über die Erde verteilt und liefern nicht immer Daten in kurzen Zeitabständen. Insbesondere über Meeresgebieten und Wüstenregionen werden wenig bis gar keine Messwerte von meteorologischen Größen erfasst. Diese Beobachtungslücken lassen sich mit Hilfe von Satellitendaten verkleinern oder sogar schließen.

Eine weitere Qualitätssteigerung in der NWV wird durch die Beobachtungen des in 800-900 km Höhe polnah umlaufenden Satelliten METOP (EUMETSAT) erzielt. Dieser liefert unter anderem Daten (Strahldichten oder abgeleitete Vertikalprofile von Temperatur und Feuchte) für die NWV. Aber auch zur Überwachung von Ozon und anderen Spurengasen, für das Klimamonitoring und weitere Bereiche stellt METOP wertvolle Informationen zur Verfügung.

Die weltraumgestützte Komponente des GCOS besteht aus zwei Teilsystemen, nämlich fünf geostationären und mindestens zwei polarumlaufenden Wettersatelliten und wird seit 1972 von der Koordinierungsgruppe für Wettersatelliten (Coordination Group for Meteorological Satellites, CGMS) abgestimmt. Die CGMS ist ein Zusammenschluss der einzelnen Betreiberorganisationen und der WMO. Das System ist derart ausgelegt, dass eine kontinuierliche und global lückenlose Erdbeobachtung gewährleistet ist.

Bis 1960 wurden Wetterbeobachtungen weltweit nur von Boden-, Flugzeug- und Ballon-basierten Systemen durchgeführt. Dies änderte sich mit dem Start des ersten amerikanischen Wettersatelliten TIROS am 1.4.1960. TIROS war ein experimenteller Satellit auf polarer Umlaufbahn, der erstmals in regelmäßigen Abständen großräumige Bilder von den irdischen Wolken- und Wettersystemen lieferte. Europas erster Beitrag zu den Weltraum-basierten Wetterbeobachtungssystemen begann mit dem Start von Meteosat-1 am 23. November 1977. Dieser Satellit war der erste auf einem geostationären Orbit, der einen Sensor im 6,3 µm-Band zur Messung des Wasserdampfes trug. Einer Einschätzung des European Centre for Medium Weather Forecasts (ECMWF) nach, gelten heutzutage die Informationen der Satellitenbeobachtungen als wesentlichster Teil des globalen Beobachtungssystems für moderne numerische Wettervorhersage. Wie o.g. setzt die operationelle Meteorologie typischerweise zwei Typen von Satelliten zur Beschaffung der nötigen Informationen ein. Sie unterscheiden sich vor allem in Bezug auf ihre Umlaufbahncharakteristik:

Die geostationären Satelliten (z.B. METEOSAT, GOES ) sind scheinbar ortsfest in etwa 35.800 km über dem Äquator angeordnet, sodass mit einem System von 5 Satelliten die ganze Erde bis etwa 70° N/S alle 15-30 Minuten abgetastet werden kann. In Animationsmodi liefern die aus den Daten erzeugten Bilder Eindrücke von andauernden Veränderungen atmosphärischer Prozesse. Der über dem Schnittpunkt von Nullmeridian und Äquator befindliche METEOSAT 10 der EUMETSAT beispielsweise tastet alle 15 Minuten die Erdscheibe in elf Spektralbereichen und im sichtbaren Bereich ab.

Die Messungen, flächendeckend und mit hoher zeitlicher Wiederholrate, haben großen Nutzen für Wetterüberwachung und -vorhersage. Die Kombination mehrerer Kanäle erlaubt die Herleitung verschiedenster Parameter zur Analyse der Wettersituationen. Zu den Parametern gehören unter anderen Wolkenbedeckung und Wolkenart, Temperaturen von Erd- und Wolkenoberflächen sowie Feuchteparameter. Gerade in Verbindung mit anderen Daten wie Synop-, Radiosonden-, Niederschlagsradarbeobachtungen oder Blitzortungsdaten und der Betrachtung von Bildfolgen lassen sich Aussagen über die kurzfristige Wetterentwicklung der nächsten 1-2 Stunden machen. Aus der Verlagerung von Wolken- und Feuchtestrukturen zwischen aufeinander folgenden Bildern können Windvektoren abgeleitet werden, die neben anderen Parametern Eingang in die numerische Wettervorhersage (NWV) finden und dort zu einer Qualitätssteigerung führen.
Aufgrund der Erdkrümmung ist allerdings nur ein Teil der Erdkugel bis etwa 60° N/S mit ausreichender Genauigkeit abbildbar. Die große Höhe bedingt eine relativ geringe räumliche Auflösung, und sie schließt den Einsatz von aktiven Instrumenten wie z.B. Radar aus.

Da die für das Wettergeschehen wichtigen Polargebiete somit aus dem geostationären Orbit nicht eingesehen werden können, wird das System durch polarumlaufende Satelliten z.B. TIROS-N/NOAA ergänzt. Jeder dieser sonnensynchronen, polarumlaufenden Satelliten (Höhe ca. 850 km) erfasst dagegen zweimal pro Tag die gesamte Erde in einzelnen, zeitlich versetzten Beobachtungsstreifen, die im Falle der NOAA-Satelliten eine Breite von ca. 3.000 km haben. Diese in relativ geringer Höhe fliegenden Satelliten liefern Bilder in hoher räumlicher Auflösung.
Eine weitere Qualitätssteigerung in der NWV wird durch die Beobachtungen des in 800-900 km Höhe polnah umlaufenden Satelliten METOP (EUMETSAT) erzielt. Dieser liefert unter anderem Daten (Strahldichten oder abgeleitete Vertikalprofile von Temperatur und Feuchte) für die NWV. Aber auch zur Überwachung von Ozon und anderen Spurengasen, für das Klimamonitoring und weitere Bereiche stellt METOP wertvolle Informationen zur Verfügung.

operationelle Wettersatelliten

Schema des weltraumbasierten Teils
des
Global Observing System der WMO



Dargestellt sind die typischen Umlaufbahnen von operationellen Wettersatelliten, insbesondere die mit geostationärem Orbit und
mit sonnensynchronem, polarem Orbit.



Zu größerer Darstellung auf Grafik klicken

Quelle: CEOS
 

Beide Satellitensysteme liefern räumlich hoch aufgelöste Daten in verschiedenen Banden des sichtbaren und infraroten Spektrums und verfügen teilweise über atmosphärische Sounder, z.B. TOVS (TIROS), mit denen Vertikalprofile von Lufttemperatur und Luftfeuchte abgeleitet werden können. Die Wettersatelliten des globalen Beobachtungsnetzes dienen primär zur Verbesserung der Kurzfrist-Wettervorhersage (nowcasting). Regelmäßig abgeleitete Produkte sind u.a. Meeresoberflächentemperaturen (SST, Sea Surface Temperatures), die aus Wolkenbewegungen extrahierten Windfelder (CMW, Cloud Motion Winds,) sowie der Bedeckungsgrad und die Wolkenart. Daneben bestehen weitere Systeme, die mit passiven oder aktiven Mikrowellenradiometern vor allem zur Erfassung von Niederschlagsfeldern eingesetzt werden. Beispiele dafür sind das DMSP (Defense Meteorological Satellite Program) mit dem passiven SSM/I Sensor (Special Sensor Microwave/Imager) und TRMM (Radar-Niederschlagsmessung).

Operationelle Wettersatelliten
GOES METEOSAT
Interactive Weather Information EUMETSAT
NOAA/NESDIS ZAMG, Austria
US Navy Research Laboratory, Monterey KMI, Belgium
University of Wisconsin FU Berlin
Florida State University NOAA
RAMSDIS Online MetOp
Global Hydrology and Climate Center EUMETSAT
GOMS FY-2 (FENGYUN)
SRC Planeta National Satellite Meteorological Center
INSAT MTSAT
India Meteorological Department BOM
Forschungssatelliten
TRMM ENVISAT

Die operationellen geostationären Satelliten sind: Meteosat, GOES, GMS sowie GOMS; die polarumlaufenden Satelliten sind stets zwei Satelliten der NOAA, Metop der ESA sowie METEOR oder FENGYUN.

Weitere Informationen:

Meteosat

Engl. Akronym für Meteorological Satellite; Serie von europäischen geostationären Wettersatelliten, die von EUMETSAT und ESA entwickelt, von der ESA ins All gebracht und von der EUMETSAT betrieben werden. Es sind bislang drei Generationen von Meteosat realisiert bzw. in der Entwicklung. Meteosat-1 startete 1977, Meteosat-10 (MSG-3) im Jahr 2012. Entsprechend liefern die Meteosat-Satelliten seit 1977 Wetterinformationen.

Der jeweils operationelle Meteosat ist über dem Golf von Guinea (0°/0°) in 35.800 km Höhe positioniert. Von dort nimmt er einen Ausschnitt von der Erdoberfläche mit einer N-S und W-E-Erstreckung von 70° auf und übermittelt die Informationen zur Bodenstation. Die Position ist für die Wetterbeobachtung über Afrika, dem östlichen Atlantik und Südeuropa optimal. Als Teil des globalen meteorologischen Satellitensystems teilt sich METEOSAT die geostationäre Wetterbeobachtung mit vier weiteren Satellitensystemen, dem japanischen GMS, dem indischen INSAT und den US-amerikanischen GOES E und GOES W.

Sein wichtigster Sensor ist ein Radiometer, das in drei Spektralkanälen aufnimmt: im VIS (sichtbares Licht, 0,5-0,9 µm), im WV (Bereich hoher Wasserdampfabsorption, 5,7-7,1 µm) und im IR (thermisches Infrarot, 10,5-12,5 µm).

Jeder Meteosat ist für eine Arbeitsphase im All von wenigstens fünf Jahren vorgesehen. Gegenwärtig hält man zumindest zwei arbeitsfähige Satelliten im Orbit und startet einen neuen Satelliten kurz vor dem Ende des Treibstoffvorrats auf dem älteren Satelliten.

Meteosatbild vom 2.11.2003 Meteosatbild vom 2.11.2003 Quelle: Eumetsat Koloriertes Bild von Meteosat-7-Daten Koloriertes Bild von Meteosat-7-Daten Quelle: Eumetsat

Die Satelliten Meteosat 1-7 gehören zur ersten Generation. Der letzte aktive Satellit der 1. Meteosatgeneration, Meteosat-7, steht über dem Indischen Ozean steht auf 57,5° Ost und liefert Bilder über die Regionen um den 63. östlichen Längengrad (Ostafrika, westlicher Indischer Ozean, Mittelasien) als Ersatz für einen dort ursprünglich positionierten INSAT-Satelliten. Zusätzlich empfängt er Meldungen des Tsunami-Warnsystems und leitet sie weiter. Seine Einsatzdauer reicht von 1997-2016.

Meteosat Second Generation
Als Ersatz für die bisherige Reihe baut die ESA vier Satelliten MSG (METEOSAT Second Generation). Die neue Serie liefert schärfere Multispektralbilder in doppelter Häufigkeit (alle 15 statt alle 30 Minuten) und dies mit zwölf Kanälen gegenüber den bisherigen drei Kanälen. Die MSG-Satelliten wurden im französischen Cannes von einem europäischen Konsortium unter der Leitung von Thales Alenia Space France gebaut. Insgesamt sind mehr als 50 Unterauftragnehmer aus 13 europäischen Ländern beteiligt. MSG-1 wurde am 29. August 2002 gestartet und mit dem Beginn des Arbeitsbetriebes im Januar 2004 in Meteosat-8 umbenannt. Der Start von MSG-2 erfolgte am 21. Dezember 2005.

MSG-3 wurde am 5. Juli 2012 mit einer Ariane 5 von Kourou in den Weltraum gebracht. Nach der Einsatzerprobung hat MSG-3 als Meteosat 10 seinen Platz bei 0° Länge über dem Golf von Guinea und dem Äquator in der geostationären Umlaufbahn eingenommen, in der seine Geschwindigkeit genau der der Erdrotation entspricht. Er befindet sich seit dem 21.1.2013 im operationellen Betrieb und liefert alle 15 Minuten ein Multispektralbild (12 Spektralkanäle) des gleichen Ausschnitts der Erde. In dieser Position ersetzt Meteosat 10 den Meteosat-9. Im April 2013 übernahm Meteosat 9 den Rapid Scanning-Betrieb (RSS) von Meteosat-8 auf 9,5° Ost und liefert dabei im 5-Minuten-Takt Bilder von Europa und Nordafrika. Meteosat-10 liefert hingegen alle 15 Minuten Bilder der gesamten Halbkugel in 12 Spektralkanälen (full disc imagery) und ist zuständig für die Datensammlung und -verteilung sowie für Search- and Rescue-Aufgaben.

Die Größe der MSG-Bilder beträgt im HRV-Kanal (SW/panchromatisch) 11136×11136 Pixel mit einer Ortsauflösung von bis zu 1×1 km² im Bereich des Bildzentrums (0° nördliche Breite, 0° östliche Länge). Die Bildauflösung würde damit einer 124-Megapixel-Digitalkamera entsprechen. Die restlichen der zwölf Kanäle erzeugen Bilder einer Größe von 3712×3712 Pixeln bei einer Auflösung von ungefähr 3×3 km² im Bildzentrum. Aufgrund der geostationären Aufnahmegeometrie nimmt die Auflösung zu den Rändern hin ab, bzw. die von einem Pixel abgebildete Fläche der Erde nimmt zu den Rändern hin zu.

Der Start des letzten Satelliten der Reihe, MSG 4, erfolgte am 15.7.2015 mit einer Ariane-5 Trägerrakte von Kourou aus. MSG-4 wird für 2,5 Jahre im Orbit geparkt und dann seine Arbeit aufnehmen. Diese Lösung spart zusätzlich Kosten für Lagerung und Funktionstests auf der Erde, ferner steht MSG-4 bei einem Ausfall eines älteren Exemplars sofort zur Verfügung.

meteosat_cnes_lres msg_sch_seviri_med_lres Meteosat Second Generation

Wie die erste Version des Meteosat ist MSG spin-stabilisiert (drallstabilisiert). Auf seinem geostationären Orbit dreht sich der Satellit entgegen dem Uhrzeigersinn mit 100 Umdrehungen pro Minute um seine Längsachse, die parallel zur Erdachse ausgerichtet ist. Die MSG-Satelliten sind wie die ersten Meteosats auf 0 ° Länge positioniert, aber sie können bei Bedarf bis zu 50 Grad nach Osten oder Westen verlagert werden.


Links: MSG auf seiner geostationären Postion über dem Äquator (künstlerische Darstellung)

Rechts: Explosionszeichnung der MSG-Instrumente

Zu größerer Darstellung auf Grafiken klicken

Quellen: CNES / EUMETSAT
 

Vier der zwölf Beobachtungskanäle erfassen den sichtbaren Bereich des Lichts, acht den Infrarotbereich. Zwei davon liegen in Bereichen, in denen die Absorption von Strahlung durch Wasserdampf in der Atmosphäre stark ist. Damit kann das Wettergeschehen inklusive einer Abschätzung des Wasserdampfgehaltes in verschiedenen Höhenschichten der Atmosphäre erfasst werden. Alle Kanäle zusammen schicken 20 mal mehr Daten zur Erde als die Vorgängersatelliten. Die hohe Bildwiederholfrequenz ermöglicht eine genaue Vorhersage von Windrichtung und -geschwindigkeit durch den Vergleich von zwei aufeinanderfolgenden Aufnahmen in 15 Minuten Abstand. Durch die Kombination mehrerer Kanäle können unterschiedliche Wolkenarten (z. B. Eiswolken) erkannt werden. Auch Schneeflächen lassen sich damit eindeutig von Eiswolken unterscheiden.

Die Aufgaben der zweiten Generation METEOSAT in der Übersicht:

  • Erzeugung von Bilddaten in zwölf Spektralbereichen mit dem abbildenden Instrument SEVIRI
  • Messung des Strahlungsbilanz am Oberrand der Erdatmosphäre (GERB)
  • Übermittlung der Daten zum Nutzer
    Die ursprüngliche Planung sah vor, dass MSG die von EUMETSAT in Darmstadt aufbereiteten Daten in hoher (HRIT, High Rate Information Transmission) bzw. niedriger (LRIT, Low Rate Information Transmission) Übertragungsgeschwindigkeit zum Nutzer überträgt. Wegen Ausfalls des Senders an Bord von METEOSAT 8 werden die Daten über EUMETCast zum Nutzer übertragen. Bei den Satelliten der Ersten Generation erfolgt die Übertragung der aufbereiteten Daten digital oder analog über METEOSAT zu den Nutzern
  • Übermittlung von Daten automatischer Wetterstationen (DCP, Data Collection Platform), z.B. von Bojen
  • Übermittlung von weltweiten Wetterbeobachtungsdaten und Vorhersagen an Wetterdienste, insbesondere in Afrika (MDD, Meteorological Data Distribution)
  • Übermittlung von Signalen von Notfallsendern für Such- und Rettungsdienst (Search & Rescue) über ein Relais des SARSAT-Systems
  • Archivierung der Daten

Insgesamt ist der Start und Betrieb von 4 MSG-Satelliten vorgesehen, womit eine kontinuierliche und zuverlässige Verfügbarkeit von MSG-Daten bis ca. 2020 erreicht werden soll.
Beim Satellitenkontroll- und Betriebszentrum von EUMETSAT in Darmstadt werden die vom Satelliten empfangen Rohdaten aufbereitet. Dazu gehört die korrekte geographische Zuordnung der einzelnen Bildpunkte und die Kalibrierung. Aus den Daten werden zudem auch geophysikalische Zustandsparameter abgeleitet, wie z.B. Windvektoren aus der Verlagerung von Wolken- oder Wasserdampfstrukturen, Meeresoberflächentemperaturen, Wolkenart, -verteilung und höhe, Wasserdampfverteilung in der oberen Troposphäre, Niederschlagsabschätzung, sowie Datensätze für klimatologische Zwecke. Alle Datensätze werden archiviert.

met10_ir_2013_03_25_lres

MSG-10 Bild, Erdscheibe Afrika /Europa vom 25.3.2013, 18h

met10_ir_2013_03_25_global_lres

Komposit vom 25.3.2013 15h, zusammengesetzt aus den Infrarot-Daten der geostationären Satelliten MET-10, MET-9, MTSAT1R, GOES11 und GOES13

MSG-Bilder

Das Komposit (rechts) vom 25.3.2013 15h, setzt sich aus den Infrarot-Daten der geostationären Satelliten MET-10, MET-9, MTSAT1R, GOES11 und GOES13 zusammen. Die Bilder werden erstmals erstellt, sobald die Daten von mindestens vier der Satelliten vorliegen. Daher kann bei dem aktuellen Termin noch jeweils ein Satellit fehlen. Sobald diese Daten vorliegen, wird das aktuelle Bild ergänzt.

In den etwa 6 Wochen rund um die Tag- und Nachtgleiche fehlen die Termine zur lokalen Mitternacht (Eklipse).

Alle hier angebotenen Bilder sind Infrarotbilder, die transparent über ein topographisches Hintergrundbild gelegt wurden.

Zu größerer Darstellung auf Grafik klicken

Quellen: DWD
 

Meteosat Third Generation
Die Satelliten, die ab 2019 die zweite Generation MSG ablösen sollen, tragen die Bezeichnung Meteosat Third Generation (MTG). Die neue Reihe wird aus insgesamt sechs Satelliten bestehen, vier für die abbildende Mission (MTG Imager) und, neu für einen geostationären Orbit, zwei Satelliten für eine sondierende Mission (MTG Sounder). Die Laufzeit des MTG-Programms beträgt etwa 20 Jahre und hat einen Kostenumfang von 2,37 Mrd € (Basis 2008).

Die Satelliten werden mit folgenden Instrumenten ausgestattet werden:

  • einem abbildenden Instrument (16-channel Flexible Combined Imager) mit 16 Kanälen und einer Auflösung von 2 km bis zu 500 m bei einer zeitlichen Auflösung von 10 Minuten, bzw. 2,5 Minuten im sogenannten Rapid-Scan-Mode
  • einem Instrument zur Erkennung von Blitzen (Lightning Imager)
  • einem Datensammelsystem (Data Collection System) und einem Gerät zur Weiterleitung von Notrufsignalen (GEOSAR)
  • einem Infrarot-Sondierer (Infrared Sounder) zur Bestimmung von Temperatur- und Wasserdampfprofilen
  • einem UV-Sondierer (Ultraviolet, Visible and Near-Infrared Sounding instrument) im Rahmen des EU-Programms Copernicus
MTG-03_P_CARRIL_lres Meteosat Third Generation

Das Bild zeigt die Varianten Meteosat Third Generation Sounder (links) und MTG Imager (rechts) - künstlerische Darstellung
Die nächste Serie von geostationären Wettersatelliten wird 6 Satelliten umfassen: vier MTG-I (bildgebende Mission) und zwei MTG-S (sondierende Mission). Die zwei Typen werden über derselben geogr. Länge auf ihrem Orbit positioniert. Das sondierende Element, das auch die Nutzlast von Sentinel-4 für das Copernicus-Programm trägt, ist eine Schlüsselinnovation. Zum ersten Mal werden Meteosat-Satelliten Wettersysteme nicht nur bildhaft darstellen, sondern auch die Atmosphäre Schicht für Schicht analysieren und einen tieferen Einblick in die Komplexität ihrer chemischen Zusammensetzung geben.
Man erwartet den Start des ersten MTG-I für 2019 und den des ersten Exemplars des MTG-S einige Zeit später.

Zu größerer Darstellung auf Grafik klicken

Quellen: Phys.org™
 

Im Unterschied zu den bisherigen METEOSAT-Baureihen werden die MTG-Satelliten nicht mehr spin-stabilisiert sein, d.h sich mit 100 Umdrehungen pro Minuten um die eigene Achse drehen, sondern „drei-Achsen-stablisiert“ die Erde aus rund 36.000 km beobachten. Nur so lassen sich die vielen Daten mit dieser neuen Satellitengeneration gewinnen. Die Masse der Satelliten beträgt 2,8 (MTG-I) bzw 3,1 Tonnen (MTG-S). Mit MTG stehen, gegenüber dem derzeitigen METEOSAT-System, Daten in höherer Qualität bereit, sowie solche, wie die Daten der Sondierungs-Instrumente, die es bisher aus einem geostationären Orbit noch nicht gab und helfen so die numerische Wettervorhersage weiter zu verbessern. Wetterüberwachung und Nowcasting profitieren von höher aufgelösten Bildern, die in kürzen zeitlichen Abständen bereit gestellt werden und so die Erkennung z.B. von potentiellen Gewitterwolken oder kleinräumigen Nebelgebieten erleichtern. Ebenfalls profitieren werden durch die verbesserten Daten klimatologische und ozeanographische Anwendungen. Zudem werden wertvolle Daten zur Überwachung der Luftqualität gewonnen.

Weitere Informationen:

METI

Engl. Akronym für Ministry of Economy, Trade and Industry; das japanische Ministerium für Wirtschaft, Handel und Industrie veranwortet auch zwei Erdbeobachtungsmissionen (Terra, ALOS-3).

Weitere Informationen: METI Homepage

METimage

Multispektrales, abbildendes Radiometer für meteorologische Anwendungen, welches auf den Satelliten des EUMETSAT Polar System - Second Generation (EPS-SG) ab 2021 zum Einsatz kommen soll. METimage wird unter anderem wichtige Informationen über Wolken, Wolkenbedeckung, Landoberflächen, Ozean-, Eis- und Landoberflächentemperaturen zur Verfügung stellen und damit einen wichtigen Beitrag zu Fragen der Wetter- und Klimavorhersage leisten. METimage tastet einen Streifen von 2800 Kilometern ab, was auf dem polarumlaufenden Satelliten mit Hilfe eines rotierenden Teleskops gelingt. Die Auftrennung in 20 spektrale Kanäle in einem Spektrum von 443 Nanometern bis 13.345 Mikrometern erfolgt für jeden Bodenpixel über optische Filter, was unterschiedliche geometrische Auflösungen von 500 beziehungsweise 250 Metern für ausgewählte Kanäle und die Nutzung von TDI (time delay and integration) ermöglicht.

MetOp

Engl. Akronym für Meteorological Operational Polar Satellite; in drei Exemplaren geplanter polarumlaufender Wettersatellit der EUMETSAT. Der erste Satellit (MetOp-A) startete am 19.10.2006 von Baikonur aus, an Bord eines russischen Sojus-2/Fregat-Trägers, der von dem europäisch-russischen Unternehmen Starsem betrieben wird. MetOp-B folgte am 18. September 2012 und ist seit Januar im operationellen Betrieb. Im April 2013 übernahm MetOp-B die Aufgaben seines Vorgängers als EUMETSATs primärer Datenlieferant auf polarer Umlaufbahn. Der Start von MetOp-C ist für Oktober 2018 vorgesehen.

MetOp ist der europäische Beitrag zu dem europäisch-amerikanischen Polarsatelliten-System. Innerhalb dieser Kooperation übernimmt MetOp die Morgen-Beobachtung, während die NOAA-Satelliten die Nachmittagssituation abdecken.

MetOp wurde vom europäischen Wettersatelliten-Betreiber EUMETSAT und der europäischen Weltraumagentur ESA in Zusammenarbeit mit dem Unternehmen EADS, der französischen Weltraumagentur CNES und der US-Wetterbehörde NOAA für das EUMETSAT Polar System (EPS) entwickelt. Das EPS dient der operationellen Meteorologie und der Klimabeobachtung. Die Satellitenkonstruktion basiert auf einer Version der von Astrium gebauten 'Polaren Plattform' des Envisat Satelliten.

Jeder Satellit der MetOp-Reihe hat eine nominelle Lebenszeit im Orbit von 5 Jahren, einschließlich einer sechsmonatigen Zeitüberlappung von aufeinanderfolgenden Satelliten (d.h. zwischen MetOp-A und MetOp-B, und zwischen MetOp-B und MetOp-C) was zusammen eine Dienstzeit von über 14 Jahren ergibt. Die europäischen und amerikanischen Satelliten tragen jeweils einen Satz identischer Sensoren: AVHRR/3 und die ATOVS-Instrumentengruppe, bestehend aus AMSU-A, HIRS/4 und MHS. NOAA liefert die meisten der gemeinsamen Instrumente, und EUMETSAT beliefert NOAA mit dem Microwave Humidity Sounder (MHS). Zusätzlich tragen die MetOp-Satelliten eine Reihe europäischer Sensoren, wie IASI, ASCAT, GOME-2 and GRAS, welche die Atmosphärensondierungen verbessern, sowie das atmosphärische Ozon und die oberflächennahen Windvektoren über den Ozeanen messen sollen.

METOP
METOP METOP METOP

MetOp-A mit ausgefahrenem Sonnensegel in einer künstlerischen Darstellung.

MetOp ist der europäische Beitrag zu dem europäisch-amerikanischen Polarsatelliten-System.

In der Zeit, die MetOp für eine Erdumrundung benötigt, hat sich die Erde um 25° weitergedreht. Dies bedeutet, daß er seine Beobachtungen bei jedem Orbit auf einem jeweils unterschiedlichen Beobachtungsstreifen macht.

Zu größerer Darstellung auf Grafiken klicken

Quelle: ESA

MetOp wird überwacht und kontrolliert über die EUMETSAT Polar System Command and Data Acquisition Station in Svalbard, Norway. Die Daten werden bei jedem Orbit einmal nach Svalbard heruntergeschickt und dann zu EUMETSAT übermittelt.

MetOp-A mit einem Gewicht von 4,7 Tonnen führt an Bord zehn Instrumente mit. Beispielsweise vermag er mit seinem ASCAT Scatterometer die Oberflächenwinde über den Meeren zu messen. Die IR-Atmosphären-Sonde (IASI) benutzt die Techniken der Interferenzmessverfahren. Die Meteorologen erhalten von der Sonde Spektren der Emissionen aus der Atmosphäre, mittels der Temperatur- und Feuchtigkeitsprofile mit einer vertikalen Auflösung von 1 km und einer Präzision von 1 K (Kelvin) erstellt werden können.

Darüber hinaus stellt dieser neue Wettersatellit Bilddaten von Land- und Wasserflächen her und fungiert als Hilfsmittel bei der Suche und Rettung von Schiffen und Flugzeugen in Not. Auch ein Datenübertragungssystem befindet sich an Bord, das mit Messstationen und anderen Datenerfassungseinrichtungen verbunden ist.

MetOp-Satelliten umrunden die Erde auf einer sonnensynchronen polaren Umlaufbahn in 817 km Höhe (Inklination 98,7°). Damit kann praktisch jeder Punkt der Erdoberfläche bei ähnlichen Sonneneinstrahlungsbedingungen überflogen werden. Die Umlaufzeit beträgt 101,7 min, der Wiederholzyklus 5 Tage.

In der Zeit, die MetOp für eine Erdumrundung benötigt, hat sich die Erde um 25° weitergedreht. Dies bedeutet, daß er seine Beobachtungen bei jedem Orbit auf einem jeweils unterschiedlichen Beobachtungsstreifen macht. Zudem haben seine Instrumente unterschiedliche Schwadbreiten und brauchen daher verschieden lang um die gesamte Erde abzudecken. Alle Instrumente erzielen aber spätestens nach 5 Tagen eine globale Abdeckung.

Erste weltweite Darstellung des atmosphärischen NH3 (Ausschnitt)

nh3_europe_lres

Quellen: CNES / ESA


nh3_po_lres

Zu größerer Darstellung auf Grafiken klicken

Informationen zur Wirkung von NH3:

Basierend auf Messungen mit dem Sensor IASI auf dem MetOp Satellliten konnten erstmals globale Konzentrationen von Ammoniak (NH3) in der Atmosphäre gemessen werden. Ammoniak spielt eine Schlüsselrolle für die Umwelt (Versauerung, Reduktion der Biodiversität, atmosphärisch wirksam).

Die Karte - basierend auf Satellitendaten aus 2008 - zeigt deutlich auf, dass regionale Konzentrationen vorkommen (hot spots). Diese Hot Spots treten erwartungsgemäß vor allem über landwirtschaftlich genutzten Flächen in Europa, N-Amerika und Asien auf.
Der Ausschnitt links zeigt Europa, der Ausschnitt rechts die Po-Ebene in Norditalien.
Rot steht für die jeweils höchsten Konzentrationen. Die Messergebnisse von IASI wurden über Bilddaten des Sensors MODIS gelegt.

MetOp wird überwacht und kontrolliert über die EUMETSAT Polar System Command and Data Acquisition station in Svalbard, Norway. Die Daten werden bei jedem Orbit einmal nach Svalbard heruntergeschickt und dann zu EUMETSAT in Darmstadt übermittelt. Von dort besteht ein Datenaustausch mit der NOAA in den USA. Nach der anschließenden Aufbereitung werden die Daten innerhalb von 2h15min nach der Datenaufnahme an die Nutzer weitergeleitet. Die Datenaufbereitung erfolgt durch EUMETSAT und NOAA.

Die drei Plattformen der MetOp-Reihe sollen qualitativ hochwertige Daten bis mindestens 2020 sicherstellen. Dazu trägt auch die Ausstattung der MetOp-Serie mit weitgehend identischen Instrumenten bei. Zusammen mit dem in einem Nachmittagsorbit - die lokale Zeit beim Überflug im absteigenden Knoten beträgt 14 Uhr - die Erde umkreisenden polaren Satelliten NOAA-18 ermöglicht MetOp-A eine umfassende Überwachung des globalen Wettergeschehens aus der Erdumlaufbahn.

MetOp-A wird vorläufig die Mission von MetOp-B unterstützen, solange wie sein Beitrag Nutzen bringt.

Weitere Informationen:

MetOp-SG

Engl. Akronym für Meteorological Operational Polar Satellite Second Generation; Nachfolgeserie für die Wettersatelliten MetOp. Die Satelliten sollen die Erde auf erdnahen, polarer Umlaufbahn umkreisen und damit die geostationären Gegenstücke der Meteosat-Serie ergänzen. Die Serie soll aus zwei Satellitenlinien bestehen, MetOp-SG A und MetOp-SG B, die in jeweils 3 Exemplaren gebaut werden und zeitversetzt gestartet werden. Airbus Defence & Space (FR) ist der Hauptauftragnehmer für die Serie A und Airbus Defence & Space (DE) für die Serie B.

Folgende Instrumente sind derzeit für die beiden Satelliten geplant:

MetOp-SG A MetOp-SG B
Visible Infrared Imager Microwave Imager (MWI)
Microwave Sounder (MWS) Ice Cloud Imager (ICI) (optional)
Infrared Sounder Scatterometer (SCA)
Radio Occultation (RO) Radio Occultation (RO)
Multi-view Multi-channel Multi-polarization imager (3MI) Argos Data Collection Service
Radiation Energy Radiometer Search and Rescue (COSPAS-SARSAT)
Sentinel-5 Space Environment Monitor
Low Light Imager  

Weitere Informationen:

MHS

Engl. Akronym für Microwave Humidity Sounder; Mikrowellensensor auf den NOAA-N/N'- und MetOp-Satelliten zur Erstellung von vertikalen atmosphärischen Feuchtigkeitsprofilen, auch in und unterhalb von Wolken und zur Messung von Wolken- und Niederschlagsparametern. Aktuell (Mai 2015) befinden sich vier MHS-Instrumente im Orbit (auf Metop-A und -B und NOAA-18 und -19) und funktionieren mit Ausnahme eines Kanals auf NOAA-19 problemlos. Ein fünftes Instrument wird an Bord von Metop-C 2018 nachfolgen.
Das MHS-Instrument wurde in Portsmouth entwickelt von Matra Marconi Space UK (jetzt Airbus Defence & Space). Es ist ein fünfkanaliges passives Mikrowellenradiometer, das den Bereich von 89 bis 190 GHz umfasst. Es ist im Design dem Instrument AMSU-B sehr ähnlich, einige Kanäle wurden aber geändert.

Weitere Informationen:

Michelson-Interferometer

1882 vom polnisch-amerikanischen Physiker A.A. Michelson entwickeltes, ursprünglich zum Nachweis der Erdbewegung relativ zu einem hypothetischen Äther entwickeltes Interferometer.

Im Aufbau des Michelson-Interferometers wird das einfallende Lichtbündel an einer halbdurchlässig verspiegelten Platte in zwei Teilstrahlen aufgespalten und an je einem Spiegel reflektiert. Die gespiegelten Strahlen überlagern sich nach Reflexion an der Platte wieder. Je nach der Orientierung des virtuellen Bildes des einen Spiegels zum anderen entstehen dabei Interferenzen (Überlagerung der Lichtwellen) gleicher Neigung oder gleicher Dicke, die z.B. mit einem Mikroskop oder durch einen Schirm beobachtet werden können. Zum Ausgleich von Gangunterschieden durch unterschiedliche Lichtwege wird eine Kompensationsplatte in den einen Strahlengang gebracht. Durch Verschieben eines Spiegels kann der Gangunterschied und damit das Interferenzbild gezielt veränder werden.

Michelson Interferometer Schema eines Michelson-Interferometers

 

Das einfallende Licht wird an der teildurchlässigen Trennplatte in zwei kohärente Anteile gespalten, von denen einer in Richtung des Spiegels 1 reflektiert wird, der andere durch die Trennplatte in Richtung Spiegel 2 hindurchtritt.

Zu größerer Darstellung auf Grafik klicken


Quelle (verändert): University of Toledo

 
Micro Air Vehicle (MAV)

Gruppe von Drohnen, die sich durch ihre geringe Größe (10 cm oder kleiner) und geringe Fluggeschwindigkeit (10 m/s) auszeichnen.
Anwendungsbereiche für MAVs sind vor allem die nachrichtendienstliche und militärische Aufklärung. Die MAVs verfügen in der Regel über eine Videokamera und sind auf Grund ihrer geringen Größe schwer zu entdecken. In Zukunft ist die Entwicklung von MAVs in Insektengröße zu erwarten.
Zivile Anwendungen von MAVs werden aufgrund von innovativen Werkstoffen wie Kohlefaserverbundwerkstoffen, verfügbaren Akkus hoher Energiedichte sowie der dadurch geringeren Anschaffungskosten immer attraktiver. Zum Einsatz kommen MAVs dabei zunehmend im Bereich der zivilen Sicherheit wie im Polizeibereich und bei Feuerwehreinsätzen zu Luftqualitätsmessungen. Interessante Anwendungen ergeben sich dadurch im Bereich vermaschter Sensor-Netze. Einige Universitäten, wie beispielsweise die Universität Münster entwickeln Mikrodrohnen für geoinformatische Anwendungen. In Katastrophenfällen kommen Mikrodrohnen in vergangener Zeit vermehrt zum Einsatz. Bei einem größeren Erdrutsch in Schmalkalden, Thüringen, nutzte das Institut für Geowissenschaften der Friedrich-Schiller-Universität in Jena eine Mikrodrohne, um den entstandenen Krater auszumessen.

MicroSAR

Bezeichnung für eine Niedrigpreis-Familie von europäischen SAR-Satelliten.

MICROSCOPE

Franz. Akronym für Microsatellite à Traînée Compensée pour l'Observation du Principe d'Equivalence; für 2015 vorgesehene Mission zur Erforschung des Äquivalenzprinzips. Dazu trägt er zwei Körper aus unterschiedlichen Materialien, deren Falleigenschaften er im Schwerefeld der Erde beobachtet. Microscope ist der dritte aus der Mikrosatelliten-Serie 'Myriade' der CNES.
Microscope wiegt ca. 120 kg, liefert eine elektrische Leistung von 50 W und trägt eine Nutzlast von 40 kg. Die Stabilisation übernehmen elektrische Triebwerke. Seine sonnensynchrone Umlaufbahn wird in 710 km Höhe liegen. Der Satellit basiert auf dem MYRIADE-Satellitenbus (z.B. DEMETER).

Weitere Informationen:

Mie-Streuung

Engl. Mie scattering; nach Gustav Mie (1868-1957) benannte Streuung von elektromagnetischer Strahlung an kugelförmigen Teilchen, deren Radius von gleicher Größenordnung wie die Wellenlänge der auftreffenden Strahlung ist. In der Atmosphäre bedeutet dies in erster Linie die Streuung von Lichtstrahlen an den Aerosolpartikeln (Wasserdampf, Rauch, Staub usw.). Die Streuung erfolgt mit zunehmender Teilchengröße immer mehr nur nach vorne. Aufgrund der starken Vorwärtsstreuung erscheint der dunstige Himmel in der Richtung der Sonne wesentlich heller als in der entgegengesetzten Richtung.
Nach der Mie-Theorie ist der Streukoeffizient umgekehrt proportional zu la, wobei der Exponent a bei durchschnittlichen Verhältnissen in der Atmosphäre den Wert 1,3 annimmt. Im Gegensatz zur Rayleigh-Streuung ergibt sich bei der Mie-Streuung demnach nur eine schwache Wellenlängenabhängigkeit. Als Folge davon verursacht die Mie-Streuung auch keine charakteristische Streufarbe des Himmels, sondern führt zu einem weißlich aufgehellten Himmel. Sie tritt vornehmlich in den unteren Schichten der Atmosphäre auf.

mie_scatt_cloud_schem

  Mie-Streuung

Mie-Streuung überwiegt an Tagen wenn viele große Partikel in der Luft sind – das können Wassertropfen in Wolken sein, Dunst oder Qualm. Diese Partikel sind größer als die Wellenlängen der Lichtstrahlen mit denen sie kollidieren. Wenn Strahlung auf große Partikel trifft, wird keine Wellenlänge bevorzugt gestreut. Alle Wellenlängen werden gleich stark gestreut und daher bleibt das Licht Weiß. Deswegen sind Wolken weiss – sie bestehen ja aus großen Wassertröpfchen. Die Lichtstrahlen werden nicht wie bei der Rayleigh-Streuung in alle Richtungen gleichmäßig gestreut: daher haben Wolken auch ihre relativ scharfe Abgrenzung.

Zu größerer Darstellung auf Grafik klicken

Quelle: Lyndon State College

 
Mikrowellen

Engl. microwaves, franz. micro ondes; elektromagnetische Strahlung mit Wellenlängen zwischen ca. 1 mm und einem Meter, das entspricht Frequenzen zwischen 0,3 GHz und 300 GHz. Mikrowellen kommen in der Natur vor oder sie werden in der Radartechnik, im Mikrowellenherd sowie in vielen technischen Anwendungen wie Plasmaanlagen, drahtlosen Kommunikationssystemen (Mobilfunk, Bluetooth, Satelliten-Fernsehen, WLan) oder Sensorsystemen eingesetzt.

DIN 18716bezeichnet Mikrowellen als "Strahlung, deren Wellenlänge größer als die der Infrarotstrahlung ist", und zwar in dem o.g. Wellenlängenbereich.

elmagn_spektrum

Zu größerer Darstellung auf Grafik klicken

  Elektromagnetisches Spektrum

When operational weather satellites were first launched, instruments relied mainly on visible and infrared sensing channels at relatively short wavelengths from about 0.4 to 15 micrometers (10-6 m). Microwave instruments sense much longer wavelengths, expressed in units of frequency called gigahertz (GHz). The frequencies for meteorological observations fall in the range from about 5 to 200 GHz or 6 to 0.15 cm. This frequency range allows us to observe clouds, precipitation, and water vapor, monitor land and sea surfaces, and perform atmospheric profiling of temperature and humidity.

Quelle: The COMET Program

 

Strahlung dieser Art wird von den Materialien an der Erdoberfläche aufgrund ihrer Temperatur abgegeben. Diese Signale, die mit Mikrowellenradiometern empfangen werden können, vermögen Informationen über Schneebedeckung, Bodenfeuchte, Ölverschmutzung u.ä. zu vermitteln.
Mikrowellen unterscheiden sich in ihrem Verhalten grundlegend von der elektromagnetischen Strahlung im optischen und thermalen Spektralbereich. Sie werden von der Atmosphäre kaum beeinflusst und vermögen auch Wolken, Dunst, Rauch, Schnee und leichten Regen fast ungestört zu durchdringen. Deshalb ist ihre Anwendung in der Fernerkundung praktisch unabhängig vom Wetter. Dennoch beeinflusst die Atmosphäre die Mikrowellenstrahlung in vielfacher Weise. Aus diesem Grund sind gemessene Strahlungstemperaturen eines Objekts in realer Umgebung zu korrigieren.
Da die Signale von geringer Intensität sind, lassen sie sich nur in grober geometrischer Auflösung erfassen. Als Folge können durch passive Mikrowellen-Fernerkundung keine zur Interpretation geeigneten Bilder erzeugt werden.
Hingegen lassen sich detaillierte Bildwiedergaben durch aktive Systeme (Radar) gewinnen, welche Mikrowellen-Strahlung einer bestimmten Wellenlänge selbst erzeugen, vom Systemträger aus schräg auf die Erdoberfläche abstrahlen und die reflektierten Signale in Bilddaten umsetzen.

 
P-Band
f ≈
0,3 Ghz
 
l
100 cm
 
Frequenzbänder im Mikrowellenbereich

Die Frequenzen der Mikrowellen wurden im historischen Kontext in Regionen (sog. Bänder) unterteilt, denen ein Buchstabencode zugeordnet ist. Dies geschah im 2. Weltkrieg zur militärischen Geheimhaltung. Obwohl diese Codierung nicht offiziell ist, wird sie allgemein benutzt. Die publizierten Zuordnungen variieren allerdings beträchtlich.


Quelle: Albertz / Wiggenhagen 2009
L-Band
f ≈
1,1 - 1,4 Ghz
l
25 cm
S-Band
f ≈
2,7 - 3,9 Ghz
l
10 cm
C-Band
f ≈
5,3 - 5,5 Ghz
l
5 cm
X-Band
f ≈
9,2 - 9,4 Ghz
l
25 mm
Ku-Band
f ≈
16 Ghz
l
18 mm
Ka-Band
f ≈
25 Ghz
l
10 mm
V-Band
f ≈
50 - 75 Ghz
l
5 mm
W-Band
f ≈
95 Ghz
l
3 mm
Mikrowellen-Fernerkundung

Engl. microwave sensing; Fernerkundung mit Hilfe von Sensoren, die im cm-Wellenbereich empfindlich für die von der Erde oder der Atmosphäre reflektierte Strahlung sind. Es kommen passive Systeme, wie auch aktive Systeme zum Einsatz. Zu letzteren zählt die Radar-Fernerkundung, die im Vergleich zum Monitoring im Bereich des sichtbaren Lichtes und des Infrarots andere Möglichkeiten erschließt. Dazu gehören die erhöhte Eindringtiefe der Strahlung in die Erdoberfläche (X-Band, 3 cm-Wellen), die Unabhängigkeit von der Tageszeit sowie die Unabhängigkeit von Witterungsbedingungen, da die Moleküle in der Atmosphäre im Mikrowellenbereich nicht stören. Nachteilig ist der hohe instrumentelle Aufwand und die zahlreichen Fremdeinflüsse auf die Messergebnisse.
Anwendungen der passiven Mikrowellen-Fernerkundung umfassen Meteorologie, Hydrologie und Ozeanographie. Die Beobachtung der Atmosphäre ermöglicht es, atmosphärische Profile zu messen, sowie je nach wellenlänge den Wasser- und Ozongehalt der Lufthülle zu bestimmen. In der Hydrologie kann die Bodenfeuchte ermittelt werden, da die Mikrowellenstrahlung von der Feuchtigkeit abhängt. Für die Ozeanographie ist die Beobachtung von Meereis, Strömungen und Winden, wie auch von Verschmutzungen, z.B. durch Öl von Bedeutung.

active_vs_passive_table

Vergleich von aktiven und passiven Mikrowellen-Sensoren

 

 

Zu größerer Darstellung auf Abbildung klicken

Quelle: The COMET Program
 

Übersicht über Mikrowellensensoren:

passive Sensoren:

  • Radiometer

nicht-bildgebende aktive Sensoren:

  • Altimeter: Abstand zwischen Sensor und Oberfläche aus Laufzeit eines Pulses →Topographie der Eis- bzw. Meeresoberfläche; Form gibt Information über Rauhigkeit (Windstärke und Wellenhöhe); ERS 1-2, SEASAT, TOPEX/Poseidon, JASON
  • Scatterometer: Aussenden unter mehren Winkeln; Analyse der winkelabhängigen Rückstreuung; Windfeld über offenem Wasser, Wellenhöhen, Rauhigkeit des Meereises
  • Niederschlagsradar: Pulsradar mit schmalem Strahl und vertikaler Blickrichtung; vertikal aufgelöste Rückstreuung an Niederschlagpartikeln, z.B. PR (Precipitation Radar) auf TRMM oder DPR (Dual-Frequency Precipitation Radar) auf GPM
  • Wetterradar am Boden

bildgebende aktive Sensoren:

  • Radar mit realer Apertur (RAR)
  • Radar mit synthetischer Apertur (SAR): Nutzung sehr breit abstrahlender Antennen; Abtastung der Erdoberfläche mittels Pulsbreite (X-Richtung) und Flugrichtung (Winkel durch synthetic aperture)
    - SAR-Polarimetrie
    - SAR-Interferometrie
    - Differentielle SAR-Interferometrie

Weitere Informationen: Satellitenfernerkundung des Emissionsvermögens von Landoberflächen im Mikrowellenbereich (Diss. Claudia Wunram)

Mikrowellenradiometrie

Engl. microwave radiometry; (passive) Radiometermessungen im Bereich der Mikrowellen (ca. 1 cm - 1 m Wellenlänge). Die passive Mikrowellenradiometrie nutzt die Strahlung, die von jedem Objekt in diesem Teil des elektromagnetischen Spektrums abgegeben wird. Die natürlich ausgestrahlte Energie in diesem Bereich ist sehr gering verglichen mit dem optischen Bereich.
Bei passiver Mikrowellenradiometrie werden Daten mit einer Antenne innerhalb ihres Gesichtsfeldes aufgezeichnet. Dieses muss groß genug sein, um genügend Energie aufzunehmen. Daher haben die meisten passiven Mikrowellen-Sensoren eine geringe räumliche Auflösung. Die Aufnahme erfolgt in Profilen oder zeilenweise.
Die Radiometer-Messungen beziehen sich direkt auf die Temperatur der strahlenden Objektoberfläche, wobei die Zusammenhänge allerdings komplex sind. So ändert sich die von einem Körper beobachtete Strahlung mit Beobachtungswinkel, Polarisation, Wellenlänge und Oberflächenrauigkeit. Auch der physikalische Zustand des Objekts wie etwa Feuchtigkeit hat großen Einfluss.
Die Mikrowellenradiometrie gewinnt besonders beim Satelliteneinsatz für die Meteorologie an Bedeutung, da die aktuellen Geräte eine gute räumliche Auflösung besitzen (z.B. <50 km für den 22 GHz-Kanal). Vorrangiges Ziel ist die Bestimmung der Parameter Luftfeuchte, Wolkenwassergehalt und Niederschlag. Mikrowellenhygrometer messen neben der Strahlungstemperatur den Dampfdruck und das gesamte flüssige Wasser in der Atmosphäre unter Nutzung des Frequenzbereiches 24 GHz - 31 GHz. Klimatologisch von Bedeutung ist die Bestimmung der Bodenfeuchte der obersten Millimeter und der Schneegebiete.
Besonders wichtig ist die passive Mikrowellenerkundung für die Ozeane, da Parameter wie Meereis, Wassertemperatur sowie Wasserinhaltsstoffe (Salzgehalt) mit teilweise ausreichender Genauigkeit gemessen werden können. Mit aktiven Methoden kann die Meeresoberfläche abgetastet und aus der Art der Rückstreuung der Mikrowellen auf Seegangseigenschaften und damit auf den Bodenwind geschlossen werden.

Advanced Microwave Scanning Radiometer

Bildhafte Darstellung von AMSR-E-Messdaten der Meeresoberflächentemperatur und
des Hurrikan Katrina

Dieses Bild stellt die Meeresoberflächentemperaturen der Karibik und des Atlantik im 3-Tagesschnitt (25.-27.8.2005) dar. Es basiert auf den Messdaten des Radiometers AMSR-E (Advanced Microwave Scanning Radiometer ) an Bord des NASA-Satelliten Aqua.


Zu höherer Auflösung auf Abbildung klicken

Quelle: NASA
 
Militärische Fernerkundung

Sektorspezifische Fernerkundung bezüglich rein militärischer Informationen, aber auch bezüglich Geoinformationen zur Koordination von Streitkräften, zur Optimierung ihrer militärischen Mittel und zur Gewährleistung einer soliden Entscheidungsfindung. Somit ist Fernerkundung Teil der militärischen Aufklärung, bei der man unterscheidet strategische, operative und taktische Aufklärung unterscheidet. Dabei beschäftigt sich die strategische Aufklärung eher mit den Absichten und Möglichkeiten feindlicher Kräfte, operative Aufklärung mit den Absichten und taktische Aufklärung mehr mit dem, was feindliche Kräfte unternehmen.

Entsprechende technische Systeme sind

  • boden- oder wassergestützt (z.B. Bodenradar, Aufklärungsschiffe),
  • luftgestützt (Drohnen (UAV), Aufklärungsflugzeuge) und auch
  • weltraumgestützt (Satelliten).

Praktisch seit Beginn der Raumfahrt vor ca. 50 Jahren haben die damaligen Großmächte (die USA und die UdSSR) Spionagesatelliten entwickelt und ins All geschickt. Sie wurden entwickelt, um die Aktivitäten anderer Länder mithilfe von Instrumenten mit hoher Raum- und Spektralauflösung zu beobachten. Einige dieser Geräte wurden auch entwickelt, um eventuelle nukleare Explosionen festzustellen oder auch um frühzeitig den Start feindlicher ballistischer Raketen aufzudecken.

Die Systeme, Technologien und Methoden der im zivilen Bereich angewandten Kartographie mittel Satelliten sind zumeist aus militärischen Programmen entlehnz. Die ersten photogrammetrischen Kameras auf Satelliten flogen als streng geheime Missionen der USA und der früheren UdSSR. Die amerikanische Armee hat bereits 1959 erste experimentelle Erdbeobachtungsgeräte (Discoverer und Samos) in eine Umlaufbahn gebracht. Diese Pioniere haben ihren Platz inzwischen Dutzenden von Spionagesatelliten des Typs Key-Hole (KH) überlassen. Die Sowjetunion ist diesem Beispiel mit ihrem Prototypen Kosmos-4, alias Zenit-2 (1962) und dessen zahlreichen Nachfolgern gefolgt. Die Filme wurden mit Kapseln abgeworfen und schwebten an Fallschirmen zur Erde .

Diese ersten militärischen Fernerkundungsgeräte unterschieden sich von anderen Beobachtungssatelliten durch die sehr niedrige Umlaufbahn, ihre kurze Lebensdauer im Weltraum (wenige Tage bis Wochen) und durch ihre Optik. Aus technischer Sicht waren sie lediglich mit sehr ausgeklügelten Fotoapparaten ausgestattet. Sobald sie sich auf einer zu dem zu untersuchenden Objekt passenden Umlaufbahn befanden, spulten sie ihren Film ab. Ihre Mission endete, sobald der Film vollständig belichtet war. Der belichtete Film wurde in einer Kapsel abgeworfen und von Spezialfluzeugen in der Luft aufgefangen. Zurück auf der Erde wurde der Film entwickelt und die einzelnen Aufnahmen analysiert. Das unter dem Namen CORONA geführte Programm der Amerikaner wurde bis 1972 praktiziert. Das Konzept des analogen Fils mit dem Abwurf der Filmkapsel wurde Mitte der 1970er Jahre durch vollelektronische Systeme abgelöst. In den 90er Jahren wurden die damals gewonnenen Aufnahmen unter Präsident Clinton der Öffentlichkeit zugänglich gemacht (Historical Imagery Declassification Fact Sheet). Sie liegen in digitalisierter Form vor.

Durch die technischen Entwicklungen und Fortschritte der vergangenen 40 Jahre konnte das Militär immer raffiniertere Geräte einsetzen: mit rechnergestützter Bildverarbeitung, Infrarot- und Radargeräten und mit der Fähigkeit, die Daten aus dem Weltraum zur Erde zu senden. Es war also nicht mehr nötig zu warten, bis die Satelliten wieder auf die Erde zurückgekehrt waren, um die gesammelten Daten auszuwerten.

Die von Militärsatelliten verwendete Auflösung der Sensoren ist naturgemäß geheim. Aber angesichts der Fähigkeiten der leistungsfähigsten zivilen Satelliten kann man diese mehr oder weniger abschätzen (s. Wikipedia 'Spionagesatellit'). Die neueste Generation der US-Aufklärungssatelliten im optischen Bereich soll geometrische Auflösungen kleiner als 10 cm erreichen. Mittels geostationärer Datenrelaisstationen stehen diese Aufnahmen auch in Echtzeit und wahrscheinlich zeitweise als Videosequenz zur Verfügung. Die technische Auslegung und Größe dieser Satelliten ist dabei mit dem Hubble Space Telescope zu vergleichen. Mit ausreichend Treibstoff an Bord sind diese Satelliten auch in der Lage, die Inklination und die Höhe ihres Orbits zu verändern, um bestimmte Ziele auf der Erde früher oder öfter zu erreichen. Die vom US National Reconnaissance Office (NRO) betriebenen Satelliten sind mit der Bezeichnung Keyhole ("Schlüsselloch") versehen.

Militärische Satelliten weisen gegenüber zivilen Versionen verschiedene Unterschiede auf. Dazu gehören die Abschirmung der Satelliten gegen Strahlung oder auch ihre Fähigkeit, je nach Krisensituation rasch die Umlaufbahn zu wechseln. Das setzt also voraus, dass die Militärsatelliten über mehr Treibstoff verfügen müssen, da sie einen höheren Verbrauch haben. Sie müssen aber auch die Fähigkeit besitzen, ein und denselben Punkt auf dem Globus mehrmals überqueren zu können, um die Entwicklung einer Situation zu verfolgen.

Ferner können Satelliten als Träger von optischen oder Radarsensoren – anders als Flugzeuge oder Drohnen – jederzeit ohne Verletzung von Hoheitsrechten aufklären. Sie sind damit besonders geeignet, ohne eskalierende Wirkung Informationen zur Krisenfrüherkennung, Krisenvorsorge und zum wirksamen Krisenmanagement zu gewinnen. Dabei haben Radarsatelliten gegenüber optischen Satelliten den Vorteil, dass sie unabhängig von Tageszeit und Wetter aufklären können.

Wegen der nicht gegebenen Allwetterfähigkeit der optischen Systeme benötigen sicherheitsrelevante Anwendungen tag-, nacht- und allwetterfähige aktive Radarsysteme (Synthetic Aperture Radar). Einige wenige solcher Systeme sind seitens des US-Militärs im Einsatz (Lacrosse).

Angesichts der historischen amerikanisch-russischen Vorherrschaft im Bereich der Fernerkundung haben sich auch andere Nationen mit Erdbeobachtungsgeräten ausgestattet.
So hat Israel 1988 seinen ersten Satelliten der Offeq-Serie ins All geschickt. Vor nicht allzu langer Zeit hat sich auch China mit Erdbeobachtungssatelliten ausgerüstet, mit rückführbaren FSW-Kapseln (Fanhui Shei Weixing) und einem System mit doppeltem – zivilem und militärischem – Zweck, dem Zi Yuan, mit dem auch Daten an die Erde gesendet können.

In Europa entwickelte Frankreich in Zusammenarbeit mit Italien und Spanien seit 1995 die optischen Satelliten der Reihe HELIOS I. Das französische Militärprogramm HELIOS II (ein Satellit, der von der zivilen Plattform SPOT abstammt), ebenfalls im optischen Bereich, befindet sich heute im Orbit. Der Satellit Hélios-2A wurde im Dezember 2004 gestartet. Seine Bilder werden von der französischen Armee genutzt, aber es bestehen auch Partnerschaften mit Spanien, Belgien, Italien, Deutschland und Griechenland. Der zweite Satellit dieser Baureihe, Hélios-2B, wurde 2009 gestartet, um die Beobachtung bis mindestens 2014 zu übernehmen.

Deutschland setzt seinerseits auf eine Konstellation mit militärischen Radarsatelliten: das Programm SAR-Lupe. Hierbei handelt es sich um eine Gruppe von fünf Geräten, von denen das erste bereits im Dezember 2006 gestartet wurde.
Frankreich entwickelt derzeit zwei Zwillingssatelliten für optische Beobachtungen: Die sogenannten Pléiadesbestehen aus zwei kleinen Satelliten mit einer Raumauflösung von 0,7 m und einem Sichtfeld von 20 km. Die Satellitengruppe Pléiades wird stereoskopische Aufnahmefähigkeiten besitzen, um selbst Bedürfnisse für feine Kartierungen, besonders im städtischen Raum, abzudecken und zusätzlich zur Luftfotografie eingesetzt werden zu können. Deutschland, Belgien, Italien, Spanien, Schweden und Österreich haben sich diesem „dualen“ (zivilen und militärischen) Programm angeschlossen.

Italien entwickelt eine Gruppe von vier Radarsatelliten, ebenfalls zu militärisch-zivilen Zwecken. Sie tragen den Namen Cosmo SkyMed und sollen gemeinsam arbeiten. Diese Gruppe (Pléiades und Cosmo SkyMed) bildet das Kernstück des Kooperationsprojekts Musis (Multinational Space based Imaging System for surveillance, reconnaissance and observation), das 2005 von Frankreich initiiert wurde. Zu den Partnern gehören Deutschland, Belgien, Italien, Spanien und Griechenland. Dieses Projekt soll bereits den Weg für die Zeit nach Helios ebnen. Das künftige Erdbeobachtungssystem soll sowohl über optische als auch über Radarinstrumente verfügen.

Um die von den Erdbeobachtungssatelliten gesendeten Daten auch nutzen zu können, hat Europa sein eigenes Expertenzentrum geschaffen. In Torrejon de Ardoz, nicht weit von Madrid (ES) entfernt, wurde 2002 das Satellitenzentrum der Europäischen Union (EUSC) eröffnet. Es handelt sich um eine Organisation, die mit der Produktion und Auswertung von Informationen beauftragt ist, die aus der Analyse von Satellitenaufnahmen von der Erde gewonnen werden.

Das Zentrum unterstützt damit die Entscheidungsfindung der Europäischen Union im Bereich der Gemeinsamen Außen- und Sicherheitspolitik (GASP) und der Europäischen Sicherheits- und Verteidigungspolitik (ESVP). Seine Beiträge betreffen insbesondere Krisenmanagementeinsätze durch die Union, dazu gehören Informationen aus der Analyse von Satellitenbildern und kollateralen Daten, einschließlich Luftaufnahmen und damit verbundenen Dienstleistungen.

Das EUSC wird durch die Beitragszahlungen der Mitgliedstaaten und durch Einnahmen aus geleisteten Diensten finanziert. Die Dienste werden im Rahmen genau definierter Initiativen geleistet. Dazu gehören Rettungs- oder humanitäre Missionen, friedenserhaltende Operationen, die Überprüfung der Einhaltung internationaler Abkommen, Krisenmanagement, die Kontrolle der Nichtverbreitung strategischer Massenvernichtungswaffen oder auch gewisse gerichtliche Untersuchungen.

Neben den Daten der rein militärischen Missionen nutzen Militär und Sicherheitsbehörden auch die Daten ziviler Satelliten. Die US-amerikanischen kommerziellen Systeme IKONOS und Quickbird-2 (im Januar 2015 verglüht) sowie deren Nachfolger GEOEYE-1 und WorldView-1, -2 und -3 werden deshalb hauptsächlich durch Kunden aus dem militärischen Bereich finanziert. die Daten dieser Satelliten erreichen eine Bodenauflösung von 0,4 m und werden zivilen Nutzern in einer Auflösung von 0,5 m ausgeliefert. Mit den acht Spektralkanälen bei World-View-2 kann auch eine bessere Kartierung von ökologischen und biologischen Vorgängen durchgeführt werden.

Weitere Informationen:

Minimum distance-Klassifikation

Syn. Methode der kürzesten Entfernung, Methode des minimalen Abstands, Minimalabstandsverfahren, überwachte Klassifikationstechnik, bei der zunächst die Mittelwerte aller durch Trainingsgebiete vertretenen Objektklassen bzw. Spektralbereiche im Merkmalsraum berechnet werden. Der euklidische Abstand der zu klassifizierenden Pixel zu diesen Klassenmittelwerten ist das wesentliche Entscheidungskriterium dieses Verfahrens. Die Zuweisung erfolgt zu jener Objektklasse, zu deren Mittelwert der geringste euklidische Abstand festzustellen ist:

Die Grauwerte aller Bildelemente werden mit dem Mittelwert verglichen und in die Klasse mit dem geringsten Abstand zum Referenzmittelwert eingeordnet.
Dieser Ansatz hat den Vorteil, dass die Zuordnung meist eindeutig ist und grundsätzlich sämtliche Pixel auch klassifiziert werden (wenn nicht bewußt ein Maximalwert der Distanz festgelegt wird). Häufig stellt die Minimaldistanz-Klassifikation einen günstigen Kompromiß zwischen rechentechnischem Aufwand und Klassifikationsqualität dar.

MIPAS

Engl./dt. Akronym für Michelson Interferometer for Passive Atmospheric Sounding/Michelson Interferometer für Passive Atmosphären-sondierung; Horizont-sondierendes (Limb Sounding) IR-Interferometer auf ENVISAT (M.b.). Es wurde bereits auf Flugzeugen und Ballons eingesetzt.
MIPAS dient der globalen Beobachtung von Spurengasen und ihrer photochemischen Wechselwirkungen in der mittleren Atmosphäre (zwischen 5 und 150 km Höhe). Mit MIPAS lassen sich Konzentrationsprofile der verschiedenen Bestandteile der Erdatmosphäre erstellen. Das Instrument erlaubt die gleichzeitige Messung von mehr als zwanzig relevanten Spurengasen einschließlich der gesamten Stickoxid-Familie und verschiedener FCKWs (Fluorchlorkohlenwasserstoffe) sowie die Temperatur in der Atmosphäre und die Verteilung von Aerosolteilchen.
Weitere Beobachtungsfelder sind: troposphärische Zirruswolken und polare stratosphärische Eiswolken, die sich aus Wasserdampf, Salpetersäure und Schwefelsäure zusammensetzen. Sie spielen eine wichtige Rolle beim Ozonabbau. Da MIPAS im infraroten Wellenbereich arbeitet, kann es seine Messungen global, zu jeder Jahreszeit und unabhängig vom Tageslicht durchführen. Das erlaubt die Beobachtung der täglichen Änderungen in der Spurengaskonzentration.
Wissenschaftler wollen die Daten von MIPAS nutzen, um vermehrt Erkenntnisse über die Austauschprozesse zwischen Stratosphäre und Troposphäre sowie über die Chemie der Stratosphäre zu sammeln. Zudem werden sie damit Studien der oberen Atmosphäre, Mesosphäre und unteren Thermosphäre betreiben. Die Ergebnisse sollen die Vorhersage von Klimaänderungen verbessern.
Im Auftrag der ESA wurde MIPAS unter Führung der Astrium GmbH unter Mitarbeit von über 20 weiteren Firmen und Institutionen entwickelt und gebaut.

MIPAS - Geometrie und allgemeine Prinzipien MIPAS - Geometrie und allgemeine Prinzipien


Das Instrument kann Beobachtungen in zwei Richtungen vornehmen






Quelle: ESA (R.o.)
 
Spectral Ranges of ATMOS Instruments Spectral Ranges of ATMOS Instruments

 

 

Zu größerer Darstellung auf Grafik klicken







Quelle: DLR (R.o.)
 

Weitere Informationen:

MIR
  1. Akronym für Mittleres Infrarot
  2. Russ. für Frieden; 1986 in ihre Umlaufbahn gebrachte und Mitte März 2001 bei einem kontrollierten De-Orbiting größtenteils verglühte, bemannte sowjetisch-russische Raumstation.

Kernstück der Station war ein zylinderförmiges Modul von 13,5 Metern Länge mit einem Durchmesser von 4,2 Metern. An der Stirnseite dieses Moduls befand sich ein Hauptankoppelungsstück mit fünf Anlegestutzen. Eine sechste Ankoppelungsmöglichkeit bot sich am Heck des zentralen Moduls. Damit war die Station durch Versorgungs- und Forschungsmodule erweiterbar.
Die Forschungsmodule dienen astrophysikalischen, biomedizinischen, geowissenschaftlichen und materialwissenschaftlichen Untersuchungen sowie Aufgaben der Fernerkundung. 1995 gelang erstmals die Ankoppelung der Mir an ein amerikanisches Space Shuttle, bis 1998 folgten sechs weitere amerikanische Raumfähren.
Die Besatzungen der Mir, jeweils zwei oder drei Kosmonauten, arbeiten meist mehrere Monate auf der Station; einige blieben auch länger, 1987/88 verbrachte eine Besatzung ein ganzes Jahr auf der Station. Die Mir war in den 15 Jahren ihres Bestehens von 106 Kosmonauten besucht worden.

Mir

Mir

Die russische Raumstation Mir über den südamerikanischen Anden und der Pazifikküste, als Details die trockenen Seeböden des Salar Uyuni und des Salar de Coipasa, Chile.


Zu größerer Darstellung auf Abbildung klicken

Quelle: NASA
 

Weitere Informationen:

MIRAS

Engl. Akronym für Microwave Imaging Radiometer with Aperture Synthesis; im L-Band arbeitendes, abbildendes Radiometer als Hauptnutzlast auf dem Satelliten SMOS der ESA. Ziel ist die Erkundung der Bodenfeuchte und des Ozeansalzgehaltes.

Weitere Informationen:

MIRAVI

Engl. Akronym für MERIS Images Rapid Visualisation, dt. 'Schnellansicht der MERIS-Bilder'; Service der ESA zum Abruf von Satellitenbildern in Quasi-Echtzeit für die breite Öffentlichkeit. MIRAVI folgte der Bahn des Satelliten ENVISAT (M.b.) um die Erde, erzeugte aus den von ENVISATs optischem Instrument MERIS gesammelten Rohdaten Bilder und stellte diese innerhalb von zwei Stunden ins Internet. Die Nutzung von MIRAVI ist kostenlos und erfordert keine Registrierung. Envisat umkreiste die Erde in 800 km Höhe in der polaren Umlaufbahn, wodurch MERIS im Dreitagesrhythmus die gesamte Erdoberfläche beobachten konnte. MERIS maß die von der Erde reflektierte Sonnenstrahlung, was bedeutete, dass das Sonnenlicht für die Erstellung der Bilder notwendig war. Die Daten sind inzwischen über das ESA Earthnet Online erreichbar.

N-S-Bildstreifen von
Schwäbischer Alb bis
Lago Maggiore

 

12. September 2006

 

Zu größerer Darstellung auf Bild klicken

Quelle: ESA
 

Obwohl diese Bilder faszinierend sind und dem Nutzer das Gefühl geben, die Erde von einem Satelliten aus zu betrachten, sind sie nicht für wissenschaftliche Zwecke einsetzbar. Die Wissenschaftler nutzen Daten, die mit Hilfe der 15 Spektralbänder von MERIS und komplizierten Algorithmen erzeugt werden. Die Bilder von MIRAVI werden nur über ein paar Spektralbänder erstellt und bieten eine Ansicht, die einer Wahrnehmung mit bloßem Auge entspricht.

Mischpixel

Engl. mixed pixel (mixel), franz. pixel mixte; Pixel, deren spektraler Wert sich aus unterschiedlichen Reflexionswerten zusammensetzt und daher nur einen "Mittelwert" mit großer Streuung darstellt. Beispielsweise gibt es im Grenzbereich Wald/Flur viele Pixel, die einen Teil Wald und einen Teil landwirtschaftliche Nutzfläche abdecken und so die spektralen Signaturen von verschiedenen Gebieten gleichzeitig enthalten. Die Strahlungsintensität ist dann eine Mischung aus allem. Je fragmentierter ein Gebiet ist und je größer die Pixel sind, desto mehr Mischpixel entstehen. Umgekehrt gibt es bei kleineren Pixeln weniger Mischpixel. Mischpixel erschweren die Klassifizierung.
Dieses Problem wird entweder durch eine entsprechende Klassendefinition angegangen oder im universalen Sinne mit Hilfe der Fuzzy Logic. Die Einordnung eines Pixels als Mischpixel hängt von der Bodenauflösung und der Größe des zu klassifizierenden Objekts ab.

Mischpixel

Mixel

Quellen: Eumetcal (Text) / NASA (Grafik)

Ein "Mischpixel" entsteht, wenn einzelne Flächen, die verschiedene Merkmale, Objekte oder Klassen enthalten, unter der Auflösung des Sensors liegen (kleiner sind als diese Auflösung). Die hypothetische Karte (links) einer ländlichen Siedlung möge als Beispiel dienen:

Wenn die Aufnahme von einem Sensor stammt, dessen momentanes Blickfeld (instantaneous field of view, IFOV) (durch die Optik und die Geschwindigkeit der Aufnahmen gesteuert) zu einer Pixelgröße führt, die von den kleineren Rechtecken dargestellt wird, und dann ein einzelnes Pixel vollständig innerhalb der Grenzen einer gegebenen Klasse liegt - oder zufälligerweise mit ihr übereinstimmt - dann ergeben sich für dieses Pixel Werte, die von den multispektralen Eigenschaften der die betreffende Klasse ausmachenden dominanten Materialien bestimmt sind.

Es ist jedoch wahrscheinlicher, dass das Pixel über mehrere Klassen- oder Merkmalsgrenzen hinausgeht. Der sich ergebende Spektralgehalt ist dann ein zusammengesetzter oder gewichteter Durchschnitt der spektralen Empfindlichkeiten aus jeder internen Klasse. Die Erkennung jedes Merkmals oder jeder Klasse wird schwierig, da es zwei Hauptunbekannte gibt - die Identität der Klasse und ihr relatives Auftreten im Gemisch.

Es gibt mathematische Verfahren, um diese Unbekannten zu lösen, aber es bleibt immer ein Rest statistischer Ungewissheit. Eine Verbesserung besteht darin, die Pixelgrösse zu verringern (die Auflösung zu erhöhen), wie es hier im mittleren Rechteck getan wird, so dass mehr Pixel innerhalb des von einer einzigen Klasse oder Merkmal belegten Raumes fallen und weniger Pixel über Grenzen gehen. Die Grundregel bei der Optimierung der Klassifikation heißt, eine Auflösung zu finden, die den Größen der kleinsten spezifischen Klassen entspricht, die identifiziert werden sollen.

 

Siehe auch Mischsignatur, Mixel

Mischsignatur

Bei Abtastbildern durch bestimmte geometrische Bedingungen entstandene, nicht objektspezifische, d.h. aus verschiedenen objektspezifischen Strahlungswerten zusammengesetzte, spektrale Signatur. Es entstehen Pixel mit gemischtem spektralem Signal, sogenannte Mixel. Unter der Voraussetzung linearer Funktionen der betreffenden Ortsfrequenzen untereinander wird für das Mischpixel zumeist das arithmetische Mittel der betroffenen Pixel berechnet. Bei thermalen Aufnahmen ist das in dieser vereinfachten Form nicht anwendbar.

MISR

Engl. Akronym für Multi-angle Imaging SpectroRadiometer, ein Sensor an Bord von Terra. Auf einer polaren Umlaufbahn in 705 km Höhe beobachtet MISR die sonnenbeschienene Erdoberfläche zwischen 82° N und 82° S kontinuierlich mit 9 Kameras (Bild links, gelbe Zylinder) in unterschiedlichen Winkeln (Bild rechts) und mit hoher räumlicher Auflösung. Die Breite der Bodenspur beträgt 360 km.

MISR (Schnittdarstellung) MISR (Schnittdarstellung) Quelle: NASA JPL MISR im Orbit auf Terra MISR im Orbit auf Terra Quelle: NASA JPL

MISR liefert Klimatologen eine neue Art von Informationen, wie über die Verteilung von Energie und Kohlenstoff in den Bereichen Landoberfläche und Atmosphäre, sowie über die regionalen und globalen Auswirkungen verschiedener Arten von Aerosolen und Wolken auf das Klima. Die durch die verschiedenen Beobachtungswinkel ermittelten unterschiedlichen Reflexionen von Aerosolen, Wolkentypen und Landbedeckungen ermöglicht deren differenzierte Erkennung. In Kombination mit stereoskopischen Verfahren können 3-D-Modelle erstellt werden und die Gesamtmenge des Sonnenlichts abgeschätzt werden, das von den unterschiedlichen Bereichen der Erde reflektiert wird.

Die tiefsten Canyons der Anden (Peru)

Die tiefsten Canyons der Anden (Peru)

Zu größerer Darstellung auf Grafiken klickenQuelle: NASA

Die spektakulären Cañons der zentralen Anden im peruanischen Bezirk Arequipa, bieten ein beeindruckendes Beispiel für die Kraft von Wassererosion. Das vorliegende Bildpaar wurde am 17. Juli 2000 mit dem MISR-Sensor an Bord des Terra-Satelliten aufgenommen. Das linke Bild ist eine Ansicht in natürlichen Farben, aufgenommen mit einer Kamera in Nadir-Richtung. Rechts ist ein Anaglyphenbild, das aus Daten von der Nadir-Kamera und einer Kamera erzeugt wurde, die in Bewegungsrichtung mit einer Abweichung von 26° von der Vertikalen blickt. Um das räumliche Sehen zu erleichtern wurden die Bilder so ausgerichtet, dass sich N auf der linken und W auf der unteren Seite befindet. Um beim Stereobild einen 3-D-Effekt zu erzielen, ist nach Angaben der NASA eine Rot-Blau-Brille vonnöten, wobei der rote Filter vor dem linken Auge sein muss. Allerdings stellt sich der Effekt auch mit einer Rot-Grün-Brille ein. Als Bezugsquelle für die Brillen wird folgende URL angegeben: http://photojournal.jpl.nasa.gov/HELP/VendorList.html

In den Bildern sind zwei Haupterosionsformationen zu erkennen. Die eine, etwas oberhalb des Bildzentrums ist vom Rio Camana und die zweite darunter vom Rio Ocona verursacht. Beide Flüsse fliessen dem Pazifik zu, welcher sich auf der rechten Seite der Bilder befindet, aber durch Schichtwolken verdeckt ist. Zwischen den Cañonsystemen befindet sich im Bildmittelpunkt der schneebedeckte Gipfel des Nudo Coropuna, der mit 6.613 m höchste Gipfel in der Cordillera Occidental. Westlich davon befindet sich der kleinere Nevado Solimana (6117 m), von dem ein Teil durch einen Nebenfluss des Rio Ocona wegerodiert ist. Beides sind inaktive Stratovulkane.

Der wichtigste Nebenfluss des Rio Ocona, der Rio Cotahuasi schuf einen Cañon von 3.354 Metern Tiefe, gemessen vom Rand der von ihm durchschnittenen Hochebene bis zu seinem Talboden. Damit ist er der tiefste kontinentale Cañon der Erde und gleichzeitig zweimal so tief wie der Grand Cañon in Arizona.

 

Weitere Informationen:

Mittagssatellit

Sonnensynchroner Satellit, der einen bestimmten Punkt auf der Erdoberfläche um die Mittagszeit überfliegt und danach wieder 12 Stunden später um Mitternacht. Ein solcher Orbit ist z.B. nützlich für das Monitoring von konvektiven Wolken über den Ozeanen.

mittleres Infrarot (MIR)

Elektromagnetische Strahlung zwischen dem nahen Infrarot und dem thermischen Infrarot mit Wellenlängen von ca. 2-5 Mikrometern. Die Grenzangaben sind nicht einheitlich, die Bereiche z.T. stärker differenziert oder überlappend. Für diesen Spektralbereich findet sich auch die Bezeichnung short wavelength infrared radiation (SWIR).

Spektralbereiche Spektralbereiche


Quelle: Universität Münster
Mixel

Von engl. mixed pixel, Mischpixel; radiometrische Bildelemente mit spektraler Mischsignatur, bei denen die spektralen Eigenschaften benachbarter Oberflächentypen in die Bildwerte miteinbezogen werden. Mixel treten äußerst häufig an Rändern von homogenen Flächen auf. Sie dienen der Kantenfindung in Fernerkundungsbildern.

MK4

Photogrammetrisches Kamerasystem, eingesetzt bei Cosmos/Resource-F-Missionen in Russland.

MLS

Engl. Akronym für Microwave Limb Sounder; Instrument zur Erfassung von atmosphärischen Spurengasen durch horizontales "Hineinschauen" vom Rande der Atmosphäre aus. Dazu misst es die von verschiedenen Spurengasen (u.a. Chlor, Ozon) abgegebene Mikrowellenstrahlung. Die Daten werden dazu verwendet, um Vertikalprofile der atmosphärischen Gase, der Temperatur, des Drucks und des Wolkeneises zu erstellen.

Ein MLS befindet sich z.Z. auf dem Erdbeobachtungssatelliten Aura im Einsatz.

Weitere Informationen:

Mobiles Laserscanning

Mobiles Laserscanning bezeichnet die 3D-Datenerfassung mittels einer oder mehrerer Laserscanner von bewegten Plattformen aus. Um effiziente und weitestgehend automatisierte Abläufe sicherstellen zu können, sind neben den Laserscannern auch noch GNSS und Inertialnavigationssysteme zur automatischen Georeferenzierung im Einsatz.

MODIS

Engl. Akronym für Moderate Resolution Imaging Spectroradiometer; das Hauptinstrument an Bord der Satelliten Terra und Aqua. Auf beiden Satelliten bestreicht MODIS die komplette Erde alle 1 bis 2 Tage. MODIS zeichnet in 21 nach Anwendungsbereichen ausgewählten Bändern im Spektralbereich von 3,0 µm und in 15 ebenso ausgewählten Bändern im Spektralbereich von 3,0  µm bis 14,5 µm Daten mit einer Bodenauflösung von 250 m, 500 m oder 1 km in Nadirrichtung auf.
Diese Daten werden unser Verständnis der globalen Dynamik und Prozesse auf dem Land, in den Ozeanen und in der unteren Atmosphäre verbessern. Aufgrund seiner Kanalsetzung erlaubt MODIS die Ableitung des atmosphärischen Wasserdampfgehaltes. MODIS liefert umfassende Messungen des ozeanischen Lebens (Phytoplankton), von der Landvegetation, des Meereises, der Wolkenbedeckung und von Bränden.

Island

Zu höherer Auflösung auf Grafik klicken

Quelle: NASA

MODIS: Island

In dieser Aufnahme vom 9.9.2002 neigt sich der Sommer seinem Ende zu. Aber sogar Island zeigt noch sommerliches Grün, während gleichzeitig seine großen permanenten Eiskappen das Vulkangestein mit hellem Weiß überragen. Die mit 8.400 km2 größte Eiskappe liegt über drei aktiven Vulkanen. Die Hitze dieser Vulkane läßt die Unterseite der Eismassen schmelzen, das Wasser füllt dann langsam die Calderas. Von Zeit zu Zeit läuft das Wasser in gewaltigen Schmelzwasserfluten aus.

Die vulkanische Aktivität rührt von einer tektonischen Grenze her, die grob in NW-SO-Richtung durch die Insel verläuft, wobei die zwei Platten sich auseinander bewegen und so das Aufströmen von Magma aus dem Erdinneren verursachen. Bei den hellen Trübefahnen an der Südküste handelt es sich um Gletschertrübe, die mit dem Schmelzwasser ins Meer gelangt.

 

Weitere Informationen:

Modulationsübertragungsfunktion (MTF)

Engl. modulation transfer function, franz. fonction de transfert de modulation; nach DIN 18716 der "Absolutbetrag OTF [optische Transferfunktion] als Funktion der Raumfrequenz".

Molniya-Orbit

Bei der Molniya-Bahn handelt es sich um einen hochelliptischen Orbit, der ausgiebig von russischen Satelliten verwendet wird. Die Umlaufbahn ist exakt ein halber Sterntag (11 h 58 min. 2s) und weist eine Exzentrizität von ca. 0,74 und eine Inklination von ca. 64° auf. Das Apogäum liegt also in einer Höhe von ca. 40.000 km, das Perigäum bei ca. 530 km über dem Südpolarbereich. Der Satellit verharrt ca. 8 Stunden nahezu stationär im Apogäum über Sibirien und überquert das Perigäum in ca. 4 Stunden, um das Apogäum jetzt über Kanada zu erreichen. Zwölf Stunden später ist er wieder über Sibirien. Dieser Orbit ist insbesondere für die Kommunikation im nördlichsten Teil der Hemisphäre geeignet, da man hier geostationäre Satelliten nicht empfangen kann.

Bodenspur eines Molnija-Satelliten

molniya_boden

In the operational part of the orbit from apogee −3 hours to apogee +3 hours the satellite is north of 55.5° N (latitude of for example central Scotland, Moscow and southern part of Hudson Bay)

  Molnija-Orbit mit Stundenmarkierungen

molniya_oblique

Usually the period from perigee +2 hours to perigee +10 hours is used to transmit to the northern hemisphere

The Molniya orbit combines high inclination (63.4°) with high eccentricity (0.722) to maximize viewing time over high latitudes. Each orbit lasts 12 hours, so the slow, high-altitude portion of the orbit repeats over the same location every day and night.

Zu größerer Darstellung auf Grafiken klicken

Quellen: Wikipedia / NASA

Molnija-Orbits sind nach dem sowjetischen Wissenschaftler benannt, der diese Bahn konzipiert und daruaf ausgelegt hat,dass ein Satellit lange über der arktischen Polarregion bleiben kann. Auch die Baureihe der sowjetischen Molnija-Kommunikationssatelliten, die diese Art Umlaufbahn seit Mitte der 1960er Jahre nutzen, verdankt ihm ihren Namen.

Mit leichten Anpassungen wurden dieselben Umlaufbahnen von sowjetischen Spionagesatelliten genutzt, deren Apogäum über den USA lag. Geostationäre Umlaufbahnen bieten sich zwar zur Beobachtung der USA an, jedoch waren, bedingt durch die eingesetzte Sensortechnik, kontraststarke Beobachtungswinkel notwendig, die nur von höheren Breiten aus erreicht werden konnten. Beispielhaft hierfür ist der US-KS-Frühwarnsatellit zur Erkennung von US-Raketenstarts, wobei deren spätere Verbesserungen die Nutzung geostationärer Umlaufbahnen erlaubten.

Teilweise nutzten die USA Molnija-Orbits ihrerseits für Spionagesatelliten, wobei die lange Aufenthaltsdauer der Satelliten in den nördlichen Breiten, die für die sowjetische Kommunikation so vorteilhaft ist, genutzt wurde, um ebendiese abzuhören. Die elektronischen Aufklärungssatelliten Jumpseat und deren Nachfolger Trumpet nutzten ebenfalls Molnija-Orbits. Eine weitere Anwendung ist das Satellite-Data-System, SDS, zur Weiterreichung der Daten von über Russland operierenden Spionagesatelliten an US-Bodenstationen. Das SDS ermöglichte die Echtzeit-Datenübertragung von den tief fliegenden KH-11-Aufklärungssatelliten während deren Vorbeifluges auf ihren polnahen Bahnen unterhalb der SDS-Satelliten.

Für die bemannte Raumfahrt sind Molnija-Orbits ungeeignet, da diese wiederholt den hochenergetischen Van-Allen-Gürtel kreuzen.

Momentanes Gesichtsfeld (IFOV)

Syn. momentanes Sehfeld; engl. instantaneous field of view (IFOV), franz. champ d'observation instantané; die Fläche, die von einem einzelnen Detektor eines scannenden Systems zu einem bestimmten Zeitpunkt erfasst wird. Nach DIN 18716der "Öffnungswinkel, unter dem ein Detektor Strahlung erfasst".
Das IFOV kann sowohl als kleiner Winkel wie auch als Fläche beschrieben werden.

Momentanes Gesichtsfeld Momentanes Gesichtsfeld

Die räumliche Auflösung von passiven Sensoren hängt vorrangig vom Momentanen Gesichtsfeld (IFOV) ab. Das IFOV ist der winkeldefinierte Sichtkegel des Sensors (A) und bestimmt das Gebiet auf der Erdoberfläche, das aus einer bestimmten Höhe zu einem bestimmten Zeitpunkt 'gesehen' wird. Die Größe der beobachteten Fläche wird dadurch bestimmt, dass man das IFOV mit der Höhe des Sensors über Grund multipliziert.

Quelle: Natural Resources Canada (R.o.)
 
MOMS

Engl. Akronym für Modular Optoelectronic Multispectral Stereo Scanner; modulares optoelektronisches multispektrales Abtastsystem aus Deutschland, das an Bord von Space Shuttle (MOMS-01 und -02) und MIR (MOMS Priroda) Daten der Erde erfasst hat.

MOMS-01 kam 1983 und 1984 zum Einsatz, wobei das Sensorkonzept verifiziert sowie geowissenschaftliche und anwendungsorientierte Experimente demonstriert wurden. MOMS-01 lieferte Bilder mit einer Bodenauflösung von 20 x 20m bei einer Flughöhe von 300 km. Er war der erste weltraumgestützte Scanner auf der Basis der CCD-Technologie, das erste im Weltraum getestete modulare System, das hochauflösendste im All fliegende System und das erste deutsche Fernerkundungssystem im Weltraum.

MOMS-02 war eine Weiterentwicklung von MOMS-01 und wurde im Rahmen der zweiten deutschen Spacelab Mission D2 eingesetzt. Der Aufbau von MOMS-02 vereinigt zwei wesentliche Gruppen, eine "Along-Track"-Stereo-Kamera und eine Vier-Kanal Multispektral-Kamera. Die wissenschaftlichen Ziele des Einsatzes lagen im Bereich der Photogrammetrie und der Geowissenschaften.

moms_modes

Zu größerer Darstellung auf Grafik klicken

Quelle: DLR (R.o.)
Monitoring
  1. Im allgemeinen, weitgefassten Sinne die kontinuierlich andauernde oder zeitweise Untersuchung und Überwachung der Veränderungen eines Systems, zumeist Komponenten oder Aspekte der Umwelt. Im Rahmen des Monitoring werden über einen längerfristigen Zeitraum Messdaten im realen Umfeld erfasst, analysiert und dokumentiert. Der zeitnahe Vergleich der gemessenen Datenwerte mit Sollwerten, die eine geplante Zielstellung repräsentieren, ermöglicht eine unmittelbare Kontrolle und fortlaufende Steuerung des Systems.

  2. In einem enger gefassten Sinne die Beobachtung und Kontrolle von qualitativen und quantitativen Veränderungen mittels Zeitreihenuntersuchungen im lokalen, regionalen und globalen Maßstab anhand von Bild- und anderen Datenaufzeichnungen. Diese Prozesse können in verschiedenen zeitlichen Ebenen ablaufen: kurzfristig (z.B. Vulkanausbruch, Eisbergwarnungen), saisonal (z.B. Ernteertragsberechnungnungen), mittelfristig (z.B. Holzeinschlag im tropischen Regenwald) und langfristig (z.B. Landschaftswandel in Folge zunehmender Flächennutzungsintensität, Abschmelzen von Gletschern, Flussdeltaentwicklung).

Ein Monitoring setzt den Vergleich von mindestens zwei Zeitschnitten voraus, zumeist werden jedoch Daten mehrerer Zeitschnitte (multitemporale Datensätze) ausgewertet. Ausgehend von einem Ist-Zustand werden sowohl retrospektive als auch perspektivische Entwicklungen untersucht. Fernerkundungsdaten stellen eine ausgezeichnete Datengrundlage für die unterschiedlichsten Monitoringaufgaben dar, da sie aktuell, flächendeckend, zeitsynchron und in regelmäßigen Abständen verfügbar sind und zu einem einheitlichen Zeitpunkt eine synoptische Übersicht über die interessierenden Regionen ermöglichen. In Abhängigkeit von der spezifischen Thematik finden Flugzeug- oder Satellitendaten Verwendung. Luftbilder sind in Deutschland regelmäßig seit den 1950er Jahren verfügbar, regional unterschiedlich unregelmäßig jedoch auch schon seit den 1920er Jahren. Dieser Zeitraum ist mit wesentlichen und zum Teil einschneidenden wirtschaftlichen und in Folge auch landschaftsökologischen Veränderungen verbunden. Mit dem Landsat MSS steht seit 1972 erstmals kommerziell ein regelmäßig operierender Fernerkundungssensor zur Verfügung. Mit ihm und seinen Nachfolgern existieren Sensoren, deren Daten geeignet sind, auch großräumig oder in wenig erforschten bzw. schwer zugänglichen Gebieten regelmäßig Daten zu erhalten.

Die Erfassung einer Vielzahl raum-zeitlicher Veränderungen ist häufig nur mit Fernerkundungsdaten möglich, da zumeist keine adäquaten thematischen Karten existieren. Voraussetzung für ein erfolgreiches Monitoring ist ein an die verfügbaren Daten angepasstes Auswertekonzept nach einheitlichen Parametern und einheitlichen Regeln der Bildverarbeitung. Zumeist erfolgt die Auswertung der Fernerkundungsdaten im Kontext mit anderen Sach- und Raumdaten, die wiederum häufig in einem Geographischen Informationssystem verwaltet werden. Die integrierte Raster- und Vektordatenverarbeitung trägt wesentlich zur Verbesserung der Ergebnisse  des Monitorings bei und eignet sich besonders auch zur Entwicklung von Szenarien für mögliche künftige Entwicklungen. Die ständige Verbesserung der geometrischen und spektralen Auflösung von Fernerkundungsdaten erweitern die Anwendungsmöglichkeiten auch für kleinräumig strukturierte Gebiete, wie z.B. Stadtregionen oder naturschutzrelevante Prozesse.

Oft wird vor allem in der Raumbeobachtung unter methodischen Gesichtspunkten das Monitoring als weitgehend interessenneutrale Aufnahme und Analyse von Raumzuständen und Entwicklungen zur Bereitstellung objektiver Bewertungsgrundlagen unterschieden vom (Ziel)Controlling. Dieses bewertet räumliche Entwicklungen mit Blick auf planerische Zielsetzungen im Bezugsrahmen messbarer Kenngrößen und definierter Zielgrößen. Neben der 'Zielerreichungskontrolle' ist die 'Wirkungskontrolle' wesentlicher Gegenstand eines raumbezogenen Controllings.

Weitere Informationen:

Monochromatisches Bild

Einfarbiges Bild, welches nur zu einer einzigen Spektrallinie (Wellenlänge) gehörende Strahlung aufzeichnet.

MOP

Engl. Akronym für Meteosat Operational Programme.

MOPITT

Engl. Akronym für Measurements Of Pollution In The Troposphere; Gaskorrelationsspektrometer an Bord von Terra zur Messung des Gehaltes an Kohlenmonoxid und Methan in der Troposphäre.

Der Sensor misst von der Erde emittierte und reflektierte Strahlung in drei Spektralbändern . Wenn dieses Licht in den Sensor eintritt, passiert es auf zwei verschiedenen Wegen bordeigene Behältnisse mit Methan und Kohlenmonoxid. In den zwei Passagen werden unterschiedliche Mengen Energie absorbiert, was zu kleinen Unterschieden in den resultierenden Signalen führ. Die Signale sind mit dem Vorhandensein dieser Gase in der Atmosphäre korreliert.
MOPITTs räumliche Auflösung beträgt 22 km in Nadirrichtung und es 'sieht' die Erde in 640 km breiten Streifen. Die CO-Konzentrationen können in einer 5 km mächtigen Säule gemessen werden, was es den Wissenschaftlern erlaubt, das Gas bis zu seinen Quellen zurückzuverfolgen.

CO-Messungen mit MOPITT über Sumatra

Kohlenstoffmonoxidkonzentration (ppm)

mopitt_indon_01-10jun03_Leg

Vegetationsbrände in Indonesien

Links: CO-Messungen mit MOPITT über Sumatra

CO-Belastung für den Zeitraum 1.-10. Juni 2003 in 3 km über Grund (ca. 700 hPa), die sich von den Zentren der Biomasseverbrennung in Sumatra nach N in Richtung asiatisches Festland ausbreitet. Die Darstellung (Legende beachten) korreliert gut mit dem Echtfarbenbild von MODIS (rechts). Die grauen Flächen stehen für Datenlücken, die sich aufgrund von dichten Wolken ergeben oder weil Lücken in den Beobachtungsstreifen bestanden.
Kohlenmonoxid ist ein guter Tracer für Luftverschmutzung, da es als Nebenprodukt der Verbrennung von Waldbränden und landwirtschaftlich bedingten Bränden entsteht.

Quelle: NASA Earth Observatory

Rechts: Vegetationsbrände in Indonesien

Von zahlreichen, am 8. Juni 2003 bestehenden Vegetationsbränden treibt Rauch über die Straße von Malacca nach Norden und auch in Richtung Indischer Ozean. Die Brandherde sind durch rote Punkte hervorgehoben.

Quelle: NASA Earth Observatory
 

Weitere Informationen:

Morgensatellit

Ein sonnensynchroner Satellit, der einen bestimmten Punkt auf der Erdoberfläche gegen Sonnenaufgang überfliegt, und dann wieder 12 Stunden später bei Sonnenuntergang. Solche Orbits sind z.B. nützlich für die Beobachtung konvektiver Wolken über Land. Zu den Morgensatelliten gehören Terra, Landsat-7, SAC-C, EO-1 und bei den Wettersatelliten der europäische MetOp.
Im Gegensatz dazu stehen die Nachmittagssatelliten, die den Äquator am frühen Nachmittag überqueren, und dann wieder mitten in der Nacht (ca. 1h30). Beispiele hierfür sind die Satelliten des A-Train und NOAA-Wettersatelliten (NOAA-19).

MetOp-/NOAA-Orbits MetOp-/NOAA-Orbits

Die Abdeckung nach einem Orbit eines polarumlaufenden Satelliten. Wegen der Erdumdrehung beginnt jeder neue Orbit westlich des vorangegangen bei einer gleichzeitigen leichten Überlappung am Äquator. Die Überlappung nimmt mit der geoagraphischen Breite zu, und in den Polarregionen gibt es bei jedem Orbit eine komplette Überlappung.

Das Initial Joint Polar-orbiting System umfasst einen europäischen Metop-Satellit und einen amerikanischen NOAA-Satelliten. Die Satelliten fliegen in sich ergänzenden Orbits, die eine globale Datenabdeckung ermöglichen mit Intervallen nicht größer als sechs Stunden.
Der europäische Metop fliegt auf einer Bahn, die dem lokalen 'Morgen' entspricht, wohingegen der amerikanische Satellit den 'Nachmittag' abdeckt.

Quelle: EUMETSAT
 
MOS

Akronym für Modularer Optischer Scanner; vom DLR entwickeltes und in zwei Exemplaren gebautes abbildendes Spektrometer. Es vermag geometrisch identische Bilder in 18 schmalen Spektralkanälen und mit einer räumlichen Auflösung von 500 m zu erzeugen. Die zwei Sensoren wurden 1996 mit dem internationalen FE-Modul PRIRODA an die russische Raumstation MIR (zwischenzeitlich gezielt verglüht) angedockt, bzw. an Bord des indischen FE-Satelliten IRS-P3 ins All gebracht. Zusammen mit einem indischen Instrument dient MOS der Beobachtung des Zustandes der Umwelt, speziell der Ozeane, Küstengewässer und Küstenzonen. Zusätzlich werden Atmosphärenmessungen vorgenommen. MOS gilt als Experimentalmission sowohl hinsichtlich der Konzeption der Geräte, als auch der Methoden und Algorithmen. Diese Arbeiten kamen der Entwicklung von MERIS auf ENVISAT zugute. Gleichfalls erfolgten Vergleichsmessungen mit der NASA-Mission SeaWiFS.
Der Einsatz von MOS hatte eine 10-jährige Phase beendet, in der nach dem Abschalten von CZCS keine Daten über die Ozeanfarbe zur Verfügung standen.
Die deutsch-indische Mission ist seit April 2004 aufgrund der aufgebrauchten Treibstoffvorräte des Satelliten zu Ende. Mit den MOS-Daten war es über 8 Jahre hinweg möglich, Aussagen über den Gehalt an Phytoplankton, anorganischen Schwebstoffen sowie organischen Abbauprodukten abzuleiten. Diese Ergebnisse sind für die Zustandsbeurteilung und das Management der Ökosysteme von wesentlicher Bedeutung. Erstmals konnten mit der Mission eine Reihe spezieller Orbit-Manöver für Kalibrationsmessungen zur Sonne und zum Mond mit einem Kleinsatelliten durchgeführt werden.

Adria (letzte Aufnahme des MOS) Adria (letzte Aufnahme des MOS)

 

Das letzte Bild des DLR-Umwelt-Sensors MOS zeigt ein Echtfarben-Komposit des Überflugs über die Nordadria und Mittelitalien am 19. Mai 2004.

 

Zu größerer Darstellung auf Abbildung klicken

Quelle: DLR

Weitere Informationen:

Mosaik
  1. In der Fernerkundung und in der Photogrammetrie ein aus zahlreichen, nicht entzerrten Einzelbildern zusammenmontiertes Produkt, das je nach Herkunft der Einzelbilder als Luftbildmosaik oder Satellitenbildmosaik bezeichnet wird.
  2. Ein aus mehreren benachbarten digitalen Fernerkundungsbildern zusammengesetztes Übersichtsbild. Dieses behält den hohen Informationsgehalt und die Auflösung der Originalbilder weitestgehend bei. Nach dem Grad der Geokodierung der verwendeten Bilder unterscheidet man zwischen Bildskizze (uncontrolled mosaic), die aus nicht geokodierten Bildern hergestellt und daher nur beschränkt ausmessbar ist, Bildplanskizze (semi-controlled mosaic) aus grob entzerrten Bildern, die auch kartographisch mit Beschriftung, Randbearbeitung, Höhenangaben und Gitternetz überarbeitet sein kann, und Bildplan oder kontrolliertem Mosaik (controlled mosaic) aus entzerrten Bildern mit kartographischer Bearbeitung und meist in gebräuchlichen Kartenmaßstäben.
Mosaikbildung

Engl. image mosaicking; das Zusammenstellen von mehreren einzelnen Luft- oder Satellitenbildern zu einem gemeinsamen Mosaik eines Erdoberflächenausschnitts. Mosaikbildung ist z.B. Bestandteil bei der Orthophotokartenerstellung für große Gebiete. Dies kann z.B. mittels digitaler Bildverarbeitung geschehen, mit deren Hilfe man Rasterbilder oder Ausschnitte davon blattschnittfrei zu einem größeren Bild (Thematik) zusammensetzt. Um ein homogenes Gesamtbild zu erhalten, ist es erforderlich, die einzelnen Ausschnitte (Mosaike) zu korrigieren. Dabei müssen z.B. Randprobleme eliminiert und unterschiedliche Farb- und Helligkeitsdarstellungen in den einzelnen Bildern in der Überlappungszone angepasst werden. Es sind zu unterscheiden:

  • Geometrische Mosaikbildung - benachbarte und sich überlappende digitale Bilder werden mit Pass- und Verknüpfungspunkten geometrisch zusammengefügt und in ein geodätisches System transformiert.
  • Radiometrische Mosaikbildung - radiometrische Differenzen ( Helligkeits-, Kontrast- und Farbunterschiede) zwischen Einzelbildern werden ausgeglichen. Die Überlappungen der Einzelbilder enthalten Mehrfachinformationen. Von diesen Redundanzen gewinnt man Unbekannte zur Korrektur.

Weitere Informationen:

MSG

Engl. Akronym für Meteosat Second Generation; Nachfolgemission des existierenden Systems von METEOSAT-Satelliten. Das System MSG besteht aus einem Bodensegment und im Endausbau aus vier identischen Satelliten, deren erster am 28. August 2002 von Kourou aus gestartet wurde (Meteosat-8). Damit soll eine kontinuierliche und zuverlässige Verfügbarkeit von MSG-Daten bis ca. 2020 erreicht werden. Das zweite Exemplar (MSG-2) wurde am 21. Dezember 2005 gestartet. Er ist als Meteosat-9 im operationellen Betrieb.
MSG-1 wurde von der Europäischen Weltraumorganisation (ESA) im Auftrag von EUMETSAT, der Europäischen Organisation für die Nutzung meteorologischer Satelliten, entwickelt und von der Firma Alcatel Space Industries unter Mitwirkung eines aus über 50 europäischen Unternehmen bestehenden Konsortiums gebaut. Mit der Aufnahme des operationellen Betriebes wurde er in Meteosat-8 umbenannt. Mittlerweile dient er als Ersatzsatellit für Meteosat--10 und ist auf 3,4° W über dem Äquator positioniert. Der inzwischen auf 9,5° E positionierte Meteosat-9 gewährleistet den Rapid Scanning Service und liefert alle fünf Minuten Bilder von Teilen Europas, Afrikas und den angrenzenden Meeren. Der 2012 gestartete und auf 0° positionierte Meteosat-10 ist der wichtigste operationelle geostationäre Satellit der Reihe und liefert alle 15 Minuten ein Bild der gesamten, für ihn sichtbaren Erdscheibe.

Das vierte Exemplar (MSG-4) wird voraussichtlich Anfang 2015 gestartet.

Die MSG-Satelliten sind wie Meteosat 1 bis 7 zylindrische Satelliten, mit 3,22 m Durchmesser und 3,74 m Höhe aber zweieinhalb Mal so groß. Ihre Masse beim Start beträgt rund 2 t, wovon fast die Hälfte auf den für die Bahn- und Lageregelung während des siebenjährigen Betriebs notwendigen Treibstoff entfällt.
MSG liefert Bilder in höherer Auflösung und in einem größeren Spektralbereich als seine Vorgänger und dies mit größerer Geschwindigkeit.

Meteosat Second Generation Meteosat Second Generation Spur des Hurricanes Isabel Spur des Hurricanes Isabel

Links: Künstlerische Darstellung des MSG im Orbit
Während man die Trommel-Gestalt der ersten Generation beibehalten hat, ist die zweite Meteosat-Generation aber zweieinhalb mal größer und ist mit einer Vielzahl zusätzlicher Fähigkeiten zur Bildgebung ausgestattet.

Rechts: Die Komposit-Abbildung des Hurrikans Isabel wurde von Meteosat-8 aufgenommen.
Die am 5. September 2003 vor der Westküste Afrikas erkennbare tropische Depression entwickelte sich bis zum 7. September zum tropischen Wirbelsturm Isabel und verschwand aus dem Blickfeld des Satelliten am 17. September 2003.

Zu größerer Darstellung auf Grafik (rechts) klicken.

Quellen: ESA / EUMETSAT
 

Die MSG-Satelliten bewegen sich auf einem geostationären Orbit in 36.000 km Höhe. Sie bewegen sich mit einer solchen Geschwindigkeit, die es erlaubt, immer den gleichen Bereich der Erdoberfläche zu "sehen". Die Position der MSG-Satelliten befindet sich wie der seiner Meteosat-Vorgänger über dem Schnittpunkt von Äquator und Nullmeridian. Dies gestattet die dauerhafte Beobachtung von Europa, Afrika und des Atlantik, wobei lediglich die nördlichsten und südlichsten Partien des Globus ausgeschlossen sind.
Wie die früheren Meteosat-Generationen stabilisieren die MSG-Satelliten ihre Position mit Hilfe ihrer eigenen Drehbewegung. Sie drehen sich 100mal pro Minute entgegen dem Uhrzeigersinn um ihre Längsachse, die parallel zur Erdachse ausgerichtet ist.
Die Nutzlast der MSG-Satelliten umfasst folgende Positionen:

  • Spinning Enhanced Visible and Infrared Imager (SEVIRI)
    Das abbildende SEVIRI-Radiometer ist der wichtigste Sensor. Er erlaubt eine Bildwiederholrate von 15 min.
  • Mission Communication Payload (MCP)
    Gesamtheit der für die Kommunikationszwecke der Mission wesentlichen Antennen und Transponder
  • Geostationary Earth Radiation Budget (GERB)
    Instrument zur Beobachtung des Strahlungshaushalts der Erde an der Obergrenze der Atmosphäre
  • Search and Rescue transponder (S&R)
    Gerät zum Empfang von Notsignalen (Transponder) aus dem gesamten Beobachtungsbereich von MSG, ausgesandt von See-, Luft- und Landfahrzeugen, die mit einer Bake des internationalen Such- und Rettungssystems COSPAS-SARSAT ausgerüstet sind.
MSG Instrumente MSG-System Links:
Instrumente auf MSG

Rechts:
MSG-System





Zu größerer Darstellung auf Grafiken klicken



Quellen: EUMETSAT / EUMETSAT

Weitere Informationen:

MSI

Engl. Akronym für Multi-Spectral Imager; abbildender Multispektral-Sensor für den europäisch-japanischen Satelliten EarthCARE.

MSS

Engl. Akronym für Multispectral Scanner.

MTSAT

Engl. Akronym für Multi-functional Transport Satellite, eine Serie japanischer Satellitenmissionen mit Aufgaben im Bereich der Meteorologie und des Transportwesens (Luftverkehrskontrolle, Navigation); im Februar 2005 startete MTSAT-1R, ergänzt 2006 durch MTSAT-2. MTSAT-1R befindet sich in einer geostationären Umlaufbahn in 36.000 km Höhe auf einer Länge von 140° Ost, MTSAT-2 auf 145° Ost. Sie können Bilder in fünf Bandbereichen liefern, im sichtbaren und in vier infraroten, einschließlich des Wasserdampfkanals. MTSAT-1R ist inzwischen (September 2015) im Standby-Betrieb, MTSAT-2 ist noch operationell, zusammen mit seinem 2014 gestarteten Nachfolger Himawari-8.

Weitere Informationen:

Multikonzepte

Monokonzepte bei Fernerkundungssystemen liefern häufig nicht genügend aussagekräftige Ergebnisse. Der Einsatz von Multikonzepten schafft Optimierung:

  • multistage: auf verschiedenen Höhen von verschiedenen Plattformen simultan messen
  • multitemporal: Aufnahmen zu verschiedenen Zeiten
  • Multiband: (Kamera) in verschiedenen Spektralbereichen (z.B. Mehrkammersysteme)
  • multispektral: (Scanner) in verschiedenen Spektralbereichen
  • Multifrequenz: bei Radarsystemen entsprechender Begriff zu multispektral
  • Multipolarisation: Messungen mit verschiedenen Polarisierungen
  • multidirektional: Aufnahmen in verschiedene Richtungen, z.B. für Stereoaufnahmen
  • multienhancement: z.B. Kantenhervorhebung, Kontrasterhöhung usw.
  • multidimensional: Darstellung verschiedener Dimensionen, z.B. Höhenstufen und Schneebedeckung
  • multisensoral: Darstellung mit verschiedenen Sensoren

Beispielsweise können viele geophysikalische Größen nur dann aus Satellitendaten gewonnen werden, wenn mehrere Sensoren auf einem einzelnen Satelliten oder mehrere Sensoren von verschiedenen Satelliten kombiniert werden. So benötigt man zur Bestimmung der Verdunstung von der Meeresoberfläche die Parameter Windgeschwindigkeit, Meeresoberflächentemperatur und Luftfeuchte der untersten Troposphärenschicht. Dieser Input wird geleistet durch die Kombination des Special Sensor Microwave Imager (SSM/I) an Bord der Satellitenserie des Defense Meteorological Program (DMSP) und des Advanced Very High Resolution Radiometer (AVHRR) and Bord der NOAA-Satelliten.

multisensorale Aufnahme

Engl. multisensoral data acquisition, franz. acquisition des données par des capteurs multiples; nach DIN 18716die "Aufnahme von Bildern desselben Gebietes durch verschiedene Sensoren gleichzeitig oder zu verschiedenen Zeiten".

multisensorale Bildverarbeitung

Die Kombination von Daten verschiedener Sensoren. Bei einem solchen Verschneiden von Daten wird versucht, die unterschiedlichen Informationsinhalte vorliegender Bilddaten zu einem verbesserten Bildprodukt zu vereinigen. Als typische Aufgabe für eine multisensorale Bildverarbeitung gilt die Kombination von geometrisch hochauflösenden panchromatischen Daten mit Farbinformationen niedrigerer Auflösung. Dieses, im Englischen pansharpening genannte Verfahren hat erstmals ab 1986 für die Vereinigung panchromatischer SPOT-Daten mit multispektralen TM-Daten große praktische Bedeutung erlangt. Auch heute sind viele Sensorsysteme aus technischen und aus ökonomischen Gründen auf hohe Auflösung in panchromatischen Bilddaten und geringen Auflösung in Multispektraldaten ausgelegt. Dasselbe gilt für die neuen digitalen Luftbildkameras in Zeilen- und Matrixbauweise. In allen Fällen ist natürlich Bedingung, dass die zu kombinierenden Daten dieselbe Bildgeometrie haben.

Multisensorsystem

Ein Multisensorsystem ist charakterisiert als kinematisches Messsystem, das eine vollständige Kartierungslösung durch die Integration verschiedenster Sensoren auf einer gemeinsamen zeitlich synchronisierten Plattform (Vermessungsfahrzeug) bietet. Im Prinzip wird keine weitere externe Information, also auch keine Passpunkte, benötigt. Derartige Informationen können aber in die Auswertung als redundante Informationen miteinbezogen werden. Eingesetzt werden z.B. als Sensoren zur Positionierung und Orientierung:

Sensoren in Multisensorsystemen in verschiedenen Bereichen
Positionierung und Orientierung Bildaufzeichnung
  • GPS: Absolute 3-D-Positionen
  • INS-Plattform: Richtungsmessungen
  • Elektronischer Kompaß: Richtungsdifferenz zur Nordrichtung
  • Radsensoren: Radumdrehungen (Lauflänge)
  • Elektronisches Barometer: Luftdruckbestimmung (Höhenunterschiede)
  • 2 digitale CCD-Kameras: stereoskopische Auswertung
  • Videokamera: Farbbilder zur Dokumentation und Interpretation
  • u.a.
MultiSpec

Software (Multispectral Image Data Analysis System) zur Bearbeitung, Darstellung und Interpretation von Landsat Thematic Mapper-Bildern. MultiSpec findet z.B. im Rahmen des GLOBE-Programms Verwendung. Das an der Purdue University (West Lafayette, Indiana) entwickelte MultiSpec ermöglicht auch die Erstellung von Landbedeckungskarten.

Weitere Informationen und freier Download (Latest Release: 9-17-2013):

Multispectral Scanner (MSS)

Multispektraler abbildender Sensor auf den Landsat-Satelliten 1, 2, 4 und 5 mit vier spektralen Kanälen im sichtbaren Bereich und im nahen Infrarot und einer räumlichen Auflösung von 56 x 72 m. Er tastet die Erdoberfläche mit Hilfe eines hin- und herwippenden Spiegels in 185 breiten Zeilen quer zur Flugrichtung ab. Die Daten dieses optisch-mechanischen Scanners werden entweder direkt oder nach einer Zwischenspeicherung auf Magnetband zu weltweit verteilten Empfangsstationen übertragen.

Weitere Informationen: MSS-Profil im CEOS EO Handbook (CEOS / ESA)

multispektral

Attribut von Sensoren, die Bilder oder Messdaten in mehreren Spektralbereichen gleichzeitig aufnehmen. Hat ein Sensor drei spektrale Kanäle im Bereich von rot, grün und blau, ergibt sich ein Bild mit natürlichem Farbeindruck. Überdecken die spektralen Kanäle auch Bereiche ausserhalb der Empfindlichkeit des menschlichen Auges (z.B. im Infrarot) ergeben sich sogenannte Falschfarbenbilder.
Beispiele für multispektrale Sensoren im optischen Spektralbereich sind TM oder AVHRR.

Weitere Informationen: Imaging Multi-Spectral Radiometers (vis/IR) (The Earth Observation Handbook Rio+20)

Multispektralbild

Syn. multispektrale Aufnahme, engl. multispectral data acquisition, franz. acquisition des données multi spectrales; das Ergebnis der gleichzeitigen Aufnahme geometrisch quasi identischer Bilder in mehreren Spektralbereichen.
Multispektralaufnahmen sind in der Satellitenfernerkundung schon seit Jahrzehnten Standard. Hintergrund ist die Tatsache, dass sich topographische Objekte in den entsprechenden Auflösungen eher spektral und weniger durch geometrische Größen beschreiben lassen.

Die Bilddaten, die in den einzelnen Spektralkanälen eines Multispektralsensors gewonnen werden, können jeweils als Schwarzweißbilder wiedergegeben und interpretiert werden. Da sie geometrisch identisch, aber radiometrisch verschieden sind, kann man sie durch additive Farbmischung auch zu farbigen Bildern kombinieren und dadurch die Interpretationsmöglichkeiten vervielfältigen. Zu diesem Zweck werden den Daten von drei Spektralkanälen die Grundfarben Rot, Grün und Blau zugeordnet. Die Zuweisung ist frei wählbar, so dass verschiedenartige Farbbilder erzeugt werden können.

Multispektralerkundung

Verfahren der Fernerkundung, bei dem Daten simultan in mehreren Bereichen des elektromagnetischen Spektrums aufgenommen werden.Von der multispektralen Fernerkundung ist die hyperspektrale Fernerkundung abzugrenzen. Beide ermöglichen es aber bei der Bildwiedergabe wie Menschen zu sehen (rot, grün, blau) oder wie Goldfische (infrarot) oder wie Hummeln (ultraviolett).

aster_elreno_multispectral_lres

Zu größerer Darstellung auf Abbildung klicken

Quelle: NASA Earth Observatory
Ein multispektraler Blick auf El Reno, Oklahoma

Am 4. September 2000 nahm das Instrument ASTER diese Multispektraldaten über dem Grazing Lands Research Laboratory des amerikanischen Landwirtschaftsministeriums bei El Reno (Oklahoma) auf. Diese Serie von Falschfarbenkomposit-Bildern belegen die Möglichkeiten, die Wissenschaftler mit den hochaufgelösten (bis 15 m² pro Pixel) Multispektraldaten haben.

Im oberen Bild zeigen helle rote Farben grüne Vegetation an, die zu dieser Jahreszeit nur auf Bewässerungsland und in Flussnähe zu finden ist. Grau-grüne Farben markieren die abgeernteten Winterweizenfelder. Dendritische Muster von Flusssystemen sind deutlich erkennbar in der linken unteren und oberen rechten Ecke der Szene. Für die Erzeugung dieses Bildes wurden die drei sichtbaren Bänder und das nahe Infrarot des Instruments verwendet.
Die nächsten zwei Bilder zeigen, dass es eine starke Korrelation zwischen der Menge an grüner Vegetation (ausgedrückt im Normalized Difference Vegetation Index, kurz NDVI) und der Landoberflächentemperatur gibt. Gebiete mit Vegetation haben NDVI-Werte von größer 0,3 (blaue und grüne Pixel) und sind relativ kühl (315-320 Kelvin). Nackte Bodenflächen haben NDVI-Werte nahe Null (orange und gelb) und sind relativ heiß (325-330 Kelvin). Wasserkörper haben einen sehr niedrigen NDVI von -0,2 (rot) und kühle Temperaturen von ca. 300-305 Kelvin (blau).
Das vierte und das fünfte Bild zeigen Komponenten des Energiehaushalts an der Oberfläche der Region um 11h30 Ortszeit. Die Energiebilanz an der Oberfläche drückt das Verhältnis aus zwischen eintreffender Sonnenenergie, sowie der Energie, die von der Oberfläche absorbiert wird und der Energie, die von der Oberfläche in die darüber liegende Atmosphäre reflektiert oder emittiert wird. Diese Bilder geben einen Einblick in die komplexen Prozesse von direkter Strahlung, Leitung und Konvektion, die für Wissenschaftler wichtig sind bei ihren Untersuchungen von Wettermustern und dem Wasserkreislauf. Das vierte Bild zeigt die fühlbare Wärme und das fünfte Bild zeigt die latente Wärme, welche die Energie repräsentiert, die von der Erdoberfläche in die atmosphärische Grenzschicht fließt. Fühlbare Wärme versteht man als Energiefluss aufgrund von Temperaturgradienten, wohingegen latente Wärme verstanden wird als Energiefluss aufgrund von Evapotranspiration.

Das Aster-Team leitet die fühlbare und die latente Wärme ab durch die Kombination von Messungen der Oberflächentemperatur und der Vegetationsfülle (NDVI) mit meteorologischen in situ-Messungen. Zusammen genommen zeigen die Messungen, dass der Hitzefluss von nacktem Boden von fühlbarer Wärme beherrscht wird, während der Wärmestrom, der von pflanzenbedeckten Gebieten und von Wasserkörpern ausgeht, von latenter Wärme beherrscht wird.

Die aus ASTER-Daten abgeleiteten Messungen der Flüsse latenter Wärme können in Evaporationsraten konvertiert werden, was im sechsten Bild gezeigt ist. Es ist daher ein direktes Maß für die Wassermenge, die an die Atmosphäre verloren geht. Bevor thermalinfrarote Satellitendaten verfügbar waren, konnten gebietsbezogene Änderungen der Evaporation nicht gemessen werden. Bis zum Start von ASTER war man nicht in der Lage, die Oberflächentemperaturen mit hoher Auflösung aus dem All zu messen. Verlässliche Oberflächentemperaturen sind aber wesentlich für das Monitoring der Evaporation. Mit einer Auflösung von 90 Metern können die Wissenschaftler die ASTER-Detektoren für das thermische Infrarot verwenden, um die Oberflächentemperaturen über große Flächen hinweg genau zu messen. Diese Fähigkeit wird unsere Kenntnisse über die Muster von Evaporationsvorgängen und von der Vegetationsgesundheit stark verbessern.

 

Der Hauptunterschied zwischen multispektral und hyperspektral ist die Anzahl der Bänder und wie breit bzw. eng die Bänder sind. Multispektrale Bilder entstehen meist aus 3 bis 10 Bändern, die in den Pixeln wiedergegeben sind. Hyperspektrale Bilder entstehen aus viel engeren Bändern (10-20 nm). Deren Anzahl kann in die hunderte oder tausende gehen.

Beispiel für multispektrale Bandeinteilung (nicht maßstabsgerecht)

 

Beispiel für hyperspektrale Bandeinteilung mit hunderten Bändern (schematische, nicht maßstabsgerechte Darstellung)

Quelle: gisgeography
 
Multispektralkammer

Reihenmesskammer zur Aufnahme von Bilddatensätze, die aus mehreren Spektralkanälen zusammengesetzt sind.
Die Farbphotographie mittels Reihenmesskammern stellt im Sinne der Fernerkundung ein dreikanaliges Aufnahmesystem dar, da für jede Geländefläche drei Messwerte in den einzelnen Schichten der Farbfilme registriert werden. Will man die Zahl der Kanäle vermehren, so muss man zu einer mehrlinsigen Kamera, einer sogenannten Multispektralkammer, greifen. Eine solche besteht aus vier oder mehr einzelnen Kammern, deren Auslösevorrichtungen genau miteinander gekoppelt sind. Die Verwendung von Multispektralkammern erlaubt das gleichzeitige Aufnehmen von deckungsgleichen Gebieten mit verschiedenen Filmen und Filtervorsätzen. Dabei kann bei entsprechender Filterwahl das sichtbare und z. T. auch das nicht sichtbare Spektrum unterteilt werden, um Bilder in verschiedenen Wellenlängenbereichen aufzunehmen. Anstatt eines einzigen Farb- oder Falschfarbenfilms erhält man auf diese Weise Schwarzweissfilme, die sich in Grauton und Dichte je nach der Intensität der Reflexion innerhalb der einzelnen Spektralbereiche unterscheiden. Soll ein Farbbild erstellt werden, kann dies
durch Überlagerung der einzelnen Aufnahmen in transparenter Filmpositivform und der Zuordnung von Farben erzielt werden. Da der Informationsgewinn der Multispektralphotographie gegenüber der Farbphotographie aber bescheiden ist, und sich mit Abtastsystemen Multispektraldaten gewinnen lassen, die in radiometrischer Hinsicht genauer sind und sich direkt
digital weiterverarbeiten lassen, hat die flugzeuggestützte Multispektralphotographie nur begrenzte Bedeutung erlangt.

multispektrale Klassifikation /Klassifizierung

Syn. Multispektralklassifizierung, engl. mulitspectral classification; franz. classification multi spectrale; Klassifikation digitaler Fernerkundungsdaten mit mehreren Spektralbändern, die hierdurch die Reflexionseigenschaften der verschiedenen Objektmaterialien differenziert. Der Vorgang kann als pixelweise Klassifizierung durchgeführt werden, wobei jedes Pixel einzeln behandelt wird, oder als objektweise Klassifizierung nach einem Segmentierungsprozess.

Multispektralscanner

Engl. multispectral scanner, franz. scanneur multi spectral; opto-mechanischer Scanner, der Daten gleichzeitig in einzelnen Spektralkanälen aufnehmen kann. Die ankommende Strahlung wird mit technischen Mitteln (Prismen, Gitter, dichroitische Spiegel) getrennt und Detektoren zugeleitet. Auf diese Weise können Daten in den Bereichen nahes UV, sichtbares Licht, reflektiertes IR und thermales IR erfasst werden.

multitemporal

Bezeichnung für Daten, die dieselbe Region zu verschiedenen Zeitpunkten darstellen. Bei der Methode der multitemporalen Auswertung von SAR-Daten werden dabei drei Bilder unterschiedlicher Zeitpunkte zu einem Farbkomposit kombiniert, indem den Grundfarben rot, grün und blau jeweils einer der Zeitpunkte zugeordnet wird. Die entstehenden Farben stellen die zeitlichen Veränderungen (wie z.B. Wachstum eines Weizenfeldes) dar; grau bedeutet dagegen, dass sich zwischen den einzelnen Bildern nichts verändert hat. Multitemporale Bilder erlauben damit eine Aussage über Veränderungen der beobachteten Objekte (change detection).

Sylt multitemporal Sylt - multitemporal

Für die Erstellung dieser Aufnahme wurden drei Bilder von TerraSAR-X übereinander gelegt. Die einzelnen Datensätze wurden am 22., 24. und 27. Oktober 2007 aufgenommen. Alle Gebiete, in denen zwischen den Aufnahmezeitpunkten Veränderungen stattfanden erscheinen in Blau und Grün - insbesondere die durch die Gezeiten beeinflussten Gebiete des Wattenmeeres. Hier verändert sich durch den Wechsel zwischen Ebbe und Flut der Wasserstand von Aufnahme zu Aufnahme.

Die Landflächen erscheinen auf Grund der relativ geringen Veränderungen innerhalb der fünf Tage in Grau- und Brauntönen.

Zu größerer Darstellung auf Abbildung klicken

Quelle: DLR
 
multitemporale Aufnahme

Engl. multitemporal data acquisition, franz. acquisition des données multi temporales; nach DIN 18716die Aufnahme von Bildern desselben Gebietes durch einen Sensor zu verschiedenen Zeiten.

multitemporale Bildverarbeitung

Verarbeitung von zu unterschiedlichen Zeitpunkten aufgenommenen Bildern, die auf diese temporalen Unterschiede der Daten abzielt. Dabei sollen Veränderungen der Objekte erkannt werden, eine Aufgabe, für die die Bezeichnung Change Detection üblich geworden ist. In jedem Fall ist dabei eine genaue geometrische Übereinstimmung der Daten vorauszusetzen, da durch geometrische Restfehler scheinbare Veränderungen vorgetäuscht werden. Über multitemporale Bildverarbeitung können beispielsweise Änderungen der Landnutzung, Rodungsflächen, Überschwemmungsgebiete, Erdkrustenbewegungen usw. dargestellt werden.

multitemporale Klassifizierung

Klassifizierung von Fernerkundungsdaten mehrerer Aufnahmezeitpunkte. Vielfach sind mithilfe einer einzelnen Aufnahme nicht sämtliche wünschenswerten Klassifizierungsergebnisse erreichbar. Dies führt dazu, dass häufig Aufnahmen des gleichen Gebietes, aber von unterschiedlichen Aufnahmezeitpunkten ausgewertet werden.
Gerade bei Klassifizierungen von Landnutzungs- oder Vegetationstypen sind die Darstellungen der verschiedenen phänologischen Aspekte mit den daraus resultierenden spektralen Reflexionsunterschieden hilfreich.

Muster

Engl. pattern, franz. dessin; nach DIN 18716die "strukturierte Verteilung von Merkmalen, Texturen, Objekten oder anderen Elementen in einem Bild".

Mustererkennung

Engl. pattern recognition, franz. réconnaissance du dessin; Verfahren zur Identifizierung von Objekten aufgrund ihrer Merkmale. In der statistischen Mustererkennung werden mehrdimensionale Merkmalsvektoren benutzt. In der syntaktischen Mustererkennung haben die Merkmale die Form von Sätzen einer Sprache in Phrasenstrukturgrammatik. Die strukturelle Mustererkennung beschreibt ein Objekt durch seine Teile und deren Beziehungen zueinander sowie ihre Eigenschaften.

Mustererkennung Ackerflächen

Zu größerer Darstellung auf Grafik klicken

Quellen: NASA / NASA - RST
Mustererkennung am Beispiel von Ackerflächen aus verschiedenen Agrarräumen

Überall auf der Erde haben sich landwirtschaftliche Praktiken entwickelt als Funktion von Topographie, Bodentyp, Nutzpflanzentyp, jährlichem Niederschlag und Tradition. In Minnesota (oben links) reflektiert das regelmäßige Gittermuster die Landvermessung des frühen 19. Jahrhunderts; die Größe der Felder ist eine Funktion der Mechanisierung, und die diktiert eine gewisse Effizienz. In Kansas (oben Mitte) ist die Karussellbewässerung verantwortlich für die Flurform. In NW-Deutschland (oben rechts), ist die geringe Größe und die regellose Verteilung der Felder ein Überbleibsel aus dem Mittelalter.
Nahe dem bolivianischen Santa Cruz (unten links), sind die Felder in Radial- oder Tortenform Teil einer Siedlungsform; im Zentrum jeder Einheit liegt eine kleine Siedlung. Außerhalb von Bangkok, Thailand (unten Mitte), erkennt man schmale rechteckige Reisfelder, die durch ein ausdehntes Netzwerk von Kanälen gespeist werden, welches hunderte von Jahren alt ist.Und in den Cerrado in Südbrasilien (unten rechts), führten geringe Bodenpreise und ebenes Terrain zu riesigen Farmbetrieben und großen Parzellen. Jedes ASTER-Teilbild misst eine Fläche von 10,5 x 12 km.
Die geometrische Gestalt eines mit Nutzpflanzen bestandenen Feldes hilft manchmal die jeweils angebaute Frucht zu bestimmen. Aber die Flurformen variieren oft in Teilräumen großer Ländern wie den USA und in verschiedenen Teilen der Welt. Durch Fernerkundung ist es möglich, die gesamte landwirtschaftliche Nutzfläche und die Anteile bezogen auf einzelne Nutzpflanzen jederzeit und in globalem Maßstab zu bestimmen.

 
MW

Akronym für Microwave bzw. Mikrowelle, Bezeichnung für den Bereich des elektromagnetischen Spektrums von ~0,1 cm - ~100 cm.

MWIR

Engl. Akronym für Medium Wave Infra-Red dt. mittelwelliges Infrarot, Bezeichnung für den Wellenlängenbereich des elektromagnetischen Spektrums zwischen ~3,0 µm und ~6,0 µm; siehe Infrarotstrahlung (IR)

MWR

Engl. Akronym für Microwave Radiometer; passiver Mikrowellen-Sensor auf ENVISAT zur Messung des atmosphärischen Wasserdampfgehaltes und des Flüssigwassergehalts von Wolken in den Frequenzen 23.8 GHz und 36.5 GHz. Die Daten dienen der Korrektur des Radaraltimetersignals. Daneben dienen die MWR-Messungen der Bestimmung der Oberflächenabstrahlung und der Bestimmung der Bodenfeuchte, ferner für Untersuchungen des Energiehaushalts der Erdoberfläche und für die Charakterisierung von Eis.

Myriade

Gemeinsam von CNES und Astrium seit 1998 entwickelte Mehrzweck-Mikrosatellitenplattform in kubischer Form (Kantenlänge 60 cm, Gewicht zwischen 100 und 150 kg). Die Bezeichnung wird auch für eine auf dieser Plattform aufbauende Kleinsatellitenserie der CNES verwendet.
Die Herausforderung bei der Entwicklung bestand darin, der Space Community einen Zugang zum Weltall zu verschaffen, der sich durch rasche Umsetzung einer geplanten Mission bei niederen Kosten auszeichnet. Die Entwicklung der Plattform zielte vor allem auf wissenschaftliche Nutzungen, aber auch auf Technologiemissionen und Demonstrationsprojekte.
Die erste Mission ist DEMETER (2004) gefolgt von PARASOL (2004), PICARD (2010), MICROSCOPE (2015) und TARANIS (2016).
Daneben gibt es drei weitere Missionen, die vom französischen Wehrbeschaffungsamt finanziert wurden: die aus 4 Satelliten bestehen ESSAIM-Konstellation, zwei Testsatelliten namens SPIRALE und die aus vier Satelliten bestehen Demonstrationsmission ELISA.
Schließlich wurde die Plattform noch für vier industrielle Auftragsmissionen verwendet: ALSAT 2A, ALSAT 2B (Algerien ), SSOT (Chile) und Vn RedSat (Vietnam).

Myriade Myriade

The platform is constituted of a set of functional items which can independently evolve. Such a platform was used for the first microsatellite of the series DEMETER, as well as for PARASOL.
As the atmospheric drag modifies the pointing performances especially below 600 km, and as the radiation limits the lifetime typically above 1000 km, the platform is designed for low orbit operation ranging from 600 km to 1000 km and for a typical 2-year mission. The orbit inclination covers the range 20 to 98°.
An extension to lower inclinations as well as the use on the Geostationary Transfer Orbit (GTO) are under study.

Zu größerer Darstellung auf Grafik klicken

Quelle: CNES
 

Weitere Informationen: