Lexikon der Fernerkundung

Falcon 9

Bezeichnung für eine zweistufige US-amerikanische Trägerrakete, die von dem Raumfahrtunternehmen SpaceX für orbitale Nutzlasten von bis zu 23 Tonnen entwickelt wurde. Sie basierte ursprünglich auf der kleineren Falcon 1, verwendet aber ein anderes Triebwerk in der Zweitstufe und neun Triebwerke statt einem in der Erststufe. Von der Falcon 9 wurde die Falcon Heavy abgeleitet, eine mit zwei zusätzlichen Boostern versehene Schwerlastrakete für Nutzlasten von bis zu 64 Tonnen. Die Falcon 9 und Falcon Heavy werden ständig weiterentwickelt; jedes gebaute Exemplar ist ein Unikat.

Im Rahmen des CRS-Programms (Commercial Resupply Services) der NASA wird die Rakete in Verbindung mit dem Dragon-Raumschiff zur Versorgung der Internationalen Raumstation verwendet. Hauptsächlich wird die Rakete aber für den Start von Satelliten eingesetzt. Der erste Start einer Dragon fand im Juni 2010 statt. Im Mai 2020 erfolgte mit der Crew-Dragon-Kapsel im Rahmen des CCDev-Programms der erste Einsatz mit Astronauten zur ISS.

Die Falcon 9 ist teilweise wiederverwendbar. Die Erststufe (Boosterstufe) kann nach der Abkopplung der Zweitstufe auf einer schwimmenden Plattform im Ozean oder nach einem Rückflug in der Nähe des Startplatzes mit einem oder drei Triebwerken landen. Hierfür verfügt sie über ausklappbare Landebeine sowie Gitterflossen und Kaltgastriebwerke als zusätzliche Steuerelemente. Die erste erfolgreiche Landung gelang am 21. Dezember 2015 in Cape Canaveral. Die erneute Nutzung einer bereits geflogenen ersten Stufe erfolgte erstmals nach dem Start des Kommunikationssatelliten SES-10 am 30. März 2017. Am 30. Mai 2020 wurden mit dieser Rakete zwei Astronauten in einer Crew-Dragon-Kapsel von Cape Canaveral zur ISS gebracht. Dies war die erste bemannte Weltraummission der USA seit dem Space-Shuttle-Programm.

Start von Sentinel-6 Start von Sentinel-6 mit einer Falcon 9 (21.11.2020)

Der Satellit Copernicus Sentinel-6 Michael Freilich hebt mit einer Falcon 9-Rakete vom Space Launch Complex 4 East auf dem Luftwaffenstützpunkt Vandenberg, Kalifornien, USA, ab. Copernicus Sentinel-6 Michael Freilich ist der erste von zwei identischen Satelliten, der wichtige Messungen von Veränderungen des Meeresspiegels liefert. Dieser jüngste Copernicus-Satellit wird die Langzeitaufzeichnung von Referenzmessungen fortsetzen und die Aufzeichnung der Höhe des Meeresspiegels auf ein viertes Jahrzehnt ausdehnen. Er kartographiert alle 10 Tage 95% des eisfreien Ozeans der Erde und wird auch wichtige operative Daten für die Ozeanvorhersage liefern.

Falcon 9 ist die weltweit erste wiederverwendbare Rakete der Orbitalklasse. Dank der Wiederverwendbarkeit kann SpaceX die teuersten Teile der Rakete wiederverwenden, was wiederum die Kosten für den Zugang zum Weltraum senkt.

Quelle: ESA

SpaceX plant, die Falcon Heavy und die Falcon 9 zukünftig durch das Starship-Trägersystem zu ersetzen.

Weitere Informationen:

Falcon Eye

Bezeichnung für zwei Erdbeobachtungs- und Aufklärungssatelliten der Vereinigten Arabischen Emirate. Falcon Eye 1 wurde beim Startversuch mit einer Vega-Rakete am 11. Juli 2019 zerstört. Es handelte sich um den ersten Fehlstart der in Italien hergestellten Rakete nach vierzehn erfolgreichen Starts. Mit 369 Mio. Euro Schadenssumme ist es auch der bislang teuerste Versicherungsfall in der Geschichte der Raumfahrt.

Es existiert ein baugleicher Schwestersatellit Falcon Eye 2, der Ende 2019 ebenfalls mit einer Vega starten sollte, dann jedoch auf einen späteren Flug mit einer Sojus-ST umgebucht wurde. Der Start erfolgte schließlich am 2.Dezember 2020. Falcon Eye 2 ist wie sein havarierter Vorgänger eine Weiterentwicklung der französischen Pléiades-Erdbeobachtungssatelliten. Wie diese wurde er von Airbus Defence and Space auf Basis des Satellitenbusses AstroSat-1000 gebaut. Die Nutzlast – das Kamerasystem HiRI (High-Resolution Imager) mit einer Auflösung von 70 Zentimetern bei einer Beobachtungsbreite von 20 Kilometern – stammt von Thales Alenia Space. Der AstroSat-Bus verfügt über vier mit Hydrazin betriebene Kleintriebwerke und drei Solarmodule zur Stromversorgung. Falcon Eye 2 ist für fünf Jahre Betriebsdauer ausgelegt. Er wird sich auf einer sonnensynchronen Umlaufbahn in 610 km Höhe bewegen.

Falschfarben

Engl. false colour; eine Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nichtsichtbaren Bereich des elektromagnetischen Spektrum doch darzustellen. Nimmt man z.B. einen thermalen oder Infrarotkanal hinzu, so erhalten die Bilder in der Regel für das menschliche Auge eher ungewohnte Farbgebungen (Vegetation in Rottönen). Bekannteste Darstellung ist das Color-Infrarot-Bild (CIR).

Satellitenbilder werden häufig in Falschfarben dargestellt. Das liegt daran, dass von den Satelliteninstrumenten teilweise Spektralbereiche erfasst werden, die für das menschliche Auge unsichtbar sind. Zudem kann das menschliche Auge innerhalb einer Farbe nur wenige hundert Helligkeitsstufen differenzieren, ist aber dazu in der Lage, mehr als eine Million unterschiedliche Farbschattierungen zu unterscheiden. In Falschfarbendarstellungen werden einzelnen Spektralbereichen daher gezielt unnatürliche Farben zugewiesen, um Details besser sichtbar zu machen.

Das folgende Falschfarbenbild des Satelliten Sentinel-2A zeigt landwirtschaftliche Strukturen in der Nähe von Tubarjal, Saudi-Arabien. Die Kreise kommen von einem Bewässerungssystem mit zentralem Drehpunkt, bei dem sich das lange Wasserrohr um einen Brunnen in der Mitte dreht.

Falschfarbenbild von Bewässerungskulturen in Saudi-Arabien Falschfarbenbild von Bewässerungskulturen in Saudi-Arabien

Lebende Vegetation kann am besten im Nahinfrarotbereich erfasst werden, da der Reflexionsgrad in diesem Bereich sechsmal höher ist als im Bereich des sichtbaren Lichts. In den Bildern wird der Nahinfrarotbereich in der Regel in sichtbarem Rot dargestellt.

Die Intensität des Rots zeigt, wie stark das Chlorophyll der Pflanzen die Infrarotstrahlung der Sonne reflektiert. Je intensiver das Rot, desto stärker der Stoffwechsel und damit die Vitalität der Pflanzen. Krankheit, Trockenstress oder Nährstoffmangel sind durch diese Farbgebung gut zu erkennen. Die klaren geometrischen Muster deuten darauf hin, dass die Bewässerungsanlagen den Pflanzen unterschiedlich viel Wasser und Dünger zuführen, entweder systematisch oder weil sie defekt sind.

Quelle: ESA

Falschfarbenkomposit

Ein Bild, dessen verschiedene Spektralbänder in anderen Farben wiedergegeben werden, als die in denen es ursprünglich aufgenommen wurde. Es ist eine Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nicht sichtbaren Bereich des elektromagnetischen Spektrums doch darzustellen. Das Verfahren ist z.B. hilfreich zur Darstellung von Veränderungen der Vegetationsbedeckung oder zur Unterscheidung verschiedener Pflanzenarten.

Die von den Sensoren aufgenommenen Signale des Spektrums sind lediglich skalare Werte, also Zahlenangaben ohne Einheit. Dies erlaubt eine beliebige Zuordnung. Wenn man z.B. die Zahlenwerte des Kanals 1, der Strahlung aus dem blauen Bereich des Spektrums aufnimmt, bei der Farbwidergabe dem grünen Bereich zuordnet, die Werte aus dem Kanal 2 (Grün) dem blauen Bereich zuordnet und nur die Werte des Kanals 3 (Rot) tatsächlich in Rot darstellt, so erhält man ein Bild, das die Zahlenwerte korrekt wiedergibt, aber von unserer gewohnten Farbzuordnung abweicht, also eine Falschfarbendarstellung. Bekannteste Darstellung ist das CIR-Bild.

Das folgende Satellitenbild in Falschfarben zeigt den Kumbunbur Creek im Northern Territory von Australien, etwa 260 km südwestlich der Stadt Darwin. Die grünen Verästelungen, die wie Zweige eines Baumes aussehen, sind die Wasserläufe welche die Region in die Timorsee entwässern (nicht abgebildet).

Die Falschfarben lassen die Vegetation leuchtend rot erscheinen, und man kann deutlich erkennen, wie die Vegetation hauptsächlich entlang der Wasserwege gedeiht. In den Ebenen im Norden ist die Vegetation ist gleichmäßiger verteilt.

Kumbunbur Creek, Australia

Kumbunbur Creek, Australia

Das Bild wurde am 20. September 2011, gegen Ende der Trockenzeit, vom Satelliten Kompsat-2 aufgenommen. Die trockenen Gebiete mit einer etwas trüben Farbe auf diesem Bild werden während der Regenzeit zu überschwemmten Schlammflächen.

In tropischen Gebieten fällt die Regenzeit in die jeweiligen Sommermonate, da die Hitze durch den direkteren Auftreffwinkel der Sonne zunimmt. Höhere Temperaturen führen zu einer Zunahme der Verdunstung und aufsteigenden, warmen Luftmassen. Diese Luft dehnt sich aus und kühlt ab, was zur Bildung von Kumuluswolken und zu fast täglichen Regenfällen und Gewittern führt.

Zu einem erläuternden Video hier klicken

Quelle: KARI / ESA

Weitere Informationen:

False Colour

Engl. für Falschfarbe; Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nichtsichtbaren Bereich des elektromagnetischen Spektrums doch darzustellen. Nimmt man z.B. einen thermalen oder Infrarotkanal hinzu, so erhalten die Bilder in der Regel für das menschliche Auge eher ungewohnte Farbgebungen (Vegetation in Rottönen), sie entsprechen nicht der normalen visuellen Erfahrung. Die bekannteste Darstellung ist das Color-Infrarot-Bild (CIR). Meist stellen Falschfarbenbilder das nahe Infrarot als Rot, Rot seinerseits als Grün und Grün als Blau dar.

Farbbild

Engl. colour image, franz. image en couleurs; ein Bild, das durch additive oder subtraktive Farbmischung aus den Bildfunktionen von drei Spektralbereichen aufgebaut ist. Das Farbbild kann ein Durchsichts- oder Aufsichtsbild sein, wozu auch das Projektionsbild gehört.

DIN 18716 definiert den Begriff als "dreikanalige Bilddaten", und fügt folgende Anmerkung an: "Im allgemeinen Sprachgebrauch wird von Farbbildern vor allem dann gesprochen, wenn das Gelände in naturnahen Farben wiedergegeben wird. Der Begriff sagt aber nichts über die bei der Aufnahme wirksamen Spektralbereiche aus".

Die Gewinnung und Interpretation von farbigen Bildern spielt in der Fernerkundung eine große Rolle. Das menschliche Auge vermag nämlich nur etwa 20 bis 30 verschiedene Grautöne wahrzunehmen, kann aber leicht eine sehr große Anzahl von Farben unterscheiden. Deshalb ist die Aufbereitung von Bilddaten in Form von Farbbildern eine der wichtigsten Methoden, um Bildinformationen deutlich darzustellen und damit leichter interpretierbar zu machen.

Am Monitor bzw. mit einem Drucker entstehen Farbbilder durch additive bzw. subtraktive Farbmischung von drei Grundfarben. Entsprechend können multispektrale Daten umgesetzt werden, indem die erfassten Spektralbereiche, d. h. die Grauwerte eines Kanals, jeweils einer Grundfarbe eines Monitors bzw. eines Druckers zugeordnet werden, wobei aber nur Kombinationen von drei Aufnahmekanälen bzw. Ausgabefarben möglich sind. 

Beim Aufnahmesystem Thematic Mapper des Satelliten Landsat 5 kann durch Zuordnung von Kanal 1 (sichtbares Blau) zur Monitorfarbe Blau, von Kanal 2 (sichtbares Grün) zur Monitorfarbe Grün und von Kanal 3 (sichtbares Rot) zur Monitorfarbe Rot ein angenähertes "Echtfarbenbild" erzeugt werden. Darüber hinaus sind andere Kanalkombinationen üblich, so dass die besonderen Eigenschaften der erfassten Objekte sichtbar werden, die sich in der Reflexion in unterschiedlichen Spektralbereichen widerspiegeln. Die für das menschliche Auge nicht sichtbaren Spektralbereiche werden somit durch sog. Falschfarben dargestellt. Falls beim Thematic Mapper die Zuordnung von Kanal 2 (sichtbares Grün) zur Monitorfarbe Blau, von Kanal 3 (sichtbares Rot) zur Monitorfarbe Grün und von Kanal 4 (nahes Infrarot) zur Monitorfarbe Rot gewählt wird, entsteht die übliche Falschfarben-Infrarotdarstellung. 

Das Farbbild arn Monitor ist somit nicht mit einer Farbfotografie zu verwechseln.Stattdessen wird hier der Begriff Farbkomposit(bild) benutzt. Zu beachten ist insbesondere, dass jede Farbe Träger einer besonderen Information ist. So präsentiert die Intensität einer Farbe die Einstrahlungsintensität eines Ausschnitts aus dem elektromagnetischen Spektrum am Sensor. Die Farbe Rot kann dann z.B. die am Sensor eintreffende Intensität des nicht sichtbaren Infrarots visualisieren. (Lange 2013)

Farbe

Engl. colour; Farbreize unterscheiden sich durch ihre spektrale Zusammensetzung. Durch die Notwendigkeit, diese Unterschiede exakt definieren zu können, wurden verschiedene Farbmodelle entwickelt. Jede Farbe kann durch einen Farbnamen (beschreibende Worte), aber auch durch den numerischen Farbort definiert werden. Je nach Farbmodell kann nach Helligkeit, Sättigung und Farbton, aber auch nach Hell-/Dunkel-, Rot-/Grün- und Gelb/Blau-Wert mit drei derartigen Größen die Farbe eindeutig beschrieben sein.
In digitalen und analogen Präsentationen ist Farbe wesentlicher Bestandteil und Informationsträger. Sie dient zur Visualisierung und graphischen Darstellung. Farbe kann auch zur Informationsgewinnung z.B. bei der Interpretation von Luftbildern genutzt werden. Farbe entsteht durch Farbmischung. Bei der digitalen Verarbeitung sind verschiedenste Farbmodelle im Einsatz.

Farbe ist eine Sinneswahrnehmung und keine physikalische Eigenschaft der Dinge. Das menschliche Auge bewertet auf die Augennetzhaut einwirkende elektromagnetische Strahlung nach drei verschiedenen Empfindlichkeitskurven als Rot, Grün oder Blau. Diese Teilreize werden stets zu einer Gesamtwirkung verschmolzen, so dass bei wechselnden Anteilen jede beliebige Farbwahrnehmung entstehen kann. Eine gleichzeitige und gleich intensive Reizung Rot und Grün führt zur Wahrnehmung Gelb, Rot und Blau ergeben Purpur (Magenta), Grün und Blau schließlich Blaugrün (Cyan). Die gleichzeitige Reizung Rot, Grün und Blau 'addiert' sich zur Gesamtwirkung weiß. Der Vorgang wird deshalb auch additive Farbmischung genannt. Auf dieser Art von Farbmischung beruht das Farbfernsehen sowie die Farbwiedergabe an Computer-Monitoren.

Weitere Informationen:

Farbinfrarotbild (CIR)

Engl. color infrared image, franz. image en couleur infra rouge; nach DIN 18716 "dreikanalige Bilddaten unter Einbeziehung des nahen Infrarots", verbunden mit der Anmerkung "Die vom sichtbaren Spektralbereich abweichenden Reflexionseigenschaften von Vegetationsarten und -zuständen sowie von einigen Substraten erlauben der Bildinterpretation spezielle Anwendungen in vielen Bereichen, wie z. B. Land- und Forstwirtschaft, Naturschutz oder Gemälderestaurierung".

Bedeutung der verschiedenen Farben in einer Farb-Infrarot-Luftaufnahme

Farb-Infrarot-Luftbilder (CIR) - oft auch als "Falschfarbenbilder" bezeichnet, weil sie die Szene in Farben wiedergeben, die das menschliche Auge normalerweise nicht sieht - werden häufig für die Auswertung von Naturressourcen verwendet. Atmosphärischer Dunst beeinträchtigt die Aufnahme des Bildes nicht.

Die lebende Vegetation ist fast immer mit Rottönen verbunden. Sehr intensive Rottöne weisen auf eine dichte, kräftig wachsende Vegetation hin. Mit abnehmender Wuchskraft erscheint die Vegetation in helleren Rot- und Rosatönen, verschiedenen Grüntönen und möglicherweise bräunlich. Kahle Böden erscheinen in den meisten landwirtschaftlichen Regionen in Weiß-, Blau- oder Grüntönen. Im Allgemeinen weisen dunklere Schattierungen jeder Farbe auf einen feuchteren Boden hin.

Von Menschenhand geschaffene Merkmale erscheinen in Tönen, die sich auf die Materialien beziehen, aus denen sie hergestellt wurden. Asphaltstraßen beispielsweise sind dunkelblau oder schwarz, Schotter- oder Erdstraßen sind je nach ihrer Beschaffenheit heller, und saubere Betonstraßen haben einen hellen Farbton. Die Farben von Gebäuden hängen ebenfalls von den Materialien ab, die zu ihrer Herstellung verwendet wurden.

Wasser erscheint in verschiedenen Blautönen, die von fast schwarz (sauberes, reines Wasser) bis zu sehr blassem Blau (zunehmende Mengen an Sedimenten) reichen. Die Farbe eines sehr flachen Gewässers wird oft durch das Material am Grund des Gewässers bestimmt. So erscheint beispielsweise ein sehr flacher Bach mit sandigem Grund aufgrund des hohen Anteils an Sandreflexion weiß.

Weitere Informationen:

Farbinfrarotfilm

Engl. colour infrared film; CIR film, franz. film infrarouge couleur; der Farbinfrarotfilm besteht wie der Farbfilm aus drei farbempfindlichen Schichten, jedoch mit dem Unterschied, dass die blauempfindliche durch eine infrarotempfindliche Schicht ersetzt wird. Die Schichten sind also für das sichtbare Grün und Rot und das nicht sichtbare Infrarot empfindlich. Da die drei im Bereich von 0,4 bis 0,9 μm empfindlichen Emulsionen auch blau reflektierende Objekte aufzeichnen können, wird ein blauabsorbierender Gelbfilter vor dem Objektiv angebracht. Durch Wegfiltern der kurzwelligen Blaustrahlung (blaue Objekte erscheinen in Schwarz) werden die einzelnen Schichten korrekt belichtet und das Bild wirkt schärfer.
Die Zuordnung der Farben im Farbinfrarotfilm ist daher ein rein technischer und im Grunde willkürlicher Vorgang, weshalb diese ohne Schwierigkeiten geändert werden kann. Meist wird aber folgende Farbzuordnung verwendet: Grün reflektierende Objekte erscheinen blau, rot reflektierende grün und infrarot reflektierende rot. Da keine der möglichen Farbzuordnungen der tatsächlichen Wahrnehmung entspricht, werden Farbinfrarotbilder auch als 'Falschfarbenbilder' bezeichnet.
Beim Farbinfrarotfilm ist besonders die Behandlung von Vegetation sehr aufschlussreich. So erscheinen lebende, grüne, gesunde und daher Infrarot reflektierende Blätter rot, während abgestorbene Blätter in Grün oder einer Mischfarbe von Grün und Rot abgebildet werden. Auf Grund dieser Eigenschaft wird der im zweiten Weltkrieg entwickelte Vorläufer des Farbinfrarotfilms im englischsprachigen Raum als 'camouflage detection film' bezeichnet. Mit ihm war es möglich, künstliche Blätter oder mit grüner Farbe getarnte Objekte, welche kein Infrarot reflektieren und daher blau erscheinen von gesunder Vegetation zu unterscheiden.

Farbkodierung

Engl. colour coding, franz. codage par couleurs; Farbkodierung entsteht, wenn beliebige Bilddaten eines mehrkanaligen Bildes im RGB-Farbmodell dargestellt werden und diese nach der additiven Farbmischung gestaltet bzw. umgesetzt werden.

Definition nach DIN 18716: "Vorgang, durch den Grauwertbereiche eines Bildes in homogene Farben umgesetzt werden, so dass Grauwertunterschiede deutlicher sichtbar werden".

Mit der Farbkodierung lassen sich neben mehrkanaligen Datensätzen auch einzelne Bänder darstellen. Ziel ist, objekttypische bzw. klassentypische Grauwerte durch entsprechende Farbgebungen visuell hervorzuheben, sowie die Informationen verschiedener Spektralbereiche zu verknüpfen. Zur Herstellung solcher Farbkomposite werden die Datensätze aus drei und mehr Spektralbändern verwendet. Die Darstellung kann in Echtfarbenbildern und Falschfarbenbildern erfolgen. Oft findet bei den Falschfarbenbildern die Einbeziehung des nahen Infrarotbandes statt. Eine Echtfarbenkomposite entsteht, wenn nur die Spektralbereiche des sichtbaren Lichtes benutzt werden.

Farbkompositbild

Engl. colour composite, franz. composition colorée; in der Optik ein Farbbild, das durch die Projektion von einzelnen schwarzweißen Multispektralbildern durch verschiedene Farbfilter erzeugt wird. Wenn die gefilterten Einzelbilder übereinandergelegt werden, entsteht ein Farbkompositbild.
Aus Satellitenbildinformationen können Farbkomposite erzeugt werden, indem man den drei Farbdimensionen des Bildes jeweils einen Farbkanal zuordnet.
Man spricht von Echtfarben-Farbkomposit, wenn man den drei Farbdimensionen des Bildes die drei sichtbaren Kanäle des Satellitenbildes (blau, grün, rot) zuordnet. Da Infrarotkanäle die Vegetation sehr gut darstellen, kann man auch den grünen Dimensionen des Bildes den NIR-Kanal zuweisen. Die resultierenden Bilder sehen wie Farbbilder aus, und werden eher zu Darstellungszwecken (Hintergrundkarte, Poster) als zur Analyse verwendet.

Wählt man eine andere Farbzusammensetzung, spricht man von Falschfarben-Farbkomposit. Weist man zum Beispiel den Infrarotkanal der roten und den roten Kanal der grünen Dimension des Bildes zu, erscheinen die unbedeckten Böden blau-grün, die aktive Vegetation magenta und klares Wasser schwarz.

Bei dem folgenden METEOSAT-8-Bild vom 31.12.2006 handelt es sich um ein Farbkompositbild, zusammengesetzt aus den Spektralkanälen 0,6 und 0,8 μm im sichtbaren Bereich und 12,0 μm im infraroten Bereich. Durch diese Spektralkombination lassen sich tiefe Wolken (gelb), hohe Wolken (blau) sowie hochreichende Wolken (weiß) unterscheiden. Da im Norden und Nordosten des Bildes Nacht ist, ist hier nur der blaue, infrarote Anteil des Bildes zu sehen.

Meteosat 8 - Farbkomposit Farbkompositbild (METEOSAT-8)

Interpretation: Zum Jahreswechsel 2006/2007 bestimmten Sturm- und Orkantiefs das Wetter in großen Teilen Europas. Das Bild zeigt gleich zwei deutlich ausgeprägte Tiefdruckgebiete (Wetterkarte). Über der Ostsee liegt der Kern des Orkantiefs „KARLA“. Dieses Tief zog von der Biskaya über die Nordsee zur Ostsee. In der Nacht 30./31.12. wurden vor allem in der Deutschen Bucht und der Kieler Förde Orkanböen gemessen. So traten am Leuchtturm Kiel Böen bis zu ca. 141 km/h auf. Ein zweites Sturmtief („LOTTE“) ist mit seinem Kern nordwestlich von Irland zu erkennen. Dieses Tief beeinflusste den letzten Tag des Jahres 2006 und die Neujahrsnacht mit starkem bis stürmischem Wind, sowie verbreitet Regen. Am Neujahrstag war es sehr mild mit Temperaturen zwischen 8 und 13°C.

Quelle: DMG

Weitere Informationen:

Farbmodell

Engl. colour model; ein Farbmodell stellt einen dreidimensionalen Körper unterschiedlicher Form dar, in dem eine Farbe über ein Tripel von drei Werten festgelegt ist. Jeder Farbton kann als Vektor in diesem dreidimensionalen Farbraum formal eindeutig definiert werden.
Dazu bestehen verschiedenste Modelle, z.B. das RGB-Farbmodell für die Bildschirmausgabe, das CMY- oder CMYK-Farbmodell für die Druckausgabe.
Für Bildverarbeitung und Fernerkundung sind die folgenden Modelle von Bedeutung: CIE, RGB, IHS, Lab, CMYK.

RGB-Farbmodell RGB-Farbmodell CMYK-Farbmodell CMYK-Farbmodell

Farbtransformation

Auch Farbraumtransformation, engl. color transformation, franz. transformation des couleurs; nach DIN 18716 ein "Vorgang, durch den die Datensätze eines Farbbildes in einen anderen farbmetrischen Raum transformiert werden".

Satellitenbilddaten werden i.d.R. als additive Farbkompositbilder mit den Grundfarben Rot (R), Grün (G) und Blau (B) und deren Mischfarben dargestellt. Bildschirme benutzen ebenfalls Farbkanonen in RGB. Daneben gibt es den CMYK-Farbraum mit den Farben Cyan, Magenta, Gelb und Schwarz, der von Farbdruckern bekannt ist. Ein alternativer Farbraum ist der IHS-Farbraum. Die Farben werden hier durch die Intensität I (engl. intensity), den Farbton H (engl. hue) und die Sättigung S (engl. saturation) definiert. Die Streckung der Intensität bei der Transformation gibt dem Interpreten Informationen in Form "spektraler Karten", sie dient also der besseren Visualisierung der eigentliche blassen Farben von Satellitenbildern.

FASTSAT

Engl. Akronym für Fast, Affordable, Science and Technology Satellite; Satellitenplattform, auf der die verschiedenartigsten kleinen Nutzlasten untergebracht werden können, womit Forscher aus Wissenschaft und Industrie die Gelegenheit geboten wird, Experimente im All zu günstigen Kosten durchzuführen. Der in 750 km Höhe fliegende Mikrosatellit der NASA wurde 19. November 2010 vom kommerziellen Raketenstartplatz Kodiak Launch Complex (KLC) in Alaska ins All gebracht. Als Trägerrakete kam dabei eine Minotaur IV zum Einsatz. Der Mikrosatellit war bereits der 26. innerhalb des sogenannten Space Test Program, einer gemeinsamen Initiative der NASA und des US-Verteidigungsministeriums.
FASTSAT trägt als Nutzlast drei technologische Demonstrationsinstrumente und drei Instrumente für die Atmosphärenforschung. Es handelt sich um einen in kurzer Bauzeit und zu niedrigen Kosten hergestellten Satelliten.

Weitere Informationen:

Fehler in Bilddaten

Engl. image distortion; nach DIN 18716 Bezeichnung für "systematische und zufällige Sensoreigenschaften, die das Messsignal beeinflussen", ergänzt mit der Anmerkung: "Zu den systematischen Eigenschaften zählen z.B. Pixel Response Non-Uniformity (PRNU) und Dark Signal Non-Uniformity (DSNU)".

Fehlermatrix (-matrize)

Eine Matrix (Matrize), die zur Qualitätssicherung von der Quelle zur Bewertung entnommene Proben mit Beobachtungen vergleicht, die als korrekt in Betracht gezogen werden (Referenzdaten). Die Fehlermatrix (-matrize) erlaubt eine Berechnung von Eigenschafts- (Beschaffenheits-) parametern, wie Gesamtgenauigkeit, Unterlassungsfehler und Übertragungsfehler.

Fehlerrechnung

Statistische Abschätzung des Ausmaßes der zufälligen (im Gegensatz zu den systematischen) Fehlern einer Meßreihe, um die Unschärfe des Messergebnisses (Mittelwert, sog. Bestwert) angeben zu können. Im einfachsten Fall ist dies:

Formel Fehlerrechnung

n = Anzahl der Messungen
ai = Messdaten
µ = Mittelwert der Messreihe

Als Schätzung für die Unschärfe eines Einzelwertes wird u.a. die Formel für die Standardabweichung benutzt und als Standardfehler (auch mittlerer quadratischer Fehler) bezeichnet. Bei aus mehreren Messreihen zusammengesetzten Ergebnissen müssen die Gesetze der Fehlerfortpflanzung berücksichtigt werden.

Feldvergleich

Engl. ground truth(ing), franz. échantillonnage de terrain; nach DIN 18716 "durch Erhebungen vor Ort erfasste Information mit dem Zweck der Eichung oder Überprüfung von Fernerkundungsergebnissen".

FEMA

Engl. Akronym für U.S. Federal Emergency Management Agency.

FENGYUN

Abk.: FY, chin. für 'Wind und Wolken'; System geostationärer und polarumlaufender Wettersatelliten des Chinesischen Wetterdienstes. Die polarumlaufenden Satelliten sind durch ungerade Zahlen gekennzeichnet (FY-1, FY-3), die geostationären durch gerade Zahlen (FY-2). Sie tragen zum globalen meteorologischen Satellitensystem bei.
Die meteorologischen Satelliten liefern Daten für die Ozeanographie, Land- und Forstwirtschaft, Hydrologie, Luft- und Schifffahrt, den Umwelt- und Katastrophenschutz und die nationalen Verteidigung. Die neuesten Satelliten sind in der Lage rund um die Uhr und bei jedem Wetter Daten z.B. über Stürme, Regenfälle, Gewitter und Hagelstürme zu liefern. Darüber hinaus überwachen sie die Entwicklung von Sandstürmen und können Messungen der Luftqualität liefern.

An Bord der polnah umlaufenden Wettersatelliten befindet sich im Falle der Satelliten FY-1C und -D das Multichannel and IR Scan Radiometer (MVSIR), ein abbildendes Instrument zur Erzeugung von Satellitenbildern. Das Instrument entspricht im wesentlichen dem AVHRR. Die geometrische Auflösung beträgt unterhalb des Satelliten ca. 1,1 km. Die zehn Spektralkanäle (das AVHRR hat sechs Spektralkanäle) liegen im sichtbaren Bereich, im nahen und im thermischen Infrarot.

Die Schwadbreite des Bildes beträgt etwa 3200 km. MVISR-Bilder ergänzen wegen ihrer höheren geometrischen Auflösung die Bilder der geostationären Wettersatelliten. Bilder das MVISR liefern u.a. Informationen über das Vorkommen, die Art und Höhe und den Aggregatzustand (Wasser/Eis) der Wolken, außerdem Meeresoberflächentemperaturen, Verteilung von Meereseis und von Vegetation. Drei schmalbandige Kanäle im sichtbaren Spektralbereich sind speziell für ozeanographische Aufgaben gedacht. MVISR-Bilder können während des Satellitenüberfluges direkt empfangen werden.

Die neuere Fengyun-3-Serie soll die Wettersatelliten der Fengyun-1-Serie ersetzen, wobei beide Serien sich auf polaren sonnensynchronen Bahnen bewegen. FY-3A ist ab 2008, FY-3B seit 2010 und FY-3C seit 2013 im Einsatz. Die dreiachsenstabilisierten Satelliten sind mit elf Instrumenten (darunter optischem Radiometer, Infrarotspektrometer, Mikrowellenthermo- und -hygrometer und UV-Detektoren zur Vermessung der Ozonschicht und Strahlungsmessgeräten) ausgerüstet. Als Startmasse werden 2.450 kg angegeben. Die optischen Sensoren besitzen eine Schwadbreite von 2.400 km und eine Auflösung von 250 m. Sie haben für die Datenübertragung zwei X-Band- (einer für Echtzeitübertragung) und einen L-Band-Transmitter (ebenfalls Echtzeit).

Die Satelliten der Fengyun-2-Serie sind spinstabilisierte, geostationäre Satelliten von zylindrischem Aussehen mit einem Durchmesser von 2,1 m und einer Höhe von 2,1 m (4,5 m mit Antennen). Die Nutzlast besteht aus einem Radiometer im sichtbaren und Infrarotbereich und Übertragungssystemen im S- und UHF-Band. Das Radiometer hat eine Auflösung von 1,25 km im sichtbaren und 5 km im Infrarotbereich.

Die Fengyun-4-Serie ist als Ersatz für die geostationären Satelliten der Fengyun-2-Serie gedacht. Der Start von Fengyun-4A erfolgte am 10. Dezember 2016.

fengYunBsp FENGYUN 1D

Farbkompositbild von FENGYUN 1D vom 19.07.2003 08:28 UTC. Komposit aus drei Spektralbereichen im sichtbaren Bereich. Bei den grünen Flächen nördlich von Norwegen (Europäisches Nordmeer) handelt es sich um Phytoplankton. Quelle: DWD

Weitere Informationen:

Fenster

Begriff zur Beschreibung eines Abschnittes des elektromagnetischen Spektrums, in dem die Atmosphäre Strahlung nur schwach absorbiert.

fernerkundliche Aufnahme

Engl. data acquisition, franz. acquisition des données; nach DIN 18716 ein "Vorgang, bei dem die von der Erdoberfläche reflektierte oder ausgehende und am Sensor ankommende elektromagnetische Strahlung durch den Sensor erfasst und gespeichert wird".

Fernerkundung (FE)

Engl. remote sensing, franz. télédétection; Bezeichnung für alle Verfahren, die sich mit dem

Folglich ist die Informationsgewinnung mit Fernerkundungssystemen von In situ-Verfahren zu unterscheiden, welche die Messwerterfassung direkt am Ort der zu messenden Variablen durchführen.

Eine sehr weit gefasste Definition des Begriffs Fernerkundung liefert Hildebrandt (1996 S. 1): ,,Fernerkundung im umfassenden Sinne ist die Aufnahme oder Messung von Objekten, ohne mit diesen in körperlichen Kontakt zu treten, und die Auswertung dabei gewonnener Daten oder Bilder zur Gewinnung quantitativer oder qualitativer Informationen über deren Vorkommen, Zustand oder Zustandsänderung und ggf. deren natürliche oder soziale Beziehungen zueinander." Diese sehr breite Begriffsbildung schließt auch analoge Verfahren wie die Erstellung von analogen Luftbildern, d.h. das Photographieren mit einer Kamera auf Film, sowie auch die Messung der Strahlungstemperatur durch flugzeuggestützte Messgeräte oder sogar per Hand ein. Sämtliche Verfahren erfassen elektromagnetische Strahlung wie das sichtbare Licht, Wärmestrahlung und andere nicht sichtbare Strahlung, die von den Untersuchungsobjekten auf der Erde (z.B. Grünflächen) oder in der Atmosphäre (z.B. Wolken) emittiert oder reflektiert werden, wobei die Objekte je nach Art oder Beschaffenheit (z.B. Vegetation) und Zustand (z.B. geschädigter Waldbestand oder abgeerntete Getreidefelder) auf unterschiedliche Weise emittieren oder reflektieren.

Teilweise werden die Arbeitsschritte Auswertung und Interpretation nicht zur FE im engeren Sinne gerechnet. Oft wird auch die Aufzeichnung von Gravitationsfeldern, magnetischen oder elektrischen Feldern sowie von akustischen Wellen (Sonar) nicht dem Begriff FE zugeordnet.

Begriffshistorisch ist Fernerkundung ein sehr junges Arbeitsfeld. Seit der erstmaligen Aufnahme von Luftbildern stand die Ausmessung der aufgenommenen Objekte im Vordergrund (Photogrammetrie). Der Begriff Fernerkundung entwickelte sich erst Anfang der 70-er Jahre als Übersetzung des von amerikanischen Wissenschaftlern geprägten Ausdrucks „remote sensing“.

fe_system Sieben Elemente bildgebender Satellitenfernerkundung

Viele Fernerkundungsverfahren bedingen eine Interaktion zwischen einfallender Strahlung und den beobachteten Objekten. Dies kann am Beispiel eines bildgebenden FE-Systems aufgezeigt werden, bei dem die unten angeführten 7 Elemente einbezogen sind. Es bleibt zu beachten, dass FE auch das Aufspüren von emittierter Energie umfasst und auch den Einsatz von nicht bildgebenden Sensoren.

  • Energiequelle oder Beleuchtung (A)
  • Interaktion der Strahlung mit der Atmosphäre (B)
  • Interaktion mit dem Objekt (C)
  • Messung der Energie durch den Sensor (D)
  • Übertragung, Empfang und Verarbeitung der Signale (E)
  • Interpretation und Analyse (F)
  • Anwendung (G)
Quelle: Natural Resources Canada

DIN 18716 (Photogrammetrie und Fernerkundung – Begriffe) vom Juni 2017 definiert FE wie folgt: "Gesamtheit der Verfahren zur Gewinnung von Informationen von entfernten Objekten ohne direkten Kontakt mit diesen durch Messung und Interpretation von reflektierter und emittierter elektromagnetischer Strahlung".

Dieser Definition von Fernerkundung und zugehöriger Begriffe bei DIN wird der diesbezügliche Anwendungsbereich vorangestellt:

"Diese Norm legt die Begriffe der Fernerkundung der Erde einschließlich darauf befindlicher Objekte mit abbildenden digitalen Sensorsystemen von Standorten auf der Erde, von Luftfahrzeugen (insbesondere Flugzeugen) oder Satelliten fest. Sie dient der Vereinheitlichung der Grundbegriffe und Benennungen.
Anwendung findet die Fernerkundung zur Erfassung und Beobachtung der Erdoberfläche im weitesten Sinne, insbesondere zur Kartierung und Überwachung der Geo- und Biosphäre, zur Datengewinnung im Geoinformationswesen, Erstellung von Planungsunterlagen und zur Beobachtung natürlicher und anthropogener Veränderungen von Ökosystemen. Darunter fallen auch Anwendungen in Vermessungswesen und Kartographie, darüber hinaus aber in einem breiten Spektrum weiterer Fachgebiete wie Raumordnung und Landesplanung, Forstwirtschaft, Bauingenieurwesen, Architektur, Denkmalschutz und Archäologie, Industriemessung, Unfallaufnahme und Kriminalistik, Medizin und andere.
Die Aussagen gelten sinngemäß auch für die Erkundung extraterrestrischer Körper.
In der Ozeanographie und in der Meteorologie wurden eigene Fernerkundungsverfahren entwickelt. Die damit zusammenhängenden Begriffe sind nicht Gegenstand dieser Norm.
Diese Norm bezieht sich auf die Detektion und Auswertung elektromagnetischer Strahlung und nicht auf Magnet- und Schwerefelder."

Die Fernerkundung bietet die Möglichkeit, große Gebiete in hoher zeitlicher und räumlicher Auflösung zu erfassen. Vorteile gegenüber anderen Verfahren liegen vor allem in der automationsgestützten Auswertung, in der Nutzung von homogenen Daten, der einheitlichen Auswertung und der Kombinationsmöglichkeit verschiedener Daten und Verfahren.

Gliederung von Fernerkundungssystemen

Fernerkundungssysteme können untergliedert werden in ein Sensorsegment, in ein Bodensegment und in ein Veredlungssegment.

Funktionsweise von Fernerkundung in Kürze

Zunächst ist zu unterscheiden zwischen Passiven Fernerkundungsverfahren oder -systemen und Aktiven Fernerkundungsverfahren oder -systemen. Erstere zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Deren punktbezogenen Messwerte liefern Rasterdaten des aufgenommenen Geländes. Aktive Verfahren wie Radar oder Laser senden kohärente Strahlungsimpulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten Signale.

Technische FE-Verfahren gehen von der Tatsache aus, dass die natürliche oder künstliche Strahlung (z.B. Sonnenlicht, Radar, Schall) von den Objekten unterschiedlich emittiert bzw. reflektiert wird. Das heißt, Grundlage der Fernerkundung ist das objekt- und materialspezifische Reflexionsverhalten. Objektbeschreibende elektromagnetische Strahlung setzt sich in Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien sind die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen. Daher wird ein zentraler Bereich der Fernerkundung auch als Erdbeobachtung (engl. earth observation, EO) bezeichnet.

Passive Verfahren

Abgesehen von technischen Lösungen ist das menschliche Sehvermögen bereits ein eindrucksvolles Fernerkundungssystem. Unsere Augen nehmen das von unserer Umgebung reflektierte sichtbare Licht (Spektralbereich 0,4-0,7 Mikrometer) auf, das dann vom Gehirn als Bild verstanden wird. Mental interpretieren wir die Farben, Strukturen, Umrisse und Größen von Objekten um daraus Informationen wie ihre Identität, ihr Zustand, ihre Geschwindigkeit und Bewegungsrichtung und andere Qualitäten abzuleiten. Allerdings hat unser Sehsystem Begrenzungen im Hinblick auf globale Erkundungsaufgaben. Unser Vermögen, Bilder zu speichern und wieder abzurufen, ist ungenau. Zudem können wir keine Informationen aufnehmen, die Wellenlängen benutzen, für die unser Auge nicht wahrnehmbar sind. Auch verschließen sich dem menschlichen Beobachter Gebiete die schwer zu erreichen oder gefährlich sind wie die Tiefsee, das Weltall und Gebiete mit hohen Temperaturen oder starker Strahlung. Flugzeug- und satellitengetragene Sensoren liefern eine Vielfalt von Umweltdaten von Flächen, die mit anderen Mitteln nicht zusammengetragen werden können.

Geht man von einem passiven Fernerkundungssystem aus, das selbst keine Laser- oder Radarstrahlen emittiert, lassen sich verkürzt folgende Vorgänge ausmachen:

Dieses Grundprinzip beruht darauf, dass die Objekte ein für sie charakteristisches Strahlungs- oder Reflexionsverhalten besitzen. Eine Wasseroberfläche reflektiert z. B. die eintreffende Infrarotstrahlung im Wellenlängenbereich zwischen 0,7 und 0,9 µm völlig anders als eine trockene Savannenfläche. Das spezifische Strahlungs- oder Reflexionsverhalten unterschiedlicher Objekte ermöglicht letztlich ihre Identifikation. Anhand der durch die Fernerkundung erfassten elektromagnetischen Strahlung kann auf die Objekte rückgeschlossen werden. Diese stark vereinfachte Darstellung berücksichtigt nicht die Einflüsse der Atmosphäre.

Aktive Verfahren

Passive Systeme können nur von Objekten reflektierte oder emittierte Strahlung aufzeichnen (z.B. das Multi-Spectral Instrument an Bord der Sentinel-2). Demgegenüber senden aktive Fernerkundungsverfahren wie Radar (z.B. das C-Band Synthetic Aperture Radar an Bord von Sentinel-1 ) oder Laser (LIDAR) kohärente Strahlungspulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten/reflektierten Signale. Radiometrische Korrekturen berücksichtigen die Strahlungscharakteristika der jeweiligen Energiequellen.

Atmosphäreneinflüsse

Die Atmosphäre vermindert die Intensität der Sonnenstrahlung durch Streuung und Absorption in Funktion der Streupartikelgröße und der Wellenlänge (atmosphärische Extinktion). Große Transparenz besteht dagegen in sog. atmosphärischen Fenstern im sichtbaren Bereich des Spektrums, im nahen, im mittleren und im thermalen Infrarot sowie in hohem Maße im Mikrowellenbereich (elektromagnetisches Spektrum). Es ist deshalb wichtig, die Beeinflussung der elektromagnetischen Strahlung durch die Atmophäre gut zu kennen, denn sie beeinträchtigt die Qualität der Bilder. Einige der atmosphärischen Effekte können korrigiert werden, bevor die Bilder einer weiteren Analyse und Auswertung unterzogen werden (Atmosphärenkorrektur).
Bei Interaktion der Strahlung mit der Erdoberfläche werden je nach Art der Landbedeckung (land cover) gewisse Strahlungsanteile reflektiert, andere absorbiert. Die Variation der Reflexion in Funktion der Wellenlänge wird objektspezifische Spektralsignatur genannt und ist Kenngröße für die spektrale (thematische) Differenzierbarkeit von Objekttypen. (Csaplovics)

Produkte der Fernerkundung

Produkte der Fernerkundung der Erde sind (geocodierte) originäre oder klassifizierte Bilddaten in digitaler und/oder analoger Form (Orthobild), meist als kombinierte Bild-Strich-Karten (Bildkarte) mit Koordinatenbezug, des weiteren flächenbezogene Statistiken in Tabellen- oder Diagrammform sowie objektspezifische spektrale Signaturenkataloge.

Fernerkundungsdaten liegen zumeist in digitaler Form vor oder können z.B. durch Scannen von Photos digitalisiert werden. Zudem sind sie häufig in Formaten erhältlich, die sie für geographische Informationssysteme (GIS) verwendbar machen. Wichtigste Schritte der Bildanalyse in der Fernerkundung sind Bildverbesserung, geometrische Rektifizierung der perspektiv und projektiv verzerrten Bilder (Geocodierung), Klassifizierung nach multispektralen, textur- und musterabhängigen Parametern, Einbeziehung von Expertenwissen und multitemporale Vergleiche.

Unter den Verfahren der FE sind jene besonders wichtig und am weitesten verbreitet, die zu einer bildhaften Wiedergabe der Erdoberfläche führen (abbildende FE-Systeme).
Unterschieden werden photographische (Luftbilder, früher auch von Satelliten oder aus der ISS und ehemals auch aus dem Space Shuttle) und nicht-photographische Aufnahmeverfahren (digitale Bilder, Radaraufnahmen), die von bemannten Flugzeugen, unbemannten Flugobjekten (Drohnen), bemannten Raumfahrzeugen und Satelliten (Satellitenfernerkundung) oder auch von höher gelegenen Geländepunkten aus zur Erkundung der Erdoberfläche und der Atmosphäre genutzt werden.

Einsatzbereiche von Fernerkundung Einsatzbereiche von Fernerkundung

Quelle: NASDA (R.o.)

Vorzüge der Fernerkundung

Gegenüber der subjektiven Sicht des Menschen besitzt die FE-Technologie einige wichtige Vorteile. Sie verbindet eine synoptische Sichtweise (Großräumigkeit, Gleichzeitigkeit) aus der Vogelperspektive mit raschem Zugriff und kurzen Wiederholraten, Chancen, die eine Bodenbegehung nicht ermöglicht. Dies erlaubt die Analyse und Beobachtung von regionalen und globalen Phänomen, z.B. die Abnahme der Ozonschicht über der Antarktis, Daten zu Wolkentemperatur und Niederschlag, Waldbrände, die Vernichtung des tropischen Regenwaldes, Desertifikationsentwicklung, Landnutzung, Erntezustand, Bewegungen von Gletschereis und Eisbergen, Meeresoberflächentemperaturen oder Sediment- und Chlorophyllkonzentrationen von oberflächennahen Wasserschichten sind nur einige Beispiele.

Fernerkundung ist heute unverzichtbarer Bestandteil von Ressourcen-Kartierungen und Bestandsaufnahmen. Fernerkundungsbilder bieten einen Überblick über die Ressourcen unserer Erde in ihren Zusammenhängen. Vegetation, Geologie, Böden, Hydrologie, Verkehrsnetz und Siedlungsmuster werden alle in ihrem räumlichen Kontext wiedergegeben. Zudem können einzelne FE-Bilder für unterschiedliche Disziplinen und Aufgabenstellungen ausgewertet werden. Wettersatelliten liefern aktuelle Bilder im Stundentakt oder noch häufiger.

Abhängig vom jeweiligen Satellitensystem bilden Erdbeobachtungssatelliten den Globus in eintägigem oder mehrwöchigen Rhythmus ab. Die Daten werden gespeichert, so dass wiederholte Aufzeichnungen des gleichen Objekts verglichen werden können und somit eine kostengünstige Möglichkeit zum Monitoring von zeitabhängigen Veränderungen besteht.

Beispielsweise kann die Entwicklung von Feldfrüchten zu unregelmäßigen Abständen während der Wachstumsperiode durchgeführt werden, um Problemflächen auszumachen und um Erntevorhersagen zu treffen. Die EU setzt FE im Rahmen ihrer Gemeinsamen Agrarpolitik zur Subventionskontrolle ein.

bw_Landnutzung_lres
Beispiel für eine Landnutzungserhebung
aus Baden-Württemberg
mit Landsat-TM-Aufnahmen
aus den Jahren 1999 und 2000

 

BW Landnutzung Legende

Quelle: Geo-Bild

Veredlungssegment

Im Veredlungssegment wird die eigentliche Umsetzung der erfassten Daten in interpretierbare Ausgabebilder vorgenommen, wodurch die Auswertung und Nutzung von Fernerkundungsdaten erfolgt. Hierzu werden Methoden der visuellen Interpretation und der digitalen Bildverarbeitung herangezogen.

Die erfolgreiche Interpretation von Luft- und Satellitenbildern setzt voraus, dass der Bearbeiter die notwendige Sachkenntnisse hinsichtlich des Gegenstandes der Interpretation mitbringt. Dies kann die Anwendungsdisziplin betreffen (z.B. forstwirtschaftliche Kenntnisse für die forstliche Luftbildinterpretation) oder auch die Region (z.B. landeskundliche Kenntnisse zur Interpretation von Bildern aus einem Entwicklungsland). Auch ist in gewissem räumlichen Umfang eine detaillierte Verifikation wesentlich für den effektiven Einsatz von FE. Darüber hinaus sind Kenntnisse über die Entstehung der Bilder und ihre Eigenschaften erforderlich, um die durch die Interpretation gegebenen Möglichkeiten der Informationsgewinnung voll ausschöpfen zu können und Fehlinterpretationen nach Möglichkeit zu vermeiden.
Welche Nutzergruppen gibt es derzeit?

Die Nutzer von Fernerkundungsinformationen lassen sich grob in zwei Gruppen unterteilen: Es gibt einerseits die wissenschaftlichen Nutzer an Universitäten und Forschungszentren, die sich mit der Erforschung und Weiterentwicklung der Auswertetechniken und der Erschließung neuer Anwendungen befassen. Sie verwenden bevorzugt die Rohdaten bzw. die systemkorrigierten Daten. Die zweite Gruppe setzt sich aus behördlichen und industriellen Nutzern zusammen, die für die jeweilige praktische Anwendung vorverarbeitete Daten benötigen, bei denen die Bilder z.B. radiometrisch kalibriert und auf eine Kartenprojektion entzerrt wurden.

Zur Auswertung von Fernerkundungsdaten ist ein Standard-PC oft vollkommen ausreichend. Da die Bilddaten in Rasterform vorliegen ist mehr Speicher von Vorteil. Bei der Verarbeitung von Satellitenbildern ist das vorrangige Ziel nicht die Verbesserung des Erscheinungsbildes, sondern die Extraktion inhaltlicher Information. Handelsübliche Bildbearbeitungsprogramme sind nur in begrenztem Umfang für diesen Zweck einsetzbar. Daher ist eine Bildauswerte-Software erforderlich, die es sowohl erlaubt, Bilder unterschiedlicher Formate in beliebiger Kanalkombination einzulesen, die aber auch Module zur radiometrischen Veränderung (z.B. Kontrastoptimierung), Filterung (Hoch-, Tiefpassfilter), Bildarithmetik (Subtraktion, Maskierung) und Klassifizierung (Clustering) enthält. Solche Software wird als abgespeckte Public Domain bzw. Shareware (MultiSpec, ENVI-FreeLook), kostenlose oder preiswerte Schul-Software (LEOWorks, Landsat von Duttke, IDRISI) und professionelle Programm-Pakete (ERDAS, ARC-INFO) angeboten.

Taxonomie von Fernerkundungssystemen
Aufnahme-
plattform
Satellit/Raumfähre Flugzeug/Ballon Stationär
Aufnahme-
modus
passiv
(elektrooptisch, thermales Infrarot, thermale Mikrowelle)
aktiv
(Laser, Radar)
Aufnahme-
medium
analog
(Kamera, Video)
digital
(Whiskbroom, Line Array, 2D CCD)
Spektral-
bereich
sichtbar/ultraviolett reflektiertes Infrarot thermales Infrarot Mikrowelle
Spektrale
Auflösung
panchromatisch
1 Band
multispektral
2-20 Bänder
hyperspektral
20-250 Bänder
ultraspektral
>250 Bänder
Radiometrische
Auflösung
sehr hoch
(>12 Bit)
hoch
(8-12 Bit)
mittel
(6-8 Bit)
niedrig
<6 Bit)
Räumliche
Auflösung
ultrahoch
<1m
sehr hoch
1-4 m
hoch
4-10 m
mittel
10-50 m
niedrig
50-250 m
sehr niedrig
>250 m
übersetzt nach Ehlers, Janowsky & Gähler (2001): New Remote Sensing Concepts for Environmental Monitoring, Proceedings, SPIE Conference on Remote Sensing for Environmental Monitoring, GIS Applications and Geology, Toulouse

Einsatzmöglichkeiten von Fernerkundung

Die Fernerkundung kann für eine Vielzahl von Fragestellungen und Interessengebieten eingesetzt werden. Eine Auswahl:

Eine Vision

In einer Vision kann die Fernerkundung als Teil einer Dreiheit aus Fernerkundung (EO), Navigation (NAV) und Kommunikation (COM) gesehen werden, die es erlaubt, die sich in einer rasch ändernden Umwelt benötigten Informationen schnell, präzise, flächendeckend und kontinuierlich abrufbar zu machen. Die Bereitstellung solcher Informationen erfordert ein weitreichendes und stabiles Informationsnetz, das mit Hilfe des Zusammenschlusses von realisiert werden kann. Die Dreiheit Fernerkundung, Kommunikation und Navigation (EO/COM/NAV) gewinnt immer mehr an Bedeutung und spielt bereits heute eine signifikante Rolle in einigen wirtschaftlichen Zweigen. Ein Beispiel dafür ist das sogenannte Precision Farming-Konzept.

Das Zusammenwirken einzelner Wissenschaften in der Dreiheit EO/NAV/COM ist eine entscheidende Voraussetzung für die Realisierung der Vision. Mit dem Aufbau eines Netzwerkes von Fernerkundungssatelliten kann eine hochauflösende, kontinuierliche und flächendeckende Abbildung der Erdoberfläche zur Erfassung und Überwachung von aktuellen Ereignissen ermöglicht werden. Die Satellitenplattform wird in symbiotischer Weise EO/NAV/COM-Anwendungen unterstützen, so dass jeder Anwender die geforderte Information zu jedem Zeitpunkt am gewünschten Ort erhalten kann. Dadurch wird ein wichtiger Beitrag zur schnellen Informationsverbreitung geleistet, die zu einer Erhöhung der Sicherheit und damit auch zu einer Verbesserung der Lebensqualität führt. Darüber hinaus tragen die Informationen zu Verständnis und Erhalt unserer Umwelt bei, deren Nachhaltigkeit auch für weitere Generationen gewährleistet sein sollte.

Remote sensing platforms Remote Sensing Platforms

Dieses Diagramm zeigt die Vielfalt der heute verwendeten Fernerkundungsplattformen, die einen Blick auf unseren Planeten in verschiedenen Maßstäben und Auflösungen ermöglichen. Fernerkundungsinstrumente sind in erster Linie zwei Arten von Instrumenten - aktiv und passiv. Aktive Sensoren liefern ihre eigene Energiequelle, um die von ihnen beobachteten Objekte zu beleuchten. Ein aktiver Sensor sendet Strahlung in Richtung des zu untersuchenden Ziels aus. Der Sensor erfasst und misst dann die Strahlung, die vom Ziel reflektiert oder zurückgestreut wird. Passive Sensoren hingegen erfassen die natürliche Energie (Strahlung), die vom beobachteten Objekt oder der Szene emittiert oder reflektiert wird. Reflektiertes Sonnenlicht ist die häufigste Strahlungsquelle, die von passiven Sensoren gemessen wird. Um auf die NASA-Erdbeobachtungsdaten zuzugreifen und sie herunterzuladen, besuchen Sie earthdata.nasa.gov.

Quelle: NASA SVS

Weitere Informationen (Auswahl, s.auch "interne Linklisten")

Fernerkundung der Meere

Erkundung des Meeres bzw. die Messung ozeanographischer Parameter mit den berührungsfreien Verfahren der Fernerkundung. Das Messinstrument befindet sich nicht in dem speziellen Wasserkörper, von dem ozeanographische Daten gewonnen werden sollen, sondern kann sowohl entfernt davon im Wasser als auch darüber platziert sein. Zu den ozeanographischen Fernerkundungsmethoden zählt auch die Vermessung des Ozeans mit akustischen Instrumenten, die sich im Wasser befinden (Hydrophone; Ocean Acoustic Tomography). Über dem Wasser können Fernmessinstrumente an der Küste oder auf Meeresplattformen, Schiffen, Hubschraubern, Flugzeugen oder Satelliten installiert sein. Insbesondere die Satellitenfernerkundung, die weltweite Messungen ermöglicht, hat in den letzten Jahren in der Ozeanographie große Bedeutung erlangt.

Einige mit Fernerkundung messbare ozeanographische Größen:

Es werden große Anstrengungen unternommen, um ein Fernerkundungsgerät zu entwickeln, das in der Lage ist, auch den Salzgehalt der obersten Wasserschicht zu messen.
Diese direkt messbaren ozeanischen Größen enthalten auch Informationen, die nicht nur die Eigenschaften der Wasseroberfläche wiedergeben. So kann man aus Veränderungen der Rauhigkeit der Wasseroberfläche auch Informationen über Phänomene im Inneren des Ozeans erhalten, z.B. über interne Wellen, und aus Veränderungen der Neigung Rückschlüsse über das ozeanische Strömungsfeld ziehen.
Die elektromagnetischen Wellen, die zur Fernerkundung des Meeres von Satelliten aus verwendet werden, reichen von ultravioletten bis zu Mikrowellen im Bereich von Zentimetern bis Dezimetern. Von der Küste aus werden auch Hochfrequenz-Radare zur Messung von Meeresoberflächenströmungen eingesetzt. Generell kommen sowohl aktive, wie auch passive Sensoren zum Einsatz. Zu den passiven Sensoren gehören photographische Kameras, multispektrale Scanner und Radiometer, die sowohl im infraroten, sichtbaren und ultravioletten Wellenlängenbereich als auch im Mikrowellenbereich arbeiten. Fotokameras und multispektrale Scanner werden zur Messung der Ozeanfarbe verwendet und Radiometer zur Messung der Wassertemperatur und Windgeschwindigkeit. Zu den aktiven Sensoren gehören das Windscatterometer, das Radaraltimeter und die abbildenden Radargeräte wie das Radar mit realer Apertur (Real Aperture Radar, RAR) und das Radar mit synthetischer Apertur (Synthetic Aperture Radar, SAR).

Weitere Informationen:

Fernerkundungsdaten

Geophysikalische Daten, die mit Hilfe von Satelliten (Satellitenbilder) oder Flugzeugen (Luftbilder), bzw. anderen Luftfahrzeugen über Objekte, Gebiete und Phänomene gewonnen und analysiert werden können, ohne dass ein direkter Kontakt mit den Messobjekten besteht. Sie resultieren im Satelliten i.d.R. als digitale Daten in Rasterform, während bis vor wenigen Jahren im Flugzeug noch oftmals das analog auf Filmmaterial aufgezeichnete Bild entstand und anschließend am Boden mittels Film- oder Photoscannern gescannt wurde. Fernerkundungsdaten enthalten vielfältige Informationen zum Beobachtungsobjekt. Die durch die Fernerkundung gewonnenen Primärdaten werden mit Hilfe von digitaler Bildverarbeitung und daraus entstehenden Sekundärdaten in ein- und mehrfarbige Bilder oder Landkarten umgewandelt, bzw. sind für die Analyse in Geographischen Informationssystemen (GIS) und Klimamodellen verwendbar. Seltener liegen Daten als Zahlenwerte in Tabellenform vor.

Fernerkundungsdaten können sowohl ausgemessen (Photogrammetrie) als auch interpretiert bzw. klassifiziert werden (Bildinterpretation, im engeren Sinne manchmal unter Fernerkundung verstanden) und ergeben dann Geoinformationen.

Fernerkundungstechnologie als ein System, bestehend aus folgenden Komponenten:
  • Elektromagnetische Strahlung (EMS): Sie ist der Informationsträger der Fernerkundung, nachdem sie von einer Strahlungsquelle kontinuierlich oder impulsartig ausgesendet und an unterschiedlichen Objekten spezifisch reflektiert wurde. Für die Fernerkundung relevant ist EMS im optischen Bereich (von ultravioletter Strahlung über sichtbares Licht bis zum Infrarotbereich), die mit optischen Geräten aufgenommen wird, und EMS im Mikrowellenbereich, die mit Radargeräten aufgenommen wird.
  • Beobachtungsobjekte: Bei der Erdfernerkundung sind das Objekte auf oder Bestandteile der Erdoberfläche (einschließlich der oberen Schichten des Erdbodens und der Meere sowie der Atmosphäre), die EMS emittieren oder zumindest teilweise reflektieren. Jedes Objekt reflektiert entsprechend seiner Materialzusammensetzung und seiner Oberflächenbeschaffenheit: Ein Blatt erscheint grün, weil die EMS des roten und teilweise auch des blauen Bereichs absorbiert und nur die des grünen Bereichs reflektiert wird. Die Wasseroberfläche glitzert, weil viele verschieden geneigte, kleine Einzelflächen die einfallende Sonnenstrahlung in unterschiedliche Richtungen reflektieren. Diese individuellen Reflexionseigenschaften von Objekten bezeichnet man auch als spektrale Signatur, die jedoch nicht immer gleich ist, sondern von vielfältigen Faktoren beeinflusst werden kann. Beispielsweise verändert sich die spektrale Signatur von Pflanzen im Lauf der Wachstumsperiode oder ziehen Veränderungen des Wassergehalts von Pflanzen und Böden Änderungen in der jeweiligen spektralen Signatur nach sich.
  • Satelliteninfrastruktur: Dazu zählen die Beobachtungsinstrumente/ Sensoren, welche die von den Objekten reflektierte oder emittierte Strahlung aufnehmen, Abbilder erzeugen bzw. Fernerkundungsdaten generieren, sowie deren Träger oder Plattformen (vorrangig Satelliten, aber auch Flugzeuge) einschließlich deren Platzierungs- und Steuerungseinheiten (Raketen, Startplätze, Kontrollzentren) sowie deren Datenübertragungssysteme.
  • Datenverarbeitung: Sie hat die Aufgabe, aus den übermittelten Fernerkundungsdaten von unterschiedlichen Objekten »sinnvolle« Informationen für spezifische Zielgruppen abzuleiten – heute teilweise auch als Informationsdienstleistungen bezeichnet. Dazu werden Fernerkundungsdaten regelmäßig mit Daten aus anderen Quellen verknüpft.

TAB-Arbeitsbericht Nr. 154 / November 2012

Eigenschaften von Fernerkundungsdaten

Fernerkundungsdaten weisen Eigenschaften auf, die keine andere Datenquelle in dieser Form liefern kann:

Zielgruppen

Fernerkundungsdaten sind insbesondere in den Geowissenschaften / Geographie von großer Bedeutung, da eine globale Beobachtung der Erdoberfläche/Atmosphäre in hoher räumlicher Auflösung nur mit Hilfe von Fernerkundungssensoren möglich ist. Neben dem synoptischen Überblick über große Räume ermöglichen satellitengestützte Fernerkundungssensoren zudem eine wiederholte (zum Teil tägliche) Abdeckung ein und desselben Gebietes.

Die grob auflösenden, aber global aufgezeichneten Daten werden vorwiegend für wetter- und klimarelevante Untersuchungen verwendet (Wetterbeobachtung, Strahlungshaushalt der Erde, Meereisbedeckung, Oberflächentemperatur), die hochauflösenden Daten hingegen zur topographischen und thematischen Kartierung (Bildkarten, Landnutzung, Vegetation, mineralogische Prospektion) sowie als Planungsgrundlage.

Auf Grund der hohen Wiederholrate eignen sich die Daten aus dem Weltraum aber vor allem für die Dokumentation dynamischer Vorgänge, vor allem beim Umwelt-Monitoring (Desertifikation, Waldvernichtung, Klimazonenverschiebung).

Einschränkungen und Problemfelder

Im Hinblick auf die Anwendbarkeit von Fernerkundungsdaten bestehen auch einige Einschränkungen und Problemfelder:

Hinsichtlich der Nutzer sind zunächst die Wissenschaftler an Universitäten und Forschungszentren zu nennen, die sich mit der Erforschung und Weiterentwicklung der Auswertetechniken und der Erschließung neuer Anwendungen befassen. Sie verwenden bevorzugt die Rohdaten bzw. die systemkorrigierten Daten. Die zweite Gruppe setzt sich aus behördlichen und industriellen Nutzern zusammen, die für die jeweilige praktische Anwendung vorverarbeitete Daten benötigen, bei denen die Bilder z.B. radiometrisch kalibriert und auf eine Kartenprojektion entzerrt wurden.

Die automationsgestützte Auswertung von Fernerkundungsdaten hat Vorteile gegenüber manuellen Verfahren. So sind die Auswertungen nachvollziehbar und wiederholbar. Dadurch können sie jederzeit kontrolliert werden, da festgelegte Regeln benutzt werden. Die Erhebungsmethoden lassen sich auf andere Daten übertragen. So können sie auch für Bilddaten anderer Gebiete genutzt werden, wodurch räumlich vergleichbare Ergebnis entstehen. Ferner können die Methoden auch auf Daten desselben Gebietes angewendet werden, die zu anderen Zeitpunkte aufgenommen werden, und somit zeitlich vergleichbare Ergebnisse entstehen.

Ein aktueller Standard PC ist vollkommen ausreichend. Da die Bilddaten in Rasterform vorliegen ist mehr Speicher von Vorteil. Wesentlich ist aber eine Bildauswerte-Software, die es sowohl erlaubt, Bilder unterschiedlicher Formate in beliebiger Kanalkombination einzulesen, die aber auch Module zur radiometrischen Veränderung (z.B. Kontrastoptimierung), Filterung (Hoch-, Tiefpassfilter), Bildarithmetik (Subtraktion, Maskierung) und Klassifizierung (Clustering) enthält. Solche Programme werden als abgespeckte public domain-Software (MULTISPEC, ENVI-FREE), preiswerte oder kostenlose Software für den Bildungsbereich (Duttke, LeoWorks, IDRISI) sowie als professionelle Programm-Pakete (ERDAS, ARC-INFO) angeboten.
Siehe auch die Software-Liste

Weitere Informationen:

Fernerkundungssatellit

Engl. remote sensing satellite; Satellit zur Beobachtung der Erdoberfläche und der Atmosphäre mit Hilfe von an Bord befindlichen Sensoren.
Satellitenfernerkundung wird z.Z. im wesentlichen betrieben von den USA, Rußland, China, Indien, Frankreich, Kanada, Brasilien und im Rahmen der ESA von Europa. Deutschland hat Sensoren für die ERS-Satelliten und den ENVISAT der ESA (SCIAMACHY, MIPAS), für Space Shuttle-Missionen und für die MIR entwickelt sowie die Kleinsatelliten Champ und Grace.

2016 betrieben etwa 50 Länder Fernerkundungssatelliten, diese machen aber nur einen kleinen Teil der von den Kommunikationssatelliten dominierten raumgestützten Plattformen aus. Beim Büro der UN für Weltraumfragen (United Nations Office for Outer Space Affairs, UNOOSA), das eine Liste aller ins Weltall gelangenden Flugobjekte führt, sind zur Zeit mehr als 7.000 Flugobjekte von mehr als 70 Ländern und Organisationen registriert. Ausführliche Informationen zu Fernerkundungsmissionen sind im englischsprachigen eoPortal Directory der ESA zu finden.

Einzelsatellitensysteme verfügen über eine zunehmend bessere Abbildungsleistung, einschließlich einer verbesserten räumlichen und spektralen Auflösung und Sensorbeweglichkeit, so dass Stereomessungen im Along Track- und im Across Track-Modus durchgeführt werden können. Generell befinden sich Satellitensysteme gegenwärtig in einer Übergangsphase vom Einzelsensorsystem zum kooperativen Multisensorsystem. Teilweise werden Satelliten für bestimmte Sensoren in Tandemkonfigurationen betrieben.Konstellationen werden zunehmend so gewählt, dass sich die Anzahl von Umlaufbahnen erhöht, mit manchen Systemen kann somit jeder Punkt auf der Erde mehrmals täglich beobachtet werden.

Weitere Informationen:

Fernerkundungssensor

Engl. sensor, franz. capteur; nach DIN 18716 ein "abbildendes, aktives oder passives Instrument, welches als wesentliches Bauteil ein oder mehrere Detektoren umfasst".

Verschiedenste erdnahe Satelliten tragen eine Vielzahl von Sensoren an Bord, die u.a. Daten über die Erdoberfläche aufzeichnen. Ebenso werden mehr und mehr Sensoren an Bord der Bildflugzeuge miteinander kombiniert. Fernerkundungssensoren an Bord von Satelliten lassen sich nach ihrem Aufzeichnungsprinzip folgendermaßen unterteilen:

Weitere Informationen:

Fernerkundungssystem

Engl. remote sensing system, franz: système de télédétection; auf einer Plattform installiertes Sensorsystem der Fernerkundung, das der abbildenden oder nicht abbildenden Erfassung von objektrelevanter elektromagnetischer Strahlung dient. Eine große Zahl von FE-Systemen auf Satellitenplattformen dient der operationellen, d.h. in gleichen Zeitabständen wiederholbaren Aufnahme von Phänomenen der Erdoberfläche einschließlich der Ozeane sowie der Atmosphäre.

DIN 18716 definiert den Begriff als "Gesamtheit der Komponenten, die für die Aufnahme von Fernerkundungsdaten notwendig sind" und hat folgende Anmerkung: "Komponenten von Fernerkundungssystemen sind neben den Sensoren und Plattformen weitere Hilfseinrichtungen, z. B. Lage- und Positioniersysteme".

Schema Elektromagnetische Fernerkundung der Erdoberfläche Schema
'Elektromagnetische Fernerkundung
der Erdoberfläche' Quelle:
S. Crewell Uni Bonn (R.o.)
 

Fernerkundungssysteme können nach verschiedenen Gesichtspunkten eingeteilt werden. Nach der Quelle der empfangenen Strahlung unterscheidet man passive (Fernerkundungs)Systeme und aktive Systeme. Passive Systeme benutzen die von Natur aus vorhandene Strahlung wie das Sonnenlicht oder die Strahlung, die von Körpern an der Erdoberfläche selbst abgegeben wird. Aktive Systeme erzeugen ihre Strahlung selbst und messen dann die von der Erdoberfläche reflektierte Strahlung. Eine weitere Gliederung der Fernerkundungssysteme ergibt sich aus der Art der verwendeten Strahlungsempfänger. Die für die Erdbeobachtung wichtigsten Systeme sind: Photographische Systeme, Abtast (Scanner)-Systeme und Radarsysteme unterschieden. Diese Systeme nehmen digital oder analog Daten auf.

Fernerkundungssysteme erlauben es, spektrale Bereiche zu betrachten, die für das menschliche Auge unsichtbar sind. Unsichtbare Eigenschaften der Oberfläche werden durch sie sichtbar gemacht.

Fernerkundungsverfahren

Engl. remote sensing method, franz. méthode de télédétection; ein (Bild)aufzeichnungsverfahren mit elektromagnetischen Wellen unterschiedlichster Spektralbereiche, aber auch mit Hilfe von Schallwellen (SODAR) insbesondere aus Luft- und Raumfahrzeugen, daneben auch bodengestützt.
Bei abbildenden Verfahren sind es neben der Photographie im sichtbaren Bereich z.B. die Aufnahmesysteme in den Bereichen des nahen, mittleren und fernen Infrarot, der Radar- und Mikrowellen sowie des Ultravioletts.

fernes Infrarot (FIR)

Elektromagnetische Strahlung, die länger ist als das thermische Infrarot, mit Wellenlängen zwischen ca. 25 und 1.000 Mikrometern (Angaben uneinheitlich).

FERN.Lab

FERN.Lab ist die GFZ Innovations- und Technologieplattform für anwendungsnahe, transdisziplinäre Methoden Entwicklungen zur Analyse von Fernerkundungsdaten. Sie bündelt umfangreiche Kompetenzen entlang der gesamten Prozesskette der Datenverarbeitung in der Fernerkundung. Als Technologieplattform verbindet FERN.Lab wissenschaftliche Expertisen mit gesellschaftlichen, ökologischen und wirtschaftlichen Bedarfen unserer Zeit. Dabei werden Unternehmen, Start-Ups, Behörden und NGOs bei der Entwicklung von Methoden zur Analyse von Fernerkundungsdaten beraten und unterstützt.

Weitere Informationen:

Fernmeldesatelliten

Syn. Telekommunikationssatelliten; Satelliten, die für die allgemeine Telekommunikation bereitgestellt werden. Dazu zählen nationale und internationale

Diese Satelliten nutzen koordinierte Frequenzbänder, die auch anderen - terrestrischen - Funkdiensten zur Nutzung freigegeben worden sind. Fernmeldesatelliten bestehen aus einem raumfahrttechnischen und einem nachrichtentechnischen Subsystem.

Zum raumfahrttechnischen Subsystem zählen im Wesentlichen

Zum nachrichtentechnischen Teil gehören

Die nutzbaren Frequenzbereiche des Satellitenfunks werden von der Weltfunkkonferenz (World Radiocommunication Conference, WRC) der ITU festgelegt. Für Satellitenfunkanwendungen, die als Bestandteil terrestrischer Netze anzusehen sind, sind dies vornehmlich die Bereiche

Die Satellitenbahn (Orbit) hat wesentlichen Einfluss auf die Anwendungsbereiche und -gebiete des für die Kommunikation genutzten Satelliten. Satellitenbahnen unterscheiden sich nach ihrer Lage, ihrer Form und der Höhe des Satelliten. Bis heute werden Fernmeldesatelliten vorzugsweise in eine kreisförmige Äquatorialbahn gebracht, deren Bahnhöhe 35.780 km beträgt. Satelliten auf dieser Umlaufbahn (Orbit) umkreisen die Erde in 24 Stunden, sodass sie keine Relativbewegung zur Erde haben. Sie werden deshalb auch als geostationäre Satelliten bezeichnet. Daneben plant man, bei zukünftigen kommerziellen Systemen die Satelliten auf einem niedrigeren Orbit die Erde umkreisen zu lassen. Dabei gilt, dass die Satelliten umso schneller die Erde umkreisen müssen, je niedriger die Bahnhöhe der Satelliten ist, da nur durch eine höhere Fliehkraft die dann größere Erdanziehung ausgeglichen wird. Im Gegensatz zu den geostationären Satelliten führen diese Satelliten (nichtgeostationäre Satelliten) eine Relativbewegung zur Erde aus. Sie bewegen sich im sog. "Non Geostationary Satellite Orbit (NGSO)".

Feuermonitoring

Überwachen von Bränden, vorwiegend von Vegetationsbränden (Wald- und Flurbränden, Buschfeuern) sowie von Kohlefeuern (z.B. China) besonders mit Hilfe von Verfahren der Fernerkundung. Unter Einbeziehung von z.B. Vulkaneruptionen in die Gruppe solcher Ereignisse spricht man auch von Hochtemperaturereignissen (HTE). Mit dem Kleinsatelliten BIRD betreibt das DLR seit 2001 ein weltweit einzigartiges System als Technologie-Demonstrator zur Erkennung, Georeferenzierung und geophysikalischen Charakterisierung von HTE bezüglich Ausdehnung, Temperatur, Energie. Mit gleicher wissenschaftlicher Instrumentierung erprobte das DLR auch ein flugzeuggetragenes System (Advanced BIRD Airborne Simulator, ABAS) erfolgreich zur Beobachtung von Waldbränden.

Natürlich auftretende Vegetationsbrände sind ein wesentlicher Prozess, der terrestrische Systeme mit der Atmosphäre und dem Klima verbindet, und sie sind ein wesentlicher Bestandteil der ökologischen Sukzession, der Pflanzenkeimung und der Bodenverbesserung. Neben diesen positiven Aspekten emittieren sie auch große Mengen an Kohlenstoff in die Atmosphäre, zusammen mit Aerosolen und anderen Partikeln, die die Gesundheit beeinträchtigen, die Sicht einschränken und zum globalen Klimawandel beitragen können.

Animation of global fire activity from 01/01/2021 to 31/12/2021 showing daily fire radiative power in watts per square metre.

Feuermonitoring

Animation der globalen Feueraktivität vom 01.01.2021 bis 31.12.2021, die die tägliche Strahlungsleistung der Brände in Watt pro Quadratmeter zeigt.

Quelle: Copernicus

ZKI Fire Monitoring System

Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) bietet seit 2022 einen neuen Service an, mit dem die Entwicklungen von Brandereignissen tagesaktuell und im zeitlichen Verlauf beobachtet werden können. Die Satellitendaten werden automatisch ausgewertet und in eine Karte übertragen. Das ZKI Fire Monitoring System steht ab sofort zur Verfügung und ist kostenfrei nutzbar.

Die Daten stammen von den beiden Sentinel-3 Satelliten, die mit unterschiedlichen Instrumenten zur Beobachtung der Land- und Ozeanoberflächen ausgestattet sind. Das Satelliten-Duo gehört zum europäischen Copernicus-Programm. Über ihre optischen Systeme erfassen die Sentinel-3 Satelliten die Erdoberfläche mit einer Bodenauflösung von etwa 300 Metern. Die Sentinel-3 Satelliten überqueren auf ihren polaren Umlaufbahnen in etwa 800 Kilometern Höhe Europa jeden Tag. Auch mit den amerikanischen Satelliten Aqua und Terra (Flughöhe rund 700 Kilometer) können Waldbrände mehrmals am Tag beobachtet werden. Sie senden täglich ihre Daten, sobald sie die DLR-Empfangsstationen in Neustrelitz (Mecklenburg-Vorpommern) oder Oberpfaffenhofen (Bayern) überfliegen. Die Ergebnisse sind schon etwa 20 Minuten nach dem Satellitenüberflug verfügbar.

Um die Qualität der Aussagen zu verbessern, werden die Daten über mehrere Tage hinweg kontinuierlich verfeinert. Das heißt, die Daten werden nachträglich noch einmal abgeglichen, neu berechnet und überprüft. Das läuft ebenfalls automatisch. Die Nachprozessierung ist wichtig, weil Satelliten mit optischen Instrumenten – anders als etwa Radarsatelliten – nicht durch eine Wolkendecke schauen können.

Die DLR-Wissenschaftlerinnen und Wissenschaftler haben alle Brände in Europa seit 2016 analysiert. Die Karten zeigen, dass viele Brände – vor allem in Süd- und Osteuropa – nicht im Wald, sondern auf landwirtschaftlich genutzten Flächen vorkommen. Im vergangenen Jahr wurden zum Beispiel Brände mit einer Größenordnung von 3,7 Millionen Hektar erkannt. Davon handelte es sich bei rund 1 Million Hektar um Waldbrände. 2017 war das Jahr mit den stärksten Bränden im Beobachtungszeitraum: 5,2 Millionen Hektar standen in Flammen, davon entfielen 1,3 Millionen Hektar auf Wälder.

Brandflächen in Portugal vom 6. bis 16. August 2022

Brandflächen in Portugal vom 6. bis 16. August 2022

Die Übersicht zeigt die Entwicklung eines Waldbrandes in Portugal nördlich von Covilha vom 6. bis 16. August 2022. Die orangefarbenen und roten Bereiche signalisieren, dass der Brand hier gerade besonders intensiv ist.

Quelle: DLR

Vegetationsbrände in den USA

Nach Angaben des US-Landwirtschaftsministeriums haben Anzahl, Schwere und Gesamtgröße von Vegetationsbränden (wildfires) zugenommen, was auf Faktoren wie anhaltende Trockenheit, die Anhäufung von Brennstoffen, frühere Brandbekämpfungsstrategien, invasive Arten, die auf bestimmte Baumarten abzielen, und die Ausbreitung von Wohngebieten in ehemals natürliche Gebiete zurückzuführen ist. Laut dem Jahresbericht 2021 des National Interagency Coordination Center (NICC), das die Mobilisierung von Ressourcen für Waldbrände und andere Vorfälle in den USA koordiniert, wurden im Jahr 2021 in den gesamten USA 58.985 Vegetationsbrände gemeldet, die eine Fläche von 7.125.643 Hektar verbrannten. Der NICC-Bericht stellt fest, dass im Jahr 2021 fast 6.000 Gebäude durch Vegetationsbrände zerstört wurden, darunter 3.577 Wohnhäuser, 2.225 kleinere Gebäude und 237 gewerbliche oder gemischte Wohngebäude.

Daten, die von Sensoren an Bord von Satelliten in der Umlaufbahn, an Bord von Flugzeugen oder am Boden gesammelt werden, liefern eine Fülle von Daten, mit denen sich die Bedingungen vor einem Brand beurteilen, die Bewegung eines Waldbrandes nahezu in Echtzeit verfolgen und die Umweltauswirkungen eines historischen Brandes bewerten lassen. Die NASA stellt zahlreiche Datensätze, Werkzeuge und andere Ressourcen zur Verfügung, die für die Untersuchung, Verfolgung und Bewertung von Waldbränden genutzt werden können und die im Rahmen der NASA-Richtlinie für offene Daten uneingeschränkt zur Verfügung stehen.

Die NASA bietet auch Einblicke in Brände und thermische Anomalien, die täglich auf der ganzen Welt auftreten. Die in Worldview verfügbaren satellitengestützten Branddaten und -bilder stammen vom MODIS-Instrument an Bord der Satelliten Terra und Aqua sowie vom VIIRS-Instrument an Bord der gemeinsamen NASA/NOAA-Satelliten Suomi NPP und NOAA-20. Terra überfliegt den Äquator um ca. 10:30 Uhr (Tag) und 10:30 Uhr (Nacht) Ortszeit, NOAA-20 überfliegt den Äquator um ca. 12:40 Uhr (Tag) und 12:40 Uhr (Nacht) Ortszeit, und Aqua und Suomi NPP überfliegen den Äquator um ca. 1:30 Uhr (Tag) und 1:30 Uhr (Nacht) Ortszeit. Die Feuerinformationen sind in Worldview etwa 3 Stunden nach dem Überflug des Satelliten verfügbar.

Die von den Satelliten gesammelten Daten nutzen einen Algorithmus, der die starke Emission von Strahlung im mittleren Infrarot von Bränden und thermischen Anomalien ausnutzt - diese Brände und thermischen Anomalien werden hier als orange (MODIS) oder rote (VIIRS) Punkte dargestellt. Die Punkte stellen das Zentrum eines Pixels dar, in dem ein oder mehrere Brände aufgetreten sind. Für das MODIS-Instrument stellt der Punkt das Zentrum eines 1km-Pixels dar, für das VIIRS-Instrument das Zentrum eines 375m-Pixels.

Brände im südlichen Oregon (Juli 2021)

Brände im südlichen Oregon (Juli 2021)

Die in Worldview verfügbaren satellitengestützten Branddaten und -bilder stammen vom MODIS-Instrument an Bord der Satelliten Terra und Aqua sowie vom VIIRS-Instrument an Bord der gemeinsamen NASA/NOAA-Satelliten Suomi NPP und NOAA-20.

Quelle: NASA WorldView

Weitere Informationen:

Filter

Engl. (optical) filter, franz. filtre; Material, das die durch ein optisches System übertragene Strahlung in selektiver Weise verändert. DIN 18716 definiert: ein "optisches Bauelement mit einer charakteristischen spektralen Transmission" und ergänzt: "In der Bildverarbeitung werden bestimmte Verfahren ebenfalls als Filter bezeichnet".

Der Einsatz von Filtern dient in der Fernerkundung unterschiedlichsten Zwecken. Beispielsweise dienen räumliche Filteroperationen der Bildaufbereitung, um bestimmte räumlich-strukturelle Eigenschaften des Bildinhaltes hervorzuheben oder zu unterdrücken. Bei diesen Filtertechniken handelt es sich um lokale Operationen, die die Eigenschaften der Umgebung eines Pixels bzw. die sog. Ortsfrequenz für dessen Manipulation nutzen. Dabei bezeichnet die Ortsfrequenz die Variation der Grauwerte in einer Pixelumgebung. Niedrige Ortsfrequenzen liegen bei geringen kleinräumigen Grauwertänderungen vor (relativ homogene Flächen), während hohe Ortsfrequenzen bei starken lokalen Grauwertvariationen als Ausdruck ausgeprägter Oberflächenunterschiede (Inhomogenitäten) auftreten. Für die Filteroperationen existieren zahlreiche unterschiedliche Algorithmen, die sich für verschiedene Verarbeitungsziele eignen. Grundsätzlich können Tiefpassfilter und Hochpassfilter unterschieden werden.

FIR

Engl. Akronym für Far Infra-Red, dt. fernes Infrarot, Bezeichnung für den Wellenlängenbereich des elektromagnetischen Spektrums von ~15,0 µm - ~0,1 cm.

FIRE

Engl. Akronym für Fire in Global Resources and Environmental Monitoring; Projekt zur satellitengestützten Datenerfassung über die Entwicklung der tropischen Regenwälder. Die in ein GIS integrierten Daten leisten einen nützlichen Beitrag zum Verständnis der komplexen Interaktionen zwischen Wald, Abholzung und Bevölkerung.

FireBIRD

Die FireBird Mission ist eine Satellitenkonstellations-Mission. Das Hauptmissionsziel ist die Beobachtung von Hoch-Temperatur-Ereignissen auf der Erde (z. B. Waldbrände) mittels hochauflösender Infrarotsensoren.

Das Raumsegment besteht aus den beiden Satelliten TET (Technologie-Erprobungsträger) und BIROS (Bispectral InfraRed Optical System). Der Satellit TET ist seit Juli 2012 in einer polaren Umlaufbahn und hat den ersten Teil seiner Mission als Technologie-Erprobungsträger erfolgreich abgeschlossen. Der Satellit BIROS hat den gleichen Bus wie TET, ist allerdings zusätzlich mit einem Antriebssystem für aktive Lage- und Bahnregelung ausgestattet. BIROS startete im Juni 2016. Hauptnutzlast beider Satelliten ist ein multispektrales Kamerasystem.

Ihr neuartiges Infrarot-Sensorsystem liefert Daten in einer hohen Qualität, die Ausbreitung und Hitzeentwicklung sehr genau messen lassen - und dies bereits sehr früh und nahezu in Echtzeit, sodass FireBIRD als Frühwarnsystem dient. Außerdem bilden die Fernerkundungsdaten die Basis für die wissenschaftliche Klimaforschung.

Der BIROS Satellit dient zudem als Validierungsplattform für weitere innovative Technologie-Experimente. Dazu gehören eine autonome Anflugnavigation, neuartige Reaktionsräder für größere Agilität eines Satelliten, ein optischer Space-to-Ground Link für hohe Datenraten, eine autonome An-Bord Missionsplanung sowie eine An-Bord Bildanalysesoftware.

Das Deutsche Raumfahrtkontrollzentrum (GSOC) führt die Mission in allen Missionsphasen durch. Das GSOC ist verantwortlich für die Überwachung und Kontrolle der Raumfahrzeuge, für die Missionsplanung, für die Bestimmung und Kontrolle von Lage und Orbit sowie für die Identifizierung und Behandlung von Anomalien. Außerdem stellt es Telemetriedaten für externe Nutzer bereit und ist zuständig für Trainings und Simulationen für das Flight Operations Team.

Weitere Informationen:

FIS - Fernerkundung in Schulen

Projekt der Arbeitsgruppe Fernerkundung des Geographischen Instituts der Universität Bonn mit dem Ziel, der nachhaltigen und fächerübergreifenden Integration des Themas Fernerkundung im Schulunterricht der Sekundarstufe I & II. Seit dem Start im Jahr 2006 wird das Projekt durch das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und durch das Bundesministerium für Wirtschaft und Technologie (BMWi) gefördert. Inzwischen ist das Projekt „Fernerkundung in Schulen“ (FIS) ist in der Arbeitsgruppe Geomatik des Geographischen Institutes der Ruhr-Universität Bochum angesiedelt und wird in Kooperation mit der AG Fernerkundung des Geographischen Institutes der Universität Bonn durchgeführt.

Der Schwerpunkt des Projektes liegt in der Entwicklung und Implementierung digitaler und interaktiver Lernmodule, die auf den Prinzipien des moderaten Konstruktivismus und des entdeckenden Lernens basieren. Den Kern der Unterrichtsmaterialien bilden interaktive Analysetools der digitalen Bildanalyse. Mit Hilfe dieser Tools können die Schülerinnen und Schüler lehrplanspezifischen Problem- und Fragestellungen bearbeiten und werden so in die Methoden und die Arbeitsweisen der Fernerkundung eingeführt.

fis_konzept

Struktur der FIS-Lernmodule

Um die Struktur und die Nutzung der FIS-Lernmodule so einfach wie möglich zu halten, stehen in den Lernmodulen jeweils nur die benötigten Funktionen der Bildverarbeitung zur Verfügung. Für eine unkomplizierte Handhabung sind diese Funktionen inhaltlich und technisch neu gestaltet. Aus dem Zusammenspiel von Arbeitsanweisungen, anschaulich aufbereiteten Hintergrundinformationen und Werkzeugen zur digitalen Bildanalyse entsteht ein Lernkomplex, der die Medien- und Methodenkompetenz sowie das eigenständige Arbeiten der Schülerinnen und Schüler nachhaltig fördert.

Quelle: A. Rienow (GIUB)

Die technischen und physikalischen Grundlagen der Fernerkundung werden in den Fächern Mathematik, Physik und Informatik thematisiert, wohingegen die Verarbeitung und Analyse von Fernerkundungsdaten Gegenstand der anwendungsnahen Fächer Geographie und Biologie sind.

fis_ueberschwemmung

Beispielbildschirm

Ein Beispiel für ein digitales FIS-Lernmodul ist die Unterrichtseinheit „Hochwasser“. Sie gehört in das Themenfeld "Gefährdung von Lebensräumen" und hat zum Ziel, die Lernenden in Bezug auf Raumwahrnehmung und -bewertung zu schulen. Durch das Arbeiten mit verschiedenen Satellitendaten lernen die Schülerinnen und Schüler Naturgefahren und deren Auswirkungen einzuordnen.

Quelle: A. Rienow (GIUB)

Die interaktiven Lernmodule sind in das Online-Portal des Projektes eingebettet, in welchem Lehrer die Möglichkeit haben, eigene Klassen anzulegen und zu verwalten. So können sie die individuellen Lernfortschritte ihrer Schülerinnen und Schüler auswerten. Diese wiederum können die Module jederzeit online ausführen und ihre Zwischenergebnisse speichern. Zusätzlich zu den Modulen gibt es Recherche- und Analysetools. Hier befinden sich eine Info-Box zur Fernerkundung für Einsteiger und Profis, eine Bildergalerie mit faszinierenden Satellitenbildern sowie Werkzeuge zur eigenständigen Klassifikation von Satellitenbildern oder zur Wettervorhersage. Die Module sind zweisprachig angelegt (dt. / engl.).

Weitere Informationen:

Fläche

Engl. area; eine geschlossene geometrische Figur in zwei Dimensionen, die von einem oder mehreren Liniensegmenten begrenzt wird, die eine homogene Fläche einschließt und die üblicherweise zweidimensional dargestellt wird. Sie wird i.d.R. geometrisch durch eine Folge von Koordinatenpaaren beschrieben. Flächen können auch Inseln (Aussparungsflächen) beinhalten, die durch ein Innenpolygon und ein Außenpolygon bei Vektordaten beschrieben werden.
Bei Rasterdaten ist bereits das Grundelement, das Pixel, eine Fläche, da es eine bestimmte Ausdehnung besitzt. Beispiele für flächenhafte Phänomene in GIS sind Staaten, Seen oder Parzellen.

FLEX

siehe Fluorescence Explorer

Flexible Combined Imager (FCI)

Dieses neue Instrument, das auf den MTG-Imager-Satelliten (Meteosat Dritte Generation) eingesetzt wird, ist der natürliche Nachfolger des Spinning Enhanced Visible and Infrared Imager (SEVRI), der auf den aktuellen Meteosat-Satelliten der zweiten Generation eingesetzt wird. Während SEVIRI über 12 Spektralkanäle verfügt, hat der Flexible Combined Imager (FCI) von MTG 16 Kanäle. Er arbeitet bei Wellenlängen zwischen 0,3 und 13,3 Mikrometern und hat eine räumliche Auflösung von 1 bis 2 km, wobei er alle 10 Minuten ein vollständiges Bild der Erde liefert.

Der FCI misst mit seinen 16 Kanälen im sichtbaren und infraroten Spektrum, von denen acht im solaren Spektralbereich zwischen 0,4 µm und 2,2 µm liegen und Daten mit einem räumlichen Abtastabstand (Auflösung) von 1 km am Nadir (Sub-Satellitenpunkt im Zentrum der Erdscheibe) liefern. Die zusätzlichen acht Kanäle liegen im thermischen Spektralbereich zwischen 3,8 µm und 13,3 µm und liefern Daten mit einem räumlichen Abtastabstand von 2km im Nadir. Dieser Beobachtungsmodus wird als FDHSI-Mission (Full Disc High Spectral Resolution Imagery) bezeichnet.

Darüber hinaus kann es in einem Modus für schnelle Bilder mit hoher räumlicher Auflösung betrieben werden, der kleinere Bereiche der Erdscheibe mit vier Spektralkanälen "heranzoomen" kann, jedoch mit einer höheren räumlichen Auflösung (bis zu 0,5 km) und alle 2,5 Minuten Datenbilder von ausgewählten Regionen liefert. Dieser Beobachtungsmodus wird als HRFI-Mission (High Spatial Resolution Fast Imagery) bezeichnet.

FCI wird verbesserte meteorologische Informationen über die schnellen Abläufe der atmosphärischen Wasserzyklen liefern, die in die aktuellen Wetterberichte sowie in Prognosen von Wetterkatastrophen und Frühwarnsysteme einfließen werden. Neben dem IR3.8 Kanal liefert FCI auch eine Fire Application für das Aufspüren und Beobachten von Waldbränden.

Insgesamt wird das FCI eine erhebliche Verbesserung der Erkennungsmöglichkeiten (in Bezug auf radiometrische, spektrale und räumliche Auflösung) bieten, was zu verbesserten Prognosen und einer früheren Vorhersage von Unwetterereignissen führt. Die zusätzlichen Kanäle des FCI werden eine bessere Erkennung von dünnen Zirruswolken, Aerosolen und lokalen Bränden ermöglichen und so die Produkte zur Luftqualität und zur Erkennung von Vulkanasche verbessern.

Flughöhe

Engl. flying height, altitude, franz. altitude de vol; die Höhe, aus der Luft- und Satellitenbilder aufgenommen werden. Flughöhe über Normalnull (NN) bezeichnet dabei die absolute Höhe über der Niveaufläche NN. Bei der Aufnahme vom Flugzeug aus wird sie in der Regel auf eine mittlere Geländehöhe bezogen und als Flughöhe über Grund angegeben. Bei der Aufnahme vom Satelliten aus wird die ungefähre Bahnhöhe über dem Meeresspiegel angegeben.

DIN 18716 formuliert: "vertikaler Abstand des Sensors bzw. der Plattform von einer Bezugshöhe im Gelände", dabei wird angemerkt: "Bei der Aufnahme vom Flugzeug aus wird sie in der Regel auf eine mittlere Geländehöhe bezogen und als Flughöhe über Grund angegeben. Bei der Aufnahme vom Satelliten aus wird die ungefähre Bahnhöhe über dem Meeresspiegel angegeben".

Flugweg über Grund

Engl. flight line oder ground track, franz. trajet de survol; theoretische Spur auf der Erdoberfläche, die ein unmittelbar darüber vorbeiziehender Satellit oder ein Flugzeug hinterlässt.

Flugzeug

Ein Luftfahrzeug der Gruppe „schwerer als Luft“, das den zum Fliegen erforderlichen Auftrieb aus seitlich ein einem Rumpf angebrachten Tragflächen bezieht.
Um ein Flugzeug im Rahmen der Fernerkundung einsetzen zu können, müssen verschließbare Bodenöffnungen eingebaut werden, in die die verschiedenen Kamera- und Sensortypen, wie z.B. Multispektralkamera und -abtaster, Infrarotabtaster, Radar- und Lasersysteme, eingebaut werden können. Die Flughöhen variieren bei der Beobachtung der Erdoberfläche je nach gewünschtem Maßstab, Auflösungsvermögen und verwendeten Aufnahmegeräten zwischen knapp 1000 m und 15.000 m. Bei der Atmosphärenerkundung ist sie von der Höhenlage der zu beobachtenden Luftschicht abhängig.

Flugzeuggestützte Systeme dienen auch der Erprobung neuer Technologien, die bei zukünftigen Satellitenmissionen erst noch zum Einsatz kommen sollen. Ebenfalls bei der Validierung von Satellitenmissionen (zum Beispiel CALIPSO) kommen Flugzeuge zum Einsatz. Dabei lässt sich eine Verbindung zwischen den sehr detaillierten, aber zeitlich begrenzten flugzeuggetragenen Messungen mit den räumlich hochaufgelösten, aber geringeren Detailinformationen aus der Satellitenbeobachtung herstellen.

Während zu Beginn der flugzeuggestützten Fernerkundung photogrammetrische Kameras Luftbilder im Bereich des sichtbaren und infraroten Spektrums lieferten, sind es seit etwa zwanzig Jahren vorwiegend multispektrale und hyperspektrale Systeme. Diese Geräte erfassen vom Flugzeug aus den Anteil der Sonnenstrahlung im sichtbaren Teil des Spektrums, den die Erdoberfläche reflektiert. Im infraroten Spektralbereich beobachten sie die ausgesandte Wärmestrahlung. Anders als bei der klassischen Luftbildkamera, die eine Szene in drei breitbandigen Kanälen (rot, grün, blau) aufnimmt, arbeiten die Hyperspektralsensoren in vielen, zum Teil mehreren hundert schmalen Spektralkanälen.

Bei der Auswertung der Hyperspektralbilder ermöglicht das Reflexions- beziehungsweise Emissionsverhalten der verschiedenen Oberflächen (zum Beispiel Vegetation, Böden, Gewässer, Straßen und Gebäude) die Identifikation von Objekten, die Zustandsbeschreibung der Oberflächen und deren Klassifizierung. Darüber hinaus lassen sich etwa Minerale im Gestein identifizieren oder Algenwuchs in Flachgewässern überwachen. Selbst ob Pflanzen unter Dünger- und Wassermangel leiden, lässt sich so aus der Luft feststellen.

Für den Einsatz von Flugzeugen als Träger für Fernerkundungssystemen ergeben sich folgende Vor- und Nachteile:

Vorteile Nachteile
  • hohe räumliche Auflösung
  • Möglichkeit zur Optimierung für eine bestimmte Aufgabe bei jedem Flug
  • Austausch von Instrumenten zwischen verschiedenen Flügen oder sogar während eines Fluges möglich
  • Mitflug von Personal erlaubt Überwachung der Geräte und Behebung von Fehlern
  • individuelle Festlegung der Flugroute und Flugzeit
  • Auswahl des Beobachtungswinkels und der Sonnenposition
  • Festlegung der Flüge in Abhängigkeit von den Wetterbedingungen
  • Variation der Flughöhe
  • schnelle Reaktion und operativer Einsatz bei unvorhersehbaren Situationen möglich
  • Anforderungen hinsichtlich der Zulassung von Geräten für Flugzeuge leichter erfüllbar als solche für Weltraumbedingungen
  • Geräte in Kabinen mit Druckausgleich betreibbar
  • nationale Lufthoheit, Korridore, Vorschriften bezüglich der Höhe
  • begrenzte Messzeit und begrenzter Aktionsradius
  • sehr teuer bei häufigem Einsatz

Flugzeugscanner

Engl. airborne scanner, franz. scanneur aéroporté; nach DIN 18716 "für den Einsatz auf Flugzeugplattformen konzipierter Scanner".

Fluorescence Explorer (FLEX)

Geplante Satelliten-Mission innerhalb des Earth Explorer-Programms der ESA zur Erforschung des Gesundheitszustands der globalen Vegetation mit vorgesehenem Start im Jahr 2024. Dafür soll das schwache Fluoreszenzsignal, das Pflanzen bei der Umwandlung von Sonnenlicht und Kohlendioxid erzeugen, erfasst werden. Dies ist abhängig von Umweltfaktoren und dem Gesundheitszustand der Pflanzen. Vor dem Hintergrund der global steigenden Nachfrage an Nahrungs- und Futtermitteln, ist das Erlangen von Informationen über den Gesundheitszustand der Vegetation unseres Planeten besonders wichtig.

FLEX soll darüber hinaus unser Verständnis darüber verbessern, wie Kohlenstoff zwischen Pflanzen und der Atmosphäre ausgetauscht wird und wie Photosynthese die Kohlenstoff- und Wasserkreisläufe beeinflusst. Die Umwandlung von atmosphärischem Kohlendioxid und Sonnenlicht in energiereiche Kohlenhydrate durch Photosynthese ist einer der grundlegenden Prozesse der Erde – ein Prozess, von dem wir alle abhängig sind.

Fluorescence Explorer (FLEX)

Die FLEX-Mission ist der achte Earth Explorer-Mission der ESA. Sie wird globale Karten der Fluoreszenz der Vegetation liefern, die in einen Indikator für die photosynthetische Aktivität umgewandelt werden können. Diese neuen Informationen werden unser Verständnis darüber verbessern, wie viel Kohlenstoff in Pflanzen gespeichert ist und welche Rolle sie im Kohlenstoff- und Wasserkreislauf spielen.

Bei der Blatt-Photosynthese wird die im biochemischen Prozess nicht benötigte Energie in Form von Licht mit einer Wellenlänge zwischen 640 und 800 nm freigesetzt. Nach mehr als 70 Jahren Grundlagen- und angewandter Forschung im Bereich der Chlorophyll-Fluoreszenz steht nun fest, dass die Fluoreszenz ein aussagekräftiger Indikator für die Photosynthese sowohl in gesunden als auch in physiologisch gestörten Pflanzen ist, der zur Überwachung von Acker- und Waldflächen verwendet werden kann.

Quelle: ESA

Derzeit kann Photosynthese noch nicht aus dem All gemessen werden – FLEX’ neuartiger Sensor wird jedoch in der Lage sein, dieses schwache Glimmen zu erfassen. Der FLEX-Satellit wird im Tandem mit einem der Sentinel-3 Satelliten des Copernicus-Programms die Erde umkreisen um mit den optischen und thermischen Sentinel-Sensoren ein umfassendes Paket an Messdaten zur Verfügung stellen zu können. FLEX wird neue Informationen über die effektive Produktivität von Vegetation liefern, die genutzt werden können, um das Agrarmanagement und die Entwicklung einer nachhaltigen Bio-Ökonomie zu unterstützen.

Weitere Informationen:

Footprint

Engl. für 'Fußabdruck'; a) Bereich auf der Erdoberfläche, in dem Signale eines Satelliten (z.B. zur Telekommunikation) empfangen werden können, somit der Ausleuchtbereich eines Satelliten, b) in der Erdbeobachtung das geographische Gebiet, das von der Instrumentenbeobachtung und den daraus abgeleiteten Produkten erfasst wird.

FormoSat-1

Bis Dezember 2004 ROCSAT-1 genannter Erdbeobachtungssatellit zur Beobachtung der Ozeane und Erforschung der Ionosphäre. Er wird von der taiwanesischen Weltraumorganisation National Space Organization betrieben und ist der erste Satellit der Republik China (Taiwan). Der Start erfolgte am 16. Januar 1999 mit einer Athena-I-Rakete von der Cape Canaveral Air Force Station in Florida. Er wurde 2004 außer Betrieb genommen.

FormoSat-2

FormoSat 2 ist der zweite - inzwischen inaktive - hoch auflösende optische Erdbeobachtungssatellit für die taiwanesische Raumfahrtagentur (NSPO). Er konnte in täglichem Rhythmus jeden Punkt der Erde mit den gleichen Aufnahmeparametern neu erfassen. Sein einzigartiger Orbit und die 2-Meter Auflösung machten diese Mission besonders geeignet für die regionale Fernerkundung und Datenerhebung für die Auswertung von Naturkatastrophen, Anwendungen in der Landnutzung, Stadtplanung, Umweltüberwachung und im Meeresschutz. Die Nutzlast beinhaltete zusätzlich ein Instrument zur Nordlichtbeobachtung.

formosat-2_south_korea_coverage

formosat-2-natural-color-chucicamata_lres

FORMOSAT-2

Links: Das Mosaik von Südkorea z.B. umfasst eine Fläche von über 100.000 km². 270 Szenen wurden verarbeitet, um eine einheitliche natürliche Farbe zu erhalten.

Rechts: Größte Kupfermine der Welt in Chuquicamata, Chile

Quellen: Airbus D&S / Satellite Imaging Corp.

FormoSat 2, ursprünglich Rocsat-2 genannt, wurde am 20. Mai 2004 gestartet und im Dezember des gleichen Jahres umbenannt. Als Lebensdauer waren fünf Jahre geplant, der Satellit arbeitete aber über 12 Jahre ohne Probleme. Ende Juni 2016 trat ein irreparabler Defekt auf, so dass die NSPO den Satelliten am 19. August 2016 außer Betrieb nahm.

Die Bilder haben eine Schwadbreite von 24 × 24 km und eine geometrische Auflösung von 2 m (panchromatisch) bzw. 8 m (Vierkanal-Multispektral). Sie wurden für zahlreiche Anwendungen wie Agrarwissenschaft, Landschaftsschutz, Katastrophenschutz und ähnliches genutzt werden. Die Sensoren der mit einem 60-cm-Spiegel ausgerüsteten Kamera des Remote Sensing Instrument (RSI) arbeiteten im Spektralbereich von 0,45-0,90 μm (panchromatische Kamera) beziehungsweise 0,45-0,52 μm (blau), 0,52-0,60 μm (grün), 0,63-0,69 μm (rot) und 0,76-0,90 μm (nahes Infrarot). Daneben ist noch das Instrument Imager of Sprites and Upper Atmospheric Lightning (ISUAL) zur Beobachtung von Blitzen in der oberen Atmosphäre (40-100 km) an Bord.

Dank der Streifenbreite von 24 km und der aufgrund seiner geosynchronen Umlaufbahn täglichen Abdeckung konnte FORMOSAT-2 großflächige Gebiete in nur wenigen Wochen erfassen. Da die Umlaufbahn zudem sonnensynchron war, wurde jeder Punkt stets unter denselben Lichtbedingungen aufgenommen (09:30 Äquator-Überflugszeit). Der Satellit umrundete die Erde jeden Tag genau 14-mal.

Als Hauptauftragnehmer für das Space Segment des Erdbeobachtungsprogramms FORMOSAT 2 lieferte Astrium die Plattform (die erste Anwendung des Leostar Busses) und das erste Fernerkundungsinstrument (RSI) aus 100 Prozent Siliziumkarbid. FORMOSAT 2 war der erste Exportvertrag von Astrium auf dem kommerziellen Markt der Erdbeobachtungssatelliten.

Weitere Informationen:

FORMOSAT-3 (COSMIC)

FORMOSAT-3 oder COSMIC (Constellation Observing System for Meteorology, Ionosphere, and Climate) ist eine Mehrsatellitenmission der USA und der Republik China von Taiwan. Die Mission besteht aus sechs Kleinsatelliten (FORMOSAT 3A - FORMOSAT 3F), die am 15. April 2006 gemeinsam mit einer Minotaur-Trägerrakete von Vandenberg gestartet wurden. Die im April 2018 noch aktiven Satelliten bewegen sich auf einem 500-800 km hohen Orbit mit einer Bahnneigung von 72°.

Die Mission kostete insgesamt 100 Millionen Dollar. Davon werden ca. 80% aus Taiwan finanziert. Hinzu kommt der amerikanische Anteil, zu dem verschiedene Institutionen beitragen, darunter die NASA, die US Air Force und die Navy. Die Daten werden jedoch Forschern auf der ganzen Welt zur Verfügung gestellt.

cosmicsatellites-sm

FORMOSAT-3

Sechs Mikrosatelliten treten in eine niedrige Erdumlaufbahn ein, um die COSMIC-Konstellation zu bilden. Als erste Satellitenkonstellation, die Radiookkultation einsetzt, erwartet man von COSMIC eine wesentliche Verbesserung bei der Qualität und der Quantität von Daten, die für globale Wettervorhersagen, sowie das Monitoring von Klima und Weltraumwetter nötig sind.

Quellen: UCAR
radio_occult_lres

Radiookkultation. Wenn Funksignale von GPS-Satelliten die Atmosphäre durchlaufen, werden die Laufwege der Signale gebogen und ihre Geschwindigkeit wird verlangsamt. Das Ausmaß dieser Änderungen hängt von der Dichte der Atmosphäre entlang des Laufwegs ab. Die niedrig fliegenden (LEO) Satelliten von COSMIC nutzen diesen Effekt, indem sie die GPS-Funksignale direkt über dem Horizont der Erde auffangen und präzise die Krümmung und die Signalverzögerung entlang des Laufwegs messen.

FORMOSAT-3/COSMIC-Daten sind nicht nur von grossem Wert für Wetter-, Klima- und Weltraumwetterforschung und -vorhersage, sondern für Geodäsie und Schwerfelduntersuchungen und andere Anwendungen. Die hohe vertikale und geringe horizontale Auflösung der  FORMOSAT-3/COSMIC-Messungen ist komplementär zu denen anderer meteorologischer Satelliten. Die FORMOSAT-3/COSMIC-Daten setzen auch die Messungen einer Reihe anderer Satelliten fort, u.a. CHAMP, SAC-C, und GRACE.

Zur Erforschung der Erdatmosphäre empfangen sie Signale von GPS-Satelliten, während so genannter Satellitenuntergänge (Okkultationen). Aus der Veränderung der Signale dabei können vertikale Profile der Temperatur und der Feuchte abgeleitet werden. Die Daten von COSMIC/FORMOSAT-3 werden für die Forschung im Bereich der Meteorologie, aber auch zur Verbesserung der Vorhersagen des Weltraumwetters (also von Veränderungen der Ionosphäre/Magnetosphäre und ähnlichen Erscheinungen) verwendet. Die Radiookkultationstechnik wurde bereits in den 1960er Jahren vom JPL vorgeschlagen, um die Vertikalstruktur von Planetenatmosphären zu untersuchen. Von 2000 bis zum Missionsende wurde diese Messmethode sehr erfolgreich an Bord des deutschen Forschungssatelliten CHAMP angewendet, von Mai 2006 bis zu ihrem Missionsende (2017) auch an Bord der GRACE-Satelliten.

Weitere Informationen:

FormoSat-5

Erdbeobachtungssatellit der taiwanesischer National Space Organisation of the Republic of China (NSPO) aus dem Programm FORMOSAT. Er wurde am 24. August 2017 mit einer Falcon-9-Trägerrakete von der Vandenberg Air Force Base in eine nahezu polare und sonnensynchrone Umlaufbahn gebracht und soll FormoSat-2 ersetzen, welcher im August 2016 abgeschaltet wurde.

Der dreiachsenstabilisierte Satellit ist mit einem Remote Sensing Imager (RSI) mit einem 45 cm Primärspiegel ausgerüstet, der Bilder mit einer Auflösung von vier (vier Band multispektral) bzw. zwei (panchromatisch) Metern und einer Schwadbreite von 24 km liefert. Zusätzlich ist ein Advanced Ionospheric Probe (AIP) Instrument an Bord, das zur Untersuchung des Plasmas (Zusammensetzung, Dichte, Geschwindigkeit und Temperatur von Elektronen und Ionen) der Ionosphäre dient. Der Satellit besitzt eine geplante Lebensdauer von fünf Jahren.

Weitere Informationen:

FormoSat-7 (COSMIC-2)

FormoSat-7 oder COSMIC-2 (Constellation Observing System for Meteorology, Ionosphere, and Climate) ist die mit der Kurzbezeichnung FS-7/C-2 versehene Nachfolgemission der gemeinsamen FormoSat-3 / COSMIC-Mission von Taiwan (NSPO) und den Vereinigten Staaten (NOAA), bei der eine Konstellation von 6 Fernerkundungssatelliten (12 nach ursprünglicher Planung) Atmosphärendaten zur Wettervorhersage erheben und die Ionosphäre, das Klima und das Schwerefeld erforschen soll. Die Mission soll die Datenkontinuität zur ersten Mission gewährleisten und dabei deutlich mehr Atmosphärensondierungen vornehmen, da sie die Signale von drei Navigationssystemen (GPS, GLONASS, Galileo) nutzen kann, gegenüber nur einem (GPS) bei COSMIC. Die Plattformen wurden von SSTL geliefert.

Im Vergleich zu COSMIC-1 sind die Satelliten größer, die Empfänger sind deutlich besser und auch die Signalstärke der Daten, die die Satelliten zur Erde schicken, ist viel höher.

Die Satelliten fliegen so, dass sie vor allem Daten am Äquator bis hin zu den mittleren Breiten liefern. Das wichtigste Ziel ist es, die Taifun-Vorhersage zu verbessern. Taiwan beispielsweise ist im Schnitt vier bis fünf schweren Taifunen pro Jahr ausgesetzt. Und auch für Untersuchungen zum Weltraumwetter ist der äquatornahe Bereich sehr wichtig.

Wissenschaftler am GFZ nutzen Radiosignale von Navigationssatelliten, die ursprünglich zur Positionsbestimmung gedacht sind, um geophysikalische Eigenschaften der Atmosphäre und der Erdoberfläche zu bestimmen. Die Radiosignale sind sehr genau und müssen nicht aufwändig kalibriert werden, wie es bei vielen anderen Messverfahren der Fall ist. Bei ihrem Weg durch die Atmosphäre werden die Signale verändert. Diese Veränderung wird analysiert und leiten daraus beispielsweise der Wasserdampfgehalt oder die Temperatur abgeleitet.

Die Satelliten hatten eine Startmasse von jeweils 277 kg, ihre Maße betragen 1,25 m × 1 m × 1,25 m (L x B x H). Sie bewegen sich in 520-550 km Höhe mit einer Inklination von 24° auf einer sonnensynchronen Umlaufbahn. Der Start erfolgte am 25. Juni 2019 mit einer Falcon Heavy-Rakete vom Kennedy Space Center aus.

Weitere Informationen:

FORUM

Engl. Akronym für Far-Infrared Outgoing Radiation Understanding and Monitoring; dt. etwa Verstehen und Überwachung der ausgehenden Strahlung im fernen Infrarot; Bezeichnung für die neunte Earth Explorer-Mission der ESA. Sie wird erstmals die Erdatmosphäre mithilfe von besonders langwelliger Infrarotstrahlung vermessen. So lassen sich etwa Effekte von Wasserdampf und (Eis-)Wolken auf die von der Erde in den Weltraum abgegebene Wärmestrahlung erkennen. Wasserdampf und Eiswolken beeinflussen die von der Erde ausgehende Strahlung stark und spielen eine Schlüsselrolle bei der Regulierung der Oberflächentemperatur.

Die Oberflächentemperatur der Erde wird durch die Strahlungsbilanz an der oberen Grenze der Atmosphäre beeinflusst. Die Balance wird durch die Emission von Treibhausgasen gestört und dadurch mehr Wärme in der Atmosphäre gebunden, die sonst in den Weltraum entweichen würde.

Mehr als die Hälfte dieser ausgehenden Energie liegt im fernen Infrarotbereich des elektromagnetischen Spektrums, und dieser Anteil wurde bisher noch nicht genau gemessen. FORUM wird diese Lücke schließen und den gesamten Bereich des fernen Infrarot-Spektrums der Erde erfassen. FORUM verspricht eine Verbesserung von Klimamodellen und damit der Klimavorhersage. Darüber hinaus enthalten die Messungen wichtige Informationen zur Verstärkung des menschengemachten Treibhauseffektes durch Wasserdampf und Eiswolken.

Das Hauptinstrument auf FORUM wird ein Fourier-Transform-Spektrometer sein, das im fernen Infrarot arbeitet. Die einfallende kurzwellige Strahlung der Sonne wird an der Erdoberfläche absorbiert und durch die Atmosphäre mit längeren Infrarot-Wellenlängen ins All zurückgestrahlt. FORUM wird die Signatur dieser ausgehenden Strahlung messen, woraus sich wichtige Erkenntnisse über Wasserdampf, Eiswolken, Schnee und Eis auf der Erdoberfläche, Kohlendioxid und andere Treibhausgase ableiten lassen. Der Satellit wird auch mit einem Wärmebildgerät zur Validierung von Bodenmessungen ausgestattet sein.

Der FORUM-Satellit wird „in einer lockeren Formation“ vor dem MetOp-SG A1-Satelliten fliegen, um synergetische Beobachtungen mit dem Infrarot-Interferometer von MetOp-SG A1 durchzuführen. Die Nutzung der MetOp-Daten bei kürzeren Infrarot-Wellenlängen wird die wissenschaftlichen Ergebnisse von FORUM ergänzen und weiter verbessern.

Die Messungen dieser wichtigen neuen Mission werden die Zuverlässigkeit bei der Bewertung des Klimawandels stärken und können damit als Grundlage für künftige politische Entscheidungen dienen.

Airbus ist der Hauptauftragnehmer der Mission, OHB liefert das Instrument. Airbus in Stevenage wird die Entwicklung des Satelliten führen, während Airbus in Deutschland für die Signalerkennung des Instruments verantwortlich ist und Airbus in Frankreich Unterstützung bei der Plattform geben wird. Die Beschaffung bei kleinen und mittleren Unternehmen (KMU) wird ein Schlüsselelement der FORUM-Mission sein, um die Raumfahrt-Lieferkette in den ESA-Mitgliedstaaten weiter zu verbessern. Der 883 Kilogramm schwere FORUM-Satellit wird sich in einer polaren Umlaufbahn in 830 Kilometern Höhe befinden und soll 2027 mit einer Vega-C-Trägerrakete von Kourou in Französisch-Guayana gestartet werden. FORUM wird die 9. Earth Explorer Mission des „Future EO“-Programms der ESA sein.

Weitere Informationen:

F(A)PAR

Engl. Akronym für Fraction of Absorbed Photosynthetically Active Radiation; der absorbierte Anteil der photosynthetisch aktiven Strahlung (400 - 700 nm) ist zusammen mit dem Blattflächenindex (LAI) ein wesentlicher Landoberflächenparameter z.B. zur Analyse der Wechselwirkungen zwischen Biosphäre und Atmosphäre und deren klimatischen Auswirkungen. U.a. sind die AVHRR-Daten der NOAA-Satelliten eine wichtige Quelle für die Ableitung derartiger Informationen. Sie werden insbesondere vom DLR gesammelt und ausgewertet.

Frequenz

Engl. frequency, franz. fréquence; im physikalischen Sinn die Anzahl der vollständigen Schwingungen, die ein System in einer bestimmten Zeit durchführt. Die Einheit ist das Hertz (1 Hz = 1/s), benannt nach dem deutschen Physiker Heinrich Hertz (1857-1894). Mit entsprechenden Präfixen ergeben sich höhere Frequenzen.
Die Frequenz elektromagnetischer Strahlung entscheidet über die Erscheinungsformen der Strahlung. Das Spektrum elektromagnetischer Strahlung erstreckt sich von niederfrequenten Radiowellen über das sichtbare Licht bis zur hochfrequenten Gammastrahlung. Die Strahlungsenergie steht proportional zur Frequenz.

Beziehung zwischen Wellenlänge, Frequenz, Energie

Beziehung zwischen Wellenlänge, Frequenz und Energie

 

Quelle: Tempfli et al. 2009 (verändert)

Neben der Frequenz ist eine weitere Charakteristik von elektromagnetischer Strahlung besonders wichtig für das Verständnis von Fernerkundung: die Wellenlänge. Sie ist die Länge eines Wellenzyklus, welche als Entfernung zwischen zwei Wellenbergen angegeben werden kann. Wellenlänge und Frequenz stehen in folgender Beziehung: Lichtgeschwindigkeit [C = 299.792,458 km/Sek] = Frequenz [1 Hertz = 1 Schwingung/Sek.] x Wellenlänge.

frequenz_wellenlaenge_1

frequenz_wellenlaenge_2 frequenz_wellenlaenge_3

Wellenlänge und Frequenz haben den in den nebenstehenden Formeln ausgedrückten Bezug.
Demnach stehen sie in umgekehrter Beziehung zueinander. Je kürzer die Wellenlänge, umso höher die Frequenz. Je länger die Wellenlänge, umso niedriger die Frequenz.

λ = Wellenlänge (m)

ν = Frequenz (Zyklen pro Sekunde, Hz)
c = Lichtgeschwindigkeit (3x108 m/s)

Frequenzband

Engl. waveband

  1. Oft auch nur kurz mit Band bezeichnet. Bezeichnung für einen zusammenhängenden Bereich von Frequenzen aus dem Frequenzspektrum, die durch eine Unter- und eine Obergrenze definiert werden und mit einem Namen versehen wurden. Üblicherweise sind physikalische Eigenschaften (Ausbreitungseigenschaften elektromagnetischer Wellen) gemeint, wenn von Frequenzbändern gesprochen wird (im Gegensatz zu Anwendungen bei Frequenzbereichen). Für verschiedene Bänder haben sich unterschiedliche Namen eingebürgert, die allerdings nicht fest definiert sind, so dass es auf den konkreten Einzelfall ankommt!
  2. Ein Ausdruck, der übergreifend in der Fernerkundung verwendet wird, um einen zusammenhängenden Umfang von Wellenlängen elektromagnetischer Energie zu beschreiben.

Friedhofsorbit

Als Friedhofsorbit, Friedhofsumlaufbahn oder kurz Friedhofsbahn (englisch graveyard orbit, junk orbit oder disposal orbit), bezeichnet man eine Erdumlaufbahn („Orbit“) für ausgediente erdferne Satelliten. Während Raumflugkörper auf niedrigen Orbits (LEO) durch Absenken der Flugbahn in der Atmosphäre entsorgt werden, ist der Einschuss auf eine höhere Umlaufbahn die einzige Option für geostationäre Satelliten (GEO).
Die Endlagerung dieser Objekte ist nötig, da die für Satelliten interessanten Umlaufbahnen begehrt sind und weil sie durch Abdriften (in niedrigeren Orbits auch durch Abbremsen in der Restatmosphäre) zur Gefahr für andere Satelliten, Raumfähren und (durch Absturz) auch für die Erde werden könnten (Weltraummüll).
Die begrenzte Lebensdauer eines Satelliten ergibt sich hauptsächlich dadurch, dass neben diversen möglichen Defekten vor allem der bordeigene Treibstoff, der zur Stabilisierung der Orbit-Position notwendig ist, verbraucht ist oder nur noch für einige wenige Manöver in eine andere Umlaufbahn reicht.
Der Friedhofsorbit liegt in der Regel über dem regulären Orbit des Satelliten, im Falle geostationärer Satelliten um etwa 300 km (Supersynchroner Orbit). Wenn ein geostationärer Satellit einen Friedhofsorbit unterhalb der geosynchronen Umlaufbahn (GEO) einnimmt, besteht immer die Gefahr, dass er mit einem neuen Satelliten auf der zum GEO führenden GTO-Bahn kollidiert. Das Inter-Agency Space Debris Coordination Committee (IADC) legt den freizuhaltenden Bereich der geosynchronen Umlaufbahnen auf ±200 km und ±15° von der geostationären Bahn fest.

Weitere Informationen:

Frühwarnsystem

Eine Einrichtung, die als Warnsystem aufkommende Gefahren frühzeitig erkennt und Gefährdete möglichst schnell darüber informiert. Es soll durch rechtzeitige und umfassende Reaktion helfen, Gefahren abzuwenden oder Folgeerscheinungen zu mildern.
Frühwarnsysteme setzen sich aus drei Elementen zusammen:

  1. Prognose und Vorhersage eines bevorstehenden Ereignisses,
  2. Aufbereitung und Verbreitung der Warnmeldung für die Behörden und die Bevölkerung und
  3. Ergreifung angemessener und zeitnaher Maßnahmen entsprechend der Warnung.

Weitere Informationen:

FTIR

Akronym für Fourier-Transform InfraRot-Spektroskopie bzw. Fourier-Transformations-InfraRot-Spektrometer; Messverfahren, bzw. -gerät zur Bestimmung von Spurengaskonzentrationen durch den Vergleich von gemessenen Spektren mit gespeicherten spektralen Absorptionskoeffizienten im infraroten Spektralbereich.

Die FTIR gehört zu den wichtigsten spektroskopischen Methoden zur Untersuchung von Anregungen in Molekülen und Festkörpern. Kernstück solcher Spektrometer ist das Michelson-Interferometer, bei dem zwei durch Strahlteilung erzeugte Lichtbündel miteinander interferieren. Der Gangunterschied zwischen beiden Teilstrahlen kann durch Verschieben eines Spiegels variiert werden. Das Interferogramm stellt den Verlauf der Intensität als Funktion der Spiegelposition dar und wird mit einer Photodiode gemessen.

Satellitenbasiert war FTIR beispielsweise mit dem Sensor MIPAS (Michelson Interferometer für Passive Atmosphärische Sondierung) auf dem inzwischen inaktiven ENVISAT verwirklicht. Bodengebunden betreibt z.B. das KIT vier FTIR, und zwar in Kiruna (Nordschweden), in Karlsruhe (Deutschland), am Izaña Observatorium (Teneriffa, Spanien) und in Addis Abeba (Äthiopien). Mit ihnen wird die Konzentration von Spurengasen in der Atmosphäre gemessen. Die Spurengase sind u.a. H2O, CH4, N2O, O3, NO, HNO3, HCl, HF, CFC-11, CFC-12, NO2, ClO, und ClONO2. Das Ziel dieser Messungen ist es, langfristige Trends dieser Treibhaus- oder Ozonschicht relevanten Spurengase zu bestimmen. Außerdem dienen sie der Validierung von Satellitendaten.

Ebenfalls vom KIT werden horizontsondierende Fourier-Transform Infrarot-(FTIR) Spektrometer entwickelt und betrieben. Diese sind auf Stratosphärenballons und hochreichenden Flugzeugen im Einsatz, um höhenaufgelöste Verteilungen von Temperatur, Wasserdampf und Spurengasen und deren Isotopologen (z.B. HDO) in der Erdatmosphäre zu bestimmen. Horizont-abtastende Geräte, wie die Ballon- und Flugzeug-Versionen von MIPAS wurden in vielen Messkampagnen seit mehr als 20 Jahren weltweit eingesetzt.

Weitere Informationen:

FUSE

Engl. Akronym für Far Ultraviolet Spectroscopic Explorer; Satellitenmission zur Astrophysik, ausgelegt für das Extrem-Ultraviolett des elektromagnetischen Spektrums. Für bestimmte Fragen ist es der einzige Spektralbereich, der den Astrophysikern Antworten gibt.
FUSE, der im Juni 1999 seine Umlaufbahn erreichte, entstand aus der Zusammenarbeit der Universität John Hopkins mit dem CNES, der kanadischen Weltraumagentur, der Universität von Colorado und der kalifornischen Universität Berkeley.
Zur Fokussierung des Lichts wurde der Satellit mit vier Spiegeln ausgerüstet. Das eingefangene Ultraviolett-Licht wird durch vier optische Systeme (als Netze bezeichnet) - eines je Spiegel - in ein Spektrum zerstreut. Über eine Million paralleler Linien wurden auf jedes dieser Netze aufgezeichnet was diesem Instrument ein sehr hohes Auflösungsvermögen verschafft. FUSE ist seit 2007 außer Betrieb.

Weitere Informationen:

Fusion

Engl. fusion; Prozedur, in der Daten unterschiedlicher Herkunft zusammengeführt werden, mit dem Ziel, anwendungsspezifisch qualitativ verbesserte Informationen zu generieren.

Fußabdruck

Engl. footprint; geographisches Gebiet, das von der Instrumentenbeobachtung und den daraus abgeleiteten Produkten erfasst wird.

FutureEO

Das FutureEO-Programm der ESA ist ein langfristiges europäisches Wissenschafts- und Technologieprogramm zur Erkundung des Planeten Erde und unserer Umwelt. Es kümmert sich um das End-to-End-Management von innovativen Erdbeobachtungsforschungsmissionen und -fähigkeiten.

FutureEO ermöglicht die Konzeption neuer Instrumente und Plattformtechnologien und moderner Wissenschaftsmissionen wie die Earth Explorer-Missionen. Diese Entwicklungen ebnen den Weg für operationelle Missionen, wie die Copernicus Sentinels, die seit Langem wichtige staatliche Informationsdienste kontinuierlich mit Daten versorgen. FutureEO ermöglicht auch die Entwicklung von weltweit führenden meteorologischen Missionen in Zusammenarbeit mit EUMETSAT, deren Daten das Herzstück von Wettervorhersagen bilden, auf die sich die Öffentlichkeit verlässt.

Der Anwendungsbereich des FutureEO-Programms wurde erweitert, um das Potenzial disruptiver neuer Technologien und Trends für den europäischen Erdbeobachtungssektor zu nutzen. Das Programm wird Raum für die Erforschung radikaler Ideen in einer Umgebung mit schneller Prototypentwicklung bieten, zu der kleine Satelliten (Scouts), Nanosatelliten (Φ-Sats), hochfliegende Pseudo-Satelliten (HAPS) sowie die Anwendung von künstlicher Intelligenz und von Maschinellem Lernen in der Erdbeobachtung gehören können. Hier haben auch kleinere und mittlere Unternehmen (KMU) sowie Start-ups eine Chance, in Europas Raumfahrtwelt Fuß zu fassen. Auf diese Weise kann die ESA den sich schnell entwickelnden Sektor der Erdbeobachtung NewSpace stimulieren und Europa wachsende Geschäftsmöglichkeiten bieten. Wenn wir heute in FutureEO investieren, können wir die Spitzenwissenschaft und -technologie entwickeln, die notwendig ist, um die gesellschaftlichen Herausforderungen von morgen zu bewältigen, sei es der Klimawandel, der Zugang zu Ressourcen oder das Umweltmanagement.

Der zukunftsorientierte Ansatz des Programms – wegweisende Missionen und die Nutzung disruptiver Technologien wie SmallSats und künstliche Intelligenz – stellt sicher, dass Investitionen, insbesondere in nachgelagerten Sektoren, einen maximalen Ertrag bringen. Schätzungsweise führt jeder Euro, der in FutureEO investiert wird, zu einem BIP-Wachstum von 3,8 Euro in den ESA-Mitgliedsstaaten.

FutureEO

Finanzieller Nutzen und Beschäftigungseffekte

Jeder Euro, der in FutureEO der ESA investiert wird, erhöht direkt das europäische BIP um fast 4 Euro. Darüber hinaus führen die Investitionen in FutureEO zu Wissens- und Innovations-Spillover und werden voraussichtlich 75.000 Arbeitsplätze schaffen.

Ferner ermöglicht die im Rahmen von FutureEO durchgeführte F&E den zukünftigen Nutzen, der in den operationellen EO-Programmen generiert wird. Es wird geschätzt, dass 1 in Copernicus investierter Euro 10 Euro an sozioökonomischem Nutzen für die europäische Gesellschaft bringt. Der erwartete Nutzen des MetOp-SG im Zeitraum 2020-2040 wird auf 16-63 Milliarden Euro geschätzt.

Quelle: ESA

FY-1/-3

Kürzel für die polarumlaufenden Satelliten des meteorologischen Satellitenprogramm Chinas (FENGYUN).

Weitere Informationen:

FY-2/-4

Kurzbezeichnung für die geostationären Satelliten des meteorologischen Satellitenprogramms Chinas (FENGYUN).

Weitere Informationen: