Lexikon der Fernerkundung

Falschfarben

Engl. false colour; eine Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nichtsichtbaren Bereich des elektromagnetischen Spektrum doch darzustellen. Nimmt man z.B. einen thermalen oder Infrarotkanal hinzu, so erhalten die Bilder in der Regel für das menschliche Auge eher ungewohnte Farbgebungen (Vegetation in Rottönen). Bekannteste Darstellung ist das Color-Infrarot-Bild (CIR).

Falschfarbenkomposit

Ein Bild, dessen verschiedene Spektralbänder in anderen Farben widergegeben werden, als die in denen es ursprünglich aufgenommen wurde. Es ist eine Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nicht sichtbaren Bereich des elektromagnetischen Spektrums doch darzustellen. Das Verfahren ist z.B. hilfreich zur Darstellung von Veränderungen der Vegetationsbedeckung oder zur Unterscheidung verschiedener Pflanzenarten.
Die von den Sensoren aufgenommenen Signale des Spektrums sind lediglich skalare Werte, also Zahlenangaben ohne Einheit. Dies erlaubt eine beliebige Zuordnung. Wenn man z.B. die Zahlenwerte des Kanals 1, der Strahlung aus dem blauen Bereich des Spektrums aufnimmt, bei der Farbwidergabe dem grünen Bereich zuordnet, die Werte aus dem Kanal 2 (Grün) dem blauen Bereich zuordnet und nur die Werte des Kanals 3 (Rot) tatsächlich in Rot darstellt, so erhält man ein Bild, das die Zahlenwerte korrekt wiedergibt, aber von unserer gewohnten Farbzuordnung abweicht, also eine Falschfarbendarstellung. Bekannteste Darstellung ist das CIR-Bild.

Obere Poebene mit Ausläufern der Alpen in Falschfarbendarstellung Obere Poebene mit Ausläufern der Alpen
in Falschfarbendarstellung




Mit Daten von MOMS-2P angefertigtes Falschfarbenbild
unter Verwendung der Kanäle 2,3,4

Quelle: DLR (R.o.)
 
False Colour

Engl. für Falschfarbe; Methode, die bei der Darstellung von Fernerkundungsdaten angewendet wird, um Bildinformation in einem nichtsichtbaren Bereich des elektromagnetischen Spektrums doch darzustellen. Nimmt man z.B. einen thermalen oder Infrarotkanal hinzu, so erhalten die Bilder in der Regel für das menschliche Auge eher ungewohnte Farbgebungen (Vegetation in Rottönen), sie entsprechen nicht der normalen visuellen Erfahrung. Die bekannteste Darstellung ist das Color-Infrarot-Bild (CIR). Meist stellen Falschfarbenbilder das nahe Infrarot als Rot, Rot seinerseits als Grün und Grün als Blau dar.

Farbbild

Engl. colour image, franz. image en couleurs; ein Bild, das durch additive oder subtraktive Farbmischung aus den Bildfunktionen von drei Spektralbereichen aufgebaut ist. Das Farbbild kann ein Durchsichts- oder Aufsichtsbild sein, wozu auch das Projektionsbild gehört.
DIN 18716 definiert den Begriff als "dreikanalige Bilddaten", und fügt folgende Anmerkung an: "Im allgemeinen Sprachgebrauch wird von Farbbildern vor allem dann gesprochen, wenn das Gelände in naturnahen Farben wiedergegeben wird. Der Begriff sagt aber nichts über die bei der Aufnahme wirksamen Spektralbereiche aus".

Die Gewinnung und Interpretation von farbigen Bildern spielt in der Fernerkundung eine große Rolle. Das menschliche Auge vermag nämlich nur etwa 20 bis 30 verschiedene Grautöne wahrzunehmen, kann aber leicht eine sehr große Anzahl von Farben unterscheiden. Deshalb ist die Aufbereitung von Bilddaten in Form von Farbbildern eine der wichtigsten Methoden, um Bildinformationen deutlich darzustellen und damit leichter interpretierbar zu machen.

Farbe

Engl. colour; Farbreize unterscheiden sich durch ihre spektrale Zusammensetzung. Durch die Notwendigkeit, diese Unterschiede exakt definieren zu können, wurden verschiedene Farbmodelle entwickelt. Jede Farbe kann durch einen Farbnamen (beschreibende Worte), aber auch durch den numerischen Farbort definiert werden. Je nach Farbmodell kann nach Helligkeit, Sättigung und Farbton, aber auch nach Hell-/Dunkel-, Rot-/Grün- und Gelb/Blau-Wert mit drei derartigen Größen die Farbe eindeutig beschrieben sein.
In digitalen und analogen Präsentationen ist Farbe wesentlicher Bestandteil und Informationsträger. Sie dient zur Visualisierung und graphischen Darstellung. Farbe kann auch zur Informationsgewinnung z.B. bei der Interpretation von Luftbildern genutzt werden. Farbe entsteht durch Farbmischung. Bei der digitalen Verarbeitung sind verschiedenste Farbmodelle im Einsatz.

Farbe ist eine Sinneswahrnehmung und keine physikalische Eigenschaft der Dinge. Das menschliche Auge bewertet auf die Augennetzhaut einwirkende elektromagnetische Strahlung nach drei verschiedenen Empfindlichkeitskurven als Rot, Grün oder Blau. Diese Teilreize werden stets zu einer Gesamtwirkung verschmolzen, so dass bei wechselnden Anteilen jede beliebige Farbwahrnehmung entstehen kann. Eine gleichzeitige und gleich intensive Reizung Rot und Grün führt zur Wahrnehmung Gelb, Rot und Blau ergeben Purpur (Magenta), Grün und Blau schließlich Blaugrün (Cyan). Die gleichzeitige Reizung Rot, Grün und Blau 'addiert' sich zur Gesamtwirkung weiß. Der Vorgang wird deshalb auch additive Farbmischung genannt. Auf dieser Art von Farbmischung beruht das Farbfernsehen sowie die Farbwiedergabe an Computer-Monitoren.

Weitere Informationen: Subtleties of Color - 6 Teile (NASA Earth Observatory)

Farbinfrarotbild (CIR)

Engl. color infrared image, franz. image en couleur infra rouge; nach DIN 18716 "dreikanalige Bilddaten unter Einbeziehung des nahen Infrarots", verbunden mit der Anmerkung "Die vom sichtbaren Spektralbereich abweichenden Reflexionseigenschaften von Vegetationsarten und -zuständen sowie von einigen Substraten erlauben der Bildinterpretation spezielle Anwendungen in vielen Bereichen, wie z. B. Land- und Forstwirtschaft, Naturschutz oder Gemälderestaurierung".

Farbinfrarotfilm

Der Farbinfrarotfilm besteht wie der Farbfilm aus drei farbempfindlichen Schichten, jedoch mit dem Unterschied, dass die blauempfindliche durch eine infrarotempfindliche Schicht ersetzt wird. Die Schichten sind also für das sichtbare Grün und Rot und das nicht sichtbare Infrarot empfindlich. Da die drei im Bereich von 0,4 bis 0,9 μm empfindlichen Emulsionen auch blau reflektierende Objekte aufzeichnen können, wird ein blauabsorbierender Gelbfilter vor dem Objektiv angebracht. Durch Wegfiltern der kurzwelligen Blaustrahlung (blaue Objekte erscheinen in Schwarz) werden die einzelnen Schichten korrekt belichtet und das Bild wirkt schärfer.
Die Zuordnung der Farben im Farbinfrarotfilm ist daher ein rein technischer und im Grunde willkürlicher Vorgang, weshalb diese ohne Schwierigkeiten geändert werden kann. Meist wird aber folgende Farbzuordnung verwendet: Grün reflektierende Objekte erscheinen blau, rot reflektierende grün und infrarot reflektierende rot. Da keine der möglichen Farbzuordnungen der tatsächlichen Wahrnehmung entspricht, werden Farbinfrarotbilder auch als 'Falschfarbenbilder' bezeichnet.
Beim Farbinfrarotfilm ist besonders die Behandlung von Vegetation sehr aufschlussreich. So erscheinen lebende, grüne, gesunde und daher Infrarot reflektierende Blätter rot, während abgestorbene Blätter in Grün oder einer Mischfarbe von Grün und Rot abgebildet werden. Auf Grund dieser Eigenschaft wird der im zweiten Weltkrieg entwickelte Vorläufer des Farbinfrarotfilms im englischsprachigen Raum als 'camouflage detection film' bezeichnet. Mit ihm war es möglich, künstliche Blätter oder mit grüner Farbe getarnte Objekte, welche kein Infrarot reflektieren und daher blau erscheinen von gesunder Vegetation zu unterscheiden.

Farbkodierung

Engl. colour coding, franz. codage par couleurs; Farbkodierung entsteht, wenn beliebige Bilddaten eines mehrkanaligen Bildes im RGB-Farbmodell dargestellt werden und diese nach der additiven Farbmischung gestaltet bzw. umgesetzt werden.

Definition nach DIN 18716: "Vorgang, durch den Grauwertbereiche eines Bildes in homogene Farben umgesetzt werden, so dass Grauwertunterschiede deutlicher sichtbar werden.

Mit der Farbkodierung lassen sich neben mehrkanaligen Datensätzen auch einzelne Bänder darstellen. Ziel ist, objekttypische bzw. klassentypische Grauwerte durch entsprechende Farbgebungen visuell hervorzuheben, sowie die Informationen verschiedener Spektralbereiche zu verknüpfen. Zur Herstellung solcher Farbkomposite werden die Datensätze aus drei und mehr Spektralbändern verwendet. Die Darstellung kann in Echtfarbenbildern und Falschfarbenbildern erfolgen. Oft findet bei den Falschfarbenbildern die Einbeziehung des nahen Infrarotbandes statt. Eine Echtfarbenkomposite entsteht, wenn nur die Spektralbereiche des sichtbaren Lichtes benutzt werden.

Farbkompositbild

In der Optik ein Farbbild, das durch die Projektion von einzelnen schwarzweißen Multispektralbildern durch verschiedene Farbfilter erzeugt wird. Wenn die gefilterten Einzelbilder übereinandergelegt werden, entsteht ein Farbkompositbild.
Aus Satellitenbildinformationen können Farbkomposite erzeugt werden, indem man den drei Farbdimensionen des Bildes jeweils einen Farbkanal zuordnet.
Man spricht von Echtfarben-Farbkomposit, wenn man den drei Farbdimensionen des Bildes die drei sichtbaren Kanäle des Satellitenbildes (blau, grün, rot) zuordnet. Da Infrarotkanäle die Vegetation sehr gut darstellen, kann man auch den grünen Dimensionen des Bildes den NIR Kanal zuweisen. Die resultierenden Bilder sehen wie Farbbilder aus, und werden eher zu Darstellungszwecken (Hintergrundkarte, Poster) als zur Analyse verwendet.

Wählt man eine andere Farbzusammensetzung, spricht man von Falschfarben Farbkomposit. Weist man zum Beispiel den Infrarotkanal der roten und den roten Kanal der grünen Dimension des Bildes zu, erscheinen die unbedeckten Böden blau-grün, die aktive Vegetation magenta und klares Wasser schwarz.

Meteosat 8 - Farbkomposit Farbkompositbild (METEOSAT-8)

Bei dem METEOSAT-8-Bild vom 31.12.2006 handelt es sich um ein Farbkompositbild, zusammengesetzt aus den Spektralkanälen 0,6 und 0,8 μm im sichtbaren Bereich und 12,0 μm im infraroten Bereich. Durch diese Spektralkombination lassen sich tiefe Wolken (gelb), hohe Wolken (blau) sowie hochreichende Wolken (weiß) unterscheiden. Da im Norden und Nordosten des Bildes Nacht ist, ist hier nur der blaue, infrarote Anteil des Bildes zu sehen.

Interpretation: Zum Jahreswechsel 2006/2007 bestimmten Sturm- und Orkantiefs das Wetter in großen Teilen Europas. Das Bild zeigt gleich zwei deutlich ausgeprägte Tiefdruckgebiete. Über der Ostsee liegt der Kern des Orkantiefs „KARLA“. Dieses Tief zog von der Biskaya über die Nordsee zur Ostsee. In der Nacht 30./31.12. wurden vor allem in der Deutschen Bucht und der Kieler Förde Orkanböen gemessen. So traten am Leuchtturm Kiel Böen bis zu ca. 141 km/h auf. Ein zweites Sturmtief („LOTTE“) ist mit seinem Kern nordwestlich von Irland zu erkennen. Dieses Tief beeinflusste den letzten Tag des Jahres 2006 und die Neujahrsnacht mit starkem bis stürmischem Wind, sowie verbreitet Regen. Am Neujahrstag war es sehr mild mit Temperaturen zwischen 8 und 13°C. Quelle: DMG

 
Farbmodell

Engl. colour model; ein Farbmodell stellt einen dreidimensionalen Körper unterschiedlicher Form dar, in dem eine Farbe über ein Tripel von drei Werten festgelegt ist. Jeder Farbton kann als Vektor in diesem dreidimensionalen Farbraum formal eindeutig definiert werden.
Dazu bestehen verschiedenste Modelle, z.B. das RGB-Farbmodell für die Bildschirmausgabe, das CMY- oder CMYK-Farbmodell für die Druckausgabe.
Für Bildverarbeitung und Fernerkundung sind die folgenden Modelle von Bedeutung: CIE, RGB, IHS, Lab, CMYK.

RGB-Farbmodell RGB-Farbmodell CMYK-Farbmodell CMYK-Farbmodell
Farbtransformation

Engl. color transformation, franz. transformation des couleurs; nach DIN 18716 ein "Vorgang, durch den die Datensätze eines Farbbildes in einen anderen farbmetrischen Raum transformiert werden".

FASTSAT

Engl. Akronym für Fast, Affordable, Science and Technology Satellite; Satellitenplattform, auf der die verschiedenartigsten kleinen Nutzlasten untergebracht werden können, womit Forscher aus Wissenschaft und Industrie die Gelegenheit geboten wird, Experimente im All zu günstigen Kosten durchzuführen. Der in 750 km Höhe fliegende Mikrosatellit der NASA wurde 19. November 2010 vom kommerziellen Raketenstartplatz Kodiak Launch Complex (KLC) in Alaska ins All gebracht. Als Trägerrakete kam dabei eine Minotaur IV zum Einsatz. Der Mikrosatellit war bereits der 26. innerhalb des sogenannten Space Test Program, einer gemeinsamen Initiative der NASA und des US-Verteidigungsministeriums.
FASTSAT trägt als Nutzlast drei technologische Demonstrationsinstrumente und drei Instrumente für die Atmosphärenforschung. Es handelt sich um einen in kurzer Bauzeit und zu niedrigen Kosten hergestellten Satelliten.

Weitere Informationen:

Fehlermatrix (-matrize)

Eine Matrix (Matrize), die zur Qualitätssicherung von der Quelle zur Bewertung entnommene Proben mit Beobachtungen vergleicht, die als korrekt in Betracht gezogen werden (Referenzdaten). Die Fehlermatrix (-matrize) erlaubt eine Berechnung von Eigenschafts- (Beschaffenheits-) parametern, wie Gesamtgenauigkeit, Unterlassungsfehler und Übertragungsfehler.

Fehlerrechnung

Statistische Abschätzung des Ausmaßes der zufälligen (im Gegensatz zu den systematischen) Fehlern einer Meßreihe, um die Unschärfe des Messergebnisses (Mittelwert, sog. Bestwert) angeben zu können. Im einfachsten Fall ist dies:

Formel Fehlerrechnung

n = Anzahl der Messungen
ai = Messdaten
µ = Mittelwert der Messreihe

Als Schätzung für die Unschärfe eines Einzelwertes wird u.a. die Formel für die Standardabweichung benutzt und als Standardfehler (auch mittlerer quadratischer Fehler) bezeichnet. Bei aus mehreren Messreihen zusammengesetzten Ergebnissen müssen die Gesetze der Fehlerfortpflanzung berücksichtigt werden.

Feldvergleich

Engl. ground truth(ing), franz. échantillonnage de terrain; nach DIN 18716 "durch Erhebungen vor Ort erfasste Information mit dem Zweck der Eichung oder Überprüfung von Fernerkundungsergebnissen".

FEMA

Engl. Akronym für U.S. Federal Emergency Management Agency.

FENGYUN

Abk.: FY, chin. für 'Wind und Wolken'; System geostationärer und polarumlaufender Wettersatelliten des Chinesischen Wetterdienstes. Die polarumlaufenden Satelliten sind durch ungerade Zahlen gekennzeichnet (FY-1, FY-3), die geostationären durch gerade Zahlen (FY-2). Sie tragen zum globalen meteorologischen Satellitensystem bei.
Die meteorologischen Satelliten liefern Daten für die Ozeanographie, Land- und Forstwirtschaft, Hydrologie, Luft- und Schifffahrt, den Umwelt- und Katastrophenschutz und die nationalen Verteidigung. Die neuesten Satelliten sind in der Lage rund um die Uhr und bei jedem Wetter Daten z.B. über Stürme, Regenfälle, Gewitter und Hagelstürme zu liefern. Darüber hinaus überwachen sie die Entwicklung von Sandstürmen und können Messungen der Luftqualität liefern.

An Bord der polnah umlaufenden Wettersatelliten befindet sich im Falle der Satelliten FY-1C und -D das Multichannel and IR Scan Radiometer (MVSIR), ein abbildendes Instrument zur Erzeugung von Satellitenbildern. Das Instrument entspricht im wesentlichen dem AVHRR. Die geometrische Auflösung beträgt unterhalb des Satelliten ca. 1,1 km. Die zehn Spektralkanäle (das AVHRR hat sechs Spektralkanäle) liegen im sichtbaren Bereich, im nahen und im thermischen Infrarot.

Die Schwadbreite des Bildes beträgt etwa 3200 km. MVISR-Bilder ergänzen wegen ihrer höheren geometrischen Auflösung die Bilder der geostationären Wettersatelliten. Bilder das MVISR liefern u.a. Informationen über das Vorkommen, die Art und Höhe und den Aggregatzustand (Wasser/Eis) der Wolken, außerdem Meeresoberflächentemperaturen, Verteilung von Meereseis und von Vegetation. Drei schmalbandige Kanäle im sichtbaren Spektralbereich sind speziell für ozeanographische Aufgaben gedacht. MVISR-Bilder können während des Satellitenüberfluges direkt empfangen werden.

Die neuere Fengyun-3-Serie soll die Wettersatelliten der Fengyun-1-Serie ersetzen, wobei beide Serien sich auf polaren sonnensynchronen Bahnen bewegen. FY-3A ist ab 2008, FY-3B seit 2010 und FY-3C seit 2013 im Einsatz. Die dreiachsenstabilisierten Satelliten sind mit elf Instrumenten (darunter optischem Radiometer, Infrarotspektrometer, Mikrowellenthermo- und -hygrometer und UV-Detektoren zur Vermessung der Ozonschicht und Strahlungsmeßgeräten) ausgerüstet. Als Startmasse werden 2.450 kg angegeben. Die optischen Sensoren besitzen eine Schwadbreite von 2.400 km und eine Auflösung von 250 m. Sie haben für die Datenübertragung zwei X-Band- (einer für Echtzeitübertragung) und einen L-Band-Transmitter (ebenfalls Echtzeit).

Die Satelliten der Fengyun-2-Serie sind spinstabilisierte, geostationäre Satelliten von zylindrischem Aussehen mit einem Durchmesser von 2,1 m und einer Höhe von 2,1 m (4,5 m mit Antennen). Die Nutzlast besteht aus einem Radiometer im sichtbaren und Infrarotbereich und Übertragungssystemen im S- und UHF-Band. Das Radiometer hat eine Auflösung von 1,25 km im sichtbaren und 5 km im Infrarotbereich.

Die Fengyun-4-Serie ist als Ersatz für die geostationären Satelliten der Fengyun-2-Serie gedacht. Ein Start ist für 2016 vorgesehen.

fengYunBsp FENGYUN 1D

 

Farbkompositbild von FENGYUN 1D vom 19.07.2003 08:28 UTC. Komposit aus drei Spektralbereichen im sichtbaren Bereich. Bei den grünen Flächen nördlich von Norwegen (Europäisches Nordmeer) handelt es sich um Phytoplankton.


Zu größerer Darstellung auf Grafik klicken

Quelle: DWD
 

Weitere Informationen:

Fenster

Begriff zur Beschreibung eines Abschnittes des elektromagnetischen Spektrums, in dem die Atmosphäre Strahlung nur schwach absorbiert.

fernerkundliche Aufnahme

Engl. data acquisition, franz. acquisition des données; nach DIN 18716 ein "Vorgang, bei dem die von der Erdoberfläche reflektierte oder ausgehende und am Sensor ankommende elektromagnetische Strahlung durch den Sensor erfasst und gespeichert wird".

Fernerkundung (FE)

Engl. remote sensing, franz. télédétection; Bezeichnung für alle Verfahren, die sich mit dem

  • Beobachten, Speichern, Kartieren und Interpretieren bzw. Klassifizieren von Erscheinungen auf der Erdoberfläche, einschließlich der Meere, sowie in der Atmosphäre oder auf der Oberfläche anderer Himmelskörper  befassen,
  • die ohne direkten physischen Kontakt des Aufnahmesystems, des sogenannten Sensors, mit dem zu erkundenden Objekt arbeiten,
  • die das Beobachtungsobjekt i.d.R. über eine Distanz größer einige hundert Meter abbilden (nicht: Nahbereichsphotogrammetrie), und
  • die zur Gewinnung von Informationen meist die elektromagnetische Strahlung oder akustische Wellen benutzen, die vom beobachteten Objekt abgestrahlt wird.

Folglich ist die Informationsgewinnung mit Fernerkundungssystemen von in situ-Verfahren zu unterscheiden, welche die Messwerterfassung direkt am Ort der zu messenden Variablen durchführen.

Teilweise werden die Arbeitsschritte Auswertung und Interpretation nicht zur FE im engeren Sinne gerechnet. Oft wird auch die Aufzeichnung von Gravitationsfeldern, magnetischen oder elektrischen Feldern sowie von akustischen Wellen (Sonar) nicht dem Begriff FE zugeordnet.

Begriffshistorisch ist Fernerkundung ein sehr junges Arbeitsfeld. Seit der erstmaligen Aufnahme von Luftbildern stand die Ausmessung der aufgenommenen Objekte im Vordergrund (Photogrammetrie). Der Begriff Fernerkundung entwickelte sich erst Anfang der 70-er Jahre als Übersetzung des von amerikanischen Wissenschaftlern geprägten Ausdrucks „remote sensing“.

fe_system Sieben Elemente bildgebender Satellitenfernerkundung

Viele Fernerkundungsverfahren bedingen eine Interaktion zwischen einfallender Strahlung und den beobachteten Objekten. Dies kann am Beispiel eines bildgebenden FE-Systems aufgezeigt werden, bei dem die unten angeführten 7 Elemente einbezogen sind. Es bleibt zu beachten, dass FE auch das Aufspüren von emittierter Energie umfasst und auch den Einsatz von nicht bildgebenden Sensoren.

  • Energiequelle oder Beleuchtung (A)
  • Interaktion der Strahlung mit der Atmosphäre (B)
  • Interaktion mit dem Objekt (C)
  • Messung der Energie durch den Sensor (D)
  • Übertragung, Empfang und Verarbeitung der Signale (E)
  • Interpretation und Analyse (F)
  • Anwendung (G)
Quelle: Natural Resources Canada
 

DIN 18716 (Photogrammetrie und Fernerkundung – Begriffe) vom August 2012 definiert FE wie folgt: "Gesamtheit der Verfahren zur Gewinnung von Informationen von entfernten Objekten ohne direkten Kontakt mit diesen durch Messung und Interpretation von reflektierter und emittierter elektromagnetischer Strahlung".
Dieser Definition von Fernerkundung und zugehöriger Begriffe bei DIN wird der diesbezügliche Anwendungsbereich vorangestellt:

"Diese Norm legt die Begriffe der Fernerkundung der Erde einschließlich darauf befindlicher Objekte mit abbildenden digitalen Sensorsystemen von Standorten auf der Erde, von Luftfahrzeugen (insbesondere Flugzeugen) oder Satelliten fest. Sie dient der Vereinheitlichung der Grundbegriffe und Benennungen.
Anwendung findet die Fernerkundung zur Erfassung und Beobachtung der Erdoberfläche im weitesten Sinne, insbesondere zur Kartierung und Überwachung der Geo- und Biosphäre, zur Datengewinnung im Geoinformationswesen, Erstellung von Planungsunterlagen und zur Beobachtung natürlicher und anthropogener Veränderungen von Ökosystemen. Darunter fallen auch Anwendungen in Vermessungswesen und Kartographie, darüber hinaus aber in einem breiten Spektrum weiterer Fachgebiete wie Raumordnung und Landesplanung, Forstwirtschaft, Bauingenieurwesen, Architektur, Denkmalschutz und Archäologie, Industriemessung, Unfallaufnahme und Kriminalistik, Medizin und andere.
Die Aussagen gelten sinngemäß auch für die Erkundung extraterrestrischer Körper.
In der Ozeanographie und in der Meteorologie wurden eigene Fernerkundungsverfahren entwickelt. Die damit zusammenhängenden Begriffe sind nicht Gegenstand dieser Norm.
Diese Norm bezieht sich auf die Detektion und Auswertung elektromagnetischer Strahlung und nicht auf Magnet- und Schwerefelder."

Die Fernerkundung bietet die Möglichkeit, große Gebiete in hoher zeitlicher und räumlicher Auflösung zu erfassen. Vorteile gegenüber anderen Verfahren liegen vor allem in der automationsgestützten Auswertung, in der Nutzung von homogenen Daten, der einheitlichen Auswertung und der Kombinationsmöglichkeit verschiedener Daten und Verfahren.

Abgesehen von technischen Lösungen ist das menschliche Sehvermögen bereits ein eindrucksvolles Fernerkundungssystem. Unsere Augen nehmen das von unserer Umgebung reflektierte sichtbare Licht (Spektralbereich 0,4-0,7 Mikrometer) auf, das dann vom Gehirn als Bild verstanden wird. Mental interpretieren wir die Farben, Strukturen, Umrisse und Größen von Objekten um daraus Informationen wie ihre Identität, ihr Zustand, ihre Geschwindigkeit und Bewegungsrichtung und andere Qualitäten abzuleiten. Allerdings hat unser Sehsystem Begrenzungen im Hinblick auf globale Erkundungsaufgaben. Unser Vermögen, Bilder zu speichern und wieder abzurufen, ist ungenau. Zudem können wir keine Informationen aufnehmen, die Wellenlängen benutzen, für die unser Auge nicht wahrnehmbar sind. Auch verschließen sich dem menschlichen Beobachter Gebiete die schwer zu erreichen oder gefährlich sind wie die Tiefsee, das Weltall und Gebiete mit hohen Temperaturen oder starker Strahlung. Flugzeug- und satellitengetragene Sensoren liefern eine Vielfalt von Umweltdaten von Flächen, die mit anderen Mitteln nicht zusammengetragen werden können.

Technische FE-Verfahren gehen von der Tatsache aus, dass die natürliche oder künstliche Strahlung (z.B. Sonnenlicht, Radar, Schall) von den Objekten unterschiedlich emittiert bzw. reflektiert wird. Das heißt, Grundlage der Fernerkundung ist das objekt- und materialspezifische Reflexionsverhalten. Objektbeschreibende elektromagnetische Strahlung setzt sich in Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien sind die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen. Daher wird ein zentraler Bereich der Fernerkundung auch als Erdbeobachtung (engl. earth observation, EO) bezeichnet.

Elektromagnetische Strahlung wird von Energiequellen ausgesendet, breitet sich in der Atmosphäre aus, tritt in Interaktion mit den atmosphärischen Teilchen und mit der Erdoberfläche, wird von Sensoren innerhalb oder außerhalb der Atmosphäre aufgezeichnet und in analoger und/oder digitaler Form gespeichert. Mittels eines geeigneten Systems zur Bilddatenanalyse und Bilddatenausgabe erfolgt eine Bearbeitung, Klassifikation und Visualisierung der Bilddaten.

Energiequellen wie Sonne und Erde emittieren elektomagnetische Strahlung in wellenlängenabhängigen Intensitäten (Plancksches Strahlungsgesetz, Stefan-Boltzmann-Gesetz, Wiensches Verschiebungsgesetz). Passive Fernerkundungsverfahren zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Aktive Fernerkundungsverfahren wie Radar oder Laser (LIDAR) senden kohärente Strahlungspulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasen-differenz der von der Erdoberfläche rückgestreuten/reflektierten Signale. Radiometrische Korrekturen berücksichtigen die Strahlungscharakteristika der jeweiligen Energiequellen.

Die Atmosphäre vermindert die Intensität der Sonnenstrahlung durch Streuung und Absorption in Funktion der Streupartikelgröße und der Wellenlänge (atmosphärische Extinktion). Große Transparenz besteht in sog. atmosphärischen Fenstern im sichtbaren Bereich des Spektrums, im nahen, im mittleren und im thermalen Infrarot sowie in hohem Maße im Mikrowellenbereich (elektromagnetisches Spektrum). Atmosphärische Korrekturen der Bilddaten sollen störende Einflüsse zufolge Extinktion minimieren.
Bei Interaktion der Strahlung mit der Erdoberfläche werden je nach Art der Landbedeckung (landcover) gewisse Strahlungsanteile reflektiert, andere absorbiert. Die Variation der Reflexion in Funktion der Wellenlänge wird objektspezifische Spektralsignatur genannt und ist Kenngröße für die spektrale (thematische) Differenzierbarkeit von Objekttypen.

Produkte der Fernerkundung der Erde sind (geocodierte) originäre oder klassifizierte Bilddaten in digitaler und/oder analoger Form (Orthobild), meist als kombinierte Bild-Strich-Karten (Bildkarte) mit Koordinatenbezug, des weiteren flächenbezogene Statistiken in Tabellen- oder Diagrammform sowie objektspezifische spektrale Signaturenkataloge.

Einsatzbereiche von Fernerkundung Einsatzbereiche von Fernerkundung




Zu größerer Darstellung auf Grafik klicken


Quelle: NASDA (R.o.)

Gegenüber der subjektiven Sicht des Menschen besitzt die FE-Technologie einige wichtige Vorteile. Sie verbindet eine synoptische Sichtweise (Großräumigkeit, Gleichzeitigkeit) aus der Vogelperspektive mit raschem Zugriff und kurzen Wiederholraten, Chancen, die eine Bodenbegehung nicht ermöglicht. Dies erlaubt die Analyse und Beobachtung von regionalen und globalen Phänomen, z.B. die Abnahme der Ozonschicht über der Antarktis, Daten zu Wolkentemperatur und Niederschlag, Waldbrände, die Vernichtung des tropischen Regenwaldes, Desertifikationsentwicklung, Landnutzung, Erntezustand, Bewegungen von Gletschereis und Eisbergen, Meeresoberflächentemperaturen oder Sediment- und Chlorophyllkonzentrationen von oberflächennahen Wasserschichten sind nur einige Beispiele.

Fernerkundung ist heute unverzichtbarer Bestandteil von Ressourcen-Kartierungen und Bestandsaufnahmen. Fernerkundungsbilder bieten einen Überblick über die Ressourcen unserer Erde in ihren Zusammenhängen. Vegetation, Geologie, Böden, Hydrologie, Verkehrsnetz und Siedlungsmuster werden alle in ihrem räumlichen Kontext wiedergegeben. Zudem können einzelne FE-Bilder für unterschiedliche Disziplinen und Aufgabenstellungen ausgewertet werden. Wettersatelliten liefern aktuelle Bilder im Stundentakt oder noch häufiger.

Abhängig vom jeweiligen Satellitensystem bilden Erdbeobachtungssatelliten den Globus in eintägigem oder mehrwöchigen Rhythmus ab. Die Daten werden gespeichert, so dass wiederholte Aufzeichnungen des gleichen Objekts verglichen werden können und somit eine kostengünstige Möglichkeit zum Monitoring von zeitabhängigen Veränderungen besteht.

Beispielsweise kann die Entwicklung von Feldfrüchten zu unregelmäßigen Abständen während der Wachstumsperiode durchgeführt werden, um Problemflächen auszumachen und um Erntevorhersagen zu treffen. Die EU setzt FE im Rahmen ihrer Gemeinsamen Agrarpolitik zur Subventionskontrolle ein.

bw_Landnutzung_lres
Beispiel für eine Landnutzungserhebung
aus Baden-Württemberg
mit Landsat-TM-Aufnahmen
aus den Jahren 1999 und 2000.

 

 



BW Landnutzung Legende




Zu größerer Darstellung auf Grafik klicken

Quelle: Geo-Bild
 

Fernerkundungsdaten liegen zumeist in digitaler Form vor oder können z.B. durch Scannen von Photos digitalisiert werden. Zudem sind sie häufig in Formaten erhältlich, die sie für geographische Informationssysteme (GIS) verwendbar machen. Wichtigste Schritte der Bildanalyse in der Fernerkundung sind Bildverbesserung, geometrische Rektifizierung der perspektiv und projektiv verzerrten Bilder (Geocodierung), Klassifizierung nach multispektralen, textur- und musterabhängigen Parametern, Einbeziehung von Expertenwissen und multitemporale Vergleiche.

Unter den Verfahren der FE sind jene besonders wichtig und am weitesten verbreitet, die zu einer bildhaften Wiedergabe der Erdoberfläche führen (abbildende FE-Systeme).
Unterschieden werden photographische (Luftbilder, z.T. auch von Satelliten oder aus dem Space Shuttle) und nicht-photographische Aufnahmeverfahren (digitale Bilder, Radaraufnahmen), die von bemannten Flugzeugen, unbemannten Flugobjekten (Drohnen), bemannten Raumfahrzeugen und Satelliten (Satellitenfernerkundung) oder auch von höher gelegenen Geländepunkten aus zur Erkundung der Erdoberfläche und der Atmosphäre genutzt werden.

Passive Fernerkundungsverfahren zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Meist handelt es sich um multispektrale Scanner. Deren punktbezogenen Messwerte liefern Rasterdaten des aufgenommenen Geländes.
Aktive Verfahren wie Radar oder Laser senden kohärente Strahlungsimpulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten Signale.

Die erfolgreiche Interpretation von Luft- und Satellitenbildern setzt voraus, dass der Bearbeiter die notwendige Sachkenntnisse hinsichtlich des Gegenstandes der Interpretation mitbringt. Dies kann die Anwendungsdisziplin betreffen (z.B. forstwirtschaftliche Kenntnisse für die forstliche Luftbildinterpretation) oder auch die Region (z.B. landeskundliche Kenntnisse zur Interpretation von Bildern aus einem Entwicklungsland). Auch ist in gewissem räumlichen Umfang eine detaillierte Verifikation wesentlich für den effektiven Einsatz von FE. Darüber hinaus sind Kenntnisse über die Entstehung der Bilder und ihre Eigenschaften erforderlich, um die durch die Interpretation gegebenen Möglichkeiten der Informationsgewinnung voll ausschöpfen zu können und Fehlinterpretationen nach Möglichkeit zu vermeiden.
Welche Nutzergruppen gibt es derzeit?

Die Nutzer von Fernerkundungsinformationen lassen sich grob in zwei Gruppen unterteilen: Es gibt einerseits die wissenschaftlichen Nutzer an Universitäten und Forschungszentren, die sich mit der Erforschung und Weiterentwicklung der Auswertetechniken und der Erschließung neuer Anwendungen befassen. Sie verwenden bevorzugt die Rohdaten bzw. die systemkorrigierten Daten. Die zweite Gruppe setzt sich aus behördlichen und industriellen Nutzern zusammen, die für die jeweilige praktische Anwendung vorverarbeitete Daten benötigen, bei denen die Bilder z.B. radiometrisch kalibriert und auf eine Kartenprojektion entzerrt wurden.

Zur Auswertung von Fernerkundungsdaten ist ein Standard-PC vollkommen ausreichend. Da die Bilddaten in Rasterform vorliegen ist mehr Speicher von Vorteil. Wesentlich ist aber eine Bildauswerte-Software, die es sowohl erlaubt, Bilder unterschiedlicher Formate in beliebiger Kanalkombination einzulesen, die aber auch Module zur radiometrischen Veränderung (z.B. Kontrastoptimierung), Filterung (Hoch-, Tiefpaßfilter), Bildarithmetik (Subtraktion, Maskierung) und Klassifizierung (Clustering) enthält. Solche Software wird als abgespeckte Public Domain bzw. Shareware (MultiSpec, ENVI-FreeLook), kostenlose oder preiswerte Schul-Software (LEOWorks, Landsat von Duttke, IDRISI) und professionelle Programm-Pakete (ERDAS, ARC-INFO) angeboten.

Taxonomie von Fernerkundungssystemen
Aufnahme-
plattform
Satellit/Raumfähre Flugzeug/Ballon Stationär
Aufnahme-
modus
passiv
(elektrooptisch, thermales Infrarot, thermale Mikrowelle)
aktiv
(Laser, Radar)
Aufnahme-
medium
analog
(Kamera, Video)
digital
(Whiskbroom, Line Array, 2D CCD)
Spektral-
bereich
sichtbar/ultraviolett reflektiertes Infrarot thermales Infrarot Mikrowelle
Spektrale
Auflösung
panchromatisch
1 Band
multispektral
2-20 Bänder
hyperspektral
20-250 Bänder
ultraspektral
>250 Bänder
Radiometrische
Auflösung
sehr hoch
(>12 Bit)
hoch
(8-12 Bit)
mittel
(6-8 Bit)
niedrig
<6 Bit)
Räumliche
Auflösung
ultrahoch
<1m
sehr hoch
1-4 m
hoch
4-10 m
mittel
10-50 m
niedrig
50-250 m
sehr niedrig
>250 m
übersetzt nach Ehlers, Janowsky & Gähler (2001): New Remote Sensing Concepts for Environmental Monitoring, Proceedings, SPIE Conference on Remote Sensing for Environmental Monitoring, GIS Applications and Geology, Toulouse

Für die Geowissenschaften liegen die Anwendungsbereiche der Fernerkundung in ihren unterschiedlichen Teilbereichen. Eine Auswahl:

  • Kartographie: als Grundlage von topographischen Karten und Landnutzungskarten in wenig durchforschten Gebieten, mittlere bis kleine Maßstäbe
  • Stereophotogrammetrik: Erstellung von digitalen Höhenmodellen sowie, bei höchstauflösenden Daten (z.B.: System IKONOS), Erstellung von Stadtplänen
  • Geologie und Petrographie: visuelles Erkennen von Störungs- und Zerrüttungslinien, in semiariden/ariden Gebieten Differenzierung von verschiedenen Gesteinszonen
  • Geomorphologie: visuelles Erkennen des morphologischen Formenschatzes
  • Landwirtschaft: umfangreiche Programme zu Ertragsaussichten, Anbauarten-Differenzierung, Anbau-Kontrollen in Stichproben für die EU -Agrarförderung
  • Forstwirtschaft und Global Change-Forschung: Deforestation, Waldschadensforschung, Desertifikation, globaler saisonaler Vegetationswandel, Urbanisierung
  • Katastrophenmonitoring, -management: Waldbrände (Ausmaß der Zerstörung), Vulkanaktivität (Vorhersage, Risikoanalyse und Überwachung), Erdbeben (Risikoanalyse, Höhenänderung), Umweltverschmutzung (Öleinleitung auf den Weltmeeren)

Hinsichtlich der Vorgehensweise lässt sich der Einsatz der Fernerkundung beispielhaft für die Geographie in einen fünfstufigen Prozess gliedern:

  • Entdeckung (reconnaissance)
  • Abbildung, Kartierung (mapping)
  • Inventarisierung (inventorying)
  • Überwachung (monitoring)
  • Vorhersagen (forecasting)

In einer Vision kann die Fernerkundung als Teil einer Dreiheit aus Fernerkundung (EO), Navigation (NAV) und Kommunikation (COM) gesehen werden, die es erlaubt, die sich in einer rasch ändernden Umwelt benötigten Informationen schnell, präzise, flächendeckend und kontinuierlich abrufbar zu machen. Die Bereitstellung solcher Informationen erfordert ein weitreichendes und stabiles Informationsnetz, das mit Hilfe des Zusammenschlusses von realisiert werden kann. Die Dreiheit Fernerkundung, Kommunikation und Navigation (EO/NAV/COM) gewinnt immer mehr an Bedeutung und spielt bereits heute eine signifikante Rolle in einigen wirtschaftlichen Zweigen. Ein Beispiel dafür ist das sogenannte Precision Farming-Konzept.

Das Zusammenwirken einzelner Wissenschaften in der Dreiheit EO/NAV/COM ist eine entscheidende Voraussetzung für die Realisierung der Vision. Mit dem Aufbau eines Netzwerkes von Fernerkundungssatelliten kann eine hochauflösende, kontinuierliche und flächendeckende Abbildung der Erdoberfläche zur Erfassung und Überwachung von aktuellen Ereignissen ermöglicht werden. Die Satellitenplattform wird in symbiotischer Weise EO/NAV/COM-Anwendungen unterstützen, so dass jeder Anwender die geforderte Information zu jedem Zeitpunkt am gewünschten Ort erhalten kann. Dadurch wird ein wichtiger Beitrag zur schnellen Informationsverbreitung geleistet, die zu einer Erhöhung der Sicherheit und damit auch zu einer Verbesserung der Lebensqualität führt. Darüber hinaus tragen die Informationen zu Verständnis und Erhalt unserer Umwelt bei, deren Nachhaltigkeit auch für weitere Generationen gewährleistet sein sollte.

Weitere Informationen (Auswahl, s.auch "interne Linklisten")

Fernerkundung der Meere

Erkundung des Meeres bzw. die Messung ozeanographischer Parameter mit den berührungsfreien Verfahren der Fernerkundung. Das Messinstrument befindet sich nicht in dem speziellen Wasserkörper, von dem ozeanographische Daten gewonnen werden sollen, sondern kann sowohl entfernt davon im Wasser als auch darüber platziert sein. Zu den ozeanographischen Fernerkundungsmethoden zählt auch die Vermessung des Ozeans mit akustischen Instrumenten, die sich im Wasser befinden (Hydrophone; Ocean Acoustic Tomography). Über dem Wasser können Fernmessinstrumente an der Küste oder auf Meeresplattformen, Schiffen, Hubschraubern, Flugzeugen oder Satelliten installiert sein. Insbesondere die Satellitenfernerkundung, die weltweite Messungen ermöglicht, hat in den letzten Jahren in der Ozeanographie große Bedeutung erlangt.

Einige mit Fernerkundung messbare ozeanographische Größen:

  • Rauhigkeit und die Neigung der Wasseroberfläche
  • Temperatur der obersten Wasserschicht
  • Meeresfarbe
  • Oberflächenströmung
  • langwelliger Seegang
  • Unterwasserbänke in Tidengewässern
  • interne Wellen
  • ozeanische Fronten und Wirbel
  • Ölflecken

Es werden große Anstrengungen unternommen, um ein Fernerkundungsgerät zu entwickeln, das in der Lage ist, auch den Salzgehalt der obersten Wasserschicht zu messen.
Diese direkt messbaren ozeanischen Größen enthalten auch Informationen, die nicht nur die Eigenschaften der Wasseroberfläche wiedergeben. So kann man aus Veränderungen der Rauhigkeit der Wasseroberfläche auch Informationen über Phänomene im Inneren des Ozeans erhalten, z.B. über interne Wellen, und aus Veränderungen der Neigung Rückschlüsse über das ozeanische Strömungsfeld ziehen.
Die elektromagnetischen Wellen, die zur Fernerkundung des Meeres von Satelliten aus verwendet werden, reichen von ultravioletten bis zu Mikrowellen im Bereich von Zentimetern bis Dezimetern. Von der Küste aus werden auch Hochfrequenz-Radare zur Messung von Meeresoberflächenströmungen eingesetzt. Generell kommen sowohl aktive, wie auch passive Sensoren zum Einsatz. Zu den passiven Sensoren gehören photographische Kameras, multispektrale Scanner und Radiometer, die sowohl im infraroten, sichtbaren und ultravioletten Wellenlängenbereich als auch im Mikrowellenbereich arbeiten. Fotokameras und multispektrale Scanner werden zur Messung der Ozeanfarbe verwendet und Radiometer zur Messung der Wassertemperatur und Windgeschwindigkeit. Zu den aktiven Sensoren gehören das Windscatterometer, das Radaraltimeter und die abbildenden Radargeräte wie das Radar mit realer Apertur (Real Aperture Radar, RAR) und das Radar mit synthetischer Apertur (Synthetic Aperture Radar, SAR).

Weitere Informationen:

Fernerkundungsdaten

Geophysikalische Daten, die mit Hilfe von Satelliten (Satellitenbilder) oder Flugzeugen (Luftbilder), bzw. anderen Luftfahrzeugen über Objekte, Gebiete und Phänomene gewonnen und analysiert werden können, ohne dass ein direkter Kontakt mit den Messobjekten besteht. Sie resultieren im Satelliten i.d.R. als digitale Daten in Rasterform, während bis vor wenigen Jahren im Flugzeug noch oftmals das analog auf Filmmaterial aufgezeichnete Bild entstand und anschließend am Boden mittels Film- oder Photoscannern gescannt wurde. Die durch die Fernerkundung gewonnenen Primärdaten werden mit Hilfe von digitaler Bildverarbeitung und daraus entstehenden Sekundärdaten in ein- und mehrfarbige Bilder oder Landkarten umgewandelt, bzw. sind für die Analyse in Geographischen Informationssystemen (GIS) und Klimamodellen verwendbar. Seltener liegen Daten als Zahlenwerte in Tabellenform vor.

Fernerkundungsdaten können sowohl ausgemessen (Photogrammetrie) als auch interpretiert bzw. klassifiziert werden (Bildinterpretation, im engeren Sinne manchmal unter Fernerkundung verstanden) und ergeben dann Geoinformationen.

In Fernerkundungsdaten sind stets geometrische, radiometrische und temporale Informationen gespeichert. Geometrische Informationen werden mathematisch und radiometrische Informationen werden physikalisch ausgewertet. Der geometrische Aspekt sagt etwas darüber aus, aus welcher räumlichen Richtung die Information stammt, der physikalische Aspekt sagt etwas über die Intensität und die spektrale Zusammensetzung der Strahlung aus. Die temporale Komponente der Daten gibt Auskunft über den Zustand der Erdoberfläche zum Aufnahmezeitpunkt evtl. im Vergleich zu anderen Zeitpunkten.

Fernerkundungsdaten sind insbesondere in den Geowissenschaften / Geographie von großer Bedeutung, da eine globale Beobachtung der Erdoberfläche/Atmosphäre in hoher räumlicher Auflösung nur mit Hilfe von Fernerkundungssensoren möglich ist. Neben dem synoptischen Überblick über große Räume ermöglichen satellitengestützte Fernerkundungssensoren zudem eine wiederholte (zum Teil tägliche) Abdeckung ein und desselben Gebietes.

Die grob auflösenden, aber global aufgezeichneten Daten werden vorwiegend für wetter- und klimarelevante Untersuchungen verwendet (Wetterbeobachtung, Strahlungshaushalt der Erde, Meereisbedeckung, Oberflächentemperatur), die hochauflösenden Daten hingegen zur topographischen und thematischen Kartierung (Bildkarten, Landnutzung, Vegetation, mineralogische Prospektion) sowie als Planungsgrundlage.

Auf Grund der hohen Wiederholrate eignen sich die Daten aus dem Weltraum aber vor allem für die Dokumentation dynamischer Vorgänge, vor allem beim Umwelt-Monitoring (Desertifikation, Waldvernichtung, Klimazonenverschiebung).

Hinsichtlich der Nutzer sind zunächst die Wissenschaftler an Universitäten und Forschungszentren zu nennen, die sich mit der Erforschung und Weiterentwicklung der Auswertetechniken und der Erschließung neuer Anwendungen befassen. Sie verwenden bevorzugt die Rohdaten bzw. die systemkorrigierten Daten. Die zweite Gruppe setzt sich aus behördlichen und industriellen Nutzern zusammen, die für die jeweilige praktische Anwendung vorverarbeitete Daten benötigen, bei denen die Bilder z.B. radiometrisch kalibriert und auf eine Kartenprojektion entzerrt wurden.

Die automationsgestützte Auswertung von Fernerkundungsdaten hat Vorteile gegenüber manuellen Verfahren. So sind die Auswertungen nachvollziehbar und wiederholbar. Dadurch können sie jederzeit kontrolliert werden, da festgelegte Regeln benutzt werden. Die Erhebungsmethoden lassen sich auf andere Daten übertragen. So können sie auch für Bilddaten anderer Gebiete genutzt werden, wodurch räumlich vergleichbare Ergebnis entstehen. Ferner können die Methoden auch auf Daten desselben Gebietes angewendet werden, die zu anderen Zeitpunkte aufgenommen werden, und somit zeitlich vergleichbare Ergebnisse entstehen.

Ein aktueller Standard PC ist vollkommen ausreichend. Da die Bilddaten in Rasterform vorliegen ist mehr Speicher von Vorteil. Wesentlich ist aber eine Bildauswerte-Software, die es sowohl erlaubt, Bilder unterschiedlicher Formate in beliebiger Kanalkombination einzulesen, die aber auch Module zur radiometrischen Veränderung (z.B. Kontrastoptimierung), Filterung (Hoch-, Tiefpaßfilter), Bildarithmetik (Subtraktion, Maskierung) und Klassifizierung (Clustering) enthält. Solche Programme werden als abgespeckte public domain-Software (MULTISPEC, ENVI-FREE), preiswerte oder kostenlose Software für den Bildungsbereich (Duttke, LeoWorks, IDRISI) sowie als professionelle Programm-Pakete (ERDAS, ARC-INFO) angeboten (vgl. Software-Liste).

Weitere Informationen:

Fernerkundungssatellit

Engl. remote sensing satellite; Satellit zur Beobachtung der Erdoberfläche und der Atmosphäre mit Hilfe von an Bord befindlichen Sensoren.
Satellitenfernerkundung wird z.Z. im wesentlichen betrieben von den USA, Rußland, China, Indien, Frankreich, Kanada, Brasilien und im Rahmen der ESA von Europa. Deutschland hat Sensoren für die ERS-Satelliten und den ENVISAT der ESA (SCIAMACHY, MIPAS), für Space Shuttle-Missionen und für die MIR entwickelt sowie die Kleinsatelliten Champ und Grace.

  • Aufbau von Fernerkundungssatelliten
    Fernerkundungssatelliten tragen an Bord oft mehrere Sensorsysteme, die für unterschiedliche Beobachtungsobjekte konstruiert wurden. Dafür werden auch verschiedenartige Detektor-Technologien verwendet. Auf dem Satelliten ERS-2 befinden sich z.B. ein aktives abbildendes Radar zur Kartierung der Erdoberfläche und der Ozeane, ein Radaraltimeter zur Bestimmung der Geländehöhe, ein passives Mikrowellengerät zur Temperaturmessung, ein Ozonsensor sowie ein abbildendes Radiometer zur wissenschaftlichen Untersuchung von Landoberfläche, Atmosphäre, Ozeanen und Kryosphäre. Darüberhinaus gibt es das Datenübertragungssystem, das Telemetriesystem und die Instrumente zur Positionsbestimmung.
  • Unterscheidungsmerkmale verschiedener Sensorsysteme
    Die verwendete Optik bzw. Antenne legt die Größe der beobachteten Region und die räumliche Auflösung fest, die verwendeten Halbleiterdetektoren sind für unterschiedliche Spektralbereiche ausgelegt, und der Bahnverlauf (Orbit) bestimmt die Überflugszeiten und Wiederholraten sowie ebenfalls den Beobachtungsbereich.
  • Aktive und passive Sensoren
    Passive Sensoren messen das von der Erdoberfläche oder Atmosphäre gestreute Sonnenlicht, oder die Wärmestrahlung der beobachteten Objekte. Aktive Systeme, wie z.B. Radar und Laser senden selbst Signale aus und messen die Rückstreuung durch die beobachteten Objekte. Sie können daher auch nachts eingesetzt werden.
  • Bildwiederholrate
    Diese hängt von der Streifenbreite ab, geostationäre Sensoren können alle 30 min ein Bild liefern, ein "weitwinkliger" Sensor mit einer Schwadbreite von 2.000 km erfaßt einen Ort auf der Erde mehr als 10 mal am Tag, während Systeme mit großen Brennweiten und Streifenbreiten von 30 km ein Gebiet nur etwa einmal im Monat erfassen.
  • Erkennbare Objektgröße
    Die räumliche Auflösung (Pixelgröße) ist i.a. umgekehrt proportional zur Streifenbreite und hängt von der Optik bzw. Antennenapertur ab. Sie beträgt 5km x 5km bei METEOSAT, 1km x 1km bei NOAA-AVHRR, 30m x 30m bei LANDSAT und 1m x 1m bei den 1999 und 2000 gestarteten Systemen. Im militärischen Bereich sind Systeme mit Dezimeterauflösung bekannt.
  • Konflikt: hohe räumliche Auflösung vs. Datenmenge
    Das Problem ist die Datenmenge, die zu den Empfangsstationen am Boden übertragen werden muß. Diese wird durch die Übertragungsfrequenz (X-Band) beschränkt, da an Bord nur minimale Speichermöglichkeiten gegeben sind. Eine Verbesserung der Pixelgröße um den Faktor 2 bedeutet eine 4-fache Datenmenge pro aufgezeichnetem Spektralkanal. Bei Landsat TM würde der Schritt von 30m Pixeln zu 15m Pixeln bei 7 Kanälen die 28-fache Datenmenge ergeben, d.h. ein Bild würde anstatt 250 Byte dann 7 GByte groß werden. Aus diesem Grund bedingen sich Streifenbreite und Pixelgröße wechselseitig.
  • Spektralbereiche der Sensoren
    Zunächst einmal natürlich im sichtbaren Licht (400 nm - 700 nm), wobei in vielen Fällen noch die Aufspaltung durch Filter oder Beugungsgitter in blaues, grünes und rotes Licht vorgenommen wird, die jeweils einem eigenen Detektor zugeleitet werden. Ebenso wird der Infrarotbereich von 700 nm bis 12500 nm in nahes (NIR), kurzwelliges (SWIR) und thermisches Infrarot (TIR) aufgesplittet. Radarsensoren arbeiten im Mikrowellenspektrum mit Wellenlängen zwischen 1 cm bis 1 m. Atmosphäreninstrumente beobachten darüber hinaus noch im Ultraviolett. Je nach Anzahl der Spektralkanäle spricht man von einem Panchromatischen Sensor (1 Kanal), Multispektralscanner (2 bis ca. 10 Kanäle) oder von einem Spektrometer (bis zu 2.000 Kanäle).
  • Arbeitsweisen von Satellitensensoren
    Im Einsatz sind zwei Verfahren. Zum einen kann (wie beim SPOT Instrument) die Blickrichtung des Sensors senkrecht zur Bahn verschwenkt werden. Damit wird das gleiche Gebiet bei unterschiedlichen Überflügen unter verschiedenen Blickwinkeln aufgezeichnet. Der Nachteil liegt in den nicht identischen Beleuchtungsbedingungen. Das zweite Verfahren beruht auf der Verfügbarkeit zweier identischer Instrumente an Bord, von denen eines in Bahnrichtung nach vorne, das andere nach hinten zeigt. Die Stereo-Paare werden somit bei einem Überflug aufgezeichnet. Dieses Prinzip wird beim MOMS-2P Sensor angewandt.
  • Betriebsdauer
    Die Betriebsdauer wird zum einen durch den Treibstoffvorrat an Bord begrenzt, da die Bahn immer wieder korigiert werden muß, zum anderen bewirkt die kosmische Strahlung Alterung und Defekte bei den Sensoren und den elektronischen Steuerelementen. Man setzt etwa 5 Jahre als mittlere Lebensdauer an. Viele Systeme sind daher als Satellitenserie mit diesem Zyklus konzipiert.
Fernerkundungssensor

Engl. sensor, franz. capteur; nach DIN 18716 ein "abbildendes, aktives oder passives Instrument, welches als wesentliches Bauteil ein oder mehrere Detektoren umfasst".

Verschiedenste erdnahe Satelliten tragen eine Vielzahl von Sensoren an Bord, die u.a. Daten über die Erdoberfläche aufzeichnen. Ebenso werden mehr und mehr Sensoren an Bord der Bildflugzeuge miteinander kombiniert. Fernerkundungssensoren an Bord von Satelliten lassen sich nach ihrem Aufzeichnungsprinzip folgendermaßen unterteilen:

  • Analoge Aufzeichnungsgeräte fanden sich u.a. bei den Satellitensystemen Gemini (Hasselblad), Skylab (Multispectral Photographic Camera und Earth Terrain Camera) sowie bei Space-Shuttle-Missionen (Metric Camera (MC), Large Format Camera (LFC)) und der Cosmos-Mission (Kosmicheskij Fotoapparat KFA-1.000). Diese zeichnen auf Film auf und werden mit klassischen analytischen Auswertegeräten bearbeitet oder gescannt und dann digital ausgewertet.
  • Passive Sensoren, die Strahleninformation nur empfangen, digital aufzeichnen und zur Erde übermitteln, sind heute die üblichen Datensammler, mit deren Daten Fernerkundungsauswertungen durchgeführt werden, und die auch grosse Bedeutung für GIS-Anwendungen besitzen. Sowohl Reflektionen im Bereich des sichtbaren elektromagnetischen Spektrums als auch Emissionen im Thermalbereich werden aufgezeichnet. Einzelne Missionen z.B. mit dem Space-Shuttle (Modular Optoelectronic Multispectral Stereo Scanner (MOMS-01, MOMS-02)) oder auf der MIR-Station (MOMS-02P) ergaben kurzzeitig Bildmaterial von regionalen Bereichen der Erdoberfläche. Die Inbetriebnahme von weiteren Satellitensystemen mit passiven Fernerkundungssensoren ist für die nächsten Jahren geplant. Interessant wird dabei deren schnelle Verfügbarkeit für den Nutzer sein; so sind bedarfsbezogene Lieferzeiten von der Aufnahme bis zum Konsumenten im Stundenbereich anvisiert, welches insbesondere GIS-Anwendungen im Umweltbereich (Land- und Forstwirtschaft) nahekommt. Auch die Repetitionsraten liegen mit wenigen Tagen deutlich höher als bei der bisher verfügbaren Satellitengeneration. Das Along-Track Scanning Radiometer and Microwave Sounder (ATSR-M) ist ein passiver vierkanaliger Radiometer im infraroten Bereich zur Messung von Wasser- und Wolkenoberflächentemperaturen und einem passiven Mikrowellensensor zur Messung des Wassergehalts der Atmosphäre.
  • Aktive Sensoren benutzen das Objekt als Reflektor der von ihnen ausgesendeten und wiederempfangenen Strahlung, z.B. auf der Basis von Mikrowellen. Sie befanden sich z.B. an Bord von Seasat-1 [Synthetic Aperture Radar (SAR), Scanning Multichannel Microwave Radiometer (SMMR)], deren Informationen zusätzlich zu den von passiven Sensoren gewonnenen Daten zur Fernerkundungsauswertung hinzugezogen werden. Weitere Beiträge hierzu leistet der erste europäische Fernerkundungssatellit (ERS-1) mit mehreren aktiven Sensoren, so z.B. dem Precise Range and Rate Equipment (PRARE), einem sehr genauen Entfernungsmeßsystem auf Mikrowellenbasis, das die Satellitenbahndaten bis in den Dezimeterbereich bestimmt. Das Radaraltimeter RA auf ERS erlaubt eine sehr präzise Messung der Entfernung zwischen Satellit und der Erdoberfläche im Nadirpunkt, über offenem Wasser und glatten Eisflächen mit bis zu 10-20 cm Genauigkeit. Das Active Microwave Instrument (AMI), der Hauptsensor, ist ein multifunktionaler Radarsensor mit einer Frequenz von 5,3 GHz und einer Streifenbreite von 80 km, der zu unterschiedlichen Zwecken betrieben werden kann, so z.B. zur Windmessung (Windstärke und -richtung), zur Wellenmessung (Wellenhöhe und -länge) und als SAR mit einer Rastergröße von 30x30 m.
Fernerkundungssystem

Engl. remote sensing system, franz: système de télédétection; auf einer Plattform installiertes Sensorsystem der Fernerkundung, das der abbildenden oder nicht abbildenden Erfassung von objektrelevanter elektromagnetischer Strahlung dient. Eine große Zahl von FE-Systemen auf Satellitenplattformen dient der operationellen, d.h. in gleichen Zeitabständen wiederholbaren Aufnahme von Phänomenen der Erdoberfläche einschließlich der Ozeane sowie der Atmosphäre.

DIN 18716 definiert den Begriff als "Gesamtheit der Komponenten, die für die Aufnahme von Fernerkundungsdaten notwendig sind" und hat folgende
Anmerkung: "Komponenten von Fernerkundungssystemen sind neben den Sensoren und Plattformen weitere Hilfseinrichtungen, z. B. Lage- und Positioniersysteme".

Schema Elektromagnetische Fernerkundung der Erdoberfläche
Schema
'Elektromagnetische Fernerkundung
der Erdoberfläche'




Zu größerer Darstellung auf Grafik klicken


Quelle:
S. Crewell Uni Bonn (R.o.)

 
Schema Elektromagnetische Fernerkundung der Erdoberfläche

Fernerkundungssysteme können nach verschiedenen Gesichtspunkten eingeteilt werden. Nach der Quelle der empfangenen Strahlung unterscheidet man passive (Fernerkundungs)Systeme und aktive Systeme. Passive Systeme benutzen die von Natur aus vorhandene Strahlung wie das Sonnenlicht oder die Strahlung, die von Körpern an der Erdoberfläche selbst abgegeben wird. Aktive Systeme erzeugen ihre Strahlung selbst und messen dann die von der Erdoberfläche reflektierte Strahlung. Eine weitere Gliederung der Fernerkundungssysteme ergibt sich aus der Art der verwendeten Strahlungsempfänger. Die für die Erdbeobachtung wichtigsten Systeme sind: Photographische Systeme, Abtast (Scanner)-Systeme und Radarsysteme unterschieden. Diese Systeme nehmen digital oder analog Daten auf.

Fernerkundungssysteme erlauben es, spektrale Bereiche zu betrachten, die für das menschliche Auge unsichtbar sind. Unsichtbare Eigenschaften der Oberfläche werden durch sie sichtbar gemacht.

Fernerkundungsverfahren

Ein (Bild)aufzeichnungsverfahren mit elektromagnetischen Wellen unterschiedlichster Spektralbereiche, aber auch mit Hilfe von Schallwellen (SODAR) insbesondere aus Luft- und Raumfahrzeugen, daneben auch bodengestützt.
Bei abbildenden Verfahren sind es neben der Photographie im sichtbaren Bereich z.B. die Aufnahmesysteme in den Bereichen des nahen, mittleren und fernen Infrarot, der Radar- und Mikrowellen sowie des Ultravioletts.

fernes Infrarot (FIR)

Elektromagnetische Strahlung, die länger ist als das thermische Infrarot, mit Wellenlängen zwischen ca. 25 und 1.000 Mikrometern (Angaben uneinheitlich).

Fernmeldesatelliten

Syn. Telekommunikationssatelliten; Satelliten, die für die allgemeine Telekommunikation bereitgestellt werden. Dazu zählen nationale und internationale

  • Telefon- und Telefaxverbindungen,
  • Telexverbindungen,
  • Datenverbindungen und
  • Verbindungen für Hörfunk- und TV-Übertragungen.

Diese Satelliten nutzen koordinierte Frequenzbänder, die auch anderen - terrestrischen - Funkdiensten zur Nutzung freigegeben worden sind. Fernmeldesatelliten bestehen aus einem raumfahrttechnischen und einem nachrichtentechnischen Subsystem.

Zum raumfahrttechnischen Subsystem zählen im Wesentlichen

  • die Stabilisierungs- und Positionierungseinrichtungen,
  • die Einrichtungen zur Wärmeregelung und
  • die Steuereinrichtungen.

Zum nachrichtentechnischen Teil gehören

  • die Antennen,
  • die Transponder und
  • die Fernmess- und Fernsteuereinrichtungen (TT&C - Telemetrie, Tracking & Command).

Die nutzbaren Frequenzbereiche des Satellitenfunks werden von der Weltfunkkonferenz (World Radiocommunication Conference, WRC) der ITU festgelegt. Für Satellitenfunkanwendungen, die als Bestandteil terrestrischer Netze anzusehen sind, sind dies vornehmlich die Bereiche

  • von 1,5-1,6 GHz (L-Band) für mobilen Satellitenfunk im Verkehr zwischen Satellit und den mobilen Satellitenfunkstellen,
  • von 2 GHz (S-Band) für die Nutzung als Downlink für mobilen Satellitenfunk (MEO- und LEO-Systeme),
  • von 4-6 GHz (C-Band) für die Nutzung als Down-/Uplink zwischen den Erdfunkstellen und den Satelliten.

Die Satellitenbahn (Orbit) hat wesentlichen Einfluss auf die Anwendungsbereiche und -gebiete des für die Kommunikation genutzten Satelliten. Satellitenbahnen unterscheiden sich nach ihrer Lage, ihrer Form und der Höhe des Satelliten. Bis heute werden Fernmeldesatelliten vorzugsweise in eine kreisförmige Äquatorialbahn gebracht, deren Bahnhöhe 35.780 km beträgt. Satelliten auf dieser Umlaufbahn (Orbit) umkreisen die Erde in 24 Stunden, sodass sie keine Relativbewegung zur Erde haben. Sie werden deshalb auch als geostationäre Satelliten bezeichnet. Daneben plant man, bei zukünftigen kommerziellen Systemen die Satelliten auf einem niedrigeren Orbit die Erde umkreisen zu lassen. Dabei gilt, dass die Satelliten umso schneller die Erde umkreisen müssen, je niedriger die Bahnhöhe der Satelliten ist, da nur durch eine höhere Fliehkraft die dann größere Erdanziehung ausgeglichen wird. Im Gegensatz zu den geostationären Satelliten führen diese Satelliten (nichtgeostationäre Satelliten) eine Relativbewegung zur Erde aus. Sie bewegen sich im sog. "Non Geostationary Satellite Orbit (NGSO)".

Feuermonitoring

Überwachen von Bränden, vorwiegend von Wald- und Buschbränden sowie von Kohlefeuern (z.B. China) besonders mit Hilfe von Verfahren der Fernerkundung. Unter Einbeziehung von z.B. Vulkaneruptionen in die Gruppe solcher Ereignisse spricht man auch von Hochtemperaturereignissen (HTE). Mit dem Kleinsatelliten BIRD betreibt das DLR seit 2001 ein weltweit einzigartiges System als Technologie-Demonstrator zur Erkennung, Georeferenzierung und geophysikalischen Charakterisierung von HTE bezüglich Ausdehnung, Temperatur, Energie. Mit gleicher wissenschaftlicher Instrumentierung setzt das DLR auch ein flugzeuggetragenes System (ABAS) erfolgreich zur Beobachtung von Waldbränden ein.

Weitere Informationen:

Filter

Engl. filter; Material, das die durch ein optisches System übertragene Strahlung in selektiver Weise verändert. Der Einsatz von Filtern dient in der Fernerkundung unterschiedlichsten Zwecken.

FIR

Engl. Akronym für Far Infra-Red, dt. fernes Infrarot, Bezeichnung für den Wellenlängenbereich des elektromagnetischen Spektrums von ~15,0 µm - ~0,1 cm.

FIRE

Engl. Akronym für Fire in Global Resources and Environmental Monitoring; Projekt zur satellitengestützten Datenerfassung über die Entwicklung der tropischen Regenwälder. Die in ein GIS integrierten Daten leisten einen nützlichen Beitrag zum Verständnis der komplexen Interaktionen zwischen Wald, Abholzung und Bevölkerung.

FireBIRD

Die FireBird Mission ist eine Satellitenkonstellations-Mission. Das Hauptmissionsziel ist die Beobachtung von Hoch-Temperatur-Ereignissen auf der Erde (z. B. Waldbrände) mittels hochauflösender Infrarotsensoren.

Das Raumsegment besteht aus den beiden Satelliten TET (Technologie-Erprobungsträger) und BIROS (Berlin InfraRed Optical System). Der Satellit TET ist seit Juli 2012 in einer polaren Umlaufbahn und hat den ersten Teil seiner Mission als Technologie-Erprobungsträger erfolgreich abgeschlossen. Der Satellit BIROS hat den gleichen Bus wie TET, wird allerdings zusätzlich mit einem Antriebssystem für aktive Lage- und Bahnregelung ausgestattet sein. BIROS wird im zweiten Quartal 2015 starten. Hauptnutzlast beider Satelliten ist ein multispektrales Kamerasystem.

Der BIROS Satellit wird zudem als Validierungsplattform für weitere innovative Technologie-Experimente dienen. Dazu gehören eine autonome Anflugnavigation, neuartige Reaktionsräder für größere Agilität eines Satelliten, ein optischer Space-to-Ground Link für hohe Datenraten, eine autonome An-Bord Missionsplanung sowie eine An-Bord Bildanalysesoftware.

Das Deutsche Raumfahrtkontrollzentrum (GSOC) wird die Mission in allen Missionsphasen durchführen. Das GSOC ist verantwortlich für die Überwachung und Kontrolle der Raumfahrzeuge, für die Missionsplanung, für die Bestimmung und Kontrolle von Lage und Orbit sowie für die Identifizierung und Behandlung von Anomalien. Außerdem stellt es Telemetriedaten für externe Nutzer bereit und ist zuständig für Trainings und Simulationen für das Flight Operations Team.

Weitere Informationen:

FIS - Fernerkundung in Schulen

Projekt der Arbeitsgruppe Fernerkundung des Geographischen Instituts der Universität Bonn mit dem Ziel, der nachhaltigen und fächerübergreifenden Integration des Themas Fernerkundung im Schulunterricht der Sekundarstufe I & II. Seit dem Start im Jahr 2006 wird das Projekt durch das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und durch das Bundesministerium für Wirtschaft und Technologie (BMWi) gefördert. Der Schwerpunkt des Projektes liegt in der Entwicklung und Implementierung digitaler und interaktiver Lernmodule, die auf den Prinzipien des moderaten Konstruktivismus und des entdeckenden Lernens basieren. Den Kern der Unterrichtsmaterialien bilden interaktive Analysetools der digitalen Bildanalyse. Mit Hilfe dieser Tools können die Schülerinnen und Schüler lehrplanspezifischen Problem- und Fragestellungen bearbeiten und werden so in die Methoden und die Arbeitsweisen der Fernerkundung eingeführt.

fis_konzept

Struktur der FIS-Lernmodule


Um die Struktur und die Nutzung der FIS-Lernmodule so einfach wie möglich zu halten, stehen in den Lernmodulen jeweils nur die benötigten Funktionen der Bildverarbeitung zur Verfügung. Für eine unkomplizierte Handhabung sind diese Funktionen inhaltlich und technisch neu gestaltet. Aus dem Zusammenspiel von Arbeitsanweisungen, anschaulich aufbereiteten Hintergrundinformationen und Werkzeugen zur digitalen Bildanalyse entsteht ein Lernkomplex, der die Medien- und Methodenkompetenz sowie das eigenständige Arbeiten der Schülerinnen und Schüler nachhaltig fördert.



Zu größerer Darstellung auf Grafik klicken


Quelle: A. Rienow (GIUB)
 

Die technischen und physikalischen Grundlagen der Fernerkundung werden in den Fächern Mathematik, Physik und Informatik thematisiert, wohingegen die Verarbeitung und Analyse von Fernerkundungsdaten Gegenstand der anwendungsnahen Fächer Geographie und Biologie sind.

fis_ueberschwemmung

Beispielbildschirm


Ein Beispiel für ein digitales FIS-Lernmodul ist die Unterrichtseinheit „Hochwasser“. Sie gehört in das Themenfeld "Gefährdung von Lebensräumen" und hat zum Ziel, die Lernenden in Bezug auf Raumwahrnehmung und -bewertung zu schulen. Durch das Arbeiten mit verschiedenen Satellitendaten lernen die Schülerinnen und Schüler Naturgefahren und deren Auswirkungen einzuordnen.

Zu größerer Darstellung auf Grafik klicken


Quelle: A. Rienow (GIUB)
 

Die interaktiven Lernmodule sind in das Online-Portal des Projektes eingebettet, in welchem Lehrer die Möglichkeit haben, eigene Klassen anzulegen und zu verwalten. So können sie die individuellen Lernfortschritte ihrer Schülerinnen und Schüler auswerten. Diese wiederum können die Module jederzeit online ausführen und ihre Zwischenergebnisse speichern. Zusätzlich zu den Modulen gibt es Recherche- und Analysetools. Hier befinden sich eine Info-Box zur Fernerkundung für Einsteiger und Profis, eine Bildergalerie mit faszinierenden Satellitenbildern sowie Werkzeuge zur eigenständigen Klassifikation von Satellitenbildern oder zur Wettervorhersage.

Weitere Informationen:

Fläche

Engl. area; eine geschlossene geometrische Figur in zwei Dimensionen, die von einem oder mehreren Liniensegmenten begrenzt wird, die eine homogene Fläche einschließt und die üblicherweise zweidimensional dargestellt wird. Sie wird i.d.R. geometrisch durch eine Folge von Koordinatenpaaren beschrieben. Flächen können auch Inseln (Aussparungsflächen) beinhalten, die durch ein Innenpolygon und ein Außenpolygon bei Vektordaten beschrieben werden.
Bei Rasterdaten ist bereits das Grundelement, das Pixel, eine Fläche, da es eine bestimmte Ausdehnung besitzt. Beispiele für flächenhafte Phänomene in GIS sind Staaten, Seen oder Parzellen.

Flughöhe

Engl. flying height, altitude, franz. altitude de vol; die Höhe, aus der Luft- und Satellitenbilder aufgenommen werden. Flughöhe über Normalnull (NN) bezeichnet dabei die absolute Höhe über der Niveaufläche NN. Bei der Aufnahme vom Flugzeug aus wird sie in der Regel auf eine mittlere Geländehöhe bezogen und als Flughöhe über Grund angegeben. Bei der Aufnahme vom Satelliten aus wird die ungefähre Bahnhöhe über dem Meeresspiegel angegeben.
DIN 18716 formuliert: "vertikaler Abstand des Sensors bzw. der Plattform von einer Bezugshöhe im Gelände", dabei wird angemerkt: "Bei der Aufnahme vom Flugzeug aus wird sie in der Regel auf eine mittlere Geländehöhe bezogen und als Flughöhe über Grund angegeben. Bei der Aufnahme vom Satelliten aus wird die ungefähre Bahnhöhe über dem Meeresspiegel angegeben".

Flugweg über Grund

Engl. flight line oder ground track, franz. trajet de survol; theoretische Spur auf der Erdoberfläche, die ein unmittelbar darüber vorbeiziehender Satellit oder ein Flugzeug hinterlässt.

Flugzeug

Ein Luftfahrzeug der Gruppe „schwerer als Luft“, das den zum Fliegen erforderlichen Auftrieb aus seitlich ein einem Rumpf angebrachten Tragflächen bezieht.
Um ein Flugzeug im Rahmen der Fernerkundung einsetzen zu können, müssen verschließbare Bodenöffnungen eingebaut werden, in die die verschiedenen Kamera- und Sensortypen, wie z.B. Multispektralkamera und -abtaster, Infrarotabtaster, Radar- und Lasersysteme, eingebaut werden können. Die Flughöhen variieren bei der Beobachtung der Erdoberfläche je nach gewünschtem Maßstab, Auflösungsvermögen und verwendeten Aufnahmegeräten zwischen knapp 1000 m und 15.000 m. Bei der Atmosphärenerkundung ist sie von der Höhenlage der zu beobachtenden Luftschicht abhängig.
Flugzeuggestützte Systeme dienen auch der Erprobung neuer Technologien, die bei zukünftigen Satellitenmissionen erst noch zum Einsatz kommen sollen. Ebenfalls bei der Validierung von Satellitenmissionen (zum Beispiel CALIPSO) kommen Flugzeuge zum Einsatz. Dabei lässt sich eine Verbindung zwischen den sehr detaillierten, aber zeitlich begrenzten flugzeuggetragenen Messungen mit den räumlich hochaufgelösten, aber geringeren Detailinformationen aus der Satellitenbeobachtung herstellen.
Während zu Beginn der flugzeuggestützten Fernerkundung photogrammetrische Kameras Luftbilder im Bereich des sichtbaren und infraroten Spektrums lieferten, sind es seit etwa zwanzig Jahren vorwiegend multispektrale und hyperspektrale Systeme. Diese Geräte erfassen vom Flugzeug aus den Anteil der Sonnenstrahlung im sichtbaren Teil des Spektrums, den die Erdoberfläche reflektiert. Im infraroten Spektralbereich beobachten sie die ausgesandte Wärmestrahlung. Anders als bei der klassischen Luftbildkamera, die eine Szene in drei breitbandigen Kanälen (rot, grün, blau) aufnimmt, arbeiten die Hyperspektralsensoren in vielen, zum Teil mehreren hundert schmalen Spektralkanälen.
Bei der Auswertung der Hyperspektralbilder ermöglicht das Reflexions- beziehungsweise Emissionsverhalten der verschiedenen Oberflächen (zum Beispiel Vegetation, Böden, Gewässer, Straßen und Gebäude) die Identifikation von Objekten, die Zustandsbeschreibung der Oberflächen und deren Klassifizierung. Darüber hinaus lassen sich etwa Minerale im Gestein identifizieren oder Algenwuchs in Flachgewässern überwachen. Selbst ob Pflanzen unter Dünger- und Wassermangel leiden, lässt sich so aus der Luft feststellen.

Für den Einsatz von Flugzeugen als Träger für Fernerkundungssystemen ergeben sich folgende Vor- und Nachteile:

Vorteile Nachteile
  • hohe räumliche Auflösung
  • Möglichkeit zur Optimierung für eine bestimmte Aufgabe bei jedem Flug
  • Austausch von Instrumenten zwischen verschiedenen Flügen oder sogar während eines Fluges möglich
  • Mitflug von Personal erlaubt Überwachung der Geräte und Behebung von Fehlern
  • individuelle Festlegung der Flugroute und Flugzeit
  • Auswahl des Beobachtungswinkels und der Sonnenposition
  • Festlegung der Flüge in Abhängigkeit von den Wetterbedingungen
  • Variation der Flughöhe
  • schnelle Reaktion und operativer Einsatz bei unvorhersehbaren Situationen möglich
  • Anforderungen hinsichtlich der Zulassung von Geräten für Flugzeuge leichter erfüllbar als solche für Weltraumbedingungen
  • Geräte in Kabinen mit Druckausgleich betreibbar
  • nationale Lufthoheit, Korridore, Vorschriften bezüglich der Höhe
  • begrenzte Messzeit und begrenzter Aktionsradius
  • sehr teuer bei häufigem Einsatz
Flugzeugscanner

Engl. airborne scanner, franz. scanneur aéroporté; nach DIN 18716 "für den Einsatz auf Flugzeugplattformen konzipierter Scanner".

Footprint

Engl. für 'Fußabdruck'; Bereich auf der Erdoberfläche, in dem Signale eines Satelliten (z.B. zur Telekommunikation) empfangen werden können, somit der Ausleuchtbereich eines Satelliten.

FormosSat-1

Bis Dezember 2004 ROCSAT-1 genannter Erdbeobachtungssatellit zur Beobachtung der Ozeane und Erforschung der Ionosphäre. Er wird von der taiwanesischen Weltraumorganisation National Space Organization betrieben und ist der erste Satellit der Republik China (Taiwan). Der Start erfolgte am 16. Januar 1999 mit einer Athena-I-Rakete von der Cape Canaveral Air Force Station in Florida.

FormoSat-2

FormoSat 2 ist der zweite hoch auflösende optische Erdbeobachtungssatellit für die taiwanesische Raumfahrtagentur (NSPO). Er kann in täglichem Rhythmus jeden Punkt der Erde mit den gleichen Aufnahmeparametern neu erfassen. Sein einzigartiger Orbit und die 2-Meter Auflösung machen diese Mission besonders geeignet für die regionale Fernerkundung und Datenerhebung für die Auswertung von Naturkatastrophen, Anwendungen in der Landnutzung, Stadtplanung, Umweltüberwachung und im Meeresschutz. Die Nutzlast beinhaltet zusätzlich ein Instrument zur Nordlichtbeobachtung.

formosat-2_south_korea_coverage

Zu größerer Darstellung auf Grafiken klicken

formosat-2-natural-color-chucicamata_lres

Quellen:
Airbus D&S / Satellite Imaging Corp.

FORMOSAT-2

Dank der Streifenbreite von 24 km und der aufgrund seiner geosyn-chronen Umlaufbahn täglichen Abdeckung kann FORMOSAT-2 großflächige Gebiete in nur wenigen Wochen erfassen.
Da die Umlaufbahn zudem sonnensynchron ist, wird jeder Punkt stets unter denselben Lichtbedingungen aufgenommen (09:30 Äquatorüberflugszeit). Der Satellit umrundet die Erde jeden Tag genau 14-mal.

Links: Das Mosaik von Südkorea z.B. umfasst eine Fläche von über 100.000 km². 270 Szenen wurden verarbeitet, um eine einheitliche natürliche Farbe zu erhalten.
Rechts: Größte Kupfermine der Welt in Chuquicamata, Chile

 

FormoSat 2, ursprünglich Rocsat-2 genannt, wurde am 20. Mai 2004 gestartet und im Dezember des gleichen Jahres umbenannt.

Die Bilder haben eine Schwadbreite von 24 x 24 km und eine geometrische Auflösung von 2 m (panchromatisch) bzw. 8 m (Vierkanal-Multispektral). Sie sollen für zahlreiche Anwendungen wie Agrarwissenschaft, Landschaftsschutz, Katastrophenschutz und ähnliches genutzt werden. Die Sensoren der mit einem 60-cm-Spiegel ausgerüsteten Kamera des Remote Sensing Instrument (RSI) arbeiten im Spektralbereich von 0,45-0,90 μm (panchromatische Kamera) beziehungsweise 0,45-0,52 μm (blau), 0,52-0,60 μm (grün), 0,63-0,69 μm (rot) und 0,76-0,90 μm (nahes Infrarot). Daneben ist noch das Instrument Imager of Sprites and Upper Atmospheric Lightning (ISUAL) zur Beobachtung von Blitzen in der oberen Atmosphäre (40-100 km) an Bord.
Als Hauptauftragnehmer für das Space Segment des Erdbeobachtungsprogramms FORMOSAT 2 lieferte Astrium die Plattform (die erste Anwendung des Leostar Busses) und das erste Fernerkundungsinstrument (RSI) aus 100 Prozent Siliziumkarbid. FORMOSAT 2 war der erste Exportvertrag von Astrium auf dem kommerziellen Markt der Erdbeobachtungssatelliten. Die Bilder von FORMOSAT 2 sind beispielsweise über die GEO-Information Division von Astrium Services erhältlich.

Weitere Informationen:

FORMOSAT-3 (COSMIC)

FORMOSAT-3 oder COSMIC (Constellation Observing System for Meteorology, Ionosphere, and Climate) ist ein Satellitenprojekt der USA und der Republik China von Taiwan. Die Mission besteht aus sechs Kleinsatelliten, die am 15. April 2006 gemeinsam mit einer Minotaur-Trägerrakete von Vandenberg gestartet wurden.

Die Mission kostete insgesamt 100 Millionen Dollar. Davon werden ca. 80% aus Taiwan finanziert. Hinzu kommt der amerikanische Anteil, zu dem verschiedene Institutionen beitragen, darunter die NASA, die US Air Force und die Navy. Die Daten werden jedoch Forschern auf der ganzen Welt zur Verfügung gestellt.

cosmicsatellites-sm

  FORMOSAT-3

Künstlerische Darstellung. Sechs Mikrosatelliten treten in eine niedrige Erdumlaufbahn ein, um die COSMIC-Konstellation zu bilden. Als erste Satellitenkonstellation, die Radiookkultation einsetzt, erwartet man von COSMIC eine wesentliche Verbesserung bei der Qualität und der Quantität von Daten, die für globale Wettervorhersagen, sowie das Monitoring von Klima und Weltraumwetter nötig sind.

 
radio_occult_lres

Zu größerer Darstellung auf Grafiken klicken

Quellen: UCAR
 

Radiookkultation. Wenn Funksignale von GPS-Satelliten die Atmosphäre durchlaufen, werden die Laufwege der Signale gebogen und ihre Geschwindigkeit wird verlangsamt. Das Ausmaß dieser Änderungen hängt von der Dichte der Atmosphäre entlang des Laufwegs ab. Die niedrig fliegenden (LEO) Satelliten von COSMIC nutzen diesen Effekt, indem sie die GPS-Funksignale direkt über dem Horizont der Erde auffangen und präzise die Krümmung und die Signalverzögerung entlang des Laufwegs messen.

 

Die Satelliten werden zur Erforschung der Erdatmosphäre eingesetzt. Dazu empfangen sie Signale von GPS-Satelliten, während so genannter Satellitenuntergänge (Okkultationen). Aus der Veränderung der Signale dabei können vertikale Profile der Temperatur und der Feuchte abgeleitet werden. Die Daten von COSMIC/FORMOSAT-3 werden für die Forschung im Bereich der Meteorologie, aber auch zur Verbesserung der Vorhersagen des Weltraumwetters (also von Veränderungen der Ionosphäre/Magnetosphäre und ähnlichen Erscheinungen) verwendet. Die Radiookkultationstechnik wurde bereits in den 1960er Jahren vom JPL vorgeschlagen, um die Vertikalstruktur von Planetenatmosphären zu untersuchen. Von 2000 bis zum Missionsende wurde diese Messmethode sehr erfolgreich an Bord des deutschen Forschungssatelliten CHAMP angewendet, seit Mai 2006 kontinuierlich auch an Bord der GRACE-Satelliten.

Weitere Informationen:

F(A)PAR

Engl. Akronym für Fraction of Absorbed Photosynthetically Active Radiation; der absorbierte Anteil der photosynthetisch aktiven Strahlung (400 - 700 nm) ist zusammen mit dem Blattflächenindex (LAI) ein wesentlicher Landoberflächenparameter z.B. zur Analyse der Wechselwirkungen zwischen Biosphäre und Atmosphäre und deren klimatischen Auswirkungen. U.a. sind die AVHRR-Daten der NOAA-Satelliten eine wichtige Quelle für die Ableitung derartiger Informationen. Sie werden insbesondere vom DLR gesammelt und ausgewertet.

Frequenz

Engl. frequency; im physikalischen Sinn die Anzahl der vollständigen Schwingungen, die ein System in einer bestimmten Zeit durchführt. Die Einheit ist das Hertz (1 Hz = 1/s), benannt nach dem deutschen Physiker Heinrich Hertz (1857-1894). Mit entsprechenden Präfixen ergeben sich höhere Frequenzen.
Die Frequenz elektromagnetischer Strahlung entscheidet über die Erscheinungsformen der Strahlung. Das Spektrum elektromagnetischer Strahlung erstreckt sich von niederfrequenten Radiowellen über das sichtbare Licht bis zur hochfrequenten Gammastrahlung. Die Strahlungsenergie steht proportional zur Frequenz.
Neben der Frequenz ist eine weitere Charakteristik von elektromagnetischer Strahlung besonders wichtig für das Verständnis von Fernerkundung: die Wellenlänge. Sie ist die Länge eines Wellenzyklus, welche als Entfernung zwischen zwei Wellenbergen angegeben werden kann. Wellenlänge und Frequenz stehen in folgender Beziehung: Lichtgeschwindigkeit [C = 299.792,458 km/Sek] = Frequenz [1 Hertz = 1 Schwingung/Sek.] x Wellenlänge.

frequenz_wellenlaenge_1 frequenz_wellenlaenge_2 frequenz_wellenlaenge_3  

Wellenlänge und Frequenz haben den in den nebenstehenden Formeln ausgedrückten Bezug.
Demnach stehen sie in umgekehrter Beziehung zueinander. Je kürzer die Wellenlänge, umso höher die Frequenz. Je länger die Wellenlänge, umso niedriger die Frequenz.

λ = Wellenlänge (m)

ν = Frequenz (Zyklen pro Sekunde, Hz)
c = Lichtgeschwindigkeit (3x108 m/s)

 
Frequenzband

Engl. waveband

  1. Oft auch nur kurz mit Band bezeichnet. Bezeichnung für einen zusammenhängenden Bereich von Frequenzen aus dem Frequenzspektrum, die durch eine Unter- und eine Obergrenze definiert werden und mit einem Namen versehen wurden. Üblicherweise sind physikalische Eigenschaften (Ausbreitungseigenschaften elektromagnetischer Wellen) gemeint, wenn von Frequenzbändern gesprochen wird (im Gegensatz zu Anwendungen bei Frequenzbereichen). Für verschiedene Bänder haben sich unterschiedliche Namen eingebürgert, die allerdings nicht fest definiert sind, so dass es auf den konkreten Einzelfall ankommt!
  2. Ein Ausdruck, der übergreifend in der Fernerkundung verwendet wird, um einen zusammenhängenden Umfang von Wellenlängen elektromagnetischer Energie zu beschreiben.
Friedhofsorbit

Als Friedhofsorbit, Friedhofsumlaufbahn oder kurz Friedhofsbahn (englisch graveyard orbit, junk orbit oder disposal orbit), bezeichnet man eine Erdumlaufbahn („Orbit“) für ausgediente erdferne Satelliten. Während Raumflugkörper auf niedrigen Orbits (LEO) durch Absenken der Flugbahn in der Atmosphäre entsorgt werden, ist der Einschuss auf eine höhere Umlaufbahn die einzige Option für geostationäre Satelliten (GEO).
Die Endlagerung dieser Objekte ist nötig, da die für Satelliten interessanten Umlaufbahnen begehrt sind und weil sie durch Abdriften (in niedrigeren Orbits auch durch Abbremsen in der Restatmosphäre) zur Gefahr für andere Satelliten, Raumfähren und (durch Absturz) auch für die Erde werden könnten (Weltraummüll).
Die begrenzte Lebensdauer eines Satelliten ergibt sich hauptsächlich dadurch, dass neben diversen möglichen Defekten vor allem der bordeigene Treibstoff, der zur Stabilisierung der Orbit-Position notwendig ist, verbraucht ist oder nur noch für einige wenige Manöver in eine andere Umlaufbahn reicht.
Der Friedhofsorbit liegt in der Regel über dem regulären Orbit des Satelliten, im Falle geostationärer Satelliten um etwa 300 km (Supersynchroner Orbit). Wenn ein geostationärer Satellit einen Friedhofsorbit unterhalb der geosynchronen Umlaufbahn (GEO) einnimmt, besteht immer die Gefahr, dass er mit einem neuen Satelliten auf der zum GEO führenden GTO-Bahn kollidiert. Das Inter-Agency Space Debris Coordination Committee (IADC) legt den freizuhaltenden Bereich der geosynchronen Umlaufbahnen auf ±200 km und ±15 ° von der geostationären Bahn fest.

Frühwarnsystem

Eine Einrichtung, die als Warnsystem aufkommende Gefahren frühzeitig erkennt und Gefährdete möglichst schnell darüber informiert. Es soll durch rechtzeitige und umfassende Reaktion helfen, Gefahren abzuwenden oder Folgeerscheinungen zu mildern.
Frühwarnsysteme setzen sich aus drei Elementen zusammen:

  1. Prognose und Vorhersage eines bevorstehenden Ereignisses,
  2. Aufbereitung und Verbreitung der Warnmeldung für die Behörden und die Bevölkerung und
  3. Ergreifung angemessener und zeitnaher Maßnahmen entsprechend der Warnung.

Weitere Informationen: Early Warning Systems - A State of the Art Analysis and Future Directions (UNEP 2012)

FTIR

Akronym für Fourier-Transform InfraRot-Spektroskopie bzw. Fourier-Transformations-InfraRot-Spektrometer; Messverfahren, bzw. -gerät zur Bestimmung von Spurengaskonzentrationen durch den Vergleich von gemessenen Spektren mit gespeicherten spektralen Absorptionskoeffizienten im infraroten Spektralbereich.

Die FTIR gehört zu den wichtigsten spektroskopischen Methoden zur Untersuchung von Anregungen in Molekülen und Festkörpern. Kernstück solcher Spektrometer ist das Michelson-Interferometer, bei dem zwei durch Strahlteilung erzeugte Lichtbündel miteinander interferieren. Der Gangunterschied zwischen beiden Teilstrahlen kann durch Verschieben eines Spiegels variiert werden. Das Interferogramm stellt den Verlauf der Intensität als Funktion der Spiegelposition dar und wird mit einer Photodiode gemessen.

Satellitenbasiert war FTIR beispielsweise mit dem Sensor MIPAS (Michelson Interferometer für Passive Atmosphärische Sondierung) auf dem inzwischen inaktiven ENVISAT verwirklicht. Bodengebunden betreibt z.B. das KIT vier FTIR, und zwar in Kiruna (Nordschweden), in Karlsruhe (Deutschland), am Izaña Observatorium (Teneriffa, Spanien) und in Addis Abeba (Äthiopien). Mit ihnen wird die Konzentration von Spurengasen in der Atmosphäre gemessen. Die Spurengase sind u.a. H2O, CH4, N2O, O3, NO, HNO3, HCl, HF, CFC-11, CFC-12, NO2, ClO, und ClONO2. Das Ziel dieser Messungen ist es, langfristige Trends dieser Treibhaus- oder Ozonschicht relevanten Spurengase zu bestimmen. Außerdem dienen sie der Validierung von Satellitendaten.

Ebenfalls vom KIT werden horizontsondierende Fourier-Transform Infrarot-(FTIR) Spektrometer entwickelt und betrieben. Diese sind auf Stratosphärenballons und hochreichenden Flugzeugen im Einsatz, um höhenaufgelöste Verteilungen von Temperatur, Wasserdampf und Spurengasen und deren Isotopologen (z.B. HDO) in der Erdatmosphäre zu bestimmen. Horizont-abtastende Geräte, wie die Ballon- und Flugzeug-Versionen von MIPAS wurden in vielen Messkampagnen seit mehr als 20 Jahren weltweit eingesetzt.

Weitere Informationen:

FUSE

Engl. Akronym für Far Ultraviolet Spectroscopic Explorer; Satellitenmission zur Astrophysik, ausgelegt für das Extrem-Ultraviolett des elektromagnetischen Spektrums. Für bestimmte Fragen ist es der einzige Spektralbereich, der den Astrophysikern Antworten gibt.
FUSE, der im Juni 1999 seine Umlaufbahn erreichte, entstand aus der Zusammenarbeit der Universität John Hopkins mit dem CNES, der kanadischen Weltraumagentur, der Universität von Colorado und der kalifornischen Universität Berkeley.
Zur Fokussierung des Lichts wurde der Satellit mit vier Spiegeln ausgerüstet. Das eingefangene Ultraviolett-Licht wird durch vier optische Systeme (als Netze bezeichnet) - eines je Spiegel - in ein Spektrum zerstreut. Über eine Million paralleler Linien wurden auf jedes dieser Netze aufgezeichnet was diesem Instrument ein sehr hohes Auflösungsvermögen verschafft.

Weitere Informationen: Fuse

FY-1/-3

Kürzel für die polarumlaufenden Satelliten des meteorologischen Satellitenprogramm Chinas (FENGYUN).

Weitere Informationen:

FY-2

Kurzbezeichnung für die geostationären Satelliten des meteorologischen Satellitenprogramms Chinas (FENGYUN).

Weitere Informationen: