Lexikon der Fernerkundung

A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z 

Lab-Farbmodell

Engl. Lab colour model; das Farbsystem CIE L*a*b (vereinfacht als Lab bezeichnet) beschreibt die dem menschlichen Auge sichtbaren Farben unabhängig von technischen Einrichtungen wie Monitoren und Druckern durch einen eindeutigen Wert. Um eine Farbe zu beschreiben, werden drei Parameter definiert:

  • Die Helligkeit L* (der kleinste Wert kennzeichnet schwarz)
  • Eine Farbkomponente a*, die eine Position zwischen rot und grün definiert (der kleinste Wert a* beschreibt grün)
  • Eine Farbkomponente b*, die eine Position zwischen gelb und blau definiert (der kleinste Wert b* beschreibt blau)

Das Lab-Farbmodell wird in Adobe Photoshop verwendet. Es ist gut geeignet für Zwecke der Panbildschärfung.

LACIE

Engl. Akronym für Large Area Crop Inventory Experiment, NASA-Projekt zur landwirtschaftlichen Ertragsschätzung. Es wurde 1970 mit dem Ziel begonnen, die Weizenernte in den Hauptanbaugebieten (USA, Kanada, Argentinien, UdSSR) vorauszusagen. Dabei dienten Landsat-MSS-Daten zur Ermittlung der Anbauflächen nach einem regional orientierten Stichprobenverfahren. Die Vorhersage der Erträge erfolgte dann über agrarmeteorologische Modellrechnungen. Das Ziel, die tatsächlichen Erträge auf mindestens 10 % genau vorauszuschätzen, wurde trotz größerer Fehler im einzelnen erreicht. Mit ähnlichen Methoden werden auch für die Nahrungsmittelproduktion in Afrika Voraussagen gemacht, um den häufigen Hungerkatastrophen vor allem in der Sahelzone durch ein Frühwarnsystem zu begegnen.

LAGEOS-1

Engl. Akronym für Laser Geodynamics Satellite-1; 1976 begonnene und weiterhin operationelle Satellitenmission der NASA zu Geodäsie, Erdkrustenbewegungen und Schwerefeldmessungen mittels Laserentfernungsmessung. Der 5858 bis 5958 km hohe Orbit des Satelliten ist geneigt (110°) und nicht-sonnensynchron. Durch die Verwendung von Schwermetallen eine Masse von 411 kg. Zusammen mit dem geringen Durchmesser von ca. 60 cm bedeutet dies, dass nicht-gravitative Störkräfte kaum Einfluss haben (nur geringe Bahnstörungen). Daher ist seine Bahn außerordentlich stabil und kann zur genauen Bestimmung von übergeordneten Vermessungspunkten und des Fundamentalsystems der Geodäsie und Astronomie verwendet werden. Die Umlaufzeit beträgt 225 min.
Der nahezu identische LAGEOS-2 wurde von der italienischen Weltraumagentur gebaut und 1992 von einem Space Shuttle ausgesetzt. Es gibt Pläne für einen LAGEOS-3 als gemeinsame Mission von Frankreich, Deutschland, Großbritannien, Italien, Spanien und den USA.
Die LAGEOS-Satelliten haben die Gestalt einer Kugel, die 426 Laserreflektoren trägt. Diese werfen auftreffendes Licht genau in die Einfallsrichtung zurück und erlauben im Wege des Satellite Laser Ranging (SLR) eine genaue Distanzmessung zwischen terrestrischen Observatorien und dem Satelliten. Die dabei eingesetzte Laufzeitmessung erfolgt nach Empfang des Licht-Echos durch ein Teleskop durch einen von den Photonen ausgelösten Intervallzähler.
Von den etwa 20 weiteren Lasersatelliten ist der französische Starlette der nächstwichtigste. Er ist ähnlich aufgebaut, hat die Größe eines Fußballs und wiegt 47 kg.

Weitere Informationen:

Längsüberdeckung

Engl. forward overlap, franz. recouvrement longitudinal; nach DIN 18716 die "relative Überdeckung gleicher Bildinhalte von aufeinanderfolgenden Bildern in Flugrichtung", verbunden mit den Anmerkungen: Dies entspricht den unterschiedlichen Blickwinkeln bei Zeilenkameras. Angegeben in Prozent (%)."

Lagrange-Punkt

Syn. Librationspunkt; nach dem italienischen Mathematiker und Astronomen Joseph-Louis Lagrange (1736-1813) benannte Position im Weltraum, an der sich die Gravitationskräfte zweier umeinander kreisender Körper von erheblicher Masse – zum Beispiel Sonne und Erde – gegenseitig aufheben, so dass sie für einen dritten Körper (mit im Verhältnis zu den anderen beiden verschwindend geringer Masse) einen Gleichgewichtspunkt schaffen, der bewirkt, dass sich die Position der drei Körper zueinander nicht verändert. Lagrange-Punkte sind demnach Orte im Weltraum, an denen zum Beispiel ein Satellit im Verhältnis zu zwei anderen Körpern stabil positioniert ist.
Für das System Sonne-Erde-Mond gibt es fünf verschiedene Lagrange-Punkte, sie besitzen die Bezeichnungen L1 bis L5. Raumfahrtmissionen nutzen im Wesentlichen die Lagrange-Punkte L1 und L2.
Der innere Lagrange-Punkt L1 im System Erde – Sonne dient seit 1995 als "Basis" zur Sonnenbeobachtung. In seiner Nähe wo die Anziehungskraft der Erde jener der Sonne entspricht, ist auf der Verbindungslinie Erde-Sonne seit 1995 der Sonnenbeobachtungssatellit SOHO mit einem Bündel von 12 Messinstrumenten stationiert. L1 ist 1,5 Millionen Kilometer von der Erde entfernt und wird von SOHO langsam im Radius von rund 600.000 km umrundet. Dort soll auch die Raumsonde Genesis mit Instrumenten zur Erforschung des Sonnenwinds positioniert werden.
Der Lagrange-Punkt L2 befindet sich 1,5 Millionen Kilometer außerhalb der Erdumlaufbahn um die Sonne und eignet sich besonders für Weltraumbeobachtungen mit Teleskopen.
Da ein Körper im L2 die Orientierung in Bezug auf Sonne und Erde beibehält, ist dort die Abschirmung vor Sonnenstrahlung wesentlich einfacher als auf einer Erdumlaufbahn. Die von 2001-2010 aktive WMAP-Raumsonde (Wilkinson Microwave Anisotropy Probe), die die kosmische Hintergrundstrahlung des Urknalls untersuchte, befand sich in einer Umlaufbahn um den L2-Punkt des Systems Erde-Sonne. Die ESA stationierte im September 2009 das Infrarot-Teleskop Herschel und das Teleskop Planck zur Untersuchung der Hintergrundstrahlung dort. Nach ihrem Start im Dezember 2013 soll die Astrometrie-Raumsonde Gaia der ESA Mitte Januar 2014 ebenfalls in eine Umlaufbahn am Lagrange-Punkt L2 einschwenken. Frühestens 2018 wird das James Webb Space Telescope auf diesem Punkt stationiert.

Lagrange-Punkt Lagrangepunkte



Position der fünf Lagrange-Punkte (L1, …, L5) in einem System aus Zentralgestirn (gelb) und Planet (blau).


Quelle: Wikipedia

Weitere Informationen:

Lambertsche Fläche

Engl. Lambertian emitter, franz. surface lambertienne; nach DIN 18716 eine "Oberflächeneigenschaft, alle auffallende Strahlung wird vollkommen zerstreut; die Oberfläche erscheint deshalb aus allen Richtungen gleich hell". Die Norm macht noch folgende Anmerkung: "Die Lambertsche Strahlung ist unabhängig vom Beobachtungswinkel, aber abhängig vom Einstrahlungswinkel."

LAI

Engl. Akronym für Leaf Area Index; s. Blattflächenindex

Land Cover

Engl. Begriff für Landbedeckung, also die physische Oberflächenbedeckung der Erde, die auf einer bestimmten Fläche vorhanden ist, wie z.B. Ackerfrüchte, Wasser oder Asphalt. Es ist ein Begriff im Umfeld der Fernerkundung, die versucht, diese Landbedeckung aus der spektralen Signatur zu ermitteln.
Landbedeckung ist zu unterscheiden von Landnutzung, ein Begriff, der beschreibt, wie die Landflächen vom Menschen gezielt genutzt werden, z.B. für Landwirtschaft oder Siedlung. International und auch sektoral besteht ein großes Problem darin, die einzelnen Kategorien eindeutig und einheitlich zu definieren. Erst dies ermöglicht die Erstellung eines einheitlichen Datensatz und damit die Erfassung des Ist-Zustands von Räumen und auch den Vergleich von Bodenbedeckungen z.B. in Europa (vgl. Corine LandCover).

Zu größerer Darstellung auf Bild klicken
Quelle: NASA

Landsat Shows Land Use Around Portland

Portland (Oregon) liegt am Zusammenfluss der Flüsse Willamette und Columbia. Das Gebiet ist eine Mischung aus Innenstadt, Vororten, Farmen, Weiden und Wald. Diese verschiedenen Landbedeckungstypen sind leicht unterscheidbar dank der farbcodierten Karten, die auf der Grundlage der National Land Cover Database erstellt wurden. Diese Datenbank wurde vom U.S Geological Survey (USGS) entwickelt und ist beim Multi-Resolution Land Characteristics Consortium frei erhältlich. Diese Landbedeckungskarten erlauben es den Behörden und auch Privatleuten gleichermaßen die Ausdehnung von Stadtregionen nachzuverfolgen und auch den Gesundheitszustand der umgebenden Ökosystemen.
In diesem Bild erscheinen die Flüsse Columbia und Willamette in hellem Blau. Rot bezeichnet erschlossene (städtische) Gebiete, wobei die dunkleren Farbtöne für besonders intensiv entwickelte Zonen stehen. Ackerland ist hellbraun und Weiden sind gelb. Wald ist grün. Andere Nutzungsklassen sind aus der Legende zu entnehmen.
Landsat kann zwischen diesen unterschiedlichen Landnutzungen unterscheiden, weil er nicht nur sichtbares Licht aufspürt, sondern auch Infrarot. Alles auf der Erdoberfläche absorbiert und reflektiert Licht, aber verschiedene Dinge absorbieren und reflektieren verschiedene Teile des elektromagnetischen Spektrums in unterschiedlichem Maße. Das Chlorophyll in Pflanzen beispielsweise absorbiert stark rote und blaue Wellenlängen und reflektiert hingegen grün. Gesunde Blätter reflektieren zusätzlich infrarotes Licht. Durch das Aufspüren dieser unterschiedlichen Absorption, egal ob bei Pflanzen, Gebäuden, Straßen oder Felsen kann Landsat feine Unterschiede erkennen, die das menschliche Auge nicht sieht.

 

Weitere Informationen:

Landmonitoring

Syn. Landüberwachung, Landbeobachtung; Sammlung, Aufbereitung und Verfügbarmachung von Informationen und Daten von der lokalen bis hin zur globalen Ebene bezüglich der Landoberfläche (inklusive Binnengewässer). Die möglichst kontinuierlich erhobenen Daten bilden die Basis für die Erstellung thematischer Karten, für die quantitative bzw. qualitative Dokumentation, Analyse und Interpretation von Entwicklungen und Veränderungen. Sie erlauben die Prognose und Planung zukünftiger Entwicklungen insbesondere in den Bereichen Umwelt und Landnutzung (land use).

Weitere Informationen:

Landoberflächentemperatur

Engl. Land Surface Temperature (LST); wichtiger Parameter für eine Vielzahl von regionalklimatologischen und physisch-geographischen Fragestellungen.

Die Land- oder Wasseroberflächentemperatur, gemessen vom Satelliten, ist eine sog. Strahlungstemperatur. Dabei wird die emittierte Strahlung des Bodens, der Vegetation oder einer Wasserfläche mit Hilfe von Radiometern berührungslos gemessen. Die Strahlungstemperatur ist bestimmt durch die Temperatur der Landoberfläche bzw. des Wassers und dem Emissionsvermögen (Emissivität). Die Messung der Strahlungstemperatur vom Satelliten wird aber auch noch von der Atmosphäre, insbesondere vom Wasserdampf, bestimmt.
Im Gegensatz dazu wird z.B. die Luft- oder Wassertemperatur mit Messgeräten bestimmt, die im thermischen Gleichgewicht mit der Luft bzw. dem Wasser sind. Die Landoberflächentemperatur und die Lufttemperatur sind über die Energiebilanz des Systems Boden-Atmosphäre bzw. Boden-Vegetation-Atmosphäre gekoppelt. Diese Kopplung ist der Grund, warum keine einheitliche, lineare Korrelation zwischen den beiden Größen besteht.

Alle Betrachtungen über die Größe 'Landoberflächentemperatur' erfordern eine Definition der drei Komponenten "Land", "Oberfläche" und "Temperatur". Dies scheint auf den ersten Blick trivial zu sein, im Kontext von in situ-Messungen und von Fernerkundung ist es nicht trivial:

  • Land: Alle Flächen die zu Kontinenten und Inseln gehören. Besonders in Polarregionen ist die Unterscheidung von Land und eisbedecktem Ozean in manchen Gebieten nicht offensichtlich.
  • Oberfläche: Bezüglich nackten Bodens ist 'Oberfläche' für in situ-Messungen und auch für radiometrische Messungen, d.h. für Fernerkundung wohl definiert. Prinzipiell kann eine thermodynamische Messung der Oberflächentemperatur mit einem Thermometer durchgeführt und mit den radiometrischen Messungen verglichen werden. Für strukturierte, insbesondere für vegetationsbedeckte Oberflächen trifft dies nicht zu. Die Messung der ausgehenden Strahlung mit Hilfe der Fernerkundung ist prinzipiell über der Oberfläche, d.h. oberhalb der Vegetationsdecke möglich. Die entsprechende thermodynamische Messung mit dem Thermometer ist im Allgemeinen nicht möglich, da die Oberfläche nicht eindeutig definiert ist: In welcher Höhe innerhalb eines Waldes bringt man ein Thermometer an?
  • Temperatur: Zwei verschiedenartige Messgeräte stehen für die Temperaturmessung zur Verfügung, das Thermometer und das Radiometer. Das Thermometer steht in direktem Kontakt mit dem Körper, bzw. mit der Substanz, deren Temperatur bestimmt werden soll (direkte Messung). Daher ist eine eindeutige Definition der Oberfläche erforderlich.
    Das Radiometer misst die Strahlung, die von dem Körper ausgesandt wird, aus einer gewissen Entfernung (Fernerkundung). Daher ist die genaue Kenntnis der Oberfläche nicht nötig. Entfernung muss nicht immer gleichbedeutend sein mit der Entfernung von Oberfläche zu Satellit oder Flugzeug. Im Sinne dieser Erklärung kann das Radiometer auch nur 1 m über Grund montiert sein.

Bereits die praktische Durchführung der Temperaturmessungen macht den Vergleich schwierig. Die typischen Fehler von Thermometer- und Radiometermessungen, wie auch das oben beschriebene Problem bei der Bestimmung der Oberfläche sind die Gründe dafür. Darüberhinaus gibt es prinzipielle Unterschiede, die in der letzten Konsequenz einen Vergleich von Temperaturen nicht gestatten, die zum einen auf thermodynamischen und zum anderen auf radiometrischen Messungen beruhen:

  • Thermodynamische Messungen bestimmen die Temperatur, aus der die Strahlung mit Hilfe des Stephan-Boltzmann-Gesetzes berechnet werden kann.
  • Radiometrische Messungen haben Einschränkungen in einem oder mehreren der folgenden Punkte:
    - Spektralbereich: seine Wellenlänge sollte von 0 bis unendlich reichen
    - Blickwinkel: die Messung sollte eine ganze Hemisphäre abdecken
    - Unbekannte Emissivität: ein direkter Vergleich mit der thermodynamisch gemessenen Temperatur ist nur für einen Schwarzen Körper möglich.

Weder die thermodynamische Messweise Oberflächentemperaturen zu messen, noch die radiometrische Bestimmung führen prinzipiell zu 'falschen' Temperaturen. Die Verwendung des jeweiligen Messverfahrens kann allerdings falsch sein. Zum Beispiel ist für die Bestimmung der thermischen Charakteristik einer Stadt die Fernerkundung besser geeignet. Für andere Anwendungen mag das Thermometer am Boden vorzuziehen sein.

Einsatzfelder:
Unbestritten ist aber die grundsätzliche Bedeutung der Landoberflächentemperatur für unterschiedlichste Einsatzfelder. Mit Hilfe der Temperaturinformation können thermische Belastungsgebiete in Städten oder landwirtschaftlichen Gunst- und Ungunstgebieten kartiert und ausgewiesen werden. Temperaturkarten erlauben auch die Analyse des ausgleichenden Einflusses der Vegetation auf sog. “Hot Spots” in Städten. Bislang werden die Temperaturen punktuell in ca. 2 Meter Höhe an den verschiedenen meteorologischen Stationen gemessen. In stark besiedelten Regionen ist dieses Stationsnetz relativ dicht, jedoch in den meisten ländlichen Regionen der Welt fehlen solche Daten gänzlich.
Die Fernerkundung der Oberflächentemperatur mit aus dem Weltraum betriebenen Sensoren bietet enorme Vorteile: die Messdaten werden flächendeckend, kontinuierlich und schnell verfügbar. Jedoch ist die routinemäßige Berechnung der Bodentemperaturen kein leichtes Unterfangen, da die störenden Atmosphäreneinflüsse korrigiert und der spezifische Einfluss des Emissionsvermögens der Landoberflächen abgeschätzt werden muss. In den letzten Jahren hat diese Problematik die Fernerkundung stark beschäftigt, so dass heute eine Vielzahl von Methoden zur Ableitung der Bodentemperaturen existiert.

Im DLR werden täglich AVHRR-Daten zur Bestimmung der Landoberflächentemperaturen herangezogen. Die dabei angewandte Methode beruht auf dem sogenannten “split-window” Verfahren. Hierbei werden die dicht nebeneinanderliegenden Wasserdampfabsorptionsfenster
(10,5 μm; 11,5 μm) zur Korrektur des atmosphärischen Einflusses genutzt. Um die Emissionsgrade der Landoberflächen abzuschätzen, wird eine von Van de Griend & Owe (1993) vorgeschlagene empirische Methode benutzt. Diese Autoren stellten in einem aufwendigen Feldexperiment einen direkten Zusammenhang zwischen dem Emissionsgrad der Vegetation und dem Vegetationsindex (NDVI) her.

Temperaturanstieg während der Hitzewelle in Europa vom 28. Juli - 10. August 2003 Temperaturanstieg während der Hitzewelle in Europa
vom 28. Juli - 10. August 2003
abgeleitet aus NOAA-AVHRR Daten

 

Linkes Bild: mittlere Nachttemperaturen im Zeitraum
28. Juli - 3. August 2003

 

Rechtes Bild: mittlere Nachttemperaturen im Zeitraum
3. August - 10. August 2003

Quelle:
Satellitenbasierte Fernerkundung klimarelevanter Parameter in der Atmosphäre
im Deutschen Zentrum für Luft und Raumfahrt
, (Bittner, M. et al., DWD Klimastatusbericht 2004)

 

Die obige Abbildung zeigt in einer Gegenüberstellung den dramatischen Temperaturanstieg während der Hitzewelle in Europa vom 28. Juli - 10. August 2003. Seit 1998 werden im DLR zweimal täglich Thermalkarten von Europa erstellt. Aus den Tageswerten werden wöchentliche und monatliche Temperaturmittelwerte gerechnet.
Alle Daten sind über das Internet verfügbar (World Data Center for Remote Sensing of the Atmosphere, DLR).

Weitere Informationen:

Landsat

US-amerikanisches Fernerkundungssystem aus einer Serie von mehrfach weiterentwickelten Satelliten, die seit 1972 in ihre Umlaufbahn gebracht wurden, zuletzt im Jahre 1999 der Landsat-7 ETM+ (Enhanced Thematic Mapper Plus) als Vertreter der alten Serie und im Februar 2013 der Landsat-8 als Vertreter des Landsat-Nachfolgeprogramms. Die Spektralbereiche des Systems sind für eine differnzierte Erkundung von Landoberflächen ausgelegt, Gleiches gilt für die Bodenauflösung von 30 x 30 Metern hinsichtlich vieler Aufgabenstellungen. Landsat-7 als letzter im Jahre 2013 noch aktiver Satellit der alten Serie registriert Daten in acht Spektralbereichen bei einer Bodenauflösung von 15 m (panchromatisch) bis 60 m (Thermalband).
Landsat-Satellitenaufnahmen werden aufgrund dieser Eigenschaften häufig für Landnutzungsklassifikationen, für geologisch/mineralogische Explorationsarbeiten, Erntevorhersagen, Waldzustandserhebungen, Regionalplanung, Katastrophenmanagement und kartographische Arbeiten herangezogen.

Landsat 7

Links: Schematisches Diagramm (zu größerer Darstellung anklicken)
Rechts: Landsat 7 im Orbit mit beobachteter Bodenspur

Technische Details
  • Start: 15. April 1999
  • Status: operationell trotz Ausfall des Scan Line Corrector (SLC) am 31. Mai 2003
  • Sensor: ETM+
  • Höhe: 705 km
  • Bahnneigung: 98.2°
  • Orbit: polar, sonnensynchron
  • Äquator-Überquerung: nominell 10 AM (± 15 min.) Ortszeit (absteigender Knoten)
  • Umlaufzeit : 99 Minuten; ~14.5 Orbits/Tag
  • Wiederholrate : 16 Tage

Quellen: NASA / eoportal

Für die systematische Datenaufnahme wurde für die Satelliten kreisförmige, polnahe und sonnensynchrone Umlaufbahnen gewählt, um praktisch die ganze Erdoberfläche beobachten zu können. Hierzu behält die Satellitenbahn ihre Lage im Raum bei, aber durch die Rotation der Erdkugel wandert die Erdoberfläche unter dieser Bahn hindurch. Die Bodenspuren der aufeinanderfolgenden Umläufe sind deshalb etwas gegeneinander versetzt. Die Bahnparameter sind so gewählt, dass nach und nach die ganze Erdoberfläche aufgenommen werden kann und sich der Vorgang bei den Landsat-4, -5 und -7 nach 16 Tagen wiederholt. Die Polkappen werden nicht erreicht, da die Satellitenbahn gegen die Äquatorebene nicht genau um 90 Grad geneigt ist. Die Bahnen von Landsat-5 und Landsat-7 sind derart gegeneinander versetzt, dass alle 8 Tage ein Überflug durch einen der beiden Satelliten erfolgt.

 
Eine Landsat-Zeitleiste

Der dünne weiße Pfeil im größeren Pfeil von Landsat-7 markiert die Zeit, zu der die Datenaufnahme ohne den Scan Line Corrector erfolgt.
Der Pfeil von Landsat 5 endet zu der Zeit, als die Bodencrew die Datendownlinks aussetzten. Wenn die Ingenieure des USGS Lösungen zur Wiederaufnahme finden, wird die Grafik aktualisiert.


Zu größerer Darstellung auf Bild klicken
Quelle: NASA

 

Die Satelliten wurden mit optisch-mechanischen Scannern, nämlich Landsat-1 bis -5 (ab 1972) mit dem Multispectral Scanner (MSS), Landsat-4 und -5 (ab 1982) zusätzlich mit dem Thematic Mapper (TM), und Landsat-7 (ab 1999) mit dem Enhanced Thematic Mapper Plus (ETM+). Landsat-8 erhielt neuartige Instrumente (OLI und TIRS). Aber die Daten der verschieden alten Systeme sind kompatibel, was der Erfassung von Veränderungen zugute kommt.

Technische Daten der Landsat-Sensoren
  Landsat 4, 5 (1 - 3)
Multispectral Scanner
Landsat 4, 5
Thematic Mapper
Landsat 7
Enhanced Thematic Mapper Plus
Betrieb seit 1972 seit 1982 seit 1999
Flughöhe 705 km (915 km) 705 km 705 km
Wiederholrate 16 (18) Tage 16 Tage 16 Tage
Streifenbreite 185 km 185 km 185 km
Pixelgröße 79 x 79 m2 30 x 30 m2 30 x 30 m2
Spektralkanäle 1 (4)  0,50-0,60 µm
2 (5)  0,60-0,70 µm
3 (6)  0,70-0,80 µm
4 (7)  0,80-1,10 µm
1  0,45-0,52 µm
2  0,52-0,60 µm
3  0,63-0,69 µm
4  0,76-0,90 µm
5  1,55-1,73 µm
7  2,08-2,35 µm
1  0,45-0,52 µm
2  0,52-0,60 µm
3  0,63-0,69 µm
4  0,76-0,90 µm
5  1,55-1,73 µm
7  2,08-2,35 µm
Thermalkanal 6  10,4-12,5 µm
    (120 x 120 m2)    
6  10,4-12,5 µm
    (60 x 60 m2)  
Panchromatischer Kanal (15x15 m2) 8  0,52-0,90 µm

Im Dezember 2012 kündigte der U.S. Geological Survey an, dass Landsat-5 aufgrund eines irreparablen Defekts seines zur Lageregelung eingesetzten Gyroskops in den folgenden Monaten außer Betrieb genommen wird. Damit geht die weltweit längste Erdbeobachtungsmission zu Ende. Ursprünglich für eine Betriebsdauer von 3 Jahren konzipiert hat der Satellit seit 1982 den Planeten über 150.000 Mal umkreist und dabei mehr als 2,5 Mio. Bilder über die Landoberflächen zur Erde übermittelt.

Die jüngste Mission, Landsat-8, zunächst als Landsat Data Continuity Mission (LDCM) bezeichnet, wurde von der NASA am 11. Februar 2013 mit einer United Launch Alliance Atlas V 401 Rakete von der Vandenberg Air Force Base aus gestartet. In ca. drei Monaten nach dem Start übernimmt der USGS die Kontrolle.

Kangerdlugssuaq Glacier, Greenland

Zu größerer Darstellung auf Bild klicken - Quelle: ESA

Der Kangerdlugssuaq-Gletscher ist der größte Auslassgletscher an der grönländischen Ostküste. Er entlässt Inlandeis in das Nordpolarmeer. Im Bild kann man hunderte Eisberge erkennen, die dem Wasser ein Fleckenmuster verleihen.
Grönland beherbergt nach dem antarktischen den kleineren der beiden einzigen Eisschilde auf der Erde. Variationen in ihrer Mächtigkeit können helfen die Reaktion unseres Planeten auf den Klimawandel anzuzeigen. Ihr Abschmelzen trägt zum weltweiten Anstieg des Meeresspiegels bei.

Erdbeobachtungssatelliten sind die Schlüsseltechnologie für die Beobachtung dieser Veränderungen, da sie Instrumente tragen, die die Mächtigkeit der Eisschilde messen und sogar hochaufgelöste Bilder trotz Wolkenbedeckung und Dunkelheit liefern können. Diese Fähigkeit ist besonders nützlich, wenn man diese riesigen, unzugänglichen Gebiete beobachten möchte, die für lange Zeit schlechtem Wetter und aufgrund ihrer Polnähe langer Dunkelheit ausgesetzt sind.
Eine neuere Studie, die Satellitendaten ausgewertet hat, belegt, dass während der letzten 20 Jahre das Eis in Grönland und der Antarktis abgeschmolzen ist 11 mm zum globalen Meeresspiegelanstieg beigetragen hat.
Das Bild zeigt deutlich die Kalbungsfront des Gletschers, an der das Eis abbricht. Der Vergleich unterschiedlich alter Aufnahmen zeigt, dass diese Front zurückgewichen ist, ein Beleg dafür, dass der Gletscher mit der Zeit kleiner wird. Jeder Zufluss von Schmelzwasser von diesem Eisschild kann dem Nordatlantik Süßwasser zuführen, was möglicherweise den Golfstrom schwächt und in der Konsequenz das Klima Nord- und Westeuropas beeinflusst.

Dieses Bild wurde am 19. September 2012 vom Landsat-7 aufgenommen.

This image is featured on the Earth from Space video programme.

 

Weitere Informationen:

Landsat-8 / LDCM

Am 11.2.2013 als Landsat Data Continuity Mission (LDCM) gestartete Satellitenmission von NASA und USGS um den Bestand an Landsat-Daten über die Oberfläche des Planeten fortzuführen. Der Satellit wurde mit einer United Launch Alliance Atlas V 401-Rakete von Vandenberg Air Force Base aus in den Erdorbit eingebracht und umkreist die Erde in einer Höhe von rund 705 Kilometern.
Am 30. Mai 2013 übernahm die USGS nach ausgiebigen Tests die Kontrolle des Satelliten von der NASA, gleichzeitig wurde LDCM in Landsat-8 umbenannt.

Start von Landsat-8 am 11.2.2013

Zu größerer Darstellung auf die NASA-Seite (s. unten) gehen
Quelle: NASA

Seit 1972 spürt das Landsat-Programm weltweit Veränderungen der Landbedeckung und der Landnutzung nach. Sechs aufeinanderfolgende Satelliten haben über vier Jahrzehnte einen Datenbestand beispielsweise über wachsende Städte, landwirtschaftlich genutzte Flächen, schrumpfende Seen und Eisflächen, über ergrünende und verdorrende Landschaften, über menschengemachte und natürliche Ereignisse angesammelt. Am 11. Februar 2013 wurden die Voraussetzungen geschaffen, diesen Datenschatz über viele weitere Jahre zu vergrößern.

Um 10h02 Ortszeit trug eine Atlas V-Rakete den Satelliten der Landsat Data Continuity Mission (LDCM) von der Vandenberg Air Force Base (Kalifornien) in seine Umlaufbahn. Das Raumfahrzeug trennte sich 79 Minuten nach dem Start von der Rakete und das erste Signal wurde 3 Minuten später in der Svalbard-Bodenstation (Norwegen) empfangen. Die Sonnensegel entfalteten sich 86 Minuten nach dem Start und erzeugen Strom.

Der neue Satellit Landsat-8 (LDCM) verspricht, die einmalige Landsat-Tradition mit noch besserer Qualität und Aufnahmefrequenz fortzusetzen. LDCM hat zwei Hauptsensoren für wissenschaftliche Untersuchungen, den Operational Land Imager (OLI) und den Thermal Infrared Sensor (TIRS).

Ball Aerospace & Technologies Corp. baute das Instrument OLI in Boulder (Colo.). Das Goddard Space Flight Center der NASA baute das Instrument TIRS. Orbital Sciences Corporation baute, integrierte und testete das Raumfahrzeug in Gilbert (Ariz.). Der USGS stellte das LDCM Bodensegment bereit. Der Start wurde vom Launch Services Program der NASA im Kennedy Space Center (Fl.) durchgeführt. United Launch Alliance lieferte die Atlas V Startrakete.

 

Die Aufnahmen des Landsat-8 haben eine Auflösung von rund 15-100 Metern und können vor allem für die Beobachtung von Flächennutzungsänderungen (land use change), die Auswertung von Landveränderungen z.B. nach Flutkatastrophen sowie allgemein für die Beobachtung von Wassernutzung weltweit genutzt werden. Durch die Fortführung dieser Aktivitäten ermöglicht es Landsat-8, die Geo- und Klimaforschung mit analysefähigen Daten zu versorgen. Landsat 8 bewegt sich übrigens auf gleicher Bahn wie seine Vorgänger Landsat-4, -5 und -7.

Der neue Landsat-Satellit ist mit zwei Arten von Pushbroom-Instrumenten ausgerüstet:

  1. der so genannte Operational Land Imager (OLI) sowie
  2. der Thermal Infrared Sensor (TIRS), ein Sensor für die Erfassung der elektromagnetischen Abstrahlung des Planeten im Infrarot-Bereich.
Vergleich der
Spektralbänder von ETM+
auf Landsat-7
und
von OLI bzw. TIRS
auf LDCM/Landsat-8

 

 

 

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA

 

 

OLI wird Bilddaten mit Hilfe von neun Spektralbändern aufnehmen. Darunter sind - im Vergleich zu seinen Vorgängern - zwei neue Spektralbänder: eines um hohe dünne Wolken (Cirren) beobachten zu können und eines um atmosphärisches Aerosol sowie die Wasserqualität in Seen und flachen Küstengewässern zu beobachten. OLI hat außerdem weniger bewegliche Teile als seine Vorgänger, was ihn weniger pannenanfällig macht.

TIRS wird Daten über die Wärmeabstrahlung der Erdoberfläche sammeln, und zwar in zwei thermalen Spektralbändern verglichen mit dem einen auf vorherigen Landsat-Missionen. Diese Erdbeobachtungen mit Hilfe der Thermalbänder erfahren eine zunehmende Bedeutung bei der Überwachung des Wasserverbrauchs, insbesondere in ariden Gebieten.

Beide Sensoren haben ein verbessertes Signal-Rausch-Verhältnis und eine radiometrische 12-Bit Quantisierung der Daten. Als weitere Verbesserung im Vergleich zu seinen Vorgängern wird Landsat-8 400 Szenen pro Tag an die Bodenstation senden und damit die Erfassungsleistung von Landsat-7 um bis zu 150 Aufnahmen pro Tag übertreffen. Hierdurch erhöht sich nicht zuletzt die Chance, wolkenfreie Aufnahmen der Erdoberfläche zu erhalten.

Whiskbroom vs. Pushbroom-Sensoren

Frühere Landsat-Sensoren (z.B. das Multispectral Scanner System, der Thematic Mapper und der Enhanced Thematic Mapper-Plus) benutzten Spiegel, die zur Datengewinnung quer zur Bodenspur hin- und herschwenkten wie ein flacher Reisstrohbesen (whiskbroom). Dieses Sensor-Design erfordert schnell bewegte Teile, die entsprechend zu Abnutzungserscheinungen neigen.

Neue Technologien erlauben es OLI die gesamte Breite der Bodenspur gleichzeitig zu erfassen und dabei Datenreihen zu erzeugen, die hintereinander gesetzt, kontinuierlich die Bodenspur bilden. Das Prinzip ist mit der Bewegungsrichtung eines kurzborstigen "Schiebebesens" (pushbroom) vergleichbar.

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA

 

Die folgenden beiden Bilder über die Region des Saltonsees vom 24. März 2013 gehören zu den ersten, die der LDCM-Satellit aufgenommen hat. Das linke Bild entstammt dem Thermal Infrared Sensor (TIRS). Es zeigt die von der Landschaft abgestrahlten Wärmemengen. Kühlere Bereiche erscheinen dunkel, wärme hingegen hell. Zum Vergleich zeigt das rechte Bild, das mit dem Operational Land Imager (OLI) aufgenommen wurde, die gleiche Szene in natürlicher Farbwiedergabe.

Was das Grauwertbild wiedergibt ist die Infrarotstrahlung, die von der Erde selbst erzeugt wird. Die Wärmeenergie, die von der Landoberfläche, von Wasserkörpern und der Vegetation emittiert wird, regt Elektronen an und erzeugt das Strahlungssignal eines Schwarzkörpers. Die Detektoren in TIRS können die Stärke dieser Signale in zwei verschiedenen Bandbereichen messen, die den Temperaturen auf dem Boden entsprechen.

Die Bilddarstellung ist im Prinzip vergleichbar mit den bildgebenden Thermaldetektoren, die von der Polizei verwendet werden, um z.B. aus der Distanz lebende Menschen in einem Gebäude aufzuspüren. Thermalbänder werden von Wissenschaftlern häufig verwendet, um das Vorhandensein von Wasser zu kartieren. Hier helfen die kühlere Flächen repräsentierenden dunklen Pixel im Thermalbild der Wasserwirtschaft zu erkennen, wo Wasser für Bewässerungszwecke verwendet wird.

In dem TIRS-Bild links stellen die dunklen Quadrate landwirtschaftliche Flächen dar, auf denen Pflanzen Wasser aus dem Boden aufnehmen und durch Transpiration der Blätter an die Luft abgeben. Pflanzen kühlen sich beim Vorgang der Transpiration ab, auch beim Vorgang der Verdunstung (Evaporation) von Wasser von der Blattoberfläche bei frischer Sprühbewässerung. Diese kombinierte Wasserabgabe der Pflanzen (Evapotransipration) und zusätzlich der Verdunstung von Wasser von der Bodenfläche senkt die Temperatur von Bewässerungsflächen insgesamt. Insofern benutzen die Wissenschaftler die Pflanzentemperaturen als indirektes Messverfahren zur Bestimmung der Bewässerungsintensität.

LDCM sucht in der Hitze nach Wasser

Es sieht wie das künstlerische Schwarzweißbild einer dramatischen Landschaft aus. Aber das linke Bild erzählt uns eine Geschichte über Temperaturen und gewissermaßen über deren Umweg eine Geschichte über Wasser in einem Ausschnitt der Erdoberfläche.
Es ist die Geschichte über Wasser in der südkalifornischen Wüste, aber es geht weniger um den ungewöhnlichen Salton Sea als vielmehr um die im Schachbrettmuster angeordneten Bewässerungsflächen, die sich nördlich und südlich des künstlichen Binnensees erstrecken.

 

Thermalaufnahme mit dem Instrument TIRS

Echtfarbenaufnahme mit der Instrument OLI

 

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA
 

Weitere Informationen:

Landwirtschaft und Fernerkundung

Die moderne Landwirtschaft befindet sich in einem stetigen Spannungsfeld vieler verschiedener Faktoren: eine steigende Lebensmittelproduktion und -produktivität, instabile Lebensmittelpreise, die Wechselwirkung der Nachfrage nach Lebensmitteln, Kraftstoffen und Futtermitteln, ein stetig steigender Bedarf, die zunehmende Anzahl an großen Agrarkonzernen, die Propagierung des ökologischen Landbaus und die zunehmende „Jagd“ nach Agrarland (im Extrem das 'land grabbing'), der Klimawandel, der Schutz der Biodiversität und die Wasserknappheit sind nur einige der Aspekte, die berücksichtigt werden müssen. Für die neue Ära der Landwirtschaft gewinnen neue Technologien wie z.B. der Einsatz von Geoinformationsdaten immer mehr an Bedeutung, um einen sparsamen und gleichzeitig ertragreichen und verantwortungsbewussten Anbau von Nutzpflanzen zu gewährleisten. Dies gilt sowohl für die großen Agrargebiete der Welt als auch für neue und schnell wachsende Anbauflächen.

Landwirtschaftliche Aktivitäten haben fast schon "definitionsbedingt" einen konkreten Raumbezug. Landwirtschaft wird unmittelbar im Raum wirksam, ist der unmittelbare Formgeber unserer Umwelt. Nicht zuletzt aus der letztgenannten landschaftsökologischen Schlüsselfunktion steigen die Anforderungen an eine zeitgemäße Landwirtschaft, sind neue Wege notwendig, mit diesen Anforderungen Schritt halten zu können. Zusätzlich ist eine weiter zunehmende unternehmerische Ausrichtung der Landwirtschaft notwendig, um ein langfristiges Überleben des jeweiligen Betriebes sicherzustellen.

Die Märkte sind heutzutage zunehmend unbeständig, komplex und verändern sich schneller als jemals zuvor. Hochwertige Agrarinformationen von Geodaten-Anbietern sowie Branchenkenntnisse vor Ort oder über ganze Agrargebiete kommen der gesamten Wertschöpfungskette zugute: den Produzenten, lebensmittelverarbeitenden Unternehmen, Handelshäusern, Rohstoffbörsen, landwirtschaftliche Beraterfirmen, Hedgefonds und Investoren, Finanz- und Investmentdienstleistern für Agrarrohstoffe sowie Rückversicherungsunternehmen, jedoch auch institutionellen Einrichtungen, multilateralen Banken, Ideenschmieden und Nichtregierungsorganisationen. Nicht zuletzt profitieren auch die Agrarforschung und Umweltinstitutionen und -organisationen bei ihrer Arbeit.

Die Landwirtschaft gilt als Wirtschaftszweig, der dem Einfluss von Umweltfaktoren in besonderem Maße ausgesetzt ist. Zur Stabilisierung von Ergebnis und Qualität der landwirtschaftlichen Produktion muss der Landwirt, die durch ihn beeinflussbaren Umweltfaktoren weitestgehend optimieren. Dazu bedarf es einerseits des lokalen und regionalen Wissens des Landwirtes selbst und andererseits zunehmend Informationen, die über das "einfache" Ableiten empirischer Entscheidungs- und Handlungsrichtlinien hinausgehen. Insbesondere letzterem Aspekt wird mit der Einführung des Teilschlagmanagements (precision farming) in die Landwirtschaft Rechnung getragen.
Da aber nur selten flächendeckend aktuelle Daten verfügbar sind, muss entweder auf historische bzw. veraltete Daten zurückgegriffen werden (z.B. Reichsbodenschätzung in Deutschland) oder es stehen keine Daten zur Verfügung. Dieses Problem kann nicht ausschließlich auf Grundlage konventioneller Erhebungsstrategien gelöst werden. Hier ist, neben anderen Informationsquellen, insbesondere die durch GPS ortspräzise Fernerkundung in Kombination mit GIS von besonderer Bedeutung.

Europe’s dry soils seen from space

Zu größerer Darstellung auf Bild klicken
Quelle: ESA

 

Im Bildbeispiel links aus dem Jahr 2012 ist die Relevanz von Fernerkundung für die niederschlagsabhängige Landwirtschaft nachvollziehbar.
In den ersten Monaten des Jahres 2012 hatte sich der europaweite Trend von unterdurchschnittlichem Niederschlag fortgesetzt. Die 'SMOS'-Wassermission der ESA enthüllte die negativen Konsequenzen dieser Periode 'guten' Wetters.
Die Wasserversorger insbesondere in Spanien, Frankreich, Deutschland und im UK verfolgten den Mangel mit Sorge. Sie sahen die Ernten bedroht verbunden mit der Gefahr erhöhter Nahrungsmittelpreise. Gleichzeitig wurde eine Trinkwasser- oder Brauchwasserknappheit für die Industrie befürchtet. Die Binnenschifffahrt war durch geringe Pegelstände (Rhein, Elbe) bedroht mit entsprechenden Auswirkungen auf die Industrie. In Bayern brachen im Herbst 2011 trockenheitsbedingte Waldbrände aus.
SMOS registriert die von der Erde emittierte Mikrowellenstrahlung um die Menge der in den oberen 5 cm des Bodens vorhandenen Feuchtigkeit zu berechnen.
Die SMOS-Daten der Grafik links zeigen der Unterschied der Bodenfeuchte zwischen Februar 2011 und 2012 in Europa. Ein geringer Bodenwassergehalt ist besonders deutlich in Spanien, Frankreich und im UK.
In wissenschaftlicher Sicht sind die SMOS-Informationen besonders für ein besseres Verständnis des Wasserkreislaufs und der Austauschprozesse zwischen der Erdoberfläche und der Atmosphäre von Bedeutung.
Die SMOS-Messungen haben eine räumliche Auflösung von 50 km, wobei für manche Anwendungen eine höhere Auflösung wünschenswert wäre. Durch die Kombination von SMOS-Daten mit hoch aufgelösten Daten zu Vegetation und Landoberflächentemperatur können Bodenfeuchte-Karten mit einer Auflösung von 1 km erzeugt werden.
Die Informationen können einen wichtigen Beitrag für Entscheidungen in der landwirtschaftlichen Planung leisten.
Kombiniert man die Bodenfeuchtedaten mit anderen, aus Satellitendaten abgeleiteten Informationen, wie Vorhersagen von Lufttemperatur und Windstärke, können Gebiete mit einem erhöhten Feuerrisiko ausgemacht werden.

 

Die für die Landwirtschaft bereitgestellten Informationsprodukte aus der Fernerkundung, bedarfsgerecht aufbereitet auf Schlagebene müssen zudem unter Hinzuziehung von Zusatzinformationen und Modellen zu komplexen Entscheidungsgrundlagen zusammengefasst werden. Dazu bedarf es der Ableitung geeigneter Parameter und deren hochgenaue räumliche Zuordnung. Während der Vegetationsperiode muss eine zeitliche Verfügbarkeit der Information im Bereich von 3 Tagen gewährleistet werden.

Zumindest in vielen Industrieländern ist Landwirtschaft nicht mehr auf ihre Funktion als Produzent landwirtschaftlicher Erzeugnisse reduziert. Vielmehr ist der heutige Zustand der Landschaft insgesamt ganz wesentlich das Ergebnis landwirtschaftlicher Bewirtschaftung durch den Menschen. Da der überwiegende Teil der Kulturlandschaft landwirtschaftlich genutzt wird, tragen die Landwirte in hohem Maße Verantwortung für das Landschaftsbild. Sie beeinflussen infolge ihrer flächenhaften Bewirtschaftung ganz wesentlich die Lebensräume vieler wildlebender Tier- und Pflanzenarten. Insofern hat die Landwirtschaft auch immer eine landschaftspflegende Funktion. Dieser Gesichtpunkt gewinnt aber zunehmend im Rahmen von nationalen und internationalen Richtlinien (z.B. EU-Wasserrahmenrichtlinie) an Bedeutung.

Die AGENDA 2000 ist die bisher weitreichendste Reform der Agrarpolitik in der EU. Sie verfolgt eine stärkere Markt- und Umweltorientierung der Landwirtschaft, um gleichzeitig eine strengere gesamtwirtschaftliche Haushaltsdisziplin durchzusetzen. Damit wird einer regional orientierten und bedarfsgerechten Information und Beratung der Landwirtschaft in absehbarer Zeit eine entscheidende Rolle beigemessen.
Zur Durchsetzung dieses Konzeptes ist ein flächendeckendes Monitoring zur Zustandserfassung und Vorhersage von Nutzungskonkurrenz zwischen Naturschutz sowie Landwirtschaft erforderlich. Eine derartige Optimierung würde zu einer modellgeführten Entscheidungshilfe für die Land- und Forstwirtschaft sowie den Natur- und Landschaftsschutz führen. Die ökologische und ökonomische Optimierung der Landwirtschaft ist eine Antwort auf die zunehmende Strukturverarmung, die offensichtliche Bevölkerungsabwanderung und den zu verzeichnenden Verlust an regionaler Identität und Attraktivität des ländlichen Raumes. Bei der Beschaffung der erforderlichen Datengrundlagen für die Entwicklung einer ressourcen- und umweltschonenden sowie den Bedürfnissen des Endverbrauchers modifizierten Landwirtschaft kann die Fernerkundung einen wesentlichen Beitrag leisten.

MARS

Die Monitoring Agricultural ResourceS (MARS) Unit wurde am 15. Juli 2007 gegründet. Unter Beibehaltung des Akronyms und mit zusätzlichen Aufgaben und Technologien versehen geht die Arbeitsgruppe aber auf eine 20 Jahre ältere Einheit zurück: Im Jahr 1988 begann das Projekt Monitoring of Agriculture with Remote Sensing (MARS) und war ursprünglich dazu vorgesehen, die aufkommende Raumfahrttechnologie zu nutzen, um unabhängige und zeitnahe Informationen über Ackerflächen und Erträge zu liefern.

Aufgrund von Nutzeranforderungen hat die Arbeitsgruppe seit 1993 zu einer effektiveren und effizienteren Umsetzung der Gemeinsamen Agrarpolitik durch die Bereitstellung einer größeren Vielfalt an technischer Unterstützung für die Generaldirektion Landwirtschaft und ländliche Entwicklung und die Verwaltung in den Mitgliedstaaten beigetragen.
Seit dem Jahr 2000 wird die Expertise bzgl. Nutzpflanzenerträgen auch außerhalb der EU angewandt. Es wurden Dienste entwickelt, um die Hilfs- und Unterstützungspolitik der EU zu unterstützen und die Fähigkeit der Europäer zum weltweiten Landwirtschafts-Monitoring sowie zur Beurteilung der Nahrungsmittel-Sicherheit aufzubauen.
Die EU-Mitgliedstaaten müssen Subventionen, die den Bauern bezahlt werden, kontrollieren, um Unregelmäßigkeiten (zu hohe Anträge oder doppelt gestellte Anträge) zu verhindern. Die Mitgliedstaaten müssen auch sicherstellen, dass die Landwirte bestimmten Standards bezüglich öffentlicher und Pflanzen- und Tiergesundheit, dem Wohlergehen der Tiere und bzgl. der Umwelt entsprechen, und dass sie ihr Land nach guter landwirtschaftlicher Praxis und umweltgerecht bewirtschaften (sog. cross compliance). Daher müssen die Mitgliedstaaten ein System zur Verfügung haben, um die eindeutige Identifikation ihrer Landwirte und aller ihrer Parzellen (Land Parcel Identification System, LPIS) sowie ihrer Tiere sicherzustellen.
Die Kontrolle der Rechtmäßigkeit von Subventionszahlungen wird mit Überprüfungen durch die Agrarverwaltung durchgeführt, und Vor-Ort-Kontrollen werden bei mindestens 5 % der gesamten Anzahl der Landwirte durchgeführt, die Direktzahlungen beanspruchen.

Quelle: European Commission - Joint Research Centre

 

Die Einführung eines Integrierten Verwaltungs- und Kontrollsystems (InVeKoS) wurde bereits im Zuge der Reform der Gemeinsamen Agrarpolitik (GAP) im Jahre 1992 beschlossen. InVeKoS ist ein wesentliches Kontrollinstrument für die Agrarausgaben der EU.
Das später eingefügte, und seit 2005 gültige Reformelement Cross Compliance verknüpft die volle Gewährung von Direktzahlungen an die Einhaltung bestimmter Vorschriften. Das zielt insbesondere auf die Einhaltung von insgesamt 19 EG-Verordnungen bzw. -Richtlinien (Grundwasserschutz, Nitrat, Klärschlamm, Düngemittelrecht, FFH, Vogelschutz usw.) sowie auf Vorschriften zur Erhaltung von Flächen in einem guten landwirtschaftlichen und ökologischen Zustand. Letzteres betrifft konkret Regelungen zur Erosionsminderung und zur Mindestinstandhaltung von Flächen. Bei Nichteinhaltung der Regelungen werden die Zuwendungen entsprechend der Schwere der Zuwiderhandlung gekürzt. Die begleitende Maßnahme MARS (Monitoring Agriculture with Remote Sensing techniques) CAP konzentriert sich auf die Umsetzung und Kontrolle von flächenbasierten Beihilfen für die Landwirte mit besonderem Schwerpunkt auf der effizienten Nutzung von Geomatiktechniken (Luft- oder Satellitenorthobilder, GIS, GPS). Im Rahmen von MARS werden auch regelmäßig Bulletins zu Erntevorhersagen veröffentlicht (Bspl. Mars Bulletin Vol. 20 No. 06 Crop Monitoring in Europe - 25 June 2012).

Über den Einsatz von Fernerkundung innerhalb einer deutschen Landwirtschaftsverwaltung (Bspl. Baden-Württemberg) gibt der folgende Link Auskunft (pers. Mitteilung).


Fernerkundung im Rahmen der Cross Compliance
Einsatz von Fernerkung möglich bei:

"Erhaltung landwirtschaftlicher Flächen in einem guten ökologischen Zustand"
• Erosionsschutz
• Einhaltung von Anbauverhältnissen
• Instandhaltung von aus der Produktion genommenen Flächen
• Erhalt von Landschaftselementen

Einsatz von Fernerkundung nicht möglich bei:

• Futtermittelkontrollen
• Tierschutz
• Verwendung von Hormonen zur Behandlung von Tieren
• Lebensmittelsicherheit
• Tierseuchen
• Nitratrichtlinie

Bilderkundung mittels modernster Satellitentechnik oder von Flugzeugen aus sind zwei Techniken, die in der Landwirtschaft auch im Produktionsprozess selbst seit Längerem Einzug gehalten haben. Mit diesen Methoden können z.B. Daten gewonnen werden, um jede Teilfläche innerhalb eines Feldes mit genau der Menge an Nährstoffen zu versorgen, die nötig ist (Precision Farming). Allerdings sind Systeme der Fernerkundung per Satellit und Flugzeug in der Praxis hauptsächlich dazu geeignet, großflächig Daten zu erheben. In der Erprobung für den kleinräumigeren Einsatz sind kleine kostengünstige Drohnen, z.B. Quadrokopter, die zeitnah die benötigten Daten erheben können.

Borneo: Treasure Island at Risk


Zu größerer Darstellung auf Bild klicken
Quelle: NASA

Kalimantan besaß einst eine üppige tropische Landschaft mit einigen der weltweit begehrtesten Holzarten. In den letzten Jahren verursachten verstärkter Holzeinschlag und expandierende Landwirtschaft eine rasche Veränderung des Landschaftsbildes.
Die tropischen Regenwälder werden immer weiter abgeholzt und durch Palmölplantagen ersetzt, eine Reaktion auf die steigende Nachfrage nach Bio-Treibstoffen und Rohstoffen für die Nahrungsmittel- und die Chemieindustrie (Brot, Eiscreme, Schokolade; Seife, Plastik, Kosmetik). Da Palmöl einen immer höheren Profit verspricht, werden noch mehr Waldflächen gerodet. Ob die Holzgewinnung - sie hat sich von den Küsten weg zum Bergland hin verlagert - oder die landwirtschaftliche Nutzung im Vordergrund steht, die Waldvernichtung vollzieht sich mit zunehmender Geschwindigkeit. In Südostasien haben im Zeitraum 2000 - 2009 die Flächen mit Palmölplantagen von 4,2 Mio. ha auf 7,1 Mio ha zugenommen. Durch die Regenwaldvernichtung entsteht eine Dekaden bis Jahrhunderte andauernde negative Kohlenstoffbilanz, die einem der vorrangigsten Gründe für den Einsatz von Biotreibstoffen widerspricht. Sie beeinträchtigt auch lebenswichtige Funktionen des Ökosystems, die durch die Plantagen nicht ersetzt werden können.
Das Bild links in naturnaher Farbwiedergabe zeigt eine Region im S von Kalimantan, aufgenommen am 16. 7. 2000 vom Sensor ETM+ auf dem Satelliten Landsat 7. Hellgrüne Flächen mit hellbraunen Gitterlinien zeigen Teile des Regenwaldes, die für Palmölplantagen und für Straßen gerodet wurden. In den dunkelgrünen Flächen ist der Regenwald noch erhalten.
Wenn Bäume geschlagen werden, kann Erosion zu einem Problem werden. Das tropische Klima Südostasiens bringt für Kalimantan den saisonalen Wechsel von Monsunniederschlägen und Trockenzeiten. Während der Trockenzeiten ist die obere Bodenschicht, die ursprünglich von einem Baumkronendach geschützt war, der direkten Sonneneinstrahlung ausgesetzt. Der Boden trocknet aus, Sedimente an der Oberfläche werden staubig ohne Verbindung zum Unterboden. Am Beginn der Regenzeit spült der einsetzende Monsunregen die lockeren Bodenteilchen in die Javasee.
Im Bild sind die Flüsse als rötliche Linienstrukturen zu erkennen, ein Ergebnis der Wasserfracht aus Sediment und Boden. Wenn die Sedimente das Meer erreicht haben, machen sie durch ihre unterschiedliche Dichte und Bewegung die Wellen und Wirbel der Küstengewässer sichtbar. Dieser Sediment- und Bodenverlust ist nachteilig für die Palmölplantagen. Viele der für ein gesundes Pflanzenwachstum nötigen Nährstoffe werden ins Meer verfrachtet und lassen einen verarmten Boden zurück.

Weitere Informationen:

 

Akteure im Agribusiness benötigen zuverlässige Prognosen der Nutzpflanzenproduktion, um auf den Märkten für Agrarrohstoffe vorausschauend handeln zu können. Zu diesem Zweck kooperieren Dienstleister aus unterschiedlichen Sektoren, um geeignete Datenprodukte bereit zu stellen.
Beispielsweise haben Astrium Services und Zedx ihr Fachwissen in den Bereichen Fernerkundung und Erstellung agrarmeteorologischer Modelle für die Bereitstellung unabhängiger, präziser und zuverlässiger täglicher Informationen für die Marktteilnehmer in dem Projekt CropForecaster vereint. Aus solchen Kooperationen ergeben sich u.a. folgende Möglichkeiten:

  • Analyse der allgemeinen Wachstumsbedingungen und Bepflanzungsmuster der weltweit bedeutendsten Landwirtschaftsgebiete,
  • Nachverfolgung der Entwicklung von bedeutenden Nutzpflanzen in Nahe-Echtzeit vom Büro aus,
  • Prognose von Veränderungen bei Lieferanten auf dem Markt für Agrarrohstoffe.
Wichtige fernerkundungsbasierte Produkte für die Landwirtschaft:
Agrarmeteorologische Parameter (z.B. Boden- und Lufttemperatur)
Bodenparameter (z.B. Bodenheterogenität, Bodenerosionsgefährdung)
Vegetationsparameter (z.B. Blattflächenindex, Interzeptionsspeicher, Vegetationsentwicklung, Ernährungszustand)
Vorhersage von Schädlingsbefall und Schadenserhebung (z.B. Heuschrecken)
Technologische Informationen (z.B. Bearbeitungsoptimierung)
Analyse der allgemeinen Wachstumsbedingungen und Bepflanzungsmuster der weltweiten Agrarräume

Während das erste Luftbild überhaupt bereits 1858 von einem Ballon aus gemacht wurde, scheint der erste belegte Einsatz von Fernerkundung in der Landwirtschaft aus dem Jahr 1927 zu stammen, als in den USA Luftbilder benutzt wurden, um gesunde Baumwollpflanzen von Pflanzen zu unterscheiden, die an Wurzelfäule eingegangen waren. Die Auswertung von Satellitenbildern im Hinblick auf Kulturpflanzen begann 1978 mit Landsat-Aufnahmen. Inzwischen ist der Einsatz von Satelliten- und Luftbildern durch Regierungen und durch die Agrarindustrie i.w.S. zur Vorhersage von Ernteergebnissen, zur Schadensabschätzung durch Naturkatastrophen und für andere Informationen über das Wachstum von Nutzpflanzen verbreitete Praxis. Allerdings gibt es noch zu wenige Studien, die den Nutzen des Einsatzes von Fernerkundung auf Betriebsebene belegen.

Two Niles Meet

Zu größerer Darstellung auf Bild klicken - Quelle: NASA

Obwohl er nur einen Bruchteil der Wassermengen führt, die den Amazonas, den Kongo oder den Niger hinabfließen, ist der Nil der längste Fluss der Welt (6.852 km). Seine beiden wichtigsten Quellflüsse, der Weiße Nil (links) und der Blaue Nil (rechts), treffen in Khartum (Sudan) zusammen, einer regenarmen Stadt mit nahezu 2 Mio. Einwohnern zusammen. Die Region ist völlig vom Nilwasser für Bewässerungszwecke abhängig. Gut bewässerte Feldfrüchte ziehen sich an den Ufern entlang, und ein Flickenteppich aus Feldern, einschließlich solchen mit Karusselbewässerung finden sich in den Außenbezirken der Stadt.
Der Sensor Advanced Land Imager (ALI) auf dem NASA-Satelliten EO-1 nahm dieses Bild in naturnahen Farben am 26.4.2013 auf. Zu dieser Zeit nähert sich hier das Ende der Trockenzeit. Verglichen mit dem Weißen Nil ist der Blaue Nil zu dieser Zeit schmal, und seine saisonal stark schwankenden Wassermassen befinden sich auf dem jährlichen Tiefstand. Ausgeprägte Trockenzeiten und Dürren können den Blauen Nil zeitweise vollkommen austrocknen.

Die unterschiedlichen Farben erhalten die beiden Quellflüsse von den verschiedenen Sedimenten, die sie mitführen. Von seiner Herkunft aus einer äquatorialen Seenregion führt der Weiße Nil leichte graue Sedimente mit. Beim mäandrierenden Durchqueren flacher Gebiete verliert der Weiße Nil über die Hälfte seines Wassers durch Verdunstung aber auch Teile seiner Sedimentfracht.
Der kürzere, insgesamt deutlich wasser- und sedimentreichere Blaue Nil entspringt in den Hochländern von Äthiopien und Eritrea, von wo er seine dunklen Sedimente nach Khartoum transportiert. Der Blaue Nil wird von starken Monsunniederschlägen gespeist und er kann bei besonders starken Niederschlägen gegenüber dem Weißen Nil so mächtig sein, dass er beim Zusammenfluss stromauf in dessen Flussbett eindringt.
Während die Menschen stromaufwärts überwiegend tropischen Regenfeldbau betreiben, sind die Menschen in Sudan und Ägypten auf Bewässerungsfeldbau durch Wasserentnahme aus dem Nil angewiesen. Dies sind ca. 120 Mio. Menschen.

References:

 

Weitere Informationen:

langwellige Strahlung

Die Strahlung, deren Wellenlängen größer als 0,4 Mikrometer sind, was der Strahlung entspricht, die von der Erde und der Atmosphäre ausgesandt wird.

LANIS-Bund

Akronym für Landschafts- und Naturschutzinformationssystem des Bundesamtes für Naturschutz (BfN). Es ist auf den Bedarf von Landschaftspflege und Naturschutz im Bundesamt abgestimmt. Es wurde von der damaligen Bundesforschungsanstalt für Naturschutz und Landschaftsökologie (BFANL) zwischen 1974 und 1980 konzipiert und wird durch das heutige Bundesamt für Naturschutz (BfN) für die interne Nutzung betrieben.

Die wesentlichen Komponenten bilden ein Metainformationssystem zum Auffinden von LANIS-Bund-Objekten, das Recherchen nach Fach-, Raum- und Zeitbezug ermöglicht sowie XML-Schnittstellen zu den Datenbanken und Fachinformationssystemen innerhalb des BfN. Die Metadatenkomponente beruht in weiten Teilen auf dem Prinzip des öffentlichen Umweltdatenkataloges. LANIS-Bund ermöglicht so eine übergreifende Recherche in zahlreichen Informationsbeständen des BfN.

Als Fachbezug wird der Allgemeine Umweltthesaurus des Umweltbundesamtes sowie weitere naturschutzspezifische Mikrothesauri genutzt. Der Fachbezug ermöglicht die Recherche in einem definierten Wortgut, das hierarchisch aufgebaut ist und damit auch Recherchen nach übergeordneten, nachgeordneten oder ähnlichen Begriffen realisiert. Hintergrund des Raumbezuges sind sowohl geotopographische Basisinformationen als auch fachspezifische Schutzgebietsinformationen wie Nationalparke, Naturschutzgebiete oder Landschaftsschutzgebiete. Der Raumbezug stellt deren räumliche Beziehungen dar.

Über XML-Schnittstellen werden weitere Datenbanken des BfN dynamisch abgefragt. Derzeit sind eine Schmetterlingsdatenbank, eine Kartendokumentation und prototypisch ein digitales Bildarchiv eingebunden. Die Rechercheergebnisse werden diensteorientiert, geographische Informationen beispielsweise in einem Mapping Service, dargestellt. LANIS-Bund erfüllt den Informationsbedarf der Mitarbeiter des BfN nach Naturschutzinformationen zur Erfüllung der Amtsaufgaben und wird dauerhaft gepflegt und weiterentwickelt.

LAPAN

Indon. Akronym für Lembaga Penerbangan Dan Antariksa Nasional; staatliche Raumfahrtagentur. Sie ist zuständig für alle staatlichen indonesischen Forschungs- und Entwicklungsprojekte im Bereich Luft- und Raumfahrt.

Weitere Informationen:

  • LAPAN Homepage
  • National Institute of Aeronautics and Space (Wikipedia, engl.)
Laser

Engl. Akronym für light amplification by stimulated emission of radiation, also Lichtverstärkung durch stimulierte Strahlungsfreisetzung; im Bereich der Fernerkundung ein aktives Instrument. Laserlicht kann im Spektralbereich zwischen Infrarot- und Ultraviolettstrahlung erzeugt werden und ist monochromatisch (eine Spektrallinie) sowie kohärent – ein Lichtstrahlenbündel ist kohärent, wenn sich alle seine Wellen bzw. Photonen phasengleich ausbreiten. Dies ist der Grund, weshalb sich Laserlicht mit extrem hoher Intensität, äußerst geringer Strahlaufspaltung und hoher Farbreinheit (Frequenzschärfe) erzeugen lässt.

Laserentfernungsmessung

Engl. laser ranging; hochpräzise Methode zur Bestimmung des Abstands Erde-Mond (Lunar Laser Ranging, LLR) sowie zur Entfernungsmessung zu Satelliten (Satellite Laser Ranging, SLR) und zur Positionsbestimmung von Satelliten (Satellitengeodäsie) nach dem Puls-Echo-Verfahren (also mit einer Laufzeitmessung) von einer Bodenstation aus.

Laserdistanzmessungen können nur zu Satelliten durchgeführt werden, die mit geeigneten Laserreflektoren ausgerüstet sind. Die Reflektoren haben die Aufgabe, das Licht in dieselbe Richtung zurückzustrahlen, aus der es einfällt. Solche Reflektoren werden auch Retroreflektoren genannt. Da es sich bei Retroreflektoren um passive Systeme handelt, die sich verhältnismäßig einfach als zusätzliche Komponenten an Satelliten installieren lassen, sind heute eine größere Zahl von Raumflugkörpern damit ausgestattet. Bei den meisten so ausgestatteten Satelliten geht es darum, mit Hilfe von Laserdistanzmessungen genaue Bahninformationen für die eigentlichen Satellitenmissionen zu erhalten. Da diese Satelliten jedoch weitere Aufgaben erfüllen, können die Reflektoren nicht konzentrisch zum Massenzentrum angeordnet werden. Deshalb muss eine eindeutige Beziehung zwischen dem jeweils angemessenen Reflektor und dem Satellitenzentrum aufgestellt werden. Eine Liste der Satellitenmissionen, die sich des Laser Rangings bedienen wird vom International Laser Ranging Service vorgehalten.

Neben den Fernerkundungs- oder Navigationssatelliten, die mit Retroreflektoren ausgestattet sind, gibt es spezielle Lasersatelliten (z.B. LAGEOS, Starlette), bei denen das Laser Ranging im Vordergrund steht. Dafür muss die Satellitenbahn sehr stabil sein. Daher baut man Lasersatelliten mit einem Kern aus Schwermetall, so dass bereits ein fußballgroßer Satellit wie Starlette fast 50 kg wiegt. Er erleidet dadurch nur geringe Bahnstörungen durch nicht-gravitative Kräfte (Hochatmosphäre, Lichtdruck, Sonnenwind etc.), und die Bahn kann genauestens bestimmt werden – zum Beispiel für Satellitentriangulation oder zur Berechnung des Erdschwerefeldes.

Beim Satellite Laser Ranging generiert ein Impulslaser eine Folge pikosekundenlanger Laserpulse, die über ein optisches Teleskop auf einen Satelliten gerichtet sind. Das Teleskop wird dem Satelliten nachgeführt. Der Satellit, ausgestattet mit Retroreflektoren, leitet die Laserpulse wieder zurück zur Bodenstation. Hier werden sie vom Teleskop wieder empfangen und auf einen Detektor geleitet. Die Entfernung berechnet sich aus der Laufzeit, multipliziert mit der Lichtgeschwindigkeit. Ein Laufzeitmesssystem erfasst die Laufzeitdifferenz zwischen den ausgesendeten und empfangenen Laserpulsen. Die Messgenauigkeit ist abhängig von der Länge des Laserpulses, dem Detektor und dem Laufzeitmeßsystem. Der Einfluß der Atmosphäre (troposphärische Refraktion) wird modellmäßig berücksichtigt. Neuere Laserentfernungsmeßsysteme nutzen heute zur Bestimmung des atmosphärischen Einflusses simultane Messungen auf zwei unterschiedlichen Wellenlängen. Die Laufzeitdifferenz der in der Wellenlänge unterschiedlichen Impulse, die synchron ausgesendet werden, wird mit Streakkameras gemessen. Weltweit gibt es etwa 40 Laserentfernungsmeßsysteme. Die internationale Zusammenarbeit wird im Rahmen des International Laser Ranging Service (ILRS) koordiniert.

Laserentfernungsmessungen zu künstlichen Satelliten


Man sendet einen kurzen Laserpuls zu einem künstlichen Satelliten. Dort wird das Licht über geeignete Reflektoren (z.B. Tripelprismen) wieder zurück geleitet.

Am Ausgangspunkt startet der ausgehende Laserpuls eine Stoppuhr, das zurückkehrende Licht löst einen Stopppuls aus. Die gemessene Zeit ist die Laufzeit des Lichtpulses. Diese Laufzeit mit der Lichtgeschwindigkeit multipliziert ergibt eine Strecke, die der doppelten Entfernung vom Messsystem zum Satelliten entspricht. Da das Licht durch die Atmosphäre läuft, sind noch Korrekturen anzubringen, die die Refraktion des Lichtes berücksichtigen. Das Verfahren ist den allgemein bekannten Radarverfahren vergleichbar und ist auf den ersten Blick einfach.

Zu größerer Darstellung auf Abbildung klicken

Quelle: http://www.fs.wettzell.de/WLRS/inf_mend.html

 

Satellite Laser Ranging dient einerseits zur genauen Bahnbestimmung der Umlaufbahn von geodätischen Satelliten, andererseits zur Punktbestimmung in der Erdmessung und Geodynamik. Daraus können Veränderungen des Erdkörpers und der Erdrotation abgeleitet werden – zusammen mit anderen Verfahren der Höheren Geodäsie.
Laserentfernungsmeßsysteme erlauben es heute, Entfernungen bis zu geostationären Satelliten mit Zentimetergenauigkeit zu messen. Laserentfernungsmessungen zum Mond (LLR), beruhen auf Laufzeitmessungen von Laserpulsen zu den Reflektoren auf der Mondoberfläche, die von den bemannten Raumfahrtmissionen der Amerikaner zum Mond (Apollo-Missionen 11, 14 und 15) sowie von der sowjetischen automatischen Mondmissionen Lunar 17 und 21 ausgesetzt wurden. Nur sehr leistungsfähige Laserentfernungsmeßsysteme sind in der Lage, die Entfernung zum Mond zu messen.
Die erreichbare Genauigkeit der Zeitmessung (unter 10-10 s) erlaubt eine Genauigkeit der Entfernungsmessung von unter einem Zentimeter und soll bis auf wenige Millimeter verbessert werden. Zur Auswertung der Daten und der Berechnung der Mondbahn, d.h. der Positionsbestimmung zu beliebigen Zeitpunkten, müssen die Allgemeine Relativitätstheorie verwendet und alle grösseren Körper des Sonnensystems einbezogen werden. Auch die Auswirkungen der Gravitation der Sonne auf die Lichtausbreitung (Laufzeitverlängerung, Strahlkrümmung) ebenso wie die Kontinentaldrift und die Gezeitenverformung der Erde sind bei diesen Genauigkeiten zu berücksichtigen.

Weitere Informationen:

Laserscanner

Flächenhaft abtastende, häufig flugzeuggestützte Sensoren, die zur direkten Erfassung der topographischen Geländeoberfläche dienen. Das System ermöglicht ein automatisches Messen von dreidimensionalen polaren Koordinaten der flächenhaft verteilten Reflexionspunkte und somit eine räumliche Objekterfassung.

Laserscanner finden heute in unterschiedlichen Konstellationen ihre Anwendungen bei der Gewinnung von Daten, so z.B. als:

  • Terrestrisches Laserscanning (TLS) mit Reichweiten zwischen 1 m bis 1000 m und Registriergenauigkeiten im Bereich weniger Millimeter.
  • Airborne-Laserscanning (ALS) mit Reichweiten zwischen 500 bis 1500 m und Registriergenauigkeiten im Bereich des Dezimeters
  • Mobiles Laserscanning (MLS) mit Reichweiten bis etwa 200 m und Registriergenauigkeiten im Bereich weniger Zentimeter

Beim Terrestrischen Laserscanning (TLS) wird die Oberflächengeometrie von Gegenständen mittels Pulslaufzeit, Phasendifferenz im Vergleich zu einer Referenz oder durch Triangulation von Laserstrahlen digital erfasst. Dabei entsteht eine diskrete Menge von Abtastpunkten, die als Punktwolke bezeichnet wird. Die Koordinaten der gemessenen Punkte werden aus den Winkeln und der Entfernung in Bezug zum Ursprung (Gerätestandort) ermittelt.

Im Gegensatz zur luftgestützten Anwendung kann bei TLS von statischen Aufnahmesituationen ausgegangen werden. Mit fortschreitender Technik werden TLS-Systeme aber auch zunehmend auf mobilen Plattformen (Kfz, Schiff, Zug) installiert um großräumige linienhafte Strukturen, wie Lichtraumprofile einer Eisenbahntrasse, zu erfassen. In diesem Falle spricht man zunehmend von kinematischen terrestrischen Laserscanning (k-TLS) bis hin zu Mobile Mapping-Systemen, wie sie beispielsweise für die Datenerfassung bei Google Street View zum Einsatz kommen.

Eine weitere Untergliederung ermöglicht die dimensionale Betrachtungsweise für 2D- und 3D-Anwendungen.
Beim 2D-Laserscanning wird die Kontur von Gegenständen auf einer Ebene digital erfasst. In Sicherheitssystemen wird 2D-Laserscanning als berührungslos wirkende Schutzeinrichtung benutzt um zu erkennen, ob Personen oder Gegenstände definierte (Gefahren-)Bereiche überschreiten um dann entsprechende Maßnahmen einleiten zu können (z. B. Abschaltung von Maschinen).
2D-Laserscanner werden auch eingesetzt um Objekte automatisch zu erkennen, so zum Beispiel auf den Lkw-Maut-Kontrollbrücken auf deutschen Autobahnen. Weitere Anwendungsgebiete sind die Erstellung von Karten in der Robotik sowie die Erkennung von Hindernissen bei autonomen mobilen Robotern.

Das 3D-Laserscanning liefert als Ergebnis dreidimensionale Punktwolken und somit ein vollständiges Abbild der Messszene. Anhand der Punktwolke werden entweder Einzelmaße wie z. B. Längen und Winkel bestimmt oder es wird aus ihr eine geschlossene Oberfläche aus Dreiecken konstruiert und z. B. in der 3D-Computergrafik zur Visualisierung verwendet.
Der Einsatz des terrestrischen 3D-Laserscanning umfasst zahlreiche Gebiete der Bestandsaufnahme und beginnt in der Architekturvermessung mit Schwerpunkten in der Bauforschung und Denkmalpflege. Weitere Anwendungsgebiete sind beispielsweise der Rohrleitungs- und Anlagenbau, die Archäologie, der Denkmalschutz, Reverse-Engineering und Qualitätssicherung sowie der Tunnelbau, die Forensik und Unfallforschung.

Ein Laserscanner, dessen Entfernungsbestimmung nach dem Impuls- oder Phasenmessverfahren funktioniert, speichert zusätzlich den Reflexionsgrad des Laserlichtes ab. In Kombination mit einer (u. U. externen) Digitalkamera können die Punktwolken zudem mit photorealistischen Texturen versehen werden.

Das Airborne Laserscanning (ALS) dient i.A. zur Erfassung von Geländehöhen und Objekten auf dem Gelände und ersetzt zunehmend die klassische Photogrammetrie. Die Sensorik operiert von Flugzeugen oder Hubschraubern aus. Bei der Entfernungsermittlung zum zu erfassenden Objekt können unterschiedliche Messprinzipen zum Einsatz kommen. Bei der Messung unter Ausnutzung der Lichtlaufzeit werden einzelne, kurze Laserpulse ausgesandt und die vom Objekt reflektierte Strahlung mit Sensor registriert. Die Zeit, die zwischen ausgesandten und empfangenen Pulsen liegt, ist ein Maß für die Entfernung zwischen der Sende- und Empfangseinheit. Alternativ kann eine Pulsfolge mit fester Frequenz ausgesandt und ihre Reflexion am zu vermessenden Objekt detektiert werden. Die Phasendifferenz zwischen ausgesandter und empfangener Pulsfolge ist ebenfalls ein Maß für die Entfernung.

Für eine korrekte Georeferenzierung der Entfernungsmessung ist es erforderlich, dass Position und Orientierung des Sensors im Raum zum Zeitpunkt der Messung bekannt sind. Im Falle des luftgestützten Laserscanning wird dazu eine Kombination aus mindestens einem GPS-Empfänger und inertialem Navigationssystem (INS) verwendet. Hierbei ist es wichtig, dass die verschiedenen Messwerte der unterschiedlichen Sensoren synchron ermittelt oder über geeignete Verfahren zumindest synchronisiert werden können. Beim luftgestützten Laserscanning lassen sich gemäß Herstellerangaben bzw. Dienstleistungsunternehmen unter günstigen Bedingungen (vegetationslose Flächen, schwache bis mittlere Geländeneigung) Genauigkeiten in der Höhe von 5–15 cm und in der Lage von 30 bis 50 cm erreichen. Mittels geeigneter Verfahren lassen sich dann aus den Daten der Entfernungsmessung und der Komponente GPS/INS dreidimensionale kartesische Koordinaten der gemessenen Punkte ableiten.

Die auf dem Markt für unterschiedliche Einsatzzwecke angebotenen Laserscanner können nach dem Messprinzip unterschieden werden in:

  • Gepulste Laser bieten die Möglichkeit, die erste und letzte Reflektion des ausgesandten Signals getrennt zu messen. Daher kann bei einer Messung im Wald, aufgrund der hohen Durchdringungsraten durch Laub- und Nadelwaldbestände, zwischen dem Bodenprofil (letzte Reflektion) und dem Bedeckungsprofil (erste Reflektion) unterschieden werden.
  • Dieses Prinzip liegt beim permanent messenden Continuous Wave Laser nicht vor. Er ist damit ungeeignet für Waldgebiete, da er eine mittlere Höhe zwischen Waldboden und Laubfläche liefern wird.
Laserscanner   Prinzip des Laserscanners

Eine in den letzten Jahren entwickelte Alternative zur Luftbildphotogrammetrie stellt die Vermessung des Geländes durch in Flugzeuge eingebaute Laserscanner dar. Mit deren Hilfe kann sogar in Waldgebieten die Geländeoberfläche mit hoher Genauigkeit vermessen werden, ebenso wie die darauf befindlichen Objekte.



Quelle:
http://www.hs-karlsruhe.de/servlet/PB/menu/1033666_l1/index.html
 

Hinsichtlich des Scanprinzips kann noch zwischen Scannern mit kippenden oder rotierenden Spiegeln bzw. mehrfach nebeneinander-liegenden Laserdioden, wobei jeder Diode eine bestimmte Meßrichtung zugewiesen wird, differenziert werden. Die Öffnungswinkel für die flächenhafte Abtastung liegen bei etwa 10 Grad. Bei Flughöhen von 1.000-1.500 m sind Genauigkeiten in der Lage von 1 m und in der Höhe von 0,1-0,3 m zu erreichen. Die erreichbare Genauigkeit wird im Wesentlichen durch die Genauigkeit der Sensorpositionierung/-orientierung mittels GPS und INS limitiert. Da i.d.R. 4 Punkte pro m² vorliegen, kann daraus ein repräsentativer Punkt für eine Rasterzelle der Größe 1x1 m berechnet werden. Ergebnis ist z.B. ein Geländemodell in Rasterform mit der Rasterzellengröße von 1x1 m. Diese Raster-DGM, kombiniert mit digitalen Orthophotos sind ideale Datenquellen für 3-D-Stadtmodelle, für Senderstandortplanung im Mobilfunk, für Hochwassersimulation, für Waldgebietskartierung und Virtual Reality-Szenen.

Laserscanning

Messung dreidimensionaler Punktkoordinaten mit Hilfe eines aktiven Systems, das entweder gepulstes oder kontinuierlich ausgesendetes Laserlicht verwendet. Es wird darüber die Position eines Messpunktes in Bezug auf das Sensorsystem bestimmt, das entweder in einem Flugzeug oder Helikopter installiert oder aber, beim terrestrischen Laserscanning, auch vor einem Objekt positioniert sein kann. Mit Hilfe weiterer Positionierungs- und Orientierungssensoren wird die Position des Sensorsystems selbst bestimmt, so dass letztendlich Koordinaten bezüglich eines Referenzsystems berechnet werden können. Gepulste Lasersysteme können meist im first pulse, last pulse oder in beiden Modi gleichzeitig aufnehmen, d.h. es wird entweder der nach der Reflektion am betrachteten Objekt zuerst oder der zuletzt wieder am Sensor eintreffende Signalanteil als Messung betrachtet.

Laserscanning-Messungen ergeben Rohdaten, die entsprechend aufbereitet, als Grundlage für zahlreiche Anwendungsgebiete eingesetzt werden können:

  • Modellierung von virtuellen Städten und Landschaftsansichten auf der Basis von digitalen Gelände- und Oberflächenmodellen
  • Monitoring von Infrastukturanlagen (Strassenbeläge, Bahngeleise, Freileitungen, etc.)
  • Dokumentation und Planung der Flächennutzung auf der Basis von Bodenbedeckung und Bodennutzung
  • Dokumentation von Fassaden zur Restauration und Sanierung von Gebäuden
  • Sichtbarkeitsanalysen (z.B. Sendemasten)
  • Dokumentation von Hochwasserereignissen
  • Hydrologische und hydraulische Modellierungen
  • Analyse der Vegetationsschicht und Berechnung von Biomasseindikatoren

Weitere Informationen:

Laufzeitkorrektur

Korrektur der aufgrund von atmospärischen Bedingungen gestörten Laufzeiten von Radarsignalen bei der Radaraltimetrie. In der Troposphäre verzögern Luftmoleküle die Signale. Die entsprechende Längenkorrektur kann in Trocken- und Feuchtanteile zerlegt werden. In der Ionosphäre ist die Verzögerung des Radarimpulses abhängig von der Frequenz und sie ist proportional zum Gesamtelektronengehalt (TEC). Altimeter, die mit zwei deutlich getrennten Frequenzen messen, erlauben mit hoher Genauigkeit eine in-situ-Abschätzung des TEC. Das erste Zwei-Frequenz-Altimeter war TOPEX. ENVISAT und Jason werden ebenfalls mit zwei Frequenzen betrieben.

L-Band

Frequenzbereich von 15 bis 30 cm Wellenlänge (2 bis 1 Ghz) innerhalb des Mikrowellensegments des elektromagnetischen Spektrums.
Das L-Band wird oft für experimentelle SAR-Systeme im militärischen wie auch im zivilen Fernerkundungsbereich eingesetzt, da es relativ wenig Energie benötigt. Bildgebende Radarsysteme, die mit L-Band arbeiten, werden nicht von atmosphärischen Effekten gestört und sind in der Lage durch kräftige Regenschauer "hindurch zu sehen". Auch ist seine Durchdringungstiefe durch Vegetationsbedeckung, Gletscher- oder Meereis und Böden beträchtlich. Daneben sind Radarsysteme mit L-Band gut geeignet für weitreichende Luftraumüberwachung.

LDCM / Landsat-8

Engl. Akronym für Landsat Data Continuity Mission; am 11.2.2013 gestartete Satellitenmission von NASA und USGS um den Bestand an Landsat-Daten über die Oberfläche des Planeten fortzuführen.
Am 30. Mai 2013 übernahm die USGS nach ausgiebigen Tests die Kontrolle des Satelliten von der NASA, gleichzeitig wurde LDCM in Landsat-8 (siehe dort) umbenannt.

Leaf Area Index (LAI)

siehe Blattflächenindex

LEO

Engl. Akronym für Low Earth Orbit; niedere Umlaufbahn von Satelliten in ca. 500-2.000 km Höhe (Angaben schwankend). Niedrigere Orbits sind wegen des Widerstands der Atmosphäre nicht stabil.
LEOs werden u.a. für die Telekommunikation (Mobiltelefondienste) genutzt. Wegen der Erdnähe benötigen solche Satelliten nur mäßig starke Transmitter für die Datenübertragung. Andererseits werden 48, 66, 77, 80 oder sogar 288 Satelliten benötigt, um eine kontinuierliche und globale Abdeckung zu gewährleisten.
LEO-Satelliten können sowohl polare, wie auch äquatoriale Umlaufbahnen haben. Satelliten auf einem LEO bewegen sich mit ca. 27.400 km/h (8 km/s), womit sie einen Umlauf in etwa 1,5 Stunden bewältigen. Die hohe Geschwindigkeit ist erforderlich, um ein schwerkraftbedingtes Eintauchen in die Erdatmospäre zu verhindern.
Auch Erdbeobachtungs- und Wettersatelliten bewegen sich oft auf LEOs, da sie von der geringeren Höhe aus einen größeren Detailreichtum aufnehmen können. Ebenso wurden alle modernen (post-Apollo) Missionen bemannter Raumfahrt, einschließlich aller Raumstationen in LEOs durchgeführt.
Der LEO-Bereich leidet zunehmend an Überfüllung, zum nicht geringen Teil durch Weltraummüll (Metall von alten Raketen, geborstenen Satelliten, gefrorenes Abwasser usw.) bedingt. Dazu kommen natürlicherweise vorkommende Meteoriten. Das U.S. Strategic Command in der Nachfolge des U.S. Space Command hält dort über 8.500 anthropogene Objekte mit einer Größe von mehr als 10 cm unter Beobachtung. 84 % des Mülls bewegt sich in etwa 800 km Höhe um die Erde, also der etwa 2 1/2-fachen Höhe der Space Shuttle-Bahn. Auch wenn die Wahrscheinlichkeit einer Kollision zwischen einem Müllobjekt >10 cm und dem Shuttle als sehr gering eingeschätzt wird, bei den hohen Geschwindigkeiten kann auch ein kleiner Bolzen die Wirkung einer Handgranate auf ein Space Shuttle ausüben. Ein ganzer Wissenschaftszweig befasst sich mit Hochgeschwindigkeitseinschlägen, ihren Auswirkungen und mit geeigneten Schutzmaßnahmen.

LEOWorks

Bildbearbeitungssoftware für Schüler weiterführender Schulen zur selbstständigen Bearbeitung von Satellitenbildern, verfügbar über die Eduspace-Webseite der ESA. Sie dient der Bildschirmdarstellung, Analyse, Bearbeitung und Auswertung von Satellitenaufnahmen für die Erdüberwachung.
Mit LEOWorks können LEOWorks stellt grundlegende und komplexere Bearbeitungsfunktionen wie geometrische Korrektur, Panschärfung und Bildklassifizierung bereit. Mehrere Tools stehen zur Verfügung, darunter GIS-Funktionen (Geoinformationssystemfunktionen), mit deren Hilfe Informationsebenen mit Punkten, Linien und Polygonen erzeugt, in Bilder eingeblendet und verwaltet werden können.

LEOWorks ist eine didaktische Software mit umfassenden Hilfeseiten. Auch ein Tutorial ist inbegriffen. Gestützt auf diese Dokumentation können die Schüler mit eigenen Bildern experimentieren und diese selbst bearbeiten. LEOWorks ist mit den Daten verschiedener Erdbeobachtungsmissionen kompatibel und kann die meisten Standardbildformate (z. B. jpg, tif, bmp, png) lesen.

LEOWorks 4 ist die neueste Version der Software und plattformunabhängig (Windows, MacOS, Linux). Das Programm inkl. Tutorial wird eingeschriebenen Schulklassen kostenlos per Download zur Verfügung gestellt.

Weitere Informationen: Eduspace: LeoWorks (ESA)

Licht

Engl. (visible) light; der für den Menschen sichtbare Bereich der elektromagnetischen Strahlung. Dieser erstreckt sich von etwa 380 (Blau) bis 780 nm (Rot) Wellenlänge, was einer Frequenz von etwa 789 bis herab zu 385 THz entspricht. Eine genaue Grenze lässt sich jedoch nicht angeben, da die Empfindlichkeit des menschlichen Auges an den Grenzen des Lichtspektrums nicht abrupt, sondern allmählich abnimmt.
Licht ist charakterisiert durch die Farbtemperatur, in der sich der Farbton, also die Wellenlänge des Lichtes, und die Helligkeit widerspiegeln. Normalerweise wird als Licht nur das dem menschlichen Auge sichtbare Licht bezeichnet. Aber auch nichtsichtbare Wellenlängen wie Infrarot oder Ultraviolett werden verschiedentlich zu den Lichtwellenlängen gerechnet. In der Physik steht der Begriff Licht auch für das gesamte elektromagnetische Wellenspektrum.

Farbspektrum des Lichts

Das Farbspektrum des Lichts für Strahlung mit den Wellenlängen von 380 – 780 nm.
Hinweis: Am Computerbildschirm lässt sich vom Farbspektrum des Lichts nur ein sehr begrenzter Eindruck machen (vgl. Abb.), da dieser nur drei Grundfarben und deren Überlagerungen darstellen kann. Vor allem in den Zwischentönen und beim Übergang ins Infrarote und Ultraviolette stößt die Anzeigetechnik an ihre Grenzen.

Quelle: http://de.wikipedia.org/w/index.php?title=Datei:Spectrum-sRGB-low.svg&filetimestamp=20080113142628
LIDAR

Engl. Akronym für Light Detection and Ranging; ein als aktives System ganztägig einsetzbares Fernerkundungsverfahren, das oft etwas ungenau als "Laser-Radar" bezeichnet wird. Es arbeitet vergleichbar einem Mikrowellen-Radar, benutzt aber den optischen Teil des elektromagnetischen Spektrums zwischen dem ultravioletten und dem nahen Infrarot-Bereich. Lidar-Systeme bestehen gewöhnlich aus einem Laser, der Strahlung in Pulsen oder kontinuierlich durch eine fokussierende Optik aussendet. Ein weiteres optisches System fokussiert die vom beobachteten Objekt reflektierte Strahlung auf einen Detektor. Die Benutzung des Synonyms LADAR (Laser Detection and Ranging) macht deutlich, dass es sich bei dem eingesetzten System um einen Laserscanner handelt. In einem LIDAR-System hingegen kann zum Beispiel auch sehr starkes Xenonlicht benutzt werden.
Bei jeweils gleichem Grundprinzip können drei verschiedene Gruppen und Anwendungen von Lidar-Systemen unterschieden werden:

Wegen sehr hoher technischer Schwierigkeiten bei der Raumflugtauglichkeit von Lasern werden LIDAR-Sensoren zur Zeit vorwiegend noch als boden- oder flugzeuggestützte Sensoren eingesetzt.

Weitere Informationen:

Lightning Imaging Sensor (LIS)

Abbildender Sensor zur Aufspürung und Lokalisierung von Blitzen in den Tropen aus einer Höhe von 350 km. Der kleine und hochentwickelte LIS befindet sich an Bord des Satelliten der Tropical Rainfall Measuring Mission (TRMM). Er beobachtet Tag und Nacht jegliche Art von Blitzen, deren räumliches Auftreten und dient

  • der Wolkenklassifizierung
  • der Untersuchung des Wasserkreislaufes
  • der Untersuchung von Konvektionsvorgängen in Stürmen
  • Erkenntnissen in Mikrophysik und Dynamik
  • der saisonalen und interanuellen Variabilität von Gewittern
Seasonal Lightning Summary

December1997, January 1998, February 1998



Die Umlaufbahn des TRMM-Satelliten hat eine Neigung von 35 Grad. Demzufolge kann das mitgeführte LIS-Instrument Blitzaktivität beobachten, wo sie am Häufigsten auftritt: zwischen 35° S und 35° N.

Quelle: http://thunder.msfc.nasa.gov/lis/
 

Der LIS ist dazu ausgelegt, sturmbedingte Blitze in einem großen Ausschnitt (600 x 600 km) der Erdoberfläche aufzuspüren. Der TRMM-Satellit fliegt mit einer Geschwindigkeit von 7 km/sec und erlaubt es dem LIS auf diese Weise, jeden Punkt der Erde oder jeder Wolke 90 sec lang bei einem Überflug zu beobachten. Diese Zeit reicht aus, um die Blitzhäufigkeit der meisten Stürme abzuschätzen. Das Instrument zeichnet Ort und Zeitpunkt des Auftretens eines Blitzes auf und misst die abgestrahlte Energie.
Das Weitwinkelobjektiv von LIS ist kombiniert mit Hochgeschwindigkeits-CCDs. Ein Real Time Event Processor (RTEP) innerhalb der Elektronikeinheit hilft bei der Erkennung eines Blitzes auch bei Tageslicht. RTEP entfernt das störende Hintergrundsignal des Tageslichts und ermöglicht das Aufspüren von schwach erkennbaren Blitzen mit 90-prozentiger Zuverlässigkeit.

Weitere Informationen:

Limbmessung

Blickrichtung beim Messvorgang über den Horizont zum Rand der Atmosphärenschicht. Die Sichtlinie des Satelliteninstruments durchquert die Erdatmosphäre tangential. Die Kombination mehrerer Limbmessungen in verschiedenen Tangentenhöhen bietet die Möglichkeit, atmosphärische Spurengasprofile in hoher vertikaler Auflösung zu bestimmen. Beispielsweise ist SCIAMACHY auf ENVISAT ist ein Instrument, das die von der Erdatmosphäre reflektierte Strahlung in Limb-Geometrie im ultravioletten und sichtbaren Spektralbereich reflektiert.
Siehe auch Messgeometrie

Limb Sounder

Horizontsondierender Sounder (Limb, engl. für Rand eines Himmelskörpers); s. Messgeometrie

LISA

Engl. Akronym für Laser Interferometer Space Antenna; geplanter interferometrischer Gravitationswellendetektor im All, der als gemeinsame Mission der ESA und der NASA entwickelt wird. Gravitationswellen wurden von Albert Einstein theoretisch vorhergesagt, konnten aber bislang (Januar 2011) nicht direkt experimentell nachgewiesen werden. LISA ist am empfindlichsten im Frequenzbereich zwischen 0,1 mHz und 1 Hz und unterscheidet sich darin grundlegend von erdgebundenen Detektoren, die höhere Frequenzen untersuchen.
LISA besteht aus einer Anordnung von drei identischen Satelliten, die in Form eines nahezu gleichseitigen Dreiecks hinter der Erde entlang der Erdbahn um die Sonne kreisen. Der Abstand zur Erde beträgt dabei etwa 50 Millionen Kilometer. Die Satelliten bilden zusammen ein Laserinterferometer mit fünf Millionen Kilometern Armlänge.
Es wird gehofft, dass LISA Gravitationswellen von superschweren Schwarzen Löchern in einem großen Teil des beobachtbaren Universums aufspüren können wird und vielleicht sogar diejenigen Wellen, die vom Urknall herstammen, der spektakulärsten Quelle von Gravitationswellen überhaupt. Auch sollen möglicherweise Veränderungen der Raumzeit bei HM Cancri gemessen werden können.
LISA ist eine Bewerber-Mission für ESAs Programm zur 'Kosmischen Vision 2015-2015'.
Den Start der LISA-Mission planen ESA und NASA gemeinsam für 2019. Zuvor soll 2014 LISA Pathfinder starten und 12 Monate lang die für die Mission LISA vorgesehenen Messgeräte und die benötigte Technik auf Weltraumtauglichkeit testen.

Weitere Informationen:

LISA Pathfinder

LISA Pathfinder dient als Technologie-Demonstrations-Mission (ehemals SMART-2) für die Cornerstone-Mission LISA (Laser Interferometer Space Antenna). Der In-Orbit-Demonstrator LISA Pathfinder wird bahnbrechende Instrumente und Technologien enthalten. LISA wird völlig neue Einblicke in das Universum liefern. So sollen von exotischen Objekten - wie beispielsweise miteinander kollidierende Doppelgestirne - erzeugte Gravitationswellen gemessen werden.
Um mit LISA (Laser Interferometry Space Antenna) Gravitationswellen nachzuweisen, müssen die Instrumente Gravitationsänderungen in der Größenordnung von 10-16 g und Entfernungsänderungen in einer Größenordnung von 10-12 m in einem Frequenzbereich von 0,001 bis 0,1 Hz erfassen. Bei LISA Pathfinder begnügt man sich mit einer um eine Größenordnung geringeren Messgenauigkeit. Während LISA Distanzmessungen zwischen Satelliten durchführt, die etwa 5 Millionen Kilometer voneinander entfernt sind, misst LISA Pathfinder den Abstand zweier Referenzkörper (etwa 40 cm) innerhalb des Satelliten.

Als Messinstrument ist dazu ein 64×38×38 cm großes und 150 kg schweres Technologietestgerät an Bord des Satelliten installiert, das im Wesentlichen aus einer speziellen optischen Bank und diversen Mess-, Steuerungs- und Kontrollsystemen besteht. Diese enthält zwei Vakuumbehälter und jeweils eine würfelförmige Testmasse aus einer Gold-Platin-Legierung mit 46 mm Kantenlänge, welche bei der Messung darin frei in einem Abstand von etwa 40 cm schweben. Hauptnutzlast ist ein Laserinterferometer, welches den Abstand der beiden Würfel bestimmt. Das Laserlicht wird über zwei Glasfasern in die Bank eingespeist. Zur exakten Lageregelung des Satelliten werden sehr schwache elektrische Triebwerke (Field Emission Electric Propulsion) mit Cäsium als Antriebsmedium und einer Schubkraft von 0,1 bis 150 µN eingesetzt.

Um einen Betrieb von LISA Pathfinder möglichst unabhängig von mechanischen, elektrischen und thermischen Störungen zu gewährleisten („drag-free“), wird das Science Modul der Mission nach dem Erreichen seiner Betriebsposition im Lagrangepunkt L1 (Abstand von ca. 1,5 Mio km von der Erde) vom Antriebsmodul getrennt.

LISA Pathfinder

Links: LISA Pathfinder mit dem Science Modul (links) und dem bereits abgetrennten Antriebsmodul (rechts unten).

Rechts: Das LISA Pathfinder Technology Package (LTP) wird im Weltraum Schlüsseltechnologien für das Gravitationswellen-Observatorium LISA erproben. Die Mission LISA soll nach 2022 im Weltraum Gravitionswellen aufspüren und Erkenntnisse über deren Quellen gewinnen. Das Messprinzip von LISA, zu dem ganz wesentlich die (fast) vollständig kräftefrei im All schwebenden Testmassen gehören, lässt sich auf der Erde wegen der Schwerkraft nur teilweise testen.

Quelle: DLR

EADS Astrium wurde von der europäischen Weltraumorganisation für den Bau des Satelliten ausgewählt und ist für die Lieferung des startbereit integrierten Satelliten verantwortlich. Das Projektmanagement liegt bei Astrium Ltd. in Stevenage, Großbritannien. Astrium in Deutschland ist zum Systemführer für eines der beiden Instrumentenpakete der Mission ernannt worden, dem von den europäischen Instituten und der ESA gestelltenl LISA Technoogy Package (LTP).
Der Satellit soll voraussichtlich Ende 2014 starten und 12 Monate lang Messgeräte für die spätere Mission LISA testen. LISA soll dann im Jahr 2019 als gemeinsame Mission der ESA und der NASA gestartet werden und als Weltraumobservatorium niederfrequente Gravitationswellen im Frequenzbereich von weniger als 0,1 Millihertz bis zu 0,1 Hertz beobachten.

Weitere Informationen:

Living Planet

Neues Konzept der ESA für weltraumgestützte Erdbeobachtung, das sich durch Flexibilität und Nutzerfreundlichkeit auszeichnet. Im Unterschied zu den ERS- und ENVISAT-Missionen setzt die ESA künftig auf kleinere Satelliten auf kürzeren, billigeren und zielgerichteteren Missionen. Sie werden sich stärker an den Bedürfnissen der Nutzer aus dem privaten oder öffentlichen Sektor orientieren und in enger Kooperation mit Industrie oder raumfahrtengagierten Organisationen (Europäische Kommission, Eumetsat u.a.) durchgeführt.
Das Living Planet-Programm umfasst ein Wissenschafts- und Forschungselement, welches mit den Earth Explorer-Missionen umgesetzt wird und ein Element zur Erdbeobachtung (Earth Watch), welches den Zugriff auf Erdbeobachtungsdaten für operationelle Dienste erleichtern soll. Zu Earth Watch gehören gut eingeführte meteorologische Missionen im Rahmen von EUMETSAT. Zusätzlich werden die GMES Sentinel-Missionen klimarelevante Langzeit-Datensätze liefern. Zusammen mit anderen Satelliten werden sie wesentlich zur Klimabeobachtung, -modellierung und -vorhersage beitragen.

Weitere Informationen: The Living Planet Programme (ESA)

lokale Operation

Engl. local operations, franz. opérations locales; nach DIN 18716 lokale Bildverarbeitungsoperation.

LRR

Engl. Akronym für Laser Retroreflector; gewissermaßen ein 'Katzenauge' auf einem Satelliten, das es ermöglicht, vom Boden aus die Satellitenbahn mit Laser Ranging Systemen hochgenau zu vermessen. LRR-Missionen sind meist kombiniert mit Altimetriemissionen, z.B. ERS, ENVISAT, CryoSat und Schwerefeldmessungsmissionen, z.B. CHAMP, GRACE, GOCE.

Weitere Informationen: LRR-Profil im CEOS EO Handbook (CEOS / ESA)

LST

1. Engl. Akronym für Local Solar Time; dt. Sonnenzeit
2. Engl. Akronym für Land Surface Temperature, dt. Landoberflächentemperatur

Luftbild

Oft syn. Luftaufnahme, engl. aerial image, franz. image aérienne; auf photographischem Weg oder durch elektronische Aufnahmesysteme gewonnenes Bild eines Teils der Erdoberfläche, das von Luftfahrzeugen - i.d.R. von Flugzeugen - aus einer Höhe von mehreren hundert oder mehreren tausend Metern (max. 30 km) aufgenommen wird. Dazu gehören z.B. auch Thermal-Luftbilder, wenn eine bildhafte Wiedergabe der Erdoberfläche im thermalen Strahlungsbereich vom Flugzeug aus gewonnen wird. Der Begriff Luftbildaufnahme wird sowohl im Sinne von «Aufnahme von Luftbildern» (Tätigkeit) als auch synonym für «Luftbild» (Produkt) verwendet.
Bei der Aufnahme von Luftbildern wird ein Gebiet streifenweise in Ost-West- oder Nord-Süd-Richtung beflogen. Die Fläche wird hierbei systematisch und lückenlos mit Luftbildern aufgenommen. Als gebräuchliche Überlappung der Luftbilder wird in Flugrichtung mit 60% und quer zur Flugrichtung mit 30% Überlappung gearbeitet. 


Vorteile des Luftbilds Nachteile des Luftbilds

Luftbilder lassen sich unterscheiden

  • nach der Art der elektromagnetischen Strahlung, die das Aufnahmegerät erfasst
    - Bilder, die für uns eine sichtbare Realität darstellen, wie Farbbilder und Schwarzweißbilder
    - Bilder, die eine für uns nicht sichtbare Realität darstellen, wie Infrarotbilder, Thermalinfrarotbilder, Mikrowellenbilder sowie verarbeitete Bilder; Multispektralbilder stellen sowohl eine sichtbare als auch eine unsichtbare Realität dar,
  • nach dem Aufnahmewinkel (Schrägluftbilder, Senkrechtluftbilder),
  • nach der Darbietungsform, d.h. den Medienträgern wie
    - Handbilder (Einzelbilder),
    - Bilder in Printmedien,
    - Folien- bzw. Transparentbilder
    - digitalisierte Bilder (auf Datenträger gespeichert).

Um die analogen Vorlagen normaler Photographien z.B. für GIS verwenden zu können, ist es notwendig, die Bilder mit Hilfe eines Scanner zu digitalisieren, sie zu entzerren und zu geokodieren. Luftbilder können aber auch analog interpretiert und die Interpretationsergebnisse in Karten übertragen werden, die dann abdigitalisiert werden.

In vielen Bereichen des Landschaftsmonitorings hat das Luftbild größere Bedeutung als digitale Satellitendaten. Die Wahl zwischen Luftbild und Satellitenbild für eine bestimmte Fragestellung in der Umweltanalyse ist von der erforderlichen Auflösung und der Größe des abzudeckenden Gebietes abhängig.

Mögliche Aufnahmerichtungen bei der Luftbildaufnahme

Zu größerer Darstellung auf Grafik klicken

Quelle: Hildebrandt 1996, aus Rellstab 2003


 

Weitere Informationen: Get the top view - Wie ein Luftbild entsteht (GeoContent)

Luftbildarchäologie

Engl. aerial archeology, syn. archäologische Flugprospektion; Forschungsmethode der Archäologie, die sich des Luftbildes zum Erkennen von Fundstätten durch Bewuchs-, Boden- oder Schattenmerkmale bedient. Die Methode erlaubt es, archäologische Fundstellen zerstörungsfrei, d.h. ohne Eingriff in den Boden zu entdecken und zu dokumentieren. Die Befliegung dient in erster Linie dazu, aus der Fülle der aus der Luft erkennbaren Strukturen diejenigen von archäologischem Interesse auszusondern und fotografisch zu erfassen.

Dabei werden verschiedenste Luftfahrzeuge wie z. B. Flugzeuge, Hubschrauber, Ballone und auch Drohnen / UAVs eingesetzt. Auch aus dem Weltraum aufgenommene Aufnahmen, z. B. von Satelliten, ISS oder einem Space Shuttle, werden für die Forschung herangezogen.

Luftbildphotographie

Photographischer Bereich, bei dem Photos eines Geländes (Immobilie, Veranstaltung, Liegenschaft etc.) aus der Vogelperspektive angefertigt werden. Man spricht dann von Luftbildern, Luftaufnahmen oder Luftphotos.
Luftbilder werden häufig mit bemannten Fluggeräten, wie Helikoptern, Propeller- und Segelflugzeugen oder Traghubschraubern angefertigt. Die Branche, dich sich mit der Luftbildphotographie beschäftigt, wird auch als Luftbildwesen bezeichnet.
Im Vergleich zu Hochbildern werden Luftbilder aus einer größeren Höhe aufgenommen. Eine Luftbildaufnahme kann aus 50, 100, 500 oder auch 1000 Metern Höhe aufgenommen werden. Hochbilder hingegen bezeichnen meist Aufnahmen aus 10 bis 20 Metern Höhe.

Weitere Informationen: Airborne Sensors (eoPortal Directory)

Luftbildinterpretation

Syn. Photointerpretation; die Interpretation von Luftbildern. Erfassung der in einem photographischen Bild vorhandenen Informationen über Merkmale des Aufnahmeobjektes aufgrund qualitativer und quantitativer Analyse, logischer Kombination und individueller Erfahrung vom Interpreter. Bei Luftbildern (die mit großen Bildwinkeln aufgenommen worden sind) ist zu beachten, daß die Wiedergabe von Objektober-flächen innerhalb der Bildfläche nicht in gleicher Weise erfolgt. Gründe dafür sind vor allem die Wirkung des Helligkeitsabfalls in der Bildebene und die schräg einfallende Sonnenstrahlung. Daraus folgt, daß aus Farbunterschieden (auch aus Schwärzungsunterschieden) benachbarter Bildteile sehr zuverlässig auf Objektunterschiede geschlossen werden kann, während Unterschiede zwischen weit entfernten Bildteilen vorsichtig bewertet werden müssen.
Die Bildinterpretation liefert für Fragestellungen der Geographie, der Archäologie, der Landwirtschaft, des Forstwesens, der Hydrologie, der Gewässerkunde und der militärischen Erkundung wesentliche Daten.

Luftbildkamera

Engl. camera for aerial photography; Kamera zur Aufnahme von Luftbildern. Hierzu gehören u.a. Konvergent-, Panorama-, Streifen- und Mehrfachkameras. Am wichtigsten sind die Reihenmesskameras (RMK). Dies sind Systemkameras, die aus verschiedenen Systembaussteinen nach Bedarf kombiniert werden können.
Die wesentlichen Elemente einer RMK:

Kameraöffnungen Zeiss Top 15 Leica Geosystems RC 30

Links: Öffnungen am Flugzeugboden für Luftbildkameras

Mitte: Intergraph (Zeiss) RMK TOP 15, analoge filmbasierte Reihenmesskamera

Rechts: Leica Geosystems RC 30, analoge filmbasierte Reihenmesskamera



Quelle: Hochschule Bochum
 

Die heute verstärkt eingesetzten digitalen Aufnahmesysteme erfassen die Bildinformation mit Hilfe opto-elektronischer Sensoren, die anstelle einer Filmschicht im Bildraum angebracht sind. Sie liefern unmittelbar ein elektronisches Bild, das durch geeignete Komponenten digitalisiert und in einen Rechner übertragen werden kann.Der Begriff "Digitales Aufnahmesystem" umfasst daher alle an der Erzeugung beteiligten Systemkomponenten. Digitale Luftbildkameras sind geeignet, mittelfristig die analoge Luftbildaufnahme zu ersetzen. Mit Einführung der digitalen Systeme wird der Datenfluss in der photogrammetrischen Datenerfassung und Auswertung vollständig digital. Arbeiten im Fotolabor entfallen somit und die A/D-Wandlung mittels Scannern ist nicht mehr erforderlich. Dies gewährleistet ein hohes Automationspotential in der digitalen photogrammetrischen Prozesskette. Weitere Vorteile der digitalen Systeme liegen in der erweiterten spektralen Empfindlichkeit und der Lieferung multispektraler Bilddaten zusätzlich zum panchromatischen Bild.

Digitale Luftbildkameras ADS-40 eingebaut im Flugzeug Digitale Luftbildkameras

Von links nach rechts: HRSC-AX (DLR) - ADS-40 (LH Systems) - DMC (Z/I Imaging) - ADS-40 im Flugzeug eingebaut

Das Prinzip des Zeilensensors wird in der High Resolution Stereo Camera (HRSC-AX), eine Entwicklung der DLR in Berlin-Adlershof, und in dem Airborne Digital Sensor (ADS40), die gemeinsam von der DLR und Leica Geosystems entwickel twird, eingesetzt. Dagegen beruht die Aufnahmetechnik der Digital Modular Camera (DMC) von Z/IImaging auf einem Flächensensor.

Quelle: Hochschule Bochum
 
Luftbildkarte

Die Wiedergaben photographischer Senkrechtaufnahmen mit kartenähnlicher Ausgestaltung und erläuternder Kartenbeschriftung. Das umgebildete Luftbild wird mit Kartenrahmen, Legende, Gitterkreuz und Beschriftung ergänzt und als Luftbildkarte im Maßstab 1:2.000 bis 1:25.000 präsentiert. Das Bild muss zuvor in die Kartenprojektion überführt werden. Diese Bildkarten sind oft anschaulicher als klassische topographische Karten, allerdings sind die kartographischen Informationen stark reduziert.
Analog gilt dies bei Verwendung von Satellitenaufnahmen in Maßstäben ab 1:50.000, die man dann Satellitenbildkarten nennt. Beide Versionen sind Sonderformen topographischer Karten.

Luftlicht

Engl. path radiance, franz. radiation dispersée de l‘atmosphère; nach DIN 18716: "in Richtung auf einen Sensor wirkender Anteil der diffusen Himmelsstrahlung".

Luftschiff

Lenkbares Luftfahrzeug, dessen Auftrieb auf aerostatischen Kräften beruht und das über einen eigenen Antrieb verfügt. Haupteinsatzgebiete heutzutage sind touristische Rundfahrten, Luftwerbung, sicherheitstechnische Überwachungsaufgaben (Großereignisse, Verkehr, Militär, Relaisstation) und vereinzelt auch Forschungsaufgaben im Rahmen der Fernerkundung (Umweltmonitoring, Rohstoffsuche).
Als Träger von Fernerkundungs-Systemen ergeben sich für den Einsatz von Luftschiffen folgende Vor- und Nachteile:

Vorteile Nachteil
  • hohe Flugstabilität bei gleichzeitiger Vibrationsfreiheit
  • Kabine mit flexiblen Ausstattungsformen
  • Aufsteigen und Absinken mit verschiedener Geschwindigkeit möglich
  • Geschwindigkeit von 0 -120 km/h
  • jede kombination von Horizontal- und Vertikalprofilen möglich
  • punktgenaue Manövrierfähigkeit
  • Driften mit dem Luftvolumen
  • Langzeitflüge bis 50 Stunden
  • geringe Lärmemissionen beim Überflug
  • niedriger Geräuschpegel in der Kabine
  • Einsatz von zusätzlich manövrierfähigen Gondeln
  • geringe Betriebskosten und geringe Anforderungen an die Bodeninfrastruktur
  • Landemöglichkeit auch abseits von Flughäfen in geeignetem Gelände
  • Höhenbegrenzung auf 3 km vom Startplatz
  • Sturmanfälligkeit abseits der Heimatbasis (vgl. Verlust eines Zeppelin NT bei der De Beers-Mission)
Lunar Crater Observation and Sensing Satellite (LCROSS)

Raumsonde der NASA, die am 18. Juni 2009 zusammen mit dem Lunar Reconnaissance Orbiter (LRO) zum Mond gestartet ist und am 9. Oktober 2009 auf dem Mond einschlug. Von der LCROSS-Mission erhoffte man durch Erzeugung eines künstlichen Kraters definitive Erkenntnisse über das Vorhandensein von Wassereis am Südpol des Mondes zu erhalten, welches eine wichtige Rolle für zukünftige bemannte Mondmissionen spielen könnte.
LCROSS bestand aus zwei separaten Teilen: dem Shepherding Spacecraft (S-S/C) und der Earth Departure Upper Stage (EDUS), die auf dem Weg zum Mond verbunden blieben und erst bei der Annäherung an den Südpol des Mondes getrennt wurden. EDUS, die nichts anderes als die Centaur-Oberstufe der Trägerrakete war, sollte kurze Zeit darauf in der Nähe des Südpols aufschlagen und eine Partikelwolke erzeugen, wobei etwa 1000 Tonnen Mondmaterial ausgeworfen werden sollten. Anschließend flog das Shepherding Spacecraft durch die Wolke, analysierte sie mit Hilfe seiner Instrumente, bevor es ebenfalls auf dem Mond aufschlug. Das ganze Ereignis sollte parallel vom LRO sowie von Satelliten und Teleskopen im Erdorbit und von der Erdoberfläche aus beobachtet werden.
Der Einschlag sollte schon mit größeren Amateurteleskopen zu beobachten sein, es stellte sich jedoch heraus, dass selbst die Observatorien Keck und Gemini auf Hawaii im sichtbaren Bereich keine Anzeichen des Einschlags verzeichneten. Offenbar war die Trümmerwolke kleiner als erhofft, was in der Öffentlichkeit mit Enttäuschung aufgenommen wurde. Basis für die wissenschaftliche Auswertung sind die optischen Spektren, die von verschiedenen Sensoren erfasst wurden und deren Auswertung einige Zeit in Anspruch nehmen wird. Die Menge an Hydroxyl in der entstanden Wolke lässt Rückschlüsse auf den Gehalt von Wasser bzw. Eis im Krater zu.

Weitere Informationen: http://lcross.arc.nasa.gov/index.htm

Lunar Reconnaissance Orbiter (LRO)

Mondsonde der NASA, die am 18. Juni 2009 von Cape Canaveral aus zusammen mit dem Lunar CRater Observation and Sensing Satellite (LCROSS) zum Mond gestartet ist. Ziel der Mission ist die hochaufgelöste Kartierung der gesamten Mondoberfläche (Topographie, Fotografie, Indikatoren für Vorkommen von Wassereis) und die Messung der kosmischen Strahlenbelastung (Instrument LEND).

Lunar Reconnaissance Orbiter

Die LRO-Instrumente liefern globale Daten wie Karten zu Tag-/Nacht-Temperaturen, ein globales geodätisches Gitter, hoch aufgelöste Farbbilder und die UV-Albedo des Monds. Jedoch gibt es einen besonderen Augenmerk auf die Polregionen des Mondes, wo ein kontinuierlicher Zugang zur Sonnenbeleuchtung möglich ist, und wo die Aussicht auf Wasser in den dauerhaft beschatteten Polarregionen bestehen könnte.

Links: Der Orbiter in künstlerischer Darstellung
Rechts: Topographie des Mondes

Wissenschaftler der Arizona State University schufen mit den Daten der LRO-Weitwinkelkamera und des Lunar Orbiter Laser Altimeters das bislang genaueste topographische Abbild des Mondes mit einer Bodenauflösung von 100 m.

Zu größerer Darstellung auf Bilder klicken

Quellen:
NASA - GSFC / NASA
 

Weitere Informationen: http://lunar.gsfc.nasa.gov/index.html


A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z 

Startseite - Index - Hinweise - Quellen - Impressum