Lexikon der Fernerkundung

backscatter

Begriff für die Rückstreuung von elektromagnetischer Energie an kleinen Partikeln in Richtung der Quelle, hauptsächlich im Zusammenhang mit Radarsystemen verwendet.

Radar Backscatter

Backscatter (Radarsystem)

Wenn ein flugzeuggetragenes Radarsystem einen Energiepuls zum Boden sendet (A), streut es vom Boden in alle Richtungen (C). Ein Teil der gestreuten Energie wird zum Radarempfänger zurückgeworfen (B), diesen Teil bezeichnet man als Backscatter oder Rückstreusignal.

Quelle: Natural Resources Canada (R.o.)
 
Bahn

Engl. orbit; die Menge aller Punkte im Raum, die ein Teilchen, bzw. der Schwerpunkt eines Körpers zeitlich sequentiell (der Reihe nach) durchläuft. Ist kein (Wechselwirkungs-)Potential vorhanden, wirkt also auf das Teilchen keine Kraft, so ist die Bahn geradlinig. Die Bahn ist umso stärker gekrümmt, je stärker die Krafteinwirkung (das Potential) ist.
Als Systemelement eines Raumfahrtsystems besitzt die Bahn eine wesentliche Bedeutung bei dessen Konzipierung. Die Bahn des Raumfahrzeugs wird durch das Missionsziel bestimmt. Erdumlaufbahnen stellen mit über 95 % den größten Anteil an allen Raumfahrtmissionen dar.

Bewegen sich Raumfahrzeuge auf einer Erdumlaufbahn, bezeichnet man sie als Satelliten. Fliegen sie auf Bahnen jenseits eines Erdorbits, handelt es sich um Raumsonden. Bei bemannten Raumfahrzeugen spricht man je nach Funktion von Raumfähren, Raumschiffen und Raumstationen. Ballistische Flugkörper, die Höhen von weit über 1.000 km erreichen können, werden als suborbitale Flugkörper bezeichnet.
Siehe auch Umlaufbahn

Übersicht über die Bahnen von Raumfahrzeugen mit Beispielen
Bahn Anwendung Merkmal Missionsbeispiele
LEO (Low Earth Orbit) Erdbeobachtung
Wetter-/Klimamonitoring
Technologie
Astronomie
ca. 300 bis 1.500 km Höhe Champ
SAR-Lupe
BIRD
ROSAT
MEO (Medium Earth Orbit) Kommunikation
Navigation
mehrere 1.000 km Höhe Globalstar
GPS
Galileo
HEO (Highly Elliptical Orbit) Kommunikation
Astronomie
wenige 100 bis einige 100.000 km Höhe Molnija
GTO (Geoststationary Transfer Orbit) Einschussorbit der Träger von Kommunikationssatelliten wenige 100 km bis 36.786 km Höhe EUTELSAT
ASTRA
GEO (Geostationary Orbit) Kommunikation 35.786 km Höhe EUTELSAT
ASTRA
Lagrange-Punkte Astronomie
Grundlagenforschung
>1 Mio km Entfernung SOHO
JWST
Interplanetare Bahn Planetenerkundung z.T. mehrere Mrd. km Entfernung Mars-Express
Rosetta
nach Ley et al. (2008): Handbuch der Raumfahrttechnik
Bahnelemente

Engl. orbital elements, auch Satellitenbahnelemente; sie legen die Parameter für die Umlaufbahnen von Objekten fest, die einen Himmelskörper gemäß den keplerschen Gesetzen umkreisen. Sie umfassen die 6 Bahnelemente eines ungestörten Systems und zusätzlich Korrekturparameter, die die Störungen beispielsweise durch Reibung mit der Atmosphäre, inhomogenes Gravitationsfeld, Sonnenstürme oder Strahlungsdruck berücksichtigen.
Die Bahnelemente für die meisten Satelliten werden vom amerikanischen Air Force Space Command zur Verfügung gestellt und von Organisationen wie der NASA oder AMSAT als NASA/NORAD Two Line Elements Format (TLE) verteilt. Die Daten einer Vorhersage-Berechnung werden mit der tatsächlichen Beobachtung durch Tracking-Stationen auf der Erde abgeglichen und als aktualisierte Bahnelemente veröffentlicht.
Mit der Angabe der sechs Bahnelemente kann man in einem gegebenen Gravitationspotential zu jeder Zeit den Ort eines Körpers berechnen. Die normalerweise verwendeten Bahnelemente sind:

  • Große Halbachse der Bahn
  • Numerische Exzentrität
  • Inklination (Bahnneigung) zur Ekliptik (oder einer anderen Referenzebene)
  • Abstand vom Frühlingspunkt (das ist die Länge des aufsteigenden Knotens)
  • Perihellänge
  • Perihelzeit oder mittlere Anomalie zu einem bestimmten Zeitpunkt

Die Halbachse und die Exzentrität bestimmen die Größe und Form der Bahn, die drei Winkel (Inklination, Länge des aussteigenden Knotens, Perihellänge) die Lage der Bahn im Raum und die Perihelzeit (bzw. die mittlere Anomalie zu einer Zeit) den Ort des Objekts auf der Bahn.
Bei Drei- und Mehrkörperproblemen gibt es keine analytische Lösung für die Bahn eines Teilchens und somit sind die Bahnelemente nur eine Näherung. Die sogenannten mittleren Bahnelemente beschreiben die (hypothetische) ungestörte Bahn des Körpers.

satellite_orbital_elements_lres (Satelliten-) Bahnelemente

Sechs Bahnelemente legen die Bahn eines Astronomischen Objekts eindeutig fest, das den Keplerschen Gesetzen im Schwerefeld eines Himmelskörpers (Zweikörperproblem) gehorcht.
Zwei Bahnelemente definieren die Gestalt der Bahn-Ellipse, drei Elemente bestimmen die Lage im Raum und ein Element legt den Zeitbezug fest.
Die Bahnelemente von Satelliten basieren ebenfalls auf den 6 Bahnelementen einer Keplerbahn. Sie enthalten üblicherweise weitere Parameter, um Bahnstörungen zu berücksichtigen.

Zu größerer Darstellung auf Grafik klicken

Quelle: Wikipedia
 
Bahngeschwindigkeit

Geschwindigkeit, mit der sich ein Objekt (z.B. Satellit) um ein anderes (Planet) bewegen muss, damit Fliehkraft und Gravitationskraft im Gleichgewicht bleiben und der Satellit weder auf den Planeten stürzt, noch dem Gravitationsfeld seines Planeten entkommt.

Bahnhöhe

Bei künstlichen Erdsatelliten die Höhe eines Bahnpunktes kreisförmiger oder elliptischer Satellitenumlaufbahnen über der Erde ("Höhe über Grund"). Bei Satelliten auf Kreisbahnen, deren Mittelpunkt mit dem Erdmittelpunkt übereinstimmt, haben alle Bahnpunkte praktisch die gleiche Höhe über Grund. Dies trifft insbesondere auf Satelliten im geostationären Orbit zu, die sich auf einer äquatorialen Kreisbahn mit der Bahnhöhe 35.780 km bewegen. Da ihre Bewegung synchron zur Erddrehung (geosynchron) erfolgt (Bahnperiode: 24 h), führen sie keine Relativbewegung zur Erde aus. Für den Betrachter auf der Erdoberfläche stehen diese GEO-Satelliten immer an der gleichen Stelle in gleicher Höhe.

Diese Bedingungen gelten nicht für die auf mittelhohen und niedrigen Satellitenbahnen erdumlaufenden Satelliten. Ihre Bahnebenen sind meistens mehr oder weniger aus der Äquatorialebene gekippt ("inkliniert") und zeichnen sich durch einen exzentrischen Verlauf aus (elliptische Bahnen) aus. Damit variiert die Höhe der Satellitenumlaufbahnen über Grund teilweise ganz beträchtlich. Ihre erdfernsten und erdnächsten Punkte, die so genannten Apsiden, bezeichnet man mit Apogäum und Perigäum.

Bahnneigung

Syn. (Bahn)inklination; Winkel der von der Umlaufbahn von Satelliten beschriebenen Ebene mit der Äquatorebene. Eine Umlaufbahn mit einer Neigung von 0 Grad verliefe demnach direkt über dem Äquator, typisch für geosynchrone Umlaufbahnen. Zunehmend größere Neigungswinkel würden Satelliten über immer höhere Breiten führen. Eine Bahnneigung von 90° würde direkt über Nord- und Südpol führen. Die bevorzugte Bahnneigung für Space Shuttle-Flüge liegt bei 28,5° (geographische Breite von Cape Canaveral), kann aber auch 39° oder 57° betragen.

Bahnparameter

Parameter, die den Verlauf der Bahn, in der sich ein Satellit bewegt, beschreiben.

Bahnparameter Bahnparameter


Die nicht maßstabsgetreue Darstellung zeigt drei Umlaufbahnparameter, die zur Bestimmung von Gestalt und Größe eines Orbits herangezogen werden können: Radius (R), Geschwindigkeit (V) und Bahnneigung (I).

Quelle: NASA (R.o.)
 
Bahnspur

Orthogonale Projektion der Satellitenbahn auf ein mittleres Erdellipsoid.

Baikonur

Russischer Weltraumbahnhof (Kosmodrom) beim gleichnamigen Ort in Kasachstan nordöstlich des Aralsees in der Nähe von Leninsk am Fluss Syrdarja, der zu Sowjetzeiten vor allem für die bemannten Missionen errichtet wurde. Mit dem Zerfall der UdSSR ging der Besitz an Kasachstan, Russland zahlt seit 1994 umgerechnet etwa 200 Mio. Euro jährlich an Pacht, um die Stätte weiter nutzen zu können. Mit dem Kosmodrom Wostotschny soll deshalb ein neuer Weltraumbahnhof in der Region Amur entstehen.

Baikonur gilt als größter Raketenstartplatz der Welt. Nach offiziellen Angaben erstreckt es sich 2004 über eine Fläche von 6.717 Quadratkilometern, 85 Kilometer von Norden nach Süden und 125 Kilometer von Westen nach Osten. Hinzu kommen noch 22 Landegebiete für abgebrannte Raketenstufen und die Raumkapseln mit einer Gesamtfläche von 4,8 Millionen Hektar.

Zur Bodeninfrastruktur gehören neun Startkomplexe mit 15 Startvorrichtungen, 4 Abschusseinrichtungen zur Erforschung Interkontinentaler Langstreckenraketen, 11 Montage- und Versuchskomplexe, zwei Tankstellen, zwei Flugplätze, ein Messkomplex, ein 600-Megawatt-Wärmekraftwerk, 470 Kilometer Eisenbahngleise, 1.281 Kilometer Straßen und 6.610 Kilometer Elektroleitungen.

70 % aller russischen Starts von kosmischen Flugkörpern finden in Baikonur statt. Weitere Startplätze (auch für Satellitenraketen, aber nicht für bemannte Missionen) sind Snamensk, Plessezk und Swobodny in Russland.

Ballon

Luftgetragene Instrumentenplattform zur Sammlung von hauptsächlich meteorologischen Daten. Ballons können festverankert oder freifliegend (Radiosonde) sein.
Vor- und Nachteile von ballongestützter Fernerkundung:

Vorteile Nachteile
maximale Höhe: 45 km
begrenzter Einsatz in Gebieten mit hohem Luftverkehr
Nutzlast darf bis 40 km Höhe mehr als 2.000 kg betragen
sehr schwierige Flugplanung
Fortbewegung mit dem Wind, kein Antrieb
nicht manövrierfähig
lange Messzeit möglich
hohe Wahrscheinlichkeit, die Messgeräte zu verlieren
BX13_Start_sn_380 Studentenforschungsballon BEXUS 11 beim Start


Am 23. November 2010 um 9.20 Uhr (MEZt) haben das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und das schwedische Raumfahrtunternehmen SSC erfolgreich den Stratosphärenballon BEXUS 11 vom europäischen Raumfahrtzentrum Esrange in Kiruna, Schweden, gestartet.
An Bord waren vier Experimente von europäischen Universitäten, davon zwei aus Deutschland. BEXUS 11 flog für rund vier Stunden in einer Flughöhe von bis zu 33 Kilometern. Um die teilweise schweren Experimente auf diese große Höhe zu bringen, wurde ein Ballon mit einem Volumen von 100.000 Kubikmetern benötigt.

Zu größerer Darstellung auf Abbildung klicken

Quelle: DLR
 
Band

Engl: band, franz. bande; nach DIN 18716 der "Spektralbereich, in dem ein Sensor arbeitet", verbunden mit der Anmerkung: "Band ist gleichbedeutend mit Kanal, aber in der Mikrowellen- und Hyperspektral-Fernerkundung bevorzugt".
Weitere Differenzierungen:

  1. Beim Funk eine kontinuierliche Folge von Sendefrequenzen innerhalb vorgegebener Grenzen.
  2. In der Radiometrie einer relativ enger Bereich des elektromagnetischen Spektrums, auf das der Sensor eines Fernerkundungssystems anspricht. Ein Multispektralsensor führt Messungen in mehreren Spektralbändern durch.
  3. In der Spektroskopie Spektralbereiche, in denen atmosphärische Gase Strahlung absorbieren und emittieren, z.B. das 15 µm Kohlendioxid-Absorptionsband, das 6,3 µm Wasserdampf-Absorptionsband und das 9,6 µm Ozon-Absorptionsband.
Bandbreite

Maß für den zusammenhängenden Frequenzbereich elektromagnetischer Schwingungen, der in einem Signal vorhanden ist oder für den Frequenzumfang eines (FE-)Systems bzw. eines Kanals. Bandbreite ist ein fundamentaler Parameter jeder bildhaften Darstellung.

band ratios

Dt. 'Kanalverhältnisse'; eine Bildverarbeitungstechnik, die verwendet wird, um den Kontrast zwischen Objekten in Bildern der Fernerkundung, die zwei oder mehr Frequenzbänder verwenden, zu erhöhen. Das Verhältnis ("ratio") wird erhalten, indem die digitalen Zahlen, die für das eine Band gespeichert sind, von denen des anderen Bandes getrennt werden, für genau dieselbe Zelle in den Bildern. Diese Technik ist besonders nützlich für das Eliminieren von Unterschieden in einer Szene, die alleine aus der Beleuchtungsverteilung entstehen.

Weitere Informationen:

Bathymetrie

Die Vermessung der topographischen Gestalt von Meeres- und Seeböden. Als Teilgebiet von Hydrographie und Geodäsie dient die Bathymetrie somit der Gewinnung von Karten, aus denen das Tiefenprofil der Ozeane ersichtlich wird. Siehe hierzu auch GEBCO (General Bathymetric Chart of the Oceans).
Wichtigstes und traditionelles Werkzeug der Bathymetrie ist das Echolot. Dabei werden akustische Signale ausgesandt und an der Meeresoberfläche reflektiert. Fächersonare oder Fächerecholote, wie das SEABEAM-System oder das System HYDROSWEEP, sind in den Schiffsrumpf eingebaute Sonare, die - anders als herkömmliche Echolotsysteme - zusätzlich zum zentralen Schallstrahl nach unten weitere Schallstrahlen seitlich zur Fahrtrichtung aussenden. Für jeden der Schallstrahlen wird die Laufzeit des Signals ermittelt, daraus die Wassertiefe errechnet und damit eine flächenhafte Information zur Wassertiefe unterhalb des Boots zusammengesetzt. Fächerecholote werden vorzugsweise zur Kartographie des Meeresbodens eingesetzt.

Bathymetrie an Bord
der Polarstern

bathymetrie_polarstern_lres


Haupteinsatzgerät der AWI- Wissenschaftler der Abteilung Bathymetrie und Geodäsie ist das an Bord des deutschen Forschungseisbrechers Polarstern installierte Fächerecholot, mit dem die Bremerhavener Geowissenschaftler die Gestalt des Meeresbodens erkunden.

Entlang der Berge und Täler am Grund der polaren Ozeane kommt es zur Bildung von Tiefenwasser. Daraus entstehen Strömungen, die global für den Wärmetransport in den Weltmeeren verantwortlich sind und somit Einfluss auf das Klima unserer Erde nehmen.

Quelle: planeterde

Zu größerer Darstellung auf Grafiken klicken

  Hydrographische Vermessung mit LIDAR
bathymetrie_lidar


Anstatt wie beim Sonar-Verfahren Schallimpulse zu verwenden, setzt LIDAR Laser ein um Entfernungen zu messen. Um LIDAR-Messungen durchzuführen werden Flugzeuge eingesetzt. LIDAR ist für die topographische Kartierung auf Land weit verbreitet. Beim Einsatz für hydrographische Vermessungen werden zwei verschiedene Farblaser eingesetzt: grün und rot. Der rote Laser wird an der Wasseroberfläche reflektiert, wohingegen der grüne Laser den Wasserkörper durchdringt und vom Meeresboden zurückgeworfen wird. Seine Eindringtiefe kann bis zu 70 m betragen, in Abhängigkeit von der Klarheit des Wassers. Die Zeitdifferenz der beiden Laufwege kann dazu verwendet werden, die Tiefe zu berechnen.

Quelle: meted
 

Bathymetrische Vermessung mit Fächerecholotsystemen bieten ein schnelles Hilfsmittel, um Gestalt und Morphologie des Meeresbodens zu untersuchen. Das an Bord des Forschungsschiffes Polarstern installierte System Hydrosweep DS-2 liefert 59 Einzelmessungen der Wassertiefe und Echostärke je Ping. Zusätzlich liefert es Bodensichtsonar-Information (2048 Echos pro Ping). Das System kann mit einem Öffnungswinkel von 90 oder 120 Grad betrieben werden und ist für die Tiefseevermessung ausgelegt.
Das Echolot sendet über einen Geber ein Schallsignal nach unten. Dort wird das Signal vom Gewässerboden, aber auch Schiffswracks oder Fischschwärmen, reflektiert. Der reflektierte Impuls wird am Schiff empfangen. Aus der Laufzeit kann die Wassertiefe berechnet werden.

Die meisten Echolote verwenden Impulse mit einer Frequenz im Bereich zwischen 50 und 200 kHz (Ultraschall mit einer Wellenlänge von 3 cm bis 7,5 mm), die über einen Ultraschallgeber (meist ein Piezolautsprecher) im Schiffsboden oder am Heck abgestrahlt werden. Die Schallwellen werden am Gewässerboden reflektiert und vom Schallwandler empfangen. Aus der Laufzeit der Wellen und der Ausbreitungsgeschwindigkeit wird die Tiefe ermittelt.

Neue Ansicht der abgründigsten Tiefseerinne  
challengerdeep_bathmetry_lres marianatrench_lres  

Wissenschaftler des Center for Coastal and Ocean Mapping/Joint Hydrographic Center at the University of New Hampshire haben die weltweit tiefste Rinne, landläufig als Marianengraben bezeichnet, mit Hilfe von Schallwellen neu kartiert. Die Tiefen werden durch Blautöne wiedergegeben, wobei die größten Tiefen im dunkelsten Blau erscheinen. Die schwarzen Umrisslinien markieren den äußeren Rand der nahezu 400.000 km² großen Meeresbodenfläche, die von den Ozeanographen untersucht wurde.
Die Forscher setzten Fächerecholote ein, um den Marianengraben vom August bis zum Oktober 2010 zu vermessen. Solche am Schiffsrumpf montierten Geräte senden gepulste Schallwellen zum Meeresboden und zeichnen dann die echoähnlichen Reflexionen auf. Diese 'multi-beam sounders' senden die Schallpulse in einem fächerartigen Schwadstreifen aus, was den Forschern erlaubt, dreidimensionale Bilder des Meeresbodens anzufertigen.
Die Unterwasservermessung hat die bislang genauesten Ergebnisse der Tiefe des Challenger Deep erbracht - Tiefe 10.994 m +/- 40 m. Die Forscher entdeckten auch vier Tiefenwasser-'Brücken', die die Tiefseerinne queren und bis zu 2.500 m über dem Rinnenboden emporragen. Die neue Karte hat eine Auflösung von 100 m pro Pixel, nahezu 20mal detailreicher und genauer als vorherige Versionen.
Der Marianengraben erstreckt sich über 2.500 km in einem Bogen, der von den Inseln Guam und Saipan begrenzt wird. Seine Tiefen lassen die höchsten landfesten Berge der Erde klein erscheinen, und der Wasserdruck übersteigt 1.000 Atmosphären oder in anderen Worten, er entspricht dem 1.000fachen Luftdruck an Land.
Die Tiefseerinne wurde - bei noch immer anhaltender Umgestaltung - durch die Kollision der alten und kalten Pazifischen Platte mit der viel jüngeren Philippinischen Platte gebildet. Die Pazifische Platte taucht unter die Philippinische Platte, ein Prozess, der als Subduktion bezeichnet wird.

Der Filmregisseur James Cameron machte im März 2012 Schlagzeilen, als er als erster Mensch 50 Jahre nach dem ersten Tauchgang in einem U-Boot das Challenger Deep aufsuchte. Don Walsh und Jacques Piccard waren 1960 im U.S. Navy Bathyscaph Trieste die Pioniere.

Zu größerer Darstellung auf Grafiken klicken

Quelle: NASA
 

Da die Echolot-Messmethode jedoch vergleichsweise aufwändig ist, wird in jüngerer Zeit auch eine Technologie erprobt, Seekarten aus den Daten von Radarsatelliten zu gewinnen (Base Platform). Zwar können diese Radarsatelliten nur die Wasseroberfläche abbilden. Bedingt durch Gravitationsanomalien unterseeischer Erhebungen und Gebirgszüge, liegt der Wasserspiegel an diesen Stellen aber im Mittel um einige Zentimeter höher als an tieferen Stellen.

Der Abstand vom Satelliten zur Oberfläche kann mit den heutzutage eingesetzten Altimetern sehr genau bestimmt werden (etwa auf 1-2 cm), wobei eher die genaue Ortsbestimmung des Satelliten selbst Schwierigkeiten bereitet. Das sich abzeichnende Geoid ist Ausdruck des Schwerefeldes der Erde, welches durch Dichteunterschiede von Gestein und Wassermassen beeinflusst wird. Meeresrücken, Gräben und Ebenen von bis zu 8 km Tiefe üben verschiedene Anziehungskräfte auf die Wassermassen aus, so dass sich die Topographie des Meeresbodens an der Oberfläche widerspiegelt und eine auswertbare Signatur hinterlässt. So kann durch Präzisionsmessungen des mittleren Meeresspiegels, bzw. dessen Abweichung von der Kugelgestalt, die Wassertiefe abgeleitet werden.

Auch verändert sich die Wellenstruktur, wenn ein Wasserkörper über eine Schwelle strömt (s. Abb.). Es entsteht vor der Schwelle eine Zone der Divergenz, die Strömungsgeschwindigkeit erhöht sich und es kommt zu einem Auseinanderziehen der Kapillarwellen. Hinter der Schwelle befindet sich eine Konvergenz, die Strömung verlangsamt sich und die Wellen werden zusammengedrückt. Auf SAR-Bildern ist dies durch den Unterschied der Streucharakteristik der beiden Zonen erkennbar.

sar_topo_crewell

Zu Größerer Darstellung auf Grafik klicken

Bodentopographie aus SAR

Vor dem Überströmen einer Erhebung nimmt die Flußgeschwindigkeit an der Oberfläche zu. Dies führt zur horizontalen Divergenz und so einem Auseinanderziehen der Kapillarwellen. Das wiederum führt zu einer Reduktion der Bragg-Streuung (geringere Radarrückstreuung) und somit erscheinen diese Gebiete auf SAR-Bildern dunkler. Nach dem Überströmen des Hindernisses reduziert sich die Flußgeschindigkeit und es kommt zu horizontaler Konvergenz. Dadurch werden die Kapillarwellen zusammengedrückt und die Bragg-Streuung nimmt zu. Durch die erhöhte Radarrückstreuung erscheinen diese Flächen heller.
Dieses Verfahren wird zum Beispiel zur Untersuchung des Watts in Norddeutschland verwendet. Quelle: Grundlagen der Fernerkundung (S. Crewell, Universität Köln)

 

Da elektromagnetische Strahlung im Vergleich zu Schallwellen nur wenig in den Wasserkörper eindringt, kann die Tiefe mit deren Hilfe nur in flachen Gewässern bzw. in Küstennähe direkt gemessen werden.

Weitere Informationen:

bathymetrische Karte

Karte eines Gewässer-, insbesondere Meeresbodens mit Tiefenzahlen, Tiefenlinien und evtl. farbigen Tiefenschichten. Sämtliche Tiefenangaben sind auf Seekartennull bezogen. Zur Datengewinnung werden heute auch flugzeug- oder satellitengestützte Fernerkundungsverfahren eingesetzt. Vermessungsschiffe bedienen sich des GPS.

Crater Lake, Oregon Crater Lake, Oregon
Bathymetrische Karte mit Schattenrelief

Die kolorierte Fläche ist der Seeboden, die graue Fläche repräsentiert das umgebende Bergland und die Wizard Island. Der Durchmesser des Sees beträgt ca. 9 km. Die roten und gelben Frabtöne stehen für die flacheren Bereiche, die grünen und blauen für die größeren Tiefen. Der Seeboden wurde mit einem hochauflösenden Echosounder vermessen und mit einem digitalen Höhenmodell der umgebenden Landschaft kombiniert. Eingebunden in ein GIS können die bathymetrischen Daten visualisiert und z.B. mit geologischen Informationen verschnitten werden. - Der Crater Lake befindet sich in der Caldera des Mount Mazama, einem Vulkan der Kaskadenkette, der einst 3.700 m hoch war. Er brach vor ca. 7.700 Jahren aus, brach danach in sich zusammen und bildete die aktuelle Caldera. Diesem Ereignis ging eine 400.000 Jahre lange vulkanische Aktivität voraus, während der ein Kegel aufgebaut wurde. Auch heute ist die Region noch potentiell aktiv.

Zu einem Poster mit Photo und geologischer Darstellung des Crater Lake hier klicken

Zu geologischen Hintergrundinformationen hier klicken

Zu größerer Darstellung auf Grafik klicken

Quelle: USGS
 

Weitere Informationen:

Baumanets

Experimenteller Wissenschaftssatellit zu Datenübertragung, Fernerkundung und Raumfahrzeug-Management. Der mit einem neuen Bus ausgestattete Satellit ist ein gemeinsames Projekt von NPO Mashinostroyeniya und der staatlichen Bauman Technischen Universität Moskau. Der Endkunde sollte die russische Raumfahrtagentur sein. Baumanets sollte ursprünglich ab Dezember 2005 auf einer sonnensynchronen Umlaufbahn in 700 km Höhe und mit einer Neigung von 98° die Erde umkreisen. Der Start im Sommer 2006 schlug fehl.

Bedeckungsgrad

In der Fernerkundung entspricht der Bedeckungsgrad meist dem Anteil der vertikalen Projektion aller grünen, photosynthetisch aktiven Pflanzenelemente bezogen auf die Bodenfläche. Er ist wie der Blattflächenindex eine dimensionslose Größe, die aus einem Flächenverhältnis berechnet wird. Dies geschieht über eine empirische oder semi-empirische Ableitung aus Vegetationsindizes oder aus dem Blattflächenindex.

Befliegung

Mit Befliegung bezeichnet man das regelmäßige und systematische Überfliegen von Gebieten zur lückenlosen Aufnahme von Luftbildern.

Beleuchtungskorrektur

Syn. Einstrahlungskorrektur, Reliefkorrektur; Korrektur der Einstrahlungsverhältnisse vor allem bei der Auswertung von Fernerkundungsdaten von gebirgigen Regionen. Aufgrund unterschiedlicher Höhenlage, Exposition, Hangneigung und Horizonteinengung treten Einstrahlungsdifferenzen auf, die sich auch auf die detektierte Strahlung auswirken. Dies kann besonders bei der digitalen Klassifizierung, aber auch bei der visuellen Interpretation, störend wirken und letztlich zu fehlerhaften Zuweisungen führen. Um Fehlklassifizierungen zu vermeiden, sind die Korrekturen der Einstrahlungsverhältnisse erforderlich, sie greifen auf digitale Höhenmodelle zurück.

BelKa

Weißrussischer Erdbeobachtungssatellit mit im Sommer 2006 missglücktem Start. Gebaut wurde er im Auftrag der Weißrussischen Nationalen Akademie der Wissenschaften vom russischen Raumfahrtunternehmen RKK Energija. Die Sensoren sollten im sichtbaren Bereich und im nahen Infrarot Bilder der Landflächen mit hoher räumlicher Auflösung liefern. Der Satellit sollte sich in 505 km Höhe auf einer sonnensynchronen Umlaufbahn mit 97,4° Neigung bewegen. Der Nachfolgesatellit Belka 2 wurde am 22. Juli 2012 gestartet.

BelKa-2

Erdbeobachtungssatellit der weißrussischen Raumfahrtbehörde, der den 2006 gestarteten Vorgängersatellit BelKa-1 ersetzten, dessen Dnepr-Trägerrakete 86 s nach dem Start versagte. Er wurde am 22. Juli 2012 vom Startkomplex 31/6 des Kosmodroms Baikonur mit einer Sojus-Trägerrakete zusammen mit den Satelliten Kanopus-Vulkan, TET 1, ExactView 1 und Sond-PP in eine sonnensynchrone Umlaufbahn gebracht. Der dreiachsenstabilisierte Satellit ist nahezu baugleich mit Kanopus-Vulkan und mit einer panchromatische Kamera mit einer Auslösung von etwa 2,5 m und einer Schwadbreite von 20 km, einer Vierkanal-Multispektralkamera mit einer Auflösung von 10,5 m und einem Multispektralscanner MSU-200 mit einer Auflösung von 25 m und einer Schwadbreite von 250 km für Übersichtsbilder ausgerüstet. Er soll der Erderkundung und der Datensammlung für verbessertes Kartenmaterial dienen, wobei die Daten auch für die Landesentwicklung, den Katastrophenschutz und die Landwirtschaft eingesetzt werden sollen. Gebaut wurde er auf Basis eines Satellitenbus der russischen Firma WNIIEM (ursprünglich: Allunionsweites Wissenschafts- und Forschungsinstitut für Elektromechanik). Die Avioniksysteme stammen von Surrey Satellite Technology aus Großbritannien. Die geplante Lebensdauer beträgt fünf Jahre.

Beobachtungswinkel

Engl. observation angle, franz. angle d’observation; nach DIN 18716 der "Winkel zwischen der Lotrichtung und der Richtung, unter der die Datenaufnahme für einen bestimmten Geländepunkt erfolgt".

BepiColombo

Raumsonde, die im Rahmen einer von der ESA in Kooperation mit der japanischen Raumfahrtbehörde JAXA geplanten Mission zum Merkur starten soll. Ihre Hauptaufgaben bestehen in der Untersuchung des Magnetfelds sowie der geologischen Zusammensetzung und Geschichte des sonnennächsten Planeten. Sie ist nach dem Spitznamen des 1984 verstorbenen italienischen Mathematikers Giuseppe Colombo benannt, der sich um die Merkurerkundung besonders verdient gemacht hat.

mcs_380_lres MCS: Mercury Composite Spacecraft

Die Raumsonde der BepiColombo Mission MCS (Mercury Composite Spacecraft) wird auf ihrem Weg zum Merkur aus drei Modulen bestehen:

  • MTM (Mercury Transfer Module): Beinhaltet die zum Transfer nötigen Triebwerke (4 Ionentriebwerke SEP, 24 chemische Triebwerke). Wird bei Erreichen der endgültigen Orbits des MPO und MMO abgetrennt.
  • MPO (Mercury Planetary Orbiter): Orbiter (ESA) mit insgesamt 11 wissenschaftlichen Instrumenten.
  • MMO (Mercury Magnetospheric Orbiter): Orbiter (JAXA) mit 5 wissenschaftlichen Instrumenten.

Eine weitere Komponente ist das sogenannte MOSIF (MMO Sunshield and Interface Structure); eine Kombination aus Interface und Sonnenschutz für den MMO. Der MOSIF wird nach dem Einschuss des MMO in den Endorbit abgetrennt.

Zu größerer Darstellung auf Grafik klicken

Quelle: DLR
 

BepiColombo wird aus drei Modulen bestehen: je einem europäischen und japanischen Orbiter sowie einem Antriebsmodul, das die beiden Sonden zum Merkur transportiert. Die gesamte Einheit wird etwa sechs Meter hoch sein und rund vier Tonnen wiegen. Rund ein Drittel davon ist Treibstoff. Astrium Deutschland ist für das komplette dreiteilige Raumfahrzeug verantwortlich. In Großbritannien ist Astrium für den Bau des elektrischen und chemischen Antriebssystems sowie für die gesamte Struktur aller drei Module verantwortlich. Astrium in Spanien wiederum hat die Struktur für das Transfermodul - auf Basis der  neuesten Kohlefasertechnologie - entwickelt und gebaut. Astrium in Frankreich wird die on-board Software auf der Basis der schon im Weltall fliegenden Sonden Rosetta, Mars Express und Venus Express entwickeln.

mcs_mission_profile_lres MCS: Missionsprofil der BepiColombo Mission

 

Bei der BepiColombo Mission wird zwischen 5 Missionsphasen unterschieden:

  1. Start und frühe Orbit Phase (launch and early orbit phase, LEOP) (2)
  2. Nahe Erd- und Testphase (near Earth commisioning phase, NECP) (2)
  3. Interplanetare Phase (interplanetary cruise phase) (3)
  4. Merkur Annäherungs Phase (Mercury approach phase) (4)
  5. Merkur Orbit Phase (Mercury orbit phase) (5)

(1) zeigt das MCS (Mercury Composite Spacecraft) in der Startkonfiguration (launch configuration) mit der angedeuteten Nutzlastverkleidung  sowie das schematisch dargestellte Interface zur ARIANE 5 ECA.


Zu größerer Darstellung auf Grafik klicken

Quelle: DLR
 

Der Start ist für das Frühjahr 2017 vorgesehen. Eine Ariane 5 Rakete wird BepiColombo vom europäischen Weltraumbahnhof Kourou aus zunächst auf eine interplanetare Flugbahn bringen. Für den insgesamt sechs Jahre dauernden Flug zum Merkur werden sowohl die elektrische Antriebssysteme als auch einige planetarische Swingby-Manöver um die Erde, die Venus und den Merkur selbst genutzt.

Weitere Informationen:

Bestrahlung

Engl. radiant exposure; die Bestrahlung H ist die auf die Flächeneinheit auftreffende Strahlungsmenge. Die spektrale Abhängigkeit der Größen wird durch den Index l angezeigt:Ql, Fl, Ml, Il, Ll, El, Hl.

Bestrahlungsstärke

Engl. irradiance, franz. irradiance; die Bestrahlungsstärke E ist der Strahlungsfluss, der auf eine Oberfläche auftrifft. DIN 18716formuliert: "Quotient aus der auf eine Fläche auftreffenden Strahlungsleistung und dieser Fläche".

Bestrahlungswinkel

Engl. illumination angle, franz. angle d’incidence; nach DIN 18716 der Winkel zwischen der Flächennormalen und der Einfallsrichtung der auftreffenden Strahlung.

Bewässerung und Fernerkundung

Bewässerung als künstliche Zufuhr von Wasser vornehmlich zum Ausgleich der für die Bodennutzung jahreszeitlich oder ganzjährig fehlenden Niederschläge, gehört mit ihren vielfältigen landschaftlichen Auswirkungen zu den markantesten anthropogenen Eingriffen. Insofern ist Bewässerung(swirtschaft) ein ideales Objekt für fernerkundliche Beobachtung, insbesondere wegen ihrer raumzeitlichen Veränderungen (Change Detection).
In der hydrologischen Praxis ist Fernerkundung ein wichtiges Instrument für das Wassermanagement. So beginnt der Einsatz von Fernerkundung bereits beim Aufspüren von fossilen oder rezenten Grundwasserkörpern, aus denen Bewässerungssysteme gespeist werden können. Zu diesem Zweck werden die Messdaten von mehreren unterschiedlichen Beobachtungssatelliten kombiniert. Beispielsweise verschaffen Bilder der Landsat-Satelliten einen Überblick über die Oberflächenstruktur einer Region – die verschiedenen Vegetationstypen lassen auf die grundsätzliche Bodenfeuchte schließen. Die Sensoren eines Radarsatelliten scannen die Oberflächenbeschaffenheit der Landschaft. Die von ihm ausgesandten Wellen des sogenannten C-Bandes dringen zwar nur wenige Zentimeter in den Boden ein. Doch das Relief der Oberfläche verrät ausgetrocknete Flussläufe und liefert so wichtige Anhaltspunkte, wo Grundwasser zu finden sein könnte. Mit den Daten des langwelligen Radars eines weiteren Satelliten geht der Blick zusätzlich mehrere Meter tief unter die Erdoberfläche. So "sieht" der Satellit, wo der Boden feucht ist. Die Kombination von Oberflächendaten und verschiedenen "Tiefeninformationen" erzeugt dann einen "Querschnitt" durch das Gelände. Ferner liefern Schweremissionen Informationen über den Zustand der Grundwasserverhältnisse oder wie GRACE auch über ihre Veränderungen. Der nächste Landsat-Satellit (Landsat Data Continuity Mission) wird einen Sensor mit thermalem Band tragen, speziell um den Wasserverbrauch zu messen.

alos_imperial_valley_lres

Zu größerer Darstellung auf Grafik klicken

Quelle: ESA
Bewässerte Wüste im Imperial Valley (Cal.) - Aufnahme des japanischen Erdbeobachtungssatelliten ALOS

Die fruchtbaren Böden des  Imperial Valley in der südkalifornischen Wüstenregion sind hier mit ihrer Nutzung dargestellt. Vom südlichen Ende des Saltonsees (oben links) erstreckt sich das Tal über ca. 80 km südwärts bis nach Mexiko hinein, wo es dann Mexicali Valley genannt wird. Etwa 5.000 km Bewässerungskanäle und 200.000 Hektar bewirtschaftetes Land überziehen das Tal. Zu den wichtigsten Agrarprodukten gehören Gemüse, Weizen, Alfalfa und Vieh. Agrarpflanzen bieten auch ein wertvolles Habitat für einheimische Vögel und Zugvögel.
Eine menschengemachte Umweltkatastrophe in den frühen Jahren des 20. Jahrhunderts ließ den Salton Sea entstehen. 1905 wurde Wasser vom Colorado River zu Bewässerungszwecken zum Imperial Valley geleitet, aber das Flusswasser durchbrach die Kanaltore und floss zum Salton Basin. 1907 brachte man das Flusswasser unter Kontrolle, aber die großen Wassermengen hatten inzwischen den Salton Sea geschaffen, der heutzutage erhalten bleibt um Überschusswasser aus der Bewässerung aufzunehmen. Mit ca. 970 km² ist er der größte See Kaliforniens.
Man erkennt die Städte Brawley (unten rechts), Westmorland (unten links) und Calipatria (oben), sowie Ramer (oben) und Finney Lakes (Mitte rechts).

ALOS (Advanced Land Observing Satellite) machte diese Aufnahme am 4. Juli 2010 mit seinem Advanced Visible and Near Infrared Radiometer Type-2 (AVNIR-2). AVNIR-2 ist dazu ausgelegt die Landbedeckung und die Vegetation in sichtbaren und im nahen Infrarotbereich mit einer Auflösung von 10 m aufzuzeichnen. Die ESA unterstützt ALOS als Third Party Mission, indem es seine für mehrere Missionen ausgelegten Bodensysteme einsetzt um Satellitendaten zu empfangen, zu verarbeiten, zu verteilen und zu archivieren.

 

Weltweite Forschungsanstrengungen zu dieser Thematik unternimmt die UNESCO im Rahmen von GARSoder die ESA mit Bezug auf Africa (TIGER Initiative).
Verschiedene Formen von Bewässerungskulturen sind z.T. seit Jahrtausenden von starker Prägekraft für das Erscheinungsbild der Agrarlandschaft, z.B. beim bewässerten Terrassenfeldbau oder bei diversen Oasenformen und damit fernerkundlich dokumentierbar. An dieser Stelle ist auf die Überwachung von Stätten des UNESCO-Welterbes und von UNESCO-Biosphärenreservaten mit Hilfe von Fernerkundung hinzuweisen.
Gleichermaßen landschaftsprägend sind bewässerungsbedingte hydrologische Begleiterscheinungen, seien dies Infrastruktureinrichtungen wie Stauseen und Kanäle oder die Reduzierung der Abflussmengen von Flüssen, das Absinken des Grundwasserspiegels und das Verlanden von Seen bei ungenügendem Wasserzufluss. Auch dramatische ökologische Veränderungen, z.B. bei der natürlichen Vegetationsbedeckung oder der Bodenstruktur sind per Fernerkundung überwachbar.

Crop Circles in der Wüste (Saudi Arabia)  

saudiarabia_lres

5. Februar 1987

saudiarabia2_lres

24. Februar 1991

Während der vergangenen drei Dekaden hat Saudi-Arabien eine Ressource erschlossen, die wertvoller ist als Öl. Ingenieure und Farmbetriebe haben verborgene Wasserreserven angezapft, um Getreide, Früchte und Gemüse in der Wüste anzubauen. Die vier Satellitenbilder zeigen die Entwicklung der landwirtschaftlichen Nutzung im Wadi As-Sirhan Basin. Sie wurden von technisch ähnlichen Sensoren, dem Thematic Mapper und dem Enhanced Thematic Mapper Plus auf drei verschiedenen Landsat-Satelliten (4, 5, 7) aufgenommen. Die einzelnen Parzellen in den Bildern haben einen Durchmesser von ca. 1 km und nutzen Karusselbewässerung.
Die Sensoren zeichneten das von der Erde reflektierte Licht im kurzwelligen Infrarot, im nahen Infrarot und in den Grünanteilen des elektromagnetischen Spektrums auf. Mit dieser Kombination erscheint junge Vegetation hellgrün, wohingegen trockene Vegetation oder Brachland rostrot erscheinen. Trockene, kahle Flächen (meist Wüste) sind rötlich und gelb.
Das geförderte Wasser ist fossiles Wasser, das sich in gemäßigterem Klima während der letzten Kaltzeit vor ca. 20.000 Jahren gebildet hat und jetzt bis 1 km tief unter Sandmassen und Kalksteinformationen begraben liegt. Die genauen Vorräte (252 - 870 km³) sind nicht bekannt, aber eine wirtschaftliche Förderung ist nach Schätzungen nur für 50 Jahre möglich.
Der aktuelle durchschnittliche Niederschlag von 100 bis 200 mm/a genügt nicht, um die Aquifere aufzufüllen, womit es sich um nicht erneuerbare Vorräte handelt. 2006 hatte das Land nach Angaben der FAO 2,4 km³ erneuerbares Süßwasser an der Oberfläche verfügbar, der gesamte Verbrauch betrug hingegen 23,7 km³. Die für wüstenbasierte Landwirtschaft benötigte Wassermenge verdreifachte sich von ca. 6,8 km³ 1980 auf ca. 21 km³ 2006.

saudiarabia3_lres

12. März 2000

saudiarabia4_lres

17. Januar 2012

Zu größerer Darstellung auf Grafiken klicken

Quelle: NASA Earth Observatory
 

Weitere Informationen:

Bewegungsunschärfe

Obs. Bildwanderung; engl. motion blur, franz. filé d’image causé par la vitesse d’avion; nach DIN 18716 die "gerichtete Verstärkung der Bildunschärfe verursacht durch Eigenbewegung der Plattform während der Belichtung".

Bexus

Programm zur Durchführung von Ballon-Experimenten für Universitäts-Studenten (Bexus). Bexus bietet Studenten die Möglichkeit, wissenschaftliche und technische Experimente auf Ballonen unter speziellen Atmosphärenbedingungen durchzuführen.

Weitere Informationen:

bi-direktionale Reflektanzverteilungsfunktion (BRDF)

Engl. bi-directional reflectance distribution function (BRDF), franz. distribution de la réflexion bidirectionelle; nach DIN 18716 die "Abhängigkeit der Reflexion von den Einstrahlungs- und Beobachtungswinkeln".

Bild

Engl. image, imagery; das Ergebnis der Aufnahme mit einer Kamera bzw. einem Sensor oder auch das Ergebnis von Verabeitungsprozessen. Es kann in analoger oder digitaler Form vorliegen (nach DIN 18716-3).
Siehe auch analoges Bild, digitales Bild.

Das Bild eines Geländeausschnitts wird oft als "Szene" bezeichnet. In Zusammensetzungen sollte das Wort "Bild" nur dann verwendet werden, wenn in der Darstellung das Bild als solches in Erscheinung tritt, wenn es sich also um eine bildliche (meist photographische) und nicht um eine graphische Darstellung handelt.

Ein Bild ist das Ergebnis eines Abbildungsprozesses mit zugrunde liegenden geometrischen und physikalischen Aspekten, d.h. in jedem Bild sind stets geometrische (räumliche) + physikalische (radiometrische) Informationen gespeichert.
Der geometrische Aspekt besagt, dass eine Information aus einer bestimmten räumlichen Richtung kommt, der physikalische Aspekt sagt etwas über die Intensität und die spektrale Zusammensetzung der Strahlung aus. Jedes System zur Aufnahme von Luft- und Satellitenbildern ermittelt somit die Richtung aus der die Strahlung kommt und die Intensität der Strahlung. Bei der Aufnahme wird dann die von der Erdoberfläche ausgehende und an der Plattform (z.B. Flugzeug, Satellit) ankommende elektromagnetische Strahlung durch einen Empfänger in Messsignale umgesetzt und gespeichert.

Grundsätzlich können die Fernerkundungssensoren nach der Quelle der empfangenen Strahlung in passive und aktive Systeme eingeteilt werden. Bei passiven Systemen geht die Strahlung von einer natürlichen Quelle aus (z.B. Sonne), erreicht dann ein Geo-Objekt und wird von diesem reflektiert und/oder absorbiert. Absorbierte Strahlung führt zu einer Erwärmung des Objektes, welches dann wiederum thermale Strahlung emittiert (thermales IR). Die von dem Objekt ausgehende reflektierte und/oder emittierte Strahlung wird dann vom passiven Sensor in Abhängigkeit seiner spektralen Empfindlichkeit aufgezeichnet (Kamera, Scanner, Wärmesensor). Bei aktiven Systemen sendet der Sensor selbst elektromagnetische Strahlung aus und empfängt diese nachdem sie mit dem Geo-Objekt wechselgewirkt hat. Das System ist somit gleichzeitig künstliche Quelle der Strahlung (Sender) und ihr Empfänger (z.B. Radar, Laser).

Das menschliche Auge gilt als passiver Sensor mit einer spektralen Empfindlichkeit von etwa 400 bis 700 nm (Blau bis Rot). Man bezeichnet diesen Abschnitt des elektromagnetischen Spektrums deshalb auch als sichtbares Licht (VIsible Spectra = VIS). Es ist also verständlich, dass alle technischen Fernerkundungssysteme (unabhängig von ihrer spektralen Empfindlichkeit) die bildhafte Verarbeitung der Daten an das Farbsystem des menschlichen Auges in den Farbtönen Blau, Grün und Rot (RGB) anpassen müssen. Bei einer entsprechende Farbzuweisung von Kanälen können auch Meßwerte aus uns fremdartigen Spektralbändern sichtbar gemacht werden (z.B. als sog. Falschfarbenbilder).

rgb_echtfarbenbild

cir_falschfarbenbild

Links:

Echtfarbenbild

(3, 2, 1 – RGB)

 

Rechts:

CIR-Falschfarbenbild (CIR=Colored InfraRed, 4-3-2 Kombination)


Quelle:
Thomas Engleder,
Institut für Geographie,
Universität Wien

Wie der Name schon sagt, gibt ein Echtfarbenbild die Originalfarben wieder und sieht so einem Foto täuschend ähnlich. Ein solches Bild besteht aus den Graustufenbildern der Kanäle 3, 2 und 1. Die Originalfarben können wiedergegeben werden, da der rote Kanal mit roter Farbe dargestellt wird, der grüne Kanal grün und der blaue Kanal blau. Die Farbe jedes einzelnen Pixels wird aus dem Verhältnis der Intensitätsstufen aus den Graustufenbildern ermittelt.
Ein CIR-Falschfarbenbild (CIR=Coloured InfraRed, 4-3-2 Kombination) gibt Aufschluss über das Alter von Biomasse, z.B. Gras, Blätter von Büschen, etc. Der dazu verwendete Kanal 4 ist das sog. Nahe Infrarot (NIR). Diese Strahlung wird von Zellen je nach deren Beschaffenheit gut oder weniger gut reflektiert. Junge Zellen sind prall gefüllt mit Flüssigkeit, sie haben also eine glatte Oberfläche; deswegen wird das NIR beinahe vollständig reflektiert. Bei alten Zellen hingegen ist die Oberfläche runzlig, deswegen wird nur ein geringer Teil des NIR reflektiert.

Bildanalyse

Engl. image analysis, franz. analyse des images; quantitative und/oder qualitative Analyse von analogen, digitalisierten oder originär digitalen Bildern, mit dem Ziel einer phänomenologisch-beschreibenden, mathematisch-statistischen und/oder planerisch-kartographischen Darstellung von Bildinhalten zur Informationsgewinnung.

Nach DIN 18716 die "Gesamtheit der Verfahren, durch die ein digitales Bild informationstechnisch ausgewertet wird".

Bei der Bildanalyse werden bestimmte, in einem Bild auftretende Objekte erkannt und beschrieben. Die Methoden führen zur Mustererkennung. Neben der visuellen Bildinterpretation wird der Begriff hauptsächlich in der semiautomatischen und automatischen computergestützten digitalen Rasterbildverarbeitung und Klassifizierung gebraucht.

Bildaufnahme

Vorgang, bei dem die von der Erdoberfläche ausgehende und am Sensor ankommende elektromagnetische Strahlung durch den Sensor erfasst und gespeichert wird.

Bildauswertung

Alle Verfahren, die dazu dienen, aus den vorliegenden Daten die für den jeweiligen Anwendungszweck gewünschten Informationen oder Produkte abzuleiten.

Bei der digitalen Bildauswertung handelt es sich um Computerverfahren, die 'im Prinzip' ohne menschlichen Beobachter auskommen. Ziel der dann automatischen Bildauswertung ist die dreidimensionale Rekonstruktion und Interpretation der aufgenommenen Szene. Dabei fließen sowohl geometrische als auch semantische Überlegungen ein.

Bildbearbeitung

Im Unterschied zum gröberen Begriff der Bildverarbeitung die Gesamtheit der feingliedrigeren Verfahren, welche die Bilddaten durch Überführen in eine geeignetere Form auf eine Analyse vorbereiten (Gewinnung zweckgerichteter Bilddaten). Hierzu gehören Bildkorrekturen, Kontrastverstärkung, Filterung oder Manipulation von Bildinhalten. In einem konkreten Anwendungsfall müssen allerdings nicht immer sämtliche Verfahren der Bildbearbeitung durchgeführt werden. Die Auswahl der notwendigen Bildbearbeitungen ist immer von der vorliegenden Fragestellung abhängig.

Bildelement

Syn. Pixel; die durch die Messgeschwindigkeit und Geometrie des Aufnahmesystems festgelegte kleinste Flächeneinheit eines digitalen Bildes. Sie ist gleichzeitig ein Maß für das räumliche Auflösungsvermögen. Der radiometrische Wert des Bildelements stellt die vom Aufnahmesystem gemessene, integrierte Gesamtheit der Strahlung dar, die von dieser Fläche reflektiert oder emittiert wird. In der Regel haben Bildelemente in der Fernerkundung eine quadratische Form. Der Begriff ist nicht zu verwechseln mit dem in der Drucktechnik bei Halbtonvorlagen verwendeten Begriff des durch reprotechnische Rasterung entstandenen Bildpunktes.

Bildinterpretation

Engl. image interpretation, franz. interprétation des images; das Auffinden, Erkennen und Deuten der Inhalte eines Bildes. Dies umfasst die Gesamtheit des visuellen Interpretationsvorganges von Fernerkundungsdaten, vor allem von Luftbildern (Luftbildinterpretation). Jedoch ist auch die digitale Bildverarbeitung häufig mit visueller Interpretation von Teil- oder Endergebnissen gekoppelt. Die Bildinterpretation setzt sich aus dem Erkennen und Identifizieren von Objekten anhand von Bildmerkmalen sowie dem Interpretieren zusammen. Die wesentlichen Merkmale des Bildes, die zur Objekterkennung und -beschreibung herangezogen werden, sind geometrisch und stofflich bestimmt. Zu nennen sind vor allem Größe/Höhe (shape), Form/Umriss (shape), Lage im Gelände (site), Grau-/Farbton (tone, colour), Muster (pattern) und Textur (texture) sowie Schattenwurf (shadow) und die Stereoskopie. Zu berücksichtigen sind der konkrete Aufnahmezeitpunkt und die spezifischen Bildeigenschaften.

Das eigentliche Interpretieren geht inhaltlich weit über das Erkennen von Objekten hinaus. Einbezogen werden andere verfügbare Informationen (Referenzdaten: topographische und thematische Karten, Statistiken, Bohrprofile, Geländedaten) und vor allem das Fachwissen des Interpreten. In dieser Phase der Bildinterpretation werden zusätzliche und weiterführende, schließende, semantische Aussagen aus den Bildmerkmalen abgeleitet, die nicht direkt abgebildet sind. Der Gesamtprozeß der Luftbildinterpretation setzt sich also aus den Teilschritten Sehen, Wahrnehmen, Erkennen und Verifizieren zusammen. Die Interpretation ist ein iterativer Prozess mit einer zunehmenden Merkmals-/Objektklassenverdichtung. Anhand der Bildmerkmale wird für die zu interpretierenden Objekte ein Interpretationsschlüssel erstellt und eine erste Ausweisung der Objektklassen und ihrer Grenzen vorgenommen. Die Auswertung erfolgt häufig unter Verwendung von Interpretationsgeräten, wie z.B. dem Spiegelstereoskop, zur besseren Erkennung räumlicher Zusammenhänge. In der Regel schließt sich eine Feldkontrolle an, bei der sowohl die bisherigen Ergebnisse geprüft, Unsicherheiten berichtigt als auch der Interpretationschlüssel modifiziert wird.

Die Ergebnisdarstellung erfolgt in der Regel in Form von thematischen und topographischen Karten oder von Kartenserien zur Darstellung von Veränderungen (Monitoring). Weitere Möglichkeiten bieten Flächenstatistiken oder andere statistische Auswertungen oder Profildarstellungen. Ein Beispiel dieser Art sind statistische Auswertungen von Photolineationen, also von linearen Elementen im Landschaftsbild, die auf geologische Strukturen schließen lassen. Um die horizontale Verteilung der Zahl oder auch der Länge der linearen Elemente zu analysieren, kann man sie in Kluftrosen oder Richtungshistogrammen darstellen.

Bei anderen Aufgaben können die Auswerteergebnisse zweckmäßigerweise in Form von Profilen wiedergegeben werden, beispielsweise zur Darstellung des Verlaufs der Oberflächentemperaturen eines Flusses ober- und unterhalb eines Zuleiters aus einem Wärmekraftwerk.

Weitere Informationen:

Bildkachel

Ein Orthophotomosaik besteht aus Einzelorthophotos, die ähnlich einem Mosaik aneinandergefügt werden. Um die jeweils zu verarbeitende Datenmenge möglichst gering zu halten, werden solche Mosaike oftmals in Bildkacheln eingeteilt (z. B. in Kacheln zu je einem km²).

Bildkoordinatenbereinigung

Rechnerische Beseitigung aller Unterschiede zwischen den gemessenen Bildkoordinaten und den auf den kalibrierten Hauptpunkt als Ursprung bezogenen und wegen Deformationen, Verzeichnung und Refraktion verbesserten Bildkoordinaten.

Bildkorrelation, digitale

Engl. digital image correlation; ein häufig verwendetes Verfahren der Bildzuordnung auf der Basis von Grauwerten, also rasterorientierter Information. Die Zuordnung arbeitet mit den originären Grauwerten. Eine Mustermatrix wird, wie in der Abbildung schematisch dargestellt, pixelweise über eine größere Suchmatrix eines zweiten Bilds geschoben.

digitale_bildkorrelation_lres Digitale Bildkorrelation

Prinzip der digitalen Bildkorrelation: die Mustermatrix M wird innerhalb der Suchmatrix S verschoben.Die Matrizen bestehen aus r Zeilen (row) und c Spalten (column). Ein Maß für die Ähnlichkeit zweier Muster ist der Kreuzkorrelationskoeffizient ρ. Dieser wird in jeder Position für alle gemeinsamen Bildelemente beider Matrizen aus den Standardabweichungen und der Kovarianz der Grauwerte berechnet.

Zu größerer Darstellung auf Grafik klicken

Quelle: Santel 2001
 
Bildmaßstab

Engl. image scale, franz. échelle d’image; nach DIN 18716 das"Verhältnis Bildstrecke zur entsprechenden Objektstrecke", verbunden mit den Anmerkungen: "Durch die digitale Aufnahmeregistrierung ist die Relevanz des Begriffs Bildmaßstab auf den Begriff Bodenauflösung (GSD) übergegangen. Bei nicht georeferenzierten Bildern kann nur ein ungefährer (mittlerer) Bildmaßstab angegeben werden."

Bildmatrix

Ein geordnetes Feld von Bildelementen: Ein digitales Bild besteht aus einer Bildmatrix, die eine regelmäßige Anordnung von Pixeln darstellt. Sie gliedert sich in Bildzeilen (rows) und Bildspalten (columns). In der Fernerkundung ist in der Regel der Nullpunkt in der linken oberen Ecke.

Bildmatrix

Bildmatrix

1 Quadrat = 1 Bildelement = 1 Pixel (Picture Element)

Quelle: geoinformation.net

 

Nachbarschaftsbeziehungen von Pixeln

Nachbarschaftsbeziehungen

Jedem Pixel können bestimmte Nachbarschaftsbeziehungen zugewiesen werden
(links 4, rechts 8 Nachbarn).

Zu größerer Darstellung auf Grafik klicken.

Bildqualität

Engl. image quality, franz. qualité d’image; nach DIN 18716" Aufgaben- und sensorspezifische Eigenschaften der Daten", verbunden mit der Anmerkung "Die Qualität wird anhand von speziellen Parametern definiert, z.B. Signal-Rausch-Verhältnis (SNR) und Punktbildverschmierungsfunktion (PSF)."

Bildrestaurierung

Engl. image restoration; die Wiederherstellung eines Bildes durch Korrektur von bekannten oder geschätzten Verzerrungen und Störungen wie Verwaschung, Rauschen, Bewegungsunschärfe, Defokussierung, Vibrationen und geometrische Verzeichnung.

Bildschärfe

Engl. image definition, franz. netteté des images; nach DIN 18716 ein "Qualitätsparameter, der durch die PSF des Systems beschrieben wird".

Bildstabilisierung

Engl. image stabilisation, franz. stabilisation d’image; nach DIN 18716 die "mechanische oder elektronische Kompensation der Bewegungsunschärfe", verbunden mit der Anmerkung: "Mechanische Lösungen sind kreiselstabilisierte Kamera-Aufhängung und Forward Motion Compensation (FMC). Elektronische Lösungen verwenden eine zeitversetzte Integration der Strahlungsaufzeichnung über mehrere Detektorelemente (TDI)."

Bildstatistik

Engl. image statistics; digitale Bilder oder Teilbilder können durch verschiedene statistische Parameter beschrieben werden:

  • Histogramm - enthält in komprimierter Form wichtige Merkmale der statistischen Bildanalyse. Die Graphik zeigt die Anzahl der Pixel für jeden Grauwert.
  • Wahrscheinlichkeitsdichte - die relative Häufigkeit, mit der ein Grauwert erwartet werden kann.
  • Mittelwert - das arithmetische Mittel der Grauwerte eines Bildes (Gesamthelligkeit des Bildes).
  • Varianz - das Maß für die Abweichung der Grauwerte eines Bildes vom Mittelwert.
  • Kontrast - abgeleitet vom minimalen und maximalen Grauwert (Standardabweichung).
  • Entropie - die Unsicherheit eines Grauwertes.
Bildstreifen

Eng. image or flight strip, franz. bande des images; nach nach DIN 18716 eine "Reihe aufeinanderfolgender Bilder".

Bildtransformation

Engl. transformation, franz. transformation; die geometrische (z. B. der Übergang zwischen zwei Koordinatensystemen) und/oder radiometrische Veränderung eines Bildes.

Bildtrennung

Die Trennung zweier überlagerter Halbbilder eines Stereobildes durch Strahlenauslese. Sie ermöglicht die augenrichtige Zuordnung der Strahlen für die stereoskopische Betrachtung. Die Bildtrennung kann auf unterschiedlichste Weisen geschehen (analog z.B. durch Anaglyphenverfahren, digital durch Polarisation).

Bildüberlagerung

Grauwertbilder aus verschiedenen Spektralbereichen einer Satellitenbildszene können digital überlagert werden, wenn die Rasterdaten geometrisch konvergent sind. Bei Überlagerungen multitemporaler Satellitenbildszenen oder zur Mosaikbildung bedarf es der Rektifizierung der Daten, d.h. der rechnerischen Entzerrung über Passpunkte .

Bildverarbeitung

Engl. image processing, franz. traitement des images; alle Verfahren, mit denen digitale Bilder gezielt bearbeitet und verändert werden um damit Informationen aus den digitalen Bilddaten zu extrahieren. Hierzu gehört u.a. das Erkennen von Bildinhalten durch geeignete Klassifizierungsverfahren.

Nach DIN 18716"Verfahren, mit denen Bilddaten vorverarbeitet, verarbeitet und interpretiert werden, um Informationsprodukte zu erzeugen".

Bildverarbeitung umfasst eine Vielzahl von Operationen zur Restaurierung, Verbesserung, Aufbereitung und Analyse von Bild- bzw. Rasterdaten. Unabhängig vom Aufnahmeverfahren von Bildern ist eine Verarbeitung nötig, um die Bilder sinnvoll verwenden zu können. Elektronisch gewonnene Bilder können direkt weiterverarbeitet werden, analog aufgenommene Bilder müssen zunächst digitalisiert werden. Ein Computer zerlegt dann ein Bild in Millionen kleine Informationseinheiten (Pixel) und benutzt mathematische Formeln um den Farbkontrast und die Intensität der Pixel zu manipulieren. Jedes Bild kann auf verschiedene Weise neu zusammengesetzt werden, um spezielle Charakteristika oder Objekte hervorzuheben, die im ursprünglichen Bild verborgen waren. Die digitale Bildverarbeitung ist Basis der Fernerkundungsmethoden. Viele ihrer Teilschritte können automatisiert ablaufen. Die Grenzen der Automatisierung liegen dort, wo 'lebensweltliches' Wissen für eine korrekte Interpretation der Daten erforderlich ist. Dies kann bei der nachrichtendienstlichen Verwertung von Satellitenaufnahmen der Fall sein oder im Bereich der Archäologie.
Bildverarbeitung erlaubt:

  • die Erstellung von mehrfarbigen Einzelbildern aus mehreren Bildern desselben Objekts, die mit verschiedenen Spektralbändern aufgenommen wurden
  • die Hervorhebung von Mustern
  • die Wiederherstellung der korrekten Objektumrisse nach deren Verzerrung durch Blickwinkel und Objektiv (Geo-Kodierung )
  • die Veränderung des Kontrastes zwischen Objekten und deren Hintergrund
  • die Verbesserung der Bildschärfe
  • die Wiederherstellung von durch Wolken bedeckten Details an der Erdoberfläche
  • die Verstärkung von Schatten
  • die Unterdrückung von Reflexionen u.w.

Im GIS-Umfeld zählen zur Aufbereitung im Wesentlichen Entzerrung und Filter, sowie die Bearbeitung durch Editieren (Raster-Editor) bzw. Kombination von Einzelbildern (Überlagerung, Mosaicking). Wichtige Analyseverfahren sind statistische Methoden (z.B. Histogramm-Berechnung), Klassifizierung und Mustererkennung.
Grundsätzlich kann man Bildverarbeitung als Transformation des Ausgangsbildes in ein Ergebnisbild verstehen.

Weitere Informationen:

Bildverarbeitungsfilter

Engl. filtering, franz. filtrage; nach DIN 18716 "Transformationen, die auf punktweisen, lokalen und globalen Operationen basieren, durch die Bildstrukturen verändert werden". Folgende Beispiele werden angeführt:

  • Hochpassfilter (engl. high pass filter), die niedrige Ortsfrequenzen in Bildern abschwächen oder hohe Ortsfrequenzen verstärken, so dass z. B. eine Kantenverstärkung eintritt;
  • Tiefpassfilter (engl. low pass filter), die hohe Ortsfrequenzen in Bildern abschwächen oder niedrige Ortsfrequenzen verstärken, so dass z. B. ein Kontrastausgleich eintritt;
  • Richtungsfilter (engl. directional filter), die Bildstrukturen in bestimmten Richtungen verstärken und anders gerichtete abschwächen."

Folgende Anmerkung zum Begriff ist beigefügt: "Neben den in der Bildverarbeitung als Filter bezeichneten Verfahren werden (optische) Filter in der Aufnahmetechnik verwendet."

Bildverband

Engl. image block, franz. bloc d’images; nach DIN 18716 eine "Anordnung von sich überlappenden Bildern".

Bildverbesserung

Engl. image enhancement, franz. perfectionnement d'image; jede Operation, die das Aussehen eines Bildes für das menschliche Auge verbessert wird, und durch die anschließende Auswertungsvorgänge (z.B. visuelle Interpretation) einfacher oder zuverlässiger werden (z.B. Kontraständerung, Histogrammstreckung, Filterung, Kombination verschiedener Spektralkanäle). Sie können aber auch Vorverarbeitungsschritte für nachfolgende Bildsegmentierung und Bildinterpretation sein. Zu den Techniken der Bildverbesserung zählen einfache Kontrastverstärkungen (z. B. durch lineare Skalierung, Äquidensitenbildung, Histogrammebnung), aber auch komplexe Verfahren der digitalen Filterung und der Hauptachsentransformation. Verbesserung ist stets auf eine bestimmte Anwendung hin orientiert. Die Methoden helfen bei der visuellen Interpretation bzw. Klassifikation von Elementen in dem Bild.

Bildzuordnung

Engl. image matching; die automatische Bestimmung von einander entsprechenden Punkten in zwei Bildern. Es werden unterschieden:

  • Flächenbasierte Zuordnung (area based matching) - Bestimmung der Übereinstimmung zwischen zwei Bildbereichen nach der Ähnlichkeit ihrer Grauwerte,
  • Merkmalsbasierte Zuordnung (feature based matching) - Zuordnung nach der Übereinstimmung von zwei Bildmerkmalen.
bilineare Interpolation

Engl. bilinear interpolation; Verfahren des Resampling, bei dem der Grauwert für die neue Pixelposition aus dem gewogenen Mittel der Grauwerte der vier nächstgelegenen alten Pixel berechnet wird. Hierzu wird zwischen den Grauwerten entsprechend den Abständen zur neuen Pixelposition in zwei Richtungen linear, d.h. bilinear, interpoliert. Die bilineare Interpolation führt zur Glättung von Grauwertübergängen. Dies hat den Vorteil, daß das Bild nicht blockig oder kantig wirkt, gleichzeitig aber den Nachteil, daß Grauwertgrenzen etwas abgeschwächt werden und Signaturdifferenzen zwischen Objektklassen eventuell etwas verwischt werden (Tiefpasseffekt). Der Rechenzeitaufwand erhöht sich um etwa den Faktor zehn gegenüber einer Grauwertzuweisung nach dem Nearest-Neighbour-Verfahren.

Binärbild

Digitale Rastergrafik, deren Pixel nur die zwei Farben Schwarz und Weiß annehmen können. Jedes Pixel kann also mit einem Bit gespeichert werden. Die Kodierung der Pixel erfolgt meist mit dem Wert 0 für Schwarz und 1 für Weiß, der umgekehrte Fall existiert allerdings auch.
Binärbilder finden ihre Anwendung vor allem

Binarisierung bezeichnet die Erzeugung eines Binärbildes aus einem Graustufen- oder einem in einem Zwischenschritt zum Graustufenbild umgewandelten Farbbild. Eine einfache Binarisierungsmethode ist das Schwellenwertverfahren. Je nachdem, ob der Grauwert eines Pixels über oder unter einem bestimmten Schwellenwert liegt, wird er Schwarz oder Weiß. Maßgeblich ist dabei die Wahl des Schwellenwertes; dieser muss nicht notwendigerweise bei 50 % liegen.

Bing Maps

Internet-Kartendienst von Microsoft, durch den sich verschiedene raumbezogene Daten betrachten und raumbezogene Dienste nutzen lassen. Bing Maps war früher unter den Bezeichnungen Windows Live Maps, Windows Live Local und Live Search Maps bekannt und ist als Teil der umfassenden Suchmaschine Bing eine Weiterentwicklung des MSN Virtual Earth. Die Daten und Dienste werden durch die Bing-Maps-for-Enterprise-Plattform zur Verfügung gestellt.

Das kostenlose Internetangebot von Landkarten schließt Satellitenbilder und Luftbilder ein. Eine Besonderheit gegenüber anderen Internet-Kartendiensten wie Yahoo Maps sind Schrägluftbilder aus der Vogelperspektive, die meist aber nur in urbanen Gebieten verfügbar sind. Außerdem stehen für verschiedene Städte 3D-Modelle zur Verfügung, die sich nach Installation eines Plugins im Browser in 3D betrachten lassen. Neben den bereitgestellten Daten lassen sich verschiedene Dienste nutzen, unter anderem zur Ortssuche und Routenplanung.

Bing Streetside ist ein Pendant zu Google Street View, welches in der Weihnachtszeit 2011 in mehreren deutschen Städten veröffentlicht wurde. Einsehbar sind die Städte München, Augsburg, Ingolstadt, Nürnberg, Stuttgart, Karlsruhe, Pforzheim, Frankfurt am Main, Düsseldorf und Essen sowie deren nähere Umgebung, Berlin nur teilweise. Die Aufnahmen hierfür begannen am 23. Mai 2011. Zuvor existierten schon Versionen in den Vereinigten Staaten und Kanada. Mit dem Start in Deutschland wurden zu den europäischen Städten London und Paris die Städte Manchester, Liverpool und Den Haag zu Bing Streetside hinzugefügt. Wie zuvor schon Google gestattete auch Microsoft Widersprüche, bevor die Bilder veröffentlicht wurden.

Weitere Informationen:

Biomass

Bezeichnung für die siebte Earth-Explorer-Mission der ESA. Der Satellit soll soll erstmals spezielle Radarmessungen aus dem All durchführen, mit denen die Biomasse und der in den Wäldern der Erde gespeicherte Kohlenstoff mit bislang unerreichter Genauigkeit erfasst und überwacht werden kann. Die Wälder der Erde und der in ihnen gebundene Kohlenstoff spielen eine große Rolle im Kohlenstoffkreislauf der Erde und sind ein wichtiger Faktor in Modellen über den Klimawandel. Besonders über die Tropen gibt es bislang jedoch nur wenig exaktes Datenmaterial.

Informationen über die Biomasse in den tropischen Wäldern sind zudem für eine Initiative der Vereinten Nationen (REDD+) von Bedeutung, mit denen die Abholzung von Wäldern und die Bodendegeneration insbesondere in Entwicklungsländern reduziert werden soll. Der Biomass-Satellit stellt zudem eine Ergänzung für die Ergebnisse des Biomasar-Projekts dar, insbesondere für Tropenregionen.

Mit Biomass sollen erstmals Radarmessungen mit einer Wellenlänge von knapp 70 cm aus dem All durchgeführt werden, um mit der Beobachtung unter die Baumkronen vorzudringen. Darüber hinaus wird der Satellit Beobachtungsdaten zu Veränderungen in der Waldfläche liefern.

Man erwartet, dass die Daten auch für das Gletschermonitoring und die Bewegungs- und Dickenmessung von Eisschilden verwendet werden können, ferner für die Erkundung des geologischen Untergrundes in Wüsten und für die Kartierung der Topographie von Waldböden. Dies gilt auch für die Bodenfeuchte, Permafrost und den Salzgehalt der Meeresoberflächen.

Die auf 5 Jahre ausgelegte Mission setzt ein neuartiges polarimetrisches P-Band-Radar mit synthetischer Apertur ein, das mit einer Bandbreite von 435 MHz (ca. 69 cm) arbeitet. Die Signalübertragung erfolgt bei 6 MHz. Der Satellit wird sich auf einem polnahen sonnensynchronen Orbit in einer Höhe zwischen 637 und 666 km befinden, je nach Missionsphase. Der Start von Biomass ist für 2020 vorgesehen.

Weitere Informationen:

Biomasse

Mit dem Begriff Biomasse wird die Stoffmasse von Lebewesen oder deren Körperteile bezeichnet. Als Menge dieser Stoffgemische gilt ihre Masse (Einheit: Kilogramm). In der Ökologie wird die Biomasse häufig nur für ausgesuchte, räumlich klar umrissene Ökosysteme oder nur für bestimmte, einzelne Populationen erfasst. Gelegentlich gibt es zudem Versuche, die Biomasse der gesamten Ökosphäre abzuschätzen.
In der Ökologie existiert kein einheitlicher Biomasse-Begriff. In der Energietechnik bezieht sich der Begriff nur auf energetisch nutzbare Biomasse.

Trotz dieser definitorischen Unsicherheiten ist z.B. die Bestimmung der oberirdischen Biomasse ein wichtiger Forschungsschwerpunkt, da ihr insbesondere im Hinblick auf den aktuellen globalen Wandel eine große Bedeutung zukommt. Da Vegetation in der Lage ist, Kohlendioxid aus der Atmosphäre aufzunehmen und als Biomasse zu speichern, spielt sie eine wesentliche Rolle im Kohlenstoffkreislauf und ist ein wichtiger Bestandteil verschiedener Strategien zur Reduzierung des atmosphärischen CO2-Gehalts.

Zur Bestimmung der Biomasse können Daten verschiedener Fernerkundungssatelliten herangezogen werden. Die Wahl der Datenbasis wird entscheidend beeinflusst durch den geünschten Maßstab der Kartierung, die benötigte Genauigkeit, die Kosten, die Verfügbarkeit historischer Datensätze sowie die Möglichkeit der Aufnahme von Zeitserien, die ein kontinuierliches Monitoring ermöglichen.

Erste Untersuchungen zur möglichen Ableitung oberirdischer Biomasse aus Fernerkundungsdaten gehen auf die 1980er Jahre zurück. Dies geschah vornehmlich mit optischen Sensoren wie dem NOAA-AVHRR und dem Landsat-TM. Bei der optischen Fernerkundung wird das von der Sonne emittierte und danach an der Erdoberfläche reflektierte Licht im sichtbaren und im nahen Infrarot-Bereich empfangen.

Bei der Ableitung von oberirdischer Biomasse auf der Basis von optischen Fernerkundungsdaten werden meist Vegetationsindizes eingesetzt, die Informationen über die Struktur, den Zustand und die phänologische Aktivität der Vegetation enthalten. Der am weitesten verbreitete Vegetationsindex ist der NDVI (Normalized Difference Vegetation Index). Weitere häufig verwendete Indizes sind der EVI (Enhanced Vegetation Index) sowie der SAVI (Soil Adjusted Vegetation Index), der eine Bodenbereinigung des Signals beinhaltet.

vegetationsindizes

 

Beispiele für Vegetationsindizes

NDVI (Normalized Difference Vegetation Index) - EVI (Enhanced Vegetation Index) - SAVI (Soil Adjusted Vegetation Index)

Legende:

NIR - naher Infrarot-Kanal

Rot - roter Kanal

Blau - blauer Kanal

C1, C2 - Korrekturterme für Aerosole für verschiedene Kanäle

L - Korrekturterm für Bodenbedeckung

Zu größerer Darstellung auf Grafik klicken

Quelle: Ley et al. 2011
 

Vegetationsindizes hängen von verschiedenen Parametern ab, z.B. dem Bedeckungsgrad und dem Blattflächenindex (LAI, Leaf Area Index) und erlauben somit eine indirekte Bestimmung der Biomasse.

Eine andere, relativ einfache, indirekte Methode zur Biomasse-Abschätzung besteht in der Stratifizierung der Erdoberfläche in weitgehend homogene Vegetationsklassen, denen dann eine durchschnittliche Biomassedichte (in kg/ha) zugewiesen wird. Mögliche Attribute zur Klassifizierung, die aus Fernerkundungsdaten abgeleitet werden können, sind Bedeckungsgrad, Kronenschlussgrad, Vegetationsart (Genus), Hauptspezies, Wuchsform (Baum, Strauch usw.) sowie Höhe.

Eine weitere Möglichkeit, oberirdische Biomasse mit Fernerkundungsdaten zu bestimmen, ist die Verwendung von Radarsystemen. Diese aktiven Systeme senden und empfangen elektromagnetische Strahlung und werden nach verschiedenen Wellenlängen unterschieden, die eine unterschiedliche Eindringtiefe in die Vegetation aufweisen. Kurzwellige Strahlung, wie beim X-Band- und beim C-Band-Radar, wird hauptsächlich an Blättern und dünnen Ästen der oberen Kronenschicht reflektiert, während Signale des langwelligen L-Band- oder sogar P-Band-Radars kleinere Vegegtationsbestandteile durchdringen und von dicken Ästen und Stämmen reflektiert werden. Diese wellenlängenabhängige Empfindlichkeit für unterschiedliche Komponenten der oberirdischen Biomasse kann auch verwendet werden, um gezielt Blatt- oder Stammbiomasse zu bestimmen. Wie auch bei den optischen Daten kommen überwiegend Regressionsansätze zum Einsatz, die den Zusammenhang zwischen der im Feld gemessenen Biomasse und der gemessenen Rückstreuung beschreiben.

Auch die Radarinterferometrie (InSAR) kann zur Biomassebestimmung eingesetzt werden. Bei diesem Verfahren werden Vegetationshöhen bestimmt, die als Proxy für Biomasse verwendet werden. Für sehr dichte und hohe Vegetation mit hohen Biomassewerten kann es dazu kommen, dass eine weitere Zunahme der Biomasse nicht mehr von Satelliten detektiert werden kann. Man spricht dann von einer Sättigung des Signals. Eine Steigerung der Sensitivität von Radardaten für die Bestimmung von Biomasse kann durch die Verwendung einer Kombination von interferometrischen und polarimetrischen SAR-Daten (Pol-InSAR) erreicht werden.

LIDAR-Systeme werden ebenfalls für die Biomassebestimmung eingesetzt, insbesondere für die von Wäldern. Hierbei wird, ähnlich wie bei den Radarsystemen, aktiv Strahlung emittiert und die rückgestreute Energie gemessen. Bisher sind vor allem flugzeuggetragene Sensoren für die Biomasse-Kartierung zum Einsatz gekommen.

BIRD

Engl. Akronym für Bispectral Infra-Red Detection; 2001 von Shriharikota aus mit einer indischen Rakete (PSLV-C3) und gemeinsam mit dem indischen Hauptsatelliten TES sowie dem ESA-Satelliten PROBA in einen 572 Kilometer hohen, sonnensynchronen Orbit gebrachter Kleinsatellit des DLR. Seine Mission ist seit 2006 beendet.

Die Inklination betrug 97,8°. Der mit zwei Sonnensegeln ausgestattete, würfelförmige Satellit sollte auf seiner Mission belegen, dass vom Weltraum aus Waldbrände, insbesondere ihre Ausdehnung und die auftretenden Flammentemperaturen, frühzeitig bestimmt werden können. Er arbeitete noch nicht im operationellen Routine-Einsatz, sondern helfen neuartige Satelliten- und Sensor-Technologien sowie wissenschaftliche Methoden zu erproben, um sie später auf anderen Plattformen einzusetzen.
Eine besondere Qualität der wissenschaftlichen Daten wurde durch die Kombination des zweikanaligen Infrarot-Sensorsystems mit einer Drei-Zeilen-Stereokamera erwartet. Die beiden Kameras versprachen neue Anwendungspotentiale für die Beobachtung von Vegetationsbränden, Vulkan-Aktivitäten sowie zur Unterscheidung von Wasserdampfwolken und Rauchwolken und für Vegetationsanalysen.

BIRD im All BIRD im All

Zu größerer Darstellung auf Grafik klicken

Quelle: DLR
BIRD-Komponenten im Detail BIRD-Komponenten im Detail

Zu größerer Darstellung auf Grafik klicken

Quelle: Bird-Flyer des DLR
Waldbrände in Portugal 2003 Waldbrände in Portugal 2003

Zu größerer Darstellung auf Grafik klicken

Quelle: DLR

Weitere Informationen:

BIROS

Engl. Akronym für Berlin InfraRed Optical System; BIROS ist ein kleiner Erdbeobachtungssatellit des DLR, der als Teil der Mission FireBIRD die Aufgabe hat, Waldbrände - beziehungsweise allgemein sogenannte Hochtemperaturereignisse - aus dem Weltraum aufzuspüren. Er wurde am 22. Juni 2016 mit einer PSLV-Trägerrakete vom Raketenstartplatz Satish Dhawan Space Centre (zusammen mit Cartosat 2C und 18 weiteren Satelliten) in eine sonnensynchrone Umlaufbahn gebracht.

BIROS komplettiert das FireBIRD-Duo, ist aber keine einfache Kopie seines vier Jahre älteren Vorgängers TET-1, sondern eine weiterentwickelte Variante. Der dreiachsenstabilisierte Satellit ist mit einem aus drei Kameramodulen bestehenden Infrarotsystem zur quantitativen Analyse von Hochtemperaturereignissen ausgerüstet und soll Waldbrände und ähnliche Ereignisse entdecken. Das Kamerasystem besteht aus drei unabhängigen Zeilenkameras, davon eine im sichtbaren und infraroten Bereich (VNIR - Visible Near Infrared, 0,5 µm, 0,6 µm, 0,8 µm) mit einer Auflösung von etwa 50 m und einer Schwadbreite von 210 km und zwei Infrarotkameras im mittleren (3,4 - 4,2 µm) und langwelligen Infrarot (8,5 - 9,3 µm) mit einer Auflösung unter 200 m und einer Schwadbreite von etwa 180 km. Der Satellit besitzt eine geplante Lebensdauer von mehr als 2,5 Jahren.

BIROS verfügt im Gegensatz zu TET-1 nicht nur über einen höheren Nutzlastanteil von 46 statt 42 Prozent, sondern auch über ein eigenes Antriebssystem. Ein Kaltgasantriebssystem befähigt ihn, Orbitmanöver durchzuführen und somit seine Lage auf der Umlaufbahn aktiv zu variieren. So kann er die Konstellation zu seinem Brudersatelliten gezielt verändern.

Beide Satelliten umkreisen unseren Heimatplaneten in einer Höhe von etwa 500 Kilometern in einem Orbit, der sie über die Pole führt. Diese polaren oder auch sonnensynchronen Orbits sorgen dafür, dass die Satelliten den Äquator stets zur gleichen Ortszeit überqueren: TET-1 um 11:30 Uhr und BIROS um 9:30 Uhr. Dabei bewegen sich die Satelliten zueinander um einen halben Orbit versetzt, sodass der eine um 9:30 Uhr den nullten Breitengrad von Nord nach Süd passiert, während der andere um 10:30 Uhr von der Süd- auf die Nordhalbkugel wechselt. Für eine komplette Umrundung benötigen sie 90 Minuten und schaffen somit pro Tag 16 Umrundungen entlang der Längengrade. Nach etwa 20 Tagen haben sie die Erdoberfläche mit ihren hochempfindlichen Sensorsystemen vollständig über alle Breitengrade abgetastet. Dabei bewegen sie sich zueinander in freier Konstellation, nicht etwa in fester Formation wie Satelliten anderer Missionen.

Beim BIROS-Satelliten sollen die Position und bestimmte Feuerparameter wie z.B. Temperatur, Energie, Fläche  von bereits aktiven oder gerade entstehenden Brandherden direkt auf Mobilfunkgeräte übertragen werden. Dafür werden die Bilddaten an Bord bereits prozessiert und die Ergebnisse über ein spezielles Modem als „SMS“ versandt. BIROS wird  im Unterschied zu TET-1  mit einem Antriebssystem ausgerüstet sein. Dadurch können die Konstellationen mit dem TET-1 gezielt verändert werden. Mit einem neuen System aus besonders starken Reaktionsrädern kann der Satellit schnelle präzise Schwenkbewegungen ausführen, wie man sie z.B. für wiederholte Aufnahmen eines Ziels unter verschiedenen Blickwinkeln benötigt. Diese Agilität gestattet ihm auch das schnelle Wechseln von einem Aufnahmeziel zu einem anderen. Die an Bord befindlichen drei verschiedenen Laserkommunikationssysteme benötigen ebenfalls eine präzise Ausrichtung der sendenden Laserstahlen auf eine optische Bodenstation. Sollte eine Station durch Wolken blockiert sein, wird die Agilität genutzt, um schnell auf eine alternative Station zu wechseln. Die Laserkommunikation soll es gestatten, die Daten, deren Downlink zur Erde sonst einen ganzen Tag und mehrere Funkkontakte zur konventionellen Bodenstation benötigt, in wenigen Sekunden Kontaktzeit mit einer optischen Bodenstation zu senden.

Neben der eigentlichen Feuerfernerkundung dient der Satellit auch der Technologieerprobung für die Kleinsatellitentechnik. Dazu hat er neben einem neuen Kaltgasantrieb, ein Laser-Kommunikationssystem und High-Torque-Wheels auch zusätzliche Experimente an Bord. So den an der TU Berlin gebauten BEESAT-4 einen Picosatelliten der von BIROS separiert wird und mit ihm im Formationsflug über einen InterSatellite-Link kommuniziert und AVANTI, ein Experiment zur Erforschung von Formationsflügen.

Weitere Informationen:

Bit

Ein Bit gibt in der Fernerkundung an, wie viele Grauwerte ein spektraler Sensor unterscheiden kann. Je höher die Bit-Zahl desto höher die Anzahl der Grauwerte, die ein Sensor unterscheiden kann, und desto höher die radiometrische Auflösung eines Spektralsensors. Bei 1 Bit kann ein Sensor nur schwarz und weiß wiedergeben. Bei 2 Bit sind es schon vier Grauwerte und bei 4 Bit 16. Die Rechnung ist also ganz einfach: 2 hoch Bit = Grauwertzahl

Blattflächenindex (BFI/LAI)

Engl. leaf area index (LAI); Messzahl für die Belaubungsdichte der Pflanzendecke. Der BFI gibt an, wie groß die einseitig (von oben) gemessene Oberfläche sämtlicher grünen Blätter bzw. Nadeln der Pflanzen über einer bestimmten Bodenfläche ist:

BFI/LAI= Gesamtsumme der Blattflächen : Bodenoberfläche

Der BFI wird aus den spektralen Reflexionswerten der einzelnen Kanäle eines Sensors bestimmt und steht im Zusammenhang mit der Biomasse, der photosynthetischen Aktivität und Produktivität. Existieren keine Blätter oder Nadeln beträgt der LAI = 0 (z.B. auch Straßen und Seen), entspricht die Blattfläche der horizontalen Bodenfläche ist er = 1, ist die Blattfläche doppelt so groß wie die Bodenfläche ist er = 2 usw. Bei Laub- und Nadelbäumen ist normalerweise die gegen den Himmel zu sehende Fläche (Projektionsfläche) der Blätter bzw. Nadeln gemeint. Interessiert die gesamte Oberfläche der Blätter bzw. Nadeln, spricht man vom zweiseitigen LAI, der doppelt so groß ist wie der einseitige.

Bei vitaler Vegetation erreicht der LAI Werte zwischen 0,45 (bei nivalen Polsterplanzen) und 14 bei Hochstaudenfluren, in den immergrünen Wäldern der Westküste der USA beträgt der LAI 16, und in Ausnahmefällen wird der Wert 20 bei seitlicher Strahlung erreicht.

lai_sa_lres

Zu größerer Darstellung auf Abbildung klicken

Vertiefende Informationen: The Amazon's Seasonal Secret

Blattflächenindex - Südamerika

Der Regenwald von Amazonien ist ein Gewirr von mehreren Vegetationsschichten, die sich vom Boden bis in die oberen Bereiche des Blätterdaches erstrecken. Schicht für Schicht fangen die Blätter Sonnenlicht ein, inhalieren Kohlendioxid und atmen Sauerstoff und Wasserdampf aus.
2007 entdeckte eine Gruppe von Wissenschaftlern starke, bislang unbekannte Schwankungen der Gesamtgröße der Blattoberfläche Amazoniens, die sich zwischen Regen- und Trockenzeit ergeben. Das Geheimnis wurde durch Messungen der Blattoberfläche aufgedeckt, die vom Spektralradiometer MODIS an Bord des NASA-Satelliten Terra durchgeführt wurden.

Die nebenstehende Karte beruht auf dem mehrjährigen Durchschnitt des Blattflächenindex auf der Grundlage von MODIS-Daten. Verständlicherweise ist der Blattflächenindex im gesamten Amazonasgebiet (dunkelgrün) hoch und nimmt gegen die südlich anschließenden Graslandschaften mit ihrer spärlicheren Vergetation (hellgrün) hin ab. Die Anden im Westen und die peruanisch-chilenischen Küsten sind vegetationsarm (beige). Überraschender noch als die saisonalen Änderungen der Blattflächen selbst, sind die Abschnitte des Jahres, in denen sie auftreten. Große Teile der Amazonasregion erfahren eine ausgeprägte Trockenzeit, manche Gebiete im S und E bekommen sogar über ein halbes Jahr oder länger nur wenig oder gar keinen Regen. Aber Regen scheint in weiten Teilen des Amazonasgebietes nicht der wichtigste Begrenzungsfaktor für Pflanzenwachstum zu sein, zumindest nicht in normalen Jahren. Offensichtlich führt nämlich das Ende der Regenzeit zu neuem Wachstum. MODIS hat beobachtet, dass die Blattfläche während der amazonischen Trockenzeit höher ist als in der Regenzeit.Quelle: NASA Earth Observatory

 

Der LAI ist ein wichtiger Parameter, der bei der Fernerkundung verwendet wird, um viele biologische und physikalische Prozesse, wie z.B. Primärproduktion, Pflanzenatmung, Trans-piration, Photosynthese und Nährstoffkreisläufe zu quantifizieren. Messungen, die an einzelnen Blättern vorgenommen wurden, können damit für ganze Bestände hochgerechnet oder modelliert werden. Voraussetzung ist, daß die durchschnittliche Anzahl der Blätter an einer Pflanze und die Zahl der Pflanzen je Hektar bekannt oder verläßlich geschätzt worden ist.

Der LAI kann auch zur Erkennung von Landschaftsmerkmalen eingesetzt werden, wie z.B. Waldbrandschäden, Entwaldung oder Erosionsprozesse auf landwirtschaftlichen Flächen.

Abgesehen davon, daß es verschiedene Methoden der terrestrischen LAI-Bestimmung gibt, werden je nach Zielsetzung der Untersuchungen auch verschiedene modifizierte Indizes gemessen. Wesentlich ist auch, ob die Bruttoproduktionen, d.h. die gesamten Assimilationsleistungen einschließlich des Eigenverbrauchs oder nur die Nettoproduktion bestimmt werden.
Die Fernerkundung bietet vor allem für die großflächige Bestimmung des Blattflächenindexes eine ideale Technologie.

Blitzortung

Bis auf 300 m genaue Erfassung von atmosphärischen Blitzen z.B. mit Hilfe von Kurzwellenempfängern, die das elektromagnetische Signal eines Blitzes einfangen. Gewöhnlich sind Blitzortungs-Stationen in ein Netz eingebunden und an einen Zentralrechner gekoppelt, der die "Fingerabdrucke" des Blitzes ermittelt, das sind seine Polarität und Stromstärke, sowie die genaue Uhrzeit, der Ort des Einschlags und zusätzlich die Zahl der nachfolgenden Blitze. Zur Ortsbestimmung können Peilverfahren oder Laufzeitmessungen und auch die GPS-Technologie eingesetzt werden. Die Daten sind i.d.R. im Internet abrufbar, bzw. im Vorwarnverfahren auch kleinräumig abonnierbar.

Weitere Blitzortungsmethoden nutzen akustische und optische Verfahren. Weltraumbasierte Blitzbeobachtungen werden vom Lightning Imaging Sensor (LIS) im TRMM-Satelliten geliefert, in der Vergangenheit auch vom Optical Transient Detector (OTD, 1995-2000).

Weitere Informationen:

BNSC

Engl. Akronym für British National Space Centre; eine frühere, auf freiwilliger Basis gebildete Partnerschaft von 11 Ministerien und Forschungsbeiräten zur Koordinierung der Aktivitäten Großbritanniens in Bereich der zivilen Raumfahrt. Die Organisation wurde am 1. April 2010 von der UK Space Agency (UKSA) abgelöst.

Boden(pixel)auflösung

Engl. ground sample distance (GSD), franz. résolution au sol; nach DIN 18716 der "Abstand der Mittelpunkte der von einem Sensorelement erfassten Oberflächenelemente bezogen auf eine mittlere Geländehöhe und eine mittlere Flughöhe bzw. Bahnhöhe". Folgende zwei Anmerkungen sind beigefügt:

  1. "Bei der Angabe der GSD von Fernerkundungssystemen wird im Allgemeinen von einer lotrechten Aufnahmerichtung ausgegangen."
  2. "Die Bodenauflösung hat in der Praxis die Angabe des mittleren Bildmaßstabes abgelöst. Je nach Reliefenergie und Aufnahmewinkel kann die lokale Bodenauflösung von einer vorgegebenen Bodenauflösung um ± 30 % abweichen, ohne dass z. B. dadurch die praktische erfahrbare Qualität von Orthophotos berührt wird."
Bodenbewegungsmonitoring

Überwachung von Bodenbewegungen durch terrestrische, luft- oder satellitengestützte Verfahren, z.T. im Millimeterbereich.
Aktiver Bergbau (Tief- und Tagebau), Tiefbauarbeiten, Kohlenwasserstoffproduktion, untertägige Erdgas- und CO2-Speicherung u.w. führen oft zu Bewegungen der Erdoberfläche. Diese Bodenbewegungen sind meist von geringer Amplitude und erfolgen häufig sehr langsam, können aber plötzliche und weitreichende Folgen haben, die Menschenleben und Infrastruktur zu gefährden vermögen. Bodenverschiebungen sind auch wichtige geophysikalische Signale, die für ein besseres Verständnis der unterirdischen geomechanischen Eigenschaften und Abläufe genutzt werden können.
Bei der satellitengestützten Überwachung kann je nach nach den örtlichen Voraussetzungen, den Nutzeranforderungen sowie dem verfügbaren Budget die gesamte Bandbreite der verfügbaren Satellitensensoren genutzt werden. Um eine zuverlässige und regelmäßige Datenerfassung des Einsatzgebiets sowie eine detaillierte Identifikation der Bodenbewegungen zu gewährleisten, werden hochauflösende TerraSAR-X Radarsatellitendaten verwendet. Dieser Satellit ist besonders für die Überwachung sich schnell ändernder Bodenbewegungen mit komplexen und/oder kleinen Bewegungsmustern geeignet, da der Satellit den Zielbereich unabhängig von den Wetterbedingungen alle 11 Tage abdecken kann.

Mögliche Ursachen von Bodenbewegungen:
Offene Minen und Untertagebau
Höhlensysteme
Öl- und Gasförderung
Ausgrabungen
Speicherung von Erdgas oder CO2
Unterirdische Bauarbeiten
Bau von Infrastrukturen
Bohrungen für Erdwärmesonden, z.B. mit Anhydritaufquellen
Tektonische Aktivitäten Veränderungen des Grundwasserspiegels

Weitere Informationen:

Bodensegment

Engl. ground segment, Sammelbegriff für die gesamte Infrastruktur auf der Erde zur Kontrolle und Steuerung der Satelliten (Missionskontrollzentrum, MCC) sowie zum Empfang und zur Verarbeitung von Satellitendaten (Bodenstationen, Archive, Nutzerschnittstellen). Ein sogenanntes "end-to-end" Satellitensystem besteht aus einem Raum-, einem Transfer- und einem Bodensegment.

Weitere Informationen:

Bodenspur

Die vertikale Projektion des Flugweges eines Luft- oder Raumfahrzeugs auf die Erdoberfläche oder einen anderen Körper. Anschaulich gesprochen kennzeichnet die Bodenspur jene Punktreihe auf der Erdoberfläche, an der z.B. ein Satellit im Zenit erscheint.

Bodenstation

Eine auf der Erdoberfläche befindliche Station zur Beobachtung, Überwachung oder Telemetrie von Flugkörpern inner- oder außerhalb der Erdatmosphäre. Solche Flugkörper sind vor allem Raketen, künstliche Satelliten und Raumsonden sowie Flugzeuge, Ballons und Radiosonden.
Beispielsweise können Satelliten den aufgezeichneten Datenstrom nur in sehr begrenztem Umfang an Bord speichern. Sie sind vielmehr auf Bodenstationen angewiesen, an die sie die Daten direkt übertragen können. Das im Falle des DLR für den Datenempfang erforderliche Bodensegment umfasst neben den Antennenanlagen in Neustrelitz und Oberpfaffenhofen ein internationales Netzwerk von Empfangsstationen, das teils in Kooperation mit öffentlichen und kommerziellen Partnern betrieben wird. Die Stationen sind für den Multimissionsbetrieb ausgerüstet.
Zu den Zielen der Beobachtung gehören die Bestimmung der Flug- oder Satellitenbahn, der Empfang bzw. die Übermittlung von Funksignalen oder Messdaten, die Funkverbindung für Rundfunk oder Telefon und die militärische und zivile Luftraumüberwachung.
Zu den verschiedenen Arten von Bodenstationen zählen u.a. Erdfunkstellen, Relaisstationen, Radioteleskope, Satellitenstationen, Radarstationen, Funkleitsysteme.

DLR Station in Kanada

DLR-Empfangsstation in Inuvik, Kanada

Am 10. August 2010 hat das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in Inuvik seine erste Satellitendaten-Empfangsstation in Kanada eingeweiht.

Das DLR will die neue Bodenstation insbesondere zum Datenempfang für die deutsche Satellitenmission TanDEM-X nutzen. Über die im Durchmesser 13 Meter große Antenne können neben den Partnerländern Deutschland und Kanada auch Wissenschaftler aus der ganzen Welt und weitere externe Nutzer auf wichtige Satellitendaten zugreifen und diese weiterverarbeiten und auswerten.

Quelle: DLR
 
Box-Klassifizierung

Syn. Quadermethode, engl. box classifier, parallelepiped classification; Verfahren zur überwachten Klassifizierung, bei dem auf der Grundlage von Trainingsgebieten zunächst für jede Objektklasse und jedes Spektralband statistische Parameter (Mittelwert, Standardabweichung usw.) berechnet werden. Um die Mittelwerte der Klassen werden dann im zweidimensionalen Merkmalsraum Rechtecke bzw. im drei- oder mehrdimensionalen Raum Quader und Hyperboxes gelegt, deren Seitenlänge ein mehrfaches der Standardabweichung beträgt. Die Zuweisung der Bildelemente erfolgt zu der Klasse, innerhalb deren Rechteck, Quader oder Hyperboxes liegt. Problematisch sind hierbei besonders die Bildelemente in Überlappungsbereichen mehrerer dieser Räume, für die keine eindeutige Zuordnung möglich ist. In diesen Fällen werden oft andere Klassifikatoren (z.B. Maximum-Likelihood-Klassifizierung, Minimum-Distance-Klassifikation) eingesetzt.

Bundesamt für Kartographie und Geodäsie (BKG)

Das BKG ist der zentrale Dienstleister des Bundes für topographische Grundlagendaten, Kartographie und geodätische Referenzsysteme, soweit sie nicht – entsprechend dem Föderalismus – Aufgaben der Bundesländer sind. Das BKG ist neben der Zentralen Dienststelle in Frankfurt am Main auch mit einer Außenstelle in Leipzig und dem Observatorium Wettzell im Bayerischen Wald ansässig. Es gehört zum Geschäftsbereich des Bundesministeriums des Innern.

Gesetzliche Grundlage der Arbeit des BKG ist das Bundesgeoreferenzdatengesetz (BGeoRG), wonach das BKG geodätische Referenzsysteme unterhält und Referenzdaten des Bundes zur Nutzung durch Bundesbehörden erhebt und bereitstellt und seine daraus erwachsenden internationalen Verpflichtungen erfüllt. Mit seinem Dienstleistungszentrum bietet das BKG eine Anlaufstelle für alle Nutzer, mittels des DOP-Viewers kann Deutschland von oben betrachtet werden.

Eine Vielzahl von Aktivitäten im öffentlichen und privaten Bereich (z.B. Straßenbau, Hochwasserschutz oder Veranstaltungsplanung) beruhen auf Geoinformationen – also auf Daten, die z.B. unsere Umwelt, unser Klima, Verkehrsinformationen oder unsere Wirtschaftsstruktur beschreiben. Die Fachabteilung Geoinformation des BKG entwickelt Verfahren, Produkte und Dienste, mit denen sich Geodaten hoch effizient nutzen und kombinieren lassen.

Zur Beschaffung von Grundlagendaten trägt am BKG auch die Fernerkundung bei. Fernerkundungsdaten können in vielfältigen Aufgabenbereichen der öffentlichen Verwaltung genutzt werden, wenn die kurzfristige Beschaffung von Geoinformationen für große Gebiete benötigt wird:

  • zur regelmäßigen Veränderungsbeobachtung (Monitoring) und Gewinnung von Umweltinformationen,
  • zum Ressourcenmanagement in Land- und Forstwirtschaft,
  • zur Kartierung und Planung von Siedlungen und Infrastrukturen oder
  • im zivilen Schadensfall.

Die daraus gewonnenen Informationen liefern den Behörden aller föderalen Verwaltungsebenen wichtige Entscheidungsgrundlagen. Verschiedene Teilaspekte (z.B. Herstellung von Karten zur Krisenbewältigung bzw. für spezielle Einsatzlagen) werden heute durch das Zentrum für satellitengestützte Kriseninformation (ZKI) erfüllt.

Satellitengestützte Fernerkundungsdaten werden auch beim BKG als Grundlage für die Entwicklung und Fortführung bestehender Produkte genutzt. So aktualisiert das BKG mit Hilfe dieser Fernerkundungsdaten alle drei Jahre das Digitale Landbedeckungsmodell für Deutschland (LBM-DE).

Zurzeit verstärkt das BKG seine Aktivitäten im Bereich der Fernerkundung und beteiligt sich am Copernicus-Erdbeobachtungsprogramm. Das BKG untersucht dabei die Möglichkeiten der aktiven und passiven Sensoren in unterschiedlichen Projekten.
Weiterhin stellt das BKG den durch die Bundesregierung benannten Fachkoordinator für den Bereich Landüberwachung und übernimmt als Ansprechpartner für das Copernicus-Programm die Aufgabe der Öffentlichkeitsarbeit und Informationsverbreitung.

Weitere Informationen: