Lexikon der Fernerkundung

Alle lexikalischen Einträge zu diesem Buchstaben

backscatter

Begriff für die Rückstreuung von elektromagnetischer Energie an kleinen Partikeln in Richtung der Quelle, hauptsächlich im Zusammenhang mit Radarsystemen verwendet.

Wenn z.B. ein flugzeuggetragenes Radarsystem einen Energiepuls zum Boden sendet (A), streut es vom Boden in alle Richtungen (C). Ein Teil der gestreuten Energie wird zum Radarempfänger zurückgeworfen (B), diesen Teil bezeichnet man als Backscatter oder Rückstreusignal. (vgl. Grafik)

Backscatter (Radarsystem) Radar Backscatter Quelle: Natural Resources Canada

Bahn

Engl. orbit; die Menge aller Punkte im Raum, die ein Teilchen, bzw. der Schwerpunkt eines Körpers zeitlich sequentiell (der Reihe nach) durchläuft. Ist kein (Wechselwirkungs-)Potential vorhanden, wirkt also auf das Teilchen keine Kraft, so ist die Bahn geradlinig. Die Bahn ist umso stärker gekrümmt, je stärker die Krafteinwirkung (das Potential) ist.

Als Systemelement eines Raumfahrtsystems besitzt die Bahn eine wesentliche Bedeutung bei dessen Konzipierung. Die Bahn des Raumfahrzeugs wird durch das Missionsziel bestimmt. Erdumlaufbahnen stellen mit über 95 % den größten Anteil an allen Raumfahrtmissionen dar.

Bewegen sich Raumfahrzeuge auf einer Erdumlaufbahn, bezeichnet man sie als Satelliten. Fliegen sie auf Bahnen jenseits eines Erdorbits, handelt es sich um Raumsonden. Bei bemannten Raumfahrzeugen spricht man je nach Funktion von Raumfähren, Raumschiffen und Raumstationen. Ballistische Flugkörper, die Höhen von weit über 1.000 km erreichen können, werden als suborbitale Flugkörper bezeichnet.

Siehe auch Umlaufbahn

Übersicht über die Bahnen von Raumfahrzeugen mit Beispielen
Bahn Anwendung Merkmal Missionsbeispiele
LEO (Low Earth Orbit) Erdbeobachtung
Wetter-/Klimamonitoring
Technologie
Astronomie
ca. 300 bis 1.500 km Höhe CHAMP
SAR-Lupe
BIRD
ROSAT
MEO (Medium Earth Orbit) Kommunikation
Navigation
mehrere 1.000 km Höhe Globalstar
GPS
Galileo
HEO (Highly Elliptical Orbit) Kommunikation
Astronomie
wenige 100 bis einige 100.000 km Höhe Molnija
GTO (Geoststationary Transfer Orbit) Einschussorbit der Träger von Kommunikationssatelliten wenige 100 km bis 36.786 km Höhe EUTELSAT
ASTRA
GEO (Geostationary Orbit) Kommunikation 35.786 km Höhe EUTELSAT
ASTRA
Lagrange-Punkte Astronomie
Grundlagenforschung
>1 Mio km Entfernung SOHO
JWST
Interplanetare Bahn Planetenerkundung z. T. mehrere Mrd. km Entfernung Mars Express
Rosetta
nach Ley et al. (2008): Handbuch der Raumfahrttechnik

Bahnelemente

Engl. orbital elements, auch Satellitenbahnelemente; sie legen die Parameter für die Umlaufbahnen von Objekten fest, die einen Himmelskörper gemäß den keplerschen Gesetzen umkreisen. Sie umfassen die 6 Bahnelemente eines ungestörten Systems und zusätzlich Korrekturparameter, die die Störungen beispielsweise durch Reibung mit der Atmosphäre, inhomogenes Gravitationsfeld, Sonnenstürme oder Strahlungsdruck berücksichtigen.

Die Bahnelemente für die meisten Satelliten werden vom amerikanischen Air Force Space Command zur Verfügung gestellt und von Organisationen wie der NASA oder AMSAT als NASA/NORAD Two Line Elements Format (TLE) verteilt. Die Daten einer Vorhersage-Berechnung werden mit der tatsächlichen Beobachtung durch Tracking-Stationen auf der Erde abgeglichen und als aktualisierte Bahnelemente veröffentlicht.

Mit der Angabe der sechs Bahnelemente kann man in einem gegebenen Gravitationspotential zu jeder Zeit den Ort eines Körpers berechnen. Die normalerweise verwendeten Bahnelemente sind:

Die Halbachse und die Exzentrizität bestimmen die Größe und Form der Bahn, die drei Winkel (Inklination, Länge des aussteigenden Knotens, Perihellänge) die Lage der Bahn im Raum und die Perihelzeit (bzw. die mittlere Anomalie zu einer Zeit) den Ort des Objekts auf der Bahn.

Bei Drei- und Mehrkörperproblemen gibt es keine analytische Lösung für die Bahn eines Teilchens und somit sind die Bahnelemente nur eine Näherung. Die sogenannten mittleren Bahnelemente beschreiben die (hypothetische) ungestörte Bahn des Körpers.

Die folgende Grafik veranschaulicht die (Satelliten-)Bahnelemente. Diese basieren außer auf den 6 Bahnelementen einer Keplerbahn üblicherweise auf weiteren Parametern, um Bahnstörungen zu berücksichtigen, beispielsweise durch Reibung mit der Atmosphäre, inhomogenes Gravitationsfeld, Sonnenstürme oder Strahlungsdruck.

(Satelliten-) Bahnelemente satellite_orbital_elements.png Quelle: Wikipedia

Weitere Informationen:

Bahngeschwindigkeit

Geschwindigkeit, mit der sich ein Objekt (z.B. Satellit) um ein anderes (Planet) bewegen muss, damit Fliehkraft und Gravitationskraft im Gleichgewicht bleiben und der Satellit weder auf den Planeten stürzt, noch dem Gravitationsfeld seines Planeten entkommt.

Bahnhöhe

Bei künstlichen Erdsatelliten die Höhe eines Bahnpunktes kreisförmiger oder elliptischer Satellitenumlaufbahnen über der Erde ("Höhe über Grund"). Bei Satelliten auf Kreisbahnen, deren Mittelpunkt mit dem Erdmittelpunkt übereinstimmt, haben alle Bahnpunkte praktisch die gleiche Höhe über Grund. Dies trifft insbesondere auf Satelliten im geostationären Orbit zu, die sich auf einer äquatorialen Kreisbahn mit der Bahnhöhe 35.780 km bewegen. Da ihre Bewegung synchron zur Erddrehung (geosynchron) erfolgt (Bahnperiode: 24 h), führen sie keine Relativbewegung zur Erde aus. Für den Betrachter auf der Erdoberfläche stehen diese GEO-Satelliten immer an der gleichen Stelle in gleicher Höhe.

Diese Bedingungen gelten nicht für die auf mittelhohen und niedrigen Satellitenbahnen erdumlaufenden Satelliten. Ihre Bahnebenen sind meistens mehr oder weniger aus der Äquatorialebene gekippt ("inkliniert") und zeichnen sich durch einen exzentrischen Verlauf aus (elliptische Bahnen) aus. Damit variiert die Höhe der Satellitenumlaufbahnen über Grund teilweise ganz beträchtlich. Ihre erdfernsten und erdnächsten Punkte, die so genannten Apsiden, bezeichnet man mit Apogäum und Perigäum.

Bahnneigung

Syn. (Bahn)inklination; der Neigungswinkel der Satellitenbahn gegenüber der Äquatorebene wird als Inklination i bezeichnet.

Eine Umlaufbahn mit einer Neigung von 0 Grad verliefe demnach direkt über dem Äquator, typisch für geosynchrone Umlaufbahnen. Zunehmend größere Neigungswinkel würden Satelliten über immer höhere Breiten führen. Eine Bahnneigung von 90° würde direkt über Nord- und Südpol führen. Die bevorzugte Bahnneigung für Space Shuttle-Flüge lag bei 28,5° (geographische Breite von Cape Canaveral), konnte aber auch 39° oder 57° betragen.

Bahnparameter

Engl. orbital parameters, orbital elements, franz. paramètres d'orbite; Parameter, die den Verlauf der Bahn, in der sich ein Satellit bewegt, beschreiben.

Siehe auch Bahnelemente

Bahnspur

Orthogonale Projektion der Satellitenbahn auf ein mittleres Erdellipsoid.

Baikonur

Russischer Weltraumbahnhof (Kosmodrom) beim gleichnamigen Ort in Kasachstan nordöstlich des Aralsees in der Nähe von Leninsk am Fluss Syrdarja, der zu Sowjetzeiten vor allem für die bemannten Missionen errichtet wurde. Mit dem Zerfall der UdSSR ging der Besitz an Kasachstan, Russland zahlt seit 1994 umgerechnet etwa 200 Mio. Euro jährlich an Pacht, um die Stätte weiter nutzen zu können. Mit dem Kosmodrom Wostotschny soll deshalb ein neuer Weltraumbahnhof in der Region Amur entstehen.

Baikonur gilt als größter Raketenstartplatz der Welt. Nach offiziellen Angaben erstreckt es sich 2004 über eine Fläche von 6.717 Quadratkilometern, 85 Kilometer von Norden nach Süden und 125 Kilometer von Westen nach Osten. Hinzu kommen noch 22 Landegebiete für abgebrannte Raketenstufen und die Raumkapseln mit einer Gesamtfläche von 4,8 Millionen Hektar.

Zur Bodeninfrastruktur gehören neun Startkomplexe mit 15 Startvorrichtungen, 4 Abschusseinrichtungen zur Erforschung Interkontinentaler Langstreckenraketen, 11 Montage- und Versuchskomplexe, zwei Tankstellen, zwei Flugplätze, ein Messkomplex, ein 600-Megawatt-Wärmekraftwerk, 470 Kilometer Eisenbahngleise, 1.281 Kilometer Straßen und 6.610 Kilometer Elektroleitungen.

70 % aller russischen Starts von kosmischen Flugkörpern finden in Baikonur statt. Weitere Startplätze (auch für Satellitenraketen, aber nicht für bemannte Missionen) sind Snamensk (vormals Kapustin Jar), Plessezk und bis 2006 Swobodny in Russland.

Ballon

Luftgetragene Instrumentenplattform zur Sammlung von hauptsächlich meteorologischen Daten. Ballone können festverankert oder freifliegend (Radiosonde) sein.

Vor- und Nachteile von ballongestützter Fernerkundung:

Vorteile Nachteile
maximale Höhe: 45 km
begrenzter Einsatz in Gebieten mit hohem Luftverkehr
Nutzlast darf bis 40 km Höhe mehr als 2.000 kg betragen
sehr schwierige Flugplanung
Fortbewegung mit dem Wind, kein Antrieb
nicht manövrierfähig
lange Messzeit möglich
hohe Wahrscheinlichkeit, die Messgeräte zu verlieren

Ballonexperimente für Universitätsstudenten

Das REXUS/BEXUS-Programm wurde 2007 dank der Zusammenarbeit von DLR und SNSB (jetzt SNSA) ins Leben gerufen. Heute ermöglicht das Programm Studenten von Universitäten und Fachhochschulen in ganz Europa, ihre eigenen Experimente in verschiedenen Forschungsbereichen wie Atmosphärenforschung, Strömungsphysik, Magnetfeld, Materialwissenschaften, Strahlungsphysik, Astrophysik, Biologie und auch Technologie-Demonstratoren zu entwickeln.

Jedes Jahr werden zwei BEXUS-Ballons vom SSC, dem Esrange Space Center in Nordschweden, gestartet.

Die Nutzlasten sind in einer mittelgroßen Gondel (1,16 m x 1,16 m x 0,84 m) untergebracht. Die Gesamtmasse des Ballons beträgt ca. 300 kg, wobei die Nutzlast zwischen 30 und 112 kg wiegt (d. h. im Allgemeinen 4 studentische Experimente pro Gondel). Der Ballon, ein 12SF von Zodiac Aerospace, ist mit Heliumgas gefüllt.

Beispiel:BEXUS 26

BEXUS 26 startete am 17. Oktober 2018 um 7:40. Der Flug erreichte eine maximale Höhe von 27.499 Metern. Mit an Bord war das Experiment BEXUS-IMUFUSION (Inertial Measurement Unit, IMU) der Hochschule Nordhausen. Studenten des Instituts für Informatik, Automatisierung und Elektronik (IAE) wollten mit dem Experiment die Entwicklung eines Systems zur Aufnahme inertialer Messdaten in einer weltraumnahen Umgebung testen, das sich durch ein Redundanzkonzept, hohe Zuverlässigkeit und Messgenauigkeit sowie Berechnung der Trajektorie auszeichnet.

Studentenforschungsballon BEXUS 26 beim Start BX13_Start Quelle: DLR

Weitere Informationen:

Band

Engl: band, franz. bande; nach DIN 18716 der "Spektralbereich, in dem ein Sensor arbeitet", verbunden mit der Anmerkung: "Band ist gleichbedeutend mit Kanal, aber in der Mikrowellen- und Hyperspektral-Fernerkundung bevorzugt".

Weitere Differenzierungen:

  1. Beim Funk eine kontinuierliche Folge von Sendefrequenzen innerhalb vorgegebener Grenzen.
  2. In der Radiometrie einer relativ enger Bereich des elektromagnetischen Spektrums, auf das der Sensor eines Fernerkundungssystems anspricht. Ein Multispektralsensor führt Messungen in mehreren Spektralbändern durch.
  3. In der Spektroskopie Spektralbereiche, in denen atmosphärische Gase Strahlung absorbieren und emittieren, z.B. das 15 µm Kohlendioxid-Absorptionsband, das 6,3 µm Wasserdampf-Absorptionsband und das 9,6 µm Ozon-Absorptionsband.

band ratios

Dt. 'Kanalverhältnisse'; eine Bildverarbeitungstechnik, die verwendet wird, um den Kontrast zwischen Objekten in Bildern der Fernerkundung, die zwei oder mehr Frequenzbänder verwenden, zu erhöhen. Das Verhältnis ("ratio") wird erhalten, indem die digitalen Zahlen, die für das eine Band gespeichert sind, von denen des anderen Bandes getrennt werden, für genau dieselbe Zelle in den Bildern. Diese Technik ist besonders nützlich für das Eliminieren von Unterschieden in einer Szene, die alleine aus der Beleuchtungsverteilung entstehen.

Weitere Informationen:

Bandbreite

Engl. bandwith, franz. largeur de bande spectrale; Maß für den zusammenhängenden Frequenzbereich elektromagnetischer Schwingungen, der in einem Signal vorhanden ist oder für den Frequenzumfang eines (FE-)Systems bzw. eines Kanals. Einfach formuliert, die Differenz zwischen der niedrigsten und höchsten Frequenz, der über ein Medium übertragen werden kann.
Bandbreite ist ein fundamentaler Parameter jeder bildhaften Darstellung.

Bartolomeo

Bezeichnung für die im Jahr 2020 am europäischen Columbus-Modul der Internationalen Raumstation (ISS) angebrachten Nutzlast-Hosting-Plattform. Namengebend der 40 Millionen Euro teuren Plattform Bartolomeo ist der jüngere Bruder von Christoph Columbus.

Ausgehend von Nutzlastgrößen ab 3U (300 × 100 × 100mm³) hostet die Herstellerfirma Airbus Nutzlasten auf Bartolomeo als All-in-One-Missionsservice: Dies beinhaltet technische Unterstützung bei der Vorbereitung der Nutzlast, Start und Installation, Betrieb und Datentransfer sowie eine optionale Rückkehr zur Erde.

Bartolomeo bietet als erste private Außenplattform Europas auf der ISS Firmen und Forschungseinrichtungen die einmalige Chance, ihr Projekt einfach und schnell im Weltraum zu entwickeln. Mit ihren Abmessungen von zwei Mal zweieinhalb Metern wird die neue, 484 Kilogramm schwere Plattform den verfügbaren Platz auf einer Art Forschungsbalkon an der ISS um zwölf Experiment- und drei Antennenplätze erweitern. Die Nutzlasten können rund einen halben Kubikmeter groß sein und haben aus etwa 400 Kilometern Höhe freie Sicht zur Erde oder in den Weltraum. Bartolomeo ist daher besonders für Experimente geeignet, die die freie Weltraumumgebung nutzen.

Standardmäßig bietet Bartolomeo die Möglichkeit, Nutzlasten in einem Massenbereich von 50 bis 450 kg aufzunehmen. Kleinere Nutzlasten bis zu einer Größe von 3U können im ArgUS-Multi-Payload-Frame untergebracht werden, der auf einem Standard-Slot installiert wird. Alle Nutzlasten können vom Benutzer vom Boden aus bedient werden.

Anwendungsbereiche sind unter anderem Erdbeobachtung, Robotik, Materialwissenschaft oder Astrophysik. Nutzlasten können sowohl für institutionelle als auch für private Organisationen untergebracht werden. An Bord der ISS im erdnahen Orbit betrieben, bietet die Bartolomeo-Plattform den einzigen ungehinderten Blick der ISS sowohl auf die Erde als auch in den Weltraum.

Von der neuen Plattform werden daher Strahlenbiologen, Astro- und Sonnenphysiker, Erdbeobachter, Atmosphären- oder Klimaforscher profitieren. Die Plattform bietet Kunden und Forschenden Nutzlast-Hosting-Möglichkeiten, um Raumfahrttechnologien zu testen und zu validieren, ein neues Geschäftskonzept für die Raumfahrt zu verifizieren, wissenschaftliche Experimente in der Mikrogravitation durchzuführen oder in die Fertigung im Weltraum einzusteigen.Hier existieren einzigartige Möglichkeiten, die in keinem Labor der Erde erreicht werden, weil optische Sensoren, Materialien, Robotikkomponenten und Antennen in direkter Weltraumumgebung getestet werden können.

Bartolomeo-Plattform zur Erdbeobachtung Bartolomeo-Plattform Quelle: ResearchGate / Airbus D & S

Neben dem Vorteil, Experimente und Technologien direkt im Weltraum zu testen, sind zudem alle Experimente und Entwicklungen auf Bartolomeo deutlich kostengünstiger als beispielsweise auf Satelliten. Sie benötigen keinen eigenen Raketenstart, sondern werden auf routinemäßigen Versorgungsflügen zur ISS gebracht. Die einfache und kostengünstige Nutzung macht Bartolomeo besonders für kleine und mittlere Unternehmen (KMU) attraktiv und kann ihnen neue Geschäftsfelder eröffnen – zum Beispiel im Bereich Telekommunikation. Für eine Nachrüstung von Bartolomeo mit Experimenten müssen auch keine Astronauten mehr ausrücken. Durch standardisierte Maße und Anschlüsse der Experimente ist der Einbau viel einfacher und kann rein robotisch über Fernsteuerung von der Erde aus erfolgen.

Bartolomeo wird in einer Partnerschaft zwischen Airbus, ESA, NASA und dem ISS National Laboratory betrieben. Bartolomeo ermöglicht die Aufnahme von bis zu zwölf externen Nutzlasten in der Weltraumumgebung.

Weitere Informationen:

Bathymetrie

Die Vermessung der topographischen Gestalt von Meeres- und Seeböden. Als Teilgebiet von Hydrographie und Geodäsie dient die Bathymetrie somit der Gewinnung von Karten, aus denen das Tiefenprofil der Ozeane ersichtlich wird. Siehe hierzu auch GEBCO (General Bathymetric Chart of the Oceans).

Bathymetrische Messungen werden mit verschiedenen Methoden durchgeführt, von Tiefenlotung, Sonar- und LIDAR-Techniken bis hin zu Bojen und Satellitenaltimetrie. Die verschiedenen Methoden haben Vor- und Nachteile, und die jeweils eingesetzte Methode hängt von der Größe des zu untersuchenden Gebiets, den finanziellen Mitteln, der gewünschten Messgenauigkeit und weiteren Variablen ab. Trotz moderner computergestützter Forschung ist der Meeresboden an vielen Stellen weniger gut vermessen als die Topographie des Mars.

Wichtigstes und traditionelles Werkzeug der Bathymetrie ist das Echolot. Dabei werden akustische Signale ausgesandt und an der Meeresoberfläche reflektiert. Fächersonare oder Fächerecholote, wie das SEABEAM-System oder das System HYDROSWEEP, sind in den Schiffsrumpf eingebaute Sonare, die - anders als herkömmliche Echolotsysteme - zusätzlich zum zentralen Schallstrahl nach unten weitere Schallstrahlen seitlich zur Fahrtrichtung aussenden. Für jeden der Schallstrahlen wird die Laufzeit des Signals ermittelt, daraus die Wassertiefe errechnet und damit eine flächenhafte Information zur Wassertiefe unterhalb des Boots zusammengesetzt. Fächerecholote werden vorzugsweise zur Kartographie des Meeresbodens eingesetzt.

Die folgende Abbildung veranschaulicht die Fächerecholotvermessung des Meeresbodens an Bord des Forschungseisbrechers Polarstern. Haupteinsatzgerät der AWI-Wissenschaftler der Abteilung Bathymetrie und Geodäsie ist das an Bord Fächerecholot, mit dem die Bremerhavener Geowissenschaftler die Gestalt des Meeresbodens erkunden. Entlang der Berge und Täler am Grund der polaren Ozeane kommt es zur Bildung von Tiefenwasser. Daraus entstehen Strömungen, die global für den Wärmetransport in den Weltmeeren verantwortlich sind und somit Einfluss auf das Klima unserer Erde nehmen.

Fächerecholotvermessung des Meeresbodens
an Bord des Forschungseisbrechers Polarstern bathymetrie_polarstern Quelle: AWI

Bathymetrische Vermessung mit Fächerecholotsystemen bieten ein schnelles Hilfsmittel, um Gestalt und Morphologie des Meeresbodens zu untersuchen. Das an Bord des Forschungsschiffes Polarstern installierte System Hydrosweep DS-2 liefert 59 Einzelmessungen der Wassertiefe und Echostärke je Ping. Zusätzlich liefert es Bodensichtsonar-Information (2048 Echos pro Ping). Das System kann mit einem Öffnungswinkel von 90 oder 120 Grad betrieben werden und ist für die Tiefseevermessung ausgelegt.
Das Echolot sendet über einen Geber ein Schallsignal nach unten. Dort wird das Signal vom Gewässerboden, aber auch Schiffswracks oder Fischschwärmen, reflektiert. Der reflektierte Impuls wird am Schiff empfangen. Aus der Laufzeit kann die Wassertiefe berechnet werden.

Die meisten Echolote verwenden Impulse mit einer Frequenz im Bereich zwischen 50 und 200 kHz (Ultraschall mit einer Wellenlänge von 3 cm bis 7,5 mm), die über einen Ultraschallgeber (meist ein Piezolautsprecher) im Schiffsboden oder am Heck abgestrahlt werden. Die Schallwellen werden am Gewässerboden reflektiert und vom Schallwandler empfangen. Aus der Laufzeit der Wellen und der Ausbreitungsgeschwindigkeit wird die Tiefe ermittelt.

Beispiel Marianenrinne

Wissenschaftler des Center for Coastal and Ocean Mapping/Joint Hydrographic Centeran der University of New Hampshire haben die weltweit tiefste Rinne, landläufig als Marianengraben bezeichnet, mit Hilfe von Schallwellen neu kartiert (Abb. unten).

Die Marianenrinne erstreckt sich über 2.500 km in einem Bogen, der von den Inseln Guam und Saipan begrenzt wird. Seine Tiefen lassen die höchsten landfesten Berge der Erde klein erscheinen, und der Wasserdruck übersteigt 1.000 Atmosphären oder in anderen Worten, er entspricht dem 1.000fachen Luftdruck an Land. Die Tiefseerinne wurde - bei noch immer anhaltender Umgestaltung - durch die Kollision der alten und kalten Pazifischen Platte mit der viel jüngeren Philippinischen Platte gebildet. Die Pazifische Platte taucht unter die Philippinische Platte, ein Prozess, der als Subduktion bezeichnet wird.

Die Forscher setzten Fächerecholote ein, um die Tiefseerinne vom August bis zum Oktober 2010 zu vermessen. Solche am Schiffsrumpf montierten Geräte senden gepulste Schallwellen zum Meeresboden und zeichnen dann die echoähnlichen Reflexionen auf. Diese 'multi-beam sounders' senden die Schallpulse in einem fächerartigen Schwadstreifen aus, was den Forschern erlaubt, dreidimensionale Bilder des Meeresbodens anzufertigen.

Die Unterwasservermessung hat die bislang genauesten Ergebnisse der Tiefe des Challenger Deep erbracht - Tiefe 10.994 m ±40 m. Die Forscher entdeckten auch vier Tiefenwasser-'Brücken', die die Tiefseerinne queren und bis zu 2.500 m über dem Rinnenboden emporragen. Die neue Karte hat eine Auflösung von 100 m pro Pixel, nahezu 20mal detailreicher und genauer als vorherige Versionen.

Der Filmregisseur James Cameron machte im März 2012 Schlagzeilen, als er als erster Mensch 50 Jahre nach dem ersten Tauchgang in einem U-Boot das Challenger Deep aufsuchte. Don Walsh und Jacques Piccard waren 1960 im U.S. Navy Bathyscaph Trieste die Pioniere.

In den Abbildungen werden die Tiefen durch Blautöne wiedergegeben, wobei die größten Tiefen im dunkelsten Blau erscheinen. Die schwarzen Umrisslinien markieren den äußeren Rand der nahezu 400.000 km² großen Meeresbodenfläche, die von den Ozeanographen untersucht wurde. Die Forscher setzten Fächerecholote ein, um den Marianengraben vom August bis zum Oktober 2010 zu vermessen.

Neue Ansicht der abgründigsten Tiefseerinne challengerdeep_bathmetry_lres Neue Ansicht der abgründigsten Tiefseerinne
marianatrench_lres Quelle: NASA

Luftgestützte bathymetrische Lidar-Systeme

Ein luftgestütztes bathymetrisches Lidar-System umfasst die Messung der Laufzeit eines Signals von einer Quelle bis zu seiner Rückkehr zum Sensor. Die Datenerfassungstechnik umfasst eine Komponente zur Kartierung des Meeresbodens und eine Komponente zur Erfassung der "Ground Truth", die Videotransekte und Probenahmen umfasst. Es arbeitet mit einem Laserstrahl mit grünem Spektrum (532 nm). Zwei Strahlen werden auf einen schnell rotierenden Spiegel projiziert, der eine Reihe von Punkten erzeugt. Einer der Strahlen durchdringt das Wasser und erfasst unter günstigen Bedingungen auch die Bodenoberfläche des Wassers.

Die mit dem Lidar messbare Wassertiefe hängt von der Klarheit des Wassers und der Absorption der verwendeten Wellenlänge ab. Wasser ist für grünes und blaues Licht am transparentesten, so dass diese Wellenlängen in sauberem Wasser am tiefsten eindringen.

Die folgende Abbildung veranschaulicht, dass Lidar-Systeme Laser einsetzen um Entfernungen zu messen, anstatt wie beim Sonar-Verfahren Schallimpulse zu verwenden. Für LIDAR-Messungen werden u.a. Flugzeuge oder Multicopter eingesetzt. LIDAR ist für die topographische Kartierung auf Land weit verbreitet. Beim Einsatz für hydrographische Vermessungen werden zwei verschiedene Farblaser eingesetzt: grün und rot. Der rote Laser wird an der Wasseroberfläche reflektiert, wohingegen der grüne Laser den Wasserkörper durchdringt und vom Meeresboden zurückgeworfen wird. Seine Eindringtiefe kann bis zu 70 m betragen, in Abhängigkeit von der Klarheit des Wassers. Die Zeitdifferenz der beiden Laufwege kann dazu verwendet werden, die Tiefe zu berechnen.

Hydrographische Vermessung mit LIDAR bathymetrie_lidar Quelle: meted

Daten von Radarsatelliten

Seit einigen Jahren wird erprobt, Seekarten aus den Daten von Radarsatelliten zu gewinnen. Zwar können diese Radarsatelliten nur die Wasseroberfläche abbilden. Bedingt durch Gravitationsanomalien unterseeischer Erhebungen und Gebirgszüge, liegt der Wasserspiegel an diesen Stellen aber im Mittel um einige Zentimeter höher als an tieferen Stellen. Entsprechendes gilt für Tiefenanomalien des Ozeanbodens, die sich als leichte Dellen im Meeresspiegel abpausen.

Wie die folgende Abbildung zeigt, kann ein erdumlaufendes Radar im Weltraum den Meeresboden nicht sehen, aber es kann die durch die Topographie des Meeresbodens verursachten Höhenschwankungen der Meeresoberfläche messen. Ein Berg auf dem Meeresboden verstärkt die Anziehungskraft der Erde und ändert ihre Richtung auf eine geringfügige Weise, so dass sich zusätzliches Wasser um den Berg herum aufstauen kann. Zum Beispiel erzeugt ein 2000 m hoher Berg auf dem Meeresboden einen nur 20 cm hohen Anstieg der Meeresoberfläche. (Abb. A)

Die Neigung der Schwerkraftrichtung, die als "Ablenkung der Vertikalen" bezeichnet wird, entspricht der Neigung der Meeresoberfläche und wird in Mikroradiant gemessen. Ein Mikroradiant der Auslenkung erscheint als 1 mm Änderung der Höhe der Meeresoberfläche pro 1 km horizontaler Entfernung. (Abb. B)

Bathymetrische Messung aus dem Weltraum Sensing bathymetry from space
Sensing bathymetry from space Quelle: IGPP

Der Abstand vom Satelliten zur Oberfläche kann mit den heutzutage eingesetzten Altimetern sehr genau bestimmt werden (etwa auf 1-2 cm), wobei eher die genaue Ortsbestimmung des Satelliten selbst Schwierigkeiten bereitet. Das sich abzeichnende Geoid ist Ausdruck des Schwerefeldes der Erde, welches durch Dichteunterschiede von Gestein und Wassermassen beeinflusst wird. Meeresrücken, Gräben und Ebenen von bis zu 8 km Tiefe üben verschiedene Anziehungskräfte auf die Wassermassen aus, so dass sich die Topographie des Meeresbodens an der Oberfläche widerspiegelt und eine auswertbare Signatur hinterlässt. So kann durch Präzisionsmessungen des mittleren Meeresspiegels, bzw. dessen Abweichung von der Kugelgestalt, die Wassertiefe abgeleitet werden.

Bei Fließgewässern verändert sich die Wellenstruktur, wenn ein Wasserkörper über eine Schwelle strömt (s. Abb. unten).

Vor dem Überströmen einer Erhebung nimmt die Flußgeschwindigkeit an der Oberfläche zu. Dies führt zur horizontalen Divergenz und so einem Auseinanderziehen der Kapillarwellen. Das wiederum führt zu einer Reduktion der Bragg-Streuung (geringere Radarrückstreuung) und somit erscheinen diese Gebiete auf SAR-Bildern dunkler.

Nach dem Überströmen des Hindernisses reduziert sich die Flussgeschindigkeit und es kommt zu horizontaler Konvergenz, die Strömung verlangsamt sich. Dadurch werden die Kapillarwellen zusammengedrückt und die Bragg-Streuung nimmt zu. Durch die erhöhte Radarrückstreuung erscheinen diese Flächen heller. Auf SAR-Bildern ist dies durch den Unterschied der Streucharakteristik der beiden Zonen erkennbar. Dieses Verfahren wird zum Beispiel zur Untersuchung des Watts in Norddeutschland verwendet.

Bodentopographie aus SAR-Messungen sar_topo_crewell Quelle: Grundlagen der Fernerkundung (Universität Köln, R.o.)

Da elektromagnetische Strahlung im Vergleich zu Schallwellen nur wenig in den Wasserkörper eindringt, kann die Tiefe mit deren Hilfe nur in flachen Gewässern bzw. in Küstennähe direkt gemessen werden.

Weitere Informationen:

bathymetrische Karte

Karte eines Gewässer-, insbesondere Meeresbodens mit Tiefenzahlen, Tiefenlinien und evtl. farbigen Tiefenschichten. Sämtliche Tiefenangaben sind auf Seekartennull bezogen. Zur Datengewinnung werden heute auch flugzeug- oder satellitengestützte Fernerkundungsverfahren eingesetzt. Vermessungsschiffe bedienen sich des GPS.

Die folgende Abbildung ist eine bathymetrische Karte des Crater Lake (Oregon). Die kolorierte Fläche ist der Seeboden, die graue Fläche repräsentiert das umgebende Bergland und die Wizard Island. Der Durchmesser des Sees beträgt ca. 9 km. Die roten und gelben Frabtöne stehen für die flacheren Bereiche, die grünen und blauen für die größeren Tiefen. Der Seeboden wurde mit einem hochauflösenden Echosounder vermessen und mit einem digitalen Höhenmodell der umgebenden Landschaft kombiniert. Eingebunden in ein GIS können die bathymetrischen Daten visualisiert und z.B. mit geologischen Informationen verschnitten werden.

Der Crater Lake befindet sich in der Caldera des Mount Mazama, einem Vulkan der Kaskadenkette, der einst 3.700 m hoch war. Er brach vor ca. 7.700 Jahren aus, brach danach in sich zusammen und bildete die aktuelle Caldera. Diesem Ereignis ging eine 400.000 Jahre lange vulkanische Aktivität voraus, während der ein Kegel aufgebaut wurde. Auch heute ist die Region noch potentiell aktiv.

Crater Lake (Oregon)
Bathymetrische Karte mit Schattenrelief Crater Lake, Oregon

Zu einem Poster mit Photo und geologischer Darstellung des Crater Lake hier klicken

Zu geologischen Hintergrundinformationen hier klicken

Quelle: USGS

Weitere Informationen:

Baumanets

Experimenteller Wissenschaftssatellit zu Datenübertragung, Fernerkundung und Raumfahrzeug-Management. Der mit einem neuen Bus ausgestattete Satellit ist ein gemeinsames Projekt von NPO Mashinostroyeniya und der staatlichen Bauman Technischen Universität Moskau. Der Endkunde sollte die russische Raumfahrtagentur sein. Baumanets sollte ursprünglich ab Dezember 2005 auf einer sonnensynchronen Umlaufbahn in 700 km Höhe und mit einer Neigung von 98° die Erde umkreisen. Der Start im Sommer 2006 schlug fehl.

Bedeckungsgrad

In der Fernerkundung entspricht der Bedeckungsgrad meist dem Anteil der vertikalen Projektion aller grünen, photosynthetisch aktiven Pflanzenelemente bezogen auf die Bodenfläche. Er ist wie der Blattflächenindex eine dimensionslose Größe, die aus einem Flächenverhältnis berechnet wird. Dies geschieht über eine empirische oder semi-empirische Ableitung aus Vegetationsindizes oder aus dem Blattflächenindex.

Befliegung

Mit Befliegung bezeichnet man das regelmäßige und systematische Überfliegen von Gebieten zur lückenlosen Aufnahme von Luftbildern.

BeiDou Navigation Satellite System

Bezeichnung für das chinesische Satellitennavigationssystem. Das in der Projektentwicklungsphase bis 2012 auch Compass genannte System soll China vom US-amerikanischen GPS unabhängig machen. Im Gegensatz zu den Systemen GPS, GLONASS und Galileo werden für Beidou auch geostationäre Satelliten eingesetzt. Beidou war zunächst für die zivile Nutzung nur im asiatisch-pazifischen Raum freigeschaltet. Das System ist nunmehr weltweit nutzbar und seit April 2022 für zivile Anwender mit einer Genauigkeit von 4,4 Metern freigegeben.

Beidou wird von der Abteilung für Langzeitbetreuung von Raumflugkörpern am Satellitenkontrollzentrum Xi’an der  Strategischen Kampfunterstützungstruppe der Volksbefreiungsarmee betrieben. Die Vermarktung der zivilen Dienste erfolgt über das „Büro für die Verwaltung des chinesischen Satellitennavigationssystems“.

Die regionale Version des Systems ging Ende Dezember 2011 offiziell in Betrieb. Die 3. und letzte Ausbaustufe mit ihren 35 voll funktionsfähigen Satelliten wurde im August 2020 abgeschlossen.

Die Versionen Beidou-1 und Beidou-2 boten bisher lediglich eine lückenlose Abdeckung des Asien-Pazifik-Raums. Mit Beidou-3 steht damit neben dem US-amerikanischen GPS, dem russischen GLONASS und dem europäischen Galileo ein weiteres weltweites Navigationsnetzwerk zur Verfügung.

Nach Fertigstellung des globalen Systems besteht es aus vier geostationären Satelliten, zwölf Satelliten auf geneigten geosynchronen Bahnen und neun Satelliten mit Flugbahnen in ca. 22.000 km Höhe. Als Genauigkeit für die öffentliche Nutzung werden 10 m für die Position und 0,2 m/s (≈0,7 km/h) für die Geschwindigkeit angegeben. Beidou-1A und -1B wurden am 30. Oktober und 20. Dezember 2000 gestartet. Jedoch werden erst die Satelliten der Serie 2 Bestandteil des Navigationssystems sein. Sie sollen die Positionen über dem asiatisch-pazifischen Raum auf 58,75° O, 80° O, 110,5° O und 140° O einnehmen. Beidou-1C ist seit dem 24. Mai 2003 im All. Im November 2017 wurden zwei BeiDou-Satelliten der dritten Generation an Bord einer Trägerrakete Langer Marsch 3B vom Xichang Startplatz in der Provinz Sichuan aus auf eine mittelhohe Umlaufbahn (21.528 km) gebracht. Die beiden Satelliten sollen 12 Jahre lang ihren Dienst verrichten.

Beidou Satellite Navigation Network Baidou Satellite Navigation Network Quelle: China Daily

Hatte sich China ursprünglich noch mit 280 Mio Euro an dem europäischen Satellitensystem Galileo beteiligt, kam 2007 der Ausstieg. Mit dem Aufbau eines eigenen Systems begann der Streit mit der EU um die Nutzung von Frequenzen. Die EU hatte aufgrund von Verzögerungen das offizielle Erstnutzerrecht verstreichen lassen. So werden BeiDou-Satelliten voraussichtlich zum Teil auf denselben Frequenzbändern funken wie Galileo. Dies könnte ein Versuch Chinas sein, das eigene Satellitensystem vor Angriffen zu schützen. Funkstörungen und Funktionseinschränkungen im Galileo-Satellitensystem werden befürchtet.

Allerdings sieht Beidou ein enormes Potential zur Zusammenarbeitdass zwischen GPS, Glonass, Galileo und Beidou, beispielsweise beim gemeinsamen Empfang von Signalen für Smartphones.

Weitere Informationen:

Beitragende Missionen (Copernicus)

Engl. Contributing Missions; Bezeichnung für europäische Missionen, die für einen anderen Zweck als Copernicus konzipiert wurden, aber teilweise unverzichtbare komplementäre Daten für die Copernicus-Dienste zur Verfügung stellen.

Das Copernicus-Programm bietet einen vollständigen, kostenlosen und offenen Zugang zu seinen Sentinel-Daten und den Informationsprodukten der Copernicus-Dienste. Zusätzlich zu den von den Sentinel-Satelliten bereitgestellten Daten spielen die zu Copernicus beitragenden Missionen, die so genannten Copernicus Contributing Missions, eine entscheidende Rolle, indem sie ergänzende Daten liefern, um sicherzustellen, dass eine ganze Reihe von Beobachtungsanforderungen erfüllt wird.

Zu den bestehenden oder geplanten beitragenden Missionen gehören Missionen der ESA, ihrer Mitgliedstaaten, kommerzielle Betreiber von optischen und Radarmissionen mit sehr hoher Auflösung (VHR) sowie andere europäische und internationale Drittbetreiber, die einige ihrer Daten für Copernicus zur Verfügung stellen. Auch fallen darunter die EUMETSAT-Missionen. Der Schwerpunkt der Tätigkeit der beitragenden Missionen liegt auf der zeitnahen Bereitstellung insbesondere optischer und radargestützter VHR-Daten, um den Bedarf der Copernicus-Dienste an VHR-Erdbeobachtungsdaten zu decken.

Die folgenden Kategorien von beitragenden Missionen werden in Betracht gezogen: Radar mit synthetischer Apertur (SAR), optische Sensoren, Altimetriesysteme, Radiometer und Spektrometer.

Die Lizenzen legen die Betreiber selber fest: Einige Missionen stellen ihre Daten kostenfrei zur Verfügung während andere Daten primär für die Copernicus Kerndienste, FP7, bzw. Horizont 2020-Forschungsprojekte und öffentliche Verwaltungen – hinzugekauft und von der ESA über das ESA Data Warehouse zur Verfügung gestellt werden.

Folgende Missionen tragen Daten zum Copernicus-Programm bei:
Gruppe 1
SAR VHR1-MR1
Gruppe 2
Optical HR1/2
Gruppe 2b
Optical VHR1/2
Gruppe 3
Optical MR1/2
Gruppe 4/5
Atmosphärische Missionen
Andere
ALOS/PALSAR ALOS/AVNIR-2 AURIGA Proba-V ERS CryoSat
COSMO-SkyMed DEIMOS-1 BLACKSKY Constellation ResourceSat-1/ ResourceSat-2 Envisat SMOS
Envisat* INGENIO DEIMOS-2 Oceansat-2 GOSAT Envisat
ERS Landsat-5/Landsat-7/Landsat-8 Dubaisat-2   ODIN*  
Kompsat-5 PERSEUS GeoEye-1      
PAZ Proba INGENIO      
RADARSAT-2 RapidEye Constellation IRS-P5/CartoSat      
RISAT-1 ResourceSat-1/ ResourceSat-2 Ikonos-2      
TerraSAR-X, TanDEM-X SPOT-4, SPOT-5, SPOT-6/7 KHALIFASAT      
  TH constellation Kompsat-2      
  UK-DMC2 Kompsat-3      
  UK-DMC2 Kompsat-3      
    Pleiades-1A/1B      
    QuickBird-2      
    SPOT-5, SPOT-6/7      
    SkySat      
    TH constellation      
    WorldView-1/
WorldView-2
     
    WorldView-3      
    WorldView-4      
Quelle: Copernicus

Weitere Informationen:

Beleuchtungskorrektur

Syn. Einstrahlungskorrektur, Reliefkorrektur; Korrektur der Einstrahlungsverhältnisse vor allem bei der Auswertung von Fernerkundungsdaten von gebirgigen Regionen. Aufgrund unterschiedlicher Höhenlage, Exposition, Hangneigung und Horizonteinengung treten Einstrahlungsdifferenzen auf, die sich auch auf die detektierte Strahlung auswirken. Dies kann besonders bei der digitalen Klassifizierung, aber auch bei der visuellen Interpretation, störend wirken und letztlich zu fehlerhaften Zuweisungen führen. Um Fehlklassifizierungen zu vermeiden, sind die Korrekturen der Einstrahlungsverhältnisse erforderlich, sie greifen auf digitale Höhenmodelle zurück.

BelKa

Weißrussischer Erdbeobachtungssatellit mit im Sommer 2006 missglücktem Start. Gebaut wurde er im Auftrag der Weißrussischen Nationalen Akademie der Wissenschaften vom russischen Raumfahrtunternehmen RKK Energija. Die Sensoren sollten im sichtbaren Bereich und im nahen Infrarot Bilder der Landflächen mit hoher räumlicher Auflösung liefern. Der Satellit sollte sich in 505 km Höhe auf einer sonnensynchronen Umlaufbahn mit 97,4° Neigung bewegen. Der Nachfolgesatellit Belka 2 wurde am 22. Juli 2012 gestartet.

BelKa-2

Erdbeobachtungssatellit der weißrussischen Raumfahrtbehörde, der den 2006 gestarteten Vorgängersatellit BelKa-1 ersetzt, dessen Dnepr-Trägerrakete 86 s nach dem Start versagte.

Er wurde am 22. Juli 2012 vom Kosmodrom Baikonur mit einer Sojus-Trägerrakete zusammen mit den Satelliten Kanopus-Vulkan, TET 1, ExactView 1 und Sond-PP in eine sonnensynchrone Umlaufbahn gebracht. Der dreiachsenstabilisierte Satellit ist nahezu baugleich mit Kanopus-Vulkan. Er besitzt eine panchromatische Kamera mit einer Auslösung von etwa 2,5 m und einer Schwadbreite von 20 km, eine Vierkanal-Multispektralkamera mit einer Auflösung von 10,5 m und einen Multispektralscanner MSU-200 mit einer Auflösung von 25 m und einer Schwadbreite von 250 km für Übersichtsbilder.

BelKa-2 soll der Erderkundung und der Datensammlung für verbessertes Kartenmaterial dienen, wobei die Daten auch für die Landesentwicklung, den Katastrophenschutz und die Landwirtschaft eingesetzt werden sollen. Gebaut wurde er auf Basis eines Satellitenbus der russischen Firma WNIIEM AO. Die Avioniksysteme stammen von Surrey Satellite Technology aus Großbritannien. Die geplante Lebensdauer beträgt fünf Jahre.

BELSPO

Engl. Akronym für Belgian Science Policy Office; BELSPO verwaltet die belgische Wissenschaftspolitik auf föderaler Ebene. Es gehört zur belgischen Bundesverwaltung.

Unter anderem verwaltet BELSPO die belgische Raumfahrtpolitik. Als solches verwaltet es den Beitrag zur Europäischen Weltraumorganisation in programmatischer, industrieller, wissenschaftlicher und finanzieller Hinsicht. Es befasst sich auch mit bilateralen Raumfahrtprogrammen zwischen Belgien und anderen Ländern, z.B. mit Frankreich, Argentinien oder Russland. Auf die Raumfahrtaktivitäten entfallen mehr als 40 % des Haushalts. BELSPO ist keine Raumfahrtbehörde, d.h. BELSPO betreibt keine eigene Weltraumforschung oder Weltraumrealisierung. Die ESA oder z.B. CNES (Frankreich) und CONAE (Argentinien) im Falle bilateraler Abkommen tun dies im Auftrag Belgiens und unter Anleitung von BELSPO. Dies garantiert die vollständige Unabhängigkeit von BELSPO.

Weitere Informationen:

Beobachtungswinkel

Engl. observation angle, franz. angle d’observation; nach DIN 18716 der "Winkel zwischen der Lotrichtung und der Richtung, unter der die Datenaufnahme für einen bestimmten Geländepunkt erfolgt".

BepiColombo

Raumsonde, die im Rahmen einer von der ESA in Kooperation mit der japanischen Raumfahrtbehörde JAXA konzipierten Mission 2018 zum Planeten Merkur startete. Ihre Hauptaufgaben bestehen in der Untersuchung des Magnetfelds sowie der geologischen Zusammensetzung und Geschichte des sonnennächsten Planeten. Sie ist nach dem Spitznamen des 1984 verstorbenen italienischen Mathematikers Giuseppe Colombo benannt, der sich um die Merkurerkundung besonders verdient gemacht hat.

MCS: Mercury Composite Spacecraft MCS: Mercury Composite Spacecraft

Die Raumsonde der BepiColombo Mission MCS (Mercury Composite Spacecraft) besteht auf ihrem Weg zum Merkur aus drei Modulen:

  • MTM (Mercury Transfer Module): Beinhaltet die zum Transfer nötigen Triebwerke (4 Ionentriebwerke SEP, 24 chemische Triebwerke). Wird bei Erreichen der endgültigen Orbits des MPO und MMO abgetrennt.
  • MPO (Mercury Planetary Orbiter): Orbiter (ESA) mit insgesamt 11 wissenschaftlichen Instrumenten.
  • MMO (Mercury Magnetospheric Orbiter): Orbiter (JAXA) mit 5 wissenschaftlichen Instrumenten.

Eine weitere Komponente ist das sogenannte MOSIF (MMO Sunshield and Interface Structure); eine Kombination aus Interface und Sonnenschutz für den MMO. Der MOSIF wird nach dem Einschuss des MMO in den Endorbit abgetrennt.

Quelle: DLR

BepiColombo besteht aus drei Modulen: je einem europäischen und japanischen Orbiter sowie einem Antriebsmodul, das die beiden Sonden in knapp 7 Jahren zum Merkur transportiert. Die gesamte Einheit ist etwa sechs Meter hoch und wiegt ca. vier Tonnen. Rund ein Drittel davon ist Treibstoff. Airbus D&S Deutschland ist für das komplette dreiteilige Raumfahrzeug verantwortlich. In Großbritannien ist Airbus D&S für den Bau des elektrischen und chemischen Antriebssystems sowie für die gesamte Struktur aller drei Module verantwortlich. Airbus D&S in Spanien wiederum hat die Struktur für das Transfermodul - auf Basis der  neuesten Kohlefasertechnologie - entwickelt und gebaut. Airbus D&S in Frankreich entwickelte die on-board Software auf der Basis der schon im Weltall fliegenden Sonden Rosetta, Mars Express und Venus Express.

Die wissenschaftlichen Nutzlasten befinden sich auf dem MPO (Mercury Planetary Orbiter) und dem MMO (Mercury Magnetospheric Orbiter), die den Merkur auf elliptischen polarnahen Bahnen umkreisen werden. Die Mission dient dazu, bisher ungeklärte Fragen über den Merkur zu beantworten (innerer Aufbau, Magnetfeld u. a.) und Rückschlüsse auf die Entwicklung des Planeten und die Entstehung unseres Sonnensystems zu ziehen.

Die wissenschaftlichen Ziele hinter BepiColombo ergeben sich unter Berücksichtigung der folgenden 12 Fragen:

  1. Was können wir von Merkur lernen über die Zusammensetzung des Sonnensystems, Nebel und die Bildung des Planetensystems?
  2. Warum ist Merkurs normalisierte Dichte deutlich höher als die aller anderen terrestrischen Planeten, inklusive Mond?
  3. Ist der Kern des Merkur flüssig oder fest?
  4. Ist Merkur heute tektonisch aktiv?
  5. Warum besitzt solch ein kleiner Planet nicht ein intrinsisches Magnetfeld, während Venus, Mars und der Mond keins haben?
  6. Warum yeigen spektroskopische Beobachtungen nicht das Vorkommen von Eisen, während dieses Element den Hauptbestandteil von Merkur bilden sollte?
  7. Enthalten die dauerhaft beschatteten Krater der Polarregionen Schwefel oder Wassereis?
  8. Was sind die Produktions-Mechanismen der Exosphäre?
  9. In Ermangelung einer Ionosphäre, wie funktioniert das Magnetfeld in Interaktion mit dem Sonnenwind?
  10. Ist Merkurs magnetisierte Umgebung durch Merkmale gekennzeichnet die erinnern an Polarlichter, Strahlungsgürtel und Magnetosphärische Stürme - wie man sie auf der Erde beobachtet?
  11. Die Progression des Merkur-Perihel wurde durch die Raum-Zeit-Krümmung erklärt. Können wir den Vorteil der Sonen-Nähe nutzen, um die Allgemeine Relativitätstheorie mit verbesserter Genauigkeit zu testen? (MPS)
MCS: Missionsprofil der BepiColombo Mission MCS: Missionsprofil der BepiColombo Mission

Bei der BepiColombo Mission wird zwischen 5 Missionsphasen unterschieden:

  1. Start und frühe Orbit Phase (launch and early orbit phase, LEOP) (2)
  2. Nahe Erd- und Testphase (near Earth commisioning phase, NECP) (2)
  3. Interplanetare Phase (interplanetary cruise phase) (3)
  4. Merkur Annäherungs Phase (Mercury approach phase) (4)
  5. Merkur Orbit Phase (Mercury orbit phase) (5)

(1) zeigt das MCS (Mercury Composite Spacecraft) in der Startkonfiguration (launch configuration) mit der angedeuteten Nutzlastverkleidung  sowie das schematisch dargestellte Interface zur ARIANE 5 ECA.

Quelle: DLR

Eine Ariane 5 Rakete brachte BepiColombo am 20. Oktober 2018 vom europäischen Weltraumbahnhof Kourou aus zunächst auf eine interplanetare Flugbahn. Für den insgesamt fast 7 Jahre dauernden Flug zum Merkur werden sowohl die elektrische Antriebssysteme als auch einige planetarische Swingby-Manöver um die Erde, die Venus und den Merkur selbst genutzt. Dabei fliegt er sechsmal an dem kleinen Planeten vorbei, um zu entschleunigen und nicht auf die nahe Sonne zu fallen.

Weitere Informationen:

Bestrahlung

Engl. radiant exposure; die Bestrahlung H ist die auf die Flächeneinheit auftreffende Strahlungsmenge. Die spektrale Abhängigkeit der Größen wird durch den Index λ angezeigt: Qλ, Fλ, Mλ, Iλ, Lλ, Eλ, Hλ.

Bestrahlungsstärke

Engl. irradiance, franz. irradiance; die Bestrahlungsstärke E ist der Strahlungsfluss, der auf eine Oberfläche auftrifft. DIN 18716 formuliert: "Quotient aus der auf eine Fläche auftreffenden Strahlungsleistung und dieser Fläche".

Bestrahlungswinkel

Engl. illumination angle, franz. angle d’incidence; nach DIN 18716 der Winkel zwischen der Flächennormalen und der Einfallsrichtung der auftreffenden Strahlung.

Bewässerung und Fernerkundung

Bewässerung als künstliche Zufuhr von Wasser vornehmlich zum Ausgleich der für die Bodennutzung jahreszeitlich oder ganzjährig fehlenden Niederschläge, gehört mit ihren vielfältigen landschaftlichen Auswirkungen zu den markantesten anthropogenen Eingriffen. Insofern ist Bewässerung(swirtschaft) ein ideales Objekt für fernerkundliche Beobachtung, insbesondere wegen ihrer raumzeitlichen Veränderungen (Change Detection).

In der hydrologischen Praxis ist Fernerkundung ein wichtiges Instrument für das Wassermanagement. So beginnt der Einsatz von Fernerkundung bereits beim Aufspüren von fossilen oder rezenten Grundwasserkörpern, aus denen Bewässerungssysteme gespeist werden können. Zu diesem Zweck werden die Messdaten von mehreren unterschiedlichen Beobachtungssatelliten kombiniert.

Beispielsweise verschaffen Bilder der Landsat-Satelliten einen Überblick über die Oberflächenstruktur einer Region – die verschiedenen Vegetationstypen lassen auf die grundsätzliche Bodenfeuchte schließen. Die Sensoren eines Radarsatelliten scannen die Oberflächenbeschaffenheit der Landschaft. Die von ihm ausgesandten Wellen des sogenannten C-Bandes dringen zwar nur wenige Zentimeter in den Boden ein. Doch das Relief der Oberfläche verrät ausgetrocknete Flussläufe und liefert so wichtige Anhaltspunkte, wo Grundwasser zu finden sein könnte. Mit den Daten des langwelligen Radars eines weiteren Satelliten geht der Blick zusätzlich mehrere Meter tief unter die Erdoberfläche. So "sieht" der Satellit, wo der Boden feucht ist. Die Kombination von Oberflächendaten und verschiedenen "Tiefeninformationen" erzeugt dann einen "Querschnitt" durch das Gelände.

Ferner liefern Schweremissionen Informationen über den Zustand der Grundwasserverhältnisse oder wie GRACE auch über ihre Veränderungen. Der nächste Landsat-Satellit (Landsat Data Continuity Mission) wird einen Sensor mit thermalem Band tragen, speziell um den Wasserverbrauch zu messen.

Beispiel Imperial Vally (Cal.)

Der japanische Erdbeobachtungssatellit ALOS (Advanced Land Observing Satellite) machte die folgende Aufnahme des Imperial Valley am 4. Juli 2010 mit seinem Advanced Visible and Near Infrared Radiometer Type-2 (AVNIR-2). AVNIR-2 ist dazu ausgelegt die Landbedeckung und die Vegetation in sichtbaren und im nahen Infrarotbereich mit einer Auflösung von 10 m aufzuzeichnen. Die ESA unterstützt ALOS als Third Party Mission, indem es seine für mehrere Missionen ausgelegten Bodensysteme einsetzt um Satellitendaten zu empfangen, zu verarbeiten, zu verteilen und zu archivieren.

Die fruchtbaren Böden des  Imperial Valley in der südkalifornischen Wüstenregion sind hier mit ihrer Nutzung dargestellt. Vom südlichen Ende des Saltonsees (oben links) erstreckt sich das Tal über ca. 80 km südwärts bis nach Mexiko hinein, wo es dann Mexicali Valley genannt wird. Etwa 5.000 km Bewässerungskanäle und 200.000 Hektar bewirtschaftetes Land überziehen das Tal. Zu den wichtigsten Agrarprodukten gehören Gemüse, Weizen, Alfalfa und Vieh. Agrarpflanzen bieten auch ein wertvolles Habitat für einheimische Vögel und Zugvögel.

Eine menschengemachte Umweltkatastrophe in den frühen Jahren des 20. Jahrhunderts ließ den Salton Sea entstehen. 1905 wurde Wasser vom Colorado River zu Bewässerungszwecken zum Imperial Valley geleitet, aber das Flusswasser durchbrach die Kanaltore und floss zum Salton Basin. 1907 brachte man das Flusswasser unter Kontrolle, aber die großen Wassermengen hatten inzwischen den Salton Sea geschaffen, der heutzutage erhalten bleibt um Überschusswasser aus der Bewässerung aufzunehmen. Mit ca. 970 km² ist er der größte See Kaliforniens.

Man erkennt die Städte Brawley (unten rechts), Westmorland (unten links) und Calipatria (oben), sowie Ramer (oben) und Finney Lakes (Mitte rechts).

Bewässerte Wüste im Imperial Valley (Cal.) Bewässerte Wüste im Imperial Valley (Cal.) Quelle: ESA

Weltweite Forschungsanstrengungen zu dieser Thematik unternimmt die UNESCO im Rahmen von GARSoder die ESA mit Bezug auf Africa (TIGER Initiative). Verschiedene Formen von Bewässerungskulturen sind z.T. seit Jahrtausenden von starker Prägekraft für das Erscheinungsbild der Agrarlandschaft, z.B. beim bewässerten Terrassenfeldbau oder bei diversen Oasenformen und damit fernerkundlich dokumentierbar. An dieser Stelle ist auf die Überwachung von Stätten des UNESCO-Welterbes und von UNESCO-Biosphärenreservaten mit Hilfe von Fernerkundung hinzuweisen.

Gleichermaßen landschaftsprägend sind bewässerungsbedingte hydrologische Begleiterscheinungen, seien dies Infrastruktureinrichtungen wie Stauseen und Kanäle oder die Reduzierung der Abflussmengen von Flüssen, das Absinken des Grundwasserspiegels und das Verlanden von Seen bei ungenügendem Wasserzufluss. Auch dramatische ökologische Veränderungen, z. B. bei der natürlichen Vegetationsbedeckung oder der Bodenstruktur sind per Fernerkundung überwachbar.

Karusselbewässerung

Besonders eindrucksvoll sind Satellitenbilder von Bewässerungskarussels (crop circles, Karusselbewässerung) in Gebieten mit Wassermangel. Während der vergangenen drei Dekaden hat beispielsweise Saudi-Arabien eine Ressource erschlossen, die wertvoller ist als Öl. Ingenieure und Farmbetriebe haben verborgene Wasserreserven angezapft, um Getreide, Früchte und Gemüse in der Wüste anzubauen. Die vier Satellitenbilder zeigen die Entwicklung der landwirtschaftlichen Nutzung im Wadi As-Sirhan Basin. Sie wurden von technisch ähnlichen Sensoren, dem Thematic Mapper und dem Enhanced Thematic Mapper Plus auf drei verschiedenen Landsat-Satelliten (4, 5, 7) aufgenommen. Die einzelnen Parzellen in den Bildern haben einen Durchmesser von ca. 1 km und nutzen Karusselbewässerung.

Die Sensoren zeichneten das von der Erde reflektierte Licht im kurzwelligen Infrarot, im nahen Infrarot und in den Grünanteilen des elektromagnetischen Spektrums auf. Mit dieser Kombination erscheint junge Vegetation hellgrün, wohingegen trockene Vegetation oder Brachland rostrot erscheinen. Trockene, kahle Flächen (meist Wüste) sind rötlich und gelb.

Das geförderte Wasser dieses Projekts ist fossiles Wasser, das sich in gemäßigterem Klima während der letzten Kaltzeit vor ca. 20.000 Jahren gebildet hat und jetzt bis 1 km tief unter Sandmassen und Kalksteinformationen begraben liegt. Die genauen Vorräte (252 - 870 km³) sind nicht bekannt, aber eine wirtschaftliche Förderung ist nach Schätzungen nur für 50 Jahre möglich.

Der aktuelle durchschnittliche Niederschlag von 100 bis 200 mm/a genügt nicht, um die Aquifere aufzufüllen, womit es sich um nicht erneuerbare Vorräte handelt. 2006 hatte das Land nach Angaben der FAO 2,4 km³ erneuerbares Süßwasser an der Oberfläche verfügbar, der gesamte Verbrauch betrug hingegen 23,7 km³. Die für wüstenbasierte Landwirtschaft benötigte Wassermenge verdreifachte sich von ca. 6,8 km³ 1980 auf ca. 21 km³ 2006.

Crop Circles in der Wüste (Saudi Arabia) saudiarabia_lres

5. Februar 1987

saudiarabia2_lres

24. Februar 1991

saudiarabia3_lres

12. März 2000

saudiarabia4_lres

17. Januar 2012

References:

Quelle: NASA Earth Observatory

Weitere Informationen:

Bewegungsunschärfe

Obs. Bildwanderung; engl. motion blur, image motion, franz. filé d’image causé par la vitesse d’avion, flou dû au mouvement; nach DIN 18716 die "gerichtete Verstärkung der Bildunschärfe verursacht durch Eigenbewegung der Plattform während der Belichtung". Die Bewegungsunschärfe wurde früher als Bildwanderung bezeichnet.

BEXUS

Engl. Akronym für Balloon Experiments for University Students; ein 2007 gegründetes deutsch-schwedisches Programm für Universitätsstudenten zur Durchführung von Ballonexperimenten in der Stratosphäre. Bexus bietet Studenten die Möglichkeit, wissenschaftliche und technische Experimente auf Ballonen unter speziellen Atmosphärenbedingungen durchzuführen.

Träger sind das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und die Schwedische Nationale Raumfahrtbehörde (SNSB, heute SNSA) wie auch für das Schwesterprogramm REXUS mit Raketenexperimenten. Jedes Jahr werden zwei BEXUS-Ballone vom SSC, dem Esrange Space Center in Nordschweden, gestartet.

Heute ermöglicht das Programm Studenten von Universitäten und Fachhochschulen in ganz Europa, ihre eigenen Experimente in verschiedenen Forschungsbereichen wie Atmosphärenforschung, Strömungsphysik, Magnetfeld, Materialwissenschaft, Strahlungsphysik, Astrophysik, Biologie und auch Technologie-Demonstratoren zu entwickeln.

Die Nutzlasten sind in einer mittelgroßen Gondel (1,16 m x 1,16 m x 0,84 m) untergebracht. Die Gesamtmasse des Ballons beträgt ca. 300 kg, wobei die Nutzlast zwischen 30 und 112 kg wiegt (d.h. im Allgemeinen 4 Schülerexperimente pro Gondel). Der Ballon, ein 35SF von Zodiac Aerospace, ist mit Heliumgas gefüllt. Die Länge des Ballonsystems von der Spitze des Ballons bis zur Gondel beträgt etwa 65 bis 100 m.

Bexussystem Bexus - Ballonkomponenten

EuroLaunch, eine Kooperation zwischen dem Esrange Space Center des SSC und der Mobilen Raketenbasis (MORABA) des DLR, ist für das Kampagnenmanagement und den Betrieb der Trägerraketen verantwortlich. Experten des DLR, des SSC, des ZARM und der ESA unterstützen die Studententeams während des gesamten Projekts mit technischer Hilfe. REXUS und BEXUS werden vom SSC, Esrange Space Center in Nordschweden, gestartet.

Quelle: ZARM

Weitere Informationen:

bi-direktionale Reflektanzverteilungsfunktion (BRDF)

Engl. bi-directional reflectance distribution function (BRDF), franz. distribution de la réflexion bidirectionelle; nach DIN 18716 die "Abhängigkeit der Reflexion von den Einstrahlungs- und Beobachtungswinkeln".

Big Bird-Satelliten

Auch unter dem Namen Keyhole-9 (KH-9) und dem Codenamen HEXAGON bekannte Serie von photographischen Aufklärungssatelliten der USA, die zwischen 1971 und 1986 für das National Reconnaissance Office ins All gebracht wurden.

Die Masse des Satelliten betrug ca. 11 bis 13 Tonnen, die Auflösung der Kamera ca. 0,6 m. Der Film wurde mit 4 Wiedereintrittskapseln zur Erde zurückgebracht. Es gab 20 Starts mit Titan-3D- und Titan-34D-Raketen, 19 davon waren erfolgreich. KH-9 wurde parallel zur zeitweise geplanten bemannten Spionageplattform KH-10/MOL als unbemannte Alternative entwickelt.

Big Data

Der weit gefasste Begriff "Big Data" beinhaltet Methoden und Werkzeuge für das Zusammenführen sehr großer Datenmengen aus heterogenen, sich häufig verändernden Datenquellen. Dabei bezieht sich "Big" gleichermaßen auf das große Datenvolumen, die hohe Übertragungsgeschwindigkeit und die Bandbreite der Datenquellen. Diese Daten stellen besondere Anforderungen an die Datenverarbeitung und die Datenanalyse.

In der Informatik werden Big Data durch „5 Vs“ charakterisiert:

Die 5 Vs lassen sich z. B. auch in geowissenschaftlichen Daten wiederfinden.

Der rasante technologische Fortschritt in der Sensorentwicklung und der Computersimulation ermöglicht es Wissenschaftlerinnen und Wissenschaftlern, immer größere Datenmengen mit einer Vielzahl unterschiedlicher Parameter zu generieren. Ein Beispiel für große Datenmengen am Deutschen GeoForschungsZentrum (GFZ) sind optische Satellitendaten. Diese Daten werden genutzt, um Zustand und Veränderung der Erdoberfläche, wie z. B. Landnutzung, schnell zu erfassen. Die Datenmengen dieser Anwendungen liegen im Petabyte-Bereich (PB), wobei 1 PB = 1000 Terabyte (TB) entsprechen. Für die Speicherung dieser Datenmengen werden schon heute in der Regel mehrere Hundert handelsübliche Festplatten benötigt (s. Tab.). Die Datenmengen werden in Zukunft mit der Verfügbarkeit neuer Satellitensysteme enorm anwachsen. Die Geschwindigkeit, mit der geowissenschaftliche Daten generiert werden, steigt zudem stetig mit dem anhaltenden Fortschritt in der Sensor- und Rechentechnik.

Optische Satellitendaten verschiedener Missionen
als Beispiel für große Datenmengen am GFZ Datenmengen bei optischen Satellitendaten Quelle: GFZ

Die durch die vielfältigen Sensorsysteme und Simulationsmodelle erzeugten Daten müssen zueinander in Beziehung gesetzt werden, um das komplexe System Erde mit seinen ablaufenden Prozessen verstehen zu können. Die gemeinsame Verarbeitung und Analyse der Daten ist eine anspruchsvolle Aufgabe, da die Daten sehr heterogen sind. Sie beschreiben die Prozesse des Erdsystems durch unterschiedliche Variablen, in verschiedenen räumlichen und zeitlichen Auflösungen, in unterschiedlicher räumlicher und zeitlicher Verteilung und mit unterschiedlicher Zuverlässigkeit. Die erfassten Daten sind Basis der wissenschaftlichen Arbeit und daher von großem Wert, was sich in den vielen Bestrebungen zu einem effektiven Management von Forschungsdaten mit entsprechenden Infrastrukturen widerspiegelt.

Die Herausforderungen an die Datenverarbeitung und die Datenanalyse, die sich aus den 5 Vs ergeben, werden in Zukunft dringende Forschungsaspekte in den Geowissenschaften sein. Ein Beispiel dafür ist die schnelle Extraktion relevanter Informationen und Muster aus großen Datenmengen. Erforderlich dafür sind zum einen die Entwicklung effizienter und skalierbarer geowissenschaftlicher Analysemethoden und zum anderen die Anpassung geowissenschaftlicher Methoden an Big-Data-Technologien. (Sips 2018)

Insbesondere mit den Daten der Sentinel-Satelliten und in Zukunft auch der Satelliten Tandem-L und EnMap ist die Fernerkundung unumkehrbar in der Big Data Ära angekommen. Dies erfordert nicht nur neue technologische Ansätze, um die großen Datenmengen zu verwalten, sondern auch neue Analysemethoden. Beides wird z. B. am DLR erforscht

In diesem Zusammenhang werden Methoden aus der Data Science und der künstlichen Intelligenz, wie maschinelles Lernen, unverzichtbar. Insbesondere Deep Learning hat in dem Bereich der künstlichen Intelligenz in den letzten Jahren das Feld revolutioniert. Eine besondere Herausforderung besteht in der Integration heterogener Erdbeobachtungsdaten, ihre parallele Analyse sowie die Visualisierung der Ursprungsdaten und Analyseergebnisse zur korrekten Detektion und Bewertung raum-zeitlicher Veränderungen der Erdoberfläche.

Weitere Informationen:

Bild

Engl. image, imagery; das Ergebnis der Aufnahme mit einer Kamera bzw. einem Sensor oder auch das Ergebnis von Verabeitungsprozessen. Es kann in analoger oder digitaler Form vorliegen (nach DIN 18716-3).

Bilder im Kontext der Fernerkundung sind Rasterdaten zur Darstellung der Messungen der reflektierten oder abgegebenen elektromagnetischen Energie, die durch einen Sensor an einer Drohne, einem Flugzeug oder einem Satelliten erfasst wurde. 

In der Fernerkundung werden durch digitale Aufnahmesysteme keine "Bilder" wie in der analogen Photographie mit Kameras auf Film aufgenommen. Stattdessen werden durch die Scannersysteme für jeden Aufnahmekanal getrennte Zahlenmatrizen erfasst. Erst bei der Wiedergabe dieser Zahlenwerte über ein Ausgabegerät entstehen Bilder. So wird bei der Umsetzung der Zahlenwerte nur eines einzelnen Kanals ein Graustufenbild erzeugt, bei dem der Wert 0 der Farbe Schwarz, der Wert 255 der Farbe Weiß zugeordnet wird und die dazwischenliegenden Werte entsprechend abgestufte Grautöne erhalten.

Hieraus leitet sich auch der Begriff Grauwerte für die Zahlenwerte eines Kanals ab. Das entstehende Bild ist allerdings nicht mit einem Schwarz-Weiß-Bild in der Photographie vergleichbar.

Das Bild eines Geländeausschnitts wird oft als "Szene" bezeichnet. In Zusammensetzungen sollte das Wort "Bild" nur dann verwendet werden, wenn in der Darstellung das Bild als solches in Erscheinung tritt, wenn es sich also um eine bildliche und nicht um eine graphische Darstellung handelt.

Ein Bild ist das Ergebnis eines Abbildungsprozesses mit zugrunde liegenden geometrischen und physikalischen Aspekten, d.h. in jedem Bild sind stets geometrische (räumliche) + physikalische (radiometrische) Informationen gespeichert.

Der geometrische Aspekt besagt, dass eine Information aus einer bestimmten räumlichen Richtung kommt, der physikalische Aspekt sagt etwas über die Intensität und die spektrale Zusammensetzung der Strahlung aus. Jedes System zur Aufnahme von Luft- und Satellitenbildern ermittelt somit die Richtung aus der die Strahlung kommt und die Intensität der Strahlung. Bei der Aufnahme wird dann die von der Erdoberfläche ausgehende und an der Plattform (z.B. Flugzeug, Satellit) ankommende elektromagnetische Strahlung durch einen Empfänger in Messsignale umgesetzt und gespeichert.

Die Fernerkundung kann aussagekräftige Informationen aus Bilddaten extrahieren. Dabei werden Bildbearbeitungsverfahren zum Identifizieren und Extrahieren verschiedener Informationen über betrachtete Features, wie zum Beispiel Art und Zustand der Vegetation und Art der Stadtentwicklung, und zum Identifizieren und Analysieren der Trends in erkannten Objekten und Phänomenen angewendet. Nachbarschaftsanalyse, Saisonalität, physische und kulturelle Geographie, Phänologie des Wachstums der Vegetation, Klima und weitere physische und Umweltfaktoren werden beim Definieren von Art und Zeitablauf der Bilderfassung berücksichtigt.

Grundsätzlich können die Fernerkundungssensoren nach der Quelle der empfangenen Strahlung in passive und aktive Systeme eingeteilt werden. Bei passiven Systemen geht die Strahlung von einer natürlichen Quelle aus (z.B. Sonne), erreicht dann ein Geoobjekt und wird von diesem reflektiert und/oder absorbiert. Absorbierte Strahlung führt zu einer Erwärmung des Objektes, welches dann wiederum thermale Strahlung emittiert (thermales IR). Die von dem Objekt ausgehende reflektierte und/oder emittierte Strahlung wird dann vom passiven Sensor in Abhängigkeit seiner spektralen Empfindlichkeit aufgezeichnet (Kamera, Scanner, Wärmesensor). Bei aktiven Systemen sendet der Sensor selbst elektromagnetische Strahlung aus und empfängt diese nachdem sie mit dem Geo-Objekt wechselgewirkt hat. Das System ist somit gleichzeitig künstliche Quelle der Strahlung (Sender) und ihr Empfänger (z.B. Radar, Laser).

Das menschliche Auge gilt als passiver Sensor mit einer spektralen Empfindlichkeit von etwa 400 bis 700 nm (Blau bis Rot). Man bezeichnet diesen Abschnitt des elektromagnetischen Spektrums deshalb auch als sichtbares Licht (VIsible Spectra = VIS). Es ist also verständlich, dass alle technischen Fernerkundungssysteme (unabhängig von ihrer spektralen Empfindlichkeit) die bildhafte Verarbeitung der Daten an das Farbsystem des menschlichen Auges in den Farbtönen Blau, Grün und Rot (RGB) anpassen müssen. Bei einer entsprechende Farbzuweisung von Kanälen können auch Meßwerte aus uns fremdartigen Spektralbändern sichtbar gemacht werden (z.B. als sog. Falschfarbenbilder).

Arten von Farbbildern

Echtfarbenbild (3, 2, 1 – RGB)

rgb_echtfarbenbild

CIR-Falschfarbenbild (CIR=Colored InfraRed, 4-3-2 Kombination)

cir_falschfarbenbild Quelle: SatGeo

Wie der Name schon sagt, gibt ein Echtfarbenbild die Originalfarben wieder und sieht so einem Foto täuschend ähnlich. Ein solches Bild besteht aus den Graustufenbildern der Kanäle 3, 2 und 1. Die Originalfarben können wiedergegeben werden, da der rote Kanal mit roter Farbe dargestellt wird, der grüne Kanal grün und der blaue Kanal blau. Die Farbe jedes einzelnen Pixels wird aus dem Verhältnis der Intensitätsstufen aus den Graustufenbildern ermittelt. Echtfarbenbilder sind vor allem dafür geeignet, das System der multispektralen Komposits anhand eines anschaulichen Beispiels zu verstehen. Das Bild zeigt eine Landschaft im NW von München. In der Mitte des Bildes befindet sich Gröbenzell.

Ein CIR-Falschfarbenbild (CIR=Coloured InfraRed, 4-3-2 Kombination) gibt Aufschluss über das Alter von Biomasse, z.B. Gras, Blätter von Büschen, etc. Der dazu verwendete Kanal 4 ist das sog. Nahe Infrarot (NIR). Diese Strahlung wird von Zellen je nach deren Beschaffenheit gut oder weniger gut reflektiert. Junge Zellen sind prall gefüllt mit Flüssigkeit, sie haben also eine glatte Oberfläche; deswegen wird das NIR beinahe vollständig reflektiert. Bei alten Zellen hingegen ist die Oberfläche runzlig, deswegen wird nur ein geringer Teil des NIR reflektiert. Hier wird das NIR rot dargestellt. Je heller also die rote Farbe ist, um so jünger ist in diesem Bereich die Biomasse. Die dunklen Flecken in der linken unteren Hälfte des Bildes zeigen ein Waldgebiet mit altem Baumbestand. CIR-Falschfarbenbilder sind vor allem in der Forstindustrie sehr wertvoll.

Siehe auch analoges Bild, digitales Bild

Bildanalyse

Engl. image analysis, franz. analyse d' image; quantitative und/oder qualitative Analyse von analogen, digitalisierten oder originär digitalen Bildern, mit dem Ziel einer phänomenologisch-beschreibenden, mathematisch-statistischen und/oder planerisch-kartographischen Darstellung von Bildinhalten zur Informationsgewinnung.

Nach DIN 18716 die "Gesamtheit der Verfahren, durch die ein digitales Bild informationstechnisch ausgewertet wird".

Bei der Bildanalyse werden bestimmte, in einem Bild auftretende Objekte erkannt und beschrieben. Die Methoden führen zur Mustererkennung. Neben der visuellen Bildinterpretation wird der Begriff hauptsächlich in der semiautomatischen und automatischen computergestützten digitalen Rasterbildverarbeitung und Klassifizierung gebraucht.

Bildaufklärung

Engl. imagery intelligence (IMINT), franz. renseignement d'origine image (ROIM); Bezeichnung für die Bild- und Videoaufzeichnung jeglicher Art für nachrichtendienstliche Zwecke, einschließlich der Ergebnisse und der Analyse, die sich aus den Bilddaten ableiten lassen. Dieses Fernerkundungsaufkommen dient somit der gezielten Aufklärung durch Visualisierung. Hierzu zählen auch Satelliten- und Luftbilder. Seit dem Beginn der satellitengestützten Bildaufklärung in den 1960er Jahren stammt der weitaus größte Teil der IMINT von Satellitensystemen.

In den USA wird Bildaufklärung von der National Geospatial-Intelligence Agency zur Informationsgewinnung genutzt, in Deutschland vom Bundesnachrichtendienst.

Weitere Informationen:

Bildaufnahme

Vorgang, bei dem die von der Erdoberfläche ausgehende und am Sensor ankommende elektromagnetische Strahlung durch den Sensor erfasst und gespeichert wird.

Bildauswertung

Alle Verfahren, die dazu dienen, aus den vorliegenden Daten die für den jeweiligen Anwendungszweck gewünschten Informationen oder Produkte abzuleiten.

Bei der digitalen Bildauswertung handelt es sich um Computerverfahren, die 'im Prinzip' ohne menschlichen Beobachter auskommen. Ziel der dann automatischen Bildauswertung ist die dreidimensionale Rekonstruktion und Interpretation der aufgenommenen Szene. Dabei fließen sowohl geometrische als auch semantische Überlegungen ein.

Bildbearbeitung

Im Unterschied zum gröberen Begriff der Bildverarbeitung die Gesamtheit der feingliedrigeren Verfahren, welche die Bilddaten durch Überführen in eine geeignetere Form auf eine Analyse vorbereiten (Gewinnung zweckgerichteter Bilddaten). Hierzu gehören Bildkorrekturen, Kontrastverstärkung, Filterung oder Manipulation von Bildinhalten. In einem konkreten Anwendungsfall müssen allerdings nicht immer sämtliche Verfahren der Bildbearbeitung durchgeführt werden. Die Auswahl der notwendigen Bildbearbeitungen ist immer von der vorliegenden Fragestellung abhängig.

Bilddatenfusion

Auch Bilddatenverknüpfung; in der Fernerkundung das "In-Bezug-Setzen" bzw. Verschmelzen digitaler Datensätze mittels echter numerischer Manipulation. Eine der häufigsten Bilddatenfusionen ist die Hauptkomponentenanalyse. Außerdem können folgende Daten miteinander fusioniert werden:

Bildelement

Syn. Pixel; die durch die Messgeschwindigkeit und Geometrie des Aufnahmesystems festgelegte kleinste Flächeneinheit eines digitalen Bildes. Sie ist gleichzeitig ein Maß für das räumliche Auflösungsvermögen. Der radiometrische Wert des Bildelements stellt die vom Aufnahmesystem gemessene, integrierte Gesamtheit der Strahlung dar, die von dieser Fläche reflektiert oder emittiert wird. In der Regel haben Bildelemente in der Fernerkundung eine quadratische Form. Der Begriff ist nicht zu verwechseln mit dem in der Drucktechnik bei Halbtonvorlagen verwendeten Begriff des durch reprotechnische Rasterung entstandenen Bildpunktes.

Bildfusion

Engl. image fusion, franz. fusion d'images; die Bildfusion zielt durch eine Verschmelzung von Bilddaten aus verschiedenen Quellen auf eine Steigerung des Informationsgehaltes ab. Eine derartige Bildfusion kann aus verschiedenen Datensatzkombinationen erzeugt werden, wobei der häufigste Anwendungsfall die Kombination multisensoraler Datensätze, also von Bilddaten verschiedener Aufnahmeinstrumente, ist. Ferner ist die Verbindung multitemporaler Daten zu einem Datensatz oder die Integration von Zusatzdaten aus topographischen Karten in einen Bilddatensatz zur gemeinsamen Auswertung bedeutend.

Eine Bildfusion wird jeweils auf Pixelbasis durchgeführt. Somit ist eine möglichst exakte Georeferenzierung der beteiligten Datensätze in einem einzigen Koordinatensystem zwingend notwendig.

Ziele von Bilddatenfusionen:

Als Beispiel für die Bildfusion von Datensätzen mit unterschiedlicher spektraler bzw. räumlicher Auflösung können ihre hilfreichen Ergebnisse für geologische bzw. geomorphologische Interpretationen dienen. Häufig werden multispektrale Landsatdaten mit räumlich höher auflösenden Bilddaten optischer Sensoren (z. B. SPOT-PAN oder ETM+-PAN) kombiniert, um die Vorzüge beider Sensortypen in einem neuen Datensatz wiederzugeben.

Weitere Informationen:

Bildinterpretation

Engl. image interpretation, franz. interprétation des images; das Auffinden, Erkennen und Deuten der Inhalte eines Bildes. Sobald die Daten zu Bildern mit unterschiedlichen Bandkombinationen verarbeitet sind, können diese Bilder bei Entscheidungen im Ressourcenmanagement und bei der Bewertung von Katastrophen helfen. Dies erfordert eine angemessene Interpretation der Bilder (siehe visuelle Bildinterpretation).

Bildinterpretation umfasst die Gesamtheit des visuellen Interpretationsvorganges von Fernerkundungsdaten, vor allem von Luftbildern (Luftbildinterpretation) und Satellitenbildern. Jedoch ist auch die digitale Bildverarbeitung häufig mit visueller Interpretation von Teil- oder Endergebnissen gekoppelt.

Wesentlich bei der Interpretation ist die Kenntnis des jeweiligen Maßstabs. Es gibt verschiedene Maßstäbe, die auf der räumlichen Auflösung des Bildes basieren, und jeder Maßstab bietet unterschiedliche, wichtige Merkmale. Wenn Sie beispielsweise eine Überschwemmung verfolgen, zeigt eine detaillierte, hochauflösende Ansicht, welche Häuser und Unternehmen von Wasser umgeben sind. Die breitere Landschaftsansicht zeigt, welche Teile eines Landkreises oder einer Großstadt überflutet sind und vielleicht auch die Quelle des Wassers. Eine noch umfassendere Ansicht zeigt die gesamte Region - das überflutete Flusssystem oder die Gebirgszüge und Täler, die den Fluss kontrollieren. Eine hemisphärische Ansicht würde die Bewegung von Wettersystemen zeigen, die mit den Überschwemmungen verbunden sind.

Die Bildinterpretation setzt sich aus dem Erkennen und Identifizieren von Objekten anhand von Bildmerkmalen sowie dem Interpretieren zusammen. Die wesentlichen Merkmale des Bildes, die zur Objekterkennung und -beschreibung herangezogen werden, sind geometrisch und stofflich bestimmt.

Zu nennen sind vor allem Größe/Höhe (shape), Form/Umriss (shape), Lage im Gelände (site), Grau-/Farbton (tone, colour), Muster (pattern) und Textur (texture) sowie Schattenwurf (shadow) und die Stereoskopie. Zu berücksichtigen sind der konkrete Aufnahmezeitpunkt und die spezifischen Bildeigenschaften.

Viele Merkmale lassen sich leicht anhand ihrer Muster oder Formen erkennen. So haben beispielsweise landwirtschaftliche Flächen in der Regel eine geometrische Form, in der Regel Kreise oder Rechtecke. Gerade Linien sind typischerweise vom Menschen geschaffene Strukturen, wie Straßen oder Kanäle.

Wenn man Farben zur Unterscheidung von Merkmalen verwendet, ist es wichtig, die bei der Erstellung des Bildes verwendete Bandkombination zu kennen. Bilder mit echten oder natürlichen Farben werden mit Bandkombinationen erstellt, die das wiedergeben, was wir mit unseren eigenen Augen sehen würden, wenn wir aus dem Weltraum auf sie herabschauen. Wasser absorbiert Licht, so dass es auf Echtfarbenbildern in der Regel schwarz oder blau erscheint; Sonnenlicht, das von der Wasseroberfläche reflektiert wird, kann es grau oder silbern erscheinen lassen. Sedimente können das Wasser eher braun erscheinen lassen, während Algen das Wasser eher grün erscheinen lassen können. Die Farbe der Vegetation hängt von der Jahreszeit ab: Im Frühling und Sommer ist sie in der Regel leuchtend grün, im Herbst kann sie orange, gelb und hellbraun sein, und im Winter eher braun. Der nackte Boden ist in der Regel braun, obwohl dies von der mineralischen Zusammensetzung des Sediments abhängt. Städtische Gebiete sind in der Regel grau, da dort viel Beton verwendet wird. Eis und Schnee sind in Echtfarbenbildern weiß, aber auch Wolken. Bei der Verwendung von Farben zur Identifizierung von Objekten oder Merkmalen ist es wichtig, auch die umgebenden Merkmale zu berücksichtigen, um die Dinge in einen Kontext zu stellen.

Das eigentliche Interpretieren geht inhaltlich weit über das Erkennen von Objekten hinaus. Einbezogen werden andere verfügbare Informationen (Referenzdaten: topographische und thematische Karten, Statistiken, Bohrprofile, Geländedaten) und vor allem das Fachwissen des Interpreten. In dieser Phase der Bildinterpretation werden zusätzliche und weiterführende, schließende, semantische Aussagen aus den Bildmerkmalen abgeleitet, die nicht direkt abgebildet sind.

Der Gesamtprozess der Luftbildinterpretation setzt sich also aus den Teilschritten Sehen, Wahrnehmen, Erkennen und Verifizieren zusammen. Die Interpretation ist ein iterativer Prozess mit einer zunehmenden Merkmals-/Objektklassenverdichtung. Anhand der Bildmerkmale wird für die zu interpretierenden Objekte ein Interpretationsschlüssel erstellt und eine erste Ausweisung der Objektklassen und ihrer Grenzen vorgenommen. Die Auswertung erfolgt häufig unter Verwendung von Interpretationsgeräten, wie z.B. dem Spiegelstereoskop, zur besseren Erkennung räumlicher Zusammenhänge. In der Regel schließt sich eine Feldkontrolle an, bei der sowohl die bisherigen Ergebnisse geprüft, Unsicherheiten berichtigt als auch der Interpretationschlüssel modifiziert wird.

Quantitative Analyse

Die Ergebnisdarstellung erfolgt in der Regel in Form von thematischen und topographischen Karten oder von Kartenserien zur Darstellung von Veränderungen (Monitoring). Weitere Möglichkeiten bieten Flächenstatistiken oder andere statistische Auswertungen oder Profildarstellungen. Ein Beispiel dieser Art sind statistische Auswertungen von Photolineationen, also von linearen Elementen im Landschaftsbild, die auf geologische Strukturen schließen lassen. Um die horizontale Verteilung der Zahl oder auch der Länge der linearen Elemente zu analysieren, kann man sie in Kluftrosen oder Richtungshistogrammen darstellen.

Bei anderen Aufgaben können die Auswerteergebnisse zweckmäßigerweise in Form von Profilen wiedergegeben werden, beispielsweise zur Darstellung des Verlaufs der Oberflächentemperaturen eines Flusses ober- und unterhalb eines Zuleiters aus einem Wärmekraftwerk.

Mit Hilfe von Bildklassifizierungsalgorithmen lassen sich z. B. verschiedene Bodenbedeckungsarten leichter unterscheiden. Bei der Bildklassifizierung werden die spektralen Informationen der einzelnen Bildpixel verwendet. Ein Programm, das Bildklassifizierungsalgorithmen verwendet, kann die Pixel automatisch gruppieren, was als unüberwachte Klassifizierung bezeichnet wird. Der Benutzer kann auch Bereiche mit bekannter Bodenbedeckung angeben, um das Programm darauf zu trainieren, ähnliche Pixel zu gruppieren; dies wird als überwachte Klassifizierung bezeichnet. Karten oder Bilder können auch in ein geographisches Informationssystem (GIS) integriert werden, und dann kann jedes Pixel mit anderen GIS-Daten, wie etwa Volkszählungsdaten, verglichen werden.

Weitere Informationen über die Integration geowissenschaftlicher Daten der NASA in ein GIS finden Sie auf der Seite Earthdata GIS.

Satelliten sind häufig mit einer Reihe von Sensoren ausgestattet, die biogeophysikalische Parameter wie die Temperatur der Meeresoberfläche, Stickstoffdioxid oder andere atmosphärische Schadstoffe, Winde, Aerosole und Biomasse messen. Diese Parameter können durch statistische und spektrale Analyseverfahren ausgewertet werden.

Data Pathfinders

Um den Einstieg in die anwendungsbezogene Forschung mit Fernerkundungsdaten zu erleichtern, bieten beispielsweise die Data Pathfinders der NASA eine Anleitung zur Auswahl von Datenprodukten, die sich auf bestimmte wissenschaftliche Disziplinen und Anwendungsbereiche, wie die oben genannten, konzentrieren. Die Pathfinder bieten direkte Links zu den am häufigsten verwendeten Datensätzen und Datenprodukten aus den geowissenschaftlichen Datensammlungen der NASA sowie Links zu Tools, die Möglichkeiten zur Visualisierung oder Unterteilung der Daten bieten, mit der Option, die Daten in verschiedenen Dateiformaten zu speichern.

Die Rolle des Menschen bei der Datensammlung und -analyse

Es ist wichtig, die Motivation hinter der Technologieentwicklung zu verstehen und zu erkennen, wie die Technologie zum breiteren gesellschaftlichen, politischen und wirtschaftlichen Rahmen von Geoinformationssystemen, Wissenschaft und Aufklärung beiträgt, unabhängig davon, ob es sich um militärische, wirtschaftliche, soziale oder umweltbezogene Anwendungen handelt.

In einem bahnbrechenden Lehrbuch der Fernerkundung ('Remote Sensing of the Environment: An Earth Resource Perspective'), beschreibt John Jensen Faktoren, die einen hervorragenden Bildanalysten auszeichnen. Er sagt: "Es ist eine Tatsache, dass einige Bildanalysten anderen Bildanalysten überlegen sind, weil sie:

  1. die wissenschaftlichen Prinzipien besser verstehen,
  2. weiter gereist sind und viele Landschaftsobjekte und geographische Gebiete gesehen haben, und/oder
  3. wissenschaftliche Prinzipien und reales Wissen synthetisieren können, um zu logischen und korrekten Schlussfolgerungen zu gelangen.

Der Mensch wählt das am besten geeignete Fernerkundungssystem aus, um die Daten zu erfassen, legt die verschiedenen Auflösungen der Fernerkundungsdaten fest, kalibriert den Sensor, wählt die Plattform aus, die den Sensor trägt, bestimmt, wann die Daten erfasst werden, und legt fest, wie die Daten verarbeitet werden." (Jensen, 2007)

Weitere Informationen:

Bildkachel

Ein Orthophotomosaik besteht aus Einzelorthophotos, die ähnlich einem Mosaik aneinandergefügt werden. Um die jeweils zu verarbeitende Datenmenge möglichst gering zu halten, werden solche Mosaike oftmals in Bildkacheln eingeteilt (z. B. in Kacheln zu je einem km²).

Bildkoordinatenbereinigung

Rechnerische Beseitigung aller Unterschiede zwischen den gemessenen Bildkoordinaten und den auf den kalibrierten Hauptpunkt als Ursprung bezogenen und wegen Deformationen, Verzeichnung und Refraktion verbesserten Bildkoordinaten.

Bildkorrelation, digitale

Engl. digital image correlation; ein häufig verwendetes Verfahren der Bildzuordnung auf der Basis von Grauwerten, also rasterorientierter Information. Die Zuordnung arbeitet mit den originären Grauwerten. Eine Mustermatrix M wird, wie in der Abbildung schematisch dargestellt, pixelweise über eine größere Suchmatrix S eines zweiten Bilds geschoben. Die Matrizen bestehen aus r Zeilen (row) und c Spalten (column). Ein Maß für die Ähnlichkeit zweier Muster ist der Kreuzkorrelationskoeffizient ρ. Dieser wird in jeder Position für alle gemeinsamen Bildelemente beider Matrizen aus den Standardabweichungen und der Kovarianz der Grauwerte berechnet.

Digitale Bildkorrelation digitale_bildkorrelation_lres Quelle: Santel 2001

Bildmaßstab

Engl. image scale, franz. échelle d’image; nach DIN 18716 das"Verhältnis Bildstrecke zur entsprechenden Objektstrecke", verbunden mit den Anmerkungen: "Durch die digitale Aufnahmeregistrierung ist die Relevanz des Begriffs Bildmaßstab auf den Begriff Bodenauflösung (GSD) übergegangen. Bei nicht georeferenzierten Bildern kann nur ein ungefährer (mittlerer) Bildmaßstab angegeben werden."

Bildmatrix

Ein geordnetes Feld von Bildelementen: Ein digitales Bild besteht aus einer Bildmatrix, die eine regelmäßige Anordnung von Pixeln darstellt. Sie gliedert sich in Bildzeilen (rows) und Bildspalten (columns). In der Fernerkundung ist in der Regel der Nullpunkt in der linken oberen Ecke.

Bildmatrix Bildmatrix

1 Quadrat = 1 Bildelement = 1 Pixel (Picture Element)

Nachbarschaftsbeziehungen von Pixeln

Nachbarschaftsbeziehungen

Jedem Pixel können bestimmte Nachbarschaftsbeziehungen zugewiesen werden
(links 4, rechts 8 Nachbarn).

Quelle: geoinformation.net

Bildqualität

Engl. image quality, franz. qualité d’image; nach DIN 18716  "Aufgaben- und sensorspezifische Eigenschaften der Daten", verbunden mit der Anmerkung: "Die Qualität wird anhand von speziellen Parametern definiert, z.B. Signal-Rausch-Verhältnis (SNR) und Punktbildverschmierungsfunktion (PSF)."

Bildrestaurierung

Engl. image restoration; die Wiederherstellung eines Bildes durch Korrektur von bekannten oder geschätzten Verzerrungen und Störungen wie Verwaschung, Rauschen, Bewegungsunschärfe, Defokussierung, Vibrationen und geometrische Verzeichnung.

Bildschärfe

Engl. image definition, franz. netteté des images; nach DIN 18716 ein "Qualitätsparameter, der durch die PSF des Systems beschrieben wird".

Bildstabilisierung

Engl. image stabilisation, franz. stabilisation d’image; nach DIN 18716 die "mechanische, elektronische oder bildverarbeitungsbasierte Kompensation der Bewegungsunschärfe", verbunden mit der Anmerkung: "Mechanische Lösungen sind kreiselstabilisierte Kamera-Aufhängung und Forward Motion Compensation (FMC). Elektronische Lösungen verwenden TDI."

Bildstatistik

Engl. image statistics; digitale Bilder oder Teilbilder können durch verschiedene statistische Parameter beschrieben werden:

Bildstreifen

Engl. image oder flight strip, franz. bande des images; nach DIN 18716 eine "Reihe aufeinanderfolgender Bilder".

Bildtiefe

Engl. bit depth; die Anzahl der Bits eines Bildpixels zur Darstellung des Grauwertumfanges je Spektralkanal.

Bildtransformation

Engl. transformation, franz. transformation; die geometrische (z. B. der Übergang zwischen zwei Koordinatensystemen) und/oder radiometrische Veränderung eines Bildes.

Bildtrennung

Die Trennung zweier überlagerter Halbbilder eines Stereobildes durch Strahlenauslese. Sie ermöglicht die augenrichtige Zuordnung der Strahlen für die stereoskopische Betrachtung. Die Bildtrennung kann auf unterschiedlichste Weisen geschehen (analog z.B. durch Anaglyphenverfahren, digital durch Polarisation).

Bildüberlagerung

Grauwertbilder aus verschiedenen Spektralbereichen einer Satellitenbildszene können digital überlagert werden, wenn die Rasterdaten geometrisch konvergent sind. Bei Überlagerungen multitemporaler Satellitenbildszenen oder zur Mosaikbildung bedarf es der Rektifizierung der Daten, d.h. der rechnerischen Entzerrung über Passpunkte.

Bildverarbeitung

Engl. image processing, franz. traitement d' image; alle Verfahren, mit denen digitale Bilder gezielt bearbeitet und verändert werden um damit Informationen aus den digitalen Bilddaten zu extrahieren. Hierzu gehört u.a. das Erkennen von Bildinhalten durch geeignete Klassifizierungsverfahren.

Nach DIN 18716 Verfahren, mit denen Bilddaten vorverarbeitet, verarbeitet und interpretiert werden, um Informationsprodukte zu erzeugen".

Bildverarbeitung umfasst eine Vielzahl von Operationen zur Restaurierung, Verbesserung, Aufbereitung und Analyse von Bild- bzw. Rasterdaten. Unabhängig vom Aufnahmeverfahren von Bildern ist eine Verarbeitung nötig, um die Bilder sinnvoll verwenden zu können. Elektronisch gewonnene Bilder können direkt weiterverarbeitet werden, analog aufgenommene Bilder müssen zunächst digitalisiert werden. Ein Computer zerlegt dann ein Bild in Millionen kleine Informationseinheiten (Pixel) und benutzt mathematische Formeln um den Farbkontrast und die Intensität der Pixel zu manipulieren. Jedes Bild kann auf verschiedene Weise neu zusammengesetzt werden, um spezielle Charakteristika oder Objekte hervorzuheben, die im ursprünglichen Bild verborgen waren. Die digitale Bildverarbeitung ist Basis der Fernerkundungsmethoden. Viele ihrer Teilschritte können automatisiert ablaufen. Die Grenzen der Automatisierung liegen dort, wo 'lebensweltliches' Wissen für eine korrekte Interpretation der Daten erforderlich ist. Dies kann bei der nachrichtendienstlichen Verwertung von Satellitenaufnahmen der Fall sein oder im Bereich der Archäologie.

Bildverarbeitung erlaubt:

Im GIS-Umfeld zählen zur Aufbereitung im Wesentlichen Entzerrung und Filter, sowie die Bearbeitung durch Editieren (Raster-Editor) bzw. Kombination von Einzelbildern (Überlagerung, Mosaicking). Wichtige Analyseverfahren sind statistische Methoden (z.B. Histogramm-Berechnung), Klassifizierung und Mustererkennung. Grundsätzlich kann man Bildverarbeitung als Transformation des Ausgangsbildes in ein Ergebnisbild verstehen.

Weitere Informationen:

Bildverarbeitungsfilter

Engl. filtering, franz. filtrage; nach DIN 18716 "Transformationen, die auf punktweisen, lokalen und globalen Operationen basieren, durch die Bildstrukturen verändert werden". Folgende Beispiele werden angeführt:

Folgende Anmerkung zum Begriff ist beigefügt: "Neben den in der Bildverarbeitung als Filter bezeichneten Verfahren werden (optische) Filter in der Aufnahmetechnik verwendet."

Bildverband

Engl. image block, franz. bloc d’images; nach DIN 18716 eine "Anordnung von sich überlappenden Bildern".

Bildverbesserung

Engl. image enhancement, franz. perfectionnement d'image; jede Operation, die das Aussehen eines Bildes für das menschliche Auge verbessert wird, und durch die anschließende Auswertungsvorgänge (z.B. visuelle Interpretation) einfacher oder zuverlässiger werden (z. B. Kontraständerung, Histogrammstreckung, Filterung, Kombination verschiedener Spektralkanäle). Sie können aber auch Vorverarbeitungsschritte für nachfolgende Bildsegmentierung und Bildinterpretation sein.

Zu den Techniken der Bildverbesserung zählen einfache Kontrastverstärkungen (z. B. durch lineare Skalierung, Äquidensitenbildung, Histogrammebnung), aber auch komplexe Verfahren der digitalen Filterung und der Hauptachsentransformation. Verbesserung ist stets auf eine bestimmte Anwendung hin orientiert. Die Methoden helfen bei der visuellen Interpretation bzw. Klassifikation von Elementen in dem Bild.

Bildverzeichnung

Engl. image distortion; nach DIN 18716 der "Fehlervektor der Abweichung eines Bildpunktes von seiner perspektiven Sollposition (Vorzeichen entgegen einer Verbesserung), dessen Komponenten radiale und tangentiale Verzeichnungen sind", ergänzt durch: "Die Bestimmung der Bildverzeichnung erfolgt mittels aufgenommener Prüfobjekte (im Labor) oder Prüffelder (unter praktischen Einsatzbedingungen) bekannter Geometrie oder durch Selbstkalibrierung. Bei Selbstkalibrierung gelingt Bildkalibrierung mittels der geometrischen Beziehungen mehrfach überdeckender Bilder identischer Objekte".

Bildvorverarbeitung

Engl. image pre-processing; nach DIN 18716 der "Anwendung von Verfahren, durch die Bilder für die spätere Verarbeitung aufbereitet werden", ergänzt durch folgende Anmerkungen: "Dazu gehört das Aufsuchen und genäherte Beseitigen von Störungen wie

Bildzuordnung

Engl. image matching; die automatische Bestimmung von einander entsprechenden Punkten in zwei Bildern. Es werden unterschieden:

bilineare Interpolation

Engl. bilinear interpolation; Verfahren des Resampling, bei dem der Grauwert für die neue Pixelposition aus dem gewogenen Mittel der Grauwerte der vier nächstgelegenen alten Pixel berechnet wird. Hierzu wird zwischen den Grauwerten entsprechend den Abständen zur neuen Pixelposition in zwei Richtungen linear, d.h. bilinear, interpoliert. Die bilineare Interpolation führt zur Glättung von Grauwertübergängen. Dies hat den Vorteil, daß das Bild nicht blockig oder kantig wirkt, gleichzeitig aber den Nachteil, daß Grauwertgrenzen etwas abgeschwächt werden und Signaturdifferenzen zwischen Objektklassen eventuell etwas verwischt werden (Tiefpasseffekt). Der Rechenzeitaufwand erhöht sich um etwa den Faktor zehn gegenüber einer Grauwertzuweisung nach dem Nearest-Neighbour-Verfahren.

Binärbild

Digitale Rastergrafik, deren Pixel nur die zwei Farben Schwarz und Weiß annehmen können. Jedes Pixel kann also mit einem Bit gespeichert werden. Die Kodierung der Pixel erfolgt meist mit dem Wert 0 für Schwarz und 1 für Weiß, der umgekehrte Fall existiert allerdings auch.

Binärbilder finden ihre Anwendung vor allem

Binarisierung bezeichnet die Erzeugung eines Binärbildes aus einem Graustufen- oder einem in einem Zwischenschritt zum Graustufenbild umgewandelten Farbbild. Eine einfache Binarisierungsmethode ist das Schwellenwertverfahren. Je nachdem, ob der Grauwert eines Pixels über oder unter einem bestimmten Schwellenwert liegt, wird er Schwarz oder Weiß. Maßgeblich ist dabei die Wahl des Schwellenwertes; dieser muss nicht notwendigerweise bei 50 % liegen.

Bing Maps

Internet-Kartendienst von Microsoft, durch den sich verschiedene raumbezogene Daten betrachten und raumbezogene Dienste nutzen lassen. Bing Maps war früher unter den Bezeichnungen Windows Live Maps, Windows Live Local und Live Search Maps bekannt und ist als Teil der umfassenden Suchmaschine Bing eine Weiterentwicklung des MSN Virtual Earth. Die Daten und Dienste werden durch die Bing-Maps-for-Enterprise-Plattform zur Verfügung gestellt.

Das kostenlose Internetangebot von Landkarten schließt Satellitenbilder und Luftbilder ein. Eine Besonderheit gegenüber anderen Internet-Kartendiensten wie Yahoo Maps sind Schrägluftbilder aus der Vogelperspektive, die meist aber nur in urbanen Gebieten verfügbar sind. Außerdem stehen für verschiedene Städte 3D-Modelle zur Verfügung, die sich nach Installation eines Plugins im Browser in 3D betrachten lassen. Neben den bereitgestellten Daten lassen sich verschiedene Dienste nutzen, unter anderem zur Ortssuche und Routenplanung.

Bing Streetside ist ein Pendant zu Google Street View, welches in der Weihnachtszeit 2011 in mehreren deutschen Städten veröffentlicht wurde. Zur Weihnachtszeit 2011 wurden Aufnahmen mehrerer deutschen Städte veröffentlicht. Für die Tatsache, dass die Bilder seit Anfang Mai 2012 nicht mehr verfügbar sind, liefert Bing als Begründung nicht näher definierte datenschutzrechtliche Probleme. Bis Mai 2012 waren die Städte München, Augsburg, Ingolstadt, Nürnberg, Stuttgart, Karlsruhe, Pforzheim, Heidelberg, Mannheim, Darmstadt (Aufnahmezeitraum November/Dezember 2011), Frankfurt am Main mit Wiesbaden und Mainz, Düsseldorf, Duisburg und Essen sowie deren nähere Umgebung, Berlin nur teilweise einsehbar. Die Aufnahmen hierfür begannen am 23. Mai 2011.

Weitere Informationen:

Biomass

Bezeichnung für die siebte Earth-Explorer-Mission der ESA. Der Satellit soll soll erstmals spezielle Radarmessungen aus dem All durchführen, mit denen die Biomasse und der in den Wäldern der Erde gespeicherte Kohlenstoff mit bislang unerreichter Genauigkeit erfasst und überwacht werden kann. Die Wälder der Erde und der in ihnen gebundene Kohlenstoff spielen eine große Rolle im Kohlenstoffkreislauf der Erde und sind ein wichtiger Faktor in Modellen über den Klimawandel. Besonders über die Tropen gibt es bislang jedoch nur wenig exaktes Datenmaterial.

ESA’s Biomass Earth Explorer over Forest
ESA’s Biomass Earth Explorer Quelle: ESA

Ziel der Biomasse-Mission ist es, die globale Verteilung der Waldbiomasse zu bestimmen, indem die Unsicherheit bei der Berechnung der Kohlenstoffbestände und -flüsse in der terrestrischen Biosphäre verringert wird.

Informationen über die Biomasse in den tropischen Wäldern sind zudem für eine Initiative der Vereinten Nationen (REDD+) von Bedeutung, mit denen die Abholzung von Wäldern und die Bodendegeneration insbesondere in Entwicklungsländern reduziert werden soll. Der Biomass-Satellit stellt zudem eine Ergänzung für die Ergebnisse des Biomasar-Projekts dar, insbesondere für Tropenregionen.

Man erwartet, dass die Daten auch für das Gletschermonitoring und die Bewegungs- und Dickenmessung von Eisschilden verwendet werden können, ferner für die Erkundung des geologischen Untergrundes in Wüsten und für die Kartierung der Topographie von Waldböden. Dies gilt auch für die Bodenfeuchte, Permafrost und den Salzgehalt der Meeresoberflächen.

Mit Biomass sollen erstmals Radarmessungen mit einer Wellenlängen von knapp 70 cm aus dem All durchgeführt werden, um mit der Beobachtung unter die Baumkronen vorzudringen. Darüber hinaus wird der Satellit Beobachtungsdaten zu Veränderungen in der Waldfläche liefern.

Die auf 5 Jahre ausgelegte Mission setzt ein neuartiges polarimetrisches P-Band-Radar mit synthetischer Apertur ein, das mit einer Bandbreite von 435 MHz (ca. 69 cm) arbeitet. Die Signalübertragung erfolgt bei 6 MHz. Der Satellit wird sich auf einem polnahen sonnensynchronen Orbit in einer Höhe zwischen 637 und 666 km befinden, je nach Missionsphase. Der Start von Biomass ist für April 2024 vorgesehen.

Biomass - Infografik vegetationsindizes Quelle: ESA

Weitere Informationen:

Biomasse

Mit dem Begriff Biomasse wird die Stoffmasse von Lebewesen oder deren Körperteile bezeichnet. Als Menge dieser Stoffgemische gilt ihre Masse (Einheit: Kilogramm). In der Ökologie wird die Biomasse häufig nur für ausgesuchte, räumlich klar umrissene Ökosysteme oder nur für bestimmte, einzelne Populationen erfasst. Gelegentlich gibt es zudem Versuche, die Biomasse der gesamten Ökosphäre abzuschätzen. In der Ökologie existiert kein einheitlicher Biomasse-Begriff. In der Energietechnik bezieht sich der Begriff nur auf energetisch nutzbare Biomasse.

Trotz dieser definitorischen Unsicherheiten ist z.B. die Bestimmung der oberirdischen Biomasse ein wichtiger Forschungsschwerpunkt, da ihr insbesondere im Hinblick auf den aktuellen globalen Wandel eine große Bedeutung zukommt. Da Vegetation in der Lage ist, Kohlendioxid aus der Atmosphäre aufzunehmen und als Biomasse zu speichern, spielt sie eine wesentliche Rolle im Kohlenstoffkreislauf und ist ein wichtiger Bestandteil verschiedener Strategien zur Reduzierung des atmosphärischen CO2-Gehalts.

Zur Bestimmung der Biomasse können Daten verschiedener Fernerkundungssatelliten herangezogen werden. Die Wahl der Datenbasis wird entscheidend beeinflusst durch den geünschten Maßstab der Kartierung, die benötigte Genauigkeit, die Kosten, die Verfügbarkeit historischer Datensätze sowie die Möglichkeit der Aufnahme von Zeitserien, die ein kontinuierliches Monitoring ermöglichen.

Erste Untersuchungen zur möglichen Ableitung oberirdischer Biomasse aus Fernerkundungsdaten gehen auf die 1980er Jahre zurück. Dies geschah vornehmlich mit optischen Sensoren wie dem NOAA-AVHRR und dem Landsat-TM. Bei der optischen Fernerkundung wird das von der Sonne emittierte und danach an der Erdoberfläche reflektierte Licht im sichtbaren und im nahen Infrarot-Bereich empfangen.

Bei der Ableitung von oberirdischer Biomasse auf der Basis von optischen Fernerkundungsdaten werden meist Vegetationsindizes eingesetzt, die Informationen über die Struktur, den Zustand und die phänologische Aktivität der Vegetation enthalten. Der am weitesten verbreitete Vegetationsindex ist der NDVI (Normalized Difference Vegetation Index). Weitere häufig verwendete Indizes sind der EVI (Enhanced Vegetation Index) sowie der SAVI (Soil Adjusted Vegetation Index), der eine Bodenbereinigung des Signals beinhaltet.

vegetationsindizes Beispiele für Vegetationsindizes

NDVI (Normalized Difference Vegetation Index) - EVI (Enhanced Vegetation Index) - SAVI (Soil Adjusted Vegetation Index)

Legende:

NIR - naher Infrarot-Kanal

Rot - roter Kanal

Blau - blauer Kanal

C1, C2 - Korrekturterme für Aerosole für verschiedene Kanäle

L - Korrekturterm für Bodenbedeckung

Quelle: Ley et al. 2011

Vegetationsindizes hängen von verschiedenen Parametern ab, z.B. dem Bedeckungsgrad und dem Blattflächenindex (LAI, Leaf Area Index) und erlauben somit eine indirekte Bestimmung der Biomasse.

Eine andere, relativ einfache, indirekte Methode zur Biomasse-Abschätzung besteht in der Stratifizierung der Erdoberfläche in weitgehend homogene Vegetationsklassen, denen dann eine durchschnittliche Biomassedichte (in kg/ha) zugewiesen wird. Mögliche Attribute zur Klassifizierung, die aus Fernerkundungsdaten abgeleitet werden können, sind Bedeckungsgrad, Kronenschlussgrad, Vegetationsart (Genus), Hauptspezies, Wuchsform (Baum, Strauch usw.) sowie Höhe.

Eine weitere Möglichkeit, oberirdische Biomasse mit Fernerkundungsdaten zu bestimmen, ist die Verwendung von Radarsystemen. Diese aktiven Systeme senden und empfangen elektromagnetische Strahlung und werden nach verschiedenen Wellenlängen unterschieden, die eine unterschiedliche Eindringtiefe in die Vegetation aufweisen. Kurzwellige Strahlung, wie beim X-Band- und beim C-Band-Radar, wird hauptsächlich an Blättern und dünnen Ästen der oberen Kronenschicht reflektiert, während Signale des langwelligen L-Band- oder sogar P-Band-Radars kleinere Vegegtationsbestandteile durchdringen und von dicken Ästen und Stämmen reflektiert werden. Diese wellenlängenabhängige Empfindlichkeit für unterschiedliche Komponenten der oberirdischen Biomasse kann auch verwendet werden, um gezielt Blatt- oder Stammbiomasse zu bestimmen. Wie auch bei den optischen Daten kommen überwiegend Regressionsansätze zum Einsatz, die den Zusammenhang zwischen der im Feld gemessenen Biomasse und der gemessenen Rückstreuung beschreiben.

Auch die Radarinterferometrie (InSAR) kann zur Biomassebestimmung eingesetzt werden. Bei diesem Verfahren werden Vegetationshöhen bestimmt, die als Proxy für Biomasse verwendet werden. Für sehr dichte und hohe Vegetation mit hohen Biomassewerten kann es dazu kommen, dass eine weitere Zunahme der Biomasse nicht mehr von Satelliten detektiert werden kann. Man spricht dann von einer Sättigung des Signals. Eine Steigerung der Sensitivität von Radardaten für die Bestimmung von Biomasse kann durch die Verwendung einer Kombination von interferometrischen und polarimetrischen SAR-Daten (Pol-InSAR) erreicht werden.

LIDAR-Systeme werden ebenfalls für die Biomassebestimmung eingesetzt, insbesondere für die von Wäldern. Hierbei wird, ähnlich wie bei den Radarsystemen, aktiv Strahlung emittiert und die rückgestreute Energie gemessen. Bisher sind vor allem flugzeuggetragene Sensoren für die Biomasse-Kartierung zum Einsatz gekommen.

BIRD

Engl. Akronym für Bispectral Infra-Red Detection; 2001 von Shriharikota aus mit einer indischen Rakete (PSLV-C3) und gemeinsam mit dem indischen Hauptsatelliten TES sowie dem ESA-Satelliten PROBA in einen 572 Kilometer hohen, sonnensynchronen Orbit gebrachter Kleinsatellit des DLR. Seine Mission ist seit 2006 beendet.

Die Inklination betrug 97,8°. Der mit zwei Sonnensegeln ausgestattete, würfelförmige Satellit sollte auf seiner Mission belegen, dass vom Weltraum aus Waldbrände, insbesondere ihre Ausdehnung und die auftretenden Flammentemperaturen, frühzeitig bestimmt werden können. Er arbeitete noch nicht im operationellen Routine-Einsatz, sondern helfen neuartige Satelliten- und Sensor-Technologien sowie wissenschaftliche Methoden zu erproben, um sie später auf anderen Plattformen einzusetzen.
Eine besondere Qualität der wissenschaftlichen Daten wurde durch die Kombination des zweikanaligen Infrarot-Sensorsystems mit einer Drei-Zeilen-Stereokamera erwartet. Die beiden Kameras versprachen neue Anwendungspotentiale für die Beobachtung von Vegetationsbränden, Vulkan-Aktivitäten sowie zur Unterscheidung von Wasserdampfwolken und Rauchwolken und für Vegetationsanalysen.

Weitere Informationen:

BIROS

Engl. Akronym für Berlin InfraRed Optical System; BIROS ist ein kleiner Erdbeobachtungssatellit des DLR, der als Teil der Mission FireBIRD die Aufgabe hat, Waldbrände - beziehungsweise allgemein sogenannte Hochtemperaturereignisse - aus dem Weltraum aufzuspüren. Er wurde am 22. Juni 2016 mit einer PSLV-Trägerrakete vom Raketenstartplatz Satish Dhawan Space Centre (zusammen mit Cartosat 2C und 18 weiteren Satelliten) in eine sonnensynchrone Umlaufbahn gebracht.

BIROS komplettiert das FireBIRD-Duo, ist aber keine einfache Kopie seines vier Jahre älteren Vorgängers TET-1, sondern eine weiterentwickelte Variante. Der dreiachsenstabilisierte Satellit ist mit einem aus drei Kameramodulen bestehenden Infrarotsystem zur quantitativen Analyse von Hochtemperaturereignissen ausgerüstet und soll Waldbrände und ähnliche Ereignisse entdecken. Das Kamerasystem besteht aus drei unabhängigen Zeilenkameras, davon eine im sichtbaren und infraroten Bereich (VNIR - Visible Near Infrared, 0,5 µm, 0,6 µm, 0,8 µm) mit einer Auflösung von etwa 50 m und einer Schwadbreite von 210 km und zwei Infrarotkameras im mittleren (3,4 - 4,2 µm) und langwelligen Infrarot (8,5 - 9,3 µm) mit einer Auflösung unter 200 m und einer Schwadbreite von etwa 180 km. Der Satellit besitzt eine geplante Lebensdauer von mehr als 2,5 Jahren.

Kleinsatellit BIROS und TET-1: Die „Feuerlupen“ der FireBIRD-Mission Kleinsatellit BIROS und TET-1: Die „Feuerlupen“ der FireBIRD-Mission Quelle: DLR

BIROS verfügt im Gegensatz zu TET-1 nicht nur über einen höheren Nutzlastanteil von 46 statt 42 Prozent, sondern auch über ein eigenes Antriebssystem. Ein Kaltgasantriebssystem befähigt ihn, Orbitmanöver durchzuführen und somit seine Lage auf der Umlaufbahn aktiv zu variieren. So kann er die Konstellation zu seinem Brudersatelliten gezielt verändern.

Beide Satelliten umkreisen unseren Heimatplaneten in einer Höhe von etwa 500 Kilometern in einem Orbit, der sie über die Pole führt. Diese polaren oder auch sonnensynchronen Orbits sorgen dafür, dass die Satelliten den Äquator stets zur gleichen Ortszeit überqueren: TET-1 um 11:30 Uhr und BIROS um 9:30 Uhr. Dabei bewegen sich die Satelliten zueinander um einen halben Orbit versetzt, sodass der eine um 9:30 Uhr den nullten Breitengrad von Nord nach Süd passiert, während der andere um 10:30 Uhr von der Süd- auf die Nordhalbkugel wechselt. Für eine komplette Umrundung benötigen sie 90 Minuten und schaffen somit pro Tag 16 Umrundungen entlang der Längengrade. Nach etwa 20 Tagen haben sie die Erdoberfläche mit ihren hochempfindlichen Sensorsystemen vollständig über alle Breitengrade abgetastet. Dabei bewegen sie sich zueinander in freier Konstellation, nicht etwa in fester Formation wie Satelliten anderer Missionen.

Beim BIROS-Satelliten sollen die Position und bestimmte Feuerparameter wie z.B. Temperatur, Energie, Fläche  von bereits aktiven oder gerade entstehenden Brandherden direkt auf Mobilfunkgeräte übertragen werden. Dafür werden die Bilddaten an Bord bereits prozessiert und die Ergebnisse über ein spezielles Modem als „SMS“ versandt. BIROS wird  im Unterschied zu TET-1  mit einem Antriebssystem ausgerüstet sein. Dadurch können die Konstellationen mit dem TET-1 gezielt verändert werden. Mit einem neuen System aus besonders starken Reaktionsrädern kann der Satellit schnelle präzise Schwenkbewegungen ausführen, wie man sie z.B. für wiederholte Aufnahmen eines Ziels unter verschiedenen Blickwinkeln benötigt. Diese Agilität gestattet ihm auch das schnelle Wechseln von einem Aufnahmeziel zu einem anderen. Die an Bord befindlichen drei verschiedenen Laserkommunikationssysteme benötigen ebenfalls eine präzise Ausrichtung der sendenden Laserstahlen auf eine optische Bodenstation. Sollte eine Station durch Wolken blockiert sein, wird die Agilität genutzt, um schnell auf eine alternative Station zu wechseln. Die Laserkommunikation soll es gestatten, die Daten, deren Downlink zur Erde sonst einen ganzen Tag und mehrere Funkkontakte zur konventionellen Bodenstation benötigt, in wenigen Sekunden Kontaktzeit mit einer optischen Bodenstation zu senden.

Neben der eigentlichen Feuerfernerkundung dient der Satellit auch der Technologieerprobung für die Kleinsatellitentechnik. Dazu hat er neben einem neuen Kaltgasantrieb, ein Laser-Kommunikationssystem und High-Torque-Wheels auch zusätzliche Experimente an Bord. So den an der TU Berlin gebauten BEESAT-4 einen Picosatelliten der von BIROS separiert wird und mit ihm im Formationsflug über einen InterSatellite-Link kommuniziert und AVANTI, ein Experiment zur Erforschung von Formationsflügen.

Weitere Informationen:

Bit

Ein Bit gibt in der Fernerkundung an, wie viele Grauwerte ein spektraler Sensor unterscheiden kann. Je höher die Bit-Zahl desto höher die Anzahl der Grauwerte, die ein Sensor unterscheiden kann, und desto höher die radiometrische Auflösung eines Spektralsensors. Bei 1 Bit kann ein Sensor nur schwarz und weiß wiedergeben. Bei 2 Bit sind es schon vier Grauwerte und bei 4 Bit 16. Die Rechnung ist also ganz einfach: 2 hoch Bit = Grauwertzahl.

Die Bittiefe eines Sensors gibt die maximale Anzahl von Werten an, die er pro Spektralband messen kann. Je höher die Bittiefe, desto mehr Informationen kann er messen und desto empfindlicher reagiert der Sensor auf unterschiedliche Beleuchtungswerte (digitale Zahlen) der Planetenoberfläche.

Wenn ein Instrument einen Bereich abbildet, wird jedes Pixel auf einer bestimmten Anzahl von Bits (typischerweise 8 bis 16 Bit) pro Band dargestellt. In der Praxis bezieht sich dies auf die Anzahl der Farbtöne, die aufgezeichnet werden können: Ein 8-Bit-Instrument unterscheidet zwischen 28=256 Farben, während ein 12-Bit-Instrument die Intensität nach einer Skala von 212=4.096 Farbtöne misst. Eine verbesserte Bittiefe, auch radiometrische Auflösung genannt, unterstützt die Fähigkeit, Details in den hellsten und dunkelsten (Schatten-)Bereichen eines Bildes zu erkennen.

Blattflächenindex (BFI/LAI)

Engl. leaf area index (LAI); Messzahl für die Belaubungsdichte der Pflanzendecke. Der BFI gibt an, wie groß die einseitig (von oben) gemessene Oberfläche sämtlicher grünen Blätter bzw. Nadeln der Pflanzen über einer bestimmten Bodenfläche ist:

BFI/LAI = Gesamtsumme der Blattflächen : Bodenoberfläche

Der BFI wird aus den spektralen Reflexionswerten der einzelnen Kanäle eines Sensors bestimmt und steht im Zusammenhang mit der Biomasse, der photosynthetischen Aktivität und Produktivität. Existieren keine Blätter oder Nadeln beträgt der LAI = 0 (z.B. auch Straßen und Seen), entspricht die Blattfläche der horizontalen Bodenfläche ist er = 1, ist die Blattfläche doppelt so groß wie die Bodenfläche ist er = 2 usw. Bei Laub- und Nadelbäumen ist normalerweise die gegen den Himmel zu sehende Fläche (Projektionsfläche) der Blätter bzw. Nadeln gemeint. Interessiert die gesamte Oberfläche der Blätter bzw. Nadeln, spricht man vom zweiseitigen LAI, der doppelt so groß ist wie der einseitige.

Bei vitaler Vegetation erreicht der LAI Werte zwischen 0,45 (bei nivalen Polsterplanzen) und 14 bei Hochstaudenfluren, in den immergrünen Wäldern der Westküste der USA beträgt der LAI 16, und in Ausnahmefällen wird der Wert 20 bei seitlicher Strahlung erreicht.

Der LAI ist ein wichtiger Parameter, der bei der Fernerkundung verwendet wird, um viele biologische und physikalische Prozesse, wie z.B. Primärproduktion, Pflanzenatmung, Transpiration, Photosynthese und Nährstoffkreisläufe zu quantifizieren. Messungen, die an einzelnen Blättern vorgenommen wurden, können damit für ganze Bestände hochgerechnet oder modelliert werden. Voraussetzung ist, daß die durchschnittliche Anzahl der Blätter an einer Pflanze und die Zahl der Pflanzen je Hektar bekannt oder verlässlich geschätzt worden ist.

Beispiel: The Amazon’s Seasonal Secret

2007 entdeckte eine Gruppe von Wissenschaftlern starke, bislang unbekannte Schwankungen der Gesamtgröße der Blattoberfläche Amazoniens, die sich zwischen Regen- und Trockenzeit ergeben. Das Geheimnis wurde durch Messungen der Blattoberfläche aufgedeckt, die vom Spektralradiometer MODIS an Bord des NASA-Satelliten Terra durchgeführt wurden.

Der Regenwald von Amazonien ist ein Gewirr von mehreren Vegetationsschichten, die sich vom Boden bis in die oberen Bereiche des Blätterdaches erstrecken. Schicht für Schicht fangen die Blätter Sonnenlicht ein, inhalieren Kohlendioxid und atmen Sauerstoff und Wasserdampf aus. Die folgende Karte beruht auf dem mehrjährigen Durchschnitt des Blattflächenindex auf der Grundlage von MODIS-Daten. Verständlicherweise ist der Blattflächenindex im gesamten Amazonasgebiet (dunkelgrün) hoch und nimmt gegen die südlich anschließenden Graslandschaften mit ihrer spärlicheren Vergetation (hellgrün) hin ab. Die Anden im Westen und die peruanisch-chilenischen Küsten sind vegetationsarm (beige). Überraschender noch als die saisonalen Änderungen der Blattflächen selbst, sind die Abschnitte des Jahres, in denen sie auftreten.

Große Teile der Amazonasregion erfahren eine ausgeprägte Trockenzeit, manche Gebiete im S und E bekommen sogar über ein halbes Jahr oder länger nur wenig oder gar keinen Regen. Aber Regen scheint in weiten Teilen des Amazonasgebietes nicht der wichtigste Begrenzungsfaktor für Pflanzenwachstum zu sein, zumindest nicht in normalen Jahren. Offensichtlich führt nämlich das Ende der Regenzeit zu neuem Wachstum. MODIS hat beobachtet, dass die Blattfläche während der amazonischen Trockenzeit höher ist als in der Regenzeit.

Blattflächenindex - Südamerika Blattflächenindex - Südamerika

Vertiefende Informationen: The Amazon's Seasonal Secret

Quelle: NASA Earth Observatory

Der LAI kann auch zur Erkennung von Landschaftsmerkmalen eingesetzt werden, wie z.B. Waldbrandschäden, Entwaldung oder Erosionsprozesse auf landwirtschaftlichen Flächen.

Abgesehen davon, daß es verschiedene Methoden der terrestrischen LAI-Bestimmung gibt, werden je nach Zielsetzung der Untersuchungen auch verschiedene modifizierte Indizes gemessen. Wesentlich ist auch, ob die Bruttoproduktionen, d.h. die gesamten Assimilationsleistungen einschließlich des Eigenverbrauchs oder nur die Nettoproduktion bestimmt werden.

Die Fernerkundung bietet vor allem für die großflächige Bestimmung des Blattflächenindexes eine ideale Technologie.

Blitzortung

Bis auf 300 m genaue Erfassung von atmosphärischen Blitzen z.B. mit Hilfe von Kurzwellenempfängern, die das elektromagnetische Signal eines Blitzes einfangen. Gewöhnlich sind Blitzortungs-Stationen in ein Netz eingebunden und an einen Zentralrechner gekoppelt, der die "Fingerabdrucke" des Blitzes ermittelt, das sind seine Polarität und Stromstärke, sowie die genaue Uhrzeit, der Ort des Einschlags und zusätzlich die Zahl der nachfolgenden Blitze. Zur Ortsbestimmung können Peilverfahren oder Laufzeitmessungen und auch die GPS-Technologie eingesetzt werden. Die Daten sind i.d.R. im Internet abrufbar, bzw. im Vorwarnverfahren auch kleinräumig abonnierbar.

Weitere Blitzortungsmethoden nutzen akustische und optische Verfahren. Weltraumbasierte Blitzbeobachtungen werden vom Lightning Imaging Sensor (LIS) im TRMM-Satelliten geliefert, in der Vergangenheit auch vom Optical Transient Detector (OTD, 1995-2000).

Weitere Informationen:

BNSC

Engl. Akronym für British National Space Centre; eine frühere, auf freiwilliger Basis gebildete Partnerschaft von 11 Ministerien und Forschungsbeiräten zur Koordinierung der Aktivitäten Großbritanniens in Bereich der zivilen Raumfahrt. Die Organisation wurde am 1. April 2010 von der UK Space Agency (UKSA) abgelöst.

Boden(pixel)auflösung

Engl. ground sample distance (GSD), franz. résolution au sol; nach DIN 18716 der "Abstand der Mittelpunkte der von einem Sensorelement erfassten Oberflächenelemente bezogen auf eine mittlere Geländehöhe und eine mittlere Flughöhe". Folgende zwei Anmerkungen sind beigefügt:

  1. "Bei der Angabe der GSD von Fernerkundungssystemen wird im Allgemeinen von einer lotrechten Aufnahmerichtung ausgegangen."
  2. "Die Bodenauflösung hat in der Praxis die Angabe des mittleren Bildmaßstabes abgelöst. Je nach Reliefenergie und Aufnahmewinkel kann die lokale Bodenauflösung von einer vorgegebenen Bodenauflösung um ± 30 % abweichen, ohne dass z. B. dadurch die praktische erfahrbare Qualität von Orthophotos berührt wird."

Siehe auch räumliche Auflösung, Auflösung

Bodenbewegungsmonitoring

Überwachung von Bodenbewegungen durch terrestrische, luft- oder satellitengestützte Verfahren, z.T. im Millimeterbereich.

Aktiver Bergbau (Tief- und Tagebau), Tiefbauarbeiten, Kohlenwasserstoffproduktion, untertägige Erdgas- und CO2-Speicherung u.w. führen oft zu Bewegungen der Erdoberfläche. Diese Bodenbewegungen sind meist von geringer Amplitude und erfolgen häufig sehr langsam, können aber plötzliche und weitreichende Folgen haben, die Menschenleben und Infrastruktur zu gefährden vermögen. Bodenverschiebungen sind auch wichtige geophysikalische Signale, die für ein besseres Verständnis der unterirdischen geomechanischen Eigenschaften und Abläufe genutzt werden können.

Bei der satellitengestützten Überwachung kann je nach nach den örtlichen Voraussetzungen, den Nutzeranforderungen sowie dem verfügbaren Budget die gesamte Bandbreite der verfügbaren Satellitensensoren genutzt werden. Um eine zuverlässige und regelmäßige Datenerfassung des Einsatzgebiets sowie eine detaillierte Identifikation der Bodenbewegungen zu gewährleisten, werden z. B. hochauflösende TerraSAR-X Radarsatellitendaten verwendet. Dieser Satellit ist besonders für die Überwachung sich schnell ändernder Bodenbewegungen mit komplexen und/oder kleinen Bewegungsmustern geeignet, da der Satellit den Zielbereich unabhängig von den Wetterbedingungen alle 11 Tage abdecken kann.

Um eine nationale operationelle Nutzung der Copernicus Daten und der InSAR-Technik zu unterstützen, setzt die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) den BodenBewegungsdienst Deutschland (BBD) um. Die erzeugten Daten-Produkte können z.B. von Behörden zur verbesserten Gefahrenabwehr, Raum-, Stadtplanung etc. genutzt werden. Der Kerndatensatz des BodenBewegungsdienstes Deutschland basiert auf bundesweiten Copernicus Sentinel-1-Daten, die mittels des Persistent Scatterer Interferometrie (PSI) Verfahrens verarbeitet werden. Neben diesem, regelmäßig aktualisierten, Datensatz sind optional zusätzliche Auswertungen für ausgewählte Regionen möglich. Diese basieren auf hochaufgelösten SAR Daten von z.B. TerraSAR-X.

Mögliche Ursachen von Bodenbewegungen
Offene Minen und Untertagebau
Höhlensysteme
Öl- und Gasförderung
Ausgrabungen
Speicherung von Erdgas oder CO2
Unterirdische Bauarbeiten
Bau von Infrastrukturen
Bohrungen für Erdwärmesonden, z.B. mit Anhydritaufquellen
Tektonische Aktivitäten Veränderungen des Grundwasserspiegels

Weitere Informationen:

Bodensegment

Engl. ground segment, Sammelbegriff für die gesamte Infrastruktur auf der Erde zur Kontrolle und Steuerung der Satelliten (Missionskontrollzentrum, MCC) sowie zum Empfang und zur Verarbeitung von Satellitendaten (Bodenstationen, Archive, Nutzerschnittstellen). Ein sogenanntes "end-to-end" Satellitensystem besteht aus einem Raum-, einem Transfer- und einem Bodensegment.

Weitere Informationen:

Bodenspur

Die vertikale Projektion des Flugweges eines Luft- oder Raumfahrzeugs auf die Erdoberfläche oder einen anderen Körper. Anschaulich gesprochen kennzeichnet die Bodenspur jene Punktreihe auf der Erdoberfläche, an der z.B. ein Satellit im Zenit erscheint.

Bodenstation

Eine auf der Erdoberfläche befindliche Station zur Beobachtung, Überwachung oder Telemetrie von Flugkörpern inner- oder außerhalb der Erdatmosphäre. Solche Flugkörper sind vor allem Raketen, künstliche Satelliten und Raumsonden sowie Flugzeuge, Ballons und Radiosonden.

Beispielsweise können Satelliten den aufgezeichneten Datenstrom nur in sehr begrenztem Umfang an Bord speichern. Sie sind vielmehr auf Bodenstationen angewiesen, an die sie die Daten direkt übertragen können. Das im Falle des DLR für den Datenempfang erforderliche Bodensegment umfasst neben den Antennenanlagen in Neustrelitz und Oberpfaffenhofen ein internationales Netzwerk von Empfangsstationen, das teils in Kooperation mit öffentlichen und kommerziellen Partnern betrieben wird. Die Stationen sind für den Multimissionsbetrieb ausgerüstet.

Zu den Zielen der Beobachtung gehören die Bestimmung der Flug- oder Satellitenbahn, der Empfang bzw. die Übermittlung von Funksignalen oder Messdaten, die Funkverbindung für Rundfunk oder Telefon und die militärische und zivile Luftraumüberwachung. Zu den verschiedenen Arten von Bodenstationen zählen u.a. Erdfunkstellen, Relaisstationen, Radioteleskope, Satellitenstationen, Radarstationen, Funkleitsysteme.

DLR-Empfangsstation in Inuvik, Kanada DLR Station in Kanada Quelle: DLR

Seit August 2010 betreibt das Deutsche Zentrum für Luft- und Raumfahrt (DLR) in Inuvik seine erste Satellitendaten-Empfangsstation in Kanada. Das DLR nutzt die neue Bodenstation (Inuvik Satellite Station Facility) insbesondere zum Datenempfang für die deutsche Satellitenmission TanDEM-X. Über die im Durchmesser 13 Meter große Antenne können neben den Partnerländern Deutschland und Kanada auch Wissenschaftler aus der ganzen Welt und weitere externe Nutzer auf wichtige Satellitendaten zugreifen und diese weiterverarbeiten und auswerten.

Inuvik liegt jenseits des nördlichen Polarkreises in der westlichen Arktis und stellt die nördlichste, ganzjährig per Straße erreichbare Siedlung Kanadas dar. Dort aufgestellte Antennen erlauben mehrmals am Tag längere Verbindungen zu Erdbeobachtungssatelliten auf polaren Umlaufbahnen.

Bodenstationen sind ein wichtiges Beispiel für die internationale Zusammenarbeit. Das internationale Netz von Bodenstationen ist eine wesentliche Voraussetzung für ein umfangreiches, globales Archiv von Fernerkundungsdaten über Land.

Svalbard Satellite Station oder SvalSat ist eine Satellitenbodenstation auf Spitzbergen, Norwegen. Sie wurde 1997 eröffnet und wird von Kongsberg Satellite Services (KSAT) betrieben, einem Gemeinschaftsunternehmen von Kongsberg Defence & Aerospace und dem Norwegischen Raumfahrtzentrum (NSC). SvalSat und die Troll-Satellitenstation (TrollSat) von KSAT in der Antarktis sind die einzigen Bodenstationen, die einen polumlaufenden Satelliten in niedriger Höhe (z. B. in einer sonnensynchronen Umlaufbahn) bei jeder Umdrehung der Erde sehen können. Im Dezember 2019 besteht die Anlage aus fast 100 Antennen, die in den Bändern C, L, S, X und K betrieben werden und für mehrere Missionen und Kunden bestimmt sind. Die Station bietet Bodendienste für mehr Satelliten als jede andere Einrichtung weltweit.

Svalbard-Bodenstation, Spitzbergen Svalbard-Bodenstation, Spitzbergen Quelle: USGS

Zu den Kunden mit eigenen Anlagen gehören die Europäische Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT), die National Aeronautics and Space Administration (NASA), die Europäische Weltraumorganisation (ESA) und die National Oceanic and Atmospheric Administration (NOAA). Die Station liest und verteilt auch Daten des japanischen Sonnenforschungssatelliten Hinode (2023 noch aktiv). Seit 2004, als das Svalbard Undersea Cable System eine Glasfaser-Internetverbindung herstellte, hat die Zahl der kleineren Kunden stark zugenommen. Konzessionen für das Herunterladen werden nur an zivile Satelliten vergeben, doch einige Daten wurden indirekt von den Streitkräften genutzt. Es herrscht Uneinigkeit darüber, ob dies einen Verstoß gegen den Svalbard-Vertrag darstellt.

Am 7. Januar 2022 wurde ein Unterwasser-Glasfaserkabel zwischen der Svalbard-Satellitenstation und dem norwegischen Festland unter mysteriösen Umständen durchtrennt und außer Betrieb gesetzt. In der offiziellen Pressemitteilung von Space Norway heißt es, dass das Ausmaß des Schadens unklar sei und ein Kabelverlegungsschiff zur Untersuchung und Reparatur benötigt werde.

Weitere Informationen:

Bodenwasserindex

Der Bodenwasserindex (engl. soil water index, SWI) quantifiziert den Feuchtigkeitszustand in verschiedenen Tiefen des Bodens. Er wird hauptsächlich durch den Niederschlag über den Prozess der Infiltration bestimmt. Die Bodenfeuchte ist eine sehr heterogene Variable und variiert auf kleinen Skalen mit den Bodeneigenschaften und Entwässerungsmustern. Die Satellitenmessungen werden über relativ große Gebiete integriert, wobei das Vorhandensein von Vegetation die Interpretation zusätzlich erschwert. Die Bodenfeuchte bis zu 5 cm Bodentiefe wird vom Global Climate Observing System (GCOS) als wesentliche Klimavariable (ECV) eingestuft.

Der Bodenwasserindex wird bereitgestellt:

Weitere Informationen:

Box-Klassifizierung

Syn. Quadermethode, engl. box classifier, parallelepiped classification; Verfahren zur überwachten Klassifizierung, bei dem auf der Grundlage von Trainingsgebieten zunächst für jede Objektklasse und jedes Spektralband statistische Parameter (Mittelwert, Standardabweichung usw.) berechnet werden. Um die Mittelwerte der Klassen werden dann im zweidimensionalen Merkmalsraum Rechtecke bzw. im drei- oder mehrdimensionalen Raum Quader und Hyperboxes gelegt, deren Seitenlänge ein mehrfaches der Standardabweichung beträgt. Die Zuweisung der Bildelemente erfolgt zu der Klasse, innerhalb deren Rechteck, Quader oder Hyperboxes liegt. Problematisch sind hierbei besonders die Bildelemente in Überlappungsbereichen mehrerer dieser Räume, für die keine eindeutige Zuordnung möglich ist. In diesen Fällen werden oft andere Klassifikatoren (z.B. Maximum-Likelihood-Klassifizierung, Minimum-Distance-Klassifikation) eingesetzt.

Brechung

Engl. refraction, franz. réfraction; die Änderung der Ausbreitungsrichtung einer Welle aufgrund einer räumlichen Änderung ihrer Ausbreitungsgeschwindigkeit, die speziell für Lichtwellen durch den Brechungsindex n eines Mediums beschrieben wird.

In der Luft breitet sich ein Lichtstrahl geradlinig aus. Trifft der Lichtstrahl nun auf eine Wasseroberfläche, wird er aufgeteilt. Ein Teil das Lichtstrahls breitet sich weiter im Wasser aus und ein anderer Teil des Lichtstrahls wird zurück in die Luft reflektiert. Der Teil vom Lichtstrahl, der sich im Wasser weiter ausbreitet, ändert beim Übergang von Luft zu Wasser seine Ausbreitungsrichtung. Diesen Vorgang nennt man Brechung.

Ursache für die Lichtbrechung am Übergang zwischen zwei Medien ist, dass sich Licht in verschiedenen Medien wie Wasser und Luft unterschiedlich schnell ausbreitet. In optisch dünneren Medien (Luft) breitet sich Licht schneller aus, in optisch dichteren Medien (Wasser) langsamer.

Bundesamt für Kartographie und Geodäsie (BKG)

Das BKG ist der zentrale Dienstleister des Bundes für topographische Grundlagendaten, Kartographie und geodätische Referenzsysteme, soweit sie nicht – entsprechend dem Föderalismus – Aufgaben der Bundesländer sind. Das BKG ist neben der Zentralen Dienststelle in Frankfurt am Main auch mit einer Außenstelle in Leipzig und dem Observatorium Wettzell im Bayerischen Wald ansässig. Es gehört zum Geschäftsbereich des Bundesministeriums des Innern.

Gesetzliche Grundlage der Arbeit des BKG ist das Bundesgeoreferenzdatengesetz (BGeoRG), wonach das BKG geodätische Referenzsysteme unterhält und Referenzdaten des Bundes zur Nutzung durch Bundesbehörden erhebt und bereitstellt und seine daraus erwachsenden internationalen Verpflichtungen erfüllt. Mit seinem Dienstleistungszentrum bietet das BKG eine Anlaufstelle für alle Nutzer, mittels des DOP-Viewers kann Deutschland von oben betrachtet werden.

Eine Vielzahl von Aktivitäten im öffentlichen und privaten Bereich (z.B. Straßenbau, Hochwasserschutz oder Veranstaltungsplanung) beruhen auf Geoinformationen – also auf Daten, die z.B. unsere Umwelt, unser Klima, Verkehrsinformationen oder unsere Wirtschaftsstruktur beschreiben. Die Fachabteilung Geoinformation des BKG entwickelt Verfahren, Produkte und Dienste, mit denen sich Geodaten hoch effizient nutzen und kombinieren lassen.

Zur Beschaffung von Grundlagendaten trägt am BKG auch die Fernerkundung bei. Fernerkundungsdaten können in vielfältigen Aufgabenbereichen der öffentlichen Verwaltung genutzt werden, wenn die kurzfristige Beschaffung von Geoinformationen für große Gebiete benötigt wird:

Dazu stellt das BKG der gesamten Bundesverwaltung bedarfsgerecht Informationen über verfügbare kommerzielle Fernerkundungsdaten bereit. Das Amt zeigt die jeweiligen Beschaffungs- und Bereitstellungswege auf. Bei Bedarf führt es Beschaffungen für den Bedarfsträger durch und erläutert die dazugehörigen Nutzungsbedingungen. Die Bedarfe für zukünftige Beschaffungen von Fernerkundungsdaten in der Bundesverwaltung werden in der Servicestelle gebündelt. Mehrfachnutzungen der Daten werden so ermöglicht und Lizenz- und Nutzungsregelungen zukünftig bedarfsgerecht angepasst. Durch eine Reduzierung von Nutzungsbarrieren trägt die Servicestelle dazu bei, den Mehrwert von Fernerkundungsdaten auf nationaler Ebene zu erhöhen.

Die Dienstleistungen des BKG im Bereich Fernerkundung:

Die daraus gewonnenen Informationen liefern den Behörden aller föderalen Verwaltungsebenen wichtige Entscheidungsgrundlagen. Verschiedene Teilaspekte (z.B. Herstellung von Karten zur Krisenbewältigung bzw. für spezielle Einsatzlagen) werden heute durch das Zentrum für satellitengestützte Kriseninformation (ZKI) erfüllt. Für den Service ZKI-DE für Bundesbehörden wird ab 2021 das BKG  die operationellen Aufgaben übernehmen. Hierfür wird derzeit mit Unterstützung des BMI im BKG ein satellitengestützter Krisen- und Lagedienst (SKD) aufgebaut.

Satellitengestützte Fernerkundungsdaten werden auch beim BKG als Grundlage für die Entwicklung und Fortführung bestehender Produkte genutzt. So aktualisiert das BKG mit Hilfe dieser Fernerkundungsdaten alle drei Jahre das Digitale Landbedeckungsmodell für Deutschland (LBM-DE).

Gegenwärtig intensiviert das BKG seine Aktivitäten im Bereich der Fernerkundung und beteiligt sich am Copernicus-Erdbeobachtungsprogramm. Das BKG untersucht dabei die Möglichkeiten der aktiven und passiven Sensoren in unterschiedlichen Projekten. Beispielsweise ist es das Ziel des neuen Landschaftsveränderungsdienstes (Laverdi), freie Copernicus-Satellitendaten für eine automatische Ableitung von Landbedeckungsänderungen zu nutzen und diese Informationen regelmäßig für einzelne Landschaftselemente (z.B. für Waldgebiete, Wasserflächen, Landwirtschaftsflächen usw.) über einen Web Service bereitzustellen. Copernicus Daten eignen sich aufgrund der hohen zeitlichen (ca. 3-5 Tage, je nach Sensor) und mittleren räumlichen Auflösung (ab 10 m) ideal für eine regelmäßige bundesweite flächendeckende Analyse der Landbedeckung.

Weiterhin stellt das BKG den durch die Bundesregierung benannten Fachkoordinator für den Bereich Landüberwachung und übernimmt als Ansprechpartner für das Copernicus-Programm die Aufgabe der Öffentlichkeitsarbeit und Informationsverbreitung.

Geoportal.de 2.0:

Mit dem Geoportal.de, bietet das BKG eine Vielzahl an Geodaten des Bundes, der Länder und der Kommunen. Unterschiedlichste Fachdaten werden für einen breiten Anwenderkreis nutzbar gemacht. Aktuelle Daten zu Klimawandel und Umweltverschmutzung lassen sich im Geoportal.de  genauso leicht finden wie Informationen zum demographischen Wandel oder Radwegen in der Region. Redaktionell aufbereitete Themenkarten bieten spannende Einstiegspunkte für unerfahrene Anwender. So stellt z.B. der Einsatz im (Online-)Unterricht in Schulen und anderen Bildungseinrichtungen oder für Recherchezwecke einen echten Mehrwert dar.

Beim Relaunch des Portals im April 2021 stand deshalb auch die Benutzerfreundlichkeit im Mittelpunkt. Technische Weiterentwicklungen machen das Geoportal.de  jetzt nicht nur für professionelle Anwender, sondern auch für die breite Öffentlichkeit leicht zugänglich und attraktiv.

Ein weiterer wesentlicher Vorteil des Geoportal.de: Die Karteninhalte, auch aus verschiedenen Themenbereichen, k&öuml;nnen einfach miteinander kombiniert werden. So lassen sich zahlreiche Fragestellungen anschaulich beantworten. Und durch wenige Klicks lassen sich individuell zusammengestellte Karteninhalte in den sozialen Medien teilen.

Weitere Informationen: