Lexikon der Fernerkundung

DAAC

Engl. Akronym für Distributed Active Archive Center, analog PO.DAAC für Physical Oceanography DAAC. Als Komponenten des EOS Data and Information System (EOSDIS), sind DAACs Institutionen, die EOS Standardprodukte herstellen und die Veranwortlichkeit der NASA für die Archivierung, den Vertrieb und die Verwaltung von Daten umsetzen.

Weitere Informationen: Goddard Earth Sciences - Data and Information Services Center (NASA)

DAF

Engl. Akronym für European Direct Access Facility, eine Anlage zum Empfang hochauflösender Satellitenbildaten der Satelliten WorldView-1 und WorldView-2. Die Empfangsanlage steht beim DFD in Oberpfaffenhofen. Sie ermöglicht es Satellitenbildnutzern in Europa über eine direkte Datenverbindung zeitnah aktuelle Aufnahmen von WorldView-1- und WorldView-2-Satellitenbildern zu bestellen.
Die DAF ist eine Kooperation zwischen dem DLR und der European Space Imaging (EUSI), dem führenden Betreiber von hochauflösenden Satelliten in Europa und Nord-Afrika. Die Empfangsanlage ist Teil der sogenannten World View Global Alliance, einer kommerziellen Partnerschaft zwischen den Unternehmen EUSI, Space Imaging Middle East und DigitalGlobe.

DAMOCLES

Engl. Akronym für Developing Arctic Modelling and Observing Capabilities for Long-term Environmental Studies; EU-Projekt zum Aufbau eines integrierten Monitoring- und Vorhersage-Systems der Bereiche Eis, Atmosphäre und Ozean mit dem Ziel Klimaveränderungen in der Arktis zu beobachten, verstehen und zu quantifizieren.

Weitere Informationen:

Dämpfung

Abschwächung eines Signals, angegeben in Dezibel.

data extraction

Umsetzung von Rohdaten (engineering data) in physikalische (Umwelt)daten.

Daten
  • Eine Sammlung von Fakten, Begriffen oder Anweisungen in einer formalisierten Form, in der sie zur Kommunikation oder zur Weiterverarbeitung durch Menschen oder Computer geeignet sind.
  • Durch Zeichen oder kontinuierliche Funktionen aufgrund bekannter oder unterstellter Abmachungen zum Zwecke der Verarbeitung dargestellte Informationen (nach DIN).
  • Signale eines Sensors oder mehrerer Sensoren eines Orbital- oder Transportsystems und alle daraus abgeleiteten Produkte, unabhängig vom Grad ihrer Verarbeitung und der Art ihrer Speicherung oder Darstellung; Datum im Sinne des § 27 ist jede Einzelangabe. (Begriffsbestimmung nach dem Satellitendatensicherheitsgesetz - SatDSiG)

Weitere Informationen:

Datenassimilation

Die Synthese aus gemessenen Daten und Modellen. Ziel ist dabei, die Messungen besser zu verstehen, sie in einen größeren Zusammenhang zu stellen und so optimal auszunutzen. Es geht darum, Modelle näher an die Wirklichkeit zu führen und so die Prozesse z.B. im Ozean besser zu verstehen und gegebenenfalls auch vorherzusagen.

Datenbibliothek

Die Datenbibliothek mit ihrem Archivierungs- und Katalogsystem gilt als zentraler Kern eines Nutzlast-Bodensegments. In ihm werden alle empfangenen Rohdaten und abgeleiteten höherwertigen Datenprodukte zur Langzeiterhaltung abgelegt, verwaltet und ein komfortabler Zugang zur Kataloginformation sowie zu den Datensätzen eingerichtet. Die Kataloginformation, welche jedes einzelne Produkt beschreibt, wird in Datenbanken verwaltet und ermöglicht so eine effektive Suche, verbunden mit einem schnellen Zugriff auf Millionen von Einzelinformationen. Die Bildinformation hingegen wird in automatisierten Archiven, bestehend aus Festplattensystemen für den Nahe-Echtzeit-Zugriff, verbunden mit robotgesteuerten Hintergrund-Magnetbandarchiven, gespeichert. Durch diese abgestufte Vorgehensweise wird erreicht, dass im Nahe-Echtzeit-Zugriff keine Verzögerungen durch den Zugriff auf die Magnetbänder entstehen.

Zum Beispiel stehen aus nationalen und internationalen Erdbeobachtungsmissionen, die das DLR seit den 1990er Jahren unterstützt hat, weltraumgestützte und flugzeuggetragene Radardaten, optische Satellitenbilddaten, und Atmosphärendaten im Deutschen Satellitendatenarchiv des EOC für die Nutzer bereit. Die Daten werden ergänzt durch eine große Anzahl fernerkundungsbasierter, höherwertiger Produkte aus wissenschaftlichen Projekten. Die Produktpalette schließt unter Anderem  digitale Höhenmodelle der SRTM- und TanDEM-X-Missionen ein, aber auch aktuelle Radarbilddaten der TerraSAR-X-Mission, tagesaktuelle Ionosphärendaten, Ozonkarten und Feinstaubvorhersagen.

Auf Daten und Produkte des EOC lässt sich über die im EOC betriebenen Datenportale zugreifen. Neben EOWEB-NG, dem zentralen Portal des EOC zur Suche und Bestellung von Erdbeobachtungsdaten, stehen in zusätzlichen Portalen nutzergruppenspezifische Produkte bereit. Der EOC-Geoservice bietet OGC-konforme, nutzerfreundliche Katalog-, Darstellungs- und Downloaddienste. Der Großteil der EOC-Datenportale ist auf die Bedürfnisse wissenschaftlicher Nutzer ausgerichtet. Einige jedoch, wie z.B. die täglichen Wetterbilder, Temperatur- und Ozonkarten, wenden sich an eine interessierte Öffentlichkeit.

Als Forschungseinrichtung unterstützt das EOC mit seinen Erdbeobachtungsdaten und -produkten primär wissenschaftliche Nutzer. Die Daten stehen jedoch auch Nutzern aus öffentlichem Dienst und Industrie zur Verfügung, sofern die Datenpolitik eine derartige Nutzung nicht einschränkt.

Die Vielzahl der Erdbeobachtungsdaten und -produkte des EOC unterliegen keiner einheitlichen Datenpolitik. Missionen und Projekte definieren die Nutzungsbedingungen für die aus ihnen erstellten Daten und Produkte - im Hinblick auf eine möglichst uneingeschränkte Datennutzung. Deutsche hochauflösende Erdbeobachtungsdaten, wie die der nationalen Missionen Terra-SAR-X und TanDEM-X, unterliegen dem deutschen Satellitendatensicherheitsgesetz (SatDSiG), das die Nutzung regelt. Bei Missionen, die gemeinsam mit Partnerorganisationen durchgeführt werden berücksichtigt die Datenpolitik die Interessen aller Vertragspartner. So können z.B. über das EOC TerraSAR-X und TanDEM-X-Daten und -Produkte nur von wissenschaftlichen Nutzern bezogen werden.

Datenempfang

Erdbeobachtungssatelliten können den von ihren Sensoren aufgezeichneten Datenstrom nur in sehr begrenztem Umfang an Bord speichern. Sie sind vielmehr auf Bodenstationen angewiesen, an die sie die Daten direkt übertragen können. Die erzeugten Datenraten und -mengen liegen aber erheblich jenseits der im Übertragungsband (X-Band, 8,025 … 8,4 GHz) zur Verfügung stehenden Bandbreite. Die Sensordaten werden deshalb im Satelliten zwischengespeichert, komprimiert und mit reduzierter Datenrate zur Erde gesendet. Das Datenvolumen und die begrenzt zur Verfügung stehenden Kontaktzeiten sowie eine gewünschte geringe Latenzzeit zwischen Datenaufnahme und Datenübertragung zu den Bodenstationen stellen einen Engpass für die wirkungsvolle Nutzung von Erdbeobachtungsdaten dar. Der Aufbau von Bodenstationsnetzen lag daher von Anbeginn im Interesse von Erdbeobachtungsmissionen. Heute kann man zwischen zwei grundsätzlichen Einsatzprofilen für Bodenstationen unterscheiden. Die echtzeit-orientierten Bodenstationen, auch Direct-Access-Stationen genannt, wie sie z.B. in den regionalen Betriebszentren für den IKONOS-Satelliten konzipiert sind, haben die Aufgabe, den unmittelbaren Datenzugriff in den Regionen ihrer Aufstellung sichzustellen und eine zeitoptimierte Datenverarbeitung und Anwendung zu ermöglichen. Im Gegensatz dazu haben polare Daten-Dumping-Stationen durch ihre bevorzugte Lage an beiden Polen und die sich daraus ergebenden häufigen Überflüge die Aufgabe, den Transfer global aufgenommener und gespeicherter Daten zu Datenzentren mittels terrestrischer oder satellitengestützter Kommunikationsmethoden sicherzustellen. Die Koordination von international verteilten Stationsnetzen ist deshalb für die Durchführung von Erdbeobachtungsmissionen unabdingbar.

Beispielsweise betreibt das Deutsche Fernerkundungsdatenzentrum (DFD) als nationales Empfangszentrum ein Stationsnetzwerk zur Unterstützung von nationalen und europäischen Missionen, welches durch zusätzliche Partnerstaaten den jeweiligen Missionsanforderungen angepasst wird. Das für den Datenempfang erforderliche Bodensegment umfasst neben den Antennenanlagen in Neustrelitz und Oberpfaffenhofen ein internationales Netzwerk von Empfangsstationen. Zum einen werden der Datenempfang und die Archivierung für die wissenschaftliche Nutzung durchgeführt, zum anderen im Auftrag kommerzieller Betreiber und der europäischen Weltraumorganisation ESA.

Die zentralen Antennensysteme des DFD für hochratigen Datenempfang sind in Neustrelitz installiert. Sie zeichnen u.a. die Datenströme des deutschen Radarsatelliten TerraSAR-X, der europäischen Radarsatelliten ERS und ENVISAT sowie der indischen IRS-1C/1D und -P3 Missionen auf. Daneben werden die Daten der Missionen CHAMP, BIRD und GRACE empfangen und eine Referenz-Station zur Navigation und Positionierung der Systeme GPS und GLONASS betrieben.
In Oberpfaffenhofen werden u.a. Daten der meteorologischen Satelliten der NOAA- und der Meteosat-Serien sowie des Instruments MODIS der amerikanischen Satelliten TERRA und AQUA aufgezeichnet. Der abgedeckte Empfangsbereich beider Standorte erstreckt sich über ganz Europa, den Nahen Osten und das nördliche Afrika. Im Auftrag kommerzieller Partner werden zudem Daten der hochauflösenden optischen Satelliten IKONOS und WorldView-2 empfangen.

Zudem ist ein weltweites Netzwerk von festen und mobilen Bodenstationen eingerichtet worden. Dort werden eine Vielzahl optischer und Radar-Satelliten unterschiedlicher Auflösungen sowohl systematisch als auch auf Bestellung empfangen. Derzeit werden an den jeweils angegebenen Standorten die Daten folgender Satelliten aufgezeichnet:

Satelliten-Bodenstationen des DFD
  • Oberpfaffenhofen
    • MSG, NOAA, TERRA, AQUA
    • IKONOS, WorldView-2
  • O’Higgins (Antarktis)
    • ERS-2, TerraSAR-X
  • Recife (Brasilien)
    • NOAA
  • Chetumal (Mexiko)
    • ERS-2, LS-5, TERRA, TerraSAR-X, Tandem-X
  • Ny-Alesund (Spitzbergen)
    • Champ, Grace
  • Inuvik (Kanada)
    • TerraSAR-X, Tandem-X

Ein neues und bereits in einigen Fällen erprobtes Konzept sieht in Zukunft die Übertragung der Daten vom Erdbeobachtungssatelliten zu einem geostationären Kommunikationssatelliten über eine schnelle Mikrowellenverbindung (ENVISAT) oder über eine optische Verbindungsstrecke vor. Dadurch werden sowohl die Kontaktzeiten zwischen dem Erdbeobachtungssensor und dem Datenzentrum erhöht und damit größere Datenmengen mit kurzer Latenzeit zugreifbar gemacht als auch die Übertragungsstrecke gegen Störeinflüsse gesichert.

Beispiel eines solchen Konzepts ist das europäische Datenrelaissatellitensystem (EDRS). Im Rahmen von EDRS wird ein Netz aus geostationären Laserkommunikationsnutzlasten für die stete Übermittlung von Satellitendaten in der erdnahen Umlaufbahn und eine beispiellos schnelle und sichere Weitergabe der Erdbeobachtungsdaten - z.B. der Sentinel-Satelliten als ersten Nutzern - über die Weltraum-Datenautobahn „SpaceDataHighway“ ermöglichen. Es wird eine zeitnahe Verfügbarkeit von Daten sicherstellen, insbesondere für zeitkritische Anwendung etwa im Bereich der Umweltbeobachtung, Katastrophen- und Sicherheits-Missionen.

Datenfusion

Engl. data fusion; Verfahren zur Verknüpfung von Daten verschiedenen Ursprungs und verschiedener Informationen, um gemeinsame Datensätze zu gewinnen. Ziel von Datenfusion in der Fernerkundung ist die Erzeugung eines neuen Bildes mit anwendungsspezifisch höherer Qualität. Allgemein kann die Integration von räumlich und spektral komplementären Fernerkundungsdaten die visuelle und automatische Bildauswertung fördern.
Für die Datenfusion existieren viele Techniken. Die Daten müssen dabei immer in einem einheitlichen geometrischen Bezugssystem vorliegen. Zu den wichtigen Fusionsaufgaben gehören:

  • Sensoren-Fusion (sensor fusion) - Fusion von Daten verschiedener Sensoren. Häufig ist die Kombination von Radarbildern und optischen Bilddaten.
  • Panbildschärfung (pansharpening) - Bilder mehrerer Spektralkanäle werden mit panchromatischen Bildern höherer räumlicher Auflösung vereinigt.
  • Klassifizierung (classification) - Multispektrale oder multisensorale Klassifizierung kann mit zusätzlichen Daten (z.B. DGM) wirksam unterstützt werden.
  • Erkennung von Veränderung (change detection) - Ableitung von Objektänderungen aus Daten verschiedener Aufnahmezeiten.
  • Fusion dreidimensionaler Daten (fusion of 3D data) - Spezielle Techniken zur Verknüpfung von geometrischen Daten, z.B. DGM oder Laserpunktwolken.
Datenmanagement

Das Datenmanagement hat im Nutzlast-Bodensegment einer Erdbeobachtungsmission die Aufgabe, den gesamten Fluss der Nutzlastdaten zu verwalten - vom Datenempfang über Prozessierung und Archivierung bis zum Datenzugang entsprechend der Nutzeranforderungen an Daten- und Informationsprodukte. Es stellt die reibungslose Abfolge von Bestellungen und Anfragen durch das Gesamtsystem sicher und ermöglicht ein systematisches Monitoring und die statistische Auswertung sämtlicher Vorgänge.
Folgende Dienste sind hier zu einer übergreifenden und umfassenden Funktionalität zusammengefasst:

  • Prozessierung zu höherwertigen Verarbeitungsstufen
  • Archivierung und Katalogisierung von empfangenen Rohdaten und aus ihnen abgeleiteten Informationsprodukten
  • Auftragsmanagement und die Verteilung der angeforderten Erdbeobachtungsprodukte an die Nutzer
  • Online-Zugang via Internet zu existierenden Datensätzen, wie auch die Beauftragung noch aufzunehmender neuer Datensätze
  • Überwachung und Steuerung der weitgehend automatisch und mit hoher Zuverlässigkeit ablaufenden Prozesse.

Der Multi-Missionsansatz eines Nutzlast-Bodensegments unterteilt dabei das System in missionsunabhängige, universal verwendbare Kernelemente, wie z.B. die Datenbibliothek, den Nutzerzugriff oder das Auftragsmanagement, sowie in missionsspezifische Elemente, wie z.B. die Sensordatenprozessoren, und in einen Konfigurationsteil, welcher die Kern- und die missionsspezifischen Elemente mit den jeweiligen Missionsanforderungen abgleicht.

In Deutschland werden beispielsweise im EOC des DLR die Erdbeobachtungsdaten der Missionen und wissenschaftlichen Projekte im deutschen Satellitendatenarchiv (D-SDA) verwaltet. Die Funktionen des D-SDA umfassen sämtliche Aspekte, die zur Verwaltung großvolumiger, jedoch höchst unterschiedlicher Datensätze notwendig sind. Archivierung, Datenadministration und Datenzugang sind die zentralen Aufgaben. Das D-SDA vereint Datenmanagement-Funktionen eines Nutzlastbodensegmentes mit denen eines Erdbeobachtungsdatenzentrums.

Als zentrale Archivinfrastruktur des EOC verwaltet das D-SDA - verteilt über die beiden Standorte Oberpfaffenhofen und Neustrelitz - momentan über 2,5 Petabyte an Erdbeobachtungsdaten und höherwertigen Geoinformationsprodukten.
Auf der Hardwareseite wird das Datenmanagement des D-SDA durch Bandroboter mit hoher Speicherkapazität sowie hochperformante Server unterstützt. Mit einer Speicherkapazität von 50 Petabyte sind die Bandroboter des D-SDA gut gerüstet, um die großen Datenmengen derzeitiger und zukünftiger Satellitenmission zu verarbeiten. Zusätzlich sorgen ca. 170 Terabyte an Festplattenspeicher für einen schnellen Datentransfer zwischen Archiv und Prozessierungssystemen.

Datenprozessierung

Die Umsetzung von Rohdaten in höherwertige Informationsprodukte; dazu werden innerhalb eines Nutzlast-Bodensegments Prozessierungssysteme eingesetzt. Entsprechend dem Sensor (SAR-, Multi- oder Hyperspektralsensor) und der gewünschten Verarbeitungsstufe werden spezifische Verarbeitungsalgorithmen auf zugeordneten Rechnerplattformen benutzt. Diese sogenannten (Sensor)Prozessoren werden über Module, welche ein vereinheitlichtes und harmonisiertes Management der Prozessoren sicherstellen, in die informationstechnische Umgebung des Multi-Missions-Bodensegments integriert. Unterschiedliche Kategorien von Prozessabläufen regeln die Datenflüsse im Bodensegment. So werden mit dem Prozessablauf Ingestion die Rohdaten von eigenen oder externen Bodenstationen erfasst und zugehörige Metadaten, entsprechend der Anforderungen des Archivs, extrahiert, z.B. durch die Ermittlung der Eckkoordinaten, des Wolkenbedeckungsgrads oder durch die Ableitung typischer Verarbeitungsparameter wie z.B. der Pulse Repetition Frequency (PRF) des SAR-Sensors. Unabhängig davon können in systematischen datengetriebenen Prozessabläufen einzelne Datensätze mittels vordefinierter Parameter und ohne weitere externe Anforderung automatisch in Endprodukte gewandelt werden oder auch mehrjährige Archivdatensätze auf der Basis neuer Algorithmen reprozessiert oder in definierten Zeitabständen durch Kopieren auf neue Medien aufgefrischt werden. Im Gegensatz zum systematischen Datenfluss steht der nutzergetriebene Prozessablauf. Dabei werden individuelle, durch den Nutzer definierte Datenaufnahmen eingeleitet und ‚maßgeschneiderte‘ Informationsprodukte erstellt.

Datensatz

Eine logisch-sinnvolle Gruppierung oder Sammlung von ähnlichen oder miteinander in Bezug stehenden Daten. Die Ähnlichkeit der Daten kann in ihrer gemeinsamen Quelle oder Quellenart, ihrem Verarbeitungsgrad, ihrem Algorithmus u.a. bestehen.

DAWN

Dawn (engl. für Morgendämmerung) ist eine 2007 gestartete Raumsonde des Discovery-Programms der NASA, die den Asteroiden Vesta und den Zwergplaneten Ceres nacheinander umkreisen und erforschen soll. Sie ist die erste Sonde, die den Besuch von Objekten des Asteroidengürtels zur Hauptaufgabe hat und dient – wie ihr Name anklingen lässt – mit der Erkundung der als noch sehr ursprünglich angesehenen Körper dem Aufschluss über die Frühgeschichte des Sonnensystems.

Weitere Informationen:

DeCOVER

Verbundvorhaben zur Entwicklung von Methoden zur Aktualisierung und Erweiterung bestehender Landbedeckungsinformationent. Als nationales Schnittstellenprojekt zu den europäischen Aktivitäten innerhalb GMES (heute Copernicus ) werden in DeCOVER angepasste Verfahren für den Informationsbedarf nationaler und regionaler Fachbehörden erarbeitet. Schwerpunkte der bis Mitte 2012 laufenden DeCOVER Phase 2 sind die optimierte Integration fernerkundungsgestützter Aktualisierungsverfahren in bestehende Fachprozesse, sowie die Unterstützung von Fachinventaren aus den Bereichen Landwirtschaft und Naturschutz.
Aktuelle Landbedeckungsdaten sind für viele öffentliche Aufgaben von Bund, Ländern und Kommunen eine wichtige Informationsgrundlage. Die in Deutschland vorhandenen Daten zur Landbedeckung müssen im Hinblick auf Aktualität und Qualität noch deutlich verbessert werden. Hierbei handelt es sich um das Amtliche Topographisch-Kartographische Informationssystem (ATKIS®), die Biotop- und Nutzungstypenkartierung (BNTK) als Datengrundlage aus dem Bereich Umwelt und Naturschutz sowie die europäische Landbedeckungsdatenbasis CORINE (CLC). Internationale Berichtspflichten gegenüber der Europäischen Kommission und den Vereinten Nationen sind damit nicht effizient zu erfüllen.

Methodische Innovationen des Vorhabens sind:

  • die gemeinsame Auswertung optischer und Radardaten (RapidEye und TerraSAR-X),
  • die flexible Fortschreibung von Landbedeckungsdaten.

Durch die gemeinsame Auswertung von optischen und Radardaten lassen sich zuverlässigere Landbedeckungsdaten gewinnen. Während optische Daten eine höhere Objekterkennbarkeit aufweisen, bieten Radardaten den Vorteil der Tageslicht- und Wetterunabhängigkeit, da auch bei Nacht und Wolkenbedeckung Daten aufgenommen werden können. Beide Vorteile werden im DeCOVER-Vorhaben zusammengeführt, um eine regelmäßige Erhebung aktueller und zuverlässiger Landbedeckungsdaten zu ermöglichen.

Plakat_Aktualisierungsdienst_DeCOVER2 plakat_interoperabilitä_decover Plakat_TD_Agrar_DeCOVER2

plakat_umwelt_decover

Poster zu

DeCover 2

 

 

 

Zu größerer Darstellung
auf Grafiken klicken

Quelle: DeCover

Eine flexible Aktualisierung von Landbedeckungsdaten soll durch automatisierte Interpretation von Satellitendaten erreicht werden, wodurch sich der Erhebungsaufwand und damit die Kosten reduzieren. ATKIS®-Daten gewährleisten den Fortbestand vielfältiger Informationen, die aus Fernerkundungsdaten nicht gewonnen werden können, wie z.B. Nutzungsarten von Gebäuden, Verkehrsinformationen oder auch geographische Namen.

Weitere Informationen:

Deep Impact

2005 gestartete NASA-Mission des Discovery-Programms zum Kometen Tempel 1, der innerhalb von fünfeinhalb Jahren die Sonne umkreist und sich der Erde bis auf 133 Mio km nähert. Die Mission ist ein Gemeinschaftsprojekt der University of Maryland, des JPL und Ball Aerospace. Deep Impact bestand ursprünglich aus zwei Komponenten: der Vorbeiflugsonde, die sich derzeit (2011) intakt auf einer Umlaufbahn um die Sonne befindet, und dem Impaktor, der am 4. Juli 2005 auf dem Kometen aufschlug und dabei zerstört wurde.

HRI_937_1_sm Bild unmittelbar nach dem Impakt, aufgenommen
von der Vorbeiflugsonde

Diese spektakuläre Aufnahme des Kometen Tempel 1 wurde aufgenommen 67 Sekunden nach dem Einschlag des Impaktors auf der sichtabgewandten Seite. Das Bild wurde von der hochauflösenden Kamera der Vorbeiflugsonde gemacht. Gestreutes Licht als Folge der Kollision drang in den Detektor der Kamera und erzeugte den hellen Lichtblitz. Lineare Lichtbündel strahlen weg von der Einschlagstelle, während reflektiertes Sonnenlicht einen Großteile der Kometenoberfläche beleuchtet. Das Bild enthüllt topographische Einzelheiten, z.B. Rücken, gebogene Kanten und vermutlich Einschlagkrater hohen Alters.

Zu größerer Darstellung auf Grafik klicken


Quelle: NASA JPL / UMD
 

Das Hauptmissionsziel von Deep Impact war die Erforschung des Inneren des Kometen Tempel 1. Dazu wurde der 372 kg schwere Impaktor in die Flugbahn des Kometen gebracht, der auf dem Kometen einschlug. Das herausgeschleuderte Material wurde mit den Instrumenten der Sonde sowie mit weiteren Teleskopen auf der Erde und im Weltraum untersucht. Erstmals bestand so die Möglichkeit, den Blick auf das Innere eines Kometen freizugeben und das sich im Kometen befindliche Urmaterial des Sonnensystems freizusetzen. Wissenschaftler hoffen, durch diese neue Sicht nicht nur die Kometen besser verstehen, sondern auch die Rolle der Kometen in der frühen Geschichte des Sonnensystems besser nachvollziehen zu können.

Nach Abschluss der Primärmission wurde die Mission der voll einsatzbereiten Vorbeiflugsonde verlängert. Unter dem Missionsnamen EPOXI (Extrasolar Planet Observation and Deep Impact Extended Investigation) verfolgt die Sonde seitdem zwei neue Ziele. Bei einem Vorbeiflug am 4. November 2010 wurden aus nur 700 Kilometern Entfernung Bilder des Kometen 103P/Hartley gemacht, um diesen näher zu erforschen. Außerdem wird das HRI-Teleskop (High Resolution Imager) der Sonde dazu genutzt, nach erdähnlichen Exoplaneten zu suchen.

Weitere Informationen:

Deep Space Network (DSN)

Netzwerk von Radioantennen, die zur Kommunikation mit Raumsonden und Satelliten sowie radio- und radarastronomischen Forschungszwecken dienen. Das Jet Propulsion Laboratory betreibt für die US-amerikanische Raumfahrtbehörde NASA derzeit drei große Stationen:

  • Goldstone Deep Space Communications Complex (GDSCC), Goldstone in der Mojave-Wüste, Kalifornien, USA
  • Madrid Deep Space Communications Complex (MDSCC), Robledo bei Madrid, Spanien
  • Canberra Deep Space Communication Complex (CDSCC), Tidbinbilla bei Canberra,

Alle drei Anlagen befinden sich in hügeligem, beckenförmigen Gelände, um Störungen durch Radiofrequenzen zu minimieren. Die strategische Platzierung – die Stationen sind jeweils rund 120° Längengrade oder ein Drittel des Erdumfangs voneinander entfernt – ermöglicht trotz der Erdrotation die konstante Überwachung von Raumfahrzeugen.
Jede Station hat neben kleineren Antennen mindestens eine 26 m-, zwei 34 m- und eine 70 m-Antenne. Die ersten großen Aufgaben für die Deep Space Stationen der NASA bestanden in der Kommunikation mit interplanetaren Raumsonden wie Mariner, Pioneer oder Voyager.

Weitere Informationen:

Defense Meteorological Satellite Program (DMSP)

Ein meteorologisches Satellitenprogramm der U.S. Air Force, zur weltweiten Sammlung und Verbreitung von Daten zu Atmosphäre, Ozean, Sonnen- und Geophysik sowie zur Wolkenbedeckung auf täglicher Basis. Die Aufnahme der Bilder erfolgt im sichtbaren bis infrarotnahen Band (0,4 bis 1,1 Mikrometer) sowie im thermisch-infraroten Band (ca. 8 bis 13 Mikrometer) bei einer Auflösung von etwa 3 km. Die Daten sind zu einem großen Teil auch zivilen Nutzern zugänglich. Instrument für die zivile Nutzung an Bord der DMSP-Satelliten ist neben anderen das abbildende Mikrowelleninstrument SSM/I.

Gegenwärtig sind DMSP F-14 bis F-18 aktiv. Ihnen sind folgende Orbit-Daten gemein: sonnensynchron, 833 km Bahnhöhe, 101 min Umlaufdauer, 98,7° (F-13) bzw. 98,9°(F-15/16) Inklination. Vorübergehende Pläne, das DMSP durch das NPOESS-System zu ersetzen, sind überholt. Künftig sollen getrennte zivile und militärische Produktlinien entwickelt werden.

Weitere Informationen:

Deformation der Erde

Verformung der Erde aufgrund innerer (endogener) und äußerer (exogener) Kräfte. Die Deformationen lassen sich nach ihrer räumlichen Ausdehnung in globale, regionale und lokale sowie nach ihrem zeitlichen Ablauf in säkulare (langandauernde), lang- und kurzperiodische (bzw. nieder- und hochfrequente) und episodische (vorübergehende) Effekte aufteilen. Nach dem physikalischen Materialzustand werden elastische, viskose und plastische Deformationen unterschieden.

Globale Deformationen werden als langandauernde Vorgänge durch Kräfte im Erdinnern hervorgerufen. Die Erdoberfläche wird dabei durch tektonische Prozesse (Tektonik) deformiert. Äußere Kräfte wirken mit langer Dauer vor allem bei Klimavariationen durch die veränderte atmosphärische Auflast oder durch das Abschmelzen von Eis bzw. Gefrieren von Wasser in den Polargebieten und die damit verbundene Änderung des Meeresspiegels. Globale periodische Deformationen werden in erster Linie durch äußere Kräfte in Form der Erdgezeiten (Anziehungskräfte von Sonne, Mond, Planeten) sowie die jahreszeitliche Variation der atmosphärischen Auflast und des Wasserkreislaufs (ozeanische Zirkulation, Veränderungen des Meeresspiegels durch Schmelz- und Gefrierprozesse des Polareises) erzeugt. Die Ursachen langandauernder regionaler und lokaler Deformationen sind vor allem bei menschlichen Eingriffen zu suchen. Der Abbau von Rohstoffen (Erdöl, Kohle etc.), die Veränderung des Grundwasserspiegels oder die Akkumulation von Massen (Aufstauen von Wasser, Deponieren von abgebautem Material, etc.) führt zu Deformationen der Erdoberfläche und Erdkrustenbewegungen.

Geoid-Gestalt der Erde I
Geoid-Gestalt der Erde I

Quelle:
Landesvermessungsamt B.-W. (R.o.)

 

Das Geoid hat auf Grund unterschiedlicher Massenverteilung im Erdmantel Beulen und Dellen. Eine starke Überhöhung in der Darstellung ergibt die „Kartoffel-Figur“ der Erde. Das Geoid ist die ideale physikalische Höhenbezugsfläche für die Landesvermessung.

Schwerewerte sind die Voraussetzung für präzise Höhenmessungen. Sie stellen auch eine wichtige Grundlage für die Geowissenschaften bei der Rohstoffsuche und Lagerstättenforschung dar. Lagerstätten heben sich durch unterschiedliche Massenverteilung von ihrer Umgebung im Erdmantel ab.

 
Geoid-Gestalt der Erde II Geoid-Gestalt der Erde II

Auf Abbildung klicken zu Animation

Quelle: GFZ
 

Geoid-Form der Erde, berechnet nach den Messungen der GRACE-Satelliten-Mission.
Auf Grund der Massenunterschiede im Erdinnern ist die massenabhängige Anziehungskraft nicht überall gleich. Im Bild sind die Unregelmäßigkeiten im Schwerefeld der Erde in 15.000-facher Überhöhung dargestellt als Abweichungen vom Rotationsellipsoid. Erkennbar ist eine Absenkung des Meeresspiegels südlich von Indien. In diesem Bereich liegt der Meeresspiegel rd. 105 m unter dem Rotationsellipsoid.
Die Geoid-Höhen sind über den Ozeanen von dunkelblau (-105 m) bis rot (+85 m) eingefärbt, grün/gelb markiert die Null-Linie. Zur besseren Orientierung sind die Kontinente grau dargestellt.

Hier klicken zu einem Beitrag aus der FAZ (leicht gekürzt)

Weitere Animationen beim GFZ Potsdam

 

Periodische regionale Deformationen ergeben sich vor allem durch jahreszeitlich bedingte meteorologische (atmosphärische Auflast) und hydrologische (Grundwasserschwankungen, Schneeauflast etc.) Variationen. Dabei wird die Erdkruste in begrenzten Gebieten radial (vertikal) verformt. Episodische (vorübergehende) Deformationen entstehen hauptsächlich regional und lokal nach Erdbeben, Vulkanausbrüchen, Bergstürzen etc. Sie verformen die Erdoberfläche und Teile der Erdkruste dauerhaft. Die Deformationen des tieferen Erdinnern (Erdmantel, Erdkern) sind langsame Fließvorgänge, denen ein viskoses (zähflüssiges) Materialverhalten zugrunde liegt. Dagegen können die langandauernden und periodischen Verformungen der Erdkruste im allgemeinen als elastische Prozesse angesehen werden. Bei den episodischen Deformationen der Erdoberfläche muß ein plastisches Materialverhalten unterstellt werden. Betrachtet man also die Erde als Ganzes und will ihre Deformation realistisch beschreiben oder modellieren, so muß eine Kombination des unterschiedlichen Materialverhaltens (elastisch-viskos-plastisch) berücksichtigt werden.

Die Deformationen der Erde und ihre Auswirkungen können mit geodätischen Raumverfahren - häufig gestützt auf Fernerkundungsmethoden - beobachtet und präzise gemessen werden. Der direkte Effekt ist eine geometrische Veränderung der Form der Erdoberfläche (Erdkrustenbewegungen). Die langandauernden tektonischen Prozesse führen über Millionen von Jahren zu horizontalen Verlagerungen der äußeren Erdschichten um Tausende von Kilometern (Plattenkinematik) und zu vertikalen Bewegungen (Hebungen und Senkungen im Rahmen der Gebirgsbildung bis zu einigen tausend Metern. Die daraus resultierenden meßbaren Bewegungen erreichen Geschwindigkeiten von einigen Zentimetern pro Jahr. Periodische Deformationen erreichen bei den Erdgezeiten radiale (vertikale) Bewegungen von maximal 40 cm pro Tag. Die Auflasteffekte (atmosphärisch, ozeanisch, hydrologisch) sind dagegen vergleichsweise gering (wenige Millimeter). Episodische Deformationen nach Erdbeben können horizontale Versetzungen bis zu mehreren Metern entlang der Verwerfungslinie erzeugen. Die vertikalen Veränderungen sind im allgemeinen etwas geringer, erreichen aber teilweise auch Meterbeträge. Indirekte Effekte der Deformationen der Erdkruste sind u.a. Variationen der Rotation der Erde und der Erdanziehungskraft (Schwere) aufgrund der veränderten Massenverteilung innerhalb der Erde. Auch diese Auswirkungen sind mit Methoden der Geodäsie und der Fernerkundung meßbar.

Weitere Informationen:

Deichmonitoring

Überwachung von Deichen vor und während Hochwasserereignissen. Ziele dabei sind:

  • Verhinderung von Damm und Deichbrüchen
  • Erkennung potentieller Schwach- und Bruchstellen an Dämmen und Deichen
  • bessere Beurteilung der Folgen von Überschwemmungen auf Infrastruktur und Bevölkerung durch Vermessung von Landflächen, Darstellung der Ausdehnung von Überflutungen und Analyse der Daten mit Hilfe von Geographischen Informationssystemen
  • Eingrenzung der Schäden
  • rechtzeitige Warnung von Katastrophenschutzkräften

Deichmonitoring mit FE

Zu größerer Darstellung auf Abbildungen klicken

Deichmonitoring- Thermalaufnahmen

Links: Unter den Bedingungen 'trockene Witterung', 'Sonnenschein', 'vegetationsarme Zeit' kann im Thermalinfrarot (TIR) die Temperaturdifferenz zwischen
direkter Wärmeemission und durch Verdunstungskälte reduzierter Wärmeemission erkannt werden.

Rechts: Deiche bei Torgau

deichmonitoring_2Quelle: PSI Transcom GMBH  

Neben konventionellen Beobachtungsmethoden werden verstärkt geophysikalische (u.a. Georadar) Verfahren eingesetzt, aber auch Fernerkundungsverfahren erprobt. Durch die Kombination von geographischem Informationssystem (GIS), Labor- und Naturuntersuchungen sowie Befliegung mit multispektralen Fernerkundungssensoren ist es möglich, potentielle Schwach- und Bruchstellen an Dämmen und Deichen zu lokalisieren. Mit Hilfe der Daten können Gefährdungskarten erstellt und Schwachstellenzonierungen vorgenommen werden.

Weitere Informationen:

DEIMOS-1

Spanischer Erdbeobachtungssatellit, der von Deimos Imaging betrieben wird. Er wurde von Surrey Satellite Technology gebaut. Deimos Imaging vermarktet seine Bilder direkt, aber auch über andere Satellitenbildanbieter wie Astrium Geo-Information Services and DMC International Imaging.

Deimos-1 wurde 2009 auf eine sonnensynchrone, niedrige Erdumlaufbahn in 686 km Höhe gebracht. Startplatz war für seine Dnepr-Trägerrakete war der Kosmodrom Baikonur in Kasachstan. Der Satellit ist für eine Lebensdauer von fünf Jahren ausgelegt. Er trägt einen bildgebenden Multispektralsensor (RGB, NIR) mit einer Auflösung von 22 Metern und einer Schwadbreite von 600 km.

Das DEIMOS-1 System ist für die Erfassung von großen Gebieten optimiert, hierzu wurde ein vollkommen integriertes Polarstationssystem im norwegischen Spitzbergen eingerichtet, mit dem Telemetriedaten am Ende eines jeden Orbits heruntergeladen werden können, der Bordspeicher bildet keine Einschränkung, wodurch Quasi-Echtzeit-Service angeboten werden kann. Die DEIMOS-1-Daten können im Bedarfsfall innerhalb von weniger als 2 Stunden nach ihrer Erfassung ausgeliefert werden.

Spaniens erster hochauflösender Satellit DEIMOS-2 wurde am 19. Juni 2014 in seine Umlaufbahn gebracht. DEIMOS-2 wurde von Elecnor Deimos innnerhalb von drei Jahren entwickelt und wurde von seiner Abschussrampe in Jasny (Russland) gestartet. Elecnor Deimos hatte ein innovatives Zentrum für Satellitenintegration und -betrieb im spanischen Puertollano errichtet, wo DEIMOS-2 montiert wurde und von wo aus er auch gesteuert wird. Infolgedessen ergänzt das Projekt die Präsenz des Unternehmens in der gesamten Wertschöpfungskette für Raumfahrtmissionen. Elenor Deimos verfügt über die Kapazitäten, ein vollständiges Raumfahrtprogramm zu managen: Design, Integration, Validierung, Start und Betrieb von Erdbeobachtungssatelliten, sowie deren Verwendung für kommerzielle Zwecke und Entwicklung für Dritte.

In den nächsten sieben Jahren soll DEIMOS-2 Aufnahmen mit einer Auflösung von bis zu 75 cm machen; er kann 150.000 km² an Bildaufnahmen pro Tag erstellen, und zwar in den Bändern RGB (Red Green Blue), NIR (near-infrared) und panchromatisch. Die Bilder werden auf Wunsch der Kunden erstellt. Die Einsatzbereiche sind Landwirtschaft, Umweltschutz, Klimawandel, Krisenbewältigung und Notfälle, Brandbekämpfung und Überschwemmungen, Zivilschutz, Verteidigung, Aufklärung und Grenzschutz.

Weitere Informationen:

Deklination

Winkelabstand zwischen Äquator und Satellit.

DeMarine / DeMarine-2

DeMarine war war eines von drei so genannten „De-Vorhaben“ (DeCOVER, DeSecure), die das gemeinsame übergeordnete Ziel haben, die nachhaltige Nutzung der im Rahmen von GMES (heute: Copernicus) aufgebauten so genannten Fast-Track-Services in Deutschland sicher zu stellen.
Das Vorhaben ergab sich aus dem Bedarf an einem unabhängigen Zugang zu verlässlichen Erdbeobachtungs informationen und zu kontinuierlichen Informationen zum physikalischen und biogeochemischen Zustand des globalen Ozeans und europäischer Meeresgebiete wächst ständig. Vor allem für die marine Wirtschaft, wie zum Beispiel der Offshore-Industrie, aber auch für Politik und Gesellschaft sind diese Informationen hinsichtlich der Planungssicherheit und des Naturschutzes des Weltnaturerbes Wattenmeer essentiell.

DeMARINE bestand aus zwei Säulen, in denen im Rahmen von Verbundprojekten nationale Dienste für die Themenblöcke marine Umwelt und maritime Sicherheit entwickelt wurden. Die Kooperation zwischen den Verbünden und die Einbindung der Nutzer bei den Projektvorhaben wurde über Nutzerbüros realisiert. Das Projekt DeMarine-Umwelt wurde vom Bundesamt für Seeschifffahrt und Hydrographie (BSH), das Projekt DeMarine-Sicherheit von der Firma GAUSS mbH koordiniert.

DeMarine-2
Das Nachfolgeprojekt DeMarine-2 vereint nun Umwelt- und Sicherheitsaspekte.
Im Rahmen des europäischen Erdbeobachtungsprogramms Copernicus von EU und ESA verfolgt das nationale Verbundprojekt DeMarine-2 das Ziel, marine Copernicus-Dienste zu einer nachhaltigen Nutzung zu bringen und diese langfristig sicherzustellen. Dies geschieht in engem Dialog mit den Nutzern, die ihre Anforderungen über das Nutzerbüro direkt in die Produktentwicklung einbringen können.

Das Projekt wird vom Bundesministerium für Wirtschaft und Technologie (BMWi) durch das Raumfahrtmanagement des Deutschen Zentrums für Luft- und Raumfahrt (DLR) gefördert und hat eine Laufzeit von Juni 2012 bis Mai 2015. DeMarine wird vom Bundesamt für Seeschifffahrt und Hydrographie (BSH) koordiniert.

Weitere Informationen:

Demeter

Engl. Akronym für Detection of Electro-Magnetic Emissions Transmitted from Earthquake Regions; abgeschlossene Mikrosatelliten-Mission der CNES zur Untersuchung von ionosphärischen Störungen als Folge von natürlichen geophysikalischen Erscheinungen wie Erdbeben und Vulkanausbrüchen. Der Satellit registrierte die gesamte elektromagnetische Aktivität unseres Planeten. Ziel war es, die Zusammenhänge zwischen spezifischen elektrischen Signalen in der Ionosphäre und das Auftreten von Erbeben nachzuprüfen und gegebenenfalls abzuschätzen, ob dadurch die Vorhersage von Erdbeben möglich wäre.
Es wird vermutet, dass es während und auch vor Erdbeben zu Auswirkungen in der Ionosphäre kommt. Als mögliche Ursachen werden chemische, akustische und elektromagnetische Mechanismen diskutiert. Beispielsweise wird die Freisetzung von Ladungsträgern aus oxidischen Mineralien durch tektonischen Spannungen angeführt, aber auch Effekte wie die Anregung von atmosphärischen Schwerewellen durch Ausgasungen. Auch wenn die Ionosphäre seit längerem vom Boden aus und mit Satelliten überwacht wird, ist eine Kopplung derzeit nicht als nachhaltig nachgewiesen anzusehen. Ein weiterer Satellit, der dieses Phänomen näher untersucht, ist der 2006 gestartete russische Kompas 2.
Demeter befand sich in 710 km Höhe auf einer sonnensynchronen Umlaufbahn mit einer Inklination von etwa 98°. Der Satellit absolvierte 14 Umläufe pro Tag.
Demeter ist die erste Mission des Vielzweckprogramms Myriade. Der Start erfolgte im Juni 2004 mit einer DNEPR-Rakete vom Weltraumbahnhof Baikonur. Am 6.12.2010 wurde die Mission beendet.

Weitere Informationen:

density slicing

In der digitalen Bildverarbeitung der Prozeß der Zusammenfassung von Grauwertintervallen zu jeweils einem einzigen Grauwert. Ein Klassifizierungsansatz mittels Äquidensiten beruht auf der Festlegung von Schwellwerten, die eine optimale Trennbarkeit unterschiedlicher Objektklassen ermöglichen. Bei der Nutzung von Farben zur Darstellung von spezifischen Grauwertintervallen wird von jeweils drei Schwellwertoperationen ausgegangen, die entweder den gesamten Grauwertbereich in die Grundfarben Rot, Grün und Blau aufteilen und darstellen oder im Falle von überlappender Schwellwertbildung auch Mischfarben ermöglichen (Farbcodierung, colour density slicing). In einem weiteren Schritt werden lineare Übertragungsfunktionen gewählt und damit kontinuierliche Farbübergänge erreicht. Äquidensiten werden z.B. zur Darstellung der Bathymetrie oder der Temperatur von Wasserflächen verwendet. Bei der Farbcodierung von Thermalbildern wird eine optimale Lesbarkeit erzielt, wenn einerseits dunklen, kalten Bereichen blaue und andererseits hellen, warmen Bereichen rote Farbtöne zugeordnet werden.

Deorbiting

Eine gezielte Änderung des Orbits eines Erdsatelliten mit der Absicht, sinnvoll nutzbare und dementsprechend belegte Umlaufbahnen nicht mit ausgedienten Raumfahrzeugen zu verstopfen. Damit ist nicht notwendiger Weise ein gezielt herbeigeführter zerstörerischer Wiedereintritt in die Erdatmosphäre verbunden. Für ein solches Manöver haben die meisten der derzeit im All befindlichen Satelliten nicht genug Treibstoff an Bord. Für Satelliten im Geostationären Orbit (GEO) - rund 35.786 Kilometer über der Erde - wäre die benötigte Treibstoffmenge im Vergleich zu auf niedrigeren Erdumlaufbahnen befindlichen Satelliten außerdem höher.

Depressionswinkel

Engl. depression angle, franz. angle de dépression; nach DIN 18716 der "Winkel zwischen einer durch die Antenne gedachten horizontalen Ebene und der Verbindungslinie zwischen Antenne und Objektpunkt".

DeSecure

Ein vom DLR initiiertes Verbundprojekt mit dem Ziel der Verbesserung der satellitengestützten Kriseninformation in Deutschland. Dabei wird der gesamte Produktionszyklus von satellitengestützter Kriseninformation (Satellitendatenempfang, Prozessierung, Informationsextraktion, Kartenerstellung und -bereitstellung) im Projektzeitraum (2007 - 2010) analysiert und verbessert. Die DeSecure-Aktivitäten gehen einher mit dem Ausbau der GMES (Global Monitoring for Environment and Security) Aktivitäten auf europäischer Ebene. Neben dem Deutschen Fernerkundungsdatenzentrum (Projektleitung) waren das Institut für Methodik der Fernerkundung des DLR sowie die Industriepartner Definiens AG, GAF AG, Infoterra GmbH, PRO DV AG und RapidEye AG sowie die Technischen Universitäten Berlin und München beteiligt.

Mit der weltweiten Zunahme von Naturkatastrophen, humanitären Notsituationen und zivilen Gefahrenlagen steigt auch der Bedarf an zeitnaher, umfassender und flächendeckender Information zur Lage. Die Nachfrage kann inzwischen zu einem großen Teil mit satellitengestützten Fernerkundungsdaten gedeckt werden. DeSecure dient der verbesserten Bereitstellung solcher Informationen, etwa für deutsche Behörden und  Hilfsorganisationen  bei nationalen sowie internationalen Einsätzen.

Am Anfang stehen Satellitenbilder. Hat ein Satellit "zufällig" zur rechten Zeit den rechten Ort aufgenommen? Wenn ja: welcher Satellit war das, und wie kommt man an die Aufnahme? Wenn nein: wer könnte beauftragt werden, so schnell wie möglich eine Aufnahme zu machen, und bis wann? Handelt es sich um eine Radar-Aufnahme oder um das Bild einer optischen Kamera? Die Ergebnisse verschiedener Verfahren sind sehr unterschiedlich.

Kriseninformation wird aus Satellitenbildern auch heute noch überwiegend durch "visuelle Interpretation" gewonnen, das heißt: ein geschulter Bildinterpret analysiert das Material und erstellt daraus eine Karte. Menschliches Bildverständnis ist nicht vollständig durch automatisierte Prozesse ersetzbar. Software-Werkzeuge können das Verfahren aber einfacher, sicherer und schneller machen. Und am Ende muss die Notfall-Karte noch an den Ort kommen, wo sie gebraucht wird.

Nutznießer des Projektes DeSecure sind Zivilschutz- und Hilfsorganisationen (wie Technisches Hilfswerk, Deutsches Rotes Kreuz) sowie die deutschen und europäischen Lagezentren (Gemeinsames Melde- und Lagezentrum des Bundes und der Länder GMLZ, Lagezentrum des Auswärtigen Amtes, "Monitoring and Information Centre" MIC der Europäischen Kommission).

Weitere Informationen:

Detektivität

Gütezahl eines Detektors bzw. des Detektormaterials, die eine Funktion der Fläche des Detektors, der Bandbreite (Frequenzbereich der Sensibilität) und der rauschäquivalenten Strahlungsleistung ist. Die Detektivität ist des weiteren abhängig von der Wellenlänge der auftreffenden elektromagnetischen Strahlung und von der Temperatur des Detektormaterials. Kühlung erhöht die Detektivität.

Detektor

Engl. detector, franz. détecteur; im allgemeinen Sprachgebrauch, insbesondere in der Messtechnik, bezeichnet der Begriff jede Art von Gerät zum Nachweis von Objekten oder deren physikalischer Eigenschaften, z.T. wird der Begriff nahezu synonym zur allgemeinen Bedeutung von "Sensor" verwendet.
Im Sprachgebrauch der Satelliten-Fernerkundung bezeichnet der Begriff "Detektor" Bauelemente (eines Fernerkundungs-Sensors) zur Messung jeglicher Art von Strahlung, beispielsweise von optischer Strahlung oder von Mikrowellen.

DIN 18716 formuliert: "Strahlungsempfänger, der ein von der auftreffenden elektromagnetischen Strahlung abhängiges messbares Signal abgibt" und merkt an: "Es gibt Punkt-, Zeilen- und Flächendetektoren".

Detektoren werden heute häufig als Halbleiterbauelemente realisiert, die oft sogar mit einem Vorverstärker und/oder anderen Teilen der Ausleseelektronik zusammen auf einem Chip integriert sind (engl.: "solid-state detector"). Dadurch wird die Strahlung auf ein spezifisches, interessierendes Spektralband beschränkt. Für manche Anwendungen (z.B. abbildende Spektrometer) werden eine grosse Anzahl von einzelnen Detektor-Elementen als ein- oder zwei-dimensionale Detektorarrays auf einem Chip angeordnet. Typische Beispiele sind Diodenzeilen-Detektoren oder CCD-Detektoren. Je nach Spektralbereich, für den die Detektoren eingesetzt werden sollen, bestehen sie aus unterschiedlichen Materialien: für die Spektralbereiche des UV und des sichtbaren Lichts meist aus Silizium; im Infraroten werden dagegen oft Materialien wie Indium-Gallium-Arsenid, Quecksilber-Cadmium-Tellurid, Indiumantimonid, Bleiantimonid verwendet.

Detektoren werden auch nach ihrer geometrischen Anordnung unterschieden. Es gibt Einzel-Detektoren, Detektoren in Zeilen sowie in flächenhafter Anordnung (array).

Deutscher Wetterdienst (DWD)

Eine teilrechtsfähige Anstalt des öffentlichen Rechts im Geschäftsbereich des Bundesministeriums für Verkehr, Bau und Stadtentwicklung. Der Deutsche Wetterdienst (DWD) ist für die Erfüllung der meteorologischen Erfordernisse aller Wirtschafts- und Gesellschaftsbereiche in Deutschland zuständig. Sein Aufgabengebiet basiert auf einem gesetzlichen Informations- und Forschungsauftrag, dem DWD-Gesetz.
Zur Erfüllung seiner Aufgaben unterhält der DWD eine eigene Abteilung 'Fernerkundung'.

Weitere Informationen:

Deutsches Fernerkundungsdatenzentrum

siehe DFD

Deutsches Raumfahrtkontrollzentrum (GSOC)

Engl. German Space Operations Center (GSOC); das Deutsche Raumfahrtkontrollzentrum des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen bei München ist seit 1969 für den Betrieb von Raumfahrzeugen verantwortlich, wobei es an zahlreichen unbemannten und bemannten Missionen maßgeblich beteiligt war und ist. In den vergangenen Jahren ist die Vorbereitung und Durchführung von Erdbeobachtungsmissionen als neuer Schwerpunkt hinzugekommen. So wurden seit dem Jahr 2000 die Satelliten CHAMP, BIRD und GRACE gestartet und betrieben. Am 15. Juni 2007 startete der deutsche Radarsatellit TerraSAR-X, der hochwertige Radardaten der Erdoberfläche liefert. Am 21. Juni 2010 kam der Radarsatellit TanDEM-X hinzu, der mit seinem Zwillingssatelliten TerraSAR-X im Formationsflug betrieben wird. Außerdem wird in Zukunft auch der Hyperspektralsatellit EnMAP von Oberpfaffenhofen aus gesteuert und überwacht.

Darüber hinaus übernimmt das Deutsche Raumfahrtkontrollzentrum die Durchführung von Betriebsaufgaben für das europäische Satelliten-Navigationssystem Galileo. Dabei wird es den Regelbetrieb der 30-Satelliten-Konstellation über mindestens 20 Jahre hinweg durchführen. Bei allen diesen Aufgaben sind hohe Sicherheitsstandards sowie die Verknüpfung einer Vielzahl komplizierter Betriebsabläufe von entscheidender Bedeutung.

Die Aufgaben des Deutschen Raumfahrtkontrollzentrums:
Das Deutsche Raumfahrtkontrollzentrum ist mit rund 300 Mitarbeiterinnen und Mitarbeitern die herausragende Raumfahrt-Einrichtung am DLR-Standort Oberpfaffenhofen. Es ist mit der Vorbereitung und Durchführung von nationalen und internationalen Raumfahrtmission auch das zentrale Element der Raumfahrtaktivitäten in Deutschland. In den vielfältigen bemannten und unbemannten Missionen ist es dabei zuständig für:

  • die Steuerung und Überwachung von Raumfahrzeugen, deren Sub-Systemen und von Experimenten an Bord,
  • die Kommunikation zwischen Raumfahrzeugen, Bodenstationen und Kontrollzentren,
  • die Verfolgung (Tracking) und Berechnung der Flug- und Umlaufbahnen,
  • die Planung und Ausführung von Korrekturen der Flug- und Umlaufbahnen,
  • den Empfang, die Verarbeitung, Verteilung und Auswertung von Daten,
  • die Missionsplanung, das heißt die Planung des Betriebsablaufs an Bord und am Boden.

Das Deutsche Raumfahrtkontrollzentrum handelt dabei im Rahmen der Zielsetzungen des nationalen Deutschen Raumfahrtprogramms. Dabei werden sowohl internationale Verpflichtungen (zum Beispiel in Projekten der Europäischen Weltraumorganisation ESA und bei dem Betrieb des Weltraumlabors Columbus auf der ISS) oder in Kooperationen (zum Beispiel beim Satellitenprojekt GRACE mit der amerikanischen Weltraumbehörde NASA) erfüllt, als auch Projekte im Bereich kommerzieller Systeme (wie zum Beispiel bei TV-SAT, DFS, EUTELSAT) realisiert. So werden kommerzielle, wissenschaftliche und bemannte Missionen am Deutschen Raumfahrtkontrollzentrum parallel durchgeführt.

Weitere Informationen:

DFD

Akronym für Deutsches Fernerkundungsdatenzentrum; eine seit 1992 bestehende Einrichtung des DLR mit den Standorten in Oberpfaffenhofen bei München und Neustrelitz in Mecklenburg-Vorpommern. Zusammen mit dem Institut für Methodik der Fernerkundung (IMF) bildet das DFD das Earth Observation Center EOC – das Kompetenzzentrum für Erdbeobachtung in Deutschland.

Das DFD entwickelt und betreibt Bodensegmente für satellitengestützte Erderkundungsprogramme mit deutscher und internationaler Beteiligung. Hierzu gehören die daten- und informationstechnischen Empfangs-, Prozessierungs-, Archivierungs- und Zugriffssysteme. Sie sichern den kontinuierlichen Zugang zu den Daten- und Informationsprodukten der wichtigsten Erdbeobachtungssatelliten sowohl für wissenschaftliche als auch für kommerzielle Nutzer.
Mit geo-wissenschaftlichen Arbeiten zur Atmosphären-, Global-Change- und zivilen Sicherheitsforschung erschließt das DFD den Zugang zu Produkten und Lösungen der Fernerkundung und festigt somit deren Anwendung im privatwirtschaftlichen und wissenschaftlichen Umfeld.  Es betreibt themenspezifische „User Services“, insbesondere das Weltdatenzentrum für Fernerkundung der Atmosphäre (WDC-RSAT) und das Zentrum für satellitengestützte Kriseninformation (ZKI).

DFD in Oberpfaffenhofen Quelle: DLR / DFD DFD in Oberpfaffenhofen

Das Foto links zeigt das EOC-Gebäude
Fachabteilungen des DFD:

  • Landoberfläche, Leiter: Dipl.-Geol. Andreas Müller
  • Atmosphäre, Leiter: Prof. Dr. Michael Bittner
  • Georisiken und zivile Sicherheit, Leiter: Prof. Dr.-Ing. Günter Strunz
  • Informationstechnik, Leiter: Dipl.-Inf. Eberhard Mikusch
  • Nationales Bodensegment, Leiter: Dipl.-Ing. Holger Maass
  • Internationales Bodensegment, Leiter: Dr. Erhard Diedrich
  • Wissenschaftskommunikation und Visualisierung: Leiter Dipl.-Geogr. Nils Sparwasser

Die Bodensegmentaufgaben werden begleitet durch Forschung und Entwicklung im Hinblick auf die Extraktion von geowissenschaftlicher Information aus den Primärdaten und die Entwicklung und Erzeugung von hochwertigen Fernerkundungsprodukten (value adding). In Kooperation mit Partnern aus Wissenschaft, Behörden und Industrie werden praxisnahe Anwendungen und Techniken erprobt, und im Rahmen von Technologietransfer-Projekten in die wirtschaftliche Nutzung überführt.

Weitere Informationen:

DGPF

Akronym für Deutsche Gesellschaft für Photogrammetrie, Fernerkundung und Geoinformation e.V.; Fachverband von Vermessungsingenieuren, Geodäten, Photogrammetern, Geoinformatikern und Fernerkundlern. Nach ihren eigenen Angaben sind die Ziele der DGPF:

Pflege und Förderung

  • der wissenschaftlichen und angewandten Photogrammetrie zur Lösung von Aufgaben im Vermessungswesen, in der Kartographie, im Bauwesen, im Bergbau, in der Automobil- und Luftfahrtindustrie, in der Medizintechnik und in anderen Gebieten zur berührungsfreien Vermessung;
  • der Fernerkundung und ihrer Anwendung in den Geowissenschaften, in der Land- und Forstwirtschaft, in der Landesplanung, im Umweltschutz, in der Archäologie u. a.;
  • der Geoinformatik und ihrer Anwendungsgebiete im geowissenschaftlichen Arbeitsbereich;
  • aller Techniken der Photogrammetrie und Fernerkundung zur Erfassung, Aufzeichnung, Verarbeitung und Darstellung von Bilddaten aus dem Nahbereich, dem Luftraum und dem Weltraum, insbesondere auch deren Einbindung in Raumbezogene Informationssysteme (GIS);
  • der Ausbildung an Hoch- und Fachhochschulen sowie der beruflichen Weiterbildung;
  • der Fortbildung ihrer Mitglieder durch Arbeitskreise, wissenschaftlich-technische Jahrestagungen und andere Veranstaltungen.

Fachwissenschaftliche Veröffentlichungen

  • Herausgabe der Zeitschrift Photogrammetrie - Fernerkundung -  Geoinformation (PFG);
  • Herausgabe von Tagungsbänden in gedruckter Form und auf Datenträger mit den Vorträgen  der wissenschaftlichen Jahrestagungen der Gesellschaft;
  • Veröffentlichung der Schriftenreihe Publikationen der Deutschen Gesellschaft für Photogrammetrie und Fernerkundung.

Erfahrungsaustausch und gegenseitige Anregungen

  • zwischen Wissenschaftlern und Praktikern;
  • durch Zusammenarbeit mit anderen Gesellschaften, Verbänden und Institutionen auf nationaler und internationaler Ebene;
  • durch interdisziplinäre Kooperation mit allen relevanten Fachgebieten;
  • durch Vergabe von nationalen und internationalen Preisen und Auszeichnungen.

Weitere Informationen: DGPF (Startseite)

DGVM

Engl. Akronym für Dynamic Global Vegetation Model; Bezeichnung für ein Computerprogramm, das Verschiebungen der potentiellen Vegetation und der mit ihr verknüpften biogeochemischen und hydrologischen Kreisläufe als Reaktion auf Klimaveränderungen simuliert.

Weitere Informationen: Dynamic Global Vegetation Model (PIK Potsdam)

dielektrische Größe

Parameter zur Beschreibung der elektrischen Eigenschaften eines Mediums. Das Reflexionsvermögen eine Fläche und das Eindringungsvermögen von Mikrowellen (Radar) in das Material wird von diesem Parameter bestimmt (festgelegt). Radarfernerkundungsmethoden haben den Vorteil einer beleuchtungs- und witterungsunabhängigen Aufzeichnung. Sie liefern andere Rückstreuinformationen als optische Daten, da sie in Medien eindringen und sensitiv für andere Oberflächenparameter wie dielektrische Eigenschaften sind. Die dielektrischen Eigenschaften z.B. von Vegetation oder von Böden sind im hohen Maße vom Pflanzenwassergehalt abhängig.

Diademe 1 D1C & 2 D1D

Satellitenmissionen der CNES aus den sechziger Jahren zur geodätischen Vermessungen mittels Laserentfernungsmessung. Die nicht-sonnensynchronen, elliptischen Umlaufbahnen in 1200 km Höhe hatten eine Inklination von 40°.

Weitere Informationen: International Laser Ranging Service - Satellite Missions

Difference Vegetation Index (DVI)

Vegetationsindex, der durch die Subtraktion der Reflexion im sichtbaren Rot-Bereich von der Reflexion im Nahen Infrarot ermittelt wird. DVI ist einfacher als NDVI, kann aber Messfehlern im Nahen Infrarot unterliegen.

differentielle Radarinterferometrie (DInSAR)

Verfahren zur flächenhaften Erfassung von Bodenbewegungen. Hierzu werden Radarbilder hoher Auflösung ausgewertet, die mit der Synthetic Aperture Radar-Technik (SAR) erzeugt wurden. Aus zwei zu unterschiedlichen Zeitpunkten aufgenommenen komplexen SAR-Bildern wird im Zuge einer speziellen Prozessierung ein differentielles Interferogramm berechnet. Anhand dessen Phasendifferenz ist es möglich, die radiale Komponente der Geländedeformation zwischen den Aufnahmezeitpunkten beider Bilder zu bestimmen, wobei grundsätzlich auch Bewegungen in der Größenordnung weniger Millimeter erfasst werden können. Allerdings wird diese Genauigkeit aufgrund zweier Einflüsse oftmals nicht erreicht: 

  • Durch Änderungen der Szene im Zeitraum zwischen den SAR-Aufnahmen dekorreliert das Signal, das heißt, dort kann aus der Phasendifferenz keine Information über die Geländebewegung gewonnen werden. Dieses Problem tritt vor allem in Vegetationsbereichen auf. Im Allgemeinen sinkt der Anteil der auswertbaren Fläche mit zunehmender Zeitspanne.
  • Das SAR-Prinzip fußt auf einer Zweiwege-Laufzeitmessung von aktiv ausgesandten Pulsen im Mikrowellenspektrum. Die Lichtgeschwindigkeit ist abhängig von den Materialeigenschaften des Mediums, insbesondere von dessen Brechungsindex. Für die Radarinterferometrie spielt daher der Wasserdampfgehalt der Troposphäre eine große Rolle: unterschiedliche atmosphärische Zustände während der Erfassung der SAR-Bilder können zu beachtlichen Änderungen der Laufzeit des Signals führen, die ebenfalls zur Phasendifferenz beitragen und im Extremfall den Bewegungsanteil völlig überlagern können.

Einsatzbereiche für Bewegungsdetektion sind zum Beispiel Überflutungsgefährdungen, Hochwasserschutz, Bergbau, Massenbewegungen (Hangrutschung), Senkungs- und Einsturzgefährdung (Altbergbau), Geländesenkungen (Erdgas- / -ölförderung, -speicherung in Salzkavernen).

Weitere Informationen:

diffuse Reflexion

Syn. Lambertsche Reflexion, engl. diffuse reflection, franz. réflexion diffusée; die Reflexion elektromagnetischer Energie an einem Objekt, gleichmäßig in alle Richtungen.
DIN 18716 formuliert: "Zurückwerfen von gerichtet auffallender Strahlung von einer Oberfläche oder einem Medium ohne Vorzugsrichtung".

Diffuse Reflexion Diffuse Reflexion

Wenn Licht auf die Oberfläche eines (nichtmetallischen) Materials trifft, wird es in alle Richtungen gestreut, bedingt durch die mehrfachen Reflexionen aufgrund der mikroskopischen Unregelmäßigkeiten innerhalb des Materials (z.B. die Korngrenzen eines polykristallinen Materials oder die Zell- oder Fasergrenzen von organischem Material) und durch die Materialoberfläche, wenn sie rau ist.
Dieser Vorgang wird als diffuse Reflexion bezeichnet. Die genaue Form der Reflexion ist von der Struktur des Materials abhängig.

Zu größerer Darstellung auf Grafik klicken.

Quelle: Wikipedia
 
digital

Bezieht sich auf Ziffern (digits) oder die Art, wie sie dargestellt werden. Im Zusammenhang mit Computern wird der Begriff digital oft mit dem Begriff binär gleichgesetzt, weil die meisten bekannten Computer Informationen als codierte Kombinationen von binären Ziffern (Bits: binary bigits) verarbeiten. Ein Bit kann höchstens zwei Werte darstellen, zwei Bits können vier Werte repräsentieren, acht Bits 256 Werte usw. Werte zwischen zwei Zahlen werden entweder durch die höhere oder die niedrigere Zahl ausgedrückt. Da in der Digitaldarstellung ein Wert durch eine codierte Zahl repräsentiert wird, kann der darstellbare Zahlenbereich sehr umfangreich sein, wenngleich die Anzahl der möglichen Werte durch die Anzahl der verwendeten Bits begrenzt wird. (s. analog)

pero Painting by number

Ein Bild ist die ebene Widergabe eines realen Objekts. Bilder gibt es überall in unseren menschlichen Gesellschaften, z.B. Zeichnungen, Gemälde, Photos usw. Seit ca. 2 Dekaden überfluten uns digitale Bilder. Diese Bilder bestehen aus einer sehr großen Zahl kleiner Punkte, deren Farben oder Intensitäten durch Zahlenwerte definiert sind. Diese Punkte werden 'Pixel' genannt, eine Kontraktion aus 'picture' und 'element'.

Quelle: belspo
 
digitale Bilddaten

Engl. digital image, franz. image numérique; nach DIN 18716 "Signale, die in Form einer Bildmatrix aufgenommen und repräsentiert werden".

Digitale Bilddaten sind stets als eine Matrix von Zahlenwerten gegeben. Jedes Element der Matrix repräsentiert dabei einen kleinen quadratischen Bildausschnitt mit einem bestimmten Grauwert, bei Multispektraldaten mit mehreren Intensitätswerten. Der Ort des Elementes in der Matrix wird durch Zeilennummer und Spaltennummer gekennzeichnet. Die Bildinformationen liegen demnach in diskreten Zahlenwerten vor, die unmittelbar rechnerisch verarbeitet werden können. Mit dem menschlichen Auge können sie allerdings nicht direkt wahrgenommen werden.

Die primäre Form der Datenspeicherung bei der Aufnahme muss jedoch nicht die endgültige sein. Es kommt im Gegenteil häufig vor, dass die Bilddaten im Rahmen der Verarbeitung und Auswertung von einer Speicherform in die andere überführt werden. Deshalb ist es möglich, jede Art von Auswertetechnik auf jede Art von Bilddaten anzuwenden. Außerdem können die Ergebnisse rechnerischer Prozesse sichtbar gemacht werden, z.B. auf dem Monitor eines Rechners. Die erforderlichen Vorgänge, mit denen die Transformationen von der analogen in die digitale Form und umgekehrt erzielt werden, nennt man Analog-Digital-Wandlung bzw. Digital-Analog-Wandlung.

Durch Analog-Digital-Wandlung (Digitalisierung) kann ein photographisches (analoges) Bild in eine Matrix von diskreten (digitalen) Grauwerten, also in ein geordnetes Feld von Bildelementen (Pixeln), umgewandelt werden.

digitale Bildverarbeitung

Syn. digitale Bildauswertung; Gesamtheit der Verfahren, durch die ein digitales Bild rechnerisch in ein verändertes digitales Bild überführt wird, einschließlich der Verfahren zur Datenkompression, Bildverbesserung, Filterung, Rektifikation, Klassifikation und Mustererkennung. Damit kann sich die Veränderung auf die geometrischen und/oder die radiometrischen Bildeigenschaften beziehen oder eben das Ergebnis einer Klassifizierung sein.
Die dabei verwendeten Verfahren zielen darauf ab, den Bildinhalt durch automatische Verfahren für den Bearbeiter deutlich sichtbar zu machen, bzw. bestimmte Informationsgehalte hervorzuheben oder zu extrahieren.

Mögliche Anwendungsbereiche:

  • Fernerkundung (terrestrische und marine Ökosysteme)
  • Astronomie und planetarische Fernerkundung
  • Wetterbeobachtung
  • Medizin (Tomographie, Thermographie, Radiologie)
  • Biologie, Mineralogie usw. (Mikroskopische Aufnahmen)
  • Qualitätskontrolle (zerstörungsfreie Werkstoffprüfung)
  • Robotik (sichtbeeinflußte Maschinen)
  • Kriminalistik (Fingerabdrücke, Schrifterkennung usw.)
  • Militärische Anwendungen (Aufklärung, Zielerfassung und -verfolgung)
digitale Filterung

Eine Grundfunktion von rasterbasierten Bildverarbeitungssystemen zur Veränderung von Bildstrukturen, die sich nicht in den Grauwerten einzelner Pixel, sondern in den Grauwertrelationen benachbarter Pixel ausdrücken. Grundsätzlich dient als Filter eine Koeffizientenmatrix, mit deren Hilfe ein kleiner Bereich des Eingabebildes auf einem einzelnen Bildpunkt des Ausgabebildes abgebildet wird. Der Filter muß dann über das ganze Bild 'laufen' und das Eingabebild mathematisch 'falten'.

digi_filt Digitale Filterung - Schematische Darstellung

Für jedes Element des Ausgabebildes wird ein Grauwert berechnet, indem man die Werte eines kleinen Bereiches des Eingabebildes mit den Koeffizienten der 'Filtermatrix' (in der Abb. die 3 x 3 Elemente f1 bis f9) multipliziert und aufaddiert. In der Regel ist das Ergebnis auf die Grauwertskala zwischen 0 und 255 zu normieren. Für die Randelemente kann die Operation nicht durchgeführt werden. Deshalb ist das Ausgabebild etwas kleiner als das Eingabebild.

Zu größerer Darstellung auf Grafik klicken

Quelle: Albertz 2007
 

Die Wirkungsweise von Filtern kann sehr verschieden sein. Viele Bildverarbeitungssysteme bieten aber eine Reihe von Standardfiltern an, zu denen sich zusätzlich weitere Filter interaktiv editieren lassen. Für die digitale Filterung ergeben sich erfahrungsgemäß vier Hauptanwendungsgebiete:

  • allgemeine Bildverbesserung
  • Bildentzerrung
  • Extraktion von geometrischen Bildinhalten
  • Mustererkennung

Filter haben immer die Aufgabe, Erwünschtes von Unerwünschtem zu trennen. Ihre Wirkungsweise kann sehr verschieden sein und hängt von der Größe der Filtermatrix und von den gewählten Koeffizienten ab. Für die Praxis der Fernerkundung sind Hochpassfilter und Tiefpassfilter besonders wichtig.

digitales Bild

Engl. digital image; regelmäßige, flächenhafte Anordnung (Raster-Matrix) von Pixeln, in der die von Sensoren erfassten Strahlungsintensitäten als sog. Grauwerte erfasst sindDigitale Bilder werden als Abfolge numerischer Werte erstellt, wobei jeder Wert die Menge an Energie repräsentiert, die von einer Flächeneinheit auf der Erdoberfläche ausgestrahlt oder reflektiert wird. Diese Bilder werden in getrennten Spektralbändern aufgenommen, die sowohl den Spektralbereich üblichen Filmmaterials abdecken, als auch darüber hinausgehen. Digitale Bilder können auch durch (nachträgliche) Digitalisierung eines analogen Bildes erzeugt werden.
Die Informationen aus jedem Spektralband erzeugen ein diskretes Bild der überstrichenen Bodenspur unterhalb des Raum- oder Luftfahrzeugs. Jedes Bild setzt sich aus Pixeln zusammen, das mit den Quadraten auf einem Schachbrett verglichen werden kann. Die individuellen Pixelwerte (Zahlen, die die relative Helligkeit jedes Punktes repräsentieren) werden zu einer Empfangsstation auf der Erde übertragen, um dann die Reihen und Zahlen einer numerischen Matrix zu bilden, aus der jede Szene besteht. Pixel mit hohen Werten erscheinen hell, solche mit niedrigen Werten dunkel. Bei SW-Bildern handelt es sich dabei um Grauwerte.
Ein farbiges Kompositbild wird durch die Kombination von drei Bildern in einem erzeugt. Jedem der drei Bilder einer Szene, die in unterschiedlichen Wellenbereichen aufgenommen sind, ist eine Grundfarbe zugeordnet: rot, grün oder blau (RGB). Je heller die Pixel sind, umso intensiver ist die Farbe. Wenn korrespondierende Pixel (gleiche Reihe und Spalte) von jedem Bild zusammengefügt werden, ergibt die resultierende Farbe einen Farbton, der das Verhältnis von RGB von jedem der ursprünglichen Bilder repräsentiert.

Washington D.C. Washington D.C. Quelle: Smithsonian

Zu größer Darstellung auf die einzelnen Grafiken klicken

Das große Bild zeigt eine mit dem Thematic Mapper eines Landsat aufgenommene Szene von Washington D.C., einschließlich der Flüsse Potomac und Anacostia. Der Rahmen markiert das Gebiet um das U.S. Capitol, das unten vergrößert ist. Für dieses Gebiet werden Digitalaufnahmen unterschiedlicher Spektralbänder kombiniert, Ergebnis ist ein Falschfarbenbild . Die Farben werden als "falsch" bezeichnet, weil jede Primärfarbe jedem Band zugeordnet werden kann. So kann Vegetation durch ihre Zuordnung zu einem Nahinfrarot-Band rot dargestellt werden. Vegetation reflektiert im nahen Infrarot sehr stark und hat deshalb hohe Helligkeitswerte in diesem Band.

Digitales Geländemodell (DGM)

Engl. digital terrain model (DTM), franz. modèle numérique de terrain; in der Geodäsie und Kartographie verwendete digitale Informationen, in denen räumliche Koordinaten eines Ausschnitts der Erdoberfläche gespeichert sind.

DIN 18716 definiert: [Ein] "Datensatz von Höhenwerten und weiteren Linienelementen (z.B. Bruchkanten), die einem übergeordneten Koordinatensystem zugeordnet sind, die die Geländestruktur hinreichend repräsentieren".

Das digitale Geländemodell findet u. a. Verwendung bei der automatisierten Kartenherstellung (z. B. Schummerungs- und Reliefkarten). In der Luftbildaufnahmetechnik stellt das digitale Geländemodell als Grundlage zur Erstellung von Orthogonalprojektionen einen deutlichen Fortschritt dar. Einfache Luftbilder entstehen aus der Zentralprojektion, die durch parallaktische Verschiebungen Lagefehler aufweist. Diese Lagefehler entstehen durch stärkere Höhenunterschiede im Gelände und durch größere Abstände zum Bildnadir, dem senkrecht über dem Mittelpunkt des Bildes gelegenen Punkt. Die Orthophototechnik bietet die Möglichkeit, Aufnahmen aus der Zentralprojektion differentiell zu entzerren und in orthogonal projezierte, photogrammetrische Luftbilder umzuwandeln. Durch die Entwicklung dieser Technik um 1960 konnten bereits alle Erdteile mittels der Orthoprojektion auf Luftbildkarten aufgenommen werden.

In den Geowissenschaften wird eine Verknüpfung des digitalen Geländemodells mit anderen Datensystemen, z. B. Geographischen Informationssystemen (GIS), digitalen Fernerkundungsdaten sowie thematischen Karten unterschiedlichster Inhalte praktiziert. Hierbei ist ein einheitliches geometrisches Bezugssystem erforderlich.

Datenerfassung für Digitale Geländemodelle Datenerfassung für Digitale Geländemodelle

Daten werden mit einem Datenerfassungsgerät erfasst, einem Gerät zur Analog-Digital-Wandlung (A/D-Wandlung) von Karten-, Bild- oder Modellkoordinaten und deren Codierung. Die registrierten Daten werden am Datenerfassungsgerät aufbereitet, in Datenverarbeitungsnetze übergeleitet oder auf Datenträger ausgegeben.

Zu größerer Darstellung auf Grafik klicken

Quelle: Geoinformatik-Service, Universität Rostock
 

Anwendungsbeispiele für Digitale Geländemodelle:

Kartographie

  • Höhenschichtendarstellung für topografische Pläne und Karten
  • Schummerung

Reliefanalyse

  • Berechnung von Geländeneigung
  • Berechnung von Geländeexposition
  • Berechnung von Einzugsgebieten
  • Berechnung von Licht-Schatten-Mustern
  • Berechnung der theoretisch möglichen Sonnenscheindauer

Weitere Beispiele

  • Katastrophenschutz
    - Potentielle Erosionsgefahr
    - Überschwemmungsvorhersage
  • Meteorologie, Klimatologie (Modellrechungen)
  • 3D-Visualisierung für Planungsstudien
  • Verkehr (Trassenplanungen, Profildarstellungen, Volumenermittlung)
  • Energieversorgung (Planung von Windkraftanlagen)
  • Navigation
    - Autopilot
    - Virtual Cockpit
  • Telekommunikation
    - Mobilfunk
    - Radio, TV
Digitales Höhenmodell (DHM)

Engl. digital elevation model (DEM), franz. modèle numérique d'élévation; digitale Darstellung der Topographie, meist in Form eines regelmäßig angeordneten Punktrasters, in dem die einzelnen Punkte die Höhenwerte repräsentieren. Durch diese z-Werte sind eine dreidimensionale Darstellung und eine quantitative Analyse der Erdoberfläche möglich.
DIN 18716 definiert: [Ein] "Datensatz von Höhenwerten, die einem übergeordneten Koordinatensystem zugeordnet sind, die die Höhenstruktur des Objektes, z. B. des Geländes, hinreichend repräsentieren".
DHMs werden in einer Vielzahl von Disziplinen benötigt. Einige Stichworte sollen das Anwendungsspektrum umreissen: hydrologische Modellierung, Wasserwirtschaft, GPS-Navigation, Planung terrestrischer Mobilfunknetze, Rohstoffexploration, Infrastrukturplanung, Planung von Großanlagen wie Flughäfen und Staudämmen, Militär, Flugführung, Katastrophenschutz, -vorsorge, Wetter- und Klimamodellierung, Geländekorrektur von Fernerkundungsdaten durch Geokodierung u.w.
Meist erfolgt die Erstellung von DHM durch Auswertung von Stereoaufnahmen optischer Systeme. Es ist gewöhnlich eine Luftbild-Photogrammetrie, die zwar hochwertige DHMs liefern, für globale Anwendungen aber zu langwierig und aufwändig sind. Satellitengestützte optische Stereoverfahren andererseits sind auf wolkenlose Sicht angewiesen. Insbesondere gibt es ein Defizit an präzisen DHMs für Afrika, Asien und Südamerika. Aber auch für höher entwickelte Länder sind die derzeitigen digitalen Höhendaten häufig örtlich inhomogen, da aus unterschiedlichen Quellen stammend, mit unterschiedlichen Verfahren gewonnen oder auch auf unterschiedliche Referenzsysteme bezogen.

Vulkan Teide (Teneriffa), Ergebnis einer Radar-Mission Vulkan Teide (Teneriffa)
Ergebnis einer Radar-Mission


Die farbigen Streifen (Fringes) entsprechen den Höhenschichten des Geländes


Quelle: Spaceforum (R.o.)

Völlig neue Möglichkeiten bieten abbildende Radarsysteme. Die dabei eingesetzte Methode der Radarinterferometrie ermöglicht die weltweite Generierung von Höhenmodellen in hoher und homogener Qualität. Beispiele sind die Ergebnisse, die aus Daten von den ERS-Satelliten und der Shuttle Radar Topography Mission gewonnen wurden. Diese aktiven Mikrowellenabbildungsverfahren sind unabhängig von Tageszeit und Bewölkung.

Kilimandscharo (5.895 m) Kilimandscharo

Zu größerer Darstellung auf Grafik klicken

Der Kilimandscharo ist der höchste Berg Afrikas. Seine Höhe von fast 6 km über NN beschert ihm eine permanente Schneebedeckung, obwohl er nur 330 km südlich des Äquators liegt. Er ist der höchste freistehende Berg der irdischen Landfläche, und er überragt die ihn umgebende Ebene um ca. 4.600 m. Der Kilimandscharo besitzt drei Vulkankuppen, die vermutlich vor über 100.000 Jahren zuletzt ausgebrochen sind. Aber noch immer entweichen ihm vulkanische Gase. Er ist umrahmt von 20 weiteren Vulkanen. Der Mount Meru war zuletzt vor ca. 100 Jahren ausgebrochen. Die Berghänge mit ihren Böden aus Vulkangestein sind gewöhnlich fruchtbar und tragen dichte Wälder, wohingegen die viel trockeneren Ebenen eine Savannenvegetation besitzen.
Die 3-D-Darstellung wurde durch die Kombination von topographischen Daten der SRTM-Mission mit einem Bild von Landsat-7 erzeugt. Ein künstlicher Himmel wurde zugefügt. Die Darstellung ist überhöht.

Quelle: NASA
Digitales Landbedeckungsmodell für Deutschland (DLM-DE)

Das Digitale Landbedeckungsmodell (DLM-DE2009) beschreibt die topographischen Objekte der Landschaft im Vektorformat unter dem Aspekt der Landbedeckung und Landnutzung (LB/LN). Hierfür wurde die Nomenklatur des pan-europäischen Datensatzes CORINE Land Cover zugrunde gelegt.
Zweck des DLM-DE ist es, den Zustand der Umwelt zu einem bestimmten Zeitpunkt festzuhalten, um nach wiederholter Erfassung kurz- und längerfristige Änderungen in der Landschaft zu beobachten und nach unterschiedlichen Gesichtspunkten analysieren zu können.
Im Zuge der Umweltberichtspflicht der EU-Mitgliedsstaaten gegenüber der Europäischen Umweltagentur EEA ist ein Hauptanwendungsziel des DLM-DE die Unterstützung des Europäischen Landmonitoring Programms CORINE Land Cover (CLC). Das DLM-DE und die Ableitung von CLC-Daten zielen damit auf die Interoperabilität zwischen Geobasis- und Geofachdaten ab. Im Ergebnis stellt das DLM-DE mit einer Mindestkartiereinheit von 1 ha einen hoch aufgeloesten Geodatensatz im Vektorformat dar, der es erlaubt, die Landbedeckung und Landnutzung für Deutschland nach europäischer Nomenklatur mit bisher unerreichter Genauigkeit abzubilden. Im Zusammenhang mit dem EU-Programm "Global Monitoring for Environment and Security" (GMES), heute "Copernicus"und der EU-Richtlinie zur Schaffung einer Geodateninfrastruktur in der Europäischen Gemeinschaft (INSPIRE) kann das DLM-DE als ein deutscher Beitrag auf dem Weg zur Interoperabilität zwischen nationalen und pan-europäischen Landbedeckungsdatensätzen eingeordnet werden.
Im Hinblick auf die Aktualität der Daten handelt es sich beim DLM-DE um einen intervallartig (mehrjährig) erhobenen Datensatz, welcher räumlich vollständig und zeitlich bezogen auf einen bestimmten Referenzzeitraum eines Jahres aktualisiert wird – im Unterschied zum zyklenhaft aktualisierten ATKIS Basis-DLM, welches räumlich abschnittsweise und zeitlich kontinuierlich fortgeführt wird.
Der Datenbestand des DLM-DE2009 liegt in einer flachen und 100 % flächendeckenden, topologisch sauberen Struktur vor, d.h. ohne Überlappungen und Lücken. Dies gilt in Bezug auf die Arbeitseinheiten in der Form einzelner Bundesländer. Entlang der Grenzen zweier Bundesländer können noch topologische Mängel auftreten, eine Anpassung der Grenzverläufe wurde hier nicht vorgenommen.
Der Datenbestand des DLM-DE basiert auf 99 ausgewählten Objektarten (von Abfallbehandlungsanlage bis Zuschauertribüne) des ATKIS Basis-DLM aus den Bereichen Siedlung, Verkehr, Vegetation und Gewässer, die für die Modellierung von Landbedeckungs- und Landnutzungsinformationen relevant sind.
Für das DLM-DE2009 wurde ein multi-temporaler Ansatz gewählt, wonach Satellitenbildmaterial für ganz Deutschland während der Vegetationsperiode des Jahres 2009 aufgezeichnet werden sollte. Die Mindestkartierfläche beträgt einen Hektar. Zum Einsatz kam Bildmaterial der Systeme RapidEye mit fünf Meter Bodenpixelauflösung und fünf Spektralkanälen sowie DMC (Disaster Monitoring Constellation) mit 32 Meter Bodenpixelauflösung und drei Spektralkanälen. Für DMC-Daten waren zwei getrennte Aufnahmezeitfenster vorgesehen, für RapidEye ein drittes.
Neben den Hauptinformationsquellen der Satellitenbilddaten wurden noch weitere Datenquellen hinzugezogen, wie etwa topographische Karten, digitale Orthophotos oder älteres Satellitenbildmaterial (pan-europäisches Mosaik IMAGE2006).

Weitere Informationen:

Digitales Landschaftsmodell (DLM)

Engl. Digital landscape model;

  1. Ein Primärmodell, entstanden durch Modellierung (z.B. Abstraktion, Typisierung) aus der Landschaft, der Realität. Die Abbildungsregeln können formal definiert und abgelegt sein; sie dienen dann der Umsetzung in Datenbankmodelle.
  2. Modellkomponente in ATKIS (ATKIS-DLM) mit herausgehobener Bedeutung. Hier beinhaltet das DLM die in ATKIS geführten Landschaftsbestandteile in vektorieller Form. Die Beschreibung der Topographie erfolgt in einem Objektartenkatalog (OBAK).
  3. Datenbestand zur grundriß- und höhenmäßigen Beschreibung des Geländes. Ein digitales Landschaftsmodell ist die Zusammenfassung eines digitalen Lagemodells und eines digitalen Geländemodells.

Weitere Informationen:

Digitales Oberflächenmodell (DOM)

Engl. digital surface model; digitale Oberflächenmodelle beschreiben die zum Zeitpunkt der Befliegung tatsächlich vorhandene Landschaft mit zusätzlich allen festen und beweglichen Objekten, die nicht zur Geländeoberfläche (Grenzschicht Pedosphäre - Atmosphäre) zählen. Das sind vor allem Wälder und Bauwerke (Häuser, Brücken und Hochspannungsleitungen) sowie der ruhende und fließende Verkehr. Aus den unregelmäßig verteilten First-Pulse-Daten der Laserscanaufnahme wurde automatisch ein regelmäßiges Gitter abgeleitet und kann daher unplausible Werte enthalten. Eine besondere Genauigkeitsabschätzung ist daher nicht möglich. Vgl. DGM.

Nutzungsmöglichkeiten:

  • Einsatz für den Aufbau und die Fortführung von Solarkatastern
  • Simulation und Prognose (Hochwasser, Lärmausbreitung, Umweltverschmutzung)
  • Funknetzplanungen
  • Visualisierung der Situation an der Erdoberfläche (Schummerungsdarstellung sowie Perspektivansicht)
  • Zusammenführung mit weiteren Geobasis- und/oder Geofachdaten (z. B. Präsentation mit dem ATKIS-Basis-DLM oder Digitalem Orthophoto)
  • Ableitung von 3D-Gebäudemodellen
  • Kleinräumige Raumplanung (z.B. Bauleitplanung etc.)

Nutzergruppen:

Verwaltung, Landwirtschaft, Kommunikation, Ökologie, Energiebewirtschaftung, Umweltschutz, Forstwirtschaft, Geodäsie, Geologie, Geomorphologie, Wohnungswesen, Gewässerkunde, Gewässerschutz, Landnutzungsplan, Bergbau, Freizeiteinrichtungen, Regionalplanung, Straßenbewirtschaftung, Straßenplanung und Verkehr.

Digitales Orthophoto (DOP)

Ein digitales Orthophoto (griech. orthós richtig, gerade, aufrecht) ist eine verzerrungsfreie, maßstabsgetreue und schwarz-weiße oder farbige Abbildung der Erdoberfläche, die durch photogrammetrische Verfahren aus Luft- oder Satellitenbildern abgeleitet wird. Die Verzerrungen und Verschiebungen, welche bei der Aufnahme eines Bildes durch die Zentralprojektion und die unterschiedlichen Entfernungen der Objekte zur Kamera entstehen, werden mit Hilfe eines Digitalen Geländemodells (DGM) rechnerisch ausgeglichen. Wegen ihrer Maßstabstreue und Georeferenzierung können sie direkt mit Karten gleichen Maßstabs verglichen oder mit Fachdaten, zum Beispiel Straßenplanungen, digital zusammengefügt werden. Dies unterscheidet ein Orthophoto von einem 'normalen' Luftbild.
Digitale Orthophotos (DOP) dokumentieren den Landschaftszustand zu einem bestimmten Zeitpunkt. Sie enthalten vollständig alle aus der "Vogelperspektive" sichtbaren Landschaftsinformationen, ohne dass diese bereits selektiert oder strukturiert worden sind.
Die Daten werden standardmäßig im TIFF- oder  komprimiert im  ECW-Format (farbig oder schwarzweiß), ab Bildflugjahr 2004 zusätzlich als Color-Infrarotbild (CIR) abgegeben. Seit 2001 werden DOP durch ein rechnergestütztes Entzerrungsverfahren mit einer geometrischen Genauigkeit von etwa +/- 0,4 m aus Luftbildern hergestellt, die in der Regel im Maßstab 1:12 000 als Senkrechtaufnahmen vorliegen. Die Pixelgröße der DOP am Boden beträgt standardmäßig 0,4 m x 0,4 m, seit 2007 sogar nur 0,2 m x 0,2 m. 80 Prozent der Fläche Deutschlands liegen in einer Bodenauflösung von 20 cm vor. Digitale Orthophotos sind flächendeckend verfügbar. Durch die Ausgabe an geeigneten Plottern können DOP in analoge Exemplare umgewandelt werden.
In der Vergangenheit wurden Luftbilder nur optisch entzerrt und als Fotos abgegeben. In der weiteren Entwicklung wurden die Bilder dann gescannt und - von Passpunkten und Aerotriangulation
gestützt - rechnerisch entzerrt. Der Einfluss der Geländehöhe wird dabei mit Hilfe eines digitalen Geländemodells kompensiert. Die neueste Generation von digitalen Luftbildkameras macht einen vollständig digitalen Ablauf der Luftbild- und Orthophotoherstellung möglich. Die Dateien werden zu einem Mosaik zusammengesetzt. Das so entstandene Produkt ist eben das digitale Orthophoto.

Einsatzmöglichkeiten:

  • Planungsgrundlage
  • Nachweis von Schutzgebieten und landwirtschaftlichen Fördermaßnahmen
  • Internetpräsentationen
  • Fachinformationssysteme
  • Geomarketingsysteme
  • Forschung und Lehre
  • Freizeit

Weitere Informationen: Digitale Orthophotos (BKG)

DigitalGlobe

Bedeutender Anbieter von Satellitenbildern und Betreiber von Erdbeobachtungssatelliten mit Sitz in Longmont, Colorado. Digital Globe beschäftigt 1.235 Mitarbeiter (2013). Das Unternehmen wurde 1992 als WorldView Imaging Corporation gegründet. Vor dem Hintergrund des Land Remote Sensing Policy Act (*Oktober 1992) erhielt es 1993 die Genehmigung des amerikanischen Wirtschaftsministeriums, ein Satellitensystem zu bauen und zu betreiben, um für kommerzielle Zwecke hochaufgelöste Aufnahmen der Erde aus dem All zu machen. Das damalige WorldView wurde 1995 durch eine Fusion mit einem Zweig von Ball Aerospace zu EarthWatch Incorporated bevor es 2002 schließlich zu DigitalGlobe wurde.

Mit dem Start des Satelliten QuickBird 2 am 18. Oktober 2001 gehört Digital Globe zu den führenden Anbietern von Satellitendaten. QuickBird-1 erreichte 2000 die vorgesehene Umlaufbahn nicht. Das Unternehmen hat 2007 mit WorldView-1 und 2009 mit WorldView-2 weitere Satelliten in Betrieb genommen. Im August 2014 folgte WorldView-3 mit dem zu dieser Zeit höchsten Auflösungsvermögen eines kommerziellen Erdbeobachtungssatelliten (31 cm panchromatisch, 1,24 multispektral, 3,7 m SWIR).

Anfang 2013 wurde die im Juli 2012 vereinbarte Fusion von DigitalGlobe mit einem ihrer Hauptkonkurrenten, der Fa. GeoEye vom U.S. Justizministerium genehmigt. Die neue Firma verfügt über die weltgrößte Flotte von Erdbeobachtungssatelliten mit hoher Auflösung.

Die Kunden von DigitalGlobe reichen von Stadtplanern bis zu diversen amerikanischen Bundesbehörden, einschließlich der NASA und der National Geospatial-Intelligence Agency (NGA). Ungefähr 60 % der jährlichen Einkünfte von DigitalGlobe hängen von Aufträgen der amerikanischen Regierung ab, vor allem von Seiten der National Geospatial-Intelligence Agency (NGA). Ein großer Teil der hoch aufgelösten Bilddaten von Google Earth und Google Maps stammen von DigitalGlobe, ebenso wie Bilddaten im TerraServer. Seit 2016 kartiert Facebook zusammen mit DigitalGlobe automatisiert Gebiete für OpenStreetMap.

Hauptwettbewerber von DigitalGlobe ist Airbus Defence and Space.

Weitere Informationen:

Digitalisieren
  1. Der Prozess des Konvertierens analoger Karten und anderer Quellen in eine von Computern lesbare Form mit Hilfe einer Digitalisiermaus, eines -tabletts/-tisches (manuelle Verfahren) oder mittels eines Scanners. Bei der manuellen Digitalisierung entstehen Vektordaten, beim Scannen hingegen Rasterdaten.
  2. Das Umsetzen von beliebigen analogen Quellen (z.B. Punkten, Linien und Flächen in Karten oder Texte, Zahlen in Karteien) in digitale Werte (z.B. Koordinaten oder Bildelemente, alphanumerische Daten) zur anschließenden Speicherung oder Datenverarbeitung.
Digitalisierung

Engl. digitization; syn. Analog-Digital-Wandlung; die Umwandlung von traditionellen, analogen Medien (gedruckter Text oder gedrucktes Bild/Karte auf Papier, laufender 35mm-Film, analoge Tonbandaufzeichnung) in eine digital gespeicherte, d.h. codierte Form. Dabei geht der Trend dahin, derartige Medien an ihrer Quelle, also möglichst nahe an ihrer Erzeugung/Entstehung/Produktion, bereits digital codiert vorzuhalten.
Ein analoges Bild stellt eine orts- und wertkontinuierliche Bildfunktion dar. Durch Analog-Digital-Wandlung kann ein photographisches (analoges) Bild in eine Matrix von diskreten (digitalen) Grauwerten, also in ein geordnetes Feld von Bildelementen (Pixeln) umgewandelt werden.

Die Digitalisierung erfolgt in zwei Schritten:

  • Durch die Abtastung mit einem Scanner wird die flächenhafte kontinuierliche Grauwertfunktion eines photographischen Bildes in quadratische Bildelemente zerlegt, die in Zeilen und Spalten angeordnet sind (geometrische Diskretisierung nach dem Ort).
  • Durch die folgende Quantisierung (Darstellung einer Größe in einem System, in dem sie nur diskrete Werte annehmen kann) wird der für ein Pixel gemessene Grauwert in eine diskrete Zahl gewandelt. Bei der gemessenen physikalischen Größe handelt es sich um die (mittlere) Reflexion bzw. Transparenz. Die in Frage kommenden Grauwerte sind eine Teilmenge der natürlichen Zahlen unter Einschluss der Null. Gewöhnlich wird in 8 bit quantisiert, was 256 Werte (von 0 bis 255) ergibt. Dies ist rechentechnisch zweckmäßig und gilt deshalb in der digitalen Bildverarbeitung als Standard. Mit den dann möglichen Grauwerten zwischen 0 und 255 kann ein Bild digital so beschrieben werden, dass für das menschliche Auge keine Grauwertstufen erkennbar sind.

Die Bildinformation des Originals kann in den digitalen Daten nur dann ohne spürbaren Verlust wiedergegeben werden, wenn die Rasterelemente sehr klein und die Grauwerte entsprechend fein abgestuft sind.

Digital Number (DN)

Dt.: Digitalzahl; ein Wert in der Fernerkundung, der für gewöhnlich innerhalb einer Skala zwischen 0 und 255 liegt und der durchschnittlich gemessenen Strahlung zugewiesen wird, die von einem Sensor aufgezeichnet wird.
Satellitenbilddaten liegen als Pixelraster mit diesen zugeordneten digitalen Werten (DN) in einem festgelegten Dynamikbereich vor, die einen Wert proportional zur Intensität der aufgenommenen elektromagnetischen Strahlung zugewiesen bekommen. Dieser Dynamikbereich liegt bei Landsat ETM 7 bei 8 bit, d.h. die DN können Werte zwischen 0 und 255 annehmen, wobei 0 die geringste und 255 die höchste Intensität darstellt.
Zur Visualisierung bietet sich die Kodierung dieser DN in Grauwerte an, so daß DN 0 mit Schwarz und DN 255 mit Weiß dargestellt wird. Die Zwischenwerte werden durch Grautöne dargestellt. Auf diese Weise kann ein Kanal einer Satellitenbildaufnahme dargestellt werden. Um mehrere Kanäle gleichzeitig abzubilden, muß eine Farbdarstellung erstellt werden. Dabei werden unterschiedliche Farbmodelle benutzt. Das gebräuchlichste ist das additive Farbmodell, das aus der Kombination der drei Grundfarben Rot, Grün und Blau (RGB) besteht. Durch additive Mischung dieser drei Primärfarben kann jede andere Farbe gemischt werden, einschließlich Schwarz und Weiß.

DIN 18716

Diese Norm (Photogrammetrie und Fernerkundung - Begriffe) mit Ausgabedatum August 2012 legt die Begriffe der Fernerkundung der Erde, einschließlich darauf befindlicher Objekte, mit abbildenden digitalen Sensorsystemen von Standorten auf der Erde, von Luftfahrzeugen (insbesondere Flugzeugen) oder Satelliten fest. Sie dient der Vereinheitlichung der Grundbegriffe und Benennungen. Anwendung findet die Fernerkundung zur Erfassung und Beobachtung der Erdoberfläche im weitesten Sinne, insbesondere zur Kartierung und Überwachung der Geo- und Biosphäre, zur Datengewinnung im Geoinformationswesen, Erstellung von Planungsunterlagen und zur Beobachtung natürlicher und anthropogener Veränderungen von Ökosystemen. Darunter fallen auch Anwendungen in Vermessungswesen und Kartographie, darüber hinaus aber in einem breiten Spektrum weiterer Fachgebiete, wie Raumordnung und Landesplanung, Forstwirtschaft, Bauingenieurwesen, Architektur, Denkmalschutz und Archäologie, Industriemessung, Unfallaufnahme und Kriminalistik, Medizin und andere. Die Aussagen gelten sinngemäß auch für die Erkundung extraterrestrischer Körper. In der Ozeanographie und in der Meteorologie wurden eigene Fernerkundungsverfahren entwickelt. Die damit zusammenhängenden Begriffe sind nicht Gegenstand dieser Norm. Diese Norm bezieht sich auf die Detektion und Auswertung elektromagnetischer Strahlung und nicht auf Magnet- und Schwerefelder. Für diese Norm ist das Gremium NA 005-03-02 AA "Photogrammetrie und Fernerkundung" im DIN zuständig.

Die aktuelle Norm ersetzt folgende älteren Normen: DIN 18716-1:1995-11, DIN 18716-2:1996-07, DIN 18716-3:1997-07

direkte Transformation

Engl. direct method of transformation, franz. méthode directe de la transformation; nach DIN 18716 ein "Verfahren, bei dem die Grauwerte des Eingabebildes mittels der Transformationsgleichung direkt in das Ausgabebild übertragen werden".

Diskreta

Einzahl: Diskretum; räumliche Objekte mit klarer Begrenzung zwischen möglichen Ausprägungen, keine Übergänge, meist nominales Datenniveau.

diskrete Daten

Engl. discrete data; aus getrennten Einheiten bestehende Daten, z.B. kategorische Daten wie Vegetationstypen oder klassifizierte Daten wie Geschwindigkeitsbereiche. Jeder Block von Informationen wird für sich genommen, "diskret" gespeichert. In geographischer Hinsicht können diskrete Daten von Polygonen repräsentiert sein. Im Gegensatz dazu stehen kontinuierliche Daten.
Zoomt man weit genug in ein Satellitenbild hinein, entdeckt man viele kleine Quadrate verschiedener Farbe. Dies rührt daher, dass das Bild nicht kontinuierlich aufgebaut ist, sondern ein Gitterraster (Matrix) von Pixeln (quadratischen Bildpunkten) aufweist. Das ist eines der wichtigsten Merkmale von digitalen Formaten.

Diskretisierung

Engl. discretisation; räumliche Kontinua (Oberflächen, geschwungene Linien) müssen zur digitalen Handhabung je nach angestrebter Auflösung bzw. Maßstab diskretisiert - in kleine Abschnitte bzw. einzelne Punkte zerlegt - werden.

Diskretisierungsstufe

Schritt bei der Bildverarbeitung. Einer analogen Szene wird in der Diskretisierungsstufe ein Raster aufgesetzt, so dass sich quadratische oder rechteckige Bildelemente ergeben. Räumliche Elementarbereiche werden dabei also in je einem solchen Bildelement (Pixel) zusammen-gefasst.
Die Diskretisierungsgenauigkeit wird bei Bildern Auflösung genannt. Es gilt: Je höher die Auflösung, also je kleiner die Pixel, desto genauer entspricht das digitale Bild dem Original. Der Nachteil bei höherer Auflösung ist, dass auch mehr Pixel abgespeichert werden müssen, die Bilddatei also größer wird, was wiederum einen höheren Aufwand bei der Verarbeitung bedeutet.

Dispersion

Die spektrale Zerlegung einer Strahlung, insbesondere die Farbzerlegung der Lichtstrahlung, beim Übergang zwischen zwei Medien mit unterschiedlichem Brechungsindex.

DLR

Akronym für Deutsches Zentrum für Luft- und Raumfahrt; das DLR ist das nationale Forschungszentrum für Luft- und Raumfahrt und die Raumfahrtagentur Deutschlands. Als solche nimmt das DLR die Aufgabe des Raumfahrt-Managements im Auftrag und nach Maßgabe der zuständigen Bundesressorts wahr. Es besitzt eine Brückenfunktion zwischen Wissenschaft und Wirtschaft und bündelt seine Kräfte programmatisch in Netzwerken mit leistungsstarken Partnern im In- und Ausland.
Das DLR dient wissenschaftlichen, wirtschaftlichen und gesellschaftlichen Zwecken. Ziel ist es, mit den Mitteln der Luft- und Raumfahrt unser Leben zu bereichern sowie zur Sicherung und Gestaltung unserer Zukunft beizutragen.

Das DLR hat circa 8.000 Mitarbeiterinnen und Mitarbeiter. Es unterhält 33 Institute, Test- sowie Betriebseinrichtungen und ist an 16 Standorten vertreten: Köln (Sitz des Vorstands), Augsburg, Berlin, Bonn, Braunschweig, Bremen, Göttingen, Hamburg, Jülich, Lampoldshausen, Neustrelitz, Oberpfaffenhofen, Stade, Stuttgart, Trauen und Weilheim. Der größte Standort mit rund 1.700 Mitarbeitern ist Oberpfaffenhofen. Das DLR hat Verbindungsbüros in Brüssel, Paris, Tokio und Washington D.C.

Im Geschäftsjahr 2015 betrug der Etat des DLR für Forschung und Betrieb 888 Millionen Euro, davon waren 51 Prozent im Wettbewerb erworbene Drittmittel. Das außerdem vom DLR verwaltete Raumfahrtbudget hatte ein Volumen von 1.357 Millionen Euro. 66 Prozent entfielen auf den deutschen Beitrag zur Finanzierung der Europäischen Weltraumorganisation ESA, 20 Prozent auf das Deutsche Raumfahrtprogramm und 14 Prozent auf die Weltraumforschung im DLR selbst. Die Fördermittel des Projektträgers im DLR hatten ein Volumen von 1.017 Millionen Euro und des Projektträgers Luftfahrt von 151 Millionen Euro.

In Deutschland ist das DLR von der deutschen Bundesregierung für die Planung und Umsetzung der deutschen Raumfahrtaktivitäten beauftragt und ist als Projektträger für die Umsetzung von Förderprojekten verschiedener Ministerien der Bundesrepublik Deutschland (u. a. des BMBF, BMWi und des BMVI) zuständig. International arbeitet das DLR eng mit der NASA und der ESA, sowie mit militärischen Einrichtungen, etwa dem Air Force Research Laboratory der US-Luftwaffe zusammen

Lage des DLR, StO Oberpfaffenhofen, im Satellitenbild Lage des DLR,
StO Oberpfaffenhofen,
im Satellitenbild

Zu größerer Darstellung auf Abbildung klicken

Quelle: DLR


Zum Film über den StO Oberpfaffenhofen
hier klicken (Ladezeit!).

Das DLR fühlt sich ausdrücklich dem Prinzip des Open Access verpflichtet. Unter Open Access versteht man den entgeltfreien Zugang zu wissenschaftlichen Dokumenten im Internet. Ziele sind die maximale Verbreitung und die schnelle Verfügbarkeit wissenschaftlicher Information. Vorteile wie größere Sichtbarkeit und Zitierhäufigkeit von Publikationen sowie gute Auffindbarkeit durch Suchmaschinen liegen auf der Hand.

Seit März 2012 stehen alle Fotos und Videos, die vom DLR gemacht werden, unter einer Creative-Commons-Lizenz. Dies bedeutet, sie können unter bestimmten Bedingungen von jedem genutzt werden, um eigene Projekte zu bebildern. Für die Idee, dass öffentlich finanzierte Daten auch der Öffentlichkeit zur Verfügung stehen sollten, ist das ein großer Fortschritt. Die Bilder der Nasa können schon seit Jahren von jedem unter einer freien Nutzungslizenz verwendet werden.

Weitere Informationen:

DLR_School_Lab

Außerschulisches Lernangebot des DLR an 9 verschiedenen DLR-Standorten mit standortspezifischen Angeboten an wissenschaftsnahen Experimenten. Die evaluierten DLR-Schülerlabore sind eine innovative Ergänzung zum Schulunterricht und gleichzeitig Impulsgeber für die Lehrerfortbildung. Weitere Labore sind im Aufbau.
Unter Fernerkundungsgesichtspunkten bietet insbesondere das Schülerlabor in Oberpfaffenhofen, aber auch das in Neustrelitz relevante Experimente.

Weitere Informationen:

DMC

Engl. Akronym für Disaster Monitoring Constellation; ein Verbund von Erdbeobachtungssatelliten, der von der DMC International Imaging betrieben wird. Gebaut wurden die Satelliten des Verbundes alle von der Surrey Satellite Technology Limited (SSTL), einem 1985 von der University of Surrey als spin-off gegründeten Unternehmen (heute im Mehrheitsbesitz von Airbus Defence & Space) zur Herstellung und zum Betrieb von kleinen Hochleistungssatelliten.
Mit seinem Satellitenverband ist DMC Mitglied der Internationalen Charta für Weltraum und Naturkatastrophen.

Beteiligt sind folgende Nationen:

Country /
Operator
Designation
Type
Imager
Launch
Nigeria
NASRDA
Nigeriasat-NX
SSTL-100i
22m MS
2011
Nigeria
NASRDA
Nigeriasat-2
SSTL-300
2.5m Pan
5m MS
32m MS
2011
UK
DMCii
UK-DMC2
SSTL-100i
22m MS
2008
Spain
Deimos
Deimos-1
SSTL-100i
22m MS
2008
UK
SSTL
UK-DMC
SSTL-100i
32m MS
2003
Nigeria
NASRDA
Nigeriasat-1
SSTL-100i
32m MS
2003
Turkey
BILTEN
Bilsat-1
SSTL-150i
26m MS
12m Pan
2003
China
BLMIT
Beijing-1
SSTL-150i
32m MS
4m Pan
2005
Algeria
ASAL
Alsat-1
SSTL-100i
32m MS
2002

Weitere Informationen:

DMC3/TripleSat Constellation

Konstellation von drei baugleichen kommerziellen Mikrosatelliten mit Aufgaben zur Erdbeobachtung. Die drei Satelliten folgen einander im Abstand von 33 min auf einer sonnensynchronen Umlaufbahn in 651 km Höhe und können so jeden Punkt der Erde wenigstens einmal täglich abbilden. Dabei können zwei Satelliten damit beauftragt werden Stereobilder zu erzeugen, aus denen Digitale Höhenmodelle (DEM) ableitbar sind. Die Bilder besitzen im Nadir eine Auflösung zwischen 1 m (panchromatisch) und 4 m (multispektral; RGB, NIR). Die von Surrey Satellite Technology Limited (SSTL) gebauten und aktuell von Earth-i betriebenen Satelliten wurden im Juli 2015 mit der indischen Trägerrakete Polar Satellite Launch Vehicle (PSLV)-XL com Weltraumbahnhof Satish Dhawan Space Centre auf Sriharikota ins All gebracht.

Weitere Informationen:

DMSP

siehe Defense Meteorological Satellite Program

DOAS

Engl./dt. Akronym für Differential Optical Absorption Spectroscopy / Differentielle Optische Absorptionsspektroskopie; ein in der Physik und physikalischen Chemie gebräuchliches Fernerkundungsverfahren, mit der sich Spuren chemischer Verbindungen qualitativ und quantitativ nachweisen lassen. Mit DOAS können NO2, O3, SO2, NH3, NO, HCHO, Benzol, Toluol, NO3, und HNO2 gemessen werden.
Die DOAS basiert auf der von Frequenz bzw. Wellenlänge abhängigen Absorption von Licht in gasförmiger Materie. Das Licht kann hierbei von einer künstlichen Quelle wie einer Xenon-Hochdrucklampe oder Halogenlampe als auch von einer natürlichen, extraterrestrischen Quelle wie der Sonne stammen. DOAS-Geräte arbeiten mit sichtbarem und UV-Licht. Die Spurengaskonzentrationen in einem Luftvolumen werden dabei aus den jeweils charakteristischen Absorptionsstrukturen durch Vergleich mit Absorptionslinien in Referenzspektren bestimmt. Hierauf geht die Bezeichnung "differentielle Absorptionslinien" zurück.
In der Satellitenfernerkundung ist das DOAS-Prinzip beispielsweise bei den Sensoren GOME auf ERS-2 sowie GOMOS und SCIAMACHY auf ENVISAT realisiert.
Die DOAS-Methode zur Messung atmosphärischer Spurengase wird auch eingesetzt, um den Austausch von Gasen zwischen der Atmosphäre und dem Meer in Laboruntersuchungen zu erforschen und flächenaufgelöst direkt den Wassergehalt und die Konzentration verschiedender Substanzen in Pflanzenblättern zu messen.

Dobson-Einheit

Engl. Dobson Unit (DU); Einheit für die Ozon-Säulendichte über einer bestimmten Stelle der Erdoberfläche, benannt nach dem Atmosphären-Wissenschaftler G. M. B. Dobson (1920-1960). 100 Dobson-Einheiten (Dobson-Units, DU) entsprechen einer Ozonschicht von 1 mm Dicke unter Normalbedingungen (Luftdruck 1013 hPa, Temperatur 273 K).

Dopplereffekt

Veränderung der Wellenlänge einer akustischen oder elektromagnetischen Strahlung durch eine (Relativ)Bewegung von Sender und/oder Empfänger. Danach registriert ein Beobachter, der sich relativ zu einem Wellensender bewegt, eine andere Frequenz als die tatsächlich von der Quelle erzeugte. Bewegen sich Sender und Empfänger aufeinander zu, erhöht sich der Ton/die Frequenz (Blauverschiebung), entfernen sich die beiden voneinander, erniedrigt sich die Tonhöhe/Frequenz (Rotverschiebung). Dieses Phänomen ist nach dem österreichischen Physiker Christian Johann Doppler benannt, der 1842 das zugrunde liegende Prinzip formulierte.

Prinzip des Dopplereffektes Prinzip des Dopplereffektes

Im Punk A wird eine Strahlung ausgesendet. Die Strahlung wird im Punkt B empfangen und auch reflektiert.
Die empfangene Frequenz ist bei konstantem Abstand beider Punkte zueinander unverändert. Bewegen sich beide Punkte jedoch relativ zueinander, wird die empfangene Frequenz verändert. Bei einer Bewegung voneinander weg verringert sich die Frequenz, anderenfalls erhöht sie sich. Die Veränderung der Empfangsfrequenz ist ausschließlich von der Relativbewegung zueinander abhängig.

Quelle: NVA Flieger (R.o.)

In der Satellitennavigation wird der Doppler-Effekt dazu genutzt, aus der Frequenzänderung eine Entfernungsdifferenz zwischen einer Beobachterantenne und zwei Satellitenpositionen zu unterschiedlichen Zeitpunkten abzuleiten. Diese Entfernungsdifferenz gilt dann als Beobachtungsgröße für die Standortbestimmung. Das Dopplerprinzip wurde sehr erfolgreich zur Navigation und zur geodätischen Positionsbestimmung mit dem System Transit etwa von 1967 bis 1996 eingesetzt und findet Anwendung beim DORIS. Beim GPS wird die Dopplermessung für die Geschwindigkeitsbestimmung der Empfangsantenne und als zusätzliche Beobachtungsgröße verwendet.

Dopplerradar

Radarsystem, das zwischen festen und bewegten Objekten unterscheidet, indem es die aufgrund des Dopplereffektes veränderte Frequenzänderung der reflektierten Wellen registriert. In der Atmosphäre sind kleinste Partikel erkennbar. Innerhalb von Gewitterzellen können so Regen, Schnee, Hagel oder Graupel unterschieden werden. Die Reflexion der Teilchen ermöglicht ein farbiges Bild des Wolkeninneren. Mit dem Dopplerradar können auch Messungen der Windgeschwindigkeit innerhalb einer Wolke durchgeführt werden.

Dopplerradar - Prinzip Dopplerradar - Prinzip

Zur Animation auf Grafik klicken


Quelle: IAC ETHZ

Ein Dopplerradar liefert hervorragende Daten, wenn es um die Untersuchung von Konvektionszellen geht, deren räumliche Struktur ansonsten schwer erfassbar ist. Solche Systeme werden daher auch eingesetzt, um gefährliche Rotationsbewegungen in Superzellen zu identifizieren, da diese Windbewegungen als wesentliche Vorstufe der Bildung von Tornados gelten.

Hagelzellen im Schweizer Mittelland Hagelzellen im Schweizer Mittelland (8.5.2003)


Quelle:
Meteoradar (ETHZ) (R.o.) / Metradar (ETH-Spinoff)

Eine Sonderform des Dopplerradars ist das Polarisations-Dopplerradar, das ebenfalls für meteorologische Aufgaben eingesetzt wird. Es vermag Art und Quantität der beobachteten Niederschlagsteilchen noch präziser bestimmen als mit einem konventionellen Radar möglich. Hierbei wird die Tatsache ausgenutzt, dass die verschiedenen Niederschlagsteilchen eine unterschiedliche Form und somit ein unterschiedliches Rückstreuverhalten für unterschiedliche polarisierte elektromagnetische Wellen haben.

Weitere Informationen:

Dopplerverschiebung

Eine Änderung in der beobachteten Frequenz elektromagnetischer Strahlung oder anderer Wellen durch die relative Bewegung zwischen Quelle und Empfänger. Das Prinzip wird vor allem bei der Erstellung von SAR-Bildern angewandt.

DORIS
  1. Franz. Akronym für Détermination d'Orbite et Radiopositionnement Intégré par Satellite, alternativ engl. Akronym für Doppler Orbitography and Radiopositionning Integrated by Satellite; auf dem Doppler-Effekt basierendes Mikrowelleninstrument der CNES zur zentimetergenauen Bahnbestimmung von Satelliten mit integrierter Funkpositionierung.
    An Bord der Raumflugkörper werden Doppler-Signale von einem Netz kleiner Sender auf der Erde empfangen und verarbeitet. Die daraus ermittelten Bahndaten gelangen dann in Verbindung mit den Sensorinformationen zur Bodenstation zurück.
    DORIS stellt heute im Bereich der Höhenmessung eine Referenz dar. Es wird (künftig) eingesetzt auf TOPEX/POSEIDON, Jason, SPOT-3/4/5, ENVISAT und CryoSat. Das Bodensegment wird von allen DORIS-Missionen genutzt.
    Zusätzlich zur Bahnbestimmung werden die DORIS-Daten genutzt, um die Dynamik der festen Erde besser verstehen zu lernen, Gletscher, Erdrutsche und Vulkane zu überwachen sowie um die Modellierung des irdischen Schwerefeldes und der Ionosphäre zu verbessern.
    DORIS trägt im Rahmen des IERS (International Service for Earth Rotation and Reference Systems) zur Realisierung und Laufendhaltung des terrestrischen Referenzsystems ITRF (IERS Terrestrial Reference Frame) bei.
  2. Schwester des Autors

Weitere Informationen:

Double Star

Gemeinsames Projekt zwischen der ESA und der chinesischen Raumfahrtbehörde (CNSA) zur Untersuchung der Auswirkungen der Sonne auf die irdische Umwelt, insbesondere die Magnetosphäre. Die Mission umfasst zwei Satelliten, die in komplementären Bahnen die Erde umkreisen, einer auf einem polaren Orbit, der zweite in Äquatornähe. Die Orbitalkonfiguration erlaubt es Wissenschaftlern, zeitgleich in verschiedenen Gebieten der Magnetosphäre Daten über Veränderungen im Magnetfeld sammeln zu können.
Die Satelliten wurden von chinesischer Seite entworfen, gebaut und ins All gebracht, Gleiches gilt für die operationelle Betreuung. Die Hälfte der Experimente stammt von europäischer Seite.

Das Duo (TC-1/-2) wurde von zwei verschiedenen Startplätzen in China (Xichang und Taiyuan) im Dezember 2003 und im Juli 2004 ins All transportiert. TC-1 (syn. DSP-E), der äquatornahe Satellit läuft auf einer elliptischen Bahn in Höhen zwischen 550 und 66.970 km mit einer Neigung von 28,5 Grad zum Äquator. Diese Bahn ermöglicht insbesondere auf die Untersuchung des Magnetschweifes der Erde. In diesem Bereich werden hochenergetische Partikel erzeugt und in Richtung der irdischen Magnetpole beschleunigt. Wenn diese Partikel die Erde erreichen, können sie Unterbrechungen der Stromversorgung und der Kommunikationsstrukturen verursachen und Satelliten beschädigen. Der polare TC-2 (syn. DSP-P)konzentriert sich auf die über den Magnetpolen ablaufenden physikalischen Prozesse und die Bildung von Nord- und Südlicht (Aurora). Seine Bahnhöhe schwankt zwischen 700 und 39.000 km. Für TC-1 wird mit einer Missionsdauer von wenigstens 18 Monaten, für TC-2 von wenigstens einem Jahr gerechnet.
Dieser Fahrplan erlaubt die synchrone Arbeit zusammen mit der Cluster-Mission der ESA, einer seit dem Sommer 2000 im All befindlichen Kleinflotte von vier identischen Raumflugkörpern auf elliptischen Erdorbits.

TC-2 im Labor

Der Satellit Double Star TC-2 während eines Sonnensimulationstests
Quelle: ESA

Die Orbits der Double Star-Satelliten Die Orbits der Double Star-Satelliten

Die Mission besteht aus 2 Satelliten, dem äquatornahen DSP-E (TC-1) auf einem Orbit mit Flughöhen zwischen 550 und 66.970 km und dem polaren DSP-P (TC-2) mit Flughöhen zwischen 700 und 39.000 km. Die Bahnneigung beträgt 28,5° bzw. 90° gegenüber dem Äquator.

Quelle: ESA
Die komplementären Orbits von TC-1 und der vier Cluster-Satelliten Die komplementären Orbits von TC-1
und der vier Cluster-Satelliten

Die Cluster-Satelliten befinden sich im Sonnenwind, während TC-1 zeitgleich den bow-shock überquert


Zu größerer Darstellung auf die Grafiken klicken

Quelle: ESA

Weitere Informationen:

Drei-Achs-Stabilisierung

Methode der Ausrichtung von Satelliten. Die Orientierung der Satelliten auf ihrer Umlaufbahn wird derart geregelt, dass Längs- und Querachse stets parallel zur Erdoberfläche orientiert sind. Der Vorteil der Drei-Achs-Stabilisierung z. B. bei Wettersatelliten im Gegensatz zur Spin-Stabilisierung ergibt sich in der einfacheren Möglichkeit, Sondierungsinstrumente einzusetzen, welche stets zur Erdoberfläche hin ausgerichtet sind.

3-D-Bild

Sammelbegriff für ein Bild, das bei beidäugiger Betrachtung echte Tiefenwahrnehmung und damit räumliche Wirkung vermittelt; s. Anaglyphenbild, Stereobild.

Drohne

Engl. unmanned aerial vehicle (UAV); unbemanntes, in der Regel wiederverwendbares Flugzeug, das schwerer als Luft ist. Im englischen Sprachgebrauch werden UAVs eingeteilt in drone und remotely piloted vehicle (RPV), wobei eine drone ein UAV ist, das einer vorprogrammierten Routine folgt, während ein RPV ferngesteuert wird. Drohnen können Spannweiten einer Libelle bis zu der eines Airbus A320 aufweisen. Weitere Klassifikationsmöglichkeiten betreffen Aktionsradius, Flughöhe und -dauer sowie den Einsatzzweck.

Drohnen werden zu militärischen, wie auch zu zivilen Zwecken eingesetzt. Einige Drohnen, etwa der amerikanische RQ-1 Predator, können bewaffnet sein und werden im militärischen Sprachgebrauch als unmanned combat air vehicle (UCAV) bezeichnet. Andere dienen der Aufklärung und Überwachung. Ferner werden ausrangierte Flugzeuge nach Einbau einer Fernsteuereinrichtung als Zieldrohnen zu Übungszwecken und zur Erprobung der Wirkung von Abwehrwaffen verwendet.

Zivile Einsatzbereiche von Drohnen betreffen z.B. Luftbildphotogrammetrie, Grenz- und Küstenschutz, Überwachung von Großveranstaltungen, Fernerkundung für die Landwirtschaft, Überwachung von Gefahrenstellen (z.B. vulkanische Gase), Brandbekämpfung oder Rettungseinsätze.

uav_unibw

Zu größerer Darstellung auf Grafik klicken

Quelle: Universität der Bundeswehr München
  Aufbau eines UAV für Zwecke der Datenerfassung im Bereich Präzisionslandwirtschaft

Methoden der Präzisionslandwirtschaft (Precision farming) haben das Ziel, alle Maßnahmen in der Landwirtschaft möglichst präzise auszuführen. Als kleinste Behandlungseinheiten werden daher die kleinsten differenzierbaren Teilflächen innerhalb eines Schlages heran gezogen und die durchzuführenden Maßnahmen an die Erfordernisse dieser kleinsten Teilflächen angepasst.

Flächendeckende Informationen über die teilflächenspezifische Variabilität der Schläge werden verwendet, um die Intensität verschiedener Applikationsmaßnahmen für jede einzelne Teilfläche angepasst zu berechnen. Entsprechend dieser teilflächenspezifisch variablen Applikationskarten werden die Betriebsmittel dann variabel auf der Fläche appliziert (Modulation der Betriebsmittel).

Um dieses sowohl ökologisch als auch ökonomisch erstrebenswerte Ziel umzusetzen, sind flächendeckende Informationen über die teilflächenspezifische Variabilität und die Möglichkeit der Verortung der Applikationsmaßnahmen durch GPS gestützte Landmaschinen erforderlich.

Durch den Einsatz von Fernerkundung ist es möglich, relevante Informationen über die teilflächenspezifische Variabilität flächendeckend und schnell zu erhalten. Für diesen Zweck eignen sich UAV als Trägerplattformen für Fernerkundungssensorik besonders gut, da sie kostengünstig zeitnah und spontan einsetzbar sind. Sie decken damit entscheidende Kriterien ab, die für ein Monitoring der starken Dynamik des Pflanzenwuchses auf landwirtschaftlichen Flächen benötigt werden.

Projektmittelpunkt ist die Erfassung der teilflächenspezifischen Variabilität des Vegetationsindexes "NDVI". Es werden daher für die Anwendung geeignete UAV Trägerplattformen aufgebaut, die in der Lage sind, die notwendige Fernerkundungssensorik zu tragen und damit entsprechende Informationen flächendeckend zu erfassen. Dabei leiten sich die Flugführungsaufgaben zur flächendeckenden Erfassung der teilflächenspezifischen Variabilität unmittelbar aus dem Landwirtschafts - GIS des Betriebes ab. Die automatisierte Flugführung muss dabei den Anforderungen für die landwirtschaftliche Datenerfassung gerecht werden und stellt die entscheidende Herausforderung im Projekt dar.

 

Das deutsche Recht kennt die Kategorie der unbemannten Luftfahrtsysteme (UAS, nach engl. Unmanned Aircraft System). Dabei handelt es sich um unbemannte Fluggeräte, die nicht zu Zwecken des Sports oder der Freizeitgestaltung betrieben werden. Dabei erfolgt die Abgrenzung zwischen unbemannten Luftfahrtsystemen und Flugmodellen1 ausschließlich über den Zweck der Nutzung: Dient die Nutzung des Geräts dem Zwecke des Sports oder der Freizeitgestaltung, so gelten die Regelungen über Flugmodelle. Ist mit dem Einsatz hingegen ein sonstiger, insbesondere ein gewerblicher Nutzungszweck verbunden (z. B. Bildaufnahmen mit dem Ziel des Verkaufs), so handelt es sich um ein unbemanntes Luftfahrtsystem.

Weitere Informationen:

DSCOVR

Engl. Akronym für Deep Space Climate Observatory, frühere Bezeichnung Triana (Rodrigo de Triana - Name des Besatzungsmitglieds auf Kolumbus' Schiff Pinta, der als erster amerikanisches Land entdeckt hatte); das klimabezogene DSCOVR der NASA ist die erste Erdbeobachtungsmission zum Lagrange-1(L1)-Punkt zwischen Erde und Sonne. Dessen Lage entspricht 1 Prozent der Wegstrecke Erde-Sonne oder ca. 1,5 Mio km. Dies ist der Ort, an dem die Sonne die gleiche Anziehung auf ein Raumfahrzeug ausübt wie die Erde. Der Satellit wird wie die Erde ein Jahr Umlaufzeit um die Sonne benötigen. Von dort wird DSCOVR einen kontinuierlichen Blick auf die sonnenbeschienene Seite der Erde mit großer zeitlicher Auflösung haben. Die Mission erlaubt die Erdbeobachtung gleichzeitig mit den LEO- und GEO-Satelliten und bietet so die Chance zu Synergismen und Kalibrierungsvergleichen. Durch diesen Einsatz mehrerer Satelliten können einzigartige Datensätze erstellt werden.

Zu den Sensoren des Satelliten gehören:

  • ein Radiometer, das sog. National Institute of Standards and Technology Advanced Radiometer (NISTAR); es misst die Bestrahlungsstärke der sonnenbeschienenen Erdseite. Diese Daten werden verwendet um Änderungen im Strahlungshaushalt der Erde zu untersuchen, die durch natürliche Vorgänge oder durch menschlichen Einfluss verursacht werden. Das Radiometer misst in vier Kanälen:
    • für die Gesamtstrahlung in den Bereichen ultraviolett, sichtbar und infrarot (0,2-100 µm)
    • für die reflektierte Sonnenstrahlung in ultraviolett, sichtbar und nahes Infrarot (0,2-4 µm)
    • für die reflektierte Sonnenstrahlung in infrarot (0,7-4 µm)
    • für Kalibrierungszwecke im Bereich 0,3-1 µm
  • ein 10-kanaliges abbildendes Spektroradiometer, die sog. Earth Polychromatic Imaging Camera (EPIC); sie macht Aufnahmen (ultraviolett bis nahes Infrarot) von der sonnenbeschienenen Seite der Erde zu verschiedenen erdwissenschaftlichen Verwendungszwecken.
  • das Plasma-Magnetometer (PlasMag) für Vorhersagen des Weltraumwetters mit drei Einzelinstrumenten:
    • ein Magnetometer zur Messung des Magnetfeldes
    • ein Faraday-Becher zur Messung positiv geladener Teilchen
    • Elektrostatischer Analysator (engl. electrostatic analyzer) zur Messung von Elektronen
    An EPIC New View of Earth

    After journey of about 1.6 million kilometers (1 million miles) to the L1 Lagrange Point, the satellite and its Earth Polychromatic Imaging Camera (EPIC) has returned its first view of the entire sunlit side of Earth. At L1—four times farther than the orbit of the Moon—the gravitational pull of the Sun and Earth cancel out, providing a stable orbit and a continuous view of Earth. The image above was made by combining information from EPIC’s red, green, and blue bands.

    This first public image shows the effects of sunlight scattered by air molecules, giving the disk a characteristic bluish tint. The EPIC team is developing data processing techniques that will emphasize land features and remove this atmospheric effect. Once the instrument begins regular data acquisition, new images will be available every day, 12 to 36 hours after they are acquired by EPIC. These images will be posted to a dedicated web page by autumn 2015. Data from EPIC will be used to measure ozone and aerosol levels in Earth’s atmosphere, as well as cloud height, vegetation properties, and the ultraviolet reflectivity of Earth. NASA will use this data for a number of Earth science applications, including dust and volcanic ash maps of the entire planet.

    It has not been possible to captures images of the entire sunlit side of Earth at once since Apollo 17 astronauts captured the iconic Blue Marble photograph in 1972. While NASA has released other blue marble images over the years, these have mostly been mosaics stitched together with image processing software—not a single view of Earth taken at one moment in time.

    Zu größerer Darstellung auf Bild klicken

    Quelle: NASA
     

Die Messungen der von der Erde emittierten Infrarotstrahlung werden zum Monitoring der globalen Erwärmung und der Klimavariabilität herangezogen. Messungen von Sonnenwinden, Magnetfeldern und Plasma werden neue wissenschaftliche Erkenntnisse liefern und als Frühwarnsystem fungieren für Gefahren, die von Sonnenereignissen für erdnahe Satelliten ausgehen (Sonnenwinde erreichen L1 ca. 1 h früher als die Erde). Weitere Untersuchungsobjekte sind die Dynamik der oberen Atmosphäre sowie die Wolkendecke mit ihren klimawirksamen Eigenschaften. Parallel zur DSCOVR-Mission wird umfangreiches Lehrmaterial mit interdisziplinärem Charakter entwickelt.

Jahrelang wurde der Satellit wegen politischer Kontroversen eingelagert. Im Dezember 2012 gab das Unternehmen SpaceX bekannt, dass der DSCOVR-Satellit 2014 mit einer SpaceX-eigenen Falcon-9-Rakete gestartet wird. Nach mehreren Verschiebungen erfolgte der Start am 11. Februar 2015.

Weitere Informationen:

DUE

Engl. Akronym für Data User Element; ein Element des Earth Observation Envelope Programme (EOEP), seinerseits ein optionales Programm der ESA. DUE versucht die Entwicklung von Demonstrationsdiensten zur Erdbeobachtung zu fördern, die den Bedürfnissen der Endnutzer entsprechen.

Weitere Informationen:

Dunst

Engl. haze; Trübung der - in der Regel bodennahen - Atmosphäre, wodurch sich eine horizontale Sichtweite zwischen 1 und 8 km ergibt. Dunst entsteht durch Partikel wie Wassertröpfchen, Rauch oder Staub. Durch die wellenlängenunabhängige Mie-Streuung an diesen Partikeln erscheint die Atmosphäre milchig-weiß bis grau. Dunst entsteht häufig bei austauscharmen Wetterlagen, wenn in der bodennahen Atmosphäre eine große Zahl von Aerosolen vorliegt. Dies ist besonders unterhalb von Inversionen der Fall, welche den Vertikalaustausch unterbinden. Durch die Ansammlung von Aerosolen und Wassertröpfchen mit einer scharfen vertikalen Begrenzung spricht man auch von einer Dunstglocke.
Dunst verringert die atmosphärische Transparenz und reduziert die Objektkontraste vor allem in kurzen Wellenlängen.

Dunstkorrektur

Korrektur der durch Atmosphärilieneinfluss erhöhten Grauwerte (Atmosphärenkorrektur). Dunst erzeugt atmosphärische Streuung, welche sich in reduzierten Bildkontrasten widerspiegelt. Der Kontrast eines Bildes wird durch die Korrektur dieses Effektes verbessert. Gerade in Gebirgen mit großen relativen Höhen und Unterschieden in der Luftfeuchtigkeit kommt einer Dunstkorrektur nicht nur für die Herstellung von Satellitenbildern, sondern vor allem bei der digitalen Klassifizierung Bedeutung zu.

Durchlässigkeit der Atmosphäre

Engl. transmittance of the atmosphere; die gasförmigen Bestandteile der Atmosphäre zeigen jeweils charakteristische Absorptionseigenschaften. In den oberen Schichten der Atmosphäre ist beispielsweise der Einfluss des Ozons besonders stark.
Das Zusammenwirken aller Bestandteile der Atmosphäre führt zu deren spektraler Durchlässigkkeit und definiert atmosphärische Fenster.

DWD

Akronym für Deutscher Wetterdienst

Dynamik in Bilddaten

Engl. dynamic range of image data, franz. dynamique des données d'image; nach DIN 18716 der "Bereich zwischen minimalen und maximalen Grauwerten in jedem Bildkanal".