Lexikon der Fernerkundung

Pacific Disaster Center (PDC)

Dem US-amerikanischen Verteidigungsministerium unterstellte zivile Behörde zur Katastrophenvorsorge und -hilfe im pazifischen Raum. Das PDC wird in organisatorischer und technologischer Hinsicht als Modell für globales, nationales und lokales Katastophenmanagement aufgebaut.

Panbildschärfung

Engl. pansharpening; die Fusion von panchromatischen Bilddaten mit hoher Auflösung mit gering aufgelösten Multispektraldaten. Im Ergebnis sind die hohe Auflösung und die Farbinformation kombiniert. Das Verfahren ist in digitalen Luftbildkameras und Fernerkundungssatelliten gebräuchlich.

pansharpening_qb
Panbildschärfung mit Bildern des Satelliten Quickbird


Das linke, panchromatische Bild hat eine räumliche Auflösung von 0,6 m, das mittlere Echtfarbenbild von 2,4 m. Bei einer Kombination entsteht ein hochaufgelöstes Farbbild, hier mit Hilfe der Software HighView der Fa. Geosage.

Quellen:
DigitalGlobe / Geosage
panchromatisch

Bezeichnung für die breitbandige spektrale Empfindlichkeit eines Sensors oder Filmmaterials. Panchromatisch heisst dabei, dass der Sensor über den gesamten Bereich des menschlichen Auges von etwa 400 nm (blau-violett) bis 780 nm (tiefrot) empfindlich ist. Die Abstufung der Grauwerte panchromatischer Daten ist damit typischen schwarz/weiss Bildern vergleichbar.
Die HRV-Sensoren auf der Serie der SPOT-Satelliten können beispielsweise im panchromatischen Modus betrieben werden.

Da panchromatische Filme alle Farben in angemessenen, dem Helligkeitsempfinden des menschlichen Auges entsprechenden Grautönen wiedergeben, sind sie für Luftbilder am weitesten verbreitet und dienen allgemein als Aufnahmematerial.

Typisch für panchromatische Filme ist eine etwas geringere Empfindlichkeit für Grün. Dies entspricht der Sensibilität des menschlichen Auges, für das grün – anders als die Alarmfarben rot und gelb – wegen dieser geringeren Empfindlichkeit eine beruhigende, schonende Wirkung besitzt. Auch wirken Abbildungen von panchromatischne Farb- oder Schwarzweissfilmen für das menschliche Auge natürliche als Infrarotbilder. Weiter sind bei panchromatischen Filmen in schattenbedeckten Gebieten mehr Details erkennbar. Insbesondere in Gebieten mit steiler Topographie und/oder hohen dichten Wäldern und somit grossen beschatteten Flächen kommt dieser Vorteil zum Tragen. Beim besonders problematischen Schwarzweissinfrarotfilm werden beschattete Gebiete tiefschwarz dargestellt und lassen in diesen Bereichen keine Details mehr erkennen. Auch sind panchromatische Filme für unterhalb der Wasseroberfläche befindliche Objekte sensibel, und die Auflösung liegt normalerweise über derjenigen von Infrarotfilmen.

panchromatischer Farbfilm

Panchromatische Farbfilme wurden in den 30er Jahren des 20. Jahrhunderts entwickelt. Zunächst wurden sie aufgrund der hohen Kosten und der geringen Auflösung für Luftbildaufnahmen nur selten eingesetzt. Durch Kostenreduktion, Erhöhung der Lichtempfindlichkeit, Verbesserung der Bildqualität und aufgrund der Tatsache, dass Farbbilder einen erhöhten Informationsgehalt aufweisen, wurden sie jedoch immer attraktiver.
Panchromatische Farbfilme bestehen aus drei photosensitiven Schichten, wobei jede Schicht für einen bestimmten Spektral- bzw. Farbbereich empfindlich ist. Die oberste Schicht besitzt eine blauempfindliche (0,4 bis 0,5 μm), die mittlere eine grünempfindliche (0,5 bis 0,6 μm) und die unterste eine rotempfindliche (0,6 bis 0,7 μm) Emulsion. Da die grün- und rotempfindliche Emulsion auch für Blaulicht empfindlich ist, muss ein blauabsorbierender Gelbfilter zwischen die erste und zweite Schicht eingeschaltet werden, der später bei der Entwicklung herausgelöst wird.

panchromatischer Schwarzweißfilm

Schwarzweissfilm, der für alle Farben des sichtbaren Spektrums und für ultraviolettes Licht empfindlich ist und diese in annähernd der Helligkeitsempfindung des menschlichen Auges entsprechende Grautöne umsetzt. Die starke atmosphärische Streuung der UV- und Blaustrahlung vermindert den Kontrast panchromatischer Schwarzweissbilder. Daher wird normalerweise ein kurzwellige Strahlung absorbierender Filter vor der Kameralinse angebracht. Panchromatische Schwarzweissfilme können auch zur Aufnahme ausgewählter Wellenlängenbereiche eingesetzt werden. Möchte man beispielsweise nur grünes Licht abbilden, so müssen Filter eingesetzt werden, welche das übrige sichtbare sowie ultraviolette Licht absorbieren.

Panoramaverzerrung

Engl. panoramic distortion, franz. distortion panoramique; nach DIN 18716 die "systematische Bildverzerrung, die auftritt, wenn mit speziellen opto-mechanischen Scannern aufgenommene Daten unmittelbar als Bilder wiedergegeben werden".

Durch zeilenweise Digitalisierung in konstantem Zeitintervall weisen mit optomechanischen Scannern oder mit entsprechenden Mikrowellenradiometern aufgenommene Bildelemente quer zur Flugrichtung eine Vergrößerung auf. Die Bildelemente werden jedoch in einheitlicher, der Projektion in Nadirrichtung entsprechender Größe dargestellt und damit gestaucht. Die Korrektur dieser Verzerrung (Panoramakorrektur) erfolgt durch Annahme gleichgroßer Bildelemente über die gesamte Streifenbreite und die Rückrechnung der Pixel-Position in das gestauchte Originalbild. Die entsprechenden Grauwerte werden durch eindimensionale Interpolation aus benachbarten Grauwerten (z.B. nearest neighbour) ermittelt.

Parallelepiped Klassifizierung

Syn. Quader- oder Box-Klassifizierung; Methode zur Bildklassifizierung, die eine Parallelepiped-Form nutzt, um Werte einer bestimmten Objektklassen zuzuweisen. Das Parallelepiped repräsentiert einen multi-dimensionalen Raum, definiert in Form von Werten für unterschiedliche Frequenzbänder. Für jeden Spektralkanal wird eine obere und untere Grauwertschwelle definiert, die im dreidimensionalen Raum zur Ausbildung von Quadern führen. Jedes Bildelement wird bei der Klassifikation dem Quader zugeordnet, der die Grauwertkombination des Elements in den verschiedenen Spektralkanälen enthält. Die Quader dürfen sich nicht überlappen –bzw. die Grauwerte der einzelnen Kanäle sollten keine starken Korrelationen aufweisen. Die Pixel eines Images werden dann klassifiziert, je nachdem, in welches Parallelpiped sie fallen. Pixel, die herausfallen, werden als unbekannt/nicht zuordenbar klassifiziert.

Parameter

Eine messbare oder abgeleitete Variable, die durch Daten repräsentiert wird, z.B. Meeresoberflächentemperatur, Eismächtigkeit, relative Luftfeuchte.

Das CEOS EO Handbook bietet eine in die Großgruppen Atmosphäre, Land, Ozean, Schnee und Eis sowie Schwerkraft- und Magnetfelder gegliederte Übersicht von mittels Satelliten beobachteten Parametern und diesbezüglichen Instrumenten. Deren Einsatzzeit ist mit Hilfe von Zeitleisten (Timelines) visualisiert.

Weitere Informationen: Physical Oceanography Distributed Active Archive Center, als Beispiel (NASA, JPL)

PARASOL

Engl. Akronym für Polarization and Anisotropy of Reflectances for Atmospheric Science coupled with Observations from a LIDAR; Mission der CNES zur Bestimmung der mikrophysikalischen und der Strahlungseigenschaften von Wolken und Aerosol. Diese Informationen sind wichtig, um den Einfluss von Wolken und Aerosol auf den Strahlungshaushalt bestimmen und modellieren zu können. Hauptinstrument ist POLDER (Polarization and Directionality of the Earth's Reflectances), ein bildgebendes Radiometer/Polarimeter mit weitem Blickfeld. Parasol ist die zweite Mission der Myriade-Mikrosatellitenserie.
Der Satellit, dessen nominelle Einsatzzeit auf zwei Jahre angesetzt war, befindet sich seit Dezember 2004 auf einer sonnensynchronen Umlaufbahn in 700 km Höhe. Ein Umlauf dauert 98,8 min. Im November 2011 wurde PARASOL 9,5 km unter den A-Train abgesenkt und beobachtet aber weiterhin Wolken und Aerosole. PARASOL wurde Ende 2013 abgeschaltet.

Weitere Informationen:

PARIS

Engl. Akronym für Passive Reflectrometry and Interferometric System; in Entwicklung befindliche Instrumentennutzlast der ESA zur Erfassung der Oberflächenrauhigkeit der Ozeanoberfläche unter Verwendung von GPS-/GNSS-Radiosignalen.

pass

Engl. für Satellitenbefliegung, Satellitenüberfliegung

passiver Sensor

Aufnahmesystem der Fernerkundung, das die natürlich vorhandene oder schon künstlich, extern existierende Strahlung empfängt.

passives (Fernerkundungs)System

Engl. passive remote sensing system, franz. système de télédétection passive; ein System, das im Gegensatz zu einem aktiven (Fernerkundungs)System nur für elektromagnetische Strahlung empfindlich ist, die 

  • von dem beobachteten Objekt ausgesandt wird (z.B. die von jedem Körper aufgrund seiner Oberflächentemperatur abgegebene Thermalstrahlung) oder die
  • von dem Objekt reflektiert wird (z.B. die an der Erdoberfläche reflektierte Sonnenstrahlung), die aber nicht das System selbst als Quelle hat .

Die vom System empfangenen Strahlungswerte können dann mit teilweise aufwändigen Umrechnungsverfahren in geophysikalische Größen, z.B. Temperatur umgerechnet werden.

DIN 18716 definiert den Begriff knapp als "Aufnahmesystem, das die natürliche elektromagnetische Strahlung nutzt".

passives Mikrowellensystem

Sensorsystem, das die von der Erdoberfläche ausgesandte natürliche Mikrowellenstrahlung erfasst, z.B. ein Limb-sondierender Mikrowellensensor.

Passpunkt (GCP)

Syn. Referenzpunkt, Festpunkt, Kontrollpunkt, engl. ground control point (GCP), franz. point d'amer, point de calage; in der Photogrammetrie und Fernerkundung ein Punkt in einem Bild oder photogrammetrischen Modell, dessen Objektkoordinaten mit geodätischen (i.d.R. mit GPS) oder photogrammetrischen Verfahren bestimmt oder aus Karten entnommen wurden. Passpunkte werden dazu benutzt, die exakte räumliche Position und Orientierung des Luft- oder Satellitenbildes zum Boden zu bestimmen und das Bild in ein vorgegebenes Koordinatensystem zu transformieren. Als Passpunkte eignen sich Objektpunkte, die in einem Bild identifiziert werden können (z.B. Gebäudeecken, einzelne Felsen) und deren Koordinaten im Objektraum bekannt sind. Wenn Passpunkte nicht mit ausreichender Sicherheit im Bild identifiziert werden können, ist eine Signalisierung der Geländepunkte vor dem Bildflug erforderlich.

Gewöhnlich unterscheidet man drei Arten von Passpunkten:

  • Vollpasspunkte - alle drei Koordinaten sind bekannt (Raumkoordinaten X, Y und Z)
  • Lagepasspunkte - die horizontale Lage im Objektraum ist bekannt (Lagekoordinaten X und Y)
  • Höhenpasspunkte - die Punkthöhe ist im Höhenbezgssystem gegeben (Höhenkoordinate Z )
Passpunktbestimmung

Engl. measuring ground control points; Bestimmung der Objektkoordinaten aufgabenspezifisch ausgewählter Passpunkte des aufzunehmenden Objektes. Die Koordinatenbestimmung kann für eine begrenzte Anzahl von Punkten geodätisch und unter Verwendung der auf diesem Weg bestimmten Punkte in größerem Umfang photogrammetrisch erfolgen. Die geodätische Paßpunktbestimmung umfaßt die Koordinatenbestimmung, in der Regel mit GPS, die Kennzeichnung der Punkte im Luft- bzw. Satellitenbild und die Anfertigung einer Einmessungsskizze als Grundlage für eine sichere Identifizierung bei der photogrammetrischen Bildauswertung.

path

Engl. für Satellitenbefliegung, Satellitenumlauf

PAZ

Geplante Radarsatellitenmission der spanischen Fa. Hisdesat. Zusammen mit dem optischen Erdbeobachtungssatelliten INGENIO bildet Paz das Programa Nacional de Observación de la Tierra por Satélite (PNOTS). Beide Satelliten sollen 2015 starten. Der Satellit PAZ (spanisch für „Frieden“) wird sich auf demselben Orbit bewegen wie TerraSAR-X und TanDEM-X. PAZ wurde als Dual-Use-Mission entwickelt - vorrangig, um die Verteidigungs- und Sicherheitsbedürfnisse zu erfüllen, jedoch auch für zivile Anwendungen im Bereich der hochauflösenden Erdbeobachtung. PAZ ist baugleich mit TerraSAR-X und wurde wie dieser am deutschen Astrium-Standort Immenstaad gebaut.

Paz benutzt Synthetic Aperture Radar im X-Band. Die Radarinstrumente sind von Astrium (heute Airbus Defence and Space) am Standort Barajas entwickelt und gebaut worden. Die Daten können an Bord in einem 256-GB-Speicher gehalten und dann mit einer Rate von 300 Mbit/s zur Erde gesendet werden. Hierbei wird ebenfalls das X-Band bei ca. 9,65 GHz verwendet. Damit die Downlink-Übertragung das Radarinstrument nicht beeinträchtigt, ist die Sendeantenne an einem Ausleger montiert, der erst im Weltraum aufgeklappt wird. Die Gesamtmasse des Satelliten beträgt etwa 1.200 kg, die elektrische Leistung der Solarkollektoren 850 W. Die für unterschiedliche Betriebsarten ausgelegte flache Phased-Array-Antenne des Instruments mit aufgedruckten Strahlern ist 4,8 m lang und 0,7 m breit und arbeitet mit unterschiedlichen Schwadbreiten und Auflösungen von bis zu einem Meter.
Nach seinem Start soll PAZ die Erde in einem sonnensynchronen Polarorbit in einer Höhe von 505 km täglich 15-mal umkreisen. Er wird durchschnittlich 200 Bilder pro Tag liefern und eine Fläche von rund 300.000 km² abtasten können.

Weitere Informationen:

P-Band

Frequenzbereich zwischen 100 und 300 MHz (Wellenlänge 30 bis 100 cm) innerhalb des Mikrowellensegments des elektromagnetischen Spektrums. Das P-Band wird für SAR eingesetzt. Messungen mit P-Band werden nicht durch atmosphärische Effekte behindert. Es ist in der Lage, durch schwere Regenschauer hindurchzusehen. Die Durchdringungsfähigkeiten von P-Band-SAR besitzen große Bedeutung im Hinblick auf Untersuchungen von Vegetationsbedeckungen, Gletscher- und Meereis sowie Boden.

Perigäum

Engl. perigee; auf einer elliptischen Umlaufbahn der Punkt, an dem ein Satellit der Erde (Erdmittelpunkt) am nächsten ist. Zieht man von dieser Entfernung den Erdradius ab, so erhält man die Minimalhöhe der Satellitenbahn über der Erdoberfläche.

Apogäum und Perigäum eines Satellitenorbit Apogäum und Perigäum eines
Satellitenorbit



Quelle: mercat (R.o.)
Perihel

Der sonnennächste Punkt auf der Umlaufbahn eines Planeten oder eines die Sonne umkreisenden Satelliten.

Periodendauer

Zeit, die ein Satellit für einen Umlauf benötigt.

Perizentrum

Punkt auf dem elliptischen Orbit eines Raumschiffes, an dem dieses am geringsten von dem Körper entfernt ist, den es umläuft. Ist dieser Körper die Erde, wird der Begriff Perigäum verwendet, im Falle der Sonne der Begriff Perihel (Ggs. Apozentrum).

PerúSAT-1

Erdbeobachtungssatellit der peruanischen Raumfahrtbehörde CONIDA, gestartet mit einer Vega-Trägerrakete am 16. September 2016 vom europäischen Raumfahrtbahnhof Kourou in Französisch-Guayana.

Der dreiachsenstabilisierte PerúSAT-1 befindet sich auf einer sonnensynchronen polaren Umlaufbahn in einer Höhe von rund 695 km. Mithilfe seines hochmodernen Siliziumkarbid-Optikinstruments wird der Satellit Aufnahmen mit einer Auflösung von 70 cm (2 m Auflösung in Farbe mit vier Kanälen) liefern. Die Schwadbreite beträgt 20 km. Die Aufnahmen werden unter anderem eingesetzt in den Bereichen Landwirtschaft, Klimabeobachtung, Stadtplanung, Kartographie, Bergbau, Geologie, Hydrologie, Grenzkontrolle und Bekämpfung des Drogenhandels sowie zur Unterstützung des Managements humanitärer Hilfseinsätze und zur Auswertung von Naturkatastrophen. Die Datenübertragung zur Erde erfolgt im X-Band mit 180 bis 310 MBit/s. Die Telemetrie und Steuerung erfolgt im S-Band. PerúSAT-1 wird der leistungsstärkste Erdbeobachtungsatellit Lateinamerikas sein.

Tagebau der Kupfermine Cuajone (Südperu)

Das erste Bild von PerúSAT-1

PerúSAT-1 verfügt über ein Siliziumkarbid-Optikinstrument mit einer Auflösung von 70 cm und basiert auf der AstroBus-S-Plattform. Die Bilddaten werden in vielen Bereichen eingesetzt, von der Landwirtschaft bis zur Katastrophenhilfe.
Der Satellit wird von der peruanischen Raumfahrtagentur CONIDA betrieben.

Quelle: Airbus D&S

 

Der von der von Airbus Defence and Space in einer Rekordzeit von weniger als 24 Monaten gebaute Satellit basiert auf der hoch flexiblen, kompakten AstroBus-S-Plattform. Der Satellit wurde in einen Mehrfachnutzlast-Dispenser integriert, der von ebenfalls von Airbus DS entwickelt und gebaut wurde, um mit einem einzigen Start mehrere Satelliten in den Weltraum zu bringen. Neben PerúSAT-1 befanden sich auch vier optische Mikrosatelliten der der Firma Terra Bella an Bord der Vega-Trägerrakete, die nacheinander in den Orbit gebracht wurden.

Phänologie

Disziplin, die den Einfluss des Klimas (hauptsächlich der Temperaturverhältnisse) auf die Biosphäre hinsichtlich des Eintritts bestimmter Entwicklungsstadien und Lebensäußerungen analysiert. Die Ergebnisse werden in phänologischen Karten ausgewertet und gestatten z.B. eine standortdifferenzierte Anbauplanung besonders von Sonderkulturen.
Für die Dokumentation und Optimierung der Pflanzenproduktion kann ein regelmäßiges Monitoring der Pflanzenentwicklung über die gesamte Vegetationsperiode wichtig sein. Häufig ist es nicht möglich, auf einem großen Gebiet mit einer großen Anzahl von Feldern Geländemessungen durchzuführen, um den Pflanzenbestand zu überprüfen. Durch den Einsatz von Satellitendaten, die mehrfach im Jahr zur Verfügung stehen, kann in der Vegetationsperiode für jeden Schlag der phänologische Verlauf beobachtet werden.

Pflanzenentwicklung Bestandsmonitoring

Mögliche Fragestellungen beim Bestandsmonitoring, die für Zuckerrübenfabriken hilfreich sind, um die Kampagne zu planen und abzuschätzen:

  • Welches Feld reift schnell heran?
  • Gibt es Felder, die sich negativ im Pflanzenwachstum entwickeln?
  • Wann fängt das Abreifen des Bestandes an?
  • Was für eine Ernte ist zu erwarten?

Links eine Satellitenbildfolge mit Zuckerrübenschlägen und deren sichtbarer phänologischer Entwicklung über die Wachstumsphase.

Quelle: Vista-geo.de

Weitere Informationen:

Photodetektor

Engl. photodetector; syn. Lichtsensor, in der Fernerkundung eingesetzte Detektoren, die auf Änderungen des einfallenden Photonenflusses reagieren. Vom Ultraviolett bis zum nahen Infrarot (ca. 1 mm) werden Silikon-Photodioden benutzt. Zwischen 1 - 12 mm sind es Materialien wie PbS (Bleisulfid), InSB (Indium-Antimonid), HGCdTe (Quecksilber-Cadmium-Tellurid). Typische Photodetektoren werden photovoltaisch (PV = Spannungsänderungen) oder photokonduktiv (PC = Widerstandsänderungen) genutzt. Jeder Photodetektor reagiert auf Strahlung eines bestimmten Wellenbereichs. Photodetektoren für den nahen oder thermalen Infrarotbereich (> 1 mm) müssen zur Reduktion des Eigenrauschens gekühlt werden. Je länger die Wellenlängen, desto kälter muss der Detektor sein.

Photogeologie

Bezeichnung für die Methoden der geologischen Luftbild- und Satellitenbildauswertung im Rahmen der verschiedenen Aufgabenstellungen, insbesondere bei der regionalen und lokalen geologischen Kartierung, bei der Erz- und Erdölprospektion, bei hydrologischen und ingenieurgeologischen Projekten. Dabei hilft die Beschreibung und Interpretation der räumlichen Veränderungen der Erdoberfläche bezüglich Farbe, Grau- und Farbton, Geometrie, relatives Relief, Oberflächenstruktur, Ausbiss geologischer Schichten, Lineamente, Entwässerungssysteme, Vegetationsmuster usw. Dabei bedient man sich häufig der Methoden der digitalen Bildverarbeitung, indem man über Filter oder Farbtransformationen etc. diese Eindrücke verstärkt.
Da zwischen den Oberflächenformen der landschaftsgenetischen Formationen und dem geologischen Untergrund enge Zusammenhänge bestehen, können aus den in Luft- und Satellitenbildern sichtbaren Formen und Merkmalen vielfältige Schlussfolgerungen auf die Gesteinstypen und den tektonischen Aufbau einer Landschaft gezogen werden. Dies gilt in besonderem Maße für aride und semiaride Regionen, wo Oberflächenformen nicht durch die Vegetation verdeckt werden. Aufgrund der hohen praktischen Bedeutung hat sich die Photogeologie als Teildisziplin entwickelt. Auch bei der Konzeption der Satelliten und Sensorsysteme ist dies z. T. berücksichtigt (z.B. Kanal 7 des Landsat Thematic Mapper).

Photogrammetrie

Herstellung von Karten aus Luftbildern, Photographien oder Satellitenbildern als eigenständige Methodik der Geofernerkundung. Dabei wird in erster Linie geometrische Information (Form, Größe, Lage u.a.) aus den Bildern extrahiert zur genauen Erfassung der Topographie und quantifizierbaren Topologien. Mit Hilfe der Photogrammetrie werden vor allem Basisdaten für die Erstellung und Fortschreibung topographischer und thematischer Karten sowie die Weiterverarbeitung in Geographischen Informationssystemen gewonnen. Die Bildaufnahmeverfahren waren ursprünglich analog (Photographien), in zunehmendem Maße werden digitale Aufzeichnungen verwendet.

Wenn hochauflösende Fernerkundungsdaten, vor allem Luftbilder, verfügbar sind oder erstellt werden können, besitzen photogrammetrische Verfahren ein hohes Potential, an der Erdoberfläche sichtbare Erscheinungen zu interpretieren und ihre absolute Geometrie zu bestimmen. Sensoren der Photogrammetrie sind analoge und digitale photographische Systeme aber auch Scanner.

Die Leistungsmerkmale der Photogrammetrie sind:

  • berührungslos (remote sensing)
  • flexibler Aufnahmezeitpunkt
  • Speicherung aller für den Sensor "sichtbaren" Oberflächeninformation bis hin zum Auflösungsvermögen des Sensors (ca. 30-40 Linien/mm bei photographischem Film, d.h. wenige cm/Pixel)
  • sehr effektive und geometrisch stabile Speicherung
  • Information jederzeit extrahierbar und vielfältig analysierbar
  • flächenhafte Information und mathematische Analyse

Die Nachteile der Photogrammetrie sind :

  • nur Oberflächendaten (Tiefeninformation zusammen mit z.B. Geophysik und Modellen)
  • keine Wolkendurchdringung
  • Probleme durch Beleuchtung, Schatten, fehlende Kontraste
  • Verzerrungen (Zentralperspektive)
  • hohe zeitliche Auflösung bei Luftbildern nur sehr aufwendig möglich
  • hoher Bildflug- und Auswerteaufwand

Bei digitalen Luftbildkammern kommen zusätzlich die aufwendige Kalibrierung der Kammer, die notwendigen großen Speicherkapazitäten an Bord der Sensorplattform (Flugzeug) und des 'back up' (Datensicherung) dazu.

Für die Geowisssenschaften ist besonders die Aerophotogrammetrie wichtig. In ihr werden Luftbilder analysiert (z.B. bewegter Sensor, Bildflug). Die Aufnahme kann genähert als Senkrechtaufnahme gelten. Ihr gegenüber steht die terrestrische Photogrammetrie. Sie analysiert terrestrische Bilder unter gleichbleibenden Aufnahmebedingungen, aber die Aufnahmegeometrie ist in der Regel weit von der "idealen" Senkrechtaufnahme entfernt.

Beim Blick auf die Historie der Photogrammetrie muss man in die Mitte des 19. Jahrhunderts zurückgehen, als die Theorie der Photogrammetrie in Frankreich und Preußen parallel zur aufkommenden Photographie entwickelt wurde. Am Anfang des 20. Jahrhunderts traf ein nationalstaatlich-planerischer und auch militärischer Bedarf an korrekten kartographischen Darstellungen auf eine fortschreitende Entwicklung von Flugzeugen und auf verbesserte Kameratechnik und Filmmaterial. Die damaligen analogen Aufnahmen wurden mit Hilfe optisch-mechanischer Verfahren in Karten umgesetzt. Stereo-optische Aufnahmen dienten dabei zur Vermessung der Höhe der Topographie und von Objekten.

Die ersten Erdvermessungssystem aus dem Weltraum basierten auch auf dem Prinzip der analogen Kameras und der nachfolgenden photogrammetrischen Auswertung (z.B. die europäische Metric Camera auf der Space Shuttle Mission von 1983). Die ersten zivilen elektronischen Systeme verfügten mit einer geometrischen Auflösung von 80 m (Landsat-1, 1972), später 30 m (Landsat-4, 1982) noch nicht über die geometrische Genauigkeit, um detailreiche Karten mit einem großen Maßstab anzufertigen. Erst der französische Satellit SPOT-1 (1986) mit seiner geometrischen Auflösung von 10 m und seinem schwenkbaren Sensor erlaubte erstmals die Erstellung dreidimensionaler Karten größeren Maßstabs. Außerdem konnte das bis dahin analoge photogrammetrische Verfahren auf neue digitale Algorithmen und Verfahren umgestellt werden.

Mit dem Ende der Ost-West-Konfrontation wurden auch Bilder mit geometrischen Auflösungen besser als 10 der zivilen Nutzung verfügbar gemacht. Neben ersten russischen Daten stellte der Start des zivilen US-Satelliten IKONOS (1999) den Beginn einer neuen Ära höchstauflösender Satelliten mit einer Auflösung von unter 1 m dar.

Die Sensoren dieser Satelliten sind ganz für den Zweck der raschen Kartierung ausgelegt. Die hohe geometrische Auflösung wird zumeist nur in einem panchromatischen Kanal (S/W-Bild) erreicht. Wenige weitere Kanäle mit einer etwas schlechteren geometrischen Auflösung lassen die Darstellung als Farbbild zu. Bedeutsam für die Anwendung als Kartengrundlage ist auch die Genauigkeit der Lageregelung des Sensors bzw. des Satelliten. Komplexe Regelsysteme lassen sowohl die schnelle als auch die präzise Ausrichtung zumeist des gesamten Satelliten zu. Zusätzlich gewährleistet eine Vielzahl von Orbit- und Lagebestimmungssensoren die Bestimmung der Lage eines Bildpunktes auf der Erde mit einer Genauigkeit von wenigen Metern. Eine weitere Verbesserung im Meter- und Sub-Meterbereich kan nur durch Verknüpfen mit bekannten terrestrischen Passpunkten, wie z.B. Straßenkreuzungen, erreicht werden. Die schnelle Änderung der Ausrichtung einiger Satelliten erlaubt es auch, eine Szene nochmals aus einer anderen Schrägsicht zu betrachten und somit ein Stereo-Bildpaar zur dreidimensionalen Analyse zu erhalten. Werden auf einem Satelliten gleich zwei Kameras mit unterschiedlicher Ausrichtung verwendet, so können derartige stereo-optischen Aufnahmen permanent erzeugt werden. Dies ist beispielsweise mit den Satelliten der indischen CARTOSAT-Serie möglich.

Außer der Erstellung und Nachführung topographischer Karten erlaubt die spektrale Information dieser Satellitensensoren auch eine detaillierte thematische Kartierung. Im zivilen Bereich werden damit planerische Grundlagen z.B. für Großbauwerke gelegt oder neue Straßen für Navigationssysteme erfasst. Hochaufgelöste Kartierungen der Feldfrüchte erlauben der Europäischen Kommission die Kontrolle von Subventionen für die Landwirtschaft und den Vereinten Nationen den Nachweis von illegalem Drogenanbau (UNODC and illicit crop monitoring). Die UN erhält mit Hilfe der spektralen Informationen auch Hinweise über Aktivitäten im Nuklearbereich.

Rasch umgesetzte Kartierungen auf der Basis hochauflösender Satellitendaten unterstützen auch zunehmend humanitäre Hilfsaktionen in Krisengebieten und nach Naturkatastrophen (Katastrophenmanagement). Durch den Vergleich mit älteren Daten können aktuelle Beobachtungen die Zerstörung von Infrastrukturen z.B. nach einem Erdbeben oder das Ausmaß von Überflutungen aufzeigen. Angesichts der Dringlichkeit solcher Informationen und wegen ihrer Unabhängigkeit von Wolken und Tageszeiten werden zunehmend geometrisch hochauflösende Radarsysteme (z.B. TerraSAR-X, COSMO-SkyMed) für diese Zwecke eingesetzt. In Deutschland obliegt diese Aufgabe dem Zentrum für satellitenbasierte Kriseninformation (ZKI) des DLR. Dabei ist das ZKI in europäische und weltweite Programme (z.B. Internationale Charta für Weltraum und Naturkatastrophen) eingebunden.

photogrammetrische Auswertung

Auswertungsvorgang bei Luft- und Satellitenbildern, bei denen die Bestimmung geometrischer Größen im Vordergrund steht. Die inhaltliche Interpretation der Bilder ist dabei nur insoweit betroffen als sie der Identifikation der zu messenden Größen gilt.

Photographie

Engl. photography, photograph; die Technik und Wissenschaft der Herstellung von dauerhaften Bildern durch sichtbare, ultraviolette und infrarote Strahlung mittels photochemischer Umsetzung in strahlungsempfindlichen Schichten, auch Bezeichnung für das Ergebnis eines solchen Prozesses (Lichtbild).
Die photographische Aufnahme ist ein passives Verfahren, das elektromagnetische Strahlung im Wellenlängenbereich von 0,3 bis 1,2 μm aufnimmt, also vom nahen Ultraviolett (UV) über das sichtbare Licht bis zum nahen Infrarot (IR). Unter den Aufnahmeverfahren der Fernerkundung nimmt die Photographie eine Sonderstellung ein. Sie ist das einzige Verfahren, bei dem das strahlungsempfindliche Material – die photographische Schicht – zugleich als Speichermedium dient. Sie erlaubt die gleichzeitige flächenhafte Aufnahme sowie die Speicherung sehr grosser Datenmengen auf kleinem Raum bei geringen Kosten. Diesem bedeutenden Vorteil stehen auch gewichtige Nachteile gegenüber. So ist beispielsweise die radiometrische Kalibrierung photographischer Systeme schwierig und unsicher, der photographisch erfassbare Spektralbereich ist ziemlich eng, und der photographische Prozess stellt einen unzweckmässigen Zwischenschritt dar, wenn die aufgenommenen Daten rechnerisch verarbeitet werden sollen.

Photographische Bilder enthalten die Informationen in analoger Form, also in physikalischen Größen. Ein Schwarzweißbild kann deshalb als kontinuierliche flächenhafte Bildfunktion verstanden werden, die jedem Punkt der Bildfläche einen Grauwert zuordnet. Man spricht deshalb von einem Grauwert- oder Intensitätsbild. Ein Farbbild enthält dagegen in jeder der photographischen Schichten entsprechende kontinuierliche Funktionen, die in ihrer Gesamtheit das Farbbild ergeben.

Wenn eine Photographie in digitaler Form widergegeben werden soll, wird das (SW-)Bild in kleine, gleich große und gleichförmige Flächen (Bildelemente) unterteilt, deren Helligkeitsmerkmale mit jeweils einem numerischen Wert bezeichnet werden. Der Computer stellt dann jeden digitalen Wert als unterschiedlichen Helligkeitswert dar. Demgegenüber speichern Sensoren, welche elektromagnetische Energie aufzeichnen, diese Strahlung als Zahlenmuster in digitaler Form von Beginn an.

Photographische Filme bestehen aus einem transparenten, weitgehend massbeständigen Schichtträger aus Polyester und einer bzw. mehrerer sich darauf befindlichen Photoschichten (Emulsionen). Die Emulsion ist aus lichtempfindlichen Silbersalzen aufgebaut, welche in eine Gelatineschicht eingebettet sind. Die Silbersalzkristalle kommen in unterschiedlichen Grössen vor. Je nach Mischungsverhältnis der verschiedenen Kristallgrössen erhält eine Emulsion bestimmte Eigenschaften. Somit ist die durchschnittliche Grösse von Silbersalzkristallen ein wichtiges Merkmal jedes photographischen Filmes. Zum einen hat sie bedeutenden Einfluss darauf, wieviel Licht für die Herstellung eines photographischen Bildes benötigt wird. Zum anderen bestimmt sie die Körnigkeit eines Films, welche ihrerseits das geometrische Auflösungsvermögen beeinflusst. Feinkörnige Emulsionen weisen eine geringe Lichtempfindlichkeit und ein grosses geometrisches Auflösungsvermögen auf. Grobkörnige Emulsionen hingegen sind sehr lichtempfindlich, haben aber ein geringes geometrisches Auflösungsvermögen.

Auflösung einer SW-Photographie - Schema Auflösung einer SW-Photographie Quelle: Natural Resources Canada (R.o.)
photographische Systeme

In photographischen Systemen wird ein Bild des aufzunehmenden Objekts durch ein Objektiv für meist nur kurze Zeit auf eine lichtempfindliche Schicht projiziert, die dadurch so verändert wird, dass durch den photographischen Prozess ein dauerhaftes Bild entsteht.
Photographische Systeme sind passive Systeme, die die Strahlung im sichtbaren Licht und im nahen Infrarot (von ca. 0,4 bis 1,0 mm) aufnehmen.

Photomosaik

Eine Sammlung von Luftbildern, die eng verbunden werden, um einen zusammenhängenden Überblick über ein beflogenes Gebiet zu ergeben.

photosynthetisch aktive Strahlung (PAR)

Engl. photosynthetically active radiation (PAR, PhAR); elektromagnetische Strahlung (380-780 nm), die von Pflanzen für biochemische Pflanzenprozesse, hauptsächlich für die Photosynthese verwendet wird. Dieser Bereich (380-780 nm) deckt sich weitgehend mit dem Bereich der für Menschen sichtbaren Strahlung (380-780 nm), welcher etwa 50 % der Globalstrahlung ausmacht. PAR wird von Chlorophyll und Pigmenten adsorbiert, die im roten und blauen Spektralbereich absorbieren, grün wird hingegen reflektiert. PAR wird meist von 400-700 nm in W/m² angegeben.

Da PAR die Primärproduktion und damit die Kohlenstofffixierung von terrestrischer und mariner Vegetation steuert, beeinflusst sie den Energie- und Wasseraustausch (Evapotranspiration) zwischen der Vegetation und der Atmosphäre. Im Bereich der Klimaforschung ist die photosynthetisch aktive Strahlung zur Berechnung der Kohlenstoffbilanzierung von terrestrischer und mariner Vegetation eine wichtige Größe.

PICARD

Französischer Sonnenforschungssatellit der CNES, der auf einer Dnepr-1 Trägerrakete am 15. Juni 2010 vom Raketenstartplatz Jasny aus zusammen mit zwei weiteren Satelliten in den Weltraum gebracht wurde. PICARD ist ein Kleinsatellit (Masse 150 kg) der MYRIADE-Serie zur Bestimmung der Sonnenstrahlung, des Durchmessers und der Gestalt der Sonne sowie des Aufbaus der Sonne mit helioseismischen Methoden. Der sonnensynchrone Orbit schwankt zwischen 730 km und 750 km Höhe. Vorgesehen ist eine Missionsdauer von mindestens 2 Jahren.
Die Erkenntnisse sollen unsere Kenntnisse vom solaren Antrieb des irdischen Klimas verbessern sowie unser Wissen von der Physik der Sonne und ihrer inneren Struktur.
Die Nutzlast von Picard besteht aus einem bildgebenden Teleskop, 1 Radiometer und 3 Sonnenphotometern.

PICARD

Links: Künstlerische Darstellung des Satelliten

Die PICARD-Mission ist nach dem französischen Astronomen Jean Picard benannt, der die erste genaue Messung des Sonnendurchmessers durchführte. Seine Messungen sind besonders wichtig, da sie während des Maunder-Minimums gemacht wurden. Diese Zeit war durch die Abwesenheit von Sonnenflecken und ein ausgeprägt kaltes Klima gekennzeichnet.

Rechts: Lithographie von Jean Picard (1620-1682)

Quelle: CNES

Weitere Informationen: PICARD - Startseite (CNES)

PICASSO-CENA

Ursprüngliche Bezeichnung für die CALIPSO-Mission.

PILoT

Engl. Akronym für Parameter Information Locator Tool; dieses Werkzeug ermöglicht die Recherche in den DAAC-Datenbanken nach dem Suchkriterium "Parameter". Verwandt sind die Parameter Information Pages.

Weitere Informationen: PIP (NASA)

Pilotballon

Kleiner, mit Helium oder Wasserstoff gefüllter, üblicherweise roter Latex-Ballon ohne weitere Instrumente mit konstanter Steiggeschwindigkeit zur optischen Feststellung der Wolkenuntergrenze während der Tagesstunden. Der Ballon wird dazu derart befüllt, dass seine Aufstiegsgeschwindigkeit bekannt ist. Aus der Zeit vom Start bis zum Eintauchen in die Wolke kann die Höhe der Wolke über Grund ausgerechnet werden. Durch die Verfolgung der Flugbahn, früher mit einem Theodoliten, heute mittels Radar oder GPS, können Richtung und Geschwindigkeit von Höhenwinden bestimmt werden. Nachts kann der Ballon an seiner Unterseite mit einem Lämpchen bestückt werden.

Pixel

Kunstwort aus picture element; in Satellitenbildern Bezeichnung für einen einzelnen, gewöhnlich quadratischen, einer bestimmten Bodenfläche entsprechenden Bildpunkt, als kleinster Einheit der Aufnahme. Diese Entsprechung ist ein Maß für die Fähigkeit eines Sensors Objekt unterschiedlicher Größe zu erkennen. Je höher die Anzahl der Pixel pro Flächeneinheit ist, umso höher ist die Auflösung des Bildes. Die Gesamtheit aller Pixel bilden einen Datensatz, ein Bild.
Der Enhanced Thematic Mapper Plus des Landsat 7 besitzt eine maximale Auflösung von 15 m; insofern repräsentiert jedes Pixel eine Fläche von 15 x 15 m. Höher Auflösung (kleinere Pixelfläche) bedeutet, dass der Sensor kleinere Objekte zu unterscheiden vermag. Durch die Addition der Pixelzahl eines Bildes kann man die Fläche einer Szene berechnen. Oder, wenn man die Anzahl grüner Pixel in einem Falschfarbenbild berechnen lässt, kann man die Gesamtfläche ermitteln, die mit Vegetation bestanden ist.

spatial_resolution_lres Pixel und räumliche Auflösung

The spatial resolution specifies the pixel size of satellite images covering the earth surface.

High spatial resolution: 0.41 - 4 m

Low spatial resolution: 30 - > 1000 m

 

Zu größerer Darstellung Grafik anklicken

Quelle: RapidEye
Pixel-GIS

Von F.-W. Duttke entwickelte, und von R. Roseeu konzeptionell begleitete Software zur Verarbeitung von Satellitenbilddaten im schulischen Kontext. Die Arbeit mit der Software ist eingebunden in ein umfassendes und angeleitetes Konzept von direkter Umweltbeobachtung, Einführung in GIS-Funktionalität u.w.

Weitere Informationen: Fernerkundung und Pixel-GIS (satgeo.de)

Pixelgrafik

Engl. pixel graphics; aus einzelnen Pixeln aufgebaute Grafik, wobei jedes Pixel einen digitalen Wert repräsentiert. Dieser hängt von dem verwendeten Farbmodell und der Quantisierung ab.

Planck (Surveyer)

Europäische Satellitenmission zur Untersuchung der kosmischen Hintergrundstrahlung. Plancks Detektoren sind so konstruiert, dass sie über einen weiten Frequenzbereich die kosmologischen Temperaturunterschiede, die erst auf der fünften, sechsten Nachkommastelle auftreten, in Abhängigkeit von der Winkelskala messen können. Das heißt, der Satellit ermittelt Temperaturfluktuationen der Hintergrundstrahlung im Bereich von einem Millionstel Grad.
Da die Strahlung vorher in Wechselwirkung mit der Materie (Protonen, Elektronen) stand, können Rückschlüsse auf die frühe Materieverteilung gezogen und die Parameter, die die kosmische Entwicklung beschreiben, mit großer Genauigkeit bestimmt werden.

Planck-build-up_410 Planck Spacecraft Build-up

From top left to bottom right, the image shows the detailed build-up of the focal plane units (FPUs) of the High Frequency Instrument (HFI) and the Low Frequency Instrument (LFI) as well as the Planck cooling system and the main spacecraft components, from close up at the focal plane out to the entire spacecraft with its telescope, baffle and service module.

Zu größerer Darstellung Grafik anklicken

Quelle: ESA

Zur Beobachtung der Strahlung besitzt der Satellit zwei verschiedene Instrumente, das "High Frequency Instrument" (HFI) für den höheren und das "Low Frequency Instrument" (LFI) für den niedrigeren Frequenzbereich. Nachdem die Instrumente kalibriert worden waren, fing das Teleskop am 13. August 2009 mit der regelmäßigen Beobachtung an. Die erste vollständige Aufnahme des Himmels wurde Juni 2010 fertiggestellt, um jedoch die volle Genauigkeit zu erreichen, war eine Nachbearbeitung nötig. Erste Ergebnisse wurden im Januar 2011 veröffentlicht.

Ziel von Planck war die Erfassung der schwächsten Reststrahlung des Urknalls, der sogenannten kosmischen Mikrowellen-Hintergrundstrahlung parallel bei neun Frequenzen zwischen 30 und 857 GHz. Diese Hintergrundstrahlung veranschaulicht das Universum in seinem Zustand rund 380 000 Jahre nach dem Urknall und liefert Einzelheiten zu den Ursprungsbedingungen, die zu dem Universum geführt haben, in dem wir heute leben.
Die Winkelauflösung von Planck ist mit Werten zwischen 4 Bogenminuten für die höchsten und 33 Bogenminuten für die niedrigsten Frequenzen wesentlich besser als bei den vergleichbaren früheren Projekten COBE und WMAP.

Gleichzeitig werden Beobachtungen der Vordergrundstrahlung der Milchstraße und von Galaxien gewonnen. Diese Störeffekte müssen zum einen zur Ermittlung der Hintergrundstrahlung sehr gut bekannt sein, sind aber auch von eigenem wissenschaftlichem Interesse z. B. zum tieferen Verständnis der Sternentwicklung.

Das 1921 kg schwere Planck-Teleskop wurde am 14. Mai 2009 zusammen mit dem Infrarotteleskop Herschel durch eine Ariane 5 ECA von Kourou aus in den Weltraum gebracht. Nach dem Brennschluss der Oberstufe wurden der Planck-Satellit um 13:40 UTC wenige Minuten nach dem Herschel-Teleskop auf einer hochelliptischen Erdumlaufbahn zwischen 270 und 1.197.080 km Höhe, die 5,99° zum Äquator geneigt ist, ausgesetzt, von der aus er mit einem kleinen Bahnmanöver seine Lissajous-Bahn um den Lagrange-Punkt L2 des Erde-Sonne-Systems erreichte.

Die ESA-Mitgliedstaaten hatten Schlüsseltechnologien wie den innovativen Kühlmechanismus bereitgestellt, der die ständige Kühlung der Missionsinstrumente auf lediglich ein Zehntel Grad über dem absoluten Nullpunkt des Universums von -273,15 °C ermöglichte, so dass die empfangenen Signale nicht durch die Eigenwärme des Satelliten verzerrt wurden. Auf diese Weise konnten in der kosmischen Mikrowellen-Hintergrundstrahlung Temperaturschwankungen von wenigen Millionstel Grad erfasst werden.

Die Kühlung von Instrumenten auf diese Extremtemperaturen kann jedoch nicht unbegrenzt fortgesetzt werden, und so ging denn auch der Flüssighelium-Kühlmittelvorrat des Hochfrequenzinstruments (HFI) wie erwartet im Januar 2012 zur Neige.

Am 14. August 2013 wurde das Teleskop nach 1554 Tagen Betrieb vom L2-Punkt abgezogen und in eine Bahn gebracht, die sicherstellt, dass es für die nächsten 300 Jahre nicht durch die Erde eingefangen wird. Am 23. Oktober wurde der letzte Befehl zu Planck geschickt.

Als ursprüngliches Ziel der Mission waren zwei vollständige Himmelsdurchmusterungen geplant. Tatsächlich konnten mit beiden Instrumenten fünf komplette Durchmusterungen vorgenommen werden, wobei das LFI Mitte August seine achte Durchmusterung des gesamten Himmels abgeschlossen hat.

P545-P857-I100_410px

Zu größerer Darstellung Grafik anklicken

Quelle: ESA

Planck bildet ein galaktisches Netz kalten Staubes ab

Das Teleskop soll die aus der Frühzeit des Universums stammende kosmische Hintergrundstrahlung im Mikrowellenbereich mit bisher unerreichter Präzision kartieren. Dieses frei gewordene Licht des Urknalls ist dessen schwach vernehmbares Echo. Es enthält viele Informationen über die Frühphase des Universums, erlaubt aber auch Rückschlüsse auf die Verteilung und Entwicklung der Materie.
Nur hat sich aufgrund der kosmischen Expansion die Energie der Photonen soweit verringert, dass sie heute im Mikrowellenbereich mit einer Temperatur von nur noch etwa 2,7 Kelvin empfangen werden. Diese Strahlung bietet aber auch heute noch ein getreues Bild des Universums, wie es vor etwa 13,4 Milliarden Jahren aussah – genau zu der Zeit, als es durchsichtig wurde. Mit Plancks Fähigkeit, die Temperatur der kältesten Staubteilchen zu messen, erhält man einen wichtigen Indikator für diese physikalischen Prozesse und auch ein besseres Verständnis der Sternentwicklung.

Das Bild links zeigt einen Teil des Himmels, ca. 55° umfassend. Es ist ein Dreifarbenkomposit, hergestellt aus Plancks zwei höchsten Frequenzkanälen (557 und 857 GHz, entsprechend 540 und 350 µm Wellenlänge) und einem Bild mit kürzerer Wellenlänge (100 µm), aufgenommen mit dem Infrared Astronomical Satellite (IRAS). Diese Kombination spürt auf effektive Weise dem Staub nach: rötliche Töne entsprechen Temperaturen von 13 Grad über dem absoluten Nullpunkt, und weiße Töne entsprechen deutlich wärmeren (Größenordnung einige Zehner von Grad) in Gebieten wo Riesensterne sich gerade bilden. Insgesamt zeigt das Bild lokale Staubstrukturen innerhalb einer Distanz von 500 Lichtjahren von der Sonne.

Weitere Informationen:

Plancksches Strahlungsgesetz

Engl. Planck's radiation law, syn. Planck’s formula, franz. formule de Planck; nach Max Planck (1858-1947) benanntes Gesetz: Jeder Körper mit einer Temperatur größer als der absolute Nullpunkt (0 K / -273,15 °C) sendet elektromagnetische Strahlung aus, die in Relation zur Temperatur des Körpers und zur Wellenlänge steht:

,
h=6,626176•10-34 Js (Plancksches Wirkungsquantum),
=Frequenz,
c=Lichtgeschwindigkeit,
k=1,381•10-23 J/K (Boltzmann-Konstante),
T=Temperatur

Damit wird die spektrale Energieverteilung der Strahlung eines schwarzen Körpers beschrieben.
In der Fernerkundung ist das Plancksche Strahlungsgesetz u.a. bei der Konzeption von Sensoren von Bedeutung. Es dient dabei zur Bestimmung der Energiemaxima strahlender Körper (Sonne, Erde), da passive Fernerkundungsverfahren lediglich die reflektierten Anteile dieser Strahlung aufzeichnen. Das Plancksche Strahlungsgesetz verdeutlicht, daß mit höheren Temperaturen das Maximum der spektralen Emission zu kürzeren Wellenlängen verschoben wird. Das Maximum der extraterrestrischen Sonnenstrahlung (T 5900 K) liegt demnach bei etwa 0,47 µm, während die Erde (T 290 K) ihr Strahlungsmaximum bei ca. 9,7 µm besitzt. Die Kurven der Schwarzkörperstrahlung in folgender Abbildung verdeutlichen dies.

Spektrale Strahlungsverteilung bei verschiedenen Oberflächentemperaturen

Jeder Körper mit einer Temperatur größer als der absolute Nullpunkt sendet elektromagnetische Strahlung aus, die in Relation zur Temperatur des Körpers und zur Wellenlänge steht. In der Fernerkundung ist das Plancksche Strahlungsgesetz u.a. bei der Konzeption von Sensoren von Bedeutung.

 

Zu größerer Darstellung auf Grafik klicken

Quelle: Lexikon der Geowissenschaften

Die Integration über den gesamten Wellenlängenbereich führt zum Stefan-Boltzmann-Gesetz.

PLATO

Engl. Akronym für Planetary Transits and Oscillations of Stars (planetare Transite und Oszillationen von Sternen); eine mittelgroße Wissenschaftsmission der ESA mit einem weltraumgestützten Observatorium zur Aufspürung von Planeten in der Umlaufbahn fremder Sterne, die spätestens 2024 gestartet werden soll.

Die Mission wird sich mit zwei der wichtigsten Fragen des Programms Kosmische Vision auseinandersetzen: unter welchen Bedingungen bilden sich Planeten und entsteht Leben und wie funktioniert das Sonnensystem? PLATO wird relativ nahe gelegene Sterne erforschen und dabei nach winzigen, regelmäßigen Lichteinbußen suchen, die eintreten, wenn ihre Planeten an ihnen vorbeifliegen und dabei kurzzeitig einen kleinen Teil des Sternenlichts ausblenden.

Unter Einsatz von 34 eigenständigen kleinen Teleskopen und Kameras wird PLATO unter ca. einer Million Sternen, die sich über die Hälfte des Himmels erstrecken, nach Planeten Ausschau halten. Zudem wird die seismische Aktivität von Sternen untersucht, wodurch eine genaue Charakterisierung des Zentralgestirns jedes entdeckten Planeten, einschließlich Masse, Radius und Alter, ermöglicht werden soll. Gemeinsam mit bodengestützten Beobachtungen der Radialgeschwindigkeit werden die Messungen von PLATO die Berechnung von Masse und Radius eines Planeten und somit von dessen Dichte erlauben, was Rückschlüsse auf seine Zusammensetzung zulässt. Die Mission wird Tausende exoplanetare Systeme aufspüren und untersuchen, wobei sie sich auf die Entdeckung und Charakterisierung von Planeten erdähnlicher Größe und Supererden im bewohnbaren Bereich ihres Zentralgestirns – der Entfernung, bei der flüssiges Oberflächenwasser existieren könnte – konzentrieren wird.

Weitere Informationen: PLATO (ESA)

Plattform

Syn. Fernerkundungsplattform, engl. platform, franz. plate-forme; statische oder bewegte Trägerkonstruktion, auf der ausschließlich oder unter anderem Sensorsysteme der Fernerkundung oder der Photogrammetrie installiert sind zur photographischen oder elektronischen Bildaufnahme, für Radaraufnahmen oder geophysikalische Aufnahmen eines Objektes. Im einfachsten Fall ist dies eine kleine, auf Fahrzeuge montierte Beobachtungsplattform; aber in der überwiegenden Mehrzahl der Fälle wird es sich um fliegende Plattformen handeln, angefangen von Ballonen über Drachen, Hängegleiter, Drohnen/UAVs unterschiedlicher Größe, Flugzeuge, Hubschrauber, Gyrokopter, Luftschiffen bis hin zu Raumschiffen und Satelliten.

fe_plattformen Plattformen
für
Fernerkundungsinstrumente (Auswahl)

Weltraumbasiert:
Raketen, Satelliten, Raumfahrzeuge => von ca. 100 km bis 36.000 km
Space Shuttle: 250-300 km
Space Station: 300-400 km
niedrig fliegende Satelliten: 700-1500 km
hoch fliegende Satelliten: ca. 36.000 km

Luftbasiert:
Flugzeuge, Helikopter, Luftschiffe, Ballone, Drachen, Hängegleiter,
UAVs/Drohnen => bis 50 km

Bodenbasiert:
Boden, Türme, Hebebühnen => up to 50 m

Zu größerer Darstellung auf Grafik klicken

Quelle: Purkis (verändert)

Der Typus der Plattform wird dementsprechend auch von den spezifischen Parametern der Sensorsysteme bestimmt. Plattformen bei der Luftbildaufnahme sind in der Regel Flugzeuge sowie Hubschrauber. Für Beobachtungen aus dem Weltall werden u.a. Satelliten, Raketen, Raumschiffe oder Raumstationen als Plattformen verwendet. In der terrestrischen Photogrammetrie ist die Plattform der Kamera im allgemeinen ein Stativ. Die Plattformgeschwindigkeit und die Flughöhe der Plattform sind wichtige Parameter bei der Erfüllung der Zeilenpassbedingung. Das Verhältnis dieser beiden Größen beeinflußt auch die rauschäquivalente Strahlungsleistung NEP (Noise Equivalent Power) der Detektoren.
Bodengebundene Plattformen können z.B. Geräte tragen, die nach dem SODAR- oder nach dem RADAR-Prinzip arbeiten und in der Meteorologie eingesetzt werden. Dem gleichen Einsatzbereich oder der Umweltüberwachung dienen Sensoren auf statischen Messmasten, von denen aus sowohl in situ-Messungen durchgeführt werden, wie auch Atmosphärenprofile erstellt werden können. Eine ähnliche Zwitterstellung besitzen Ballone.

Pleïades

Optisches Erdbeobachtungssystem bestehend aus zwei identischen Satelliten mit einer Auflösung im 50 cm Bereich. Das Pléiades System verläuft auf einem Phasenorbit und verfügt über eine hohe Wiederholrate um jeden Punkt auf der Erde aufzuzeichnen.

Pleiades Satellit

PHR_01B_BR_lres

Zu größerer Darstellung auf Grafik klicken

Quelle: CNES
Mass of one satellite: 1 ton
Orbit: Sun-synchronous
Altitude: 695 km
Payload: Telescope plus associated electronics
Image compressor
Mass memory
Encryptor
Image telemetry link
Imaging capacity: Up to 500 images daily, per satellite
Image coverage capability of 2,500,000 km² (965.255 sq. miles) per year
Image resolution: 0.7 m at nadir
Swath: 20 km at nadir

Die Satelliten sind die optische Komponente des sowohl für den zivilen als auch für den militärischen Einsatz gedachten italienisch-französischen Orfeo Systems und kleiner, preisgünstigerer und beweglicherer als ihre Vorgänger aus der SPOT-Satellitenserie, die seit 1986 einen ununterbrochenen Dienst bietet und deren Plattform derzeit auch in fast allen europäischen Erdbeobachtungsprogrammen im erdnahen Orbit (insbesondere ERS 1/2 (M.b.), Envisat (M.b.), MetOp und Helios) zum Einsatz kommt. Pléiades nutzt innovative Technologien, wie etwa die erstmals in der europäischen Raumfahrt genutzten Kreiselsystem-Aktuatoren (CMG), die an Bord der Satelliten für unübertroffene Leistungsfähigkeit sorgen.

Die beiden Pléiades-Satelliten werden zusammen mit SPOT 6 und SPOT 7, den Nachfolgern von SPOT 5, auf in Phasen aufgeteilten Orbits eingesetzt. Diese Konstellation aus vier Satelliten bietet eine ideale Kombination aus Genauigkeit und Abdeckung mit zweifachen täglichen Neuerfassungen jedes beliebigen Punktes auf der Erde.

Pléiades 1A wurde am 17. Dezember 2011 vom Centre Spatial Guyanais mit einer Sojus-ST-Rakete zusammen mit vier Elisa-Satelliten für das französische Militär und dem chilenischen Satelliten SSOT in eine sonnensynchrone Erdumlaufbahn gebracht. Die Elisa-Satelliten haben eine Masse von jeweils 120 kg und sollen bodengestützte Radarquellen und deren Charakteristik zur militärischen Aufklärung erfassen. Hauptauftragnehmer bei allen Satelliten war EADS Astrium. Pléiades 1B wurde am 2. Dezember 2012 ebenfalls vom Centre Spatial Guyanais aus mit einer Sojus-ST in dieselbe Umlaufbahn jedoch 180° versetzt gebracht.

Der Start von SPOT 6 erfolgte am 9. September 2012, der baugleiche SPOT 7 wurde am 30. Juni 2014 ins All gebracht. Von ihrer Bahnhöhe 695 km und der Bahnneigung von 98,2° (mit den beiden Pléiades-Satelliten auf demselben Orbit) liefern sie Aufnahmen mit einer Schwadbreite von 60 km und einer Auflösung von maximal 1,5 m.

Dadurch bilden die Satelliten eine Konstellation, die täglich jeden Punkt der Erde erfassen kann. Von dieser täglichen Erfassung werden Anwender weltweit profitieren. In Situationen, in denen möglichst zeitnahe Reaktionen gefordert sind, ist die tägliche Erfassungskapazität entscheidend. Mit der Pléiades-Konstellation werden innerhalb weniger Stunden Aufnahmen von Konflikt- und Krisenbereichen oder Katastrophengebieten erstellt, die die Planung von Entlastungs- und Rettungsmaßnahmen unterstützen können.

Die tägliche Aufnahmekapazität ermöglicht auch eine tägliche Überwachung beispielsweise von Baumaßnahmen oder Bergbau sowie industrieller oder militärischer Aktivitäten. Außerdem sind die Pléiades-Satelliten dank der hohen Anzahl an Aufnahmemöglichkeiten eine ideale Datenquelle für die Kartierung größerer Gebiete in hoher Auflösung – die doppelte Anzahl an Akquisitionsmöglichkeiten erhöht die Chancen, wolkenfreie Aufnahmen zu erhalten.

camargue Pléiades Satellitenaufnahme
Salin-de-Giraud, Frankreich

  • Titel : Pléiades Satellitenaufnahme - Salin-de-Giraud, Frankreich
  • Ort: Camargue
  • Bildtyp: Optisch
  • Auflösung: 50 cm
  • Datum: 14/09/2012
  • Copyright: CNES 2012
  • Distribution Airbus DS
  • Aufnahmemodus: Pansharpened

Zu größerer Darstellung auf Grafik klicken

Quelle: Airbus D&S

Die dreiachsenstabilisierten Pléiades sind mit einer Kamera mit einem Primärspiegeldurchmesser von 65 cm ausgerüstet, die bei Farb- oder Schwarzweiß-Aufnahmen eine Auflösung von 50 cm und bei multispektralen Fotos eine Auflösung von 2 m erreichen. Die Aufnahmen erfolgen durch fünf Zeilensensoren mit 1500 Pixel Breite für multispektrale und fünf Zeilensensoren mit 6000 Pixel Breite für den panchromatischen Bereich. Die Satelliten und ihre Bahnen wurden so ausgelegt, das sie zusammen jedes Gebiet der Erde mindestens einmal am Tag aufnehmen können.

Mit den dreimal täglich von den drei Bodenstationen (Kerguelen Archipel, Kiruna und Toulouse) an die Satelliten hochgeladenen Programmierplänen können Datenanfragen bis zu zwei Stunden bevor der Satellit das Gebiet überfliegt verarbeitet werden. Die vollständig automatisierte Datenverarbeitung ist in der Lage, georeferenzierte Daten mit den Abmessungen 20km x 20km in nur 30 Minuten und ein 60km x 60km Single-Pass-Mosaik in weniger als zwei Stunden zu erstellen. Somit können Kunden innerhalb von weniger als 6 Stunden nach Ihrer Beauftragung, einschließlich Erfassungszeit, auf einsatzbereite Aufnahmen zugreifen.

Das Programm wird unter der Verantwortung der französischen Raumfahrtbehörde CNES entwickelt. Astrium ist Hauptauftragnehmer für die Auslegung, Entwicklung, Fertigung und Auslieferung der beiden Satelliten. Astrium Services vermarktet die Aufnahmen der Satelliten Pléiades 1A und 1B exklusiv.

Weitere Informationen:

Plessetsk (Plessezk)

Russischer Weltraumbahnhof, 800 Kilometer nördlich von Moskau und 180 Kilometer südlich der Gebietshauptstadt Archangelsk am Polarkreis gelegen. Die Startkomplexe befinden sich inmitten dichter Nadelwälder (Taiga).

Plessetsk war lange Zeit eine der geheimsten Raketenbasen der Sowjetunion. Anfang 1957, zehn Monate vor dem Start des ersten Sputniks der Welt, beschlossen die Militärs, im hohen Norden eine operative Raketenbasis – Deckname „Angara“ – zu errichten. Sie wollten für ihre mit Atombomben bestückten Interkontinentalraketen eine möglichst kurze Flugtrasse über den Nordpol in Richtung Nordamerika haben. Plessetsk galt hierzu ein idealer Standort. Auch für die zivile Nutzung mit Starts zu niedrigen, sonnensynchronen Umlaufbahnen mit starker Inklination ist der Sartplatz ideal.

Lage des Kosmodroms Plessetsk Taiga der Region Plessetsk Kosmodrom am Polarkreis
Plesetsk_view_400
Quellen: EUROCKOT / ESA

Am 17. März 1966 wurde von Plessetsk der erste Satellit gestartet. Eine Wostok-Trägerrakete beförderte einen Zenit-2-Fotoaufklärungssatelliten unter dem Namen Kosmos 112 in eine subpolare Erdumlaufbahn. Die hohe Bahnneigung von 72 Grad fiel westlichen Beobachtern sofort ins Auge. Sie bestimmten den Startort im Gebiet Archangelsk am Polarkreis und nannten ihn nach der einzigen größeren Siedlung in diesem Gebiet – Plessezk. Erst 17 Jahre später, 1983, bestätigte die Sowjetunion offiziell die Existenz von Plessetsk.

In den Folgejahren wurde Plessetsk der meistgenutzte Raketenstartplatz der Sowjetunion. Innerhalb von 35 Jahren wurden mehr als 1500 Trägerraketen, 1900 Satelliten und 500 ballistische Militärraketen gestartet. Trotzdem erhielt Plessetsk erst 1994 durch Präsidentenerlass den offiziellen Status eines Kosmodroms. Im Gegensatz zu Baikonur untersteht Plessetsk bis heute dem Verteidigungsministerium. Ein Teil des Geländes wird bis heute zur Erprobung der modernsten russischen Atomraketen genutzt.

Das Kosmodrom ist einige Dutzend Kilometer von der Stadt Mirny entfernt. Seine Längsausdehnung in West-Ost-Richtung beträgt 82 Kilometer, in Nord-Süd-Richtung 46 Kilometer. Über eine Fläche von 1762 km² verteilen sich neun Startrampen, sieben Montagehallen, eine Sauerstoff-Stickstoff-Fabrik und zwei Betankungsstationen.
In den letzten Jahren ist die Zahl der Einsätze drastisch gesunken. Fehlende Gelder zwingen auch Plessetsk, sich ausländischen Investoren zu öffnen. Den Anfang machte das deutsch-russische Gemeinschaftsunternehmen Eurockot. In den letzten Jahren ist die Politik der Öffnung jedoch wieder zurückgefahren worden.
Die deutlich ausgeprägte Spezialisierung russischer Kosmodrome ist unter der Präsidentschaft von Wladimir Putin 2007 beschlossen worden. Danach soll Plessezk als wichtigstes Kosmodrom zum Start militärischer Nutzlasten und Test neuer militärischer Systeme weiter auf- und ausgebaut werden.

PO.DAAC

Engl. Akronym für Physical Oceanography Distributed Archive Center; Datenzentrum des JPL zur Archivierung und Distribution von Daten zum physikalischen Zustand der Ozeane. Zu den dokumentierten Parametern zählen: Topographie der Meeresoberfläche, ozeanische Windvektoren, Meeresoberflächentemperatur, Luftfeuchte, Wärmeströme u.w. Sie sind jeweils in Bezug gesetzt zu den relevanten Sensoren bzw. in situ-Messungen.

Weitere Informationen: PO.DAAC (NASA, JPL)

POES

Engl. Akronym für Polar-Orbiting Environmental Satellite (polarumlaufender Umweltsatellit); Bezeichnung für die früher unter dem Namen TIROS bekannten Wettersatelliten der NOAA. Die Satelliten des POES-Satellitensystems umrunden die Erde auf polnahen Orbits 14,1 Mal pro Tag. Die POES-Satellitenkonstellation umfasst auch die polarumlaufenden MetOp-Satelliten von EUMETSAT.
Gegenwärtig (2015 / aktueller Status) betreibt die NOAA drei polarumlaufende Satelliten. Dazu kommen zwei Exemplare des MetOp. Eine neue Serie polarer Orbiter mit verbesserten Instrumenten begann mit dem Start von NPP im Mai 2011.
Der aktuellste Satellit der alten Serie, NOAA-19, wurde im Februar 2009 gestartet. NOAA-18 und NOAA-15 liefern als Reservesatelliten weiterhin Daten.
Bezüglich Details zu den eingesetzten Sensoren siehe TIROS.
Daten von den Satelliten der POES-Serie erlauben neben der täglichen Wetterbeobachtung und -prognose auch Klimaforschung und -vorhersage, die Messung der weltweiten Meeresoberflächentemperaturen, die Sondierung der Atmosphäre bezüglich Temperatur und Feuchte, die Untersuchung der Meeresdynamik, die Beobachtung vulkanischer Aktivität, Waldbrandentdeckung, globale Vegetationsanalyse, Search- and Rescue-Aktivitäten u.w.

NOAA-N 19

Der Satellit kurz vor der Ferstigstellung 2008

NOAA-N 19 im Orbit

NOAA-19 im Orbit (künstlerische Darstellung)

NOAA-19

Der Korpus des Satelliten ist 4,2 m lang und 1,88 m im Durchmesser. Seine Solarpanele messen 2,73 x 6, 14 m. Der Start erfolgte mit einer Delta-II 7320-10 von Vandenburg Air Force Base aus. NOAA-19 befindet sich auf einer sonnensynchronen Umlaufbahn in 870 km Höhe.
NOAA-19 trägt folgende Instrumente:
Advanced Very High Resolution Radiometer(AVHRR/3) - Advanced Microwave Sounding Unit-A (AMSU-A) - Microwave Humidity Sounder (MHS) - High Resolution Infrared Radiation Sounder (HIRS/4) - Solar Backscatter Ultraviolet Spectral radiometer (SBUV/2) - Space Environment Monitor (SEM/2) - Search and Rescue (SAR) Repeater and Processor - Advance Data Collection System (ADCS) Quelle: NOAA OSO

 

Weitere Informationen:

Polar Satellite Launch Vehicle

Indische Trägerrakete für leichte bis mittelschwere Nutzlasten. Die Rakete wird von der indischen Raumfahrtbehörde ISRO vom Weltraumbahnhof Satish Dhawan Space Centre auf Sriharikota (80 km nördlich Chennai) gestartet.

PSLV wurde entwickelt, um indische IRS-Erderkundungssatelliten mit eigenen Raketen starten zu können, da man dabei bisher auf die Sowjetunion bzw. Russland und ihre Träger angewiesen war. Der erste Start fand 1993 statt, war jedoch nicht erfolgreich. Obwohl die erste Stufe ohne Probleme arbeitete, trat in der zweiten und der dritten Stufe ein Fehler im Höhenkontrollsystem auf, was zu einem Absturz der Rakete führte. Bereits nach etwa einem Jahr startete erfolgreich die zweite PSLV. Seitdem brachte die PSLV erfolgreich mehrere sowohl indische, als auch zusätzliche kleinere ausländische Nutzlasten ins Weltall. Auch die erste indische Raumsonde Chandrayaan-1 wurde 2008 mit einer PSLV zum Mond gestartet.
PSLV ist eine vierstufige Rakete, bestehend aus zwei Feststoffstufen (erste und dritte Stufe) und zwei Flüssigtreibstoffstufen (zweite und vierte Stufe). Zusätzlich wird die erste Stufe in der Basisversion von sechs kleineren Feststoffboostern unterstützt.

Die Höhe der Rakete beträgt 44,4 m, die Startmasse 294 t (Daten für PSLV-C6). Seit dem Erststart 1993 wurde die Rakete ständig verstärkt und verbessert, so dass die heute eingesetzte Version über 1.600 kg in eine etwa 600 km hohe polare Umlaufbahn und etwa 1.000 kg in einen Geostationäre Transferbahn bringen kann. Die letzte Version (die PSLV-XL) verfügt über verbesserte Booster und kann sogar 1.800 kg in eine polare Umlaufbahn bringen. Zum Starten der Rakete verfügt das Satish Dhawan Space Centre über zwei Startanlagen, wobei die zweite (SLP – Second Launch Pad) erst 2005 mit dem Start der PSLV-C6-Rakete eingeweiht wurde.

Beim Start der PSLV-C17 wurde zum ersten Mal ein Computersystem eingesetzt, das ausschließlich indische Prozessoren vom Typ Vikram 1601 in beiden redundanten Steuerungscomputer verwendete. Diese hatte man 2009 beim Start der PSLV-C12 getestet, wo sie in einem der beiden Systeme benutzt wurden.

Weitere Informationen:

POET

Engl. Akronym für PO.DAAC Ocean ESIP TOOL; Werkzeug des Jet Propulsion Laboratory zur Online-Darstellung einer großen Zahl von PO.DAAC-Daten.

polare Umlaufbahn

Engl. polar orbit, franz. orbite polaire; Umlaufbahn eines Satelliten, die über die Polarregionen hinweg führt (nicht notwendigerweise direkt über die Pole) und damit eine starke Neigung gegenüber der Äquatorebene besitzt. Derartige Satelliten befinden sich in Höhen zwischen 700 und 900 km (Angaben schwankend). Beispielsweise verläuft die Umlaufbahn im Falle der meisten polarumlaufenden Wettersatelliten in Höhen von ca. 850 km über der Erde. Die Umlaufdauer beträgt dann ca. 100 Minuten, und pro Tag können 14 Umläufe durchgeführt werden. Während des Fluges von Pol zu Pol dreht sich die Erde unter dem Satelliten hinweg, es werden stets nur Streifen der Erdoberfläche beobachtet. Diese Streifen haben, je nach verwendeter Optik, Breiten von 30 bis 2.600 km (Schwadbreite, engl. swath width). Für die globale Erdbeobachtung müssen die einzelnen Beobachtungsstreifen aneinandergefügt werden.

Scanzeilen polarumlaufender Satelliten - Das Beispiel der US-amerikanischen NOAA (POES)- und DMSP-Satelliten

 

Umlaufbahnen eines polarumlaufenden Satelliten an einem beliebigen Tag. Zu beachten ist die globale Abdeckung. Die Orbithöhen sind mit ca. 850 km viel niedriger als jene von geostationären Satelliten.
Die Umlaufdauer beträgt ca. 98-102 Minuten. Somit vollzieht jeder Satellit ca. 14 Umläufe pro Tag.Quelle: Lyndon State College

 

Die Bodenspur (scan swath) ist etwa 3.000 km breit. Der Orbit verläuft in Richtung NW. Die Satelliten überqueren nicht genau die Pole, sondern schaffen eine Orbit-Präzession, so dass sie bei jedem weiteren Umlauf einen weiter westlich gelegenen Streifen überfliegen. Zur Verkürzung der Beobachtungsintervalle werden zwei zeitlich versetzt umlaufende Satelliten eingesetzt.

 

Die Umlaufbahn der Wettersatelliten ist zusätzlich sonnensynchron, dabei werden alle Teile der Erde unter der gleichen Sonnenbeleuchtung, d.h. zur gleichen Ortszeit überflogen. Die Bildstreifen sind damit untereinander direkt vergleichbar. Dieser Orbit wird durch eine leichte Neigung (Inklination) gegenüber einer genauen Pol-zu-Pol-Umlaufbahn erzielt. Alle Satelliten mit einer hohen räumlichen Auflösung gehören zu diesem Typ.

Der nordwärtige Teil eines polarumlaufenden Orbits wird ascending pass (aufsteigender Durchgang) genannt, der südgerichtete descending pass (absteigender Durchgang). Ist der Orbit gleichzeitig sonnensynchron, so befindet sich der ascending pass höchstwahrscheinlich auf der Schattenseite der Erde, während der descending pass auf der sonnenbeschienenen Seite verläuft. Aktive Sensoren, die ihre Beobachtungsgebiete selbst "beleuchten" oder passive Sensoren die emittierte (z.B. thermale) Strahlung aufzeichnen, können auch im ascending pass die Erdoberfläche abbilden.

nearpolar Links: Polnahe Umlaufbahn

Sie ist so bezeichnet wegen der Neigung des Orbits in Bezug auf eine Linie, die Nord- und Südpol verbindet. Viele der Satelliten mit dieser Umlaufbahn sind bewegen sich gleichzeitig sonnensynchron, d.h. sie überfliegen jedes Gebiet der Erde immer zu einer konstanten Zeit (local sun time).

Dies garantiert gleichbleibende Beleuchtungsbedingungen, wichtig bei der Beobachtung von Veränderungen oder dem Zusammensetzen von benachbarten Bildern (mosaicking).

Rechts: Auf- und absteigende Bewegungsrichtung
bei polarumlaufendem Orbit

Die meisten der heutigen Erbeobachtungssatelliten bewegen sich auf polnahen Umlaufbahnen, was bedeutet, dass die Satelliten auf der einen Seite der Erde sich nordwärts bewegen und dann in Richtung Südpol auf der zweiten Hälfte des Orbits. Dies bezeichnet man als aufsteigende bzw. absteigende Bewegungsrichtung. Wenn der Orbit gleichzeitig sonnensynchron ist, überstreicht die aufsteigende Bahnhälfte höchstwahrscheinlich die dunkle Seite des Globus, wohingegen die absteigende Bahnhälfte die sonnenbeschienene Seite überfliegt.

Quelle: Natural Resources Canada
Auf- und absteigende Bewegungsrichtung bei polarumlaufendem Orbit

Im Gegensatz zum niedrigen Erdorbit mit kleiner Inklination überstreicht ein Satellit in LEO mit einer Inklination von ca. 90° die gesamte Erde innerhalb von ein paar Tagen. Polare Bahnen und der Molniya-Orbit sind die einzigen Bahnformen, auf denen Satelliten direkt auf die Pole herunterschauen können. Die polaren Umlaufbahnen werden für Wettersatelliten, für die Kartographie und für Spionagesatelliten verwendet.

Die Vorteile polarumlaufender Satelliten liegen in der - im Vergleich mit geostationären Satelliten - höheren geometrischen Auflösung, und sie können den gesamten Globus abbilden, wenn auch nicht zeitgleich. Damit erfassen sie eben auch die Polarregionen, und sie bieten die Möglichkeit, Instrumente zum Einsatz zu bringen, die nicht effizient im geostationären Orbit eingesetzt werden können (z.B. derzeit die Mikrowellensondierung mit AMSU, MHS). Die globale Abdeckung macht sie ideal für Missionen zur Erdbeobachtung.
Der wesentlichste Nachteil polarumlaufender Satelliten liegt in ihrer Unfähigkeit, kontinuierliche Daten von einer bestimmten Region zu liefern, da sich die Erde unter der Satellitenbahn ständig weiterdreht. Höhe und Umlaufzeit der Bahn bestimmen die Häufigkeit, mit der jeder Punkt auf der Erdoberfläche überflogen wird.

Typische polarumlaufende Satelliten sind, bzw. waren:

Weitere Informationen:

Polarimetrie

Verfahren der Radarfernerkundung, bei dem Mikrowellen verschiedener Polarisation ausgesandt und empfangen werden.
Unter der Polarisation einer elektromagnetischen Welle versteht man die Ebene, in der der Vektor der elektrischen Feldstärke schwingt. Reflexionen an Grenzflächen können zu einer Richtungsänderung führen. Dies macht man sich bei der Radarfernerkundung zunutze, wobei üblicherweise horizontal oder vertikal polarisierte Wellen betrachtet werden. Während in der Vergangenheit aus technischen Gründen häufig nur eine Polarisation verwendet wurde (z.B. ERS), arbeiten moderne Systeme meist mit zwei Polarisationen (ENVISAT) oder sogar vollpolarimetrisch (ALOS/DAICHI, Japan, 2006).

Weitere Informationen:

Polarisation

Engl. polarization, franz. polarisation; Polarisation beschreibt die Richtung des elektrischen Vektors in einer elektromagnetischen Welle. Eine Welle nennt man unpolarisiert, wenn der elektrische Vektor eine zufällige Orientierung hat, so dass seine Richtung nicht vorhergesagt werden kann.
DIN 18716 formuliert: Die "Vorzugsrichtung des elektrischen und magnetischen Vektors der transversalen elektromagnetischen Wellen" und macht die Anmerkung: "Die Polarisation kann linear, zirkular oder elliptisch sein. Bei partieller Polarisation ist ein Anteil der Strahlung polarisiert".

Bei digitalen photogrammetrischen Systemen ist Polarisation ein Betrachtungsprinzip, bei dem zur Erzeugung eines 3-D-Effektes leichte Polarisationsfilter eingesetzt werden. Diese trennen eine linke und eine rechte Projektion, was dazu führt, dass die zwei Bilder Polarisationen aufweisen, die lotrecht zueinander stehen. Zur Betrachtung ist eine spezielle Brille vonnöten, die im Wesentlichen wie die Anaglyphenbrille wirkt.

Prinzip einer 3-D-Projektion Prinzip einer 3-D-Projektion Quelle: unbekannt
POLDER

Engl. Akronym für Polarization and Directionality of the Earth's Reflectances; von CNES entwickeltes, abbildendes Radiometer zum Einsatz auf ADEOS .
POLDER liefert die ersten globalen und systematischen Messungen der vom System Erde/Atmosphäre reflektierten Sonnenstrahlung in Bezug auf deren Spektrum, Richtung und Polarisation.

Weitere Informationen:

Pol-InSAR

Akronym für Polarimetrische SAR-Interferometrie, engl. Polarimetric SAR Interferometry; Fernerkundungsmethode, die eine Untersuchung der 3D-Struktur natürlicher Volumenstreuer erlaubt. Ein polarimetrisches Radar ist in der Lage, Wellen unterschiedlicher Polarisierung zu senden und zu empfangen. Aus der Polarisierung der empfangenen Wellen bzw. der Polarisationsänderung lassen sich weitere Informationen über das abgebildete Gelände gewinnen, die zum Beispiel die Unterscheidung zwischen Wald und Häusern erleichtern.

Funktionsweise:
Zu beobachtende interferometrische Objekte sind hochsensitiv gegen räumliche Variation vertikaler Strukturparameter und erlauben eine exakte 3D-Lokalisation des Streuzentrums. Andererseits ist die Rückstreupolarisation sensitiv gegenüber der Form, Orientierung und dielektrischen Eigenschaften von Rückstreuern und erlaubt die Identifikation und/oder Trennung von Rückstreumechanismen natürlicher Medien.

Pol-InSAR kombiniert beide Techniken kohärent miteinander, um eine Sensitivität zur vertikalen Verteilung der Streumechanismen herzustellen. Damit wird es möglich, die 3D-Struktur von Volumenstreuern zu untersuchen und Informationen über die zugrundeliegenden Streuprozesse zu extrahieren - und dies mit einem polarimetrischen Radarsensor in nur einer Trägerfrequenz.

Mit dem E-SAR-Sensor betreibt das DLR den Sensor, der zum ersten Mal flugzeuggetragene polarimetrische Repeatpass-Interferometrie in L- und P-Band demonstrierte und initiierte damit die Entwicklung der Pol-InSAR-Technologie in Europa und weltweit.

Bedeutende Anwendungen liegen in den Bereichen Forstwirtschaft, Landwirtschaft, Stadt-Gebiete, Schnee und Eis.

Die rasche Entwicklung von Pol-InSAR-Techniken kombiniert mit dem Interesse der ESA an der Koordination der europäischen Aktivitäten und der Gründung eines Forums zum wissenschaftlichen Austausch mündet letztlich in den POL-InSAR-Workshops organisiert durch die ESA am Standort ESRIN ( http://earth.esa.int/polinsar/).
Als direktes Ergebnis der auf dem ersten POL-InSAR Workshop gegebenen Vorschläge wurde POLSARPRO (Polarimetric SAR Data Processing and Educational Tool) entwickelt - unter ESA-Vertrag in einem Konsortium: University of Rennes 1, DLR und AEL Consultants. POLSARPRO soll den Zugang und die Auswertung multi-polarimetrischer SAR-Datensätze erleichtern. Alle Elemente des POLSARPRO-Projekts werden durch die ESA kostenfrei verteilt (http://earth.esa.int/polsarpro/index.html).

Weitere Informationen:

Potsdamer Kartoffel

Populäre Bezeichnung für die auf einem Modell des GFZ Potsdam beruhende Darstellung der Erdgestalt. Das Modell seinerseits basiert auf Daten der Satellitenmissionen CHAMP und GRACE zur Vermessung des Schwerefeldes der Erde.

Geoid Potsdamer Kartoffel (Geoid)

Variationen des Erdschwerefelds ausgedrückt durch Geoidundulationen
(blau:-100m...gelb:0m...violett:+80m)


Zu größerer Darstellung auf Grafik klicken

Quelle: GFZ Potsdam (R.o.)

Weitere Informationen:

PRARE

Engl. Akronym für Precise Range and Range Rate Equipment; in Deutschland entwickeltes Mikrowellensystem zur Bestimmung der Satellitenposition und zugleich ein wertvolles Werkzeug für die Geowissenschaften. Es war im von 1995 bis 2011 aktiven, europäischen Satelliten ERS-2 im Einsatz.

Die von PRARE gesammelten Daten erlauben eine genauere Bestimmung des Erdschwerefeldes. Ausserdem können durch exakte Ermittlung der Koordinaten der Bodenstationen und deren zeitlicher Änderung geophysikalische Prozesse wie die Kontinentaldrift oder die Gezeiten des festen Erdkörpers besser erfasst werden. Weiterhin können Ausbreitungseffekte der Mikrowellensignale, insbesondere mit Blick auf die ionosphärische Refraktion, genauer untersucht werden. Nicht zuletzt können auch Deformationen der Erdoberfläche im Bereich von Vulkanen oder in erdbebengefährdeten Gebieten kontinuierlich beobachtet und zentral überwacht werden.

Prare PRARE und Laser Retroreflector

PRARE is a microwave tracking system operating at centimeter accuracy levels for the measurement of satellite to ground range and range rate. The concept is based on an autonomous spaceborne two-way and dual frequency microwave tracking system with its own telemetry, telecommand, data storage, timing and data transmission capabilities. This allows data analysis on a global basis within a very short time delay.

Zu größerer Darstellung auf Grafik klicken

Quelle: ESA

PRARE hat gegenüber den bisher hauptsächlich verwendeten Lasersystemen mehrere Vorteile: als Mikrowellensystem ermöglicht es Allwetter- sowie Tag- und Nachtbetrieb bei annähernd vergleichbarer Genauigkeit. Dazu kommt, dass die Bodenstationen des Systems kostengünstig und mobil sind. Das gesamte System arbeitet vollautomatisch, die Daten inklusive der Korrekturdaten und der Wetterdaten von den Bodenstationen werden ohne menschlichen Eingriff über den Satelliten übertragen. Dadurch ist der Aufbau eines globalen Messnetzes technisch einfach und kosteneffektiv möglich.

Die Hardware für die PRARE-Bodenstation wurde entwickelt und gebaut von Dornier GmbH, heute Airbus Defence and Space, Immenstaad, für das Software-Design war das Deutsche Geodätische Forschungsinstitut (DGFI), München und später das Geoforschungszentrum (GFZ), Potsdam verantwortlich.

Precision Farming (PF) und Fernerkundung

Precision Farming ist die engl. Bezeichnung für Teilschlagbezogene Landwirtschaft, ein innovatives informationsgeleitetes Managementkonzept der Landbewirtschaftung, das auf modernster Sensorik und Geoinformationen und damit auch dem Einsatz von Fernerkundungsdaten basiert.

Dabei werden die Landbewirtschaftungsmaßnahmen an die Variabilität der Standort- und Bestandsparameter angepasst mit den ökonomischen Zielen der Einsparung von Betriebsmitteln, der Erhöhung der Ertragssicherheit und -qualität und der ökologischen Zielsetzung einer nachhaltigen, integrativen und umweltschonenden Landwirtschaft. Alternative Bezeichnungen sind im deutschen und internationalen Umfeld u.a Teilschlagbewirtschaftung, Computer-Aided Farming (CAF), Lokales Ressourcenmanagement.

Teilbereiche des Präzisen Ackerbaus (Precision Farming)

Zu größerer Darstellung auf Grafiken klicken.

Quellen:
TAB
Srinivasan (2006)

Hilfsmittel zur Umsetzung von Precision Agriculture

prec_farm_elemente

Die Begriffe Precision Farming und Precision Agriculture (PA) werden vielfach synonym gebraucht, wobei im amerikanischen Sprachraum eher von PA im europäischen eher von PF gesprochen wird. Bei einer möglichen Differenzierung wäre PF für Maßnahmen im Pflanzenbau zu verwenden, PA könnte als übergeordnete Einheit gesehen werden, die neben dem Pflanzenbau auch die Bereiche Precision Livestock Farming (Tierhaltung), Precision Viticulture (Weinbau) usw. (z.B. Gartenbau, Forst) umfasst.

Derartige Konzepte sind seit Anfang der neunziger Jahre mit der Verfügbarkeit von Positionierungssystemen wie dem GPS und raumbezogenen Erfassungs- und Auswertesystemen wie GIS realisierbar. Sie spielen sich dann eher im mittleren bis großen Maßstabsbereich ab.

Betreiber kleiner und großer landwirtschaftlicher Betriebe, Kooperativen, Konzerne, die in Ländereien investieren, sowie Logistik- und Lieferkettenunternehmen benötigen homogene Instrumente und Programme zur Verwaltung des Pflanzenanbaus - sei es für ihre eigenen Feldern oder für entfernte Ländereien.

Fernerkundungsmethoden bieten die Möglichkeit, die Heterogenität mit zunehmend geringerem Aufwand flächenhaft abzubilden. Eine wesentliche Rolle spielen dabei schlaginterne Heterogenitäten in der spektralen Reflexion der Vegetation, die mit Hilfe der optischen Fernerkundungssensoren gemessen werden können. Ebenso können durch die kurzen Wiederholungsraten die Veränderungen der Landschaftsbedeckung erfasst werden. Über die Analyse der Veränderungen der Landbedeckung besteht die Möglichkeit, negative Tendenzen der Entwicklung, z.B. durch eine Pilzinfektion hervorgerufen, frühzeitig zu erkennen und in den Bewirtschaftungsprozess einfließen zu lassen. Für die Fernerkundung ergeben sich innerhalb der teilflächenspezifischen Bewirtschaftung folgende Aufgaben:

  • Auffinden von Teilflächen mit abnormem Erscheinungsbild
  • Gute Unterteilung der Flächen in einheitliche Bewirtschaftungszonen
  • Fortlaufende Kartierung der Ausbreitung von Krankheiten und Schädlingen
  • Laufende Erfolgskontrolle aller Maßnahmen in der Fläche

Gegenwärtig wird bereits intensiv modernste, z.T. berührungslose Sensorik an Bord landtechnischer Fahrzeuge so z.B. Bildsensoren (CCD-Sensor) zur Unkrauterkennung, Steuerungssensoren für Dünge- und Pflanzenschutzapplikation, Korndurchsatzmeßsensoren beim Mähdrusch usw. genutzt, die eine standortspezifische Düngezufuhr bzw. Ernteertragserhebung z.T. in Echtzeit ermöglichen. Die Kopplung mit Real-time-Kinematic-Differenzial-GPS-Empfängern (RTK-DGPS) erlaubt die exakte geodätische Positionierung des landwirtschaftlichen Sensors auf der Teilfläche. Genauigkeitsvorstellungen liegen üblicherweise im 1 m bis 5 m-Bereich.

Insgesamt finden sowohl klassische Fernerkundungssensoren auf Satelliten, Flugzeugen, Hubschraubern, als auch innovative Fernerkundungssensoren auf terrestrischen Plattformen Anwendung, z.B. auf Traktoren. Neue Entwicklungen betreffen UAVs als kostengünstige Sensorträger. Die Grenzen zwischen 'Fern'erkundung und 'Nah'erkundung mit z.T. nur wenigen Zentimetern Distanz sind dabei fließend und nur von akademischem Interesse. Gemeinsam ist aber diesen Verfahren die Berührungslosigkeit zwischen Sensor und Bestand bzw. Boden.

Anwendungsfelder des Precision Farming sind die Ertragskartierung, Pflanzenschutz- und Düngemittelapplikationen, Bodenprobenahme, Dokumentation für Agrarsubvention und die Entscheidungsunterstützung für durchzuführende Bewirtschaftungsmaßnahmen auch und gerade unter Berücksichtigung ökologischer Faktoren. Gerade für größere landwirtschaftliche Betriebe mit hoher Heterogenität in den Schlägen sowie bei Lohnunternehmen und Maschinenringen lohnt sich die Anwendung des Precision Farming. Einsparungspotenziale ergeben sich für den Betrieb durch geringere Dünge- und Pflanzenschutzmengen, aber auch in Form von Treibstoffeinsparungen durch GPS-gestützte Kontrolle der Maschinenlogistik. Der Übergang zur kompletten teilflächenspezifischen Bewirtschaftung dauert nach Experten jedoch noch einige Jahre, da das Zusammenspiel der technischen Individuallösungen mit der Betriebssoftware noch nicht zufriedenstellend gelöst ist.

Innerhalb des "Precision Farming" werden Fernerkundungsdaten zur Erfassung unterschiedlicher schlaginterner Variabilität eingesetzt. Man kann insgesamt sechs Gruppen der Variabilität innerhalb landwirtschaftlicher Flächen unterscheiden:

  • Variabilität des Ertrags
  • Topographische Variabilität (Relief)
  • Variabilität des Bodens (Fruchtbarkeit, Anteil an organischen Substanzen, Salzgehalt, Bodentiefe, Feuchte, elektrische Leitfähigkeit, pH-Werte)
  • Variabilität des Bestandes (Dichte, Höhe, Nährstoff- und Wasserversorgung, Höhe der Biomasse, Chlorophyllgehalt)
  • Variabilität von Schäden (Pilzbefall, Insektenbefall, Unkräuter, Hagel- und Windschäden)
  • Variabilität des Managements

Ein erfolgreicher Einsatz von Fernerkundungsdaten im "Precision Farming" hängt auch von der Wahl des richtigen Aufnahmezeitpunktes ab. In der folgenden Tabelle sind exemplarisch für einige spezifische Heterogenitäten die zugehörigen Zeitfenster dargestellt.

prec_farm_zeit_tabelle Zeiträume und Anwendungsmöglichkeiten der Fernerkundung zur Erfassung teilschlagspezifischer
Information

 

Quelle: Voß (2005)

Weitere Informationen:

PRIRODA

Fernerkundungsmodul an der inzwischen verglühten Raumstation MIR.
Bei der PRIRODA-Mission wurde das gesamte verfügbare Strahlungsspektrum vom nahen Ultraviolett über das sichtbare Licht, Infrarot bis zum Mikrowellenbereich aufgenommen. Möglich wurde das durch eine Vielzahl der zum Einsatz kommenden Sensoren und Instrumente. An der Datennutzung sind auch deutsche Einrichtungen beteiligt. Einige ihrer wissenschaftlichen Zielsetzungen sind:

  • Untersuchung regionaler hydrologischer Zyklen im Hinblick auf Feuchte, Verschmutzung und Transport
  • Schätzungen von Regenmengen
  • Kartierung der Veränderung des Regenwaldes
  • Ermittlung der Ozean-Bioproduktivität
  • Ermittlung des Einflusses der Urbanisierung auf Ökosysteme
  • Untersuchungen der Raum-Zeit-Dynamik von Agrar-Ökosystemen
  • Beobachtung ökologisch gefährdeter Gebiete im Braunkohlentagebau
  • Identifikation von Pflanzenarten und deren Vitalität
Proba-1

Engl. Akronym für Project for On-Board Autonomy; 2001 gestarteter, experimenteller Technologiesatellit der ESA zur Erderkundung. Im Vordergrund steht die erhöhte Leistungsfähigkeit des waschmaschinengroßen Kleinsatelliten durch bordautonome Systeme sowie die Reduktion der Betriebsaufgaben im irdischen Kontrollzentrum. Der Satellit hält seinen Kurs mit Hilfe von GPS. Da er sich jedoch im Verhältnis zu den GPS-Satelliten mit hoher Geschwindigkeit bewegt, ist Proba zusätzlich mit dem Advanced Stellar Compass (ASC) ausgerüstet, der die genaue Position des Satelliten anhand von Sternenkarten berechnet.
Hauptinstrument ist ein hochauflösendes bilderzeugendes Spektrometer aus Großbritannien namens CHRIS (Compact High Resolution Imaging Spectrometer). CHRIS liefert Bilder mit einer Auflösung von bis zu 18 m pro Bildpunkt. Parallel zu den Spektrometerdaten liefern zwei im sichtbaren Bereich operierende Kamerasysteme aus Belgien benutzerfreundliche Aufnahmen der Erdoberfläche, die Wide Angle Camera (WAC) und die High Resolution Camera (HRC). Letztere mit einer Bodenauflösung von 10 m.
Zur wissenschaftlichen Nutzlast gehören SREM und DEBIE, zwei Detektoren zur Messung der kosmischen Strahlung (Standard Radiation Environment Monitor) sowie zur Erfassung von Weltraum-Müll und Staubpartikeln (Debris In-Orbit Evaluator). Hinzu kommen diverse Untersysteme, wie beispielsweise ein neuentwickelter Sternensensor, ein GPS-Empfänger und vier Antennen.

Proba-1
Proba Quelle: ESA

Ätna-Krater (30.10.2002) Ätna-Krater (30.10. 2002)

Aufnahme des Ausbruchs mit dem
CHRIS-Spektrometer auf Proba

Zu größerer Darstellung auf Grafik klicken

Weitere Informationen:

Proba-2

Engl. Akronym für Project for On-Board Autonomy; zweiter Kleinsatellit der ESA, der entsprechend dem Konzept von Proba ( Projekt für Bordautonomie) autonom und kostengünstig operiert. Der Start des 130 kg schweren und 0,6×0,6×0,8 Meter großen boxförmigen Satelliten auf eine sonnensynchrone Umlaufbahn in 700 km Höhe erfolgte am 2. November 2009 zusammen mit dem SMOS-Satelliten an Bord einer Rockot-Rakete vom russischen Weltraumbahnhof Plessezk aus.
Proba-2 testet neue Lithium-Ionen-Batterien, eine verbesserte Datenerfassung und -verarbeitung, leichte Strukturelemente auf Basis von Aluminium und CFK, eine verbesserte Lageregelung durch neue Reaktionsräder in Verbindung mit GPS-Empfängern und Sternsensoren die auch bei der BepiColombo eingesetzt werden sollen, und mit Xenon und Stickstoff betriebene Resistojets für die Bahnregelung. Laserreflektoren ermöglichen die genaue Positionsbestimmung von der Erde aus.
Ferner untersucht Proba-2 mit je zwei Experimenten die Sonnenstrahlung und das vom Sonnenwind erzeugte Plasma in der Magnetosphäre der Erde (Weltraumwetter).
Insgesamt waren zehn europäische Länder und Kanada am Bau von Proba-2 beteiligt.

Weitere Informationen:

Proba-3

Engl. Akronym für Project for On-Board Autonomy; dritte, dieses Mal aus zwei Satelliten bestehende Kleinsatellitenmission der ESA, die entsprechend dem Konzept von Proba ( Projekt für Bordautonomie) autonom und kostengünstig operiert, und die sowohl wissenschaftliche Aufgaben hat, als auch zu Test- und Demonstrationszwecken neuer Technologien, z.B. Tandemflug, dient. Dementsprechend ist Proba-3 die erste ESA-Mission mit engem Formationsflug der zwei Satelliten (Abstanztoleranz von 1 mm). Dabei wird ein Satellit die Sonne für den nachfolgenden Satelliten verdecken, um diesem zu ermöglichen, die ansonsten nicht sichtbare Korona zu beobachten. Der Start ist für 2017 vorgesehen.

PROBA3-03 Proba-3

Der Tandemflug der Proba-3-Satelliten hat einen stark elliptischen Orbit mit einem Apogäum von 60.524 km und einem Perigäum von 800 km. Die Beobachtung der Sonne nach dem Prinzip eines Koronographen basiert hier auf der Schaffung einer künstlichen Sonnenfinsternis zwischen den beiden Satelliten.

Die Experimente zum Formationsflug haben eine aktive Komponente auf dem Weg zum Apogäum, passiver Formationsflug findet in größerer Erdnähe statt. Diese Technologie erlaubt es möglicherweise, eines Tages Weltraumteleskope zu bauen, die Satelliten im Formationsflug als 'starre Struktur' verwenden, was mit einem einzelnen Raumflugkörper nicht realisierbar wäre.

Zu größerer Darstellung auf Grafik klicken

Quelle: ESA
 

Weitere Informationen: About Proba-3 (ESA)

Proba-V

Engl. Akronym für Project for On-Board Autonomy Vegetation; vierte Kleinsatellitenmission der ESA, die abweichend vom bisherigen Konzept von Proba sowohl operationelle Aufgaben hat, als auch zu Experimentalzwecken dient, und damit die Bedürfnisse einer bestehenden Nutzergemeinde erfüllt. Das 'V' steht für 'Vegetation': Proba-V trägt eine zehnfach verkleinerte, aber leistungsfähigere Version des abbildenden Instruments Vegetation, das gegenwärtig an Bord der Spot-Satelliten seinen Dienst tut, und einen täglichen Überblick über das globale Vegetationswachstum liefert. Ziel der Mission ist, die Datenkontinuität auch nach dem Ende der SPOT-Missionen zu gewährleisten.
Zu den Aufgaben des Satelliten gehören Monitoring der Landnutzung, Vegeationsklassifizierung, Nutzpflanzenmonitoring, Hungervorhersagen, Nahrungsmittelsicherheit, Katastrophenmonitoring und Studien zur Biosphäre.

Künstlerische Darstellung von Proba-V

proba_v

 

Das 'V' steht für 'Vegetation'


Zu größerer Darstellung auf Grafiken klickenQuelle: ESA / ESA

The Nile Delta in Egypt, acquired by Proba-V on 24 March 2014

Nile_Delta_Egypt
 

A year after its launch, ESA’s Proba-V is set to make a giant leap for a minisatellite: formally taking over the task of continuously charting our planet’s global vegetation.

For 16 years the Vegetation cameras on France’s full-sized Spot-4 and Spot-5 satellites have been monitoring plant growth across Earth, compiling a new global map every two days.

Scientific teams around the world use these sensors to predict crop yields, chart the progress of drought and desertification, pinpoint deforestation and improve climate change models.

But Spot-4 stopped operating last year and Spot-5 is nearing the end. The torch will shortly be passed to Proba-V, ESA’s latest minisatellite, launched on 7 May 2013. 

The satellite was designed to provide a clear picture of the world’s plants so their health can be easily monitored. This information can also be used for day-by-day tracking of extreme weather, alerting authorities to crop failures, monitoring inland water resources and tracing the steady spread of deserts and deforestation.

 

PROBA‑V fliegt auf derselben Umlaufbahn wie Spot‑5, um den alternden Satelliten bei dessen Außerbetriebnahme 2014 ablösen zu können. Bei „Vegetation“ handelt es sich um ein hochmodernes optisches Abbildungsgerät, das Bilder mit einer Auflösung von 350 m in vier Bereichen für sichtbares Licht und Infrarot erzeugen und mit einer Abtastbreite von 2250 km die tägliche Erfassung aller Gebiete zwischen 35° und 75° nördlicher Breite und zwischen 35° und 56° südlicher Breite ermöglicht. Diese Daten werden anschließend verarbeitet und einem großen Kreis internationaler Nutzer zugänglich gemacht, unter anderem der Europäischen Kommission.

Zusätzlich zu seiner Hauptnutzlast führt PROBA‑V auch eine Reihe von Technologienutzlasten mit, darunter ein Empfänger zur weltweiten Erfassung von Flugzeugen in der Luft, ein Kommunikationsverstärker auf der Grundlage der neuesten Galliumnitridtechnologie, zwei neuartige Strahlungsüberwachungsgeräte und ein Photonikexperiment zur Erprobung von Faseroptik im Weltraum.

Sein Start erfolgte am 7. Mai 2013 mit einer VEGA-Rakete von Französisch-Guayana aus.

Weitere Informationen:

Produkte der Bildinterpretation

Engl. products of image interpretation, franz. résultats de l'interprétation d'images; nach DIN 18716 "interaktiv oder automatisiert ausgeführte Analysen und Klassifizierungen von Bildinhalten", verbunden mit 2 Anmerkungen zum Begriff:

  1. "Die Ergebnisse können in thematischen Karten, Plänen und GIS-Datenbeständen dargestellt und durch anwendungsspezifischen Text erläutert und ergänzt werden (z. B. über Umweltverträglichkeit geplanter Baumaßnahmen)."
  2. "Photogrammetrische Auswertungen setzen meist Bildinterpretation voraus, so dass die Ergebnisse dann auch in den Produkten der Bildtransformation und Bildmessung enthalten sind."
Produkte der Bildmessung

Engl. products of geometric evaluation, franz. produits de la restitution géométriques; nach DIN 18716 "numerische und/oder graphische Geodaten".

Punktbildverschmierungsfunktion (PSF)

Engl. point spread function, franz. fonction d'étalement des points; nach DIN 18716 die "Reaktion eines (optischen) abbildenden Systems auf ein punktförmiges Objekt".

punktweise Operation

Engl. punctual operations, franz. opérations ponctuelles; nach DIN 18716 eine " pixelbezogene Bildverarbeitungsoperation".

Punktwolke

Syn. Punkthaufen oder Cluster, eine Punktmenge (eine Menge diskreter Werte), die vollständig – oder überwiegend – in einer definierten Umgebung liegt.
Punktwolken sind das Ergebnis von Laserscanning-Messungen, bei denen die Oberflächengeometrie des Geländes oder jene von Gegenständen mittels Laserstrahlen digital erfasst wird. Dabei entsteht eine diskrete Menge von dreidimensionalen Abtastpunkten, die aufgrund ihrer üblicherweise großen Anzahl als Punktwolke bezeichnet wird. Die Koordinaten der gemessenen Punkte werden dabei aus den Winkeln und der Entfernung in Bezug zum Ursprung (Gerätestandort) ermittelt.

Pushbroom Scanner

Syn. Along-Track-Scanner; Bildaufnahmesystem, welches ein Bild aus mehreren simultan aufgenommenen Zeilensensoren (linear arrays) zusammensetzt. Die erste Nutzung dieses Grundprinzips fand mit dem HRV-Sensor an Bord des SPOT-Satelliten 1986 statt.

pushbroom_2 Pushbroom Scanner



Er erfasst die Pixel einer gesamten Zeile gleichzeitig und erstellt durch Aneinanderfügen der einzelnen Zeilen eine flächenhafte Szene.



 

Quelle: IGF