Was ist Fernerkundung?
Fernerkundung ist das Erfassen von Informationen aus der Ferne. Die NASA beobachtet die Erde und andere Planetenkörper über Fernsensoren auf Satelliten und Flugzeugen, die reflektierte oder emittierte Energie erfassen und aufzeichnen. Fernsensoren, die eine globale Perspektive und eine Fülle von Daten über Erdsysteme bieten, ermöglichen datengestützte Entscheidungen auf der Grundlage des aktuellen und zukünftigen Zustands unseres Planeten.
- Umlaufbahnen
- Beobachten mit dem elektromagnetischen Spektrum
- Sensoren
- Auflösung
- Auflösung
- Datenverarbeitung, Interpretation und Analyse
- Datenpfadfinder
Umlaufbahnen
Es gibt drei Haupttypen von Umlaufbahnen, in denen sich Satelliten befinden: polar; unpolare, erdnahe Umlaufbahn und geostationär.
Polar umlaufende Satelliten befinden sich in einer Orbitalebene, die um fast 90 Grad zur Äquatorialebene geneigt ist. Diese Neigung ermöglicht es dem Satelliten, den gesamten Globus einschließlich der Polarregionen zu erfassen und Orte zu beobachten, die über den Boden schwer zu erreichen sind. Viele polar umlaufende Satelliten werden als sonnensynchron betrachtet, was bedeutet, dass der Satellit in jedem Zyklus zur gleichen Sonnenzeit über denselben Ort fährt.
Polare Umlaufbahnen können auf- oder absteigend sein. In aufsteigenden Umlaufbahnen bewegen sich Satelliten von Süden nach Norden, wenn ihr Weg den Äquator überquert. In absteigenden Umlaufbahnen bewegen sich Satelliten von Norden nach Süden. Die gemeinsame nationale Polar-Orbiting-Partnerschaft zwischen der NASA und der NOAA Suomi (KKW Suomi) ist ein Beispiel für einen Satelliten mit polarer Umlaufbahn, der eine tägliche Abdeckung des Globus bietet.
Unpolare, erdnahe Umlaufbahnen befinden sich in einer Höhe von normalerweise weniger als 2.000 km über der Erdoberfläche. (Als Referenz umkreist die Internationale Raumstation in einer Höhe von ~ 400 km.) Diese Umlaufbahnen bieten keine globale Abdeckung, sondern nur einen Teilbereich der Breiten. Die Global Precipitation Mission (GPM) ist ein Beispiel für einen unpolaren Satelliten mit niedriger Erdumlaufbahn, der 65 Grad Nord bis 65 Grad Süd abdeckt.
Geostationäre Satelliten folgen der Erdrotation und bewegen sich mit derselben Geschwindigkeit der Rotation; Aus diesem Grund scheinen die Satelliten einem Beobachter auf der Erde an einem Ort fixiert zu sein. Diese Satelliten erfassen bei jeder Beobachtung die gleiche Sicht auf die Erde und bieten so eine nahezu kontinuierliche Abdeckung eines Gebiets. Wettersatelliten wie die GOES-Serie (Geostationary Operational Environmental Satellite) sind Beispiele für geostationäre Satelliten.
Beobachtung mit dem elektromagnetischen Spektrum
Elektromagnetische Energie, die durch die Schwingung geladener Teilchen erzeugt wird, bewegt sich in Form von Wellen durch die Atmosphäre und das Vakuum des Raumes. Diese Wellen haben unterschiedliche Wellenlängen (den Abstand von Wellenberg zu Wellenberg) und Frequenzen; Eine kürzere Wellenlänge bedeutet eine höhere Frequenz. Einige wie Radio-, Mikrowellen- und Infrarotwellen haben eine längere Wellenlänge, während andere wie Ultraviolett-, Röntgen- und Gammastrahlen eine viel kürzere Wellenlänge haben. Das sichtbare Licht befindet sich in der Mitte dieses Bereichs lang- bis kurzwelliger Strahlung. Dieser kleine Teil der Energie ist alles, was das menschliche Auge erkennen kann. Zur Erfassung aller anderen Formen elektromagnetischer Energie sind Instrumente erforderlich. Die NASA-Instrumentierung nutzt den gesamten Bereich des Spektrums, um Prozesse zu erforschen und zu verstehen, die hier auf der Erde und auf anderen Planetenkörpern ablaufen.
Einige Wellen werden von Elementen in der Atmosphäre wie Wasser absorbiert oder reflektiert Dampf und Kohlendioxid, während einige Wellenlängen eine ungehinderte Bewegung durch die Atmosphäre ermöglichen; sichtbares Licht hat Wellenlängen, die durch die Atmosphäre übertragen werden können. Mikrowellenenergie hat Wellenlängen, die durch Wolken gehen können; Viele unserer Wetter- und Kommunikationssatelliten nutzen dies.
Die primäre Energiequelle, die von Satelliten beobachtet wird, ist die Sonne. Die Menge der reflektierten Sonnenenergie hängt von der Rauheit der Oberfläche und ihrer Albedo ab. So gut reflektiert eine Oberfläche Licht, anstatt es zu absorbieren.Schnee hat zum Beispiel eine sehr hohe Albedo, die bis zu 90% der Energie reflektiert, die er von der Sonne erhält, während der Ozean nur etwa 6% reflektiert und den Rest absorbiert. Wenn Energie absorbiert wird, wird sie häufig wieder emittiert, normalerweise bei längeren Wellenlängen. Beispielsweise wird die vom Ozean absorbierte Energie als Infrarotstrahlung wieder emittiert.
Alle Dinge auf der Erde reflektieren, absorbieren oder übertragen Energie, deren Menge je nach Wellenlänge variiert. Alles auf der Erde hat einen einzigartigen spektralen „Fingerabdruck“, genau wie Ihr Fingerabdruck für Sie einzigartig ist. Forscher können diese Informationen verwenden, um verschiedene Erdmerkmale sowie verschiedene Gesteins- und Mineralarten zu identifizieren. Die Anzahl der von einem bestimmten Instrument erfassten Spektralbänder Die spektrale Auflösung bestimmt, wie stark ein Forscher zwischen Materialien unterscheiden kann.
Weitere Informationen zum elektromagnetischen Spektrum mit Begleitvideos finden Sie in der NASA-Tour durch das elektromagnetische Spektrum.
Sensoren
Sensoren oder Instrumente, Bordsatelliten und Flugzeuge nutzen die Sonne als Beleuchtungsquelle oder stellen ihre eigene Beleuchtungsquelle zur Verfügung, um die zurückreflektierte Energie zu messen. Sensoren, die natürliche Sonnenenergie nutzen, werden als passive Sensoren bezeichnet. Diejenigen, die ihre eigene Energiequelle bereitstellen, werden als aktive Sensoren bezeichnet.
Passive Sensoren umfassen verschiedene Arten von Radiometern (Instrumente, die die Intensität elektromagnetischer Strahlung in ausgewählten Bändern quantitativ messen) und Spektrometer (Geräte zur Erfassung, Messung und Analyse des spektralen Gehalts reflektierter elektromagnetischer Strahlung). Die meisten passiven Systeme, die von Fernerkundungsanwendungen verwendet werden, arbeiten im sichtbaren, infraroten, thermischen Infrarot- und Mikrowellenbereich des elektromagnetischen Spektrums. Diese Sensoren messen die Land- und Meeresoberflächentemperatur, die Vegetationseigenschaften, die Wolken- und Aerosoleigenschaften und andere physikalische Eigenschaften.
Beachten Sie, dass die meisten passiven Sensoren die dichte Wolkendecke nicht durchdringen können und daher Einschränkungen bei der Beobachtung von Gebieten wie den Tropen aufweisen, in denen eine dichte Wolkendecke häufig ist.
Aktive Sensoren umfassen verschiedene Arten der Funkerkennung und -entfernung ( Radarsensoren, Höhenmesser und Scatterometer. Die meisten aktiven Sensoren arbeiten im Mikrowellenbereich des elektromagnetischen Spektrums, wodurch sie unter den meisten Bedingungen in die Atmosphäre eindringen können. Diese Arten von Sensoren eignen sich unter anderem zur Messung der vertikalen Profile von Aerosolen, Waldstruktur, Niederschlag und Wind, Meeresoberflächentopographie und Eis.
Auf der Erddatenseite Remote Sensors finden Sie eine Liste aller NASAs Geowissenschaftliche passive und aktive Sensoren. Was ist Radar mit synthetischer Apertur? bietet spezifische Informationen zu diesem Typ eines aktiven Radarsensors.
Auflösung
Die Auflösung spielt eine Rolle bei der Verwendung von Daten von einem Sensor. Je nach Umlaufbahn und Sensordesign des Satelliten kann die Auflösung variieren. Es gibt vier Arten von Auflösungen, die für jeden Datensatz berücksichtigt werden müssen: radiometrische, räumliche, spektrale und zeitliche.
Die radiometrische Auflösung ist die Informationsmenge in jedem Pixel, d. H. Die Anzahl der Bits, die die aufgezeichnete Energie darstellen. Jedes Bit zeichnet einen Exponenten der Leistung 2 auf. Beispielsweise beträgt eine 8-Bit-Auflösung 28, was anzeigt, dass der Sensor 256 potenzielle digitale Werte (0-255) zum Speichern von Informationen hat. Je höher die radiometrische Auflösung ist, desto mehr Werte stehen zum Speichern von Informationen zur Verfügung, wodurch selbst kleinste Energieunterschiede besser unterschieden werden können. Bei der Beurteilung der Wasserqualität ist beispielsweise eine radiometrische Auflösung erforderlich, um zwischen geringfügigen Unterschieden in der Ozeanfarbe zu unterscheiden.
Die räumliche Auflösung wird durch die Größe jedes Pixels in einem digitalen Bild und den durch dieses Pixel dargestellten Bereich auf der Erdoberfläche definiert. Beispielsweise hat die Mehrheit der vom MODIS (Moderate Resolution Imaging Spectroradiometer) beobachteten Banden eine räumliche Auflösung von 1 km; Jedes Pixel repräsentiert eine Fläche von 1 km x 1 km auf dem Boden. MODIS enthält auch Bänder mit einer räumlichen Auflösung von 250 m oder 500 m. Je feiner die Auflösung (je niedriger die Zahl), desto mehr Details können Sie sehen. Im Bild unten sehen Sie den Unterschied in der Pixelung zwischen einem 30 m / Pixel-Bild, einem 100 m / Pixel-Bild und einem 300 m / Pixel-Bild.
Die spektrale Auflösung ist die Fähigkeit eines Sensors, feinere Wellenlängen zu erkennen, dh mehr und engere Bänder zu haben. Viele Sensoren gelten als multispektral, dh sie haben zwischen 3 und 10 Bänder. Sensoren mit Hunderten bis Tausenden von Bändern gelten als hyperspektral. Je enger der Wellenlängenbereich für ein bestimmtes Band ist, desto feiner ist die spektrale Auflösung. Beispielsweise erfasst das Airborne Visible / Infrared Imaging Spectrometer (AVIRIS) Informationen in 224 Spektralkanälen. Der Würfel rechts repräsentiert das Detail innerhalb der Daten. Auf dieser Detailebene kann zwischen Gesteins- und Mineraltypen, Vegetationstypen und anderen Merkmalen unterschieden werden. Im Würfel befindet sich der kleine Bereich mit hoher Reaktion oben rechts im Bild im roten Bereich des sichtbaren Spektrums (etwa 700 Nanometer) und ist auf das Vorhandensein von 1 cm Länge (halber Zoll) zurückzuführen ) Garnelen aus roter Salzlösung im Verdunstungsteich.
Die zeitliche Auflösung ist die Zeit, die ein Satellit benötigt, um eine Umlaufbahn zu vervollständigen und denselben Beobachtungsbereich erneut zu besuchen. Diese Auflösung hängt von der Umlaufbahn, den Eigenschaften des Sensors und der Schwadbreite ab. Da geostationäre Satelliten mit der Geschwindigkeit übereinstimmen, mit der sich die Erde dreht, ist die zeitliche Auflösung mit etwa 30 Sekunden bis 1 Minute viel feiner. Polar umlaufende Satelliten haben eine zeitliche Auflösung, die zwischen 1 Tag und 16 Tagen variieren kann. Zum Beispiel hat MODIS eine zeitliche Auflösung von 1-2 Tagen, so dass wir die Erde visualisieren können, wie sie sich von Tag zu Tag ändert. Landsat hingegen hat eine engere Schwadbreite und eine zeitliche Auflösung von 16 Tagen; Es werden keine täglichen, sondern zweimonatliche Änderungen angezeigt.
Warum nicht einen Sensor mit hoher räumlicher, spektraler und zeitlicher Auflösung bauen? Es ist schwierig, alle gewünschten Funktionen in einem Fernbedienungssensor zu kombinieren. Um Beobachtungen mit hoher räumlicher Auflösung (wie Landsat) zu erfassen, ist ein schmalerer Schwad erforderlich, was wiederum mehr Zeit zwischen den Beobachtungen eines bestimmten Gebiets erfordert, was zu einer geringeren zeitlichen Auflösung führt. Forscher müssen Kompromisse eingehen. Aus diesem Grund ist es sehr wichtig zu verstehen, welche Art von Daten für einen bestimmten Studienbereich benötigt werden. Bei der Erforschung des Wetters, das im Laufe der Zeit sehr dynamisch ist, ist eine feine zeitliche Auflösung von entscheidender Bedeutung. Bei der Untersuchung saisonaler Vegetationsänderungen kann eine feine zeitliche Auflösung für eine höhere spektrale und / oder räumliche Auflösung geopfert werden.
Datenverarbeitung, Interpretation und Analyse
Fernerkundungsdaten, die von Instrumenten erfasst wurden An Bord von Satelliten muss eine Verarbeitung erfolgen, bevor die Daten von den meisten Forschern und Anwendern der angewandten Wissenschaft verwendet werden können. Die meisten rohen Erdbeobachtungssatellitendaten der NASA (Stufe 0, siehe Datenverarbeitungsebenen) werden in SIPS-Einrichtungen (Science Investigator-led Processing Systems) verarbeitet. Alle Daten werden auf mindestens Stufe 1 verarbeitet, den meisten sind jedoch Produkte der Stufen 2 (abgeleitete geophysikalische Variablen) und 3 (Variablen, die auf einheitlichen Raum-Zeit-Rasterskalen abgebildet sind) zugeordnet. Viele haben sogar Produkte der Stufe 4. Die geowissenschaftlichen Daten der NASA werden in einem der Distributed Active Archive Center (DAACs) archiviert.
Die meisten Daten werden im Format Hierarchical Data Format (HDF) oder Network Common Data Form (NetCDF) gespeichert.Zahlreiche Datentools stehen zum Unterteilen, Transformieren, Visualisieren und Exportieren in verschiedene andere Dateiformate zur Verfügung.
Sobald Daten verarbeitet sind, können sie in einer Vielzahl von Anwendungen verwendet werden, von der Landwirtschaft über Wasserressourcen bis hin zu Gesundheit und Gesundheit Luftqualität. Ein einzelner Sensor beantwortet nicht alle Forschungsfragen innerhalb einer bestimmten Anwendung. Benutzer müssen häufig mehrere Sensoren und Datenprodukte einsetzen, um ihre Frage zu beantworten. Dabei müssen die Einschränkungen der Daten berücksichtigt werden, die durch unterschiedliche spektrale, räumliche und zeitliche Auflösungen bereitgestellt werden.
Erstellen von Satellitenbildern
Viele Sensoren erfassen Daten mit unterschiedlichen spektralen Wellenlängen. Beispielsweise erfasst das Landsat 8-Band 1 Daten mit 0,433 bis 0,453 Mikrometern und das MODIS-Band 1 Daten mit 0,620 bis 0,670 Mikrometern. Landsat 8 hat insgesamt 11 Bänder, während MODIS 36 Bänder hat, die alle verschiedene Bereiche des elektromagnetischen Spektrums messen. Bänder können kombiniert werden, um Bilder der Daten zu erstellen, um verschiedene Merkmale in der Landschaft aufzudecken. Häufig werden Datenbilder verwendet, um Merkmale einer untersuchten Region zu unterscheiden oder einen Untersuchungsbereich zu bestimmen.
Für ein Echtfarbenbild (rot, blau, grün (RGB)) von Landsat, Band 4 , 3, 2 werden jeweils kombiniert; Mit der von der NASA und der NOAA gemeinsam genutzten Suomi National Polar-Orbiting Partnership (Suomi NPP) -Visible Infrared Imaging Radiometer Suite (VIIRS) ist ein Echtfarbenbild Rot = Band I1, Grün = Band M4, Blau = Band M3. Echtfarbige Bilder zeigen die Erde so, wie Sie sie von oben sehen würden. Andere Kombinationen können jedoch für bestimmte wissenschaftliche Anwendungen verwendet werden – von der Hochwasserüberwachung über die Abgrenzung der Urbanisierung bis hin zur Vegetationskartierung. Beispielsweise ist bei VIIRS-Daten die Erstellung eines Falschfarbenbildes (R = M11, G = I2, B = I1) nützlich, um Verbrennungsnarben von niedriger Vegetation oder kahlem Boden zu unterscheiden und überflutete Gebiete freizulegen. Weitere Bandkombinationen von Landsat finden Sie im Landsat Band Remix des NASA Scientific Visualization Studio oder im Earth Observatory Many Hues of London. Weitere gängige Bandkombinationen finden Sie in der Anleitung zum Interpretieren gängiger Falschfarbenbilder des Earth Observatory. Der Artikel enthält allgemeine Bandkombinationen, aber auch Einblicke in die Interpretation der Bilder.
Bildinterpretation
Sobald Daten zu Bildern mit unterschiedlichen Bandkombinationen verarbeitet wurden, können sie hilfreich sein bei Entscheidungen zum Ressourcenmanagement und zur Bewertung von Katastrophen; Die Bilder müssen nur interpretiert werden. Es gibt einige Strategien für den Einstieg (angepasst an die Interpretation eines Satellitenbilds durch das Erdbeobachtungszentrum).
- Kennen Sie die Skala – es gibt verschiedene Skalen, die auf der räumlichen Auflösung des Bildes und jeder basieren Die Waage bietet verschiedene wichtige Merkmale. Wenn Sie beispielsweise eine Flut verfolgen, zeigt eine detaillierte, hochauflösende Ansicht, welche Häuser und Unternehmen von Wasser umgeben sind. Die breitere Landschaftsansicht zeigt, welche Teile eines Landkreises oder einer Metropolregion überflutet sind und woher möglicherweise das Wasser kommt. Eine noch breitere Sicht würde die gesamte Region zeigen – das überflutete Flusssystem oder die Gebirgszüge und Täler, die den Fluss steuern. Eine halbkugelförmige Ansicht würde die Bewegung von Wettersystemen zeigen, die mit den Überschwemmungen verbunden sind.
- Suchen Sie nach Mustern, Formen und Texturen – viele Merkmale lassen sich anhand ihres Musters oder ihrer Form leicht identifizieren. Beispielsweise haben landwirtschaftliche Flächen eine sehr geometrische Form, normalerweise Kreise oder Rechtecke. Gerade Linien sind in der Regel künstliche Strukturen wie Straßen oder Kanäle.
- Farben definieren – Wenn Sie Farben zur Unterscheidung von Merkmalen verwenden, ist es wichtig, die bei der Erstellung des Bildes verwendete Bandkombination zu kennen. Bilder mit echten oder natürlichen Farben sind im Grunde das, was wir mit unseren eigenen Augen sehen würden, wenn wir vom Weltraum herabblicken. Wasser absorbiert Licht, so dass es normalerweise schwarz oder blau erscheint. Sonnenlicht, das von der Oberfläche reflektiert wird, kann jedoch grau oder silber erscheinen. Sedimente können die Wasserfarbe beeinflussen und sie brauner erscheinen lassen, ebenso wie Algen, wodurch sie grüner erscheinen. Die Farbe der Vegetation hängt von der Jahreszeit ab: Im Frühling und Sommer ist sie normalerweise lebhaft grün. Herbst kann orange, gelb und braun haben; und der Winter kann mehr Brauntöne haben. Nackter Boden ist normalerweise etwas braun; Dies hängt jedoch von der Mineralzusammensetzung des Sediments ab. Städtische Gebiete sind in der Regel grau vom ausgedehnten Beton. Eis und Schnee sind weiß, aber auch Wolken. Es ist wichtig, wenn Sie Farben verwenden, um Dinge zu identifizieren, um umgebende Merkmale zu verwenden, um Dinge in einen Kontext zu setzen.
- Überlegen Sie, was Sie wissen.Wenn Sie beispielsweise wissen, dass das Gebiet kürzlich von einem Lauffeuer verbrannt wurde, können Sie feststellen, warum die Vegetation möglicherweise etwas anders aussieht.
Quantitative Analyse
Es können verschiedene Landbedeckungstypen vorliegen leichter zu unterscheiden, indem Bildklassifizierungsalgorithmen verwendet werden. Die Bildklassifizierung verwendet die Spektralinformationen jedes einzelnen Pixels. Ein Programm, das Bildklassifizierungsalgorithmen verwendet, kann die Pixel automatisch in einer sogenannten unbeaufsichtigten Klassifizierung gruppieren. Der Benutzer kann auch Bereiche mit bekanntem Landbedeckungstyp angeben, um das Programm zu „trainieren“, um solche wie Pixel zu gruppieren. Dies wird als überwachte Klassifizierung bezeichnet. Karten oder Bilder können auch in ein geografisches Informationssystem (GIS) integriert werden, und dann kann jedes Pixel Weitere Informationen zum Integrieren von geowissenschaftlichen Daten der NASA in ein GIS finden Sie auf der GIS-Seite Earthdata.
Satelliten enthalten häufig auch eine Vielzahl von Sensoren, die biogeophysikalische Parameter messen B. Meeresoberflächentemperatur, Stickstoffdioxid oder andere Luftschadstoffe, Winde, Aerosole und Biomasse. Diese Parameter können durch statistische und spektrale Analysetechniken bewertet werden.
Datenpfadfinder
To Data Pathfinders bietet einen Leitfaden für die Auswahl von Datenprodukten, der sich auf bestimmte wissenschaftliche Disziplinen und Anwendungsbereiche wie die oben genannten konzentriert. Pathfinders pro Sie können direkte Links zu den am häufigsten verwendeten Datensätzen und Datenprodukten aus den geowissenschaftlichen Datensammlungen der NASA sowie Links zu Tools bereitstellen, mit denen die Daten auf unterschiedliche Weise visualisiert oder untergeordnet werden können. Außerdem können Sie die Daten in verschiedenen Dateiformaten speichern.