Cos’è il telerilevamento?
Il telerilevamento è l’acquisizione di informazioni a distanza. La NASA osserva la Terra e altri corpi planetari tramite sensori remoti su satelliti e aerei che rilevano e registrano l’energia riflessa o emessa. I sensori remoti, che forniscono una prospettiva globale e una grande quantità di dati sui sistemi terrestri, consentono un processo decisionale basato sui dati basato sullo stato attuale e futuro del nostro pianeta.
- Orbite
- Osservazione con lo spettro elettromagnetico
- Sensori
- Risoluzione
- Elaborazione, interpretazione e analisi dei dati
- Cercatori di dati
Orbite
Ci sono tre tipi principali di orbite in cui risiedono i satelliti: polare; non polare, orbita terrestre bassa e geostazionaria.
I satelliti in orbita polare si trovano su un piano orbitale inclinato di quasi 90 gradi rispetto al piano equatoriale. Questa inclinazione consente al satellite di percepire l’intero globo, comprese le regioni polari, fornendo osservazioni di luoghi difficili da raggiungere attraverso il suolo. Molti satelliti in orbita polare sono considerati sincroni al sole, il che significa che il satellite passa sopra la stessa posizione alla stessa ora solare ogni ciclo.
Le orbite polari possono essere ascendenti o discendenti. Nelle orbite ascendenti, i satelliti si muovono da sud a nord quando il loro percorso attraversa l’equatore. Nelle orbite discendenti, i satelliti si muovono da nord a sud. Il partenariato congiunto NASA / NOAA Suomi National Polar-orbiting Partnership (Suomi NPP) è un esempio di satellite in orbita polare che fornisce una copertura giornaliera del globo.
Le orbite terrestri basse non polari si trovano a un’altitudine generalmente inferiore a 2.000 km sopra la superficie terrestre. (Per riferimento, la Stazione Spaziale Internazionale orbita a un’altitudine di ~ 400 km.) Queste orbite non forniscono una copertura globale ma coprono invece solo una gamma parziale di latitudini. La Global Precipitation Mission (GPM) è un esempio di satellite non polare in orbita terrestre bassa che copre da 65 gradi nord a 65 gradi sud.
I satelliti geostazionari seguono la rotazione terrestre e viaggiano alla stessa velocità della rotazione; per questo motivo, a un osservatore sulla Terra i satelliti sembrano fissati in una posizione. Questi satelliti catturano la stessa vista della Terra ad ogni osservazione e quindi forniscono una copertura quasi continua di un’area. I satelliti meteorologici come la serie GOES (Geostationary Operational Environmental Satellite) sono esempi di satelliti geostazionari.
Osservazione con lo spettro elettromagnetico
L’energia elettromagnetica, prodotta dalla vibrazione di particelle cariche, viaggia sotto forma di onde nell’atmosfera e nel vuoto dello spazio. Queste onde hanno lunghezze d’onda diverse (la distanza dalla cresta dell’onda alla cresta dell’onda) e frequenze; una lunghezza d’onda più corta significa una frequenza più alta. Alcuni, come le onde radio, microonde e infrarossi, hanno una lunghezza d’onda maggiore, mentre altri, come ultravioletti, raggi X e raggi gamma, hanno una lunghezza d’onda molto più breve. La luce visibile si trova nel mezzo di quella gamma di radiazioni da onde lunghe a corte. Questa piccola porzione di energia è tutto ciò che l’occhio umano è in grado di rilevare. La strumentazione è necessaria per rilevare tutte le altre forme di energia elettromagnetica. La strumentazione della NASA utilizza l’intera gamma dello spettro per esplorare e comprendere i processi che si verificano qui sulla Terra e su altri corpi planetari.
Alcune onde vengono assorbite o riflesse da elementi nell’atmosfera, come l’acqua vapore e anidride carbonica, mentre alcune lunghezze d’onda consentono il movimento senza impedimenti attraverso l’atmosfera; la luce visibile ha lunghezze d’onda che possono essere trasmesse attraverso l’atmosfera. L’energia a microonde ha lunghezze d’onda che possono passare attraverso le nuvole; molti dei nostri satelliti meteorologici e di comunicazione ne approfittano.
La fonte primaria di energia osservata dai satelliti è il sole. La quantità di energia del sole riflessa dipende dalla rugosità della superficie e dalla sua albedo, ovvero quanto bene una superficie riflette la luce invece di assorbirla.La neve, ad esempio, ha un albedo molto alto, che riflette fino al 90% dell’energia che riceve dal sole, mentre l’oceano ne riflette solo il 6% circa, assorbendo il resto. Spesso, quando l’energia viene assorbita, viene riemessa, solitamente a lunghezze d’onda maggiori. Ad esempio, l’energia assorbita dall’oceano viene riemessa come radiazione infrarossa.
Tutte le cose sulla Terra riflettono, assorbono o trasmettono energia, la cui quantità varia in base alla lunghezza d’onda. Ogni cosa sulla Terra ha una “impronta digitale” spettrale unica, proprio come la tua impronta digitale è unica per te. I ricercatori possono utilizzare queste informazioni per identificare le diverse caratteristiche della Terra, nonché diversi tipi di rocce e minerali. Il numero di bande spettrali rilevate da un determinato strumento , la sua risoluzione spettrale, determina la quantità di differenziazione che un ricercatore può identificare tra i materiali.
Per ulteriori informazioni sullo spettro elettromagnetico, con i video di accompagnamento, guarda il Tour dello spettro elettromagnetico della NASA.
Sensori
Sensori o strumenti, satelliti di bordo e aerei utilizzano il sole come fonte di illuminazione o forniscono la propria fonte di illuminazione, misurando l’energia che viene riflessa. I sensori che utilizzano l’energia naturale del sole sono chiamati sensori passivi; quelli che forniscono la propria fonte di energia sono chiamati sensori attivi.
I sensori passivi includono diversi tipi di radiometri (strumenti che misurano quantitativamente l’intensità della radiazione elettromagnetica in bande selezionate) e spettrometri (dispositivi progettati per rilevare, misurare e analizzare il contenuto spettrale della radiazione elettromagnetica riflessa). La maggior parte dei sistemi passivi utilizzati dalle applicazioni di telerilevamento operano nelle porzioni visibile, infrarosso, infrarosso termico e microonde dello spettro elettromagnetico. Questi sensori misurano la temperatura della superficie terrestre e marina, le proprietà della vegetazione, le proprietà di nubi e aerosol e altre proprietà fisiche.
Tieni presente che la maggior parte dei sensori passivi non possono penetrare una fitta nuvolosità e quindi hanno limitazioni nell’osservare aree come i tropici dove la densa nuvolosità è frequente.
I sensori attivi includono diversi tipi di rilevamento radio e di raggio ( radar), altimetri e scatterometri. La maggior parte dei sensori attivi opera nella banda delle microonde dello spettro elettromagnetico, che dà loro la capacità di penetrare nell’atmosfera nella maggior parte delle condizioni. Questi tipi di sensori sono utili per misurare i profili verticali di aerosol, struttura forestale, precipitazioni e venti, topografia della superficie del mare e ghiaccio, tra gli altri.
La pagina Earthdata Remote Sensors fornisce un elenco di tutte le NASA Sensori passivi e attivi per le scienze della terra. Cos’è il radar ad apertura sintetica? fornisce informazioni specifiche su questo tipo di sensore radar attivo.
Risoluzione
La risoluzione gioca un ruolo nel modo in cui i dati di un sensore possono essere utilizzati. A seconda dell’orbita del satellite e del design del sensore, la risoluzione può variare. Esistono quattro tipi di risoluzione da considerare per qualsiasi set di dati: radiometrica, spaziale, spettrale e temporale.
La risoluzione radiometrica è la quantità di informazioni in ciascun pixel, ovvero il numero di bit che rappresentano l’energia registrata. Ogni bit registra un esponente di potenza 2. Ad esempio, una risoluzione di 8 bit è 28, il che indica che il sensore ha 256 potenziali valori digitali (0-255) per memorizzare le informazioni. Pertanto, maggiore è la risoluzione radiometrica, più valori sono disponibili per memorizzare le informazioni, fornendo una migliore discriminazione anche tra le più piccole differenze di energia. Ad esempio, quando si valuta la qualità dell’acqua, la risoluzione radiometrica è necessaria per distinguere tra sottili differenze nel colore dell’oceano.
La risoluzione spaziale è definita dalla dimensione di ogni pixel all’interno di un’immagine digitale e dall’area della superficie terrestre rappresentata da quel pixel. Ad esempio, la maggior parte delle bande osservate dallo spettroradiometro per immagini a risoluzione moderata (MODIS), hanno una risoluzione spaziale di 1 km; ogni pixel rappresenta un’area di 1 km x 1 km sul terreno. MODIS include anche bande con una risoluzione spaziale di 250 mo 500 m. Maggiore è la risoluzione (minore è il numero), maggiori sono i dettagli che puoi vedere. Nell’immagine sottostante, puoi vedere la differenza di pixel tra un’immagine da 30 m / pixel, un’immagine da 100 m / pixel e un’immagine da 300 m / pixel.
La risoluzione spettrale è la capacità di un sensore di distinguere lunghezze d’onda più fini, cioè avere bande più strette. Molti sensori sono considerati multispettrali, nel senso che hanno tra 3-10 bande. I sensori che hanno da centinaia a persino migliaia di bande sono considerati iperspettrali. Più stretta è la gamma di lunghezze d’onda per una data banda, più fine è la risoluzione spettrale. Ad esempio, l’Airborne Visible / Infrared Imaging Spectrometer (AVIRIS) cattura le informazioni in 224 canali spettrali. Il cubo a destra rappresenta il dettaglio all’interno dei dati. A questo livello di dettaglio, è possibile fare distinzioni tra tipi di roccia e minerali, tipi di vegetazione e altre caratteristiche. Nel cubo, la piccola regione di alta risposta, in alto a destra dell’immagine, si trova nella porzione rossa dello spettro visibile (circa 700 nanometri), ed è dovuta alla presenza di 1 centimetro di lunghezza (mezzo pollice ) artemia rossa nello stagno di evaporazione.
La risoluzione temporale è il tempo impiegato da un satellite per completare un’orbita e rivisitare la stessa area di osservazione. Questa risoluzione dipende dall’orbita, dalle caratteristiche del sensore e dalla larghezza dell’andana. Poiché i satelliti geostazionari corrispondono alla velocità di rotazione della Terra, la risoluzione temporale è molto più fine, a circa 30 secondi – 1 minuto. I satelliti in orbita polare hanno una risoluzione temporale che può variare da 1 giorno a 16 giorni. Ad esempio, MODIS ha una risoluzione temporale di 1-2 giorni, permettendoci di visualizzare la Terra mentre cambia giorno dopo giorno. Il Landsat, d’altro canto, ha una larghezza dell’andana più stretta e una risoluzione temporale di 16 giorni; mostra non modifiche giornaliere ma modifiche bimestrali.
Perché non costruire un sensore ad alta risoluzione spaziale, spettrale e temporale? È difficile combinare tutte le caratteristiche desiderabili in un unico sensore remoto; per acquisire osservazioni con un’elevata risoluzione spaziale (come il Landsat) è necessaria un’andana più stretta, che a sua volta richiede più tempo tra le osservazioni di una data area con conseguente minore risoluzione temporale. I ricercatori devono fare dei compromessi. Questo è il motivo per cui è molto importante capire quale tipo di dati è necessario per una determinata area di studio. Durante la ricerca del tempo, che è molto dinamico nel tempo, è fondamentale avere una risoluzione temporale fine. Quando si effettuano ricerche sui cambiamenti stagionali della vegetazione, una risoluzione temporale fine può essere sacrificata per una risoluzione spettrale e / o spaziale più elevata.
Elaborazione, interpretazione e analisi dei dati
Dati di telerilevamento acquisiti dagli strumenti a bordo dei satelliti devono essere elaborati prima che i dati siano utilizzabili dalla maggior parte dei ricercatori e degli utenti di scienze applicate. La maggior parte dei dati grezzi dei satelliti di osservazione della Terra della NASA (Livello 0, vedere i livelli di elaborazione dei dati) vengono elaborati presso le strutture SIPS (Science Investigator-led Processing Systems). Tutti i dati vengono elaborati almeno fino a un Livello 1, ma la maggior parte ha associati prodotti di Livello 2 (variabili geofisiche derivate) e Livello 3 (variabili mappate su scale di griglia spazio-temporali uniformi). Molti hanno persino prodotti di livello 4. I dati delle scienze della Terra della NASA sono archiviati presso uno dei centri DAAC (Distributed Active Archive Centers)
La maggior parte dei dati viene archiviata nel formato Hierarchical Data Format (HDF) o Network Common Data Form (NetCDF).Sono disponibili numerosi strumenti di dati per suddividere, trasformare, visualizzare ed esportare in vari altri formati di file.
Una volta elaborati i dati, possono essere utilizzati in una varietà di applicazioni, dall’agricoltura alle risorse idriche alla salute e qualità dell’aria. Ogni singolo sensore non risolverà tutte le domande di ricerca all’interno di una data applicazione. Gli utenti spesso hanno bisogno di sfruttare più sensori e prodotti di dati per rispondere alla loro domanda, tenendo presente i limiti dei dati forniti da diverse risoluzioni spettrali, spaziali e temporali.
Creazione di immagini satellitari
Molti sensori acquisiscono dati a diverse lunghezze d’onda spettrali. Ad esempio, la banda uno del Landsat 8 acquisisce i dati a 0,433-0,453 micrometri e la banda uno di MODIS acquisisce i dati a 0,620-0,670 micrometri. Landsat 8 ha un totale di 11 bande mentre MODIS ha 36 bande, che misurano tutte diverse regioni dello spettro elettromagnetico. Le bande possono essere combinate per produrre immagini dei dati per rivelare diverse caratteristiche nel paesaggio. Spesso le immagini dei dati vengono utilizzate per distinguere le caratteristiche di una regione studiata o per determinare un’area di studio.
Per un’immagine a colori reali (rosso, blu, verde (RGB)) da Landsat, bande 4 , 3, 2 sono combinati rispettivamente; con la NASA / NOAA joint Suomi National Polar-orbiting Partnership (Suomi NPP) Visible Infrared Imaging Radiometer Suite (VIIRS), un’immagine a colori reali è rossa = banda I1, verde = banda M4, blu = banda M3. Le immagini a colori reali mostrano la Terra come la vedresti dall’alto. Altre combinazioni, tuttavia, possono essere utilizzate per specifiche applicazioni scientifiche, dal monitoraggio delle inondazioni alla delineazione dell’urbanizzazione alla mappatura della vegetazione. Ad esempio, con i dati VIIRS, la creazione di un’immagine in falsi colori (R = M11, G = I2, B = I1) è utile per distinguere le cicatrici da ustione dalla vegetazione bassa o dal suolo nudo, nonché per esporre le aree allagate. Per vedere più combinazioni di bande da Landsat, controlla il Remix della banda Landsat di NASA Scientific Visualization Studio o l’articolo Many Hues of London dell’Osservatorio terrestre. Per altre combinazioni di bande comuni, visualizza How to Interpret Common False-Color Images dell’Osservatorio della Terra; l’articolo fornisce combinazioni di bande comuni, ma fornisce anche informazioni sull’interpretazione delle immagini.
Interpretazione di immagini
Una volta che i dati sono stati elaborati in immagini con diverse combinazioni di bande, possono essere d’aiuto nelle decisioni di gestione delle risorse e nella valutazione dei disastri; le immagini devono solo essere interpretate. Esistono alcune strategie per iniziare (adattate da How to Interpret a Satellite Image dell’Osservatorio della Terra).
- Conoscere la scala: ci sono diverse scale basate sulla risoluzione spaziale dell’immagine e ciascuna scale fornisce diverse caratteristiche di importanza. Ad esempio, durante il monitoraggio di un’alluvione, una visualizzazione dettagliata ad alta risoluzione mostrerà quali case e attività commerciali sono circondate dall’acqua. La vista panoramica più ampia mostra quali parti di una contea o di un’area metropolitana sono allagate e forse da dove proviene l’acqua. Una vista ancora più ampia mostrerebbe l’intera regione: il sistema fluviale allagato o le catene montuose e le valli che controllano il flusso. Una vista emisferica mostrerebbe il movimento dei sistemi meteorologici collegati alle inondazioni.
- Cerca motivi, forme e trame: molte caratteristiche sono facili da identificare in base al loro schema o forma. Ad esempio, le aree agricole hanno una forma molto geometrica, solitamente cerchi o rettangoli. Le linee rette sono in genere strutture create dall’uomo, come strade o canali.
- Definisci i colori: quando usi il colore per distinguere le caratteristiche, è importante conoscere la combinazione di bande utilizzata nella creazione dell’immagine. Le immagini a colori veri o naturali sono fondamentalmente ciò che vedremmo con i nostri occhi se guardassimo dallo spazio. L’acqua assorbe la luce così tipicamente appare nera o blu; tuttavia, la luce solare che si riflette sulla superficie potrebbe farla apparire grigia o argentata. I sedimenti possono influenzare il colore dell’acqua, facendolo apparire più marrone, così come le alghe, facendolo apparire più verde. Il colore della vegetazione varia a seconda della stagione: in primavera e in estate è tipicamente verde intenso; l’autunno può avere arancio, giallo e marrone chiaro; e l’inverno può avere più marroni. Il terreno nudo è di solito una tonalità di marrone; tuttavia, dipende dalla composizione minerale del sedimento. Le aree urbane sono tipicamente grigie a causa dell’esteso cemento. Il ghiaccio e la neve sono bianchi, ma lo sono anche le nuvole. È importante quando si utilizza il colore per identificare le cose per utilizzare le caratteristiche circostanti per contestualizzare le cose.
- Considera ciò che sai: avere la conoscenza dell’area che stai osservando aiuta nell’identificazione di queste caratteristiche.Ad esempio, sapere che l’area è stata recentemente bruciata da un incendio può aiutare a determinare il motivo per cui la vegetazione può apparire un po ‘diversa.
Analisi quantitativa
Possono essere diversi tipi di copertura del suolo discriminato più facilmente, utilizzando algoritmi di classificazione delle immagini. La classificazione delle immagini utilizza le informazioni spettrali di ogni singolo pixel. Un programma che utilizza algoritmi di classificazione delle immagini può raggruppare automaticamente i pixel in quella che viene chiamata una classificazione senza supervisione. L’utente può anche indicare aree di tipo noto di copertura del suolo per “addestrare” il programma a raggruppare quelli come i pixel; questa è chiamata classificazione supervisionata. Mappe o immagini possono anche essere integrate in un sistema di informazione geografica (GIS) e quindi ogni pixel può essere confrontati con altri dati GIS, come i dati del censimento. Per ulteriori informazioni sull’integrazione dei dati di scienza della Terra della NASA in un GIS, controlla la pagina Earthdata GIS.
I satelliti spesso trasportano anche una varietà di sensori che misurano i parametri biogeofisici , come la temperatura della superficie del mare, il biossido di azoto o altri inquinanti atmosferici, i venti, gli aerosol e la biomassa. Questi parametri possono essere valutati mediante tecniche di analisi statistica e spettrale.
Rilevatori di dati
Per aiuto nell’iniziare con la ricerca basata sulle applicazioni utilizzando dati telerilevati, i Data Pathfinder forniscono una guida alla selezione dei prodotti dati incentrata su specifiche discipline scientifiche e aree di applicazione, come quelle menzionate sopra. vide collegamenti diretti ai set di dati e ai prodotti di dati più comunemente utilizzati dalle raccolte di dati di scienze della Terra della NASA e collegamenti a strumenti che forniscono diversi modi di visualizzare o sottoinserimento dei dati, con la possibilità di salvare i dati in diversi formati di file.