¿Qué es la teledetección?
La teledetección es la adquisición de información a distancia. La NASA observa la Tierra y otros cuerpos planetarios a través de sensores remotos en satélites y aviones que detectan y registran la energía reflejada o emitida. Los sensores remotos, que brindan una perspectiva global y una gran cantidad de datos sobre los sistemas terrestres, permiten la toma de decisiones basada en datos basados en el estado actual y futuro de nuestro planeta.
- Órbitas
- Observación con el espectro electromagnético
- Sensores
- Resolución
- Procesamiento, interpretación y análisis de datos
- Buscadores de datos
Órbitas
Hay tres tipos principales de órbitas en las que residen los satélites: polar; no polar, órbita terrestre baja y geoestacionaria.
Los satélites en órbita polar están en un plano orbital que está inclinado casi 90 grados con respecto al plano ecuatorial. Esta inclinación permite que el satélite detecte todo el mundo, incluidas las regiones polares, proporcionando observaciones de ubicaciones que son difíciles de alcanzar a través del suelo. Muchos satélites en órbita polar se consideran sincrónicos con el sol, lo que significa que el satélite pasa sobre la misma ubicación a la misma hora solar en cada ciclo.
Las órbitas polares pueden ser ascendentes o descendentes. En órbitas ascendentes, los satélites se mueven de sur a norte cuando su trayectoria cruza el ecuador. En órbitas descendentes, los satélites se mueven de norte a sur. La Asociación Nacional de Orbitación Polar Suomi (Suomi NPP) conjunta NASA / NOAA es un ejemplo de un satélite en órbita polar que proporciona cobertura diaria del mundo.
Las órbitas terrestres bajas no polares se encuentran a una altitud de menos de 2000 km sobre la superficie de la Tierra. (Como referencia, la Estación Espacial Internacional orbita a una altitud de ~ 400 km.) Estas órbitas no brindan cobertura global, sino que cubren solo un rango parcial de latitudes. La Misión de Precipitación Global (GPM) es un ejemplo de un satélite no polar en órbita terrestre baja que cubre desde 65 grados norte hasta 65 grados sur.
Los satélites geoestacionarios siguen la rotación de la Tierra y viajan a la misma velocidad de la rotación; debido a esto, los satélites parecen estar fijos en un solo lugar para un observador en la Tierra. Estos satélites capturan la misma vista de la Tierra con cada observación y, por lo tanto, brindan una cobertura casi continua de un área. Los satélites meteorológicos como la serie de satélites geoestacionarios operacionales ambientales (GOES) son ejemplos de satélites geoestacionarios.
Observación con el espectro electromagnético
La energía electromagnética, producida por la vibración de partículas cargadas, en forma de ondas a través de la atmósfera y el vacío del espacio. Estas ondas tienen diferentes longitudes de onda (la distancia desde la cresta de la ola a la cresta de la ola) y frecuencias; una longitud de onda más corta significa una frecuencia más alta. Algunas, como las ondas de radio, microondas e infrarrojas, tienen una longitud de onda más larga, mientras que otras, como las ultravioleta, los rayos X y los rayos gamma, tienen una longitud de onda mucho más corta. La luz visible se encuentra en el medio de ese rango de radiación de onda larga a corta. Esta pequeña porción de energía es todo lo que el ojo humano puede detectar. Se necesita instrumentación para detectar todas las demás formas de energía electromagnética. La instrumentación de la NASA utiliza la gama completa del espectro para explorar y comprender los procesos que ocurren aquí en la Tierra y en otros cuerpos planetarios.
Algunas ondas son absorbidas o reflejadas por elementos de la atmósfera, como el agua. vapor y dióxido de carbono, mientras que algunas longitudes de onda permiten un movimiento sin obstáculos a través de la atmósfera; la luz visible tiene longitudes de onda que se pueden transmitir a través de la atmósfera. La energía de microondas tiene longitudes de onda que pueden atravesar las nubes; muchos de nuestros satélites meteorológicos y de comunicaciones aprovechan esto.
La fuente principal de energía observada por los satélites es el sol. La cantidad de energía del sol reflejada depende de la rugosidad de la superficie y su albedo, que es qué tan bien una superficie refleja la luz en lugar de absorberla.La nieve, por ejemplo, tiene un albedo muy alto, reflejando hasta el 90% de la energía que recibe del sol, mientras que el océano refleja solo alrededor del 6%, absorbiendo el resto. A menudo, cuando se absorbe energía, se vuelve a emitir, generalmente en longitudes de onda más largas. Por ejemplo, la energía absorbida por el océano se vuelve a emitir como radiación infrarroja.
Todas las cosas en la Tierra reflejan, absorben o transmiten energía, cuya cantidad varía según la longitud de onda. Todo en la Tierra tiene una «huella digital» espectral única, al igual que su huella digital es única para usted. Los investigadores pueden usar esta información para identificar diferentes características de la Tierra, así como diferentes tipos de rocas y minerales. La cantidad de bandas espectrales detectadas por un instrumento determinado , su resolución espectral, determina cuánta diferenciación puede identificar un investigador entre los materiales.
Para obtener más información sobre el espectro electromagnético, con videos complementarios, vea el Tour del espectro electromagnético de la NASA.
Sensores
Sensores, o Los instrumentos, los satélites a bordo y las aeronaves utilizan el sol como fuente de iluminación o proporcionan su propia fuente de iluminación, midiendo la energía que se refleja. Los sensores que utilizan energía natural del sol se denominan sensores pasivos; los que proporcionan su propia fuente de energía se denominan sensores activos.
Los sensores pasivos incluyen diferentes tipos de radiómetros (instrumentos que miden cuantitativamente la intensidad de la radiación electromagnética en determinadas bandas) y espectrómetros (dispositivos diseñados para detectar, medir y analizar el contenido espectral de la radiación electromagnética reflejada). La mayoría de los sistemas pasivos utilizados por las aplicaciones de teledetección operan en las porciones visible, infrarroja, infrarroja térmica y de microondas del espectro electromagnético. Estos sensores miden la temperatura de la superficie de la tierra y el mar, las propiedades de la vegetación, las propiedades de las nubes y los aerosoles, y otras propiedades físicas.
Tenga en cuenta que la mayoría de los sensores pasivos no pueden penetrar una densa capa de nubes y, por lo tanto, tienen limitaciones para observar áreas como los trópicos, donde es frecuente la densa capa de nubes.
Los sensores activos incluyen diferentes tipos de detección de radio y rango ( radar) sensores, altímetros y dispersómetros. La mayoría de los sensores activos operan en la banda de microondas del espectro electromagnético, lo que les da la capacidad de penetrar en la atmósfera en la mayoría de las condiciones. Estos tipos de sensores son útiles para medir los perfiles verticales de aerosoles, la estructura del bosque, la precipitación y los vientos, la topografía de la superficie del mar y el hielo, entre otros.
La página de datos de la Tierra Remote Sensors proporciona una lista de todos los sensores de la NASA. Sensores pasivos y activos de ciencias de la tierra. ¿Qué es el radar de apertura sintética? proporciona información específica sobre este tipo de sensor de radar activo.
Resolución
La resolución influye en cómo se pueden utilizar los datos de un sensor. Según la órbita del satélite y el diseño del sensor, la resolución puede variar. Hay cuatro tipos de resolución a considerar para cualquier conjunto de datos: radiométrica, espacial, espectral y temporal.
La resolución radiométrica es la cantidad de información en cada píxel, es decir, la cantidad de bits que representan la energía registrada. Cada bit registra un exponente de potencia 2. Por ejemplo, una resolución de 8 bits es 28, lo que indica que el sensor tiene 256 valores digitales potenciales (0-255) para almacenar información. Así, cuanto mayor sea la resolución radiométrica, más valores estarán disponibles para almacenar información, proporcionando una mejor discriminación incluso entre las más mínimas diferencias de energía. Por ejemplo, al evaluar la calidad del agua, la resolución radiométrica es necesaria para distinguir entre diferencias sutiles en el color del océano.
La resolución espacial se define por el tamaño de cada píxel dentro de una imagen digital y el área de la superficie de la Tierra representada por ese píxel. Por ejemplo, la mayoría de las bandas observadas por el espectrorradiómetro de imágenes de resolución moderada (MODIS), tienen una resolución espacial de 1 km; cada píxel representa un área de 1 km x 1 km en el suelo. MODIS también incluye bandas con una resolución espacial de 250 mo 500 m. Cuanto más fina sea la resolución (menor el número), más detalles podrá ver. En la siguiente imagen, puede ver la diferencia de pixelación entre una imagen de 30 m / píxel, una imagen de 100 m / píxel y una imagen de 300 m / píxel.
La resolución espectral es la capacidad de un sensor para discernir longitudes de onda más finas, es decir, tener bandas más y más estrechas. Muchos sensores se consideran multiespectrales, lo que significa que tienen entre 3 y 10 bandas. Los sensores que tienen cientos o incluso miles de bandas se consideran hiperespectrales. Cuanto más estrecha sea la gama de longitudes de onda para una banda determinada, más fina será la resolución espectral. Por ejemplo, el espectrómetro de imágenes infrarrojas / visibles en el aire (AVIRIS) captura información en 224 canales espectrales. El cubo de la derecha representa el detalle dentro de los datos. En este nivel de detalle, se pueden hacer distinciones entre tipos de rocas y minerales, tipos de vegetación y otras características. En el cubo, la pequeña región de alta respuesta, en la parte superior derecha de la imagen, está en la parte roja del espectro visible (alrededor de 700 nanómetros), y se debe a la presencia de 1 centímetro de largo (media pulgada ) camarones de salmuera roja en el estanque de evaporación.
La resolución temporal es el tiempo que tarda un satélite en completar una órbita y volver a visitar la misma área de observación. Esta resolución depende de la órbita, las características del sensor y el ancho de la franja. Debido a que los satélites geoestacionarios coinciden con la velocidad a la que gira la Tierra, la resolución temporal es mucho más fina, de aproximadamente 30 segundos a 1 minuto. Los satélites en órbita polar tienen una resolución temporal que puede variar de 1 día a 16 días. Por ejemplo, MODIS tiene una resolución temporal de 1-2 días, lo que nos permite visualizar la Tierra a medida que cambia día a día. Landsat, por otro lado, tiene un ancho de franja más estrecho y una resolución temporal de 16 días; mostrando no cambios diarios sino cambios bimensuales.
¿Por qué no construir un sensor de alta resolución espacial, espectral y temporal? Es difícil combinar todas las características deseables en un sensor remoto; para adquirir observaciones con alta resolución espacial (como Landsat) se requiere una franja más estrecha, que a su vez requiere más tiempo entre las observaciones de un área determinada, lo que resulta en una resolución temporal más baja. Los investigadores tienen que hacer concesiones. Por eso es muy importante comprender qué tipo de datos se necesitan para cualquier área de estudio determinada. Cuando se investiga el clima, que es muy dinámico a lo largo del tiempo, es fundamental tener una buena resolución temporal. Al investigar los cambios estacionales de la vegetación, se puede sacrificar una resolución temporal fina por una resolución espacial y / o espectral más alta.
Procesamiento, interpretación y análisis de datos
Datos de teledetección adquiridos de instrumentos los satélites a bordo requieren procesamiento antes de que la mayoría de los investigadores y usuarios de ciencias aplicadas puedan utilizar los datos. La mayoría de los datos sin procesar de los satélites de observación de la Tierra de la NASA (nivel 0, consulte los niveles de procesamiento de datos) se procesan en las instalaciones de los sistemas de procesamiento dirigidos por investigadores científicos (SIPS). Todos los datos se procesan al menos hasta un Nivel 1, pero la mayoría tiene productos asociados de Nivel 2 (variables geofísicas derivadas) y Nivel 3 (variables mapeadas en escalas uniformes de cuadrícula de espacio-tiempo). Muchos incluso tienen productos de nivel 4. Los datos de ciencias de la Tierra de la NASA se archivan en uno de los centros de archivos activos distribuidos (DAAC)
La mayoría de los datos se almacenan en el formato de datos jerárquico (HDF) o el formato de formulario de datos comunes de red (NetCDF).Hay numerosas herramientas de datos disponibles para crear subconjuntos, transformar, visualizar y exportar a varios otros formatos de archivo.
Una vez que se procesan los datos, se pueden utilizar en una variedad de aplicaciones, desde agricultura hasta recursos hídricos, salud y calidad del aire. Un solo sensor no abordará todas las preguntas de investigación dentro de una aplicación determinada. Los usuarios a menudo necesitan aprovechar múltiples sensores y productos de datos para abordar su pregunta, teniendo en cuenta las limitaciones de los datos proporcionados por diferentes resoluciones espectrales, espaciales y temporales.
Creación de imágenes de satélite
Muchos sensores adquieren datos en diferentes longitudes de onda espectrales. Por ejemplo, la banda uno de Landsat 8 adquiere datos a 0.433-0.453 micrómetros y la banda uno de MODIS adquiere datos a 0.620-0.670 micrómetros. Landsat 8 tiene un total de 11 bandas, mientras que MODIS tiene 36 bandas, todas midiendo diferentes regiones del espectro electromagnético. Las bandas se pueden combinar para producir imágenes de los datos para revelar diferentes características del paisaje. A menudo, las imágenes de datos se utilizan para distinguir las características de una región que se está estudiando o para determinar un área de estudio.
Para una imagen de color verdadero (rojo, azul, verde (RGB)) de Landsat, bandas 4 , 3, 2 se combinan respectivamente; con la NASA / NOAA conjunta Suomi National Polar-orbiting Partnership (Suomi NPP) Visible Infrared Imaging Radiometer Suite (VIIRS), una imagen de color verdadero es Rojo = Banda I1, Verde = Banda M4, Azul = Banda M3. Las imágenes en color verdadero muestran la Tierra como la verías desde arriba. Sin embargo, se pueden usar otras combinaciones para aplicaciones científicas específicas, desde el monitoreo de inundaciones hasta la delimitación de la urbanización y el mapeo de la vegetación. Por ejemplo, con los datos de VIIRS, la creación de una imagen de color falso (R = M11, G = I2, B = I1) es útil para distinguir las cicatrices de quemaduras de la vegetación baja o el suelo desnudo, así como para exponer áreas inundadas. Para ver más combinaciones de bandas de Landsat, consulte el artículo Landsat Band Remix de NASA Scientific Visualization Studio o el Earth Observatory Many Hues of London. Para conocer otras combinaciones de bandas comunes, consulte Cómo interpretar imágenes comunes en falso color del Observatorio de la Tierra; el artículo proporciona combinaciones de bandas comunes, pero también proporciona información sobre la interpretación de las imágenes.
Interpretación de imágenes
Una vez que los datos se procesan en imágenes con diferentes combinaciones de bandas, pueden ayudar en decisiones de gestión de recursos y evaluación de desastres; las imágenes solo necesitan ser interpretadas. Hay algunas estrategias para comenzar (adaptadas de Cómo interpretar una imagen de satélite del Observatorio de la Tierra).
- Conozca la escala: hay diferentes escalas basadas en la resolución espacial de la imagen y cada escala proporciona diferentes características de importancia. Por ejemplo, al rastrear una inundación, una vista detallada de alta resolución mostrará qué hogares y negocios están rodeados de agua. La vista del paisaje más amplia muestra qué partes de un condado o área metropolitana están inundadas y quizás de dónde proviene el agua. Una vista aún más amplia mostraría toda la región: el sistema fluvial inundado o las cadenas montañosas y valles que controlan el flujo. Una vista hemisférica mostraría el movimiento de los sistemas meteorológicos conectados a las inundaciones.
- Busque patrones, formas y texturas; muchas características son fáciles de identificar en función de su patrón o forma. Por ejemplo, las áreas agrícolas tienen una forma muy geométrica, generalmente círculos o rectángulos. Las líneas rectas suelen ser estructuras creadas por el hombre, como carreteras o canales.
- Defina los colores: cuando utilice el color para distinguir características, es importante conocer la combinación de bandas utilizada para crear la imagen. Las imágenes en color natural o verdadero son básicamente lo que veríamos con nuestros propios ojos si miramos hacia abajo desde el espacio. El agua absorbe la luz por lo que normalmente parece negra o azul; sin embargo, la luz solar que se refleja en la superficie puede hacer que parezca gris o plateada. El sedimento puede afectar el color del agua, haciéndola parecer más marrón, al igual que las algas, haciéndola parecer más verde. La vegetación varía en color según la temporada: en primavera y verano, es típicamente de un verde intenso; el otoño puede tener naranja, amarillo y bronceado; y el invierno puede tener más marrones. El suelo desnudo suele tener un tono marrón; sin embargo, depende de la composición mineral del sedimento. Las áreas urbanas son típicamente grises por el extenso hormigón. El hielo y la nieve son blancos, pero también las nubes. Cuando se usa el color para identificar cosas, es importante usar las características circundantes para poner las cosas en contexto.
- Considere lo que sabe: tener conocimiento del área que está observando ayuda a identificar estas características.Por ejemplo, saber que el área fue recientemente quemada por un incendio forestal puede ayudar a determinar por qué la vegetación puede verse un poco diferente.
Análisis cuantitativo
Se pueden establecer diferentes tipos de cobertura terrestre discriminaron más fácilmente, utilizando algoritmos de clasificación de imágenes. La clasificación de imágenes utiliza la información espectral de cada píxel individual. Un programa que utiliza algoritmos de clasificación de imágenes puede agrupar automáticamente los píxeles en lo que se denomina clasificación no supervisada. El usuario también puede indicar áreas de tipo conocido de cobertura terrestre para «entrenar» al programa para agruparlos como píxeles; esto se llama clasificación supervisada. Los mapas o imágenes también se pueden integrar en un sistema de información geográfica (GIS) y luego cada píxel puede compararse con otros datos GIS, como los datos del censo. Para obtener más información sobre la integración de datos de ciencias de la Tierra de la NASA en un GIS, consulte la página Earthdata GIS.
Los satélites también suelen llevar una variedad de sensores que miden parámetros biogeofísicos , como la temperatura de la superficie del mar, dióxido de nitrógeno u otros contaminantes atmosféricos, vientos, aerosoles y biomasa. Estos parámetros se pueden evaluar mediante técnicas de análisis estadístico y espectral.
Data Pathfinders
Para Para ayudar a comenzar con la investigación basada en aplicaciones utilizando datos de detección remota, Data Pathfinders proporciona una guía de selección de productos de datos centrada en disciplinas científicas específicas y áreas de aplicación, como las mencionadas anteriormente. Pathfinders pro Vide vínculos directos a los conjuntos de datos y productos de datos más utilizados de las colecciones de datos de ciencias de la Tierra de la NASA y vínculos a herramientas que brindan diversas formas de visualizar o subconjuntos de datos, con la opción de guardar los datos en diferentes formatos de archivo.