La teledetección, es decir, la obtención de información a distancia, ha tenido un profundo impacto en la humanidad en la historia moderna. Esta imagen de la playa británica (nombre en código de uno de los puntos de desembarco de la invasión de Normandía de junio de 1944 en la Segunda Guerra Mundial) tomada desde un F5 especialmente equipado del ejército de Estados Unidos, muestra tropas de infantería que llegan a la playa en varias embarcaciones grandes y pequeñas. Siete décadas más tarde, a pesar de que su aplicación se ha ampliado hasta límites inimaginables, la teledetección sigue siendo la tecnología de reconocimiento y observación de la Tierra más importante.
Los humanos siempre han buscado puntos de observación altos situados sobre el terreno. A lo largo de la historia, ya fuese desde la copa de un árbol, desde la cima de una montaña o desde un acantilado rocoso, las vistas desde arriba han permitido a nuestros ancestros responder a preguntas importantes: ¿Dónde hay agua? ¿Dónde está el mejor terreno de caza? ¿Dónde están mis enemigos? El pionero de la aerostática Gaspard-Félix Tournachon fue el primero en practicar la fotografía aérea sobre París en 1858. Con la llegada de la fotografía y de los vuelos a principios del siglo XX, las ventajas de contar con un punto de observación alto produjeron un gigantesco salto adelante y nació el campo de la teledetección.
La tecnología maduró rápidamente en la Primera Guerra Mundial como una nueva capacidad militar superior. Entre 1914 y 1918, el reconocimiento aéreo evolucionó desde prácticamente cero hasta convertirse en una ciencia compleja y rigurosa. Muchos de los procedimientos, métodos y términos de la teledetección siguen en uso hoy en día y se originaron en este periodo. A lo largo de la Segunda Guerra Mundial, la ciencia y la exactitud de la teledetección aumentaron.
El siguiente gran paso evolutivo llegó de la mano de los vuelos espaciales y la fotografía digital. La tecnología de satélite permitió captar imágenes de todo el planeta repetidamente, y la administración y la transmisión de las imágenes digitales hicieron que estos volúmenes crecientes de imágenes fuesen más útiles y directamente aplicables. Las distintas empresas humanas actuales requieren un flujo continuo de imágenes, muchas de las cuales llegan a la Web momentos después de su captura.
La primera fotografía aérea se tomó en 1858, un siglo antes de que se acuñara el término “teledetección”. Mucho antes de que los satélites y la captura de imágenes digitales estuvieran disponibles, la gente tomaba fotos de la superficie de la Tierra desde lejos, con el fin de documentar muchos momentos cruciales de la historia para la posteridad.
Las imágenes modernas se capturan desde una amplia gama de altitudes que van desde el nivel del suelo a más de 22.000 millas sobre la Tierra. Las imágenes que proceden de cada altitud ofrecen distintas ventajas para cada aplicación. Aunque no pretende ser un inventario exhaustivo, este diagrama desglosa algunas de las altitudes de sensor más utilizadas:
Los satélites que siguen la rotación de la Tierra parecen estacionarios en el cielo para los observadores situados en el suelo. Aunque son los más utilizados para las comunicaciones, los satélites con órbitas geosíncronas como el GIFTS hiperespectral también resultan útiles para monitorizar fenómenos cambiantes como las condiciones meteorológicas. El Syncom de la NASA, lanzado a principios de la década de 1960, fue el primer satélite de “vuelo a gran altitud” lanzado con éxito.
Los satélites de esta órbita mantienen el ángulo de la luz solar en la superficie de la Tierra del modo más coherente posible, lo que significa que los científicos pueden comparar imágenes de la misma estación a lo largo de varios años, como sucede con las imágenes de Landsat. Esta es la zona primordial para los sensores que observan la Tierra.
También conocidos como pseudosatélites, estos vehículos no tripulados rozan los límites más altos de la atmósfera detectable. La nave experimental Helios de la NASA medía las llamaradas solares antes de precipitarse sobre el océano Pacífico cerca de Kauai.
Los reactores que vuelan a 30.000 pies y alturas superiores pueden recorrer las áreas afectadas por alguna catástrofe en un tiempo muy corto, lo que los convierte en una buena plataforma para ciertos tipos de aplicaciones ópticas y de imágenes multiespectrales.
Las aeronaves pequeñas que pueden volar a baja velocidad y baja altitud son desde hace tiempo los vehículos idóneos para la fotografía aérea y la ortofotografía de alta calidad. Estas aeronaves, que van desde las avionetas Cessnas a los ultraligeros y los helicópteros, son las que se encargan de la obtención de la mayor parte de las imágenes ópticas urbanas.
Los drones son la incorporación más reciente a esta flota. Su capacidad para volar a baja altitud y con control remoto ofrece atractivas ventajas para la fotografía aérea, con resoluciones que llegan a menos de 1 pulgada. Los vehículos aéreos no tripulados militares pueden ser drones más pequeños o aviones.
Cada vez más, las imágenes captadas en el nivel del suelo se abren camino hasta los flujos de trabajo de los SIG. Cosas como Google Street View, las imágenes a nivel de calle de HERE y Mapillary; los dispositivos de mano para la obtención de imágenes multiespectrales y otros sensores terrestres están encontrando aplicaciones en áreas como los conductos, la seguridad, el turismo, la propiedad inmobiliaria, los recursos naturales y el ocio.
Como registros acreditados de las condiciones cambiantes en el suelo, las imágenes de teledetección tienen una amplia gama de aplicaciones en actividades humanas terrestres tradicionales que conllevan la administración del suelo. Por ello, sectores como la silvicultura, la agricultura, la minería y las exploraciones fueron algunos de los primeros en adoptar la teledetección y financiaron su crecimiento.
Un sensor de imágenes pasivo captura la energía reflejada o emitida desde la escena que visualiza. La luz solar reflejada es la fuente más común de energía electromagnética medida por los sensores pasivos. Estos sensores permiten obtener observaciones globales de la Tierra y de la atmósfera.
Un sensor activo es un instrumento que emite energía y detecta la radiación reflejada desde la superficie de la Tierra o desde otro objetivo. Se usa en diversas aplicaciones relacionadas con la meteorología y la atmósfera, como el radar para medir los ecos de ciertos objetos (por ejemplo, las nubes de lluvia), el LIDAR para capturar valores de elevación detallados de la superficie y el sonar para medir la profundidad del fondo marino.
Hay más de 3300 satélites de observación terrestre orbitando el globo, y su número crece continuamente. Esta miriada de "ojos en los cielos" pone una cantidad de datos de imagen sin precedentes en manos de los analistas espaciales para su uso en aplicaciones que cubren prácticamente todos los aspectos de la actividad humana. Cubren órbitas terrestres bajas, medias y altas (geosíncronos). Están controlados por agencias gubernamentales (como la NASA y la Agencia Espacial Europea) y por compañías privadas (como Digital Globe y Airbus). Cubren todos los segmentos del espectro electromagnético, desde el ultravioleta y el color natural al infrarrojo cercano, medio y térmico, así como sensores de microondas activos como el radar.
Pero el espacio está empezando a saturarse. Junto con las más de 3000 naves espaciales activas, las agencias espaciales del mundo controlan colectivamente más de 10.000 trozos de “basura espacial”: cohetes agotados, satélites sin batería, herramientas perdidas por los astronautas y otros desechos de diversos sucesos y contratiempos.
A medida que ganan fuerza los lanzamientos privados y los microsatélites, podemos esperar que el número de sensores siga creciendo. Esta red de sensores cada vez más densa abre la puerta a una amplia gama de aplicaciones, pero planteará importantes desafíos en lo referente a la utilización y la propagación eficaces de este flujo sin precedentes de información no procesada.
No toda la geografía implica una mirada de arriba abajo. Las vistas con ángulos oblicuos proporcionan una perspectiva única que tiene aplicaciones en el reconocimiento y el sector inmobiliario, por mencionar tan solo dos áreas de uso. Las imágenes a nivel de calle, popularizadas por Google Street View, son otra interesante forma de datos espaciales que crean una experiencia de navegación inmersiva e integrada.
Un concepto importante para las imágenes es la resolución del suelo. Cada imagen tiene una resolución de suelo, expresada normalmente como la distancia en el suelo. La comunidad de las imágenes la denomina distancia de muestra del suelo (GSD, Ground Sample Distance). Esta resolución de celda es una medida de la altura y la anchura de una celda cuadrada en unidades de suelo, como los pies o los metros.
Como las grandes obras de arte, las imágenes revelan su carácter y su estructura de formas complejas: siempre sorprendentes, a veces sutiles, en ocasiones desconcertantes. Primero llega el asombro por su belleza: los gélidos glaciares de Groenlandia, las delicadas ramificaciones de perfil LIDAR de una secuoya, el borde dentado de una falla en el radar, los verdes intensos de los trópicos, las líneas marcadas del impacto humano, la resurrección de los bosques San del monte Santa Helena, las ondulaciones de las tierras de cultivo de Asia y África, las nieves perdidas del Kilimanjaro. Cada imagen nos anima a descubrir más, a mirar una y otra vez.
Tras la primera mirada, empezamos a explorar. ¿Qué es lo que crea esa respuesta espectral única? ¿Por qué están los árboles en las pendientes orientadas al norte y los arbustos en las pendientes orientadas al sur en esta área? ¿Tienen las ubicaciones de diferentes especies de árboles relación con la pendiente y la elevación? ¿Por qué ha ardido esta casa mientras que las llamas ni siquiera han tocado la de al lado? ¿Cuántas personas viven en este pueblo? ¿Qué cosechas se cultivan aquí? ¿Habrá suficiente comida para alimentar a esta gente? ¿Cómo ha cambiado el paisaje de una forma tan radical? ¿Quién lo ha cambiado?
A continuación, gracias al SIG, descubrimos las conexiones. Si tenemos suerte, viajamos al campo con nuestras aplicaciones Collector para ver por nosotros mismos cómo varía el paisaje en relación con las imágenes y con otras capas SIG. Usamos ArcGIS para organizar y corregistrar las capas de información y extraemos de ellas las variables que son más predictivas. Aprendemos a obtener de las imágenes y los datos SIG información sobre la ubicación, la altura, la forma, la textura, el contexto, la sombra, el tono y el color de cada objeto. Y a continuación creamos mapas: inventariamos los recursos y monitorizamos sus cambios a lo largo del tiempo.
Las imágenes han sido mi billete de entrada al mundo. Gracias a ellas, he viajado por todo el planeta, he oído historias asombrosas y he conocido a personas fascinantes y llenas de pasión por sus proyectos y sus comunidades. Soy muy afortunada por haber descubierto la belleza de las imágenes y, a través de ella, haber encontrado el trabajo que sin duda estaba destinada a hacer.
La mejor forma de empezar a trabajar es tener una idea de cómo se pueden usar las imágenes en la plataforma de ArcGIS viendo cómo resuelve los problemas reales (o al menos explica esos problemas). Los siguientes story maps proporcionan vistas guiadas y seleccionadas del mundo de las imágenes y de sus importantes aplicaciones para resolver algunos de los problemas más urgentes del planeta.
Al final de cada story map, encontrará vínculos a los datos de origen que se han utilizado y algunas prácticas recomendadas para hacer que los datos funcionen correctamente en ArcGIS.
El mapa global de unidades de suelo ecológicas (ELU, Ecological Land Units) muestra una división y una clasificación sistemáticas de la biosfera usando entidades de superficie del suelo ecológicas y fisiográficas. Como es un dataset global, es una fuente de datos perfecta para analizarla con ArcGIS Earth.
En esta lección, abrirá ArcGIS Earth, una aplicación ligera para acceder a los datos de ELU y visualizarlos que permitirá ver los patrones de cambio en la superficie de la Tierra. Analizará diferentes áreas del planeta y podrá comparar sus nociones sobre esas áreas con los datos empíricos reales.
A geographic Rosetta stone
GIS and imagery are synergistic