El algoritmo, desarrollado por el ICMAN-CSIC en colaboración con la NASA, permitirá avanzar en el conocimiento del impacto del cambio climático y la vida humana en las zonas costeras.
El Instituto de Ciencias Marinas de Andalucía (ICMAN), centro de investigación del Consejo Superior de Investigaciones Científicas (CSIC) lidera el desarrollo de un algoritmo de código abierto con capacidad para solucionar la limitación que existe al trabajar con sensores equipados en drones en los sistemas acuáticos. Diseñado en lenguaje de programación de Python, este software permite ir más allá de errores comunes en la tecnología con drones, como es la inexactitud en georreferenciación de las capturas y la posterior generación de ortomosaicos (imagen compuesta a partir de distintas capturas aéreas de una zona), debido a la ausencia de elementos comunes entre las imágenes. Este nuevo sistema permite a los científicos estudiar sistemas acuáticos, superando limitaciones enfrentadas por la fotogrametría y ofrece una alternativa viable a técnicas de monitoreo tradicionales que implican restricciones logísticas y de tiempo.
Los ecosistemas acuáticos son fundamentales para mantener la biodiversidad, regular los ciclos biogeoquímicos y sostener la vida humana; sin embargo, aún no se sabe el impacto acumulado frente al cambio climático y las presiones humanas. Desde 1978 la teledetección por satélite se ha empleado para la observación integrada de los sistemas acuáticos a grandes escalas, proporcionando información muy valiosa sobre el conocimiento de las dinámicas oceánicas a diferentes resoluciones espaciales, espectrales y temporales. En los últimos años, los drones se han convertido en una herramienta esencial para monitorear, llenando el hueco entre las imágenes satelitales y las observaciones desde tierra en costas y mares, y lo hacen con una resolución espacial bien detallada. Además, son más flexibles, eficientes, proporcionan una mayor resolución temporal que los satélites y no se encuentran influenciados por la cubierta nubosa.
Las consecutivas capturas tomadas por los diferentes sensores equipados en drones han sido procesadas con softwares fotogramétricos que encuentran puntos comunes entre las capturas a partir de un proceso de triangulación, y las combina en un ortomosaico final de áreas más extensas que las que proporciona una captura individual. Aunque los resultados son muy prometedores sobre superficies terrestres, estos softwares fotogramétricos no son capaces de reconstruir el ortomosaico sobre las dinámicas superficies cubiertas por agua, debido principalmente a la ausencia de elementos comunes entre las capturas. Por este motivo, la gran mayoría de estudios marinos con drones se limitan a la línea de costa o a pequeños cuerpos de agua interiores.
Este estudio, que fue llevado a cabo entre los años 2022 y 2023 entre la Antártida, Estados Unidos y el sur de España, proporciona un algoritmo que, a partir de la información proporcionada por el posicionamiento del dron durante cada captura (latitud, longitud, altitud y orientación del vuelo), permite georreferenciar con precisión cada captura para la posterior generación de un ortomosaico que muestre áreas completamente cubiertas por agua manteniendo una resolución espacial centimétrica. “Este algoritmo ha sido testeado en múltiples localizaciones de estudio distribuidas por todo el mundo (en España, Estados Unidos, o la Antártida), y utilizando sensores ópticos en visible, térmico y multiespectral, proporcionando errores no superiores a 4.5 metros en la calidad de la georreferencia y preservando la resolución espacial centimétrica de la tecnología con drones. La comunidad científica necesita aproximaciones robustas para entender ciertos procesos marinos y costeros, y este método representa un avance significativo en el uso de drones para entender los ecosistemas marinos a la escala más fina”, indica su investigador principal, Alejandro Román, del ICMAN.
Se ha creado un código de GitHub accesible y abierto al público. Este código extrae de los metadatos de cada captura tomada por el sensor correspondiente la geometría de cada captura (latitud, longitud, altitud, y orientación del vuelo) y las características del sensor (longitud focal, tamaño de la captura, tamaño del sensor y las dimensiones del plano focal). A partir de esta información, primero se lleva a cabo la correcta georreferencia de cada captura, proporcionando coordenadas exactas a cada una de las esquinas de la matriz basadas en proyecciones geométricas desde su punto central (coordenadas conocidas en los metadatos). Una vez cada captura está correctamente georreferenciada, se procede a combinarlas para generar el ortomosaico final. Para ello se utiliza un método que calcula el valor medio entre los píxeles que se encuentran exactamente en la misma posición en base a la georreferencia anterior. Por último, se lleva a cabo un proceso de filtrado y de degradado espacial para eliminar el bandeado correspondiente a cada línea de vuelo y para eliminar algunos artefactos en el producto final que pudieran resultar de unas malas condiciones de vuelo o de la precisión del posicionamiento de cada sensor.
“Esta innovación abre un abanico infinito de posibilidad de utilizar los sensores embarcados en drones en zonas costeras y marinas donde, en la actualidad, ningún software comercial permite crear un mosaico y, por lo tanto, poder utilizar los drones en este tipo de estudios”. concluye Román.
Fuente: CSIC
Deja tu comentario