¿Cómo podemos predecir con mayor precisión los cambios en la línea costera? ¿Qué modelos son superiores?

Con el cambio climático provocando el aumento del nivel del mar y la intensificación de las tormentas, las costas globales se enfrentan a riesgos de erosión sin precedentes. Sin embargo, predecir con precisión los cambios en las costas es un desafío, especialmente las tendencias a largo plazo. Recientemente, el estudio colaborativo internacional ShoreShop2.0 evaluó el rendimiento de 34 modelos de predicción costera mediante pruebas a ciegas, revelando el estado actual del modelado costero.

La línea costera es el límite dinámico donde la tierra se encuentra con el mar, en constante cambio debido a las olas, las mareas, las tormentas y el aumento del nivel del mar. Aproximadamente el 24 % de las costas arenosas del mundo retroceden a un ritmo superior a los 0,5 metros al año, y en algunas zonas, como la costa del Golfo de Estados Unidos, la tasa de erosión anual supera incluso los 20 metros.

Predecir los cambios en la línea costera es inherentemente difícil y complejo, ya que requiere considerar la interacción de múltiples factores, como la energía de las olas, el transporte de sedimentos y el aumento del nivel del mar. Realizar predicciones precisas a largo plazo es aún más difícil.

Los modelos modernos de predicción de costas se pueden dividir en tres categorías: uno se basa en simulación física, como Delft3D y MIKE21 basados ​​en mecánica de fluidos y ecuaciones de transporte de sedimentos; uno es un modelo híbrido que combina principios físicos con métodos basados ​​en datos, como CoSMoS-COAST y LX-Shore; y el otro es un modelo basado en datos que se basa completamente en técnicas estadísticas o de aprendizaje automático, como redes LSTM y arquitecturas Transformer.

640

A pesar de la amplia variedad de modelos, la falta de criterios de evaluación unificados ha dificultado las comparaciones de rendimiento. ¿Qué modelo ofrece las predicciones más precisas? La competición de pruebas a ciegas de ShoreShop2.0 ofrece una oportunidad perfecta para realizar comparaciones interdisciplinarias.

El concurso internacional de pruebas a ciegas ShoreShop2.0 es una forma rigurosa de colaboración científica. Los equipos participantes solo conocen el sitio de prueba, que es el nombre en clave de una bahía o playa. Información clave como su ubicación y nombre real se oculta para evitar que el conocimiento previo influya en la calibración del modelo. Además, los datos se mantienen confidenciales por secciones, con datos de 2019-2023 (corto plazo) y 1951-1998 (medio plazo) ocultados intencionalmente. Los modelos predicen cambios en la línea de costa a corto y medio plazo, verificando su precisión con los datos confidenciales. Este diseño permite comparaciones interdisciplinarias de modelos costeros en condiciones completamente desconocidas.

Treinta y cuatro equipos de investigación de 15 países presentaron modelos, que abarcaban 12 modelos basados ​​en datos y 22 modelos híbridos. Estos equipos provenían de instituciones de Estados Unidos, Australia, Japón, Francia y otros países. Sin embargo, los modelos presentados carecían de modelos comerciales como GENESIS y los modelos basados ​​en física Delft3D y MIKE21.

Una comparación reveló que los modelos con mejor rendimiento para pronósticos a corto plazo (quinquenales) fueron CoSMoS-COAST-CONV_SV (modelo híbrido), GAT-LSTM_YM (modelo basado en datos) e iTransformer-KC (modelo basado en datos). Estos modelos alcanzaron errores cuadráticos medios de aproximadamente 10 metros, comparables al error inherente de 8,9 metros en los datos costeros obtenidos por teledetección satelital. Esto indica que, en algunas playas, la capacidad predictiva de los modelos está alcanzando los límites de la tecnología observacional. Sin embargo, otros modelos lograron captar mejor los cambios en la línea costera.

Un hallazgo sorprendente fue que el modelo híbrido tuvo un rendimiento comparable al del modelo basado en datos. CoSMoS-COAST-CONV_SV (modelo híbrido) combina procesos físicos y operaciones convolucionales, mientras que GAT-LSTM_YM (modelo basado en datos) utiliza una red de atención de grafos para capturar correlaciones espaciales. Ambos modelos obtuvieron un buen rendimiento.

En cuanto a los pronósticos a medio plazo, la serie LX-Shore (modelos híbridos) ofrece las predicciones más cercanas a los datos medidos. Al combinar los procesos de transporte de sedimentos a lo largo de la costa y lateralmente, estos modelos mantienen la estabilidad a largo plazo, a la vez que muestran las respuestas más consistentes ante tormentas extremas con datos medidos. Las predicciones de estos modelos indican que una sola tormenta severa puede causar un retroceso transitorio de la línea de costa de hasta 15-20 metros, con una recuperación completa que podría tardar de dos a tres años. La serie CoSMoS-COAST ofrece una excelente estabilidad, mientras que otros modelos pueden sufrir derivas a largo plazo y sobrerrespuesta.

Los resultados del modelo indican quecalidad de los datosEs un factor limitante clave en el rendimiento del modelo. Si bien los datos de teledetección satelital cubren un área extensa, su resolución temporal es baja, típicamente semanal o mensual, lo que dificulta la captura de una recuperación rápida tras una tormenta. Además, el borde instantáneo del agua se ve afectado por la subida de las olas y las mareas, lo que genera errores transitorios que pueden afectar las predicciones del modelo.

El estudio reveló que el suavizado de datos espaciotemporales, como el uso de técnicas robustas de filtrado bidimensional, puede mejorar significativamente el rendimiento del modelo. Posteriormente, los modelos de prueba no ciegos presentados redujeron el error promedio en un 15 % mediante un preprocesamiento optimizado de datos.

El Suavizado Robusto 2D es un método avanzado de procesamiento de señales, diseñado específicamente para procesar el ruido en datos satelitales costeros. Se trata, en esencia, de un algoritmo de filtrado iterativo basado en mínimos cuadrados ponderados, altamente robusto ante valores atípicos, como el ruido transitorio de las olas en imágenes satelitales.

Otro factor crucial para las predicciones de los modelos es la precisión de los datos de olas costeras. Actualmente, estos datos presentan diversos errores, como errores en la conversión de datos de reanálisis de olas globales a zonas costeras, sesgos causados ​​por la extracción de parámetros de olas en la isobata de 10 metros en lugar de la zona de rompiente, y la subestimación del impacto de eventos extremos al utilizar las condiciones promedio diarias de las olas. Todos estos errores pueden afectar las predicciones de los modelos.

Para las predicciones a largo plazo, la mayoría de los modelos se basan en la ley browniana clásica para estimar el impacto del aumento del nivel del mar. Sin embargo, esta ley asume un suministro infinito y equilibrado de sedimentos e ignora los efectos del transporte de sedimentos en alta mar o las actividades humanas, como la regeneración de playas. Esto puede generar sesgos significativos en el modelo.

Basada en la teoría del perfil de equilibrio, la ley de Brown establece una relación lineal entre el aumento del nivel del mar y el retroceso de la línea costera. Esta teoría postula que un perfil costero mantiene una forma de equilibrio. A medida que sube el nivel del mar, el aumento del espacio de acomodación obliga a este perfil de equilibrio a desplazarse hacia tierra firme para mantener su forma con respecto al nuevo nivel del mar. En consecuencia, la teoría postula que, a medida que el perfil costero se desplaza hacia tierra firme, la capa superior de la playa se erosiona y el material erosionado se deposita en alta mar, provocando el ascenso del fondo marino cercano a la costa, manteniendo así una profundidad de agua constante. La ley de Brown predice que el retroceso costero puede ser de 10 a 50 veces mayor que el aumento del nivel del mar, dependiendo de la pendiente de la playa.

Este estudio proporciona una base para seleccionar las herramientas adecuadas según las necesidades específicas. Además, el preprocesamiento de datos es crucial; un procesamiento adecuado de datos, en ocasiones, puede tener un impacto mayor que el propio modelo. Basándose en la experiencia adquirida con ShoreShop 2.0, se pueden mejorar los datos satelitales y de oleaje para aumentar la precisión de las predicciones. Asimismo, los efectos incontrolables de las playas perturbadas artificialmente en los pronósticos a largo plazo también pueden afectar significativamente los resultados de las predicciones. Asimismo, la falta de participación de modelos comerciales como GENESIS, Delft3D y MIKE21 es un problema importante.

Guardianes de la Frontera Azul: La misión de 11 años de Frankstar para proteger nuestros océanos y el clima

Durante más de una década, Frankstar ha estado a la vanguardia de la gestión ambiental marina, aprovechando tecnología de vanguardia y rigor científico para proporcionar datos oceánicos e hidrológicos inigualables. Nuestra misión trasciende la simple recopilación de datos: somos artífices de un futuro sostenible, empoderando a instituciones, universidades y gobiernos de todo el mundo para que tomen decisiones informadas que beneficien la salud de nuestro planeta.

 

640 (1)


Hora de publicación: 11 de agosto de 2025