Comment pouvons-nous prévoir avec plus de précision l'évolution du trait de côte ? Quels modèles sont supérieurs ?

Avec le changement climatique entraînant une élévation du niveau de la mer et une intensification des tempêtes, les côtes mondiales sont confrontées à des risques d'érosion sans précédent. Cependant, il est difficile de prédire avec précision l'évolution du littoral, notamment les tendances à long terme. Récemment, l'étude collaborative internationale ShoreShop2.0 a évalué les performances de 34 modèles de prévision du littoral par des tests en aveugle, révélant ainsi l'état actuel de la modélisation du littoral.

Le littoral est la frontière dynamique où la terre rencontre la mer, changeant constamment en raison des vagues, des marées, des tempêtes et de l'élévation du niveau de la mer. Environ 24 % des côtes sablonneuses du monde reculent à un rythme supérieur à 0,5 mètre par an, et dans certaines zones, comme la côte du Golfe des États-Unis, le taux d'érosion annuel est même supérieur à 20 mètres.

Prévoir l'évolution du littoral est intrinsèquement difficile et complexe, car il nécessite de prendre en compte l'interaction de multiples facteurs, notamment l'énergie des vagues, le transport des sédiments et l'élévation du niveau de la mer. Réaliser des prévisions précises sur de longues périodes est encore plus difficile.

Les modèles modernes de prévision du littoral peuvent être divisés en trois catégories : l'un est basé sur la simulation physique, comme Delft3D et MIKE21 basé sur la mécanique des fluides et les équations de transport des sédiments ; l'un est un modèle hybride qui combine des principes physiques avec des méthodes basées sur les données, comme CoSMoS-COAST et LX-Shore ; et l'autre est un modèle basé sur les données qui s'appuie entièrement sur des techniques statistiques ou d'apprentissage automatique, comme les réseaux LSTM et les architectures Transformer.

640

Malgré la grande diversité des modèles, l'absence de critères d'évaluation unifiés complique les comparaisons de performances. Quel modèle offre les prédictions les plus précises ? Le concours de tests à l'aveugle ShoreShop2.0 offre une occasion idéale de comparaisons interdisciplinaires.

Le concours international de tests à l'aveugle ShoreShop2.0 est une forme de collaboration scientifique extrêmement rigoureuse. Les équipes participantes sont uniquement informées du site test, qui est un nom de code désignant une baie ou une plage. Les informations clés, telles que sa localisation et son nom, sont masquées afin d'éviter que des connaissances préalables n'influencent le calibrage du modèle. De plus, les données sont conservées confidentiellement par sections, les données de 2019-2023 (court terme) et de 1951-1998 (moyen terme) étant intentionnellement omises. Les modèles prédisent ensuite l'évolution du littoral à court et moyen terme, et leur exactitude est finalement vérifiée grâce à ces données confidentielles. Cette conception permet des comparaisons interdisciplinaires de modèles côtiers dans des conditions totalement inconnues.

Trente-quatre équipes de recherche de 15 pays ont soumis des modèles, dont 12 modèles basés sur les données et 22 modèles hybrides. Ces équipes provenaient d'institutions situées aux États-Unis, en Australie, au Japon, en France et ailleurs. Cependant, les modèles soumis ne comprenaient pas de modèles commerciaux tels que GENESIS et les modèles basés sur la physique Delft3D et MIKE21.

Une comparaison a révélé que les modèles les plus performants pour les prévisions à court terme (cinq ans) étaient CoSMoS-COAST-CONV_SV (modèle hybride), GAT-LSTM_YM (modèle piloté par les données) et iTransformer-KC (modèle piloté par les données). Ces modèles ont atteint des erreurs quadratiques moyennes d'environ 10 mètres, comparables à l'erreur inhérente de 8,9 mètres des données de télédétection côtière par satellite. Cela indique que pour certaines plages, les capacités prédictives des modèles approchent les limites des technologies d'observation. Bien entendu, d'autres modèles ont mieux saisi les changements du littoral.

Une découverte surprenante a été que le modèle hybride a obtenu des résultats comparables à ceux du modèle piloté par les données. CoSMoS-COAST-CONV_SV (modèle hybride) combine processus physiques et opérations convolutives, tandis que GAT-LSTM_YM (modèle piloté par les données) utilise un réseau d'attention graphique pour capturer les corrélations spatiales. Les deux modèles ont obtenu de bons résultats.

En termes de prévisions à moyen terme, la série LX-Shore (modèles hybrides) fournit les prévisions les plus proches des données mesurées. En couplant les processus de transport sédimentaire littoral et latéral, ces modèles maintiennent une stabilité à long terme tout en affichant les réponses les plus cohérentes aux tempêtes extrêmes avec les données mesurées. Les prévisions de ces modèles indiquent qu'une seule tempête violente peut provoquer un recul transitoire du trait de côte pouvant atteindre 15 à 20 mètres, avec un rétablissement complet pouvant prendre deux à trois ans. La série CoSMoS-COAST offre une excellente stabilité, tandis que d'autres modèles peuvent souffrir de dérives et de sur-réactions à long terme.

Les résultats du modèle indiquent quequalité des donnéesconstitue un facteur limitant majeur de la performance du modèle. Bien que les données de télédétection par satellite couvrent une vaste zone, leur résolution temporelle est faible, généralement hebdomadaire à mensuelle, ce qui complique la capture rapide d'une reprise après une tempête. De plus, la limite d'eau instantanée est affectée par le ressac des vagues et les marées, ce qui entraîne des erreurs transitoires susceptibles d'altérer les prévisions du modèle.

L'étude a révélé que le lissage des données spatiotemporelles, notamment l'utilisation de techniques de filtrage bidimensionnel robustes, peut améliorer considérablement les performances des modèles. Par la suite, les modèles de tests non aveugles ont présenté une erreur moyenne réduite de 15 % grâce à un prétraitement optimisé des données.

Le lissage 2D robuste est une méthode avancée de traitement du signal, spécialement conçue pour traiter le bruit des données satellitaires côtières. Il s'agit essentiellement d'un algorithme de filtrage itératif basé sur la méthode des moindres carrés pondérés, très résistant aux valeurs aberrantes telles que le bruit d'ondes transitoires dans les images satellite.

Un autre facteur crucial pour les prédictions des modèles est la précision des données de vagues côtières. Actuellement, ces données souffrent de diverses erreurs, notamment de conversion des données de réanalyse globale des vagues pour les données côtières, de biais liés à l'extraction des paramètres de vagues à l'isobathe de 10 mètres plutôt qu'à la zone de déferlement, et d'une sous-estimation de l'impact des événements extrêmes par l'utilisation des conditions de vagues moyennes quotidiennes. Ces erreurs peuvent toutes affecter les prédictions des modèles.

Pour les prévisions à long terme, la plupart des modèles s'appuient sur la loi brownienne classique pour estimer l'impact de l'élévation du niveau de la mer. Cependant, cette loi suppose un apport sédimentaire infini et équilibré et ignore les effets du transport sédimentaire offshore ou des activités humaines, comme le rechargement des plages. Cela peut entraîner des biais importants dans les modèles.

Fondée sur la théorie du profil d'équilibre, la loi de Brown établit une relation linéaire entre l'élévation du niveau de la mer et le recul du trait de côte. Cette théorie postule qu'un profil côtier conserve une forme d'équilibre. À mesure que le niveau de la mer s'élève, l'espace d'accommodation croissant force ce profil d'équilibre à se déplacer vers les terres pour maintenir sa forme par rapport au nouveau niveau de la mer. Par conséquent, la théorie postule qu'à mesure que le profil côtier se déplace vers les terres, la couche supérieure de la plage s'érode et les matériaux érodés se déposent au large, provoquant une élévation du fond marin proche du littoral, maintenant ainsi une profondeur d'eau constante. La loi de Brown prédit que le recul côtier peut être de 10 à 50 fois supérieur à l'élévation du niveau de la mer, selon la pente de la plage.

Cette étude fournit une base pour sélectionner les outils appropriés en fonction des besoins spécifiques. De plus, le prétraitement des données est crucial ; un traitement adéquat peut parfois avoir un impact plus important que le modèle lui-même. L'expérience acquise avec ShoreShop 2.0 permettra d'améliorer les données satellitaires et houlomotrices afin d'améliorer la précision des prévisions. Par ailleurs, les effets incontrôlables des plages artificiellement perturbées dans les prévisions à long terme peuvent également impacter significativement les résultats des prévisions. Enfin, le manque de participation de modèles commerciaux tels que GENESIS, Delft3D et MIKE21 constitue un problème majeur.

Gardiens de la frontière bleue : la mission de 11 ans de Frankstar pour protéger nos océans et notre climat

Depuis plus de dix ans, Frankstar est à l'avant-garde de la gestion environnementale marine, exploitant une technologie de pointe et une rigueur scientifique pour fournir des données océaniques et hydrologiques inégalées. Notre mission va au-delà de la simple collecte de données : nous sommes les architectes d'un avenir durable, permettant aux institutions, universités et gouvernements du monde entier de prendre des décisions éclairées pour la santé de notre planète.

 

640 (1)


Date de publication : 11 août 2025