¿Predecir las crecidas del Ebro?

casco
photo_camera casco

Tiene una densidad de casi 1.000 kilogramos por metro cúbico y una masa molar de 18,01528 gramos por mol. Está constituida por dos átomos de hidrógeno y uno de oxígeno, y en su estado líquido representa más del 70% del planeta. Sí, es el agua. H2O en su nomenclatura química. Uno de los compuestos más esenciales hasta hoy conocidos, y no solo porque sus elementos ostenten posiciones prioritarias en la tabla de Mendeléyev, sino porque, sin ella -simplemente- no hay vida. Tampoco en Zaragoza.

Bañada por el cauce del río más caudaloso del país, el Ebro, la capital aragonesa -que fue incluso un día capital del agua- le profesa a esta un sentimiento a la par de amor y respeto. Respeto por los perjuicios que su propia naturaleza origina. El pasado año 2018, la crecida extraordinaria del Ebro dejó a su paso por tierras aragonesas unas 15.000 hectáreas de cultivo y granjas anegadas. Daños por los que el Ministerio de Medio Ambiente autorizó una inversión de casi 25 millones de euros para su reparación.

Hoy, todo ello puede estar a punto de cambiar, gracias a una metodología predictiva que surgió en el seno del Aguathón que este año convocó el Instituto Tecnológico de Aragón (Itainnova) con el objetivo de promocionar la mejora de los procesos de monitorización -en este caso- del sector fluvial. Una iniciativa que, además, ha sido impulsada por la colaboración del Instituto Aragonés del Agua, la Confederación Hidrográfica del Ebro (CHE),  el clúster del Agua Zinnae y el trabajo del Grupo de Ciencias de la Computación para el Modelado de Sistemas -reconocido por el propio Gobierno de Aragón-, y que se encuentra adscrito a la División de Tecnologías de la Información y la Comunicación del Instituto de Investigación en Ingeniería de Aragón (I3A). Entidades, todas ellas, que han unido fuerzas para convalidar la apuesta de Aragón por el progreso y el futuro.

El Instituto Tecnológico de Aragón organizó el Aguathón

El método que anticipa el caos

Tras una selección de entre casi 90 grupos y más de 160 participantes, ha sido el modelo del ingeniero informático e investigador de la Universidad del País Vasco César Montenegro el que se ha hecho con el primer puesto del Aguathón. Su programa es capaz de predecir los niveles del río a su paso por Zaragoza dentro de un espectro de 24, 48 y hasta 72 horas. Según explica el propio Montenegro, el programa, que todavía no está bautizado, “determina esos valores a partir de datos históricos de los niveles de sus afluentes en un momento dado”. Y todo ello es posible gracias a las técnicas empleadas “de inteligencia artificial y machine learning”, apunta.

La metodología del programa, analiza Montenegro, basa su determinación en el aprendizaje de esos históricos de los últimos diez años, pues reflejan “cómo ha funcionado el río en ese tiempo”. Entonces, manejando esos parámetros que hacen referencia al dinamismo fluvial “es posible pronosticar su comportamiento” resultando “tremendamente efectivo con la problemática de las crecidas”. Generalmente se emplean modelos ya existentes. Sin embargo, la diferencia es “cómo ayudes tú a ese algoritmo a que aprenda o interprete lo que tú quieras de la manera en que tú marques”, apunta Montenegro. Al final, dice, “es como tener un hombre del tiempo en el río que te diga qué es lo que va a pasar, otorgándote la oportunidad de desarrollar mejores medidas para minimizar sus daños”. Y esa es la meta del proyecto: convertirse en un útil servicio público de anticipación.

La metodología basa su determinación en el aprendizaje de datos históricos para trazar una predicción sobre el comportamiento el río

Eficaz herramienta para bomberos y confederaciones 

El científico de Itainnova Íñigo Zubizarreta, quien organizó junto a su equipo de Big Data y Sistemas Cognitivos el Aguathón, expone los dos parámetros que desde el instituto se tuvieron en cuenta para trazar la jerarquía de “Top 1” de los modelos presentados. Teniendo como base el conjunto de datos reales de la CHE, “testeábamos los resultados del modelo presentado en cuestión” para establecer su índice de precisión. Todo ello en función de dos parámetros: el porcentaje de acercamiento al dato real (un 90%) y la tipología del modelo en sí (velocidad, antigüedad, nivel de documentación del código) que conferiría el otro 10% restante. Después -escudriñando cada variable- “se hizo la media de todos los resultados y se terminó por definir el modelo más ajustable”.

Por ahora, la técnica de Montenegro es un piloto. No obstante, Zubizarreta revela que, una vez se realicen las pruebas de verificación pertinentes, el objetivo es que colectivos como el de bomberos puedan emplear esta metodología predictiva. De esa manera, estarían “perfectamente informados en todo momento” de cara a una mayor y mejor preparación en caso de riada. Una herramienta que podría extrapolarse, matiza, “a otras confederaciones hidrográficas de la península como la del Tajo o la del Guadalquivir”, y, por qué no, más adelante, como diría Magallanes, llevar anclas a otras zonas “de Europa”