Investigadores del Instituto de Biodiversidad y Medioambiente BIOMA de la Universidad de Navarra han participado en la creación de una herramienta que detecta desastres locales a partir de noticias publicadas en Internet con el objetivo de mejorar la prevención y la adaptación urbana frente a catástrofes naturales.

Leire Labaka, Josune Hernantes y Fernando María de Villar Rosety, de la Escuela de Ingeniería Tecnun de la Universidad de Navarra, han intervenido en esta investigación, publicada en la revista International Journal of Data Science and Analytics.

Las grandes bases de datos internacionales de desastres, como Emergency Events Database (EM-DAT), registran principalmente eventos de gran magnitud. Sin embargo, miles de inundaciones, deslizamientos o incidentes industriales de menor magnitud “quedan fuera de estas estadísticas, pese a que su impacto acumulado puede ser crucial para las comunidades locales”, explica Fernando María de Villar Rosety, investigador principal del artículo.

La herramienta emplea un sistema de inteligencia artificial (modelos grandes de lenguaje) para registrar estos desastres a partir de noticias publicadas en internet. Este método permite detectar eventos de pequeña escala que habitualmente quedan fuera de las grandes bases de datos internacionales.

Fernando María de Villar Rosety, Leire Labaka y Josune Hernantes

Un puente entre los periodistas y los gestores

El sistema combina técnicas de rastreo web, o web scraping, y modelos de lenguaje como ChatGPT para analizar de forma automática noticias y extraer información relevante sobre desastres, como su localización, la fecha o las infraestructuras afectadas. "Cada día, cientos de noticias describen cómo una inundación cortó una carretera, aisló un municipio, etc. Esa información existe, pero está dispersa y desordenada. Nuestro trabajo usa modelos de lenguaje para leerla sistemáticamente y convertirla en datos estructurados: el puente entre lo que cuentan los periodistas y lo que necesitan los planificadores y gestores para tomar decisiones”, afirma Fernando María de Villar Rosety.

El equipo investigador probó la herramienta con un caso de estudio centrado en unas inundaciones que ocurrieron en Granada. A partir de solo 21 noticias locales recopiladas en plataformas como Google News, el sistema logró identificar carreteras afectadas y otros impactos asociados a los episodios de lluvia intensa, alcanzando un nivel de precisión del 76% en la extracción de información relevante. "No se trata sólo de recopilar datos, sino de analizarlos y detectar patrones de vulnerabilidad que pasan desapercibidos. Ver, por ejemplo, que la carretera A-92 aparece repetidamente en las noticias tras cada tormenta nos permite identificar que es una infraestructura que está fallando sistemáticamente y que requiere de medidas de prevención”, añade Leire Labaka.

Según los autores, este sistema podría complementar bases de datos globales como EM-DAT, que solo registran desastres de gran impacto y suelen dejar fuera los eventos de menor escala. "La inteligencia artificial nos permite transformar miles de noticias sobre el impacto de diferentes eventos climáticos en datos estructurados. Así podemos detectar vulnerabilidades y prevenir fallos en nuestras infraestructuras, un paso clave para construir ciudades más resilientes y mejorar la seguridad de la sociedad frente a estos eventos”, asegura Josune Hernantes.