En Resumen
- Google presentó Groundsource, sistema que usó Gemini para analizar noticias desde 2000 y construir una base de 2,6 millones de inundaciones históricas.
- El modelo entrenado pronostica riesgo de inundación repentina en áreas urbanas con 24 horas de anticipación y ya está disponible en Google Flood Hub.
- El sistema tiene limitaciones: cubre zonas de ~20 km² y funciona mal donde la cobertura periodística es escasa.
Las inundaciones repentinas matan a miles de personas cada año. Se producen rápidamente, afectan más a las ciudades y, durante décadas, los científicos no podían hacer casi nada para anticiparlas, porque simplemente no existían los datos necesarios para entrenar modelos de predicción.
El jueves, Google dijo que encontró una solución a ese problema: leyendo las noticias.
La empresa presentó Groundsource, un sistema que utiliza la IA Gemini para analizar millones de artículos de noticias publicados desde el año 2000, extraer referencias a eventos de inundaciones y ubicar cada uno en un lugar y una fecha. El resultado es un conjunto de datos de 2,6 millones de inundaciones repentinas históricas que abarca más de 150 países, y que ahora está disponible para que cualquiera lo descargue y utilice.
Ese conjunto de datos se utilizó luego para entrenar un nuevo modelo de IA capaz de pronosticar si es probable que una inundación repentina afecte un área urbana en las próximas 24 horas. Los pronósticos ya están disponibles en Google Flood Hub, la misma plataforma que la empresa ya utiliza para alertar a aproximadamente 2.000 millones de personas sobre inundaciones fluviales en todo el mundo.
El problema que Groundsource resuelve es sorprendentemente básico. Los ríos cuentan con medidores físicos —sensores instalados en el agua que llevan décadas registrando niveles—. Así fue como los meteorólogos aprendieron a predecir cuándo un río se desbordaría. Las calles de las ciudades no tienen nada parecido. Cuando las lluvias intensas caen sobre el pavimento y superan la capacidad de los sistemas de drenaje, las inundaciones ocurren demasiado rápido y de forma demasiado localizada como para rastrearlas con instrumentos tradicionales.
Sin registros históricos, no se puede entrenar un modelo de IA para reconocer el patrón. La solución de Google fue tratar los artículos de noticias como el sensor que faltaba.
"Al convertir información pública en datos accionables, no solo estamos analizando el pasado, sino construyendo un futuro más resiliente para todos, en línea con nuestro objetivo de que nadie sea sorprendido por un desastre natural", señaló Google.

Tras filtrar anuncios, menús de navegación y duplicados, y traducir artículos de otros idiomas al inglés, el equipo convirtió millones de descripciones textuales desordenadas en datos de series temporales geolocalizados y estructurados.
El modelo entrenado con esos datos utiliza una red neuronal LSTM —un tipo de IA diseñada para procesar secuencias a lo largo del tiempo— para procesar pronósticos meteorológicos por hora junto con factores locales como la densidad de urbanización, las tasas de absorción del suelo y la topografía. Luego genera una señal simple: riesgo de inundación medio o alto en las próximas 24 horas, para cualquier área urbana con una densidad de población superior a 100 personas por kilómetro cuadrado.
El sistema tiene limitaciones reales. Solo cubre áreas de aproximadamente 20 kilómetros cuadrados a la vez, no puede indicar la gravedad de una inundación y no funcionará bien en regiones donde la cobertura periodística es escasa.
Sin embargo, los primeros resultados son reveladores. Una autoridad regional de gestión de desastres en el sur de África recibió una alerta de Flood Hub durante la fase beta, confirmó la inundación sobre el terreno y despachó a un trabajador humanitario para gestionar la respuesta. Según la directora de resiliencia ante crisis de Google, Juliet Rothenberg, "esa cadena de eventos, desde una predicción en Flood Hub hasta la presencia en el terreno, es exactamente para lo que fue creado Flood Hub".

